清华大学付祈安:评估图像分类任务中的对抗鲁棒性

作者: 付祈安

来源: 学术头条

发布日期: 2020-07-17

清华大学付祈安将在RealCourse直播间分享关于评估图像分类任务中的对抗鲁棒性的研究成果,重点介绍RealSafe平台及其在CVPR 2020中的应用。

「RealCourse直播间」是RealAI打造的学术分享平台,旨在整合RealAI与清华大学人工智能研究院众多青年学者的最新科研成果,重点关注算法鲁棒性、安全性等安全可控人工智能研究方向,通过一场场精彩纷呈的学术分享,传播人工智能领域最前沿的技术理念与发展趋势。本期直播由「RealCourse直播间」与人工智能前沿学生论坛联合发起!

近年来,机器学习模型尤其是深度神经网络模型在很多图像分类任务上都得到了让人印象深刻的结果,但是,这些机器学习模型容易受到对抗样本的干扰,即在一张正常的图片上叠加一个人类不宜察觉的小扰动就可以让原本分类正确的机器学习模型产生错误的分类结果。对抗样本的存在使得机器学习模型难以应用于需要较高安全性的场景,因此对抗攻防算法及模型鲁棒性逐渐受到研究者的重视。

但目前很多新的防御方法在被提出后很快会被新的攻击算法攻破,攻击算法也类似;同时,现有的很多工作并没有合理全面地评估攻防算法的性能和模型的鲁棒性。针对该问题,RealAI联合清华大学人工智能研究院于此前推出业界首个人工智能安全平台—RealSafe,该平台能够提供从安全测评到防御加固整体解决方案,可用于发现包括人脸比对等在内的常用AI算法可能出错的极端情形,也能预防潜在的对抗攻击。

7月19日(周日)20:00,我们邀请到清华大学计算机系硕士付祈安做客直播间,作为RealSafe平台的重要参与者,他将为大家带来“评估图像分类任务中的对抗鲁棒性”的主题分享,其中他将对RealSafe平台进行重点介绍。本次分享,付祈安将重点介绍他在CVPR 2020中的工作:开发针对算法鲁棒性进行基准测试的RealSafe平台,并使用它对典型的攻击算法、防御算法和模型进行了全面系统的实验。

具体内容有:多种威胁模型下RealSafe针对典型攻击算法、防御算法和模型的大规模的实验;基于实验结果,用准确率随扰动大小和攻击强度变化的曲线代替常见于之前工作中的点值作为评价鲁棒性的基准等。付祈安,清华大学计算机系硕士,目前研究方向为深度学习中的鲁棒性问题。本次直播将在RealCourse的官方社群中进行,扫描下方海报二维码添加小助手回复「Live0719」,即可入群观看直播。

人工智能前沿学生论坛SFFAI,是由人工智能前沿讲习发起,邀请一线科研人员分享、讨论人工智能各个领域的前沿思想和最新成果的平台。SFFAI目前主要关注机器学习、计算机视觉、自然语言处理等各个人工智能垂直领域及交叉领域的前沿进展,进行学术传播,同时为讲者塑造个人影响力。

UUID: ef68648c-6d49-4f06-ae64-652cbe9c5e9a

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2020年-下/2020-07-17_直播预告清华大学付祈安:评估图像分类任务中的对抗鲁棒性.txt

是否为广告: 否

处理费用: 0.0026 元