葛仕明  |

中国科学院

博士生导师

即将开始的A2M课程

人工智能安全-可解释的人工智能模型

机器学习

2019-05-18 15:50--16:50

背景介绍:
在人工智能实际应用中,高效安全的模型是部署的两大需求,尤其是在高风险应用如无人驾驶、机器人、金融风控、医学诊断、安全认证等领域,模型的可解释性尤为重要。通过模型可解释性,应用方可以对部署进行风险评估,对模型出现的错误能够合理解释。

解决思路/成功要点:
当前以深度学习为代表的人工智能技术在很多领域取得了巨大的成功,其成功的关键在于提供了一种统一的框架从海量数据中汲取知识获得稳健的人工智能模型;但是,其黑盒属性限制了其解释性。为此,一种解决思路是通过在模型的可解释优化逼近,在高稳健性和可解释性之间寻找平衡。

成果:
提出一种人工智能模型可解释性的思路,在高稳健性和可解释性之间找到平衡。

博士,博士生导师,中国科学院青年创新促进会成员。于中国科学技术大学获得学士和博士学位,主要研究方向为计算机视觉、深度学习、人工智能安全等,在中国科学院主讲《深度学习基础及应用》、《人工智能安全》等课程,发表论文70余篇。曾先后任职于诺基亚研究院、三星研究院和盛大创新院,从事技术研发和项目管理工作,曾负责多个企业重点项目。目前主持或参与国家重点研发计划、国家自然科学基金、企业研究院横向等课题,研究成果在安全、军事及工业等领域得到应用。2013年通过高层次人才引进进入中国科学院信息工程研究所工作,获得研究所优秀引进青年人才支持。目前是IEEE高级会员,CCF高级会员,CAAI模式识别专委,CCF计算机视觉专业委员会委员。

即将开始的A2M课程

人工智能安全-可解释的人工智能模型

机器学习

2019-05-18 15:50--16:50

背景介绍:
在人工智能实际应用中,高效安全的模型是部署的两大需求,尤其是在高风险应用如无人驾驶、机器人、金融风控、医学诊断、安全认证等领域,模型的可解释性尤为重要。通过模型可解释性,应用方可以对部署进行风险评估,对模型出现的错误能够合理解释。

解决思路/成功要点:
当前以深度学习为代表的人工智能技术在很多领域取得了巨大的成功,其成功的关键在于提供了一种统一的框架从海量数据中汲取知识获得稳健的人工智能模型;但是,其黑盒属性限制了其解释性。为此,一种解决思路是通过在模型的可解释优化逼近,在高稳健性和可解释性之间寻找平衡。

成果:
提出一种人工智能模型可解释性的思路,在高稳健性和可解释性之间找到平衡。

详情咨询:400-8128-020
赞助合作:sissi
联系电话:130-4321-8801
邮箱:market@msup.com.cn
CopyRight © 2008-2019 Msup