进入21世纪以来,人工智能取得了长足的进步,并逐步在自然语言处理、计算机视觉、语音识别、自动驾驶等领域得到了应用。人工智能与人的紧密结合,使智能人机协作成为大势所趋。人类希望在全面应用人工智能的同时,理解、信任和管理人工智能。因此,开发可解释、可扩展、安全可靠的人工智能非常重要,人工智能技术的快速发展也面临着许多困难和挑战。其中,如何以易于理解的方式向人类解释人工智能技术的基本原理、自动决策机制、潜在风险和预防措施,已成为开发可靠、安全、可靠的人工智能的首要任务,可解释性在我们的日常生活中随处可见。例如,当医生向患者解释诊断结果和治疗措施时,他应该向患者很好地解释原因和治疗方法,以便患者可以放心
然而,现实情况是,核心AI算法,尤其是深度学习算法,通常运行在与;“黑匣子”;在的工作模式下,人工智能系统的运行结果无法被人类以合理的方式理解和识别
01𞓜 深度学习仍存在理论和应用缺陷,因此创建可解释的人工智能势在必行。作为人工智能的核心算法之一,深度学习的不可解释性体现在理论和应用两个层面,实验表明,给出了一些样本图像来训练深度神经网络与logistic回归相结合的识别模型;该模型可以对大多数正确的图片进行分类,但它会将雪背景中的赫斯基误认为狼。因为识别器从训练数据中学习;图片中的白色大背景(雪)可以作为识别狼的基础;。由于在输入数据和预期结果之间建立(概率)相关性是错误的关系,当它与训练样本不一致时,模型的性能将大大失去其水平
在应用层,通过数据驱动获得的AI系统存在一系列隐患,并可能导致严重的社会问题
首先,由于数据样本采集的局限性和偏差,数据驱动的人工智能系统存在偏差。这种偏见甚至与人类社会的偏见是一样的。例如,芝加哥法院使用的犯罪风险评估算法compass被证明对黑人嫌疑人造成了系统性的歧视。白人被错误地评估为低犯罪风险,而黑人被错误地评估为高犯罪风险,黑人的概率是白人的两倍[]
其次,"e;“黑匣子”;类似的深层神经网络通常会犯一些人类无法犯的低级错误,这表明了安全方面的潜在风险。例如,深层神经网络可以正确识别图片中的校车,但在对人眼无法检测到的少量图片像素进行一些更改后,图片被识别为鸵鸟[]
;此外,只要人们戴上一副特殊眼镜,他们就可以利用深层神经网络欺骗人脸识别系统[];考虑到人脸识别系统在金融支付等场景中的广泛应用,这种潜在的金融和社会风险令人不寒而栗
最后,最重要的是,从决策机制的角度来看,目前对深度学习算法的分析仍处于不透明的探索阶段。尤其是具有数亿个参数的超大规模预训练神经网络的决策过程,如bert[]、gpt3[],在学术界尚未得到明确的解释。此报价("e);“黑匣子”;类似的深层神经网络暂时无法被人类充分理解和信任,大规模应用此类预训练模型的潜在风险也不容忽视
02 为了促进人工智能的持续实施,有必要在涉及人身和财产安全的主要领域满足不同用户对人工智能可解释性的需求,如金融、医疗、自主驾驶等,模型的可解释性已成为决定用户能否信任模型的关键。对于不同的口译受众,模型要想获得不同群体的信任,就必须考虑每个人的职位背景、教育水平等因素,并提供不同的口译内容和形式
对于AI用户来说,他们往往是没有相关专业背景的普通人。他们更关心人工智能系统的结果如何影响自己和客户的利益。当出现问题时,他们需要向他们解释系统做出决策的原因
例如,医院引入了人工智能医疗诊断系统。如果系统判断患者的癌症检测结果为阳性,概率为90%,那么结论通常不被接受。患者会问:你是如何做出判断的?基于医生和其他专业人员的哪些特点和经验,他们可能会问:系统是否使这种预测符合医院和医疗管理单位的要求?你是否根据正式的医疗程序作出推断?推论可靠吗?有什么风险?该系统测试了多少个案例?它是否稳定、可靠、全面、科学
另一个例子是,在电子商务平台上,系统设计者还需要向用户解释,帮助人们理解;为什么("e);该算法向他们推荐一些特定的产品,以提高推荐系统的透明度、说服力、有效性、可靠性和满意度
对于AI系统开发人员来说,他们通常是具有专业AI背景知识的系统开发人员和测试人员。他们需要准确、深入的专业讲解来完成AI系统的开发、调试和测试任务。例如,对于大型模型,哪部分数据在结论中起关键作用?系统的哪个部分被激活?最可能的错误来源是什么?如何修复
03𞓜 AI系统迫切需要满足各级合规要求 除技术层面外,现行法规[][][]也要求AI系统的开发和使用过程必须在合规条件下运行。例如,数据收集和模型学习过程是否符合隐私保护和数据管理条例[],必须有准确的解释和认证。对于违反要求的智能行为,还需要有明确的事故分析,为严格的问责机制提供技术说明[]。 同时,如何将制度层面的规则细化为可实现的技术方案仍然可以解释AI需要研究和解决的挑战。 因此,发展是可以解释的AI一方面,它具有重要的理论和现实意义,可以帮助用户建立正确的意义AI系统的信任,防止因为算法的黑盒特性做出有偏见的结论,促进算法的公平性;另一方面,可以满足合规要求,促进AI发展公平、鲁棒、安全。 在此背景下,机器学习、计算机视觉、自然语言处理、生物医学、金融、推荐系统等应用领域的12位知名专家联合创作了《可解释人工智能导论》一书,现已上市! 本书内容 本书全面介绍可解释AI基础知识、理论方法和行业应用。这本书分为三部分,共11章。 第一章揭示了基于数据驱动的人工智能系统决策机制,提出了基于人机通信交互场景的人工智能范式。 第2~5章介绍了各种可解释的人工智能技术方法,包括贝叶斯方法、基于因果灵感的稳定学习和反事实推理、基于与或图形模型的人机合作解释、对深度神经网络的解释。 第6~10章介绍了人工智能在生物医学、金融、计算机视觉、自然语言处理、推荐系统等领域的应用案例,详细说明了可解释性在司法、城市管理、安全制造等实际应用中的积极作用。 第11章总结了这本书,并讨论了人工智能研究所面临的挑战和未来的发展趋势。 作者介绍 杨强 国际人工智能联合会加拿大工程院院士、加拿大皇家科学院院士IJCAI前董事会主席,香港科技大学讲座教授。领导全球迁移学习和联邦学习的研究和应用,最近的作品有《迁移学习》、《联邦学习》、《联邦学习实战》、《隐私计算》等。 范力欣 微众银行人工智能首席科学家包括机器学习和深度学习、计算机视觉和模式识别、图像和视频处理。 朱军 主要从事机器学习研究的清华大学计算机系教授、人类智能研究所所长、北京智能源人工智能研究所、瑞莱智能首席科学家。 陈一昕 华夏基金董事总经理、首席数据官、首席技术官。华盛顿大学计算机系教授、大数据科学中心创始主任。金融技术、金融数据挖掘、智能投资研究、机器学习、算法优化等研究领域。 张拳石 上海交通大学副教授、博士生导师。研究方向是机器学习和计算机视觉,特别是神经网络的可解释性。 朱松纯 北京通用人工智能研究院院长、北京大学人工智能研究院院长、清华大学通用人工智能研究院院长。长期致力于构建统一的计算机视觉、认知科学甚至人工智能科学数学框架。 陶大程 澳大利亚科学院院士、京东探索研究所首任院长、悉尼大学数字科学研究所顾问和首席科学家。主要关注可信人工智能研究,特别是基础理论、大规模分布式培训及相关机器视觉应用。 崔鹏 清华大学计算机系副教授、博士生导师。研究兴趣集中在大数据驱动的因果推理和稳定预测、大规模网络表征学习等方面。 周少华 中国科技大学讲座教授、生物医学工程学院执行院长、图像智能与机器人研究中心主任、中国科学院计算机研究所客座研究员、香港中国大学(深圳)客座教授。长期致力于医学图像的研究、创新和应用。 刘琦 同济大学生命科学与技术学院生物信息系主任聘请教授和博士生导师。致力于发展人工智能与生物组学交叉融合的研究范式,进行准确的医学研究。 黄萱菁 复旦大学计算机科学技术学院教授、博士生导师。研究领域是人工智能、自然语言处理、信息检索和社交媒体分析。 张永锋 罗格斯大学计算机系助理教授、博士生导师、互联网智能经济实验室主任。对机器学习、数据挖掘、信息检索和推荐系统的研究兴趣。 专家力荐 本书全面介绍了人工智能在理论和应用中的发展现状、存在的问题以及未来的发展方向。它是研究人员、开发人员、决策者和想了解人工智能并致力于人工智能的用户的好参考书。 —-张钹 清华大学人工智能研究所院长
杨强教授的这篇关于可解释人工智能的论文系统地总结了对机器学习本质的深入理解和探索,并提出了人机合作的交互式可解释人工智能范式。本书通过计算机视觉、自然语言处理、推荐系统和其他技术领域以及生物医学和电子商务金融和其他应用领域的实际案例,展示了可解释人工智能在增强公众信任和满足合规需求方面的积极作用。我相信,关注人工智能发展的各行各业的读者,包括高校计算机与人工智能专业的师生,都可以从这本专著中找到各种有用的讨论和有趣的观点
– - -微软前全球执行副总裁、美国国家工程院外籍院士、英国皇家工程院外籍院士沈向阳可以解释,人工智能是一个备受关注的重要课题,但在其内涵和外延的诸多方面仍缺乏共识。这本书以杨强教授为首,对可解释人工智能进行了生动的讨论,特别是给出了一些应用案例。即使是缺乏相关专业知识的读者,也可以在阅读后有所收获– - -周志华南京大学人工智能学院院长、acm/aaai研究员