【本站讯】6月25日,英国埃塞克斯大学哈尼∙哈格拉斯(Hani∙Hagras)教授做客黄岛讲坛(数理分论坛),为师生作题为“实现面向实际应用的真正可解释人工智能”的学术报告。
哈尼∙哈格拉斯教授介绍,近年来人工智能(AI)技术的快速发展带来了显著的效益,但其作为“黑箱”模型的特性也引发了广泛关注。当前主流的深度学习模型虽然性能优异,但其决策过程缺乏透明度,这在金融、医疗等关键领域存在重大隐患。因此,需要进一步聚焦于如何通过可解释人工智能(XAI)技术提升AI系统的透明性,确保其决策过程既可靠又可被人类理解。
哈尼∙哈格拉斯教授指出,实现XAI的核心在于因果关系、透明度和简单性这三大支柱,这要求模型能够在揭示内在逻辑、确保决策可追溯的同时,也具有易于理解的表达方式。模糊逻辑系统(Fuzzy Logic Systems),特别是Type-2模糊集在这方面表现出色,能够以接近人类语言的方式来解释决策过程,显著提升了模型的可信度。
哈尼∙哈格拉斯教授强调,在实际应用中,XAI已展现出巨大价值。在金融领域,其通过可视化关键因素可以提升信用评分的可信度;在医疗诊断中,其可以帮助解释大脑活动模式;在基因组学研究中,其加速了癌症药物的开发。此外,在工程优化、资源配置等领域,XAI技术的应用也显著提高了工作效率。
报告结束后,哈尼∙哈格拉斯教授与现场师生进行互动交流,耐心解答在场师生提出的问题,并结合自身经验给出了具有针对性和指导性的建议。
哈尼∙哈格拉斯,英国埃塞克斯大学计算机科学与电子工程学院教授、计算智能中心主任兼人工智能研究组负责人,电气与电子工程师学会(IEEE)会士、英国工程技术学会(IET)会士、英国高等教育学会(PFHEA)首席会士、人工智能产业联盟(AIIA)会士及亚太人工智能学会(AAIA)会士。研究聚焦可解释人工智能(XAI)与数据科学,成果深度应用于金融、信息物理系统、神经科学等七大领域,在国际期刊、会议和著作上累计发表论文500余篇,获得IEEE模糊系统汇刊杰出论文奖(2010/2004)、全球电信商业奖(2015/2017)、IEEE计算智能学会杰出讲师(2016)等多项国际权威奖项,并包揽IEEE模糊系统国际会议(2014/2006)、英国计算智能研讨会(2012)等四大国际会议最佳论文奖,引领了XAI技术在工业智能控制与可信AI部署领域的范式革新。