文章主题:人工智能(AI), 机器学习(ML), 可解释性(XAI), 可信赖性(TAI)
电话 | 010-82030532 手机 | 18501361766
微信 | tech9999 邮箱 | yw@techxcope.com
来源:数据智能英文刊作者:DI编辑部近期,人工智能(AI)与机器学习(ML)模型在各行各业的应用取得了显著的突破,与此同时,对于其透明度、可解释性以及可信度的探讨也在持续增加。学术界普遍倡导,AI与ML模型应具备高度透明性,能够清晰地阐述其工作原理,并确保其结果具有可靠性。
在当前环境中,我们可以观察到人工智能领域的可解释性AI(XAI)正在快速发展。为了增强人工智能系统的可信度和透明度,通过解读复杂模型的生成过程,例如深度神经网络(DNN)的结果,可解释AI展现出巨大的潜力。同时,众多研究人员和业界人士都认为,利用数据来源来解释这些复杂模型,将有助于提升基于人工智能系统的透明度。
在本文中,我们对数据来源、可解释AI(XAI)以及可信赖AI(TAI)进行了全面的文献梳理,以便于深入理解这些核心概念。我们重点阐述了数据来源对于提升基于人工智能的系统可解释性的重要性。此外,文章也对该领域的最新发展趋势进行了探讨,并对其未来研究方向提出了展望。
对于那些渴望深入了解数据起源、XAI以及TAI实质等领域的学者和业界专业人士来说,我们希望这篇文章能够作为一个研究的良好起点。
一文章提纲
1. 引言
2. XAI和TAI的基本概念
3. 数据起源, XAI, TAI的文献计量分析
4. 数据起源, XAI, TAI的关系的思考
5. 数据起源, XAI, TAI未来十年发展趋势
6. 结论
二内容总结
引言
人工智能的应用广泛,且对人类影响深远。但现有的模型只有结果而不涉及过程,因此,很多人担心这些模型不透明,不公平。比如“机器学习和深度学习是怎么工作,怎么产生结果”是一个黑箱问题。对此,有一个解决办法是通过XAI,也就是建设TAI去解释复杂模型。
作者引用文献阐述XAI和TAI的技术方法——数据起源的重要性和有效性。本文对这三者进行文献综述并关注他们在数据科学中的应用。基于关键词在Scopus文献库中进行文献搜索,采用滚雪球的策略研究2010年到2020年的论文。
XAI和TAI的基本概念
AI可解释性和可信度的背景
在本文中,作者首先通过多个实例展示了人工智能与机器学习存在的漏洞,从而强调了提升可解释性在实践中的重要性。此外,作者还阐述了一种基本原则,即构建合法且透明的AI系统。在此基础上,各国针对数据科学领域的发展,从XAI方法和战略规划的角度进行了探讨。学者Wing进一步拓宽了计算机系统的视角,并提出在多个维度之间进行权衡的必要性。
图1 XAI和TAI的谷歌趋势 图2 文献库中论文的时间分布实现XAI和TAI的技术途径
图3 ML模型分类及对应XAI方法这些方法可以生成结果,但是为了增加AI系统的透明度,需要应用数据起源作为XAI的补充技术。
多方面的文献计量分析
在本文的研究过程中,我们运用了文献计量学方法来挖掘这三者之间在论文中存在的相互联系证据。为了获取相关数据,我们选择了特定的数据库并利用关键词进行检索。分析工具则采用了Bibliometrix和VOS Viewer,以便更直观地呈现研究成果。
图4 参考文献标题中的单词可视化词云图5 关键词共现图聚类三者关系思考
来源标准的关注度和相关工作增加
作者进行文献综述,整理研究主题后得出:
图6 三者话题相似度在本文中,我们也探讨了一些有助于将Provenance文档化的工具,例如W3C PROV本体和OpenML。
数据起源实践及对XAI和TAI的支持
在对现实世界的实践进行文献综述的过程中,作者深入探讨了数据起源模型的各类型,以及W3C PROV的六个关键组成部分。接下来,作者简要介绍了若干款应用工具软件,如Renku等,这些软件在数据管理领域具有广泛的应用价值。
未来十年展望
本部分讨论了在AI/ML模型中造成偏差的原因,数据不可追踪,没有数据起源支持的决定是不可信的。
这项工作是社会-技术交叉领域问题,需要从两方面解决问题。
开发数据起源功能应用前应掌握用户需求
应开发更多的自动化工具记录数据起源,并将其标准化、使数据起源记录可查询可访问。
结论
用事后解释的方法来解释AI或机器学习模型是不够的,需要数据起源加入增加系统可信度和透明度。作者总结了文章行文顺序,强调数据起源对于XAI和TAI的重要性。
AI时代,拥有个人微信机器人AI助手!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!