可解释AI、数据起源与可信AI:21世纪科技前沿的探索
这篇文章主要探讨了人工智能和机器学习模型的可解释性和透明度问题。在学界的共识下,AI和ML模型应当是透明的,可解释的和可信的。因此,可解释AI(XAI)领域迅速扩张,通过解释复杂模型如深度神经网络的生成过程,可以提高人工智能系统可信度和透明度。文章回顾了相关文献,并对数据起源、可解释AI和可信赖AI进行了系统的综述。作者强调了数据起源在提高AI系统透明度的重要作用,并通过Bibliometrix和VOS Viewer等工具进行了文献计量分析。同时,文章介绍了多种将数据起源文档化的工具,如W3C PROV本体和OpenML,并在实际应用中引入了Renku等工具软件。最后,作者强调了数据起源对于XAI和TAI的重要性,呼吁开发更多自动化工具记录数据起源,并使其可查询和访问。