文章主题:复旦大学, 庆祝建校118周年, 学术报告, 徐英瑾

666AI工具大全,助力做AI时代先行者!

最近,复旦大学在其118周年校庆期间,启动了一系列学术报告活动。在这其中,复旦大学哲学学院的徐英瑾教授以“从人工智能哲学的角度看ChatGPT”为主题,进行了深刻的探讨。徐英瑾教授深入浅出地剖析了ChatGPT技术的主要问题,即它过于机械地将“常人”的观点进行全面复制,这无疑会加剧人类的自我欺骗现象。这种观点不仅对ChatGPT技术本身提出了质疑,同时也让我们思考到了技术发展对人类社会的影响。

从人工智能角度揭示ChatGPT弊端:机械化的全面模仿加剧自欺现象
图为徐英瑾。复旦大学供图

徐英瑾教授是一位杰出的学者,担任中国知识论专业委员会副秘书长和中国现代外国哲学专业委员会理事等多个重要职务。他领导并完成了多项国家级和省部级科研项目,其中包括国家社科项目“基于信息技术哲学的当代认识论研究”。他的研究领域主要集中在人工智能哲学和英美分析哲学领域。

理解ChatGPT的本质并非易事。徐英瑾解释道,ChatGPT的全称是Chat Generative Pre-trained Transformer,其中”Chat”这个词汇在人工智能领域具有特殊的意义。它源于图灵测试中的一种技术,即早期的”聊天盒(chatbox)”技术。作为一种大型语言模型,ChatGPT是”传统神经元网络技术+深度学习技术”的升级版。简单来说,它通过数学建模构建了一个简化的人工神经元网络结构。

ChatGPT 的语言流畅度和机器翻译的水准确实让人印象深刻,然而,徐英瑾却指出,这种进步并非是人工智能本身的特有属性,而是源于统计学的不断迭代和大规模数据集的人工语料训练。换句话说,虽然 ChatGPT 可以识别出“路遥知马力”和“日久见人心”这样的诗句,但它却无法真正理解其中蕴含的深层含义。这是因为它的“学习”过程过于粗暴,只是简单地投入大量数据和语料进行训练,而没有真正去理解这些诗句背后的文化底蕴和审美价值。

从海德格尔哲学的观点审视,当前人工智能系统的训练模式必将导致“常人”观点的制度化和机械化。徐英瑾指出,从机械视角出发,一个被视为正确的意见便是得到大众认可的观点。因此,那些与主流思想背道而驰的少数派提出的异端观念在技术层面上很可能会被筛选出去。

如果ChatGPT技术在托勒密时代就已经存在,那么哥白尼的“日心说”很可能会被永远视为错误。这是因为,当时的科学家们还没有意识到这种技术的强大影响力,所以无法对其进行准确的评估和判断。然而,随着科技的不断发展,我们越来越能够认识到这些技术所具有的潜在风险,因此我们需要保持高度警惕,以确保它们不会被滥用或误用。

而由于人工智能训练与当下总是存在时间差,“无法面对未来”是ChatGPT这类人工智能的最大瓶颈所在。徐英瑾表示,过度依赖ChatGPT,可能会让人丧失反思力与对未来的把握能力,陷入过度“自欺”的状态。

人工智能未来到底走向何处?在他看来,要想真正走通人工智能道路,需要在结合节俭性算法与推理引擎的基础上,兼顾哲学思维带来的“破”与“立”,“大数据的训练很难让机器对语境形成精准识别,如何突破语料的伪装,真正识别人类的精神内核,人工智能仍在路上。”

来源:中国青年报客户端

从人工智能角度揭示ChatGPT弊端:机械化的全面模仿加剧自欺现象

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!