文章主题:IT 之家, OpenAI, ChatGPT, 医疗领域

666AI工具大全,助力做AI时代先行者!

据 IT 之家报道,尽管 ChatGPT 在全球范围内风靡一时,但一项最新的研究揭示,它在关键领域仍无法替代人类专家。该研究由哈佛医学院附属的布里格姆妇女医院研究人员完成,他们发现 ChatGPT 生成的癌症治疗方案存在诸多错误。

这项研究发表在《美国医学会肿瘤学杂志》上,研究人员向 ChatGPT 提出了各种癌症病例的治疗方案,结果发现三分之一的回答中包含了不正确的信息。研究还指出,ChatGPT 倾向于将正确和错误的信息混合在一起,因此很难识别哪些信息是准确的。

该研究的合著者Danielle Bitterman博士指出,他们对错误信息与正确信息交织的程度感到惊讶,这种情况甚至让专家难以察觉。她强调,虽然大型语言模型经过训练能够给出具有高度说服力的回答,但它们并非专为提供准确医疗建议而设计。在临床领域,错误率以及回答不稳定性是需要解决的关键安全问题。

在2022年11月,ChatGPT的问世引起了广泛关注,甚至在一夜之间便获得了1亿活跃用户的认可。然而,即使如此,生成型人工智能模型仍存在一定的局限性,即在某些情况下可能会出现”幻觉”,这表现为该模型自信地提供可能具有误导性或完全错误的信息。

IT之家观察到,将人工智能技术应用于医疗领域的工作正在逐步展开,其目标在于优化管理流程。不久之前,一项具有重大意义的研究表明,采用人工智能手段进行乳腺癌筛查是安全且有效的,同时有可能将放射科医生的工作负担减轻近半。此外,哈佛大学的计算机科学家近期发现,最新的GPT-4模型能够轻松通過美國醫學資格考試,甚至暗示它在临床判斷力方面相较于部分醫生更具优势。

然而,鉴于生成型模型如 ChatGPT 存在准确度问题,其在短期内替代医生的可能性并不大。《美国医学院肿瘤学杂志》的一项研究揭示了 ChatGPT 回答中的一个令人担忧的现象:有 12.5% 的回答属于”幻觉”,而在被询问关于晚期疾病局部治疗或免疫疗法的信息时,它最可能提供错误的信息。

OpenAI已公开承认ChatGPT可能存在局限性,其使用条款明确指出,该公司的模型并非是为了提供医疗信息,因此,它不应用于“对严重医疗状况进行诊断或提供治疗服务”。

ChatGPT在关键领域尚无法替代人类专家:错漏信息引人担忧

AI时代,拥有个人微信机器人AI助手!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

搜索微信号AIGC666aigc999或上边扫码,即可拥有个人AI助手!