文章主题:
扫码加入医疗IT招聘求职社群
与全国同行一起交流
声明:本文写作过程中使用ChatGPT进行协助,主要是翻译和文字校验工作。
自ChatGPT去年11月横空出世,无异于投下一颗原子弹,其威力波及众多行业领域,医疗卫生领域是应用重点,公众关注度远甚于当年的IBM Watson Health(嗯,还有人记得Watson么?)。国内也有媒体发表医生利用ChatGPT进行医学测试的结果和评论。
目前,ChatGPT在医疗领域的应用包括辅助诊断、病例分析、文献检索、患者教育、生成医疗文档、心理支持、药物管理和预防医学等方面(ChatGPT回答)。国际上医学界同行对ChatGPT研究正逐步开始,让我们一起看看国际上的大佬对ChatGPT在医学领域有何看法。
截至3月29日,PubMed共计有167篇有关ChatGPT的文章,涉及医疗和基础医学的文章60余篇,所有文章都是在2023年发表。目前绝大多数文章为社论(Editor),评论(Comment)和简报(Letter)形式,鲜有研究类文章(同学们加油,这块蓝海是机会啊!)。让我们一起重点关注那些医学顶刊上的相关文章。
一
作为医学顶级期刊,必须显示应用的水准和格局,首先对伦理和道德问题进行了评论。其核心观点是:Chat在医疗领域应用具有价值,但有局限性,存在风险和错误。
《自然医学》(Nature Medicine)3月14日社论认为 ,ChatGPT及其他大型语言模型或许能够提升医疗服务质量和患者生活质量,但首先需要针对特定临床需求进行定制。社论指出,语言模型在医疗领域的应用也将成为必然趋势。这一领域中,语言模型具有巨大的潜力来改善健康状况并提高患者的生活质量,但同时也存在陷阱。
类似人类的对话能力的ChatGPT可以改善医患之间的沟通,从而改善医疗服务。例如,它可以通过易于患者理解的语言来减少沟通失误的可能性,帮助提高患者对药物处方的依从性。在心理支持和认知领域治疗中可以大放异彩。
尽管这些模型具有巨大的潜力,但大多数基于深度学习的语言模型,在医疗领域的应用上尚未准备好投入使用。在没有额外培训的情况下,早期尝试将这些模型用作临床诊断工具的成功案例有限,算法性能低于执业医师。同时,由于技术的发展速度比监管机构、政府和倡导者所能应对的速度要快得多,所以采用必要的应对措施防范风险,需要多方干系人参与。在一个建设性的、有警觉性的监管环境中,基于深度学习的语言模型可以在医疗保健中产生变革性的影响,能够增强,而不是取代人类的专业知识。
同在3月期,《柳叶刀-数字健康》(Lancet -Digital Health)社论《ChatGPT:朋友还是敌人?》同样认为,虽然ChatGPT在医疗保健领域具有潜力,但错误和不准确信息的风险仍需重视。ChatGPT的局限性包括输出错误或具有偏见的信息,以及可能对有害指令作出反应。此外,ChatGPT可能助长错误信息传播,对科学记录的完整性产生严重影响,导致未来研究或卫生政策决策基于错误信息。因此,学术出版领域需要新工具检测人工智能生成或修改的内容。在技术和编辑政策不断发展的过程中,我们需要对AI模型训练加强监督。
社论最后略有担忧地表示:ChatGPT是一个游戏改变者,但我们还没有准备好应对。
二
在具体应用案例上,《柳叶刀-数字健康》同期发表一份简报。来自伦敦圣玛丽医院的医生利用ChatGPT输入患者信息,并详细地说明要求,结果在几秒钟内就生成了正式的出院摘要。作者认为,ChatGPT还可以提高出院摘要本身的质量。以前的文献显示,通过传统方式撰写的出摘要往往缺少细节,看到这里,我们苦逼的小医生们是不是要笑起来了?
3月出版的《美国医学杂志》(JAMA)同样以简报的形式报道了克利夫兰诊所心血管科医生对ChatGPT的测试研究,利用ChatGPT来回答25问题。这些问题都是基于指南的预防主题和护理预防心脏病诊所的临床经验,涉及基本预防概念,包括风险因素咨询、测试结果和用药信息,比如心脏病患者的饮食,如何降低低密度胆固醇等。这些回答由经验丰富的预防心脏病临床医生对结果进行评估。结果有4个问题的回答被认为是不适宜的(inappropriate)。但综合来看,研究结果认为在线问答可以加强患者教育以及辅助临床工作流程。(抖音上的网红医疗科普博主是不是瑟瑟发抖了?)
三
在关于知识版权问题上,《柳叶刀-数字健康》同期另一篇评论文章,对于人工智能创建的内容(AIGC)相应版权、归属、抄袭和作者身份的伦理问题进行了讨论。《柳叶刀》系列期刊的出版商爱思唯尔(Elsevier)与其他主要出版商共同声明,明确表示人工智能(AI)不能列入作者,但必须承认其使用。同时,对未来可能的付费模式造成“付费墙”加剧了健康不平等表示了担忧。
作者呼吁,作为出版伦理和学术标准的先驱,《柳叶刀-数字健康》杂志和《柳叶刀》大家庭应围绕人工智能生成内容对学术出版的影响展开严格的交流,以创建全面的指导。
同样,《科学》杂志及其系列明确表示禁止使用所有由ChatGPT生成的文本、图表、图片或图形,违反这些政策将构成与篡改图片或剽窃无异的科学不端行为。
需要说明的是,医学另外2个名刊《英国医学杂志》(BMJ)仅仅发了一篇新闻报道,而影响因子最高的《新英格兰医学杂志》(NEJM)居然对ChatGPT只字未提。
笔者判断,由于目前ChatGPT还没有与医疗机构进行密切的合作,深入地学习临床电子病历以及医学文献内容,所以还不能像Watson一样能够直接提供深入临床核心的诊疗功能。但ChatGPT技术已经成熟,一旦深入医疗数据和知识,势必给临床决策带来巨大影响。这里必须明确地指出,在实际临床应用中,ChatGPT应被视为辅助工具,而不是替代医生的专业知识。在使用ChatGPT时,必须确保有适当的监管和保护措施,防止误导和错误信息的传播(ChatGPT回答)。*
ChatGPT在医疗路上已不漫漫!拥抱新科技是我们医生唯一的选择。
参考文献:
1. ChatGPT:引述ChaGPT回答结果。
2. Will ChatGPT transform healthcare?. Nat Med 29, 505–506 (2023). https://doi.org/10.1038/s41591-023-02289-5
3. The Lancet Digital Health. ChatGPT: friend or foe? Lancet Digit Health. 2023 Mar;5(3):e102. doi: 10.1016/S2589-7500(23)00023-7. Epub 2023 Feb 6. PMID: 36754723.
4. Liebrenz M, Schleifer R, Buadze A, Bhugra D, Smith A. Generating scholarly content with ChatGPT: ethical challenges for medical publishing. Lancet Digit Health. 2023 Mar;5(3):e105-e106. doi: 10.1016/S2589-7500(23)00019-5. Epub 2023 Feb 6. PMID: 36754725.
5. Patel SB, Lam K. ChatGPT: the future of discharge summaries? Lancet Digit Health. 2023 Mar;5(3):e107-e108. doi: 10.1016/S2589-7500(23)00021-3. Epub 2023 Feb 6. PMID: 36754724.
6. Sarraju A, Bruemmer D, Van Iterson E, Cho L, Rodriguez F, Laffin L. Appropriateness of Cardiovascular Disease Prevention Recommendations Obtained From a Popular Online Chat-Based Artificial Intelligence Model. JAMA. 2023 Mar 14;329(10):842-844. doi: 10.1001/jama.2023.1044. PMID: 36735264; PMCID: PMC10015303.
扫码加入社群
与全国医疗信息化同行
一起交流
AI时代,掌握AI大模型第一手资讯!AI时代不落人后!
免费ChatGPT问答,办公、写作、生活好得力助手!
扫码右边公众号,驾驭AI生产力!