[ad_1]
一项研究表明,ChatGPT 似乎比一些医生有更好的“床边态度”——至少当他们的书面建议被评为质量和同理心时。
该研究的作者表示,这些发现凸显了 AI 助手在医学中发挥作用的潜力,他们认为此类代理可以帮助起草医生与患者的沟通方式。 “通过人工智能改善医疗保健的机会是巨大的,”加州大学圣地亚哥分校的约翰艾尔斯博士说。
然而,其他人指出,这些发现并不意味着 ChatGPT 实际上是更好的医生,并警告不要委派临床责任,因为聊天机器人倾向于产生不真实的“事实”。
这项发表在 JAMA Internal Medicine 杂志上的研究使用了 Reddit 的 AskDocs 论坛的数据,成员可以在论坛上发布医疗问题,并由经过验证的医疗保健专业人员回答。 该团队从 AskDocs 随机抽取了 195 次交流,其中一位经过验证的医生回答了一个公共问题。 然后将原始问题提交给 AI 语言模型 ChatGPT,后者被要求做出回应。 一个由三名获得许可的医疗保健专业人员组成的小组,他们不知道回答是来自人类医生还是来自 ChatGPT,他们对答案的质量和同理心进行了评分。
总体而言,在 79% 的情况下,该小组更喜欢 ChatGPT 对人类给出的回应。 ChatGPT 的回答在 79% 的情况下也被评为良好或非常好的质量,而医生的回答为 22%,而 45% 的 ChatGPT 回答被评为有同理心或非常有同理心,而医生的答复只有 5%。
加州大学圣地亚哥分校健康中心的 Christopher Longhurst 博士说:“这些结果表明,像 ChatGPT 这样的工具可以有效地起草高质量、个性化的医疗建议供临床医生审查,我们正在 UCSD 健康中心开始这个过程。”
巴斯大学的 James Davenport 教授没有参与这项研究,他说:“这篇论文并没有说 ChatGPT 可以取代医生,但是非常合理地呼吁进一步研究 ChatGPT 是否以及如何帮助医生在响应生成中。”
一些人指出,鉴于 ChatGPT 专门针对讨人喜欢进行了优化,因此它编写的文本给人以同理心的感觉也就不足为奇了。 它还倾向于给出比人类医生更长、更健谈的答案,这可能在其更高的评级中发挥了作用。
其他人告诫不要依赖语言模型来获取事实信息,因为它们倾向于生成虚构的“事实”。
通讯推广后
利兹大学的 Anthony Cohn 教授表示,使用语言模型作为起草回复的工具是“早期采用的合理用例”,但即使在辅助角色中也应谨慎使用。 “人类已被证明过度信任机器的反应,尤其是当它们通常是正确的时候,而人类可能并不总是足够警惕以正确检查聊天机器人的反应,”他说。 “这需要防范,或许可以使用随机合成的错误反应来测试警惕性。”
[ad_2]
Source link