[ad_1]
作者:Darius Tahir,驻华盛顿特区的记者,负责报道卫生技术。 最初发表于 KFF 健康新闻。
对于那些编造事实、不能保守秘密、什么都不知道,并且在说话时只是根据前面的内容填入下一个词的人,医疗保健有什么用? 很多,如果那个人是人工智能的最新形式,根据一些最大的公司。
推动最新 AI 技术(称为“生成 AI”)的公司正在加码:谷歌和微软希望将各种所谓的大型语言模型引入医疗保健领域。 白大褂熟悉的大公司——但对于普通的 Joe 和 Jane 来说可能不那么熟悉——同样热情:电子病历巨头 Epic 和 Oracle Cerner 也不甘落后。 这个空间也挤满了初创公司。
这些公司希望他们的 AI 为医生做笔记并给他们第二意见——假设他们可以防止智能产生“幻觉”,或者就此而言,泄露患者的私人信息。
“正在发生的事情非常令人兴奋,”圣地亚哥斯克里普斯转化研究研究所所长埃里克·托波尔说。 “它的能力最终会产生重大影响。” 像许多其他观察者一样,Topol 想知道它可能会导致多少问题——比如泄露患者数据——以及发生的频率。 “我们会找出答案的。”
这些问题的幽灵激发了 1,000 多名技术领导者在 3 月份签署了一封公开信,敦促公司暂停开发先进的 AI 系统,直到“我们相信它们的影响将是积极的并且它们的风险将是可控的。” 即便如此,他们中的一些人仍在向 AI 企业投入更多资金。
底层技术依赖于合成大量文本或其他数据——例如,一些医学模型依赖于波士顿贝斯以色列女执事医疗中心的 200 万份重症监护病房笔记——来预测给定查询后的文本。 这个想法已经存在多年,但淘金热以及围绕它的营销和媒体狂热是最近才出现的。
这场狂潮于 2022 年 12 月由微软支持的 OpenAI 及其旗舰产品 ChatGPT 拉开序幕,后者以权威和风格回答问题。 例如,它可以在十四行诗中解释遗传学。
OpenAI 最初是由 Sam Altman、Elon Musk 和 Reid Hoffman 等硅谷精英创办的研究企业,已经将投资者的热情带入了投资者的口袋。 该企业有一个复杂的、混合的营利和非营利结构。 但据《华尔街日报》报道,微软新一轮 100 亿美元的融资将 OpenAI 的价值推高至 290 亿美元。 目前,该公司正在将其技术授权给微软等公司,并向消费者销售订阅服务。 其他初创公司正在考虑向医院系统或直接向患者销售 AI 转录或其他产品。
双曲线引号无处不在。 前财政部长拉里·萨默斯 最近发推文:“它将取代医生所做的工作——聆听症状和做出诊断——然后再改变护士所做的工作——帮助病人起床并在医院自我处理。”
但就在 OpenAI 接受另一笔巨额现金注入几周后,就连其首席执行官奥特曼也对这种大张旗鼓的做法持谨慎态度。 “对这些系统的炒作——即使我们希望的一切都是长期正确的——在短期内是完全失控的,”他在纽约时报 3 月份的一篇文章中说。
医疗保健行业几乎没有人相信这种最新形式的 AI 会抢走他们的工作(尽管一些公司正在试验——有争议地——使用充当治疗师或护理指南的聊天机器人)。 尽管如此,那些看好这项技术的人认为这会让他们的某些部分工作变得更加容易。
埃里克·阿祖比 (Eric Arzubi) 是蒙大拿州比林斯的一名精神病医生,他曾管理医院系统的精神病医生同事。 一次又一次,他会得到一份尚未完成笔记的提供者名单——他们对患者状况的总结和治疗计划。
写这些笔记是卫生系统的一大压力源:总的来说,这是一种行政负担。 但有必要为未来的供应商,当然还有保险公司建立记录。
“当人们在文档方面落后时,就会产生问题,”Arzubi 说。 “如果病人来到医院并且有一张未完成的便条并且我们不知道发生了什么,会发生什么?”
新技术可能有助于减轻这些负担。 Arzubi 正在测试一项名为 Nabla Copilot 的服务,该服务会参与虚拟患者就诊,然后自动对其进行总结,将投诉、病史和治疗计划组织成标准的注释格式。
大约 50 名患者的结果是可靠的,他说:“这是 90% 的方式。” Copilot 生成有用的摘要,Arzubi 通常会编辑这些摘要。 摘要不一定会包含非语言暗示或 Arzubi 可能不想表达的想法。 尽管如此,他说,收获还是很大的:他不必担心做笔记,而是可以专注于与患者交谈。 他节省了时间。
“如果我有一个完整的病人日,我可能会看到 15 个病人,我会说这在一天结束时为我节省了一个好小时,”他说。 (如果该技术被广泛采用,他希望医院不会通过简单地安排更多患者来利用节省的时间。“这不公平,”他说。)
Nabla Copilot 并不是唯一的此类服务; 微软正在尝试相同的概念。 在 4 月份举行的医疗保健信息和管理系统协会会议上——这是一个医疗技术人员交流想法、发布公告和销售产品的行业会议——来自 Evercore 的投资分析师强调,减轻行政负担是新技术的最大可能性。
但总的来说? 他们听到褒贬不一的评论。 这种观点很普遍:许多技术人员和医生都持矛盾态度。
例如,如果您对诊断感到困惑,将患者数据输入其中一个程序“毫无疑问可以提供第二意见,”Topol 说。 “我相信临床医生正在这样做。” 但是,这遇到了当前技术的局限性。
Joshua Tamayo-Sarver 是一名临床医生兼初创公司 Inflect Health 的高管,他根据自己在急诊科的实践将虚构的患者场景输入一个系统,以查看其性能。 他说,它错过了危及生命的情况。 “这似乎有问题。”
该技术还倾向于“产生幻觉”——即编造听起来令人信服的信息。 正式研究发现了广泛的性能。 一篇使用来自神经外科的开放式董事会考试问题检查 ChatGPT 和谷歌产品的初步研究论文发现幻觉率为 2%。 合著者 Nigam Shah 告诉 KFF 健康新闻,斯坦福大学研究人员的一项研究检查了 AI 对 64 种临床场景的反应质量,发现 6% 的时间是捏造或幻觉引用。 另一篇初步论文发现,在复杂的心脏病病例中,ChatGPT 有一半的时间同意专家意见。
隐私是另一个问题。 目前尚不清楚输入此类基于人工智能的系统的信息是否会保留在内部。 例如,ChatGPT 的有进取心的用户已经设法获得技术来告诉他们凝固汽油弹的配方,可以用来制造化学炸弹。
从理论上讲,该系统具有防止私人信息泄露的护栏。 例如,当 KFF Health News 向 ChatGPT 询问其电子邮件地址时,系统拒绝泄露该私人信息。 但当被告知要扮演角色,并询问本文作者的电子邮件地址时,它很高兴地放弃了信息。 (这确实是作者在 2021 年的正确电子邮件地址,当 ChatGPT 的存档结束时。)
“我不会把病人数据放进去,”斯坦福医疗保健公司首席数据科学家沙阿说。 “我们不明白这些数据一旦进入 OpenAI 服务器会发生什么。”
OpenAI 的发言人 Tina Sui 告诉 KFF 健康新闻,“永远不要使用我们的模型为严重的医疗状况提供诊断或治疗服务。” 他们“不适合提供医疗信息,”她说。
随着新研究的激增,Topol 说:“我认为医学界对即将发生的事情并没有很好的线索。”
[ad_2]
Source link