📢 转载信息
原文作者:Amanda Silberling
数据公司iMerit的执业外科医生兼AI医疗领导者Sina Bari医生亲眼目睹了ChatGPT如何用错误的医疗建议误导患者。
“我最近接诊了一位病人,当我推荐一种药物时,他们拿出了ChatGPT打印的对话记录,上面说这种药物有45%的几率导致肺栓塞,” Bari医生告诉TechCrunch。
当Bari医生进一步调查时,他发现这个统计数据来源于一篇关于该药物对一小部分结核病患者影响的论文,这并不适用于他的病人。
然而,当OpenAI上周宣布其专用的ChatGPT Health聊天机器人时,Bari医生感到更多的是兴奋而非担忧。
ChatGPT Health将在未来几周内推出,它允许用户在一个更私密的环境中与聊天机器人讨论健康问题,他们发送的消息不会被用作底层AI模型的训练数据。
“我认为这很棒,” Bari医生说。“这已经是正在发生的事情,所以将其正规化,以保护患者信息并围绕它建立一些保障措施[……]将使其对患者使用来说更加强大。”
用户可以通过上传病历并与Apple Health和MyFitnessPal等应用程序同步,从ChatGPT Health获得更个性化的指导。对于注重安全的人来说,这立即敲响了警钟。
“所有这些医疗数据都突然从符合HIPAA的组织转移到不符合HIPAA的供应商那里,”数据丢失预防公司MIND的联合创始人Itai Schwartz告诉TechCrunch。“所以我很好奇监管机构将如何处理这个问题。”
但在一些行业专业人士看来,事情已经无法回头了。现在,人们不再是搜索普通感冒症状,而是转向AI聊天机器人——每周已经有超过2.3亿人向ChatGPT咨询健康问题。
投资健康科技的Gradient合伙人Andrew Brackin告诉TechCrunch:“这是ChatGPT最大的用例之一。因此,他们希望为这些医疗健康问题构建一个更私密、更安全、更优化的ChatGPT版本,这非常有道理。”
AI聊天机器人一直存在幻觉问题,这在医疗保健领域尤其敏感。根据Vectara的事实一致性评估模型,OpenAI的GPT-5比许多谷歌和Anthropic的模型更容易出现幻觉。但AI公司看到了弥补医疗领域效率低下的潜力(Anthropic本周也宣布了一款健康产品)。
对于斯坦福大学医学教授兼斯坦福医疗保健首席数据科学家Nigam Shah博士来说,美国患者无法获得护理的问题比ChatGPT提供不佳建议的威胁更为紧迫。
“现在,你去任何医疗系统,想见初级保健医生——等待时间将是三到六个月,” Shah博士说。“如果你的选择是等待六个月见一位真正的医生,还是和不能替代医生但能为你做一些事情的工具交谈,你会选哪个?”
Shah博士认为,将AI引入医疗保健系统的更清晰途径在于提供者端,而不是患者端。
医学期刊经常报道,行政任务可能会占用初级保健医生近一半的时间,这削减了他们一天能看诊的病人数量。如果这类工作可以自动化,医生就能看到更多病人,也许可以减少人们在没有真实医生额外输入的情况下使用ChatGPT Health等工具的需求。
Shah博士领导着斯坦福大学的一个团队,正在开发ChatEHR,这是一种集成在电子健康记录(EHR)系统中的软件,允许临床医生以更精简、高效的方式与患者的病历互动。
ChatEHR的早期测试者Sneha Jain博士在斯坦福医学院的一篇文章中表示:“让电子病历更友好意味着医生可以花更少的时间在其每一个角落搜寻所需信息。ChatEHR可以帮助他们提前获得这些信息,以便他们可以将时间花在重要的事情上——与患者交谈并弄清楚发生了什么。”
Anthropic也在开发可用于临床医生和保险公司方面的AI产品,而不仅仅是其面向公众的Claude聊天机器人。本周,Anthropic通过解释Claude for Healthcare如何用于减少在繁琐的行政任务(如向保险公司提交预授权请求)上花费的时间。
Anthropic首席产品官Mike Krieger在最近的摩根大通医疗保健会议上表示:“有些人每周要处理数百、数千个这样的预授权申请案例。所以想象一下,每次都能节省20到30分钟——这是一次巨大的时间节省。”
随着人工智能和医学的交织越来越深,这两个世界之间存在着不可避免的张力——医生的首要动机是帮助他们的患者,而科技公司最终要对股东负责,即使他们的意图是高尚的。
“我认为这种张力很重要,” Bari医生说。“患者依赖我们的愤世嫉俗和保守态度来保护他们。”
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区