目 录CONTENT

文章目录

重磅警告:匹兹堡、哈佛、斯坦福顶尖教授联名发声,AI 医疗事故责任认定或成世纪难题

Administrator
2025-10-15 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/889/566.htm

原文作者:清源


AI 赋能医疗加速,法律责任“黑箱”令人担忧

10 月 15 日消息,据英国《卫报》13 日报道,多名顶尖专家对人工智能(AI)在医疗领域的快速发展表示担忧。他们警告称,随着 AI 工具越来越多地介入临床决策和管理,一旦发生医疗失误,法律责任的界定将变得极其复杂和模糊。

当前,临床 AI 正在迅猛发展,应用范围涵盖从辅助影像解读算法到支持诊断的复杂系统,甚至渗透到医院的床位优化和供应链管理等运营环节。尽管 AI 有望带来巨大益处,但专家们强调了两个核心隐忧:一是AI 工具的实际有效性尚未得到充分验证;二是一旦患者出现不良后果,责任归属将难以清晰界定

AI 在医疗领域的应用引发法律责任担忧

责任推诿与举证困难成最大障碍

匹兹堡大学的德里克・安格斯教授(去年美国医学会杂志 AI 峰会报告的第一作者)指出:“可以肯定的是,未来会出现许多认为出了问题并试图追究责任的案例。”

哈佛法学院的格伦・科恩教授(报告共同作者)进一步阐述了患者面临的举证困境:

  • 信息壁垒:患者很难获取 AI 产品的内部运行细节。
  • 替代设计难题:难以提出合理的替代设计方案,或明确证明不良结果是由 AI 错误直接导致的。

科恩教授表示:“各方可能互相推卸责任,且责任的再分配可能通过合同约定或涉及复杂的赔偿诉讼进行,这无疑会增加提起诉讼的难度。”

不确定性抬高创新成本

斯坦福法学院的米歇尔・梅洛教授也表达了对司法流程的担忧。她指出,虽然法院最终可以解决这些法律问题,但早期的处理过程将是漫长且充满不确定性的,这会间接抬高整个 AI 创新和应用生态系统的成本。“这种不确定性最终会抑制 AI 在医疗领域的应用和推广。”

监管真空与实际使用差异巨大

报告特别强调了对 AI 工具评估的不足。许多工具尚未经过美国食品药品监督管理局(FDA)等关键监管机构的严格监督。

安格斯教授强调,临床医生关注的是健康结果的改善,但监管机构的要求可能并未完全覆盖实际使用场景。AI 工具在不同临床环境、面对不同患者群体、由技能水平各异的使用者操作时,可能会出现各种不可预测的情况。这意味着,在审批阶段看似可行的工具,实际使用效果可能大相径庭。

评估机制亟待完善

此外,评估 AI 工具面临多重障碍,通常需要经过真实的临床使用才能进行全面评估,而现有的评估方式成本高昂且流程繁琐。安格斯教授总结道:“峰会讨论发现一个悖论:评估最充分的 AI 工具往往采用率最低,而最普及、使用最广的工具,其评估工作却最少。”他呼吁必须投入资金来对医疗 AI 工具进行充分、持续的评估,并将其视为建设关键数字基础设施的一部分。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区