目 录CONTENT

文章目录

重磅警告:匹兹堡、哈佛、斯坦福顶尖教授联名发声,AI在医疗领域的应用或使医疗事故责任认定陷入僵局

Administrator
2025-10-15 / 0 评论 / 0 点赞 / 1 阅读 / 0 字

📢 转载信息

原文链接:https://www.ithome.com/0/889/566.htm

原文作者:清源


顶尖学府教授集体发声:AI医疗应用恐致医疗事故责任难界定

IT之家 10 月 15 日消息,据英国《卫报》13 日报道,来自匹兹堡大学、哈佛法学院和斯坦福法学院的多位资深专家和教授联合发出警告:随着人工智能(AI)在医疗领域的快速发展和广泛应用,一旦发生医疗失误,相关的法律责任认定可能变得极其复杂和模糊。

AI助力医疗,但潜在风险不容忽视

当前,临床AI发展迅猛,各类工具已深入应用,从辅助影像解读算法到支持复杂诊断的系统,AI正在重塑医疗流程。同时,AI也被用于优化医院管理,提高床位使用率和供应链效率等。

然而,专家们强调,在享受AI带来益处的同时,必须正视其带来的两大核心隐忧:一是许多AI工具的有效性尚未经过充分的临床验证;二是一旦患者出现不良结果,责任归属将难以界定

AI在医疗领域的应用带来的法律责任问题警告

匹兹堡大学的德里克・安格斯教授(Derrick Angotti)是美国医学会杂志AI峰会报告的第一作者。他指出:“可以预见,未来肯定会出现患者认为医疗过程出了问题,并试图寻找责任方的情况。”该报告深入分析了AI工具的应用和随之而来的法律挑战。

追责困境:内部信息难获,责任互相推诿

哈佛法学院的格伦・科恩教授(Glenn Cohen)是报告的共同作者之一,他详细阐述了患者在证明AI产品使用或设计存在过错时将面临的困难:

  • 难以获取内部信息: 很难获得AI工具的内部运行机制和决策过程。
  • 替代设计难以证明: 很难提出合理的替代设计方案,或确凿地证明不良结果完全是由AI系统造成的。

科恩教授表示:“各方可能会互相推诿责任,同时合同约定可能重新分配责任或涉及复杂的赔偿诉讼,这将大大增加提起有效诉讼的难度。”

斯坦福法学院的米歇尔・梅洛教授(Michelle Mello)补充道,虽然法院最终可以解决这些法律问题,但早期的处理过程将是漫长且充满不确定性的。她强调:“这种不确定性会显著提高AI创新和应用生态系统的整体成本。”

验证不足是核心痛点

报告特别对AI工具的评估提出了担忧,指出许多工具尚未受到美国食品药品监督管理局(FDA)等监管机构的充分监督。安格斯教授提到,临床医生关注的是健康结果的改善,但监管机构的要求可能不足以全面覆盖。

他警告说,一旦投入实际使用,AI工具在不同的临床环境、面对不同的患者群体,以及由技能水平不一的使用者操作时,可能会出现各种不可预测的情况。审批阶段看似可行的方法,在真实世界中的效果可能大相径庭。

IT之家获悉,评估AI工具面临多重障碍,它们通常需要经过临床实际使用后才能得到全面评估,而现有的评估方式既昂贵又耗时繁琐。安格斯教授强调,必须投入资金对医疗AI工具进行充分评估,建设必要的数字基础设施是关键一步。他悲观地总结:“峰会讨论发现,评估最充分的工具往往在临床中的采用率最低,而那些普及率最高的工具,其评估工作却最少。”

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。




🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,小白也可以简单操作。

青云聚合API官网https://api.qingyuntop.top

支持全球最新300+模型:https://api.qingyuntop.top/pricing

详细的调用教程及文档:https://api.qingyuntop.top/about

0

评论区