AI 赋能医疗加速,法律责任“黑箱”令人担忧
10 月 15 日消息,据英国《卫报》13 日报道,多名顶尖专家对人工智能(AI)在医疗领域的快速发展表示担忧。他们警告称,随着 AI 工具越来越多地介入临床决策和管理,一旦发生医疗失误,法律责任的界定将变得极其复杂和模糊。
当前,临床 AI 正在迅猛发展,应用范围涵盖从辅助影像解读算法到支持诊断的复杂系统,甚至渗透到医院的床位优化和供应链管理等运营环节。尽管 AI 有望带来巨大益处,但专家们强调了两个核心隐忧:一是AI 工具的实际有效性尚未得到充分验证;二是一旦患者出现不良后果,责任归属将难以清晰界定。
责任推诿与举证困难成最大障碍
匹兹堡大学的德里克・安格斯教授(去年美国医学会杂志 AI 峰会报告的第一作者)指出:“可以肯定的是,未来会出现许多认为出了问题并试图追究责任的案例。”
哈佛法学院的格伦・科恩教授(报告共同作者)进一步阐述了患者面临的举证困境:
- 信息壁垒:患者很难获取 AI 产品的内部运行细节。
- 替代设计难题:难以提出合理的替代设计方案,或明确证明不良结果是由 AI 错误直接导致的。
科恩教授表示:“各方可能互相推卸责任,且责任的再分配可能通过合同约定或涉及复杂的赔偿诉讼进行,这无疑会增加提起诉讼的难度。”
不确定性抬高创新成本
斯坦福法学院的米歇尔・梅洛教授也表达了对司法流程的担忧。她指出,虽然法院最终可以解决这些法律问题,但早期的处理过程将是漫长且充满不确定性的,这会间接抬高整个 AI 创新和应用生态系统的成本。“这种不确定性最终会抑制 AI 在医疗领域的应用和推广。”
监管真空与实际使用差异巨大
报告特别强调了对 AI 工具评估的不足。许多工具尚未经过美国食品药品监督管理局(FDA)等关键监管机构的严格监督。
安格斯教授强调,临床医生关注的是健康结果的改善,但监管机构的要求可能并未完全覆盖实际使用场景。AI 工具在不同临床环境、面对不同患者群体、由技能水平各异的使用者操作时,可能会出现各种不可预测的情况。这意味着,在审批阶段看似可行的工具,实际使用效果可能大相径庭。
评估机制亟待完善
此外,评估 AI 工具面临多重障碍,通常需要经过真实的临床使用才能进行全面评估,而现有的评估方式成本高昂且流程繁琐。安格斯教授总结道:“峰会讨论发现一个悖论:评估最充分的 AI 工具往往采用率最低,而最普及、使用最广的工具,其评估工作却最少。”他呼吁必须投入资金来对医疗 AI 工具进行充分、持续的评估,并将其视为建设关键数字基础设施的一部分。
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
评论区