目 录CONTENT

文章目录

人工智能应用于战争亟需强有力的伦理框架

Administrator
2026-03-31 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.nature.com/articles/d41586-026-01008-7

原文作者:Yana Suchikova & Serhii Nazarovets


此前贵刊社论曾呼吁对战争中的人工智能应用设立规则(参考 Nature 651, 282; 2026)。在我们看来,冲突中的AI治理亟需一套清晰的伦理框架

为此,我们提出了CARE原则,旨在为这一复杂领域提供指导:

  • Collective benefit(集体利益):确保AI的开发与部署服务于人类和平与整体利益,而非仅仅为了单方面的战术优势。
  • Authority to control(管控权限):必须保持人类对武器系统的有效控制,防止系统自主决策导致的灾难性后果。
  • Responsibility(责任归属):明确在AI介入的军事行动中,各方应承担的法律与道德责任。
  • Ethics(伦理规范):将伦理准则内置于AI系统设计流程中,确保其运作符合国际人道法。



🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区