📢 转载信息
原文链接:https://www.bbc.com/news/articles/c79x54dprngo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
英国政府发布了一套新的指导方针,以评估人工智能(AI)技术带来的机遇和风险。
在最新的文件《AI安全评估:评估前沿AI模型的指南》中,政府概述了如何评估新的人工智能模型。
英国政府表示,人工智能模型必须在上市前进行独立测试,以确保它们在面临潜在威胁时不会造成任何“灾难性后果”。
评估框架聚焦安全与责任
英国希望借此成为全球AI创新和监管的领导者。该评估框架由英国的AI安全研究所(AI Safety Institute)主导制定,旨在帮助开发者和第三方评估机构在将AI系统投入商业使用前,对模型的安全性和风险进行全面评估。
核心评估领域包括:
- 网络安全风险:模型是否容易被黑客利用或用于恶意目的。
- 生物安全风险:模型是否可能被用于设计有害的生物制剂。
- 错误信息和虚假信息:模型生成误导性内容的能力。
- 对社会和经济的影响:评估AI对就业、公平性、人权等方面的影响。
政府强调,评估并非旨在扼杀创新,而是要确保AI的快速发展是安全且负责任的。他们认为,在技术成熟之前就建立起严格的评估机制至关重要。
评估标准与未来展望
这份指南提供了一个“基于风险”的方法论。对于风险较高的、能力更强的前沿AI模型,需要进行更严格和深入的评估。例如,模型是否能自主进行网络攻击、设计生物武器或大规模传播虚假信息。
政府表示,评估工作将是迭代的,随着AI技术能力的提升,评估标准也将随之更新。
“我们的目标是确保人工智能的开发和部署既能带来巨大益处,又能有效管理风险。”
英国的这一举动是全球范围内监管机构在AI领域采取行动的最新实例,旨在建立一个既能促进技术进步,又能保护公众利益的监管环境。这些评估结果将为未来更全面的AI立法提供重要参考。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区