📢 转载信息
原文链接:https://www.bbc.com/news/articles/cx2lppx2jm7o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
关于人工智能的风险,顶级研究人员发出警告
数十位全球顶尖的人工智能研究人员和行业领导者签署了一份声明,警告人工智能带来的“可能导致灭绝的风险”。
这份由“AI安全中心” (Centre for AI Safety) 发布的声明,旨在呼吁对人工智能的快速发展采取更严肃的应对措施。
声明称:“减轻人工智能带来的灭绝风险,应与流感等其他社会规模的风险同等重要。”
签署者包括深度学习领域的先驱、图灵奖得主Geoffrey Hinton,以及OpenAI首席执行官Sam Altman和DeepMind联合创始人Demis Hassabis。
核心警告:失控的风险
这份简短的声明主要关注于通用人工智能 (AGI) 的潜在风险,即理论上能够执行人类任何智力任务的机器。
声明指出,像大模型(LLMs)这样的先进AI系统,其能力发展速度已经超过了我们制定有效安全措施的能力。
“我们相信,人工智能带来的灭绝风险应该与气候变化或流行病等其他社会规模的风险进行同等程度的优先考虑。”
这份声明的发布正值全球对AI技术日益增长的担忧之际。近年来,AI工具,特别是生成式AI,取得了惊人的进步,但也引发了关于它们可能被用于恶意目的或意外产生不可控后果的担忧。
行业内外的呼吁
这份声明得到了全球范围内AI领域重量级人物的支持,突显了行业内部对于技术失控可能性的严肃认识。
Geoffrey Hinton此前曾表示,他对所创造的技术感到担忧,并已离开了他在谷歌的工作岗位,以便能更自由地谈论这些风险。
尽管签署者们主要关注于长期的、极端的风险,但公众的担忧也日益集中在当前AI技术的短期影响上,例如虚假信息传播、就业市场颠覆以及偏见放大等问题。
AI安全倡导者呼吁各国政府制定更严格的监管框架,以确保AI系统的开发和部署是安全和可控的。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区