📢 转载信息
原文链接:https://www.bbc.com/news/articles/c1lr75lp239o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
人工智能(AI)领域正在发生快速变化,对于通用人工智能(AGI)的担忧也日益增加。
AI研究人员、政府和思想领袖都曾对这项技术的风险表示担忧,特别是关于它是否能被安全控制。
许多人担心,如果未来的AI系统变得比人类更聪明,它们可能会失控,并可能对人类构成生存威胁。
英国的人工智能安全研究所(AI Safety Institute)所长约翰·苏克(John Sucke)表示,安全社区主要关注“对齐”(alignment)和“评估”(evaluation)这两个问题。
对齐是指确保AI系统按照人类的意图和价值观行事,即使它们变得非常强大。
苏克博士告诉BBC:“我们正在努力确保这些系统与人类的意图对齐。如果它们强大到可以重塑世界,那么我们必须确保它们会以我们希望它们的方式来重塑世界。”
他指出,目前的AI系统,如ChatGPT,虽然令人印象深刻,但仍然相对容易控制。
他表示:“它们是工具,我们知道如何使用它们。”
然而,AGI被定义为一种具备人类水平智能的AI,它可以像人类一样学习和执行任何智力任务。
许多专家认为,AGI的到来只是时间问题,并且其智能水平将很快超越人类。
苏克博士说,随着AI能力变得越来越强大,确保它们与人类价值观保持一致变得越发重要。
他说:“当我们谈论AGI时,我们谈论的是一种智能水平,它将远远超出我们的控制范围,我们必须在它们变得超级智能之前解决对齐问题。”
第二个关键领域是评估,即测试AI系统的能力和潜在风险。
苏克博士解释说:“我们现在如何评估这些系统?我们如何知道它们有多强大?我们如何判断它们可能带来哪些风险?”
他承认,目前评估AI的方法仍然处于早期阶段。
他说:“目前的评估方法,是基于我们对当前AI系统的了解而构建的,但它们可能无法完全捕捉到未来更复杂、更具适应性的系统的能力。”
苏克博士说,评估的挑战在于,即使是开发AI的公司,有时也可能不完全了解其模型的具体能力。
他举例说,OpenAI的GPT-4模型被发现具备一些出乎意料的能力,例如能够通过使用搜索功能来解决复杂的数学问题。
他总结道:“我们正在建立安全测试,并希望这些测试能够预测未来系统可能出现的行为。”
尽管存在这些担忧,但AI行业仍在快速发展。
在英国,政府将AI安全研究所定位为全球AI安全研究的关键参与者,旨在促进国际合作。
英国首相里希·苏纳克(Rishi Sunak)曾表示,AI的安全对英国至关重要,并强调了国际合作的重要性。
苏克博士表示,确保AGI的安全是一项巨大的挑战,需要全球的共同努力。
他说:“我们不能只是等待,直到我们看到AGI真正出现时才开始解决这些问题。我们必须现在就开始进行这些基础性的安全研究。”
他强调,解决这些问题需要学术界、政府和私营部门的共同参与,以确保AI技术的进步能够安全地服务于人类社会。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区