📢 转载信息
原文链接:https://www.bbc.com/news/articles/c62r6dvpl5ro?at_medium=RSS&at_campaign=rss
原文作者:BBC News
科学家们正在就人工智能(AI)可能带来的威胁提出严厉警告,将其比作核武器的出现。
人工智能领域的领导者和全球政策制定者们越来越担心,人工智能在未来可能对人类构成生存风险。
他们认为,在人工智能能力呈指数级增长的情况下,我们需要一场“奥本海默时刻”——一个迫使全球领导人认真对待潜在危险并采取行动的决定性时刻。
“我们正在进入新的领域”
这一呼吁的背景是,人们对大型语言模型(LLM)等先进人工智能系统能力的快速进步感到不安。
人们担心这些系统可能被用于开发生物武器、发动网络攻击,甚至在失控的情况下对人类构成威胁。
人工智能研究人员和行业内部人士强调,目前的监管框架远远落后于技术发展速度。
他们认为,就像原子弹的出现迫使世界领导人建立核不扩散条约一样,人工智能的快速发展需要全球范围内的强力监管和合作。
人工智能与核武器的类比
在二战期间,罗伯特·奥本海默领导了曼哈顿计划,成功研发了第一颗原子弹。然而,在见证了其毁灭性力量后,他成为了核武器管控的坚定倡导者。
今天,一些专家认为,先进的AI系统正处于类似的发展阶段,可能带来同样深远的、不可逆转的后果。
批评人士指出,AI的扩散速度和获取成本可能比核武器更容易,这使得监管更加复杂。
例如,开源模型和云计算的普及意味着,即使是资源有限的实体也可能在短期内获得强大的AI能力。
呼吁立即采取行动
政策制定者和AI伦理专家呼吁建立一个类似于国际原子能机构(IAEA)的全球机构,专门负责监督和管理通用人工智能(AGI)的发展。
他们强调,迫切需要就AI的开发边界、安全标准和责任归属达成国际共识。
许多人担心,如果不加以控制,失控的AI可能会产生意想不到的行为,甚至可能危及人类文明的存续。
然而,也有人认为,将AI与核武器相提并论过于夸大,可能会阻碍创新和技术带来的益处。
但支持者坚持认为,风险是真实存在的,而且必须在为时已晚之前,以类似对待核扩散的严肃态度来处理。
这场关于AI安全和监管的辩论,预示着人类社会在面对颠覆性技术时,所面临的巨大伦理和治理挑战。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区