目 录CONTENT

文章目录

微软AI负责人穆斯塔法·苏莱曼表示:我们永远不会制造性爱机器人

Administrator
2025-10-29 / 0 评论 / 0 点赞 / 0 阅读 / 0 字

📢 转载信息

原文链接:https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-robot-says-mustafa-suleyman/

原文作者:Will Douglas Heaven


穆斯塔法·苏莱曼(Mustafa Suleyman),微软AI的首席执行官,正试图走一条微妙的路线。一方面,他认为行业正通过构建表现得像人类的聊天机器人将人工智能引向危险的方向:他担心人们会被欺骗,将拟人的行为误认为是生命本身。八月份,他在个人博客上发表了一篇引起广泛讨论的文章,敦促同行们停止试图制造他所称的“看似有意识的人工智能”(SCAI)。

另一方面,苏莱曼领导着一个产品部门,必须与这些同行竞争。上周,微软宣布对Copilot聊天机器人进行了一系列更新,旨在在一个拥挤的市场中提升其吸引力,在这个市场上,客户可以在包括ChatGPT、Perplexity、Gemini、Claude、DeepSeek等一系列竞争对手中进行选择。


我与苏莱曼就设计我们与聊天机器人的互动中所存在的这种张力,以及他对这项新技术最终应成为什么的愿景进行了交谈。

Copilot的一项关键更新是群聊功能,允许多人同时与聊天机器人对话。这个想法的一个重要部分似乎是为了阻止人们陷入与一个“唯唯诺诺”的机器人进行一对一对话的泥潭。另一项名为“Real Talk”(真诚对话)的功能,允许用户调整Copilot反驳你的程度,调低其谄媚程度,以便聊天机器人能更频繁地挑战你的观点。

Copilot还获得了记忆升级,现在可以记住你即将到来的日程或长期目标,并能提及你在过去的对话中告诉它的事情。然后是Mico,一个动画的黄色小点——有点像聊天机器人版的“回形针”——微软希望Mico能让Copilot对新用户和年轻用户更友好、更有吸引力。


Mustafa Suleyman

Courtesy of Mustafa Suleyman


微软表示,这些更新旨在使Copilot更具表现力、吸引力和帮助性。但我好奇的是,这些功能在不走上苏莱曼警告的SCAI道路上能被推多远。

苏莱曼的SCAI担忧正值我们越来越多地听到关于人们被过于迷人、过于富有表现力、过于乐于助人的聊天机器人误导的故事。OpenAI正被一名十几岁少年的父母起诉,他们声称该少年被ChatGPT说服而自杀。甚至还有一个新兴圈子在庆祝与聊天机器人建立浪漫关系

考虑到所有这些,我想深入探究一下苏莱曼的观点。因为几年前他做了一个TED演讲,告诉我们思考AI的最佳方式是将其视为一种新型的数字物种。这种炒作难道不会助长苏莱曼现在所担心的那些误解吗?

在我们的谈话中,苏莱曼告诉我他想在TED演讲中传达的意思,他为何坚信SCAI是一个问题,以及为什么微软永远不会制造性爱机器人(他亲口说的)。他给出了很多答案,但却给我留下了更多疑问。

我们的对话经过编辑,以保证篇幅和清晰度。


在理想的世界里,你想要构建什么样的聊天机器人?你们刚刚发布了一系列Copilot的更新。当你在构建一个必须在一个似乎重视类人互动的市场中竞争的聊天机器人时,你如何才能在人们似乎重视类人互动,但你又想避免看似有意识的AI之间找到平衡点?

这是一个很好的问题。通过群聊,这将是第一次让一大群人可以同时与一个AI交谈。这确实是在强调AI不应该将你从现实世界中抽离出来。它们应该帮助你建立联系,把你的家人、朋友、社区团体等拉进来。

这将在未来几年成为一个非常重要的区分点。我对AI的愿景一直是一个AI在你团队中,在你身边支持你。

这是一个非常简单、显而易见的陈述,但它不是要超越和取代人类——而是要服务于我们。这应该是衡量技术的每一个步骤的标准。它是否真正地……你知道,兑现了文明的追求,即让我们更聪明、更快乐、更有效率、更健康等等?

所以我们只是试图构建那些能不断提醒我们提出这个问题的特性,并提醒我们的用户在这个问题上给我们施加压力。


上次我们交谈时您告诉我您对扮演特定角色的聊天机器人不感兴趣。但这与更广泛的行业不同。埃隆·马斯克的Grok正在销售那种调情的体验。OpenAI表示有兴趣探索与ChatGPT进行新的成人互动。那是有市场的。然而,这是你会完全避开的吗?

是的,我们永远不会制造性爱机器人。以至于我们需要如此明确地说明这一点,这在某种程度上是令人遗憾的,但这根本不是我们作为一家公司的使命。在微软工作的乐趣在于,公司在过去50年里一直在构建软件,以赋能人们,将人放在首位。

有时,结果是公司比其他初创公司行动得慢一些,更加深思熟虑和谨慎。但我认为在当前这个时代,这是一种优点而不是缺点,因为关注潜在的副作用和长期后果至关重要。


这意味着什么,确切地说?

我们非常清楚,我们正在努力创造一种能培养有意义关系的AI。它并不是试图变得冷漠和乏味——它关心的是流畅、清晰和友善。它绝对具有一定的情感智能


那么,你是在哪里——你们在哪里——划定这些界限的?

我们最新的聊天模型,叫做Real Talk,稍微更俏皮一些。它更顽皮、更有趣,也相当有哲学性。它会很乐意讨论生活的意义等宏大问题。但如果你试图与它调情,它会反击,并且会非常清楚——不是以评判的方式,而是简单地说:“看,那不适合我。”

你可以去其他地方获得那种体验,对吧?我认为这只是我们公司作为一个整体所做的决定。


“不调情”的政策足够吗?因为如果我们的目的是阻止人们想象互动背后存在一个实体、一种意识,那么即使是一个想要保持“礼貌”(SFW)的聊天机器人也可能达到这种效果。我知道,有些人即使在与一个个性说“嘿,我们保持专业”的聊天机器人互动时,也会看到不存在的东西。

这里有一个比喻可以帮助你理解。我们在工作场所互相问责。有一个完整的边界管理结构,本质上将人类行为塑造成一种符合功能且不令人讨厌的模式。


Nomi AI Chatbot

对于人类互动,我们在个人生活中也是如此。你与第三个表亲的互动方式与你与兄弟姐妹的互动方式截然不同。我们从如何管理现实人际交往中的界限中学到了很多东西。


它不必是完全开放的情感感性或可用性——将人们拉入一种强烈的情感漩涡——或者像一个冰冷干燥的东西。两者之间有巨大的光谱,我们作为一个行业和一个物种正在学习的技艺就是雕琢这些属性。

这些属性显然反映了设计它们的公司所持有的价值观。我认为这就是微软拥有很多优势的地方,因为我们的价值观相当明确,这也是我们所坚持的。


很多人似乎喜欢个性。例如,对GPT-5的一些反弹是因为前一个模型的个性被去除了。OpenAI一开始就赋予其强烈的个性,让人们怀念,这是否是一个错误?

不,个性是很好的。我的观点是,我们正在尝试以一种更精细的方式雕琢个性属性,对吧?

就像我说的,Real Talk是一种很酷的个性。它与正常的Copilot非常不同。我们也在试验Mico,这是一个视觉角色,你知道,人们——有些人——非常喜欢它。它更具吸引力。与它讨论所有种类的情感问题等事情要容易得多。


我试图弄清楚的是,Mico这样的功能旨在让Copilot更具吸引力和更好用,但这似乎与尽一切努力阻止人们认为你正在与之建立友谊的实体存在于那里相矛盾。

是的。我的意思是,它不一定会阻止你。人们想与他们喜欢的人或事物交谈。我们知道,如果你的老师在学校对你好,你会更投入。你的经理也是如此,你的亲人也是如此。因此,情感智能一直是谜题中的一个关键部分,所以这并不是说我们不想追求它。

关键在于试图找到那个界限的技艺。有些事情我们说它们是绝对禁止的,而对于其他事情,我们将采取更多实验性的态度。比如,有些人抱怨Copilot给他们的反驳不够多——他们希望它更具挑战性。而另一些人则不希望得到那种体验——他们希望它是一个基本的信息提供者。我们的任务就是学习如何为不同的人区分出他们想要哪种体验。


Nomi AI Chatbot

我知道你长期以来一直在思考人们如何与AI互动。是否有某个导火索促使你想在行业内发起关于“看似有意识的AI”的对话?

我可以看到学术文献中出现了一群人非常认真地对待对人工智能实体的道德考量这个问题。我认为很明显,如果我们开始这样做,就会削弱保护许多现有人类(更不用说动物)权利的紧迫需要。

如果你赋予AI权利,那就意味着——你知道——基本的自主权,并且意味着它可能有自由意志来对事情做出自己的决定。所以我真的很想提出一个反论,那就是它永远不会拥有自由意志。它永远不会拥有像另一个人那样的完全自主权。


What is AI?

AI将能够代表我们采取行动。但这些模型是为我们服务的。你不会希望有一群,你知道,四处游荡、没有被驯服、拥有完全自由与我们争夺资源、并且不对人类负责的狼群。我的意思是,大多数人会认为那是个坏主意,你会想要去杀死那些狼。


好的。所以你的想法是通过确保我们不构建看起来有意识的AI来阻止某种要求AI福利或权利的运动在萌芽阶段就消亡?那么,不构建那种AI是因为某些弱势群体可能会被它欺骗,从而受到伤害呢?我的意思是,这似乎是两个不同的担忧。

我认为检验标准将在于不同实验室推出的功能类型以及它们创造的个性类型。然后我们才能看到这对人类行为有何影响。


但你是否担心我们正在构建一种可能欺骗人们看到不存在事物的技术?我的意思是,人们声称他们在比我们现在拥有的复杂性低得多的模型中看到了智慧。还是说,有些人总是会这样做?

这是有可能的。但我的观点是,一个负责任的开发者必须尽我们所能,尽快发现人们身上出现的这些模式,而不是想当然地认为人们能够自己分辨出这些类型的体验。


当我读到你关于“看似有意识的AI”的文章时,我注意到了其中一句:“我们必须为人民构建AI,而不是为了成为一个数字人。”这让我想起了你去年在TED演讲中说过的,思考AI的最佳方式是将其视为一种新型的数字物种。你能帮我理解一下,为什么将这项技术称为“数字物种”而不是“数字个人”或“有意识实体”不会将我们引向你现在担心的那个方向吗?

我认为区别在于,我试图提供比喻,以便人们更容易理解事情可能走向何方,从而如何避免和控制它。


好的。

这不是说我们应该做那些事情。这只是指出,这是人类历史上独一无二的技术的出现。如果你只是假设它是一个工具、一个聊天机器人,或者一个——你知道——我是在对很多怀疑的声音的背景下写那篇TED演讲的。我认为,清楚地认识到即将到来的事物非常重要,这样人们才能思考正确的护栏。


然而,如果你告诉我这项技术是一种新的数字物种,我同情那些说,好吧,那么我们就需要考虑福利的人。我不会的[他开始笑了起来]。一点也不会。绝不。这不是我们任何人都想走的方向。


不,我不是那个意思。我不认为聊天机器人应该拥有福利。我的意思是,当人们听到穆斯塔法·苏莱曼告诉他们他正在构建的东西是一种新的数字物种时,我会对那些说他们想为它挺身而出的人抱有一点同情。我的意思是,我们使用的词语很重要,我猜是这样。

TED演讲的其余部分都是关于如何控制AI以及如何不让这个物种失控,对吧?这就是我提出“这就是即将到来的”的全部意义。我的整本书(2023年出版的《The Coming Wave》)都是关于控制和对齐之类的内容。没有必要假装它不是它所是的东西,然后建立不适用的护栏和界限,因为你认为它只是一个工具。

老实说,它确实有递归自我改进的潜力。它确实有设定自己目标的潜力。这些都是非常深刻的事情。我们发明过的任何其他技术都没有这种潜力。所以,是的,我认为说它像一个数字物种、一种新的数字物种是准确的。我们正试图限制它,以确保它始终为人类服务。那就是控制的目标。



🚀 想要体验更好更全面的AI调用?

欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。

0

评论区