📢 转载信息
原文作者:Will Douglas Heaven
“我们永远不会制造性爱机器人,”微软AI负责人穆斯塔法·苏莱曼如是说
与微软AI负责人就界限、数字物种和聊天机器人未来进行的一场对话。

图片提供:穆斯塔法·苏莱曼
执行摘要
穆斯塔法·苏莱曼,微软AI的首席执行官,正试图走一条精妙的平衡之路。一方面,他认为行业正在通过构建表现得像人类的聊天机器人,将人工智能引向危险的方向:他担心人们会被欺骗,将逼真的行为误认为是生命。八月份,他在个人博客上发表了一篇广受关注的文章,敦促同行们停止试图制造他称之为“看似有意识的人工智能”(SCAI)的产物。
另一方面,苏莱曼领导着一个产品部门,这个部门必须与那些同行竞争。上周,微软宣布对Copilot聊天机器人进行一系列更新,旨在在一个拥挤的市场中提升其吸引力,在这个市场中,客户可以在包括ChatGPT、Perplexity、Gemini、Claude、DeepSeek等一系列竞争对手中进行选择。
我与苏莱曼讨论了在设计我们与聊天机器人的互动时所面临的紧张关系,以及他对这项新技术最终应成为什么的愿景。
Copilot的一项关键更新是群聊功能,允许多人同时与聊天机器人对话。这样做的主要目的是防止人们陷入与一个唯命是从的机器进行一对一对话的“兔子洞”中。另一个名为“真实对话”(Real Talk)的功能,允许用户调整Copilot对你提出反对意见的程度,降低其阿谀奉承的程度,让聊天机器人更频繁地挑战你的观点。
Copilot的记忆功能也得到了升级,现在它可以记住你即将到来的日程或长期目标,并能提及你在过去对话中告诉它的事情。然后是Mico,一个动画的黄色小点——有点像聊天机器人版的“Clippy”——微软希望它能让Copilot对新用户和年轻用户来说更易于接受和吸引人。
微软表示,这些更新旨在使Copilot更具表现力、更具吸引力和更有帮助。但我很好奇,在不走上苏莱曼警告的SCAI之路的前提下,这些功能能被推到多远。
苏莱曼对SCAI的担忧正值我们开始听到越来越多关于人们被过度投入、过度表达、过度有帮助的聊天机器人误导的故事。OpenAI正被一名青少年父母起诉,他们声称这名青少年被ChatGPT说服自杀了。甚至还有一个不断壮大的圈子在庆祝与聊天机器人的浪漫关系。
考虑到这一切,我想深入探究苏莱曼的观点。因为几年前他在一次TED演讲中告诉我们,思考AI的最佳方式是将其视为一种新型的数字物种。这种炒作难道不会助长苏莱曼现在所担忧的误解吗?
在我们的谈话中,苏莱曼告诉我他想通过那次TED演讲传达什么,他为什么真正相信SCAI是一个问题,以及为什么微软(他的原话)永远不会制造性爱机器人。他提供了很多答案,但也给我留下了更多疑问。
为长度和清晰度起见,我们的对话已做编辑。
在理想的世界中,你想打造一个什么样的聊天机器人?你们刚刚发布了一系列Copilot的更新。当你们正在构建一个必须在一个似乎重视类人互动的市场中竞争的聊天机器人时,你们如何才能在必须避免看似有意识的AI这一目标之间取得平衡?
这是一个好问题。通过群聊,这将是第一次一大群人可以同时与一个AI对话。这确实是一种强调AI不应该将你从现实世界中抽离出来的方式。它们应该帮助你建立联系,将你的家人、朋友、社区团体等带进来。
在未来几年,这将成为一个非常重要的区别点。我对AI的设想一直是一个AI在你身边,为你服务的团队成员。
这是一个非常简单、明显的主张,但它不是为了超越和取代人类——而是为了服务我们。这应该是衡量技术在每一步的准则。它是否真正实现了文明的追求,即让我们更聪明、更快乐、更有效率、更健康等等?
所以我们只是在努力构建那些不断提醒我们提出这个问题的功能,并提醒我们的用户在这个问题上给我们施加压力。
上次我们交谈时,你告诉我你对制作会角色扮演个性的聊天机器人不感兴趣。但这与更广泛的行业情况不符。埃隆·马斯克的Grok正在推销那种调情的体验。OpenAI曾表示有兴趣探索与ChatGPT进行新的成人互动。那里有市场。然而,你却会完全避开这些吗?
是的,我们永远不会制造性爱机器人。令人遗憾的是,我们需要对此如此明确,但这根本不是我们作为一家公司的使命。在微软工作的乐趣在于,这家公司50年来一直致力于构建赋能人们、以人为本的软件。
有时候,结果就是公司比其他初创公司行动得更慢,更加深思熟虑和谨慎。但我认为在现在这个时代,这是一种优点而非缺点,因为关注潜在的副作用和长期后果至关重要。
那具体意味着什么?
我们非常清楚,我们要努力创造一个能培养有意义关系的AI。并不是说它试图变得冷漠和乏味——它关注的是流畅、清晰和友好。它确实具有一定的情商。
那么,它——你们在哪里——划定这些界限呢?
我们最新的聊天模型,名为“真实对话”(Real Talk),有点更俏皮。它更淘气,更有趣,也相当具有哲学性。它可以愉快地讨论生活意义等宏大问题。但是,如果你试图与它调情,它会抵制,并且会非常清楚地表明——不是以评判的方式,而是简单地说:“看,那不适合我。”
你可以去其他地方获得那种体验,对吧?我认为这只是我们公司作为一个整体所做出的决定。
“不调情”政策就足够了吗?因为如果目标是阻止人们想象互动背后存在一个实体、一个意识,那么即使是一个想保持“工作场所安全”(SFW)的聊天机器人也可能产生这种感觉。你知道,我能想象有些人即使面对一个说“让我们保持专业”的个性,也会看到一些不存在的东西。
这是一个比喻,可以帮助你理解。我们在工作场所互相制约。存在一个完整的边界管理架构,它基本上将人类行为塑造成符合功能性和不令人讨厌的模式。
这与我们在个人生活中一样。你与第三个表亲的互动方式与你与兄弟姐妹的互动方式截然不同。我们有很多可以从人类互动中如何管理边界中学到的东西。
它不必是完全开放情感感性或可用性——将人们拉入强烈情感的螺旋式兔子洞——或者像一个冰冷干燥的东西。两者之间存在一个巨大的光谱,而我们作为一个行业和物种正在学习的工艺就是塑造这些属性。
而这些属性显然反映了设计它们的公司所持有的价值观。我认为这就是微软拥有很多优势的地方,因为我们的价值观相当清晰,这也是我们所坚持的。
很多人似乎喜欢个性。例如,对GPT-5的一些反弹是因为前一个模型的个性被移除了。OpenAI最初赋予它一个强烈的个性,以至于人们会怀念它,这是否是一个错误?
不,个性是很好的。我的观点是,我们正试图以更精细的方式雕塑个性属性,对吧?
就像我说的,“真实对话”是一个很酷的个性。它与正常的Copilot非常不同。我们也在试验Mico,这是一个视觉角色,你知道,一些人——有些人——非常喜欢它。它更具吸引力。谈论各种情感问题会更容易。
我猜我试图弄清楚的就是:像Mico这样的功能是为了让Copilot更具吸引力和更好用,但这似乎与竭尽所能阻止人们认为你正在与之建立友谊的理念相悖。
是的。我的意思是,它不一定能阻止你。人们想与他们喜欢的人或事物交谈。我们知道,如果你的老师在学校对你友好,你会更投入。你的经理、你的亲人也是如此。因此,情商一直是这个谜题的关键部分,所以我们并不是说我们不想追求它。
关键在于找到那个界限的工艺。有些事情我们说的是绝对禁止的,而对于其他事情,我们将进行更多的实验。例如,有些人抱怨Copilot给他们的反驳不够多——他们希望它更具挑战性。而另一些人则不寻求那种体验——他们只想要一个基本的信息提供者。我们的任务只是学习如何为不同的人提供不同类型的体验。
我知道你一直在思考人们如何与AI互动。是否有一个诱发事件促使你想在行业内发起关于“看似有意识的AI”的讨论?
我看到学术文献中出现了一群人,他们非常认真地对待对人工实体的道德考虑这一问题。我认为很明显,如果我们开始这样做,就会削弱保护许多已存在的人类权利,更不用说动物权利的紧迫需要。
如果你给予AI权利,这就意味着——你知道——基本的自主权,这意味着它可能有自由意志来自己做决定。所以我真的很想提出一个反论,那就是它永远不会拥有自由意志。它永远不会拥有像另一个人那样的完全自主权。
AI将能够代表我们采取行动。但这些模型是为我们工作的。你不会想让一群,你知道,未被驯服的狼四处游荡,它们完全自由地与我们争夺资源,并且不对人类负责。我的意思是,大多数人会认为这是个坏主意,你会想去杀死那些狼。
好的。所以想法是在AI福利或权利运动开始之前就阻止它,方法是确保我们不构建看起来有意识的AI?那是不是因为某些弱势群体可能会被它以有害的方式欺骗而不想构建那种AI?我的意思是,这似乎是两个不同的担忧。
我认为检验标准将取决于不同实验室推出的功能以及他们创造的个性类型。然后我们才能看到这对人类行为有何影响。
但你是否担心我们正在构建一种可能欺骗人们看到不存在事物的技术?我的意思是,人们声称在比我们现在拥有的智能程度低得多的模型中看到了感知能力。还是说这只是有些人总会做的事情?
这是可能的。但我的观点是,一个负责任的开发者必须尽力尽快检测到这些在人们身上出现的模式,而不是想当然地认为人们能够自己分辨出那些类型的经历。
当我阅读你关于“看似有意识的AI”的帖子时,一句“我们必须为人们构建AI;而不是为了成为一个数字人”的话给我留下了深刻的印象。这让我想起你去年的一次TED演讲,你在其中说,思考AI的最佳方式是将其视为一种新的数字物种。你能帮我理解,为什么将这项技术称为“数字物种”而不是“数字人”或有意识的实体,不会让你走向歧途吗?
我认为区别在于,我试图提供隐喻,让人们更容易理解事情可能的发展方向,从而如何避免并控制它。
好的。
这并不是说我们应该做那些事情。这只是指出,这是人类历史上独一无二的技术的出现。如果你只是假设它是一个工具或只是一个聊天机器人或一个愚蠢的东西——你知道,我是在很多怀疑的背景下写那篇TED演讲的。我认为对即将到来的事情保持清醒的认识很重要,这样人们才能考虑正确的护栏。
然而,如果你告诉我这项技术是一种新的数字物种,我对那些说“那么我们需要考虑福利”的人表示同情。
我不会。[他开始大笑。] 一点也不会。绝不。这不是我们任何一个人想走的方向。
不,我不是那个意思。我不认为聊天机器人应该有福利。我的意思是,当我听到穆斯塔法·苏莱曼告诉他们他正在构建的东西是一个新的数字物种时,我会对那些说‘那么我们就需要为它挺身而出’的人表示同情。我的意思是,我们使用的词语很重要,我想。
TED演讲的其余部分都是关于如何控制AI,以及如何不让这个物种占上风,对吧?这就是把话说出来的全部意义,比如‘这就是即将到来的’。我的整本书(2023年出版的《即将到来的浪潮》)都是关于遏制和对齐之类的内容。没有必要假装它不是它所是的东西,然后建立不适用的护栏和界限,因为你认为它只是一个工具。
老实说,它确实有递归自我改进的潜力。它确实有设定自己目标的潜力。这些都是非常深刻的事情。我们发明的任何其他技术都没有这个。所以,是的,我认为说它像一个数字物种,一个新的数字物种是准确的。我们正试图限制它,以确保它始终为人们服务。这就是遏制的目标。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区