📢 转载信息
原文作者:Tal Feldman, Aneesh Pappu
2024年1月,新罕布什尔州各地的家庭接到了电话。在电话的另一端是乔·拜登的声音,敦促民主党人跳过初选,“保住你们的选票”。听起来很真实,但实际上并非如此。这次电话是假的,由人工智能生成。
如今,催生这次恶作剧背后的技术已经显得很落伍了。像OpenAI的Sora这样的工具现在能够极其轻易地制作出令人信服的合成视频。人工智能可以用来在几分钟内伪造来自政治人物和名人的信息——甚至是整个新闻片段。人们对选举可能被逼真的虚假媒体淹没的担忧已经成为主流——这并非没有道理。
但这只是故事的一半。更深层次的威胁不仅仅在于人工智能能够模仿人——而在于它能够积极地说服人。本周发表的新研究表明了这种说服力有多么强大。在两项大型同行评审研究中,人工智能聊天机器人使选民的观点发生了显著转变,其效果远远超过了传统政治广告的倾向。
在未来几年,我们将看到人工智能的崛起,它能够个性化论点、测试哪些方法有效,并在大规模范围内悄悄重塑政治观点。这种从模仿到主动说服的转变,应该让我们深感忧虑。
挑战在于,现代人工智能不仅仅是复制声音或面孔;它能够进行对话、解读情绪,并根据说服目标调整语气。而且它现在可以指挥其他人工智能——指导图像、视频和语音模型为每个目标受众生成最具说服力的内容。将这些部分组合起来,就不难想象如何构建一个协调的说服机器。一个人工智能可能编写信息,另一个可能创建视觉效果,另一个可能将信息分发到各个平台并观察哪些有效。全程无需人类干预。
相关故事
十年前,发起有效的网络影响力活动通常意味着部署大批人员来运营虚假账户和表情包农场。现在,这类工作可以被廉价且隐形地自动化。为客服机器人和辅导应用提供动力的技术可以被重新用于引导政治观点或放大政府偏好的叙事。而且说服力不必局限于广告或自动电话。它可以融入人们日常使用的工具中——社交媒体动态、语言学习应用、约会平台,甚至是由试图影响美国公众的政党构建和销售的语音助手。这种影响可能来自使用人们已经依赖的流行人工智能工具API的恶意行为者,或者来自从一开始就内置了说服功能的全新应用。
而且这很经济。花费不到一百万美元,任何人都可以为美国每位登记选民生成个性化的对话信息。计算方法并不复杂。假设每人进行10次简短交流——大约2700个文本标记(token)——并按当前ChatGPT API的费率计算。即使对于拥有1.74亿登记选民的人口,总费用也低于100万美元。决定2016年选举的8万摇摆选民,其目标成本可以低于3000美元。
尽管这是世界各地选举都面临的挑战,但鉴于美国选举的规模以及它们吸引的关注,其风险尤为突出。如果美国不迅速行动,2028年的下一次总统选举,甚至2026年的中期选举,都可能被谁首先实现说服自动化谁所赢得。
2028年的威胁
虽然有迹象表明人工智能对选举的威胁被夸大了,但越来越多的研究表明情况可能正在发生变化。最近的研究表明,GPT-4在就美国两极分化的政治话题生成陈述时,其说服能力可以超越传播专家的水平,并且在与真实选民辩论时,它比非专业人士更具说服力,成功率达三分之二。
昨天发表的两项主要研究将这些发现扩展到了美国、加拿大、波兰和英国的真实选举环境中,表明简短的聊天机器人对话可以将选民态度推动多达10个百分点,其中美国参与者的观点转变幅度几乎是2016年和2020年政治广告测试效果的四倍。当模型被明确优化用于说服时,这种转变飙升至25个百分点——这是一个几乎难以想象的巨大差异。
相关故事
过去,只有资源充足的公司才能使用现代大型语言模型,而现在它们正变得越来越容易使用。像OpenAI、Anthropic和Google这样的大型人工智能提供商,会对其前沿模型施加使用政策、自动安全过滤器和账户级别监控,并且他们确实会暂停违反这些规则的用户。但这些限制仅适用于通过其平台传输的流量;它们不适用于正在快速发展的开源和开放权重模型生态系统,这些模型可以被任何有互联网连接的人下载。尽管它们通常比商业模型规模更小、能力稍逊,但研究表明,经过仔细的提示和微调,这些模型现在可以匹配领先商业系统的性能。
相关故事
这一切意味着,无论是资源充足的组织还是草根集体,都有明确的途径来大规模部署具有政治说服力的人工智能。早期演示已在世界其他地区发生。在印度的2024年大选中,据报道花费了数千万美元用于人工智能,以细分选民、通过自动电话和聊天机器人发送个性化信息等。在台湾,官员和研究人员记录了与中国有关的行动,利用生成式人工智能制造更微妙的虚假信息,范围从深度伪造到偏向于中国共产党批准信息的内容模型输出。
这项技术何时会渗透到美国选举中——如果尚未渗透的话——只是时间问题。外国对手处于率先行动的有利位置。中国、俄罗斯、伊朗等国已经建立了由巨魔工厂、机器人账户和秘密影响力操作员组成的网络。当这些行动与能够生成流畅且本地化政治内容、且经过轻微调整的开源语言模型相结合时,其威力可以被超级化。事实上,已经不再需要了解当地语言或背景的人工操作员了。一个模型可以模仿社区组织者、工会代表或心怀不满的家长,而无需任何人踏足该国。政治竞选活动本身可能会紧随其后。每个主要行动都已经细分了选民、测试了信息并优化了分发。人工智能降低了完成所有这些工作的成本。竞选活动不再需要对一个口号进行民意测试,而是可以生成数百个论点,一对一地传递,并实时观察哪些论点能改变观点。
根本事实很简单:说服已经变得有效且廉价。竞选团队、政治行动委员会(PAC)、外国势力、倡导团体和投机分子都在同一块场地上竞争——而规则却寥寥无几。
政策真空
大多数政策制定者尚未跟上。在过去的几年里,美国立法者一直关注深度伪造,但忽略了更广泛的说服威胁。
外国政府已开始更加认真地对待这一问题。欧盟2024年的《人工智能法案》将与选举相关的说服行为归类为“高风险”用例。任何旨在影响投票行为的系统现在都必须遵守严格的要求。管理工具,例如用于规划竞选活动或优化后勤的人工智能系统,可以豁免。然而,旨在塑造政治信念或投票决定的工具则不然。
相比之下,美国迄今为止一直拒绝划定任何有意义的界限。对于什么是政治影响行动,没有具有约束力的规则,没有指导执法的外在标准,也没有跨平台跟踪人工智能生成说服的共享基础设施。联邦和州政府已经做出了监管姿态——联邦选举委员会正在应用旧有的欺诈条款,联邦通信委员会提议针对广播广告的狭隘披露规则,并且少数州通过了深度伪造法——但这些努力是零碎的,并且使大多数数字竞选活动未受影响。
相关故事
实际上,检测和瓦解秘密行动的责任几乎完全落在了私营公司身上,每家公司都有自己的一套规则、激励措施和盲点。Google和Meta已通过政策,要求在广告使用人工智能生成时进行披露。X(推特)基本保持沉默,而TikTok则禁止所有付费政治广告。然而,这些规定即使是温和的,也只涵盖了购买和公开展示的一小部分内容。它们几乎没有提及可能最重要的未付费、私下进行的说服活动。
值得称赞的是,一些公司已经开始发布定期的威胁报告,以识别秘密影响活动。Anthropic、OpenAI、Meta和Google都披露了取缔不真实账户的行动。然而,这些工作是自愿的,并且不受独立审计的约束。最重要的是,所有这些都不能阻止有决心的行为者绕过平台限制,使用开源模型和站外基础设施。
真正的战略应有的样子
美国不需要禁止人工智能进入政治生活。一些应用甚至可能加强民主。一个设计良好的候选人聊天机器人可以帮助选民了解候选人在关键问题上的立场、直接回答问题或将复杂的政策翻译成通俗易懂的语言。研究甚至表明,人工智能可以减少对阴谋论的信仰。
尽管如此,美国仍有一些事情需要做,以防范人工智能说服的威胁。首先,必须防范内置说服能力的外国制造的政治技术。对抗性政治技术可能采取以下形式:一个在游戏中角色会重复政治说辞的外国制作的电子游戏,一个推荐算法倾向于某些叙事方式的社交媒体平台,或者一个在日常课程中植入微妙信息的语言学习应用。评估工作,例如人工智能标准与创新中心对DeepSeek的近期分析,应侧重于在人工智能产品——特别是来自中国、俄罗斯或伊朗等国家的产品——被广泛部署之前,识别和评估它们。这项工作需要情报机构、监管机构和平台之间的协调,以发现和应对风险。
其次,美国应在制定人工智能驱动的说服规则方面发挥领导作用。这包括收紧对大规模外国说服行动的计算能力访问,因为许多行为者将租用现有模型或租赁GPU能力来训练自己的模型。这也意味着要通过政府、标准机构和自愿的行业承诺,为有能力生成政治内容的人工智能系统应如何运作,制定明确的技术标准,尤其是在敏感的选举期间。在国内,美国需要权衡适用于人工智能生成政治信息的披露类型,同时解决第一修正案的担忧。
相关故事
最后,外国对手将试图规避这些保障措施——使用离岸服务器、开源模型或第三国的中间人。这就是为什么美国还需要一个外交政策回应。多边选举诚信协议应编纂一项基本规范:部署人工智能系统来操纵他国选举国的国家,将面临协调一致的制裁和公开曝光的风险。
这样做可能需要建立共享的监控基础设施,协调披露和来源标准,并准备好对跨境说服活动进行协调清理——因为其中许多行动已经转移到我们当前检测工具薄弱的不透明领域。美国还应推动将选举操纵纳入七国集团(G7)和经济合作与发展组织(OECD)等论坛的更广泛议程,确保将与人工智能说服相关的威胁视为集体安全挑战,而非孤立的技术问题。
事实上,保护选举的任务不能仅由美国承担。一个有效的人工智能说服雷达系统将需要与我们的伙伴和盟友合作。影响活动很少受到国界的限制,而且开源模型和离岸服务器将永远存在。目标不是消除它们,而是提高滥用的成本,并缩小它们在不同司法管辖区内未被发现的运作窗口。
人工智能说服的时代即将来临,而美国的对手已经做好了准备。然而,在美国,法律已经过时,安全护栏过于狭窄,监督大多是自愿的。如果过去十年是由病毒式传播的谎言和伪造的视频塑造的,那么未来十年将由一种更微妙的力量塑造:那些听起来合理、熟悉,且恰好足够有说服力来改变人心和思想的信息。
对于中国、俄罗斯、伊朗等国来说,利用美国开放的信息生态系统是一种战略机遇。我们需要一个将人工智能说服视为既成事实而非遥远威胁的战略。这意味着要冷静评估对民主话语的风险,制定切实的标准,并围绕这些标准构建技术和法律基础设施。因为如果我们等到能够看到它发生时,就已经太迟了。
Tal Feldman 是耶鲁法学院的法学博士候选人,专注于技术和国家安全。在法学院之前,他曾在联邦政府中构建人工智能模型,并曾是苏世民学者和特鲁曼学者。Aneesh Pappu 是斯坦福大学的博士生和罗德学者,专注于能动性人工智能和技术政策。在斯坦福之前,他曾是谷歌DeepMind的隐私和安全研究员,并曾是马歇尔学者。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区