📢 转载信息
原文链接:https://www.bbc.com/news/articles/cdr2gm4y4ygo?at_medium=RSS&at_campaign=rss
原文作者:BBC News
微软研究院(Microsoft Research)的科学家们警告称,大型语言模型(LLMs)的快速发展对社会构成了严重的道德风险,尤其是在传播错误信息和仇恨言论方面。
研究人员对LLMs的担忧
微软的研究人员在一份新报告中指出,随着像ChatGPT这样的工具的能力越来越强,它们可能会被用于大规模生产和传播有害内容。
报告称,这些AI模型可以被用来:
- 生成高度逼真的假新闻报道。
- 创建针对特定群体的大量仇恨言论。
- 发动更具说服力的网络钓鱼和社会工程学攻击。
研究人员强调,AI生成的内容在数量和速度上都远远超过了人工审核或传统检测方法的能力。
信任的挑战
微软的研究团队表示,AI的普及正在侵蚀人们对在线信息的信任度。
他们写道:“我们面临的挑战不仅是检测已经存在的内容,更重要的是,AI使得生成如此多的逼真虚假信息成为可能,这将使人们越来越难分辨真假。”
这份报告是微软研究院对AI伦理和安全领域更广泛研究的一部分,旨在评估新兴技术带来的风险。
呼吁行业采取行动
报告作者呼吁技术行业——包括AI开发者和部署者——必须立即采取行动,以减轻这些风险。
他们建议采取的措施包括:
- 强化安全协议:在模型发布前进行更严格的红队测试(red-teaming),以发现和修复潜在的滥用途径。
- 透明度:提高模型训练数据和能力的透明度。
- 水印技术:开发更可靠的内容溯源和数字水印技术,以区分AI生成内容和人类创造内容。
研究人员认为,如果不采取负责任的开发和部署策略,LLMs的负面影响可能会在未来几年内对民主进程和社会凝聚力造成不可逆转的损害。
然而,这份报告也承认,AI技术本身是中立的,其影响取决于使用者的意图。因此,建立强大的伦理和治理框架至关重要。
微软研究院的发现与全球监管机构和AI专家日益增长的担忧相一致,他们都在敦促科技公司在追求创新速度的同时,优先考虑社会安全和伦理责任。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区