📢 转载信息
原文链接:https://www.nature.com/articles/d41586-026-00121-x
原文作者:Zhenning Li & Zhengbing He
您已经记录了大型语言模型(LLMs)在它们帮助生成的文本中,可能如何将科学不平等固化(例如,参见Nature 645, 285; 2025年的文章)。随着LLM的使用日益普及,一些声音被视为中心,而另一些声音则被视为边缘化的可能性越来越大。但风险远不止于此——这些偏见可能会影响来自低收入国家的学者构建和阐述其科学观点的方式。
Nature 649, 555 (2026)
doi: https://doi.org/10.1038/d41586-026-00121-x
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区