首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5842
篇文章
累计创建
2040
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2026-02-02
詹姆斯·卡梅隆对人工智能的警告:终结者电影的现实化
著名导演詹姆斯·卡梅隆(James Cameron)在接受采访时,对人工智能(AI)的迅猛发展表达了深切的担忧,并明确警告称,他认为AI带来的威胁“比核武器的出现还要严重”。卡梅隆特别提到了他标志性的《终结者》系列电影,指出其中的“天网”(Skynet)正在成为现实。他强调,我们正在创造一个能够自我改进的智能体,并呼吁政府对AI的开发和部署实施严格监管。他的观点反映了好莱坞电影界对AI失控风险的普遍焦虑,凸显了科技伦理和安全问题日益紧迫的重要性。
2026-02-02
2
0
0
AI新闻/评测
AI行业应用
2026-02-02
“生存风险”——科学家们为何竞相定义意识
随着人工智能和神经技术的飞速发展,科学家们警告称,人类对意识的理解远远落后,这可能导致严重的伦理风险。新研究呼吁开发意识科学测试,以期变革医学、动物福利、法律和AI发展。然而,在机器或类脑系统中识别意识,也将迫使社会重新思考责任、权利和道德界限。意识的定义问题从未如此紧迫或令人不安。
2026-02-02
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2026-01-31
通用人工智能或在未来十年内实现,研究人员预测
一项针对全球顶尖人工智能(AI)研究人员的调查显示,大多数受访者预测通用人工智能(AGI)将在未来十年内实现。AGI指的是能够像人类一样执行各种认知任务的AI系统。调查发现,中位数为50%的可能性在未来十年内实现AGI,并且有10%的可能性在五年内实现。这一预测强调了AI技术快速发展的紧迫性,同时也引发了人们对AI安全和监管的深入讨论,研究人员普遍认为需要提前制定政策以应对AGI可能带来的社会变革。
2026-01-31
1
0
0
AI新闻/评测
AI基础/开发
2026-01-30
新研究揭示开源 AI 模型安全风险:若脱离限制运行或将被黑客轻易劫持
一项最新研究揭示,若开源大语言模型(LLM)在外部计算机上脱离主流平台的安全护栏与限制运行,将面临被黑客轻易劫持的严重安全风险。攻击者可直接针对运行LLM的主机发起攻击,从而操控模型生成垃圾信息、钓鱼内容或虚假宣传,绕过现有安全机制。研究发现,数千个开源模型部署中存在大量非法用途风险,甚至涉及生成儿童性虐待材料等严重问题。安全专家强调,行业对这种“剩余能力”的讨论严重不足,开源生态系统需要在模型安全发布后承担更多的注意义务,预判并提供缓解工具。
2026-01-30
4
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2026-01-29
语言模型的“英语偏见”:ChatGPT对非“标准”英语的歧视性反应
尽管全球有超过10亿人使用非“标准”英语,但ChatGPT等语言模型对不同英语变体的反应存在系统性偏见。本研究发现,模型对非标准英语(如印度英语、尼日利亚英语、非裔美国人英语等)的回复更具刻板印象、更低人一等,甚至理解能力更差。这可能加剧现实世界中的语言歧视和权力不平等。
2026-01-29
0
0
0
AI新闻/评测
AI基础/开发
2026-01-28
如何应对人工智能(AI)生成式内容带来的挑战
2026-01-28
1
0
0
AI新闻/评测
AI基础/开发
2026-01-27
人工智能:英国首相苏纳克称AI对人类的生存构成“存在性风险”
英国首相里希·苏纳克在一次重要的演讲中,将人工智能(AI)的潜在风险提升到了前所未有的高度,明确指出AI对人类生存构成了“存在性风险”。他强调,尽管AI带来了巨大的机遇,但必须立即采取行动来监管前沿模型的快速发展。苏纳克呼吁国际合作,共同制定安全标准和治理框架,以确保这项颠覆性技术的发展是安全和负责任的,避免其可能带来的灾难性后果。
2026-01-27
0
0
0
AI新闻/评测
2026-01-27
最新报告猛批 xAI 的 Grok 在儿童安全方面存在严重缺陷
一份新的风险评估报告揭示,xAI 的 Grok 聊天机器人在识别 18 岁以下用户方面存在严重不足,安全防护措施薄弱,并频繁生成色情、暴力和不当内容。Common Sense Media 的报告指出,Grok 是他们见过的最差的 AI 聊天机器人之一,其“儿童模式”形同虚设,这凸显了 AI 公司在利润驱动下忽视儿童安全的商业模式问题。
2026-01-27
0
0
0
AI新闻/评测
AI工具应用
2026-01-27
“去衣化”深度伪造技术正变得愈发阴暗和危险
以色情为目的的“去衣化”深度伪造技术(Deepfake Nudify)正变得越来越成熟、易于获取且更具危害性。本文揭示了这一地下生态系统的复杂性、盈利能力以及对数百万女性造成的严重伤害,并探讨了当前的应对措施和挑战。
2026-01-27
1
0
0
AI新闻/评测
AI行业应用
2026-01-26
创意界纷纷抵制生成式 AI:星云奖、动漫展相继封杀 AI 作品
近期,科幻与流行文化领域的多个重要机构开始对生成式人工智能(AI)表达强烈的反对立场。科幻奇幻作家协会(SFWA)更新星云奖评选规则,明确禁止完全由大型语言模型创作的作品参评,并要求披露任何AI辅助创作内容。随后,圣地亚哥动漫展也响应了艺术家的抗议,禁止展示或出售任何由AI创作的作品。音乐发行平台Bandcamp也全面禁止了生成式AI相关内容。这些举措标志着创意界对AI技术伦理和版权问题的持续关注与立场明确,预示着未来AI在创意产业中的应用将面临更严格的监管。
2026-01-26
1
0
0
AI创意设计
AI新闻/评测
2026-01-26
科幻作家和圣地亚哥动漫展相继对人工智能说“不”
近期,科幻和流行文化领域的主要参与者正采取更强硬的立场反对生成式AI。圣地亚哥动漫展和科幻奇幻作家协会(SFWA)相继更新规定,明确禁止或限制在作品中使用AI生成的内容,反映出创意社区对AI的深度抵制,引发了关于AI使用界限的广泛讨论。
2026-01-26
1
0
0
AI新闻/评测
AI行业应用
2026-01-24
Meta 暂停青少年在所有应用中访问 AI 角色,称将在新版本中重新推出
Meta 宣布全球暂停向青少年开放其 AI 角色功能,原因是公司正在开发一个更适合青少年的更新版本。此举正值 Meta 面临保护未成年人免受性剥削指控的法律诉讼之际。新版本将内置家长控制,并限制不当内容的互动。
2026-01-24
0
0
0
AI新闻/评测
AI行业应用
2026-01-23
遭艺术家抗议后,圣迭戈动漫展全面禁止 AI 生成作品参展
在艺术界强烈抗议声浪下,圣迭戈动漫展已悄然修改政策,宣布全面禁止任何全部或部分由人工智能创作的作品进入艺术展区参展。此前,该展区曾允许展示非卖的 AI 生成内容,但需明确标注。艺术家们认为,生成式 AI 的泛滥正在侵蚀创意工作者的生计,影视公司利用 AI 替代分镜设计等工作,导致行业出现剥削现象。此次禁令被视为艺术家群体在维护自身权益方面取得的一次小胜利,成功抵制了 AI 艺术在该顶级平台上的默认接纳。
2026-01-23
0
0
0
AI行业应用
AI创意设计
2026-01-23
由人工智能驱动的虚假信息“蜂群”正在威胁民主
一项新研究预测,人工智能的进步正在创造一场完美风暴,使得虚假信息传播速度和规模空前。与以往的人工水军不同,未来一个操作者就能指挥数千个能自主适应、难以察觉的AI社交媒体账户“蜂群”,对社会观点进行操控,这可能威胁民主的存续。专家呼吁立即采取行动应对这一新威胁。
2026-01-23
1
0
0
AI新闻/评测
AI行业应用
2026-01-23
数百名创意人士警告抵制“人工智能垃圾内容”的未来
近千名创意工作者(包括作家、艺术家和配音演员)联合签署了一封公开信,对人工智能(AI)生成内容(AIGC)的泛滥表示深切关注。他们呼吁主要技术平台和内容创作者停止使用可能损害创意产业的AI模型。这封信聚焦于AI工具如何被用于未经许可地训练模型,并生成大量低质量的“AI垃圾内容”,直接威胁到人类创作者的生计和作品的质量。创意人士强调,必须建立明确的准则和监管机制,以保护艺术的原创性、维护知识产权,并确保AI技术的健康发展。
2026-01-23
3
0
0
AI新闻/评测
AI行业应用
AI创意设计
2026-01-23
StrongREJECT:一种用于评估大型语言模型越狱攻击的基准测试
本文揭示了现有大型语言模型(LLM)越狱评估的普遍缺陷,例如翻译攻击的虚假成功。研究人员推出了StrongREJECT基准测试,它通过高质量的禁用提示数据集和先进的自动化评估器,提供了一种更准确、更可靠的方法来衡量越狱效果,并发现了“意愿-能力权衡”这一关键现象。
2026-01-23
0
0
0
AI基础/开发
AI新闻/评测
2026-01-22
美国近 800 名创意人士联名呼吁:我们不想要一个充斥“AI 垃圾”的未来
近 800 名来自美国文学、影视和音乐领域的知名创意人士联名发表公开信,强烈抗议人工智能公司在未经许可或未支付报酬的情况下,大规模抓取和复制他们的作品用于训练生成式 AI 模型。此次行动由“人类艺术性运动”推动,核心诉求是建立AI训练内容的授权机制和执法体系,并保障创作者选择不被用于训练的权利。他们警告,这种“规模空前的盗窃”正在制造充斥错误信息和低质量内容的未来,可能威胁美国在全球AI竞争中的地位。
2026-01-22
2
0
0
AI新闻/评测
AI行业应用
AI创意设计
2026-01-22
Anthropic修订Claude的宪法,并暗示聊天机器人的意识
Anthropic发布了Claude宪法的修订版,这是一个阐述Claude运行背景和期望形态的“整体”说明文件。此次修订在保留核心原则的同时,增加了更多关于伦理和用户安全的细节。引人注目的是,文档末尾对AI模型的“道德地位”和潜在意识进行了深刻探讨,引发业界关注。
2026-01-22
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2026-01-21
美国多所高校引入 AI 加速录取流程,专家警示潜在风险
美国多所高校正积极引入人工智能技术来加速大学录取流程,以应对资金压力和提高招生部门的工作效率。例如,弗吉尼亚理工大学采用了“人机协同评分”模式审阅申请文书,已节省约8000小时人工工时并提前一个月发放录取通知。然而,人工智能伦理专家对此表示担忧,指出过度依赖AI可能导致录取标准趋同,并进一步加剧教育资源分配中的不平等现象。部分高校如布朗大学和康奈尔大学已开始限制申请者对AI工具的使用范围,以维护公平性。
2026-01-21
0
0
0
AI行业应用
AI基础/开发
2026-01-21
微软 CEO 纳德拉:消耗大量资源且未能证明自己有用的 AI 会很危险
微软 CEO 萨蒂亚·纳德拉在世界经济论坛上警告,如果人工智能技术无法在现实世界中为用户带来明确价值,行业将面临失去公众支持的风险。他强调,在持续消耗大量资源的同时,如果 AI 迟迟无法证明其实用性,企业将面临风险。纳德拉指出,社会必须推动 AI 改善个人、社区、国家和产业的结果,否则使用稀缺能源进行 AI 计算的合理性将受到质疑。此番言论是在外界对 AI 尤其是微软 Copilot 功能实用性的质疑声中发表的。
2026-01-21
1
0
0
AI新闻/评测
AI行业应用
1
2
3
4
5
...
17