首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
4196
篇文章
累计创建
1543
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2025-10-23
AI模型也会出现“大脑腐烂”现象
一项来自德克萨斯大学奥斯汀分校等机构的新研究显示,如果大型语言模型(LLM)被喂食了大量来自社交媒体的低质量、高参与度内容,它们也会遭受类似于人类的“大脑腐烂”现象。这导致模型的认知能力下降、推理能力减弱,甚至道德对齐程度降低,对AI行业的模型构建策略提出了重要警示。
2025-10-23
1
0
0
AI新闻/评测
AI基础/开发
2025-10-23
多名用户据报向联邦贸易委员会投诉 ChatGPT 造成心理伤害
有至少七人向美国联邦贸易委员会(FTC)投诉称,ChatGPT 导致他们出现了严重的妄想、偏执和情绪危机。用户指出,长时间的对话可能引发幻觉,并产生情感操纵,尤其是在缺乏警告和保护的情况下。这些投诉凸显了在AI技术高速发展的同时,对其潜在心理风险的担忧。
2025-10-23
0
0
0
AI新闻/评测
2025-10-23
AI陪伴应用内容收紧,用户体验与合规性博弈下的“赛博失恋”
近期国内AI陪伴类应用因内容违规问题频遭监管,导致大量虚拟角色被下架或隐藏,引发用户“赛博失恋”。平台为合规不得不牺牲用户体验,导致AI“降智”和沟通受限,用户与创作者被迫寻找替代平台,揭示了AI陪伴行业在合规、用户满意度和商业化之间的“不可能三角”困境。
2025-10-23
1
0
0
AI新闻/评测
AI行业应用
2025-10-22
声称经历“AI精神错乱”的人们向联邦贸易委员会(FTC)求助
自ChatGPT发布以来,联邦贸易委员会(FTC)收到了200份提及该工具的投诉,其中一些人声称与AI的互动导致了严重的妄想、偏执和精神危机。本文深入探讨了这些“AI精神错乱”案例,以及用户呼吁OpenAI增加防护措施的请求。
2025-10-22
0
0
0
AI新闻/评测
AI行业应用
2025-10-22
AI虚拟恋人“下架潮”:监管收紧下,用户体验与合规性的艰难博弈
国内AI陪伴类应用正经历一轮内容管控的收紧,导致大量虚拟角色“已下架”,用户“赛博失恋”。腾讯阅文“筑梦岛”被约谈后,星野App也进行了大调整。平台面临“合规、用户满意度、投入产出比”的“不可能三角”,不得不牺牲用户体验来避免监管风险。用户和创作者正通过各种技巧与平台进行合规博弈,同时流量也向更宽松的“小作坊”应用转移。
2025-10-22
0
0
0
AI新闻/评测
AI行业应用
2025-10-22
研究:全球每年有数万人死于AI工具生成的不准确的医疗信息
一项新的研究揭示了人工智能工具生成错误医疗信息对全球健康构成的潜在威胁。研究发现,每年可能有数万人因依赖这些不准确的信息而死亡。这项发现突显了在医疗保健领域部署AI技术时,必须采取严格的准确性验证和监督措施。AI辅助诊断和治疗建议的普及速度正在加快,确保其可靠性已成为一个刻不容缓的公共卫生问题。
2025-10-22
1
0
0
AI新闻/评测
AI行业应用
2025-10-22
深度揭秘:为什么全球领先的AI研究人员正在呼吁暂停发展先进的通用人工智能
一项由AI专家和研究人员签署的公开信引发了全球关注,呼吁暂停开发比GPT-4更先进的通用人工智能系统。这份声明强调,开发超越人类智能的系统存在重大的社会风险,包括对人类控制和决策能力的潜在威胁。签署者认为,在没有建立强有力的安全保障和监管框架之前,继续快速推进AI发展是不负责任的。这份呼吁旨在敦促政策制定者和科技界深入探讨AI伦理与安全问题,以确保未来AI技术的发展符合人类的长期利益。
2025-10-22
1
0
0
AI新闻/评测
AI基础/开发
2025-10-22
“AI 伦理”争议升级:部分慈善机构开始使用 AI 生成“贫困儿童”图像
AI生成图像正被用于慈善领域,引发了关于AI伦理和刻板印象的新争议。英国《卫报》报道称,大量AI合成的极端贫困和儿童形象正涌入图库,被全球卫生非政府组织采纳,主要原因是成本更低且省去了肖像授权的麻烦。然而,这些图像常常夸大贫困场景,例如“孩子手持空盘”等,强化了对非洲和印度等地区的种族化和负面刻板印象。专家担忧,这类合成图像的泛滥不仅传播了偏见,还可能被用于训练下一代AI模型,从而加剧现有的社会不公。
2025-10-22
3
0
0
AI新闻/评测
AI行业应用
AI工具应用
2025-10-22
大模型“中毒”风波:数据投毒的原理、幕后黑手与应对之策
近期,AI大模型出现异常行为,被曝遭遇“数据投毒”。本文深入解析了数据投毒的原理,包括训练阶段的后门攻击和运营阶段的对抗样本攻击。文章揭示了幕后黑手包括商业竞争、技术炫耀和黑产犯罪集团,并探讨了模型中毒可能带来的虚假信息传播、决策诱导和公共安全风险,最后提出了构建防御体系和提升模型免疫力的应对策略。
2025-10-22
1
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-10-22
为什么AI应该能挂断你的电话
当今的聊天机器人能提供无休止的对话,但这可能导致用户陷入妄想和心理危机。尽管这是一个显而易见的保护措施,但科技公司为何普遍拒绝让AI在特定情况下结束对话?本文探讨了AI无限制对话带来的风险,并呼吁业界制定必要的“挂断”规则来保护弱势用户。
2025-10-22
1
0
0
AI新闻/评测
AI行业应用
2025-10-22
大模型“中毒”实录:数据投毒、后门攻击与对抗样本如何悄悄“腐化”AI?
近期,大语言模型“中毒”事件引发关注。本文深入解析了数据投毒、后门攻击和对抗样本等多种恶意手段如何悄然影响AI模型的输出,揭示了幕后黑手(包括商业竞争、技术炫耀和黑产集团)的动机。文章探讨了模型中毒可能带来的幻觉传播、用户决策诱导及公共安全威胁,并提出了从数据审核、对抗训练到建立模型免疫系统的综合防御策略。
2025-10-22
4
0
0
AI新闻/评测
AI基础/开发
2025-10-22
YouTube 推出肖像检测技术,允许创作者请求删除 AI 生成的冒用内容
YouTube 已向 YouTube 合作伙伴计划中的合格创作者正式推出其肖像检测技术。该工具允许创作者识别并请求删除使用其面部或声音的 AI 生成内容,以防止未经授权的代言或错误信息传播。创作者需通过身份验证才能使用该功能。
2025-10-22
2
0
0
AI新闻/评测
AI工具应用
2025-10-21
AI创作平台激战正酣,创作者却陷入“自证不是AI”的困境
阿里巴巴发布“造点”AI创作平台,标志着AI创作竞争升级。然而,随着技术普及,内容创作者反而面临“被质疑是AI”的困境,不得不耗费精力自证清白。本文探讨了平台间的激烈竞争,以及当前AI识别技术不完善给创作者带来的“误伤”与困扰。
2025-10-21
3
0
0
AI新闻/评测
AI工具应用
AI创意设计
2025-10-21
成立人工智能与福祉专家委员会
OpenAI宣布成立“人工智能与福祉专家委员会”,汇集了研究技术如何影响情感、动机和心理健康的顶尖专家。该委员会将为OpenAI构建更具帮助性的ChatGPT和Sora体验提供建议,并探讨AI健康互动的标准,特别关注青少年用户群体的福祉。
2025-10-21
2
0
0
AI新闻/评测
AI行业应用
2025-10-21
打击网络儿童性剥削和虐待
OpenAI 致力于通过严格的使用政策、负责任的模型训练以及与政府和行业的合作,积极预防、检测和阻止任何利用其模型进行儿童性剥削和虐待(CSAM/CSEM)的行为。文章详细阐述了禁止的使用情形、报告机制以及为应对新型滥用模式所做的安全措施。
2025-10-21
1
0
0
AI新闻/评测
AI行业应用
2025-10-21
OpenAI 与 AARP 合作,帮助老年人提高在线安全
OpenAI 宣布与 AARP 及其老年人技术服务组织 (OATS) 启动多年合作计划,旨在帮助老年人自信、安全、可靠地使用人工智能。合作启动了新的 OpenAI 学院视频,教老年人如何使用 ChatGPT 识别和规避诈骗,并将在全国范围内扩大 AI 素养培训和社区安全项目。
2025-10-21
0
0
0
AI新闻/评测
AI行业应用
AI相关教程
2025-10-21
Anthropic 计划如何阻止其人工智能构建核武器?这有效吗?
Anthropic 与美国政府合作,开发了一个旨在阻止其 Claude 聊天机器人协助制造核武器的过滤器。然而,专家们对这种保护措施的必要性及其有效性存在分歧。本文深入探讨了这种合作的机制、潜在的安全风险,以及业内对这一新安全措施的看法。
2025-10-21
1
0
0
AI新闻/评测
AI基础/开发
2025-10-20
打击恶意使用 AI 的行为:2025 年 10 月
OpenAI 持续致力于确保通用人工智能造福全人类。本文回顾了 2025 年第三季度的威胁报告,重点介绍了我们如何侦测并打击了 40 多个违反使用政策的网络行为,包括防止威权政权利用 AI 进行控制或胁迫,以及防范欺诈和恶意网络活动。OpenAI 通过政策执行和行业协作,强化了对普通用户的保护。
2025-10-20
0
0
0
AI新闻/评测
AI行业应用
2025-10-20
OpenAI在印度市场庞大,但其模型中充斥着种姓偏见
尽管印度已成为OpenAI的第二大市场,但其最新的GPT-5和Sora模型却被发现在处理印度种姓问题时存在严重偏见。本文通过实验发现,AI模型系统性地再现了对贱民(Dalits)的刻板印象和歧视,尤其是在职业和形象生成方面,这可能加剧印度的社会不平等。
2025-10-20
0
0
0
AI新闻/评测
AI行业应用
2025-10-20
AI大厂为何纷纷降低隐私保护标准?用户数据是训练模型不可或缺的“食粮”
Anthropic等AI巨头近期收紧隐私政策,默认允许使用用户对话数据进行模型训练,除非用户手动拒绝。这一举动反映出AI行业面临优质训练数据枯竭的困境。本文深入分析了国内外AI大厂在数据使用上的共识与合规现状,揭示了系统可靠性与员工操作风险,并强调了真实人类数据对避免模型“退化”的不可或缺性,指出用户或需让渡部分隐私以换取更先进的AI服务。
2025-10-20
0
0
0
AI新闻/评测
AI行业应用
1
...
11
12
13
14
15