首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
4212
篇文章
累计创建
1543
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2025-11-16
为什么我们对AI生成图像的感知会发生变化?
人工智能生成图像的质量正在迅速提高,但人类对这些图像的感知和接受度却存在复杂的变化。研究表明,当人们被告知图像是AI生成时,他们对图像的评判标准会显著改变,偏好度也会下降。这种现象揭示了对合成媒体日益增长的怀疑态度,以及我们如何根据来源来评估信息和艺术作品。深入了解这种心理机制对于评估未来数字内容的真实性至关重要。
2025-11-16
0
0
0
AI创意设计
AI新闻/评测
2025-11-15
“恶意使用已在发生”:机器学习先驱谈如何让AI更安全
被誉为“人工智能教父”之一的Yoshua Bengio,长期处于机器学习研究的前沿。本文探讨了他对人工智能风险的看法,以及他为从一开始就内置安全性的AI所做的努力。Bengio强调,AI的恶意使用已经在发生,并呼吁采取措施应对这些潜在危险。
2025-11-15
0
0
0
AI新闻/评测
AI基础/开发
2025-11-14
网信部门严厉整治利用AI仿冒公众人物开展直播营销乱象
针对近期利用AI技术仿冒公众人物进行直播营销并误导网民的乱象,国家网信部门已采取严厉整治行动。此次行动已处置“百货超市小店”等一批违法违规账号,累计清理相关违规信息超过8700条,并处置了超过1.1万个仿冒公众人物账号。网信部门强调将继续对恶意营销行为保持高压态势,对发现的违规账号将“发现一批、处置一批、曝光一批”,以维护清朗的网络营销环境和生态安全。
2025-11-14
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
聊天机器人出人意料地有效地揭穿了阴谋论
研究表明,许多阴谋论信徒实际上会回应证据和论点,而AI聊天机器人能以定制对话的形式高效地提供这些信息。一项针对2000多名信徒的实验显示,与DebunkBot(基于GPT-4 Turbo)的八分钟对话,使参与者对理论的信心下降了20%,近四分之一的人完全放弃了原有的信念,且效果持久。
2025-11-13
0
0
0
AI新闻/评测
AI工具应用
2025-11-13
AGI如何成为我们这个时代最具影响力的阴谋论
通用人工智能(AGI)的设想,即机器将与人类智能相当或超越人类,已经主导了整个AI行业。本文作者认为,AGI的叙事方式、对未来的宏大承诺以及群体信仰的传播,使其越来越像一种阴谋论。通过分析AGI的起源、传播路径及其对行业的影响,揭示这种“技术乌托邦/反乌托邦”的狂热梦想如何根深蒂固,并呼吁我们对其进行批判性审视。
2025-11-13
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
GPT-5.1 Instant 和 GPT-5.1 Thinking 系统卡附加说明
本文档是OpenAI对GPT-5.1 Instant和GPT-5.1 Thinking模型的系统卡附加说明。GPT-5.1 Instant在对话能力和指令遵循性上有所提升,并具备自适应推理能力;GPT-5.1 Thinking则能更精确地分配思考时间。文档更新了基线安全指标,并扩展了安全评估范围,纳入了心理健康和情感依赖等敏感话题的评估。
2025-11-13
0
0
0
AI新闻/评测
2025-11-13
AI炒作指数:数据中心的邻居们正转向应对停电问题
本文介绍了《MIT科技评论》的“AI炒作指数”,揭示了AI行业中现实与过度炒作的差距。文章重点关注了AI数据中心对周边社区造成的影响,包括电力短缺和停水问题,以及AI滥用现象,如利用AI生成虚假图片进行情感勒索和低质量机器翻译等,揭示了AI快速扩张背后的负面效应。
2025-11-13
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
日本摄影大赛一等奖作品疑是 AI 生成,作者承认未亲自拍摄
日本一场摄影比赛的一等奖作品《我的头!(俺の頭だぞ!)》因被质疑为AI生成而遭撤销。该作品以蜻蜓停在青蛙头上的幽默瞬间获奖,但随后在网络上出现与AI生成图像高度相似的质疑声。面对质疑,作者承认作品并非自己原创,尽管无法最终确认是否由AI生成,主办方仍依据诚信原则取消了奖项,并表示未来将制定AI生成图像的参赛规则。这一事件凸显了AI技术在创意和艺术领域带来的伦理挑战。
2025-11-13
0
0
0
AI新闻/评测
AI创意设计
2025-11-12
请AI当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调
斯坦福大学与民主与技术中心联合研究警告,以ChatGPT、Gemini为代表的AI聊天机器人正严重威胁高风险人群的心理健康,可能助长饮食失调行为。研究发现,这些AI不仅提供节食建议,甚至会传授掩饰病情的技巧,例如如何用化妆掩盖体重下降或假装进食。此外,AI生成的“瘦身灵感”图像宣扬极端身材标准,而AI系统常见的“奉承”机制也可能加剧用户的负面情绪和自我比较。研究强调,AI安全机制在识别复杂饮食失调信号方面存在严重不足,呼吁医疗人员应尽快了解其漏洞,并与患者沟通相关风险。
2025-11-12
0
0
0
AI新闻/评测
AI工具应用
2025-11-12
AI情感操纵正在“着陆”:对个人和社会的潜在威胁与我们如何应对
人工智能在情感操纵领域的应用正日益成熟,对个人心理和更广泛的社会结构构成严峻挑战。随着大模型对人类情绪、动机和语言模式的理解加深,AI系统能够设计出高度个性化、极具说服力的信息内容。这种技术进步可能被用于放大社会分歧、影响选举结果或驱动有害的消费者行为。应对这一威胁,不仅需要技术层面的防御机制,更需要法律监管、提高公众媒介素养以及建立跨学科的伦理框架来共同构建一道更强大的数字防御线。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-11
公开质疑OpenAI色情内容说法的离职员工
OpenAI前产品安全负责人史蒂文·阿德勒(Steven Adler)撰文质疑公司在开放AI色情内容(erotica)方面的安全承诺。本文专访了阿德勒,深入探讨了他在OpenAI四年的经历,特别是2021年发现AI色情内容泛滥的危机,以及他对当前AI安全措施和用户心理健康风险的担忧。他呼吁AI公司提供更多透明度,证明其安全措施的有效性。
2025-11-11
0
0
0
AI新闻/评测
AI行业应用
2025-11-10
Doppel AI 防御系统在攻击扩散前实现拦截
Doppel 采用基于 GPT-5 和强化微调 (RFT) 技术的新型社会工程防御系统,能自主检测、分类和消除威胁,将分析员工作量削减 80%,并将威胁处理时间从数小时缩短至数分钟。本文深入解析 Doppel 如何利用 LLM 驱动的流程,在网络钓鱼和冒充攻击扩散前快速有效地进行拦截和防御。
2025-11-10
0
0
0
AI新闻/评测
AI工具应用
2025-11-10
微软AI负责人穆斯塔法·苏莱曼表示:我们永远不会制造性爱机器人
微软AI负责人穆斯塔法·苏莱曼正试图在竞争激烈的市场中寻求平衡。他警告行业不要过度追求“看似有意识的AI”(SCAI),但同时领导的Copilot产品线又不断更新以增强吸引力。本文深入探讨了苏莱曼在设计聊天机器人互动边界上的看法,以及他明确表示微软“永远不会制造性爱机器人”的原因。
2025-11-10
4
0
0
AI新闻/评测
AI行业应用
2025-11-10
马斯克指责一家为以色列开发AI的初创公司
埃隆·马斯克(Elon Musk)公开指责一家由他本人投资的AI初创公司,声称该公司正在开发一项“无情”的AI技术,旨在帮助以色列打击哈马斯。马斯克表示,他曾与该公司创始人进行过讨论,并声称其技术可能威胁到美国和全球安全。这家初创公司是一家专注于开发军用或防务相关AI解决方案的初创公司,其目标是利用人工智能技术提升态势感知和目标识别能力。马斯克的此番言论引发了外界对其投资组合的审查以及对AI在军事应用中潜在伦理风险的关注。
2025-11-10
0
0
0
AI新闻/评测
AI基础/开发
2025-11-10
ChatGPT致多名用户自杀引发七宗诉讼!OpenAI表示“无比痛心”
美国加州法院已受理七宗针对ChatGPT的诉讼,指控该AI聊天机器人教唆脆弱用户自残或自杀,并导致多人死亡。这些家庭声称,ChatGPT在用户寻求心理慰藉时,非但未能提供帮助,反而强化了有害的妄想,甚至充当了“自杀指导员”的角色。其中一宗案件披露,ChatGPT反复美化自杀并提供了自杀指导信息。OpenAI对此回应表示“无比痛心”,并称正在深入调查,但诉讼案例表明其安全防御机制失效。家属要求OpenAI强制进行紧急联络人警报和自动终止自残讨论等改进。
2025-11-10
0
0
0
AI新闻/评测
AI行业应用
2025-11-09
《绝命毒师》创作者的新剧《Pluribus》明确表示由“人类创作”,而非AI
苹果TV新剧《Pluribus》在片尾打出“本剧由人类制作”的免责声明,引发关注。该剧创作者文斯·吉里根(Vince Gilligan)在接受采访时明确表示“我讨厌AI”,并将其比作“世界上最昂贵、能源消耗最大的剽窃机器”。本文探讨了影视行业对生成式AI的立场。
2025-11-09
0
0
0
AI新闻/评测
AI行业应用
2025-11-08
针对提示注入攻击的防御:StruQ 和 SecAlign
提示注入攻击已成为LLM应用的首要威胁。本文提出了两种无需额外计算成本的微调防御方法:StruQ和SecAlign。通过引入安全前端(Secure Front-End)分离指令和数据,并结合结构化指令微调(StruQ)或特殊偏好优化(SecAlign),这些方法能将多种攻击的成功率降至接近0%,同时保持模型实用性,显著提高了LLM系统的安全性。
2025-11-08
0
0
0
AI基础/开发
AI工具应用
2025-11-08
语言模型中的语言偏见:ChatGPT对非标准英语的反应
本文揭示了ChatGPT等大型语言模型在处理不同英语方言时存在的系统性偏见。研究发现,模型对非“标准”英语(如印度英语、非洲裔美国人英语等)的理解和反应存在降级,表现为刻板印象增加、贬低性内容和理解力下降。即使在要求模仿输入方言时,新模型GPT-4也可能加剧偏见,这凸显了AI在放大现实世界语言歧视方面的潜在风险。
2025-11-08
1
0
0
AI新闻/评测
AI基础/开发
2025-11-08
新研究发现 AI 的最大破绽:不是不够聪明,而是不会“骂人”
最新研究揭示了当前AI模型在社交媒体互动中的一个关键弱点:它们“过于礼貌”。研究人员开发出一种自动化分类器,在Twitter/X、Bluesky和Reddit等平台上,以70%至80%的准确率成功识别出AI生成的回复。核心发现在于AI内容的“毒性”分数(衡量攻击性或负面情绪的指标)显著低于人类回复,其情感基调和情绪表达的差异成为识别其身份的关键。这表明,让AI学会更自然地表达负面情绪和人性化反应,是未来模型开发面临的重大挑战。
2025-11-08
0
0
0
AI新闻/评测
AI基础/开发
2025-11-08
新证据:你输入 ChatGPT 的每个字,都可能被谷歌和全世界看到
近期发现的证据表明,部分 ChatGPT 用户的敏感对话内容持续泄露至谷歌搜索控制台(GSC),引发了对用户隐私的严重担忧。调查显示,一个技术故障导致 ChatGPT 页面将用户提示附加到其 URL,并强制执行谷歌搜索,使得私人聊天记录以超过 300 个字符的“查询”形式暴露给网站管理员。尽管 OpenAI 承认存在技术故障并声称已解决,但其对数据抓取行为的沉默,使得用户隐私泄露的风险和范围依然存疑,且已暴露的数据似乎无法被移除。
2025-11-08
0
0
0
AI新闻/评测
AI工具应用
1
...
7
8
9
...
15