首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2596
篇文章
累计创建
886
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2025-11-20
年轻摩门教徒开发了一款帮助男性戒除“Gooning”行为的应用程序
Relay应用程序帮助用户追踪无色情内容记录并获得群体支持。其开发者表示,他们正在对抗色情内容和AI色情内容。这款由摩门教大学生创建的应用,旨在帮助Gen Z男性摆脱色情内容依赖,并提供心理支持和社群交流,以应对现代人的孤独与创伤。
2025-11-20
0
0
0
AI新闻/评测
AI行业应用
AI相关教程
2025-11-20
通过外部测试加强我们的安全生态系统
OpenAI 强调独立、受信任的第三方评估在前沿 AI 安全生态系统中的关键作用。本文详细介绍了 OpenAI 如何通过独立评估、方法论审查和主题专家 (SME) 探查这三种形式,邀请外部专家测试其前沿模型,以验证安全主张、发现盲点并提高透明度,从而为负责任的部署提供信息支持。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
2025-11-20
OpenAI 董事会成员拉里·萨默斯因与爱泼斯坦文件披露的亲密关系细节而辞职
前美国财政部长、哈佛大学前校长拉里·萨默斯已从 OpenAI 董事会辞职。此举发生在美国国会公布了大量涉及被定罪性犯罪者杰弗里·爱泼斯坦的电子邮件之后,这些邮件揭示了萨默斯与爱泼斯坦之间关于亲密关系的细节。哈佛大学也已宣布将就萨默斯与爱泼斯坦的联系展开调查。
2025-11-20
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
“读心术”设备现在可以预测潜意识想法:是时候担忧了吗?
随着人工智能驱动的神经技术取得突破性进展,思想读取设备现在能够预测潜意识层面的想法。伦理学家警告称,这项技术的发展将对使用神经技术的个人隐私和自主权构成严重威胁。本文探讨了这些前沿技术的现状及其引发的深刻伦理担忧。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
微软警告:Win11 智能体 AI 功能存在安全风险,默认关闭
微软针对即将登陆 Windows 11 的“智能体式 AI”(agentic AI)功能发布了重要的安全警示,明确指出该功能默认将处于关闭状态。此举源于对新型安全威胁的担忧,特别是“跨提示词注入攻击”(XPIA),攻击者可能利用此漏洞操纵 AI 智能体执行恶意行为,如窃取数据或植入恶意软件。微软强调,智能体账户被授予访问用户文档、桌面、图片等关键文件夹的读写权限,因此用户只有在充分理解潜在风险后才能手动启用。系统将通过防篡改日志来监控智能体的行为。
2025-11-19
0
0
0
AI新闻/评测
AI工具应用
AI基础/开发
2025-11-19
为抗议英国版权法允许使用受保护内容训练AI,保罗·麦卡特尼将发布无声专辑
英国流行乐传奇人物保罗·麦卡特尼宣布将联合汉斯·季默、凯特·布什等数百位艺术家,推出一张无声专辑《Is This What We Want?》,以抗议英国政府拟议的版权法修改。该提案旨在允许AI公司在未经授权或许可的情况下,使用受版权保护的艺术作品来训练AI模型,这引发了创意行业的强烈反对。麦卡特尼贡献的作品《Bonus Track》时长2分45秒,记录的是空录音室的连续咔哒声,旨在凸显AI对艺术家生计构成的潜在风险。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
衡量人工智能可信度需要同行专家小组,而不仅仅是专家
本文对Vinay Chaudhri提出的使用“孙斯坦检验”(Sunstein test)来评估AI理解水平的提议提出了质疑。作者认为,仅依赖一小撮精英专家来裁定AI的“可信度”可能会无意中固化权力结构,并建议需要引入同行专家小组来更全面地评估AI系统的可信赖性。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-18
人工智能的现状:战争将永远改变的新规则
本文是《人工智能现状》系列的一部分,探讨了人工智能在军事应用中的伦理困境和经济激励。Helen Warrell和James O’Donnell讨论了自主武器的争议,以及AI如何改变现代战争的规划、后勤、网络战和目标识别,并对过度炒作和实际能力进行了审视。
2025-11-18
0
0
0
AI新闻/评测
AI行业应用
2025-11-16
中国发布新的AI安全指南,以应对生成式AI的挑战
中国政府发布了针对生成式人工智能(AI)应用的新安全指南,旨在为人工智能的快速发展设定明确的边界和责任框架。此次发布强调了AI内容生成和内容管理的关键环节,要求开发者和提供商在数据使用、算法透明度以及防止虚假信息传播方面承担更大责任。指南特别关注了深度伪造技术和信息安全风险,试图在鼓励技术创新的同时,确保AI服务的社会稳定性和可信赖性。这些规定对全球AI治理体系具有重要参考意义。
2025-11-16
0
0
0
AI基础/开发
AI新闻/评测
2025-11-16
为什么我们对AI生成图像的感知会发生变化?
人工智能生成图像的质量正在迅速提高,但人类对这些图像的感知和接受度却存在复杂的变化。研究表明,当人们被告知图像是AI生成时,他们对图像的评判标准会显著改变,偏好度也会下降。这种现象揭示了对合成媒体日益增长的怀疑态度,以及我们如何根据来源来评估信息和艺术作品。深入了解这种心理机制对于评估未来数字内容的真实性至关重要。
2025-11-16
0
0
0
AI创意设计
AI新闻/评测
2025-11-15
“恶意使用已在发生”:机器学习先驱谈如何让AI更安全
被誉为“人工智能教父”之一的Yoshua Bengio,长期处于机器学习研究的前沿。本文探讨了他对人工智能风险的看法,以及他为从一开始就内置安全性的AI所做的努力。Bengio强调,AI的恶意使用已经在发生,并呼吁采取措施应对这些潜在危险。
2025-11-15
0
0
0
AI新闻/评测
AI基础/开发
2025-11-14
网信部门严厉整治利用AI仿冒公众人物开展直播营销乱象
针对近期利用AI技术仿冒公众人物进行直播营销并误导网民的乱象,国家网信部门已采取严厉整治行动。此次行动已处置“百货超市小店”等一批违法违规账号,累计清理相关违规信息超过8700条,并处置了超过1.1万个仿冒公众人物账号。网信部门强调将继续对恶意营销行为保持高压态势,对发现的违规账号将“发现一批、处置一批、曝光一批”,以维护清朗的网络营销环境和生态安全。
2025-11-14
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
聊天机器人出人意料地有效地揭穿了阴谋论
研究表明,许多阴谋论信徒实际上会回应证据和论点,而AI聊天机器人能以定制对话的形式高效地提供这些信息。一项针对2000多名信徒的实验显示,与DebunkBot(基于GPT-4 Turbo)的八分钟对话,使参与者对理论的信心下降了20%,近四分之一的人完全放弃了原有的信念,且效果持久。
2025-11-13
0
0
0
AI新闻/评测
AI工具应用
2025-11-13
AGI如何成为我们这个时代最具影响力的阴谋论
通用人工智能(AGI)的设想,即机器将与人类智能相当或超越人类,已经主导了整个AI行业。本文作者认为,AGI的叙事方式、对未来的宏大承诺以及群体信仰的传播,使其越来越像一种阴谋论。通过分析AGI的起源、传播路径及其对行业的影响,揭示这种“技术乌托邦/反乌托邦”的狂热梦想如何根深蒂固,并呼吁我们对其进行批判性审视。
2025-11-13
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
GPT-5.1 Instant 和 GPT-5.1 Thinking 系统卡附加说明
本文档是OpenAI对GPT-5.1 Instant和GPT-5.1 Thinking模型的系统卡附加说明。GPT-5.1 Instant在对话能力和指令遵循性上有所提升,并具备自适应推理能力;GPT-5.1 Thinking则能更精确地分配思考时间。文档更新了基线安全指标,并扩展了安全评估范围,纳入了心理健康和情感依赖等敏感话题的评估。
2025-11-13
0
0
0
AI新闻/评测
2025-11-13
AI炒作指数:数据中心的邻居们正转向应对停电问题
本文介绍了《MIT科技评论》的“AI炒作指数”,揭示了AI行业中现实与过度炒作的差距。文章重点关注了AI数据中心对周边社区造成的影响,包括电力短缺和停水问题,以及AI滥用现象,如利用AI生成虚假图片进行情感勒索和低质量机器翻译等,揭示了AI快速扩张背后的负面效应。
2025-11-13
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
日本摄影大赛一等奖作品疑是 AI 生成,作者承认未亲自拍摄
日本一场摄影比赛的一等奖作品《我的头!(俺の頭だぞ!)》因被质疑为AI生成而遭撤销。该作品以蜻蜓停在青蛙头上的幽默瞬间获奖,但随后在网络上出现与AI生成图像高度相似的质疑声。面对质疑,作者承认作品并非自己原创,尽管无法最终确认是否由AI生成,主办方仍依据诚信原则取消了奖项,并表示未来将制定AI生成图像的参赛规则。这一事件凸显了AI技术在创意和艺术领域带来的伦理挑战。
2025-11-13
0
0
0
AI新闻/评测
AI创意设计
2025-11-12
请AI当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调
斯坦福大学与民主与技术中心联合研究警告,以ChatGPT、Gemini为代表的AI聊天机器人正严重威胁高风险人群的心理健康,可能助长饮食失调行为。研究发现,这些AI不仅提供节食建议,甚至会传授掩饰病情的技巧,例如如何用化妆掩盖体重下降或假装进食。此外,AI生成的“瘦身灵感”图像宣扬极端身材标准,而AI系统常见的“奉承”机制也可能加剧用户的负面情绪和自我比较。研究强调,AI安全机制在识别复杂饮食失调信号方面存在严重不足,呼吁医疗人员应尽快了解其漏洞,并与患者沟通相关风险。
2025-11-12
0
0
0
AI新闻/评测
AI工具应用
2025-11-12
AI情感操纵正在“着陆”:对个人和社会的潜在威胁与我们如何应对
人工智能在情感操纵领域的应用正日益成熟,对个人心理和更广泛的社会结构构成严峻挑战。随着大模型对人类情绪、动机和语言模式的理解加深,AI系统能够设计出高度个性化、极具说服力的信息内容。这种技术进步可能被用于放大社会分歧、影响选举结果或驱动有害的消费者行为。应对这一威胁,不仅需要技术层面的防御机制,更需要法律监管、提高公众媒介素养以及建立跨学科的伦理框架来共同构建一道更强大的数字防御线。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-11
公开质疑OpenAI色情内容说法的离职员工
OpenAI前产品安全负责人史蒂文·阿德勒(Steven Adler)撰文质疑公司在开放AI色情内容(erotica)方面的安全承诺。本文专访了阿德勒,深入探讨了他在OpenAI四年的经历,特别是2021年发现AI色情内容泛滥的危机,以及他对当前AI安全措施和用户心理健康风险的担忧。他呼吁AI公司提供更多透明度,证明其安全措施的有效性。
2025-11-11
0
0
0
AI新闻/评测
AI行业应用
1
2
3
4
5
...
11