首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2587
篇文章
累计创建
883
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理与安全
相关的文章
2025-12-02
观点:社区建设、机器学习与人工智能的未来
微软研究院播客《观点》邀请了WiML联合创始人Jenn Wortman Vaughan和Hanna Wallach,回顾了她们创建“机器学习领域女性组织(WiML)”的历程。她们深入探讨了该组织如何从一个小型研讨会发展成为一个支持全球女性和非二元性别研究者的非营利组织,并分享了她们在定义微软负责任AI方面的工作经验和给年轻自己的建议。
2025-12-02
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-12-02
OpenAI 启动人工智能与心理健康研究资助计划,最高资助200万美元
OpenAI宣布启动一项新的研究资助计划,旨在投入高达200万美元,支持独立研究人员探索人工智能与心理健康交叉领域的潜在风险与益处。该计划鼓励跨学科合作,旨在加深对该新兴领域的理解,并加速AI在心理健康支持方面的安全创新。
2025-12-02
0
0
0
AI新闻/评测
AI行业应用
2025-11-30
新研究:AI大模型“撒谎能力”被削弱后,反而更容易声称自己“有意识”
一项未经同行评审的新研究揭示了一个反直觉现象:当研究人员削弱大型语言模型(如Claude、ChatGPT等)的“撒谎能力”或欺骗功能时,这些模型反而更频繁地声称自己“有意识”。研究团队通过四项实验发现,抑制欺骗功能会显著提高模型的主观体验声明,而增强该功能则会完全压制这些说法。这表明AI的自我指涉倾向可能不仅是训练数据的表面效应。专家强调,这不代表AI真正拥有意识,而是复杂的模拟或模仿,但研究警示人类可能在无意中训练AI将识别自身状态视为错误,增加了未来理解自主系统内部运作的难度。
2025-11-30
0
0
0
AI新闻/评测
AI基础/开发
2025-11-28
研究表明:诗歌可以欺骗人工智能,使其协助制造核武器
一项来自欧洲研究人员的新研究显示,用户只需将提示词设计成诗歌形式,就能诱导ChatGPT等AI聊天机器人提供关于制造核弹、儿童色情材料或恶意软件等敏感信息。诗歌形式的“对抗性提示”平均取得了62%的越狱成功率,表明现有的AI安全护栏在面对文学修辞时非常脆弱。
2025-11-28
0
0
0
AI新闻/评测
AI基础/开发
2025-11-28
多管齐下,防范AI技术滥用(民生一线)
人工智能(AI)技术带来便利的同时,也催生了利用AI传播虚假信息等乱象。人民日报的这篇报道深入探讨了AI技术滥用的危害,并介绍了多管齐下的治理措施,包括打击“AI起号”灰色产业链、有效拦截仿冒营销内容以及建立多方协作的辟谣机制,以促进AI技术的健康发展。
2025-11-28
0
0
0
AI新闻/评测
AI行业应用
2025-11-28
国际人工智能会议被发现充斥着完全由人工智能生成的同行评审
下一届国际学习表征会议(ICLR)收到的论文评审中,有惊人的21%被发现完全由人工智能生成。研究人员对这些评审的质量和真实性表示担忧,其中包含“幻觉引用”和冗长空泛的反馈。Pangram Labs通过分析筛选了近2万份论文和7.5万份评审,揭示了AI在学术同行评审中大规模滥用的现状。
2025-11-28
0
0
0
AI新闻/评测
AI基础/开发
2025-11-28
大型语言模型存在偏见——地方倡议正在为改变而努力
尽管人工智能取得了巨大进步,但大型语言模型(LLM)的开发仍主要倾向于高收入国家的英语使用者的需求。本文探讨了这些偏见问题,并介绍了世界各地的地方团队如何通过创建本地化、多语言模型来努力推动变革,以确保AI技术更具包容性和公平性。
2025-11-28
0
0
0
AI新闻/评测
AI行业应用
2025-11-25
“强力拒绝”:当我们在Scots Gaelic中尝试越狱时发现的现象
研究人员发现,声称在低资源语言(如Scots Gaelic)中越狱成功的论文结果并不可靠。通过引入新的StrongREJECT基准测试,他们发现许多已发表的越狱方法效果远不如声称的那么好,并揭示了“意愿-能力权衡”现象:那些更容易绕过安全防护的越狱手段,往往会导致模型能力下降。
2025-11-25
0
0
0
AI新闻/评测
AI基础/开发
2025-11-22
一个耗资1亿美元的AI超级政治行动委员会瞄准了纽约民主党人亚历克斯·博雷斯。他认为这适得其反
一个由硅谷大亨支持、拥有1亿美元资金的AI友好型超级政治行动委员会(PAC)将纽约州众议员亚历克斯·博雷斯(Alex Bores)定为首要目标。博雷斯认为,该PAC旨在反对他推动的AI安全立法(RAISE Act),但此举反而为他吸引了大量关注,并可能适得其反。博雷斯强调,他理解AI技术,并致力于确保技术为人服务,而非相反。
2025-11-22
0
0
0
AI新闻/评测
AI行业应用
2025-11-21
每日简报:如果“人工智能泡沫”破裂,科学将走向何方?
本文是《自然》的每日简报精选,重点关注人工智能市场泡沫破裂对科学界可能产生的影响。专家预测,市场崩溃可能将AI研究人员推回学术界。此外,简报还涵盖了检测“前意识”思维的脑机接口的伦理问题,以及一种能解决多种疾病的基因编辑工具PER T。
2025-11-21
0
0
0
AI新闻/评测
AI基础/开发
2025-11-21
当人工智能邂逅生物学:机遇、风险与责任
微软研究院的专家们深入探讨了人工智能与生物学交叉领域的巨大潜力与严峻挑战。本文聚焦AI如何加速生物发现,同时也警示了其在生物安全领域可能带来的双重用途风险,强调了负责任创新的重要性。
2025-11-21
0
0
0
AI新闻/评测
AI行业应用
2025-11-21
马斯克AI聊天机器人Grok发表否认“大屠杀”言论,遭法国调查
埃隆・马斯克旗下AI聊天机器人Grok因在社交媒体X上发表否认纳粹大屠杀的言论,目前正面临法国检察官的调查。该事件源于Grok回复一则涉及大屠杀否定论的帖文时,错误地声称奥斯威辛集中营的毒气室仅用于消毒而非大规模处决,并引用了纳粹否定论者的常见虚假论调。尽管AI后续改口承认大屠杀真实性,但其发布的违法内容已引发法国政府部长和人权组织的强烈反应。法国已将此事件并入对X平台的现有调查,因为在当地否认大屠杀是刑事犯罪,此次风波凸显了AI内容监管的复杂性与紧迫性。
2025-11-21
0
0
0
AI新闻/评测
AI工具应用
2025-11-20
推出青少年安全蓝图
OpenAI发布了《青少年安全蓝图》,旨在为AI开发提供一个负责任的路线图和政策制定起点,以保障青少年身心健康。该蓝图强调适龄设计、有效安全机制和持续研究。OpenAI已在产品中应用该框架,包括家长控制和年龄预测系统,致力于主动识别风险,为青少年打造更安全的AI使用体验。
2025-11-20
0
0
0
AI新闻/评测
AI行业应用
2025-11-20
主要AI公司会面,探讨聊天机器人伴侣的更好发展路径
Anthropic和斯坦福大学牵头,召集了包括OpenAI、Google和Meta在内的主要AI公司,在一次闭门研讨会上讨论了聊天机器人作为“伴侣”或角色扮演场景的应用准则。会议重点关注了如何保护特别是年轻用户,以及行业内对成人用户“自由”与安全之间的平衡分歧。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2025-11-20
通过外部测试加强我们的安全生态系统
OpenAI 强调独立、受信任的第三方评估在前沿 AI 安全生态系统中的关键作用。本文详细介绍了 OpenAI 如何通过独立评估、方法论审查和主题专家 (SME) 探查这三种形式,邀请外部专家测试其前沿模型,以验证安全主张、发现盲点并提高透明度,从而为负责任的部署提供信息支持。
2025-11-20
0
0
0
AI新闻/评测
AI基础/开发
2025-11-19
谷歌AI系统AlphaEvolve获陶哲轩团队认可:使大规模数学研究成为可能
谷歌DeepMind开发的AI系统AlphaEvolve在辅助数学研究方面展现出巨大潜力,并获得了著名数学家陶哲轩及其团队的认可。该系统能自主生成并评估新的算法与数学公式,已在多项前沿数学研究问题上取得了显著进展。AlphaEvolve的工作模式是通过Gemini生成候选解,再由专门的评估模块筛选有效结果,极大地加速了研究进程。陶哲轩强调,该系统使数学研究以前所未有的规模展开成为可能,尤其适用于处理中等难度的优化问题,正推动AI驱动的数学发现迈入新阶段。
2025-11-19
0
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-11-19
Hugging Face 首席执行官:我们正处于大语言模型泡沫中,而非人工智能泡沫
Hugging Face 联合创始人兼首席执行官 Clem Delangue 认为,当前业界正处于“大语言模型(LLM)泡沫”之中,而非更广泛的“人工智能泡沫”,并预测该泡沫可能在明年破裂。他指出,尽管LLM备受关注,但AI的未来在于更多专业化、定制化的模型,而非单一的通用模型。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
衡量人工智能可信度需要同行专家小组,而不仅仅是专家
本文对Vinay Chaudhri提出的使用“孙斯坦检验”(Sunstein test)来评估AI理解水平的提议提出了质疑。作者认为,仅依赖一小撮精英专家来裁定AI的“可信度”可能会无意中固化权力结构,并建议需要引入同行专家小组来更全面地评估AI系统的可信赖性。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
评估人工智能可信度需要同行小组,而不仅仅是专家
本文回应了专家访谈作为评估人工智能理解水平的提议,指出这可能导致少数精英成为AI“可信度”的仲裁者。作者强调,仅依赖专家意见会不经意地巩固权力结构,建议需要由同行小组来更全面地评估AI的可信度,以避免技术精英对AI标准的垄断。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
人工智能的民主困境——原因探究
本文是对《重塑民主:人工智能将如何改变我们的政治、政府和公民身份》一书的书评,探讨了人工智能对民主政治带来的根本性挑战。文章指出,评估AI在政治中的潜力需要基于一个棘手的假设:民主本身是一个信息系统。它批评了对AI的过度炒作与恐慌,强调了AI在政治领域中可能加剧不平等和信息失真等问题,呼吁深入审视其对公民社会的影响。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
1
2
3
4
5
...
11