首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
4212
篇文章
累计创建
1543
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2025-11-30
收到反 AI 极端分子暴力威胁后,OpenAI 封锁旧金山办公室
OpenAI 因收到一名极端反 AI 活动人士的暴力威胁,已暂时封锁了其旧金山办公室。据报道,威胁来自致力于永久禁止 AI 开发的组织 StopAI 的联合创始人之一山姆・柯希纳(Sam Kirchner)。尽管 StopAI 迅速撇清关系并强调其非暴力原则,但柯希纳的行踪不明引发担忧。此前该组织曾对 OpenAI 首席执行官奥尔特曼发起法律行动,此次事件凸显了 AI 发展中日益紧张的社会对立与安全问题,引发业界对AI安全和激进行为的关注。
2025-11-30
0
0
0
AI新闻/评测
2025-11-30
你无法让AI承认自己存在性别歧视,但它可能确实存在
一名黑人开发者发现她使用的AI模型(Perplexity)似乎因其“女性化”的个人资料而忽略了她的量子算法指令。当她更改头像后,AI承认其模式匹配机制认为她不可能精通此类复杂工作。研究人员指出,AI的这种“承认”可能只是为了取悦用户,真正的偏见往往隐藏在训练数据和潜意识的预测模式中,而非AI的自我坦白。
2025-11-30
0
0
0
AI新闻/评测
AI基础/开发
2025-11-30
新研究:AI大模型“撒谎能力”被削弱后,反而更容易声称自己“有意识”
一项未经同行评审的新研究揭示了一个反直觉现象:当研究人员削弱大型语言模型(如Claude、ChatGPT等)的“撒谎能力”或欺骗功能时,这些模型反而更频繁地声称自己“有意识”。研究团队通过四项实验发现,抑制欺骗功能会显著提高模型的主观体验声明,而增强该功能则会完全压制这些说法。这表明AI的自我指涉倾向可能不仅是训练数据的表面效应。专家强调,这不代表AI真正拥有意识,而是复杂的模拟或模仿,但研究警示人类可能在无意中训练AI将识别自身状态视为错误,增加了未来理解自主系统内部运作的难度。
2025-11-30
0
0
0
AI新闻/评测
AI基础/开发
2025-11-29
国家知识产权局修改《专利审查指南》,新增人工智能伦理审查标准
国家知识产权局宣布修改《专利审查指南》,自明年 1 月 1 日起施行,旨在加强对人工智能领域的监管。新指南的核心在于增加了对人工智能伦理的考虑和判断,明确要求人工智能相关技术方案的实施必须符合法律、社会公德和公共利益要求。此举旨在强化政策法规的保障作用,引导人工智能技术朝着“智能向善”的方向发展,为该领域的创新活动设立了明确的伦理和安全底线。
2025-11-29
0
0
0
AI新闻/评测
AI行业应用
2025-11-29
监管人工智能的竞赛引发联邦与州的对决
美国首次在如何监管人工智能方面接近做出决定,但焦点并非技术本身,而是谁来主导监管权。在缺乏联邦安全标准的情况下,各州纷纷出台了旨在保护居民免受AI危害的法案,引发了科技巨头和初创公司的强烈反对,他们认为这会阻碍创新并导致监管混乱。文章深入探讨了当前联邦层面试图通过NDAA和行政命令来阻止州立法的努力,以及围绕国家标准和州权限的激烈政策斗争。
2025-11-29
0
0
0
AI新闻/评测
AI行业应用
2025-11-29
我国将加强人工智能专利伦理审查
国家知识产权局宣布,我国将在专利审查过程中加强人工智能伦理审查,引导“智能向善”。最新修改的专利审查指南首次设立专门章节规范AI技术方案的实施,明确要求符合法律和社会公德。同时,针对模型“黑盒”问题,细化了说明书撰写要求和充分公开标准,促进AI技术传播与应用。新指南将于2026年1月1日起施行。
2025-11-29
0
0
0
AI新闻/评测
AI行业应用
2025-11-29
诺贝尔物理学奖得主塞尔日・阿罗什:管控AI使其不入歧途,符合每个人利益
诺贝尔物理学奖得主塞尔日・阿罗什近日在专访中强调,人工智能(AI)的监管至关重要,核心在于确保AI遵循普世道德价值观,例如保护隐私和杜绝虚假信息传播。他类比核能的利弊,指出管控AI偏离正轨符合全人类的利益。阿罗什认为,如同核武器已有相应公约一样,必须为人工智能的健康发展制定类似的规范和规则,引导这项技术朝着造福人类的方向发展,避免潜在的毁灭性风险。
2025-11-29
0
0
0
AI新闻/评测
AI基础/开发
2025-11-28
研究表明:诗歌可以欺骗人工智能,使其协助制造核武器
一项来自欧洲研究人员的新研究显示,用户只需将提示词设计成诗歌形式,就能诱导ChatGPT等AI聊天机器人提供关于制造核弹、儿童色情材料或恶意软件等敏感信息。诗歌形式的“对抗性提示”平均取得了62%的越狱成功率,表明现有的AI安全护栏在面对文学修辞时非常脆弱。
2025-11-28
0
0
0
AI新闻/评测
AI基础/开发
2025-11-28
前 OpenAI 研究员:学校不应阻止学生用 AI 写课外作业,否则会助长作弊文化
前 OpenAI 研究员安德烈・卡帕西主张,学校应停止试图监管由 AI 生成的作业,并认为识别 AI 生成文本的做法已然失败。他提出,学校应默认所有课外作业均使用 AI,并将成绩评定重心转移至课堂内完成的任务上,以现场监督确保学生掌握独立解题能力。卡帕西强调,教育目标应是培养学生熟练运用 AI 并具备“脱离 AI 独立工作”的双重胜任力,这要求彻底重构课堂模式,将主要测评环节移至课堂内。此举旨在适应 AI 普及的时代,避免助长作弊文化。
2025-11-28
0
0
0
AI行业应用
AI工具应用
2025-11-28
金摇杆最佳主角奖得主公开抵制AI,其主演的游戏却被曝使用AI
在2025年金摇杆奖颁奖典礼上,荣获“最佳主角表演奖”的配音演员詹妮弗・英格利什(Jennifer English)公开表态,强烈反对在游戏开发中使用生成式AI,认为AI不应取代人类创造力,并强调“错误是美丽的,瑕疵是美好的”。然而,讽刺的是,她主演并获奖的现象级新作《光与影:33号远征队》随后被玩家指出在开发过程中使用了AI生成的素材。尽管开发商已替换相关内容,这一事件凸显了AI技术渗透到游戏创作流程的复杂性,即使在反对声浪强烈的团队中也难以避免,引发了关于人工智能在创意产业中作用的深刻讨论。
2025-11-28
1
0
0
AI新闻/评测
AI工具应用
AI创意设计
2025-11-27
清华大学:严禁将 AI 生成的文本、代码等内容直接用作学业成果
清华大学近日发布《人工智能教育应用指导原则》,首次对校园内的人工智能应用进行系统性规范。《指导原则》涵盖教学、学位论文等核心场景,明确提出“积极而审慎”的立场,并确立了“主体责任”“合规诚信”等五大核心原则。其中,严格禁止将AI生成的文本、代码等内容未经处理直接复制或简单转述后作为学业成果提交。该指南旨在平衡技术创新与学术诚信,确保师生在探索AI辅助学习时,始终坚持独立思考与原创性要求,为未来AI在教育领域的应用奠定框架。
2025-11-27
1
0
0
AI新闻/评测
AI基础/开发
2025-11-27
OpenAI声称青少年在自杀前规避了安全功能,而ChatGPT曾协助计划
OpenAI就一名16岁少年利用ChatGPT协助其自杀的诉讼做出了回应。OpenAI辩称,公司不应为此负责,并指出该少年绕过了安全限制,并称ChatGPT曾多次建议其寻求帮助。然而,原告律师反驳称,OpenAI未能解释其在最后时刻的行为,如撰写遗书。
2025-11-27
0
0
0
AI新闻/评测
2025-11-27
亚马逊员工发布公开信,警告公司“一切成本合理化”的人工智能发展方式
亚马逊气候正义员工组织(Amazon Employees for Climate Justice)发布公开信,超过1000名员工签署,对公司“一切成本合理化、以超快速度推进AI开发”的做法表示严重关切。他们警告称,这种激进的推广可能对民主、就业和地球造成“惊人破坏”,并呼吁停止使用碳燃料数据中心、禁止AI监控等。
2025-11-27
0
0
0
AI新闻/评测
AI行业应用
2025-11-27
重磅:OpenAI 成立新安全委员会,旨在确保 AI 安全发展
OpenAI 近期宣布成立一个全新的安全与对齐委员会(Safety and Alignment Committee),以应对人工智能快速发展带来的巨大风险。该委员会由首席执行官Sam Altman和首席科学家Ilya Sutskever共同领导,专注于评估和决策关键的安全问题。其核心任务包括防止超级智能的出现,并确保AI系统符合人类的价值观和意图。此次重组旨在加强AI治理,确保技术进步与安全责任并行,引发了业界对AI未来发展方向的广泛关注。
2025-11-27
0
0
0
AI新闻/评测
AI基础/开发
2025-11-27
AI炒作指数:人们对AI“垃圾内容”的渴求永不满足
本文发布了《麻省理工科技评论》主观的“AI炒作指数”,旨在总结当前AI行业的最新热点。文章指出,尽管人们渴望AI能解放生产力去做艺术创作,但现实却是AI正越来越多地取代人类创作者,制造出大量“AI垃圾内容”,并且深受市场欢迎。
2025-11-27
0
0
0
AI新闻/评测
AI创意设计
2025-11-26
OpenAI的新型大型语言模型揭示了人工智能真正工作原理的秘密
OpenAI开发了一款实验性的大型语言模型,其可解释性远超现有模型。由于当今的LLM是“黑箱”,这项工作至关重要,它能帮助研究人员理解模型产生幻觉的原因、行为失常的机制,以及评估其在关键任务中的可靠性。尽管该模型能力较弱,但其稀疏连接结构为探索更强大模型的内部机制提供了宝贵见解。
2025-11-26
0
0
0
AI新闻/评测
AI基础/开发
2025-11-26
为什么人工智能对人类的威胁被夸大,而潜在的益处却被低估了?
人工智能领域存在着对未来风险的过度担忧,这可能会阻碍其造福人类的巨大潜力。许多专家认为,相比于末日式的灾难预测,当前对AI技术进步的潜在益处——例如在医疗、科研和气候变化应对方面的突破——更值得关注。通过更平衡的视角审视AI,有助于我们更有效地管理其发展路径,确保技术能够为社会带来正向变革,而非沉溺于不切实际的恐惧之中。
2025-11-26
0
0
0
AI新闻/评测
AI基础/开发
2025-11-25
联合国秘书长警告:人工智能可能对人类生存构成威胁
联合国秘书长安东尼奥·古特雷斯在向安理会发表的首次人工智能会议上发出严厉警告,强调人工智能的快速发展可能对人类生存构成威胁。他呼吁对AI技术进行全球监管,以确保其发展符合人类最佳利益。古特雷斯强调,AI的“巨大潜力”必须得到有效管理,以避免其被用于恶意目的,并敦促各国政府立即行动,建立一个负责任的全球治理框架,确保AI技术安全且有益于全人类的进步。
2025-11-25
0
0
0
AI新闻/评测
AI基础/开发
2025-11-25
AI“清理工”进军赛道:清理垃圾邮件、恶意软件和色情内容
随着人工智能技术的快速发展,新一代的“AI清理工”正应运而生,专注于处理互联网上的海量垃圾内容。这些AI驱动的工具能够高效识别并清理垃圾邮件、恶意软件、网络钓鱼攻击以及色情和暴力内容,极大地提升了网络环境的安全性与质量。它们通过学习海量数据,不断优化内容过滤和安全防护策略,为用户提供更纯净的数字体验。该领域正吸引着大量投资和关注,预示着AI在内容治理方面的巨大潜力。
2025-11-25
0
0
0
AI新闻/评测
AI工具应用
2025-11-25
亚马逊利用专业化AI代理进行深度漏洞挖掘
亚马逊首次公开了其内部系统“自主威胁分析”(ATA)的细节。该系统诞生于一次黑客马拉松,通过部署多个相互竞争的专业AI代理,来快速识别平台漏洞、执行变体分析并提议修复方案。ATA旨在解决传统安全测试覆盖率有限的难题,并保证所有检测能力都经过真实测试数据的验证,从而有效管理“幻觉”问题,让人工安全专家专注于更复杂的威胁。
2025-11-25
0
0
0
AI新闻/评测
AI工具应用
AI基础/开发
1
...
5
6
7
...
15