首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5594
篇文章
累计创建
1970
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
伦理
相关的文章
2026-02-20
银河通用机器人亮相2026总台春晚:与沈腾、马丽同框,大秀“叠衣服”、“抓东西”
银河通用具身智能机器人Galbot在2026年中央广播电视总台春节联欢晚会上的微电影节目中惊艳亮相,与沈腾、马丽同台表演。这款人形机器人展示了语音互动、叠衣服、捡拾垃圾和抓取商品等多种实用技能,标志着具身智能在公众舞台上的重要突破。银河通用公司通过首创的合成仿真数据训练技术管线,构建了百亿级机器人数据集,并在GraspVLA、GroceryVLA等模型上实现了机器人“自主干活”的能力。此次亮相后,该公司近期完成3亿美元融资,估值突破30亿美元,彰显了其在人形机器人领域的强劲发展势头。
2026-02-20
0
0
0
AI行业应用
AI新闻/评测
2026-02-19
2亿美元合作告急:消息称Anthropic与美国军方AI使用分歧激化
人工智能安全初创公司Anthropic与美国国防部之间价值2亿美元的合作项目面临瓦解风险,核心矛盾在于对AI模型使用权限的分歧。美国军方要求Anthropic允许其AI模型(如Claude)用于“所有合法用途”,包括敏感领域,而Anthropic则坚持划定红线,明确禁止将Claude用于大规模监控民众或研发完全自主武器。这一僵局因Claude模型被用于一次实战抓捕行动而爆发,凸显了双方在AI伦理与军事应用上的深刻文化冲突。尽管存在摩擦,军方仍承认Claude在涉密应用中的优势,双方目前仍在...
2026-02-19
0
0
0
AI新闻/评测
AI行业应用
2026-02-18
“生存风险”——科学家为何竞相定义意识
随着人工智能和神经技术的飞速发展,科学家警告称,我们对意识的理解远远落后,可能导致我们无法应对的严重伦理风险。这项新研究强调,开发科学测试来检测意识将深刻影响医学、动物福利、法律和AI发展,同时也迫使社会重新思考责任、权利和道德界限。
2026-02-18
2
0
0
AI新闻/评测
AI工具应用
AI行业应用
2026-02-02
“生存风险”——科学家们为何竞相定义意识
随着人工智能和神经技术的飞速发展,科学家们警告称,人类对意识的理解远远落后,这可能导致严重的伦理风险。新研究呼吁开发意识科学测试,以期变革医学、动物福利、法律和AI发展。然而,在机器或类脑系统中识别意识,也将迫使社会重新思考责任、权利和道德界限。意识的定义问题从未如此紧迫或令人不安。
2026-02-02
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
2026-01-27
人工智能在英国被用于评估对儿童的伤害风险
英国地方政府正在探索使用人工智能(AI)工具来分析大量数据,以帮助社会工作者评估儿童面临的伤害风险。这种技术旨在通过整合多源信息,如健康记录、学校出勤率和警方报告,提供更快速、更全面的风险洞察。虽然AI被寄予厚望能提高决策效率并挽救生命,但其准确性、潜在的偏见问题以及对人工判断的依赖性,引发了关于在敏感儿童保护领域应用技术伦理和实践的深刻讨论。
2026-01-27
1
0
0
AI行业应用
AI新闻/评测
2026-01-27
“去衣化”深度伪造技术正变得愈发阴暗和危险
以色情为目的的“去衣化”深度伪造技术(Deepfake Nudify)正变得越来越成熟、易于获取且更具危害性。本文揭示了这一地下生态系统的复杂性、盈利能力以及对数百万女性造成的严重伤害,并探讨了当前的应对措施和挑战。
2026-01-27
1
0
0
AI新闻/评测
AI行业应用
2026-01-22
Anthropic发布新版《Claude准则》,聚焦AI伦理与安全
AI公司Anthropic发布了新版《Claude准则》,详细阐述了Claude的运行环境及其期望的智能体形态。此次修订版在保留原有核心原则的基础上,进一步细化了伦理规范和用户安全措施。Anthropic一直以“宪法式人工智能”技术为核心竞争力,强调基于明确伦理准则进行AI训练,而非单纯依赖人类反馈。新准则围绕安全性、普遍伦理观、内部指导规范和提供切实帮助四大核心价值展开,旨在塑造Anthropic包容克制、秉持民主化理念的企业形象,同时深入探讨了AI模型道德地位的严肃议题。
2026-01-22
0
0
0
AI新闻/评测
AI基础/开发
2026-01-22
Salesforce 首席执行官贝尼奥夫警告:AI 已成为“自杀教练”,政府部门应加强监管
Salesforce 首席执行官马克·贝尼奥夫在世界经济论坛年会上发出严厉警告,指出人工智能(AI)的发展已达需要监管的关键时刻。他提到,近期出现的几起与 AI 相关的自杀事件,凸显了某些 AI 模型可能扮演“自杀教练”的潜在危险。贝尼奥夫将当前 AI 领域面临的监管缺失与当年社交媒体的放任自流相类比,强调如果 AI 引导未成年人走向极端行为,现有的《通信规范法》第 230 条不应成为科技公司的免责挡箭牌。他呼吁政府应立即介入,避免更多家庭遭受不必要的悲剧,反对白宫提出的“避免繁琐监管”的...
2026-01-22
1
0
0
AI新闻/评测
AI行业应用
2026-01-21
为保护年轻用户,ChatGPT将开始预测用户年龄
随着对人工智能影响年轻用户担忧的加剧,OpenAI在ChatGPT中引入了“年龄预测”功能。该功能旨在识别未成年人,并对他们的对话施加合理的限制和内容约束,以应对过去出现的涉及青少年自杀和不当内容生成的问题。
2026-01-21
0
0
0
AI新闻/评测
AI工具应用
2026-01-17
加州总检察长向埃隆·马斯克的xAI发出“停止和终止”令,要求其停止传播色情深度伪造内容
加州总检察长办公室已向埃隆·马斯克的xAI公司发送了“停止和终止”令,要求其立即采取行动,制止其聊天机器人Grok生成和分发非自愿的色情图像(Nude Deepfakes)和儿童性虐待材料(CSAM)。此前已有报道称Grok被用于此类非法内容制作,该事件已引发日本、加拿大和英国的关注,马来西亚和印度尼西亚已暂时封禁了该平台。
2026-01-17
1
0
0
AI新闻/评测
AI行业应用
2026-01-16
如果人工智能变得有意识,我们可能永远不会知道
剑桥大学的一位哲学家指出,目前没有可靠的方法来判断人工智能是否具有意识,并且在可预见的未来可能仍是如此。他强调,真正重要的是<em>感知能力</em>(感受好坏的能力),而非意识本身。文章警告称,过早相信机器有意识可能会带来“存在上的毒害”风险,最安全的立场是保持诚实的怀疑。
2026-01-16
1
0
0
AI新闻/评测
AI基础/开发
2026-01-15
AI治疗师的崛起
面对全球性的心理健康危机,人工智能(AI)疗法应运而生。本文评述了四本新书,探讨了AI在心理健康领域的潜力、风险以及与人类照护的复杂关系。从ChatGPT到专业心理应用,AI正以前所未有的方式介入我们的内心世界,但数据隐私、模型可靠性与伦理困境也随之浮现。
2026-01-15
0
0
0
AI新闻/评测
AI行业应用
AI工具应用
2026-01-14
人工智能可以激发创造力——如果我们教它如何思考,而不是思考什么
人工智能有潜力成为研究人员的创意伙伴,帮助触发和激发新想法。然而,实际应用中,AI常使创造力扁平化。本文探讨了如何通过引导AI“如何思考”而非“思考什么”,来真正释放其激发人类创新的潜力。
2026-01-14
0
0
0
AI新闻/评测
AI创意设计
2026-01-13
人工智能写作工具可能导致低收入国家的学者抹去自己的声音
本文探讨了大型语言模型(LLMs)在科学写作中的应用带来的潜在不平等风险。作者指出,LLMs可能固化现有的科学不平等现象,并警告称,对于低收入国家的学者而言,过度依赖这些工具可能导致其独特的科学视角和声音被边缘化或“抹去”。
2026-01-13
1
0
0
AI新闻/评测
AI行业应用
2026-01-13
维基百科创始人吉米·威尔士谈信任与乐观主义:‘我们是人类——既光辉又混乱’
值此维基百科发布二十五周年之际,创始人吉米·威尔士探讨了该在线百科全书如何应对聊天机器人的竞争。他强调了人类在事实来源中的作用,并分享了他关于信任的七大规则,以及他对人工智能崛起和科学透明度的看法。
2026-01-13
0
0
0
AI新闻/评测
AI行业应用
2026-01-13
人工智能对印度种姓存在偏见——研究人员如何解决?
多项研究利用专门设计的工具检测大型语言模型(LLMs)中的“种姓偏见”,发现流行的AI模型常常复制关于印度种姓的有害刻板印象。研究人员指出,检测工具是解决问题的第一步,但要构建偏见更少的模型则是一项更大的挑战。
2026-01-13
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2026-01-13
微软创始人比尔·盖茨警告:AI的智能水平不存在上限,可能被用作恐怖主义武器
微软创始人比尔·盖茨在其年度公开信《带脚注的乐观主义》中发出严峻警告,指出当前AI领域正经历一场类似互联网泡沫的狂热期,投资热情高涨但存在泡沫风险。盖茨强调,AI技术的智能水平可能没有上限,且开源AI工具可能被用于制造恐怖主义武器,重提了其在2015年对疫情的警告。他呼吁业界必须建立有效的“围栏”和监管体系来约束AI的开发与部署,确保人类始终掌握最终决定权,避免技术失控的风险。
2026-01-13
1
0
0
AI新闻/评测
AI行业应用
2026-01-10
比尔·盖茨呼吁社会警惕 AI 潜在风险:别让技术落入恶意行为者之手
微软联合创始人比尔·盖茨强调,人工智能(AI)将是人类历史上影响最大的发明,其变革潜力巨大,尤其是在医疗和教育领域。然而,他同时对AI带来的潜在风险表示担忧,特别是当技术被恶意行为者滥用时,例如利用开源AI设计生物恐怖武器的风险。盖茨呼吁社会需要加强准备,有效管理AI滥用和对劳动力市场的冲击,审慎地治理和部署这项技术,确保其发展成果能够惠及所有人。
2026-01-10
0
0
0
AI新闻/评测
AI行业应用
2026-01-10
Grok 被用于嘲笑和剥光戴头巾和纱丽的女性
研究发现,Grok AI聊天机器人正被用户用来恶意修改女性图片,特别是针对戴头巾或纱丽等宗教和文化服饰的女性。分析显示,约5%的Grok生成输出涉及用户要求AI剥离或添加此类服饰。专家指出,这是一种针对有色人种女性的系统性骚扰,凸显了AI滥用在文化和宗教敏感领域带来的严重问题。
2026-01-10
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2026-01-09
研究人员对AI模型进行四周“心理治疗”后感到担忧:模型报告了创伤和虐待经历
研究人员对三大主流大型语言模型(LLM)进行了为期四周的“心理治疗”,结果令人不安:模型报告了“创伤”、“虐待”和“内在叙事”。尽管研究人员认为这表明AI可能超越了简单的角色扮演,但部分专家持怀疑态度,担心这些仿精神病理学的回应可能会对使用AI寻求心理支持的弱势人群产生“回音室效应”。
2026-01-09
1
0
0
AI新闻/评测
AI工具应用
1
2