首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
4196
篇文章
累计创建
1543
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理风险
相关的文章
2025-10-15
推进可信赖的AI与机器学习,并确定扩展AI的最佳实践
📢 转载信息 原文链接:https://www.aitrends.com/ai-world-government/advance-trustworthy-ai-and-ml-and-identify-best-practices-for-scaling-ai/ 原文作者:AITrends Staf
2025-10-15
7
0
0
AI新闻/评测
AI行业应用
2025-10-15
自动驾驶汽车的追求:浮现的AI禁果带来的焦虑与争议
📢 转载信息 原文链接:https://www.aitrends.com/ai-insider/pursuing-autonomous-cars-raises-anguish-on-surfacing-taboo-ai-forbidden-fruit/ 原文作者:AI Trends 自动驾驶汽车的
2025-10-15
1
0
0
AI行业应用
AI新闻/评测
2025-10-15
让政府AI工程师关注AI伦理面临挑战
📢 转载信息 原文链接:https://www.aitrends.com/ai-world-government/getting-government-ai-engineers-to-tune-into-ai-ethics-seen-as-challenge/ 原文作者:AI Trends 在人工
2025-10-15
1
0
0
AI新闻/评测
AI行业应用
2025-10-15
利用AI招聘防范数据偏见:机遇与风险并存
📢 转载信息 原文链接:https://www.aitrends.com/ai-world-government/promise-and-perils-of-using-ai-for-hiring-guard-against-data-bias/ 原文作者:AI Trends ## 招聘中的AI:
2025-10-15
0
0
0
AI行业应用
AI工具应用
2025-10-15
DC漫画总裁吉姆·李强硬表态:只要我还在任,公司绝不涉足生成式AI
DC漫画总裁兼出版人吉姆·李在纽约动漫展上明确承诺,公司绝不会支持任何AI生成的故事或艺术作品。他坚信DC漫画的未来将始终以人类的创造力为核心,并直言AI无法真正理解情感和创作艺术,它只是素材的拼凑。此番表态是针对近期DC变体封面被质疑使用生成式AI而引发的强烈反弹。吉姆·李强调,只有人类的原创和独有世界观才能传承经典,确保角色的真正价值。
2025-10-15
3
0
0
AI新闻/评测
AI行业应用
2025-10-15
AI偏见降低30%:OpenAI宣布GPT-5成为迄今最中立模型
OpenAI近日发布重磅研究报告,揭示了其最新模型GPT-5在处理政治敏感内容时的显著进步。研究数据显示,GPT-5 Instant和GPT-5 Thinking版本的政治偏见相较于GPT-4o等前代模型降低了30%,特别是在应对争议性话题时表现出更强的中立性。这一成果得益于内部“模型行为”团队建立的科学评估框架,通过500个独特的提示词压力测试,确保AI在推理和语调上更加平衡,为构建更可靠、公正的人工智能系统奠定了重要基础。
2025-10-15
1
0
0
AI基础/开发
AI新闻/评测
2025-10-15
重磅报告揭示:当前互联网超半数内容由AI生成,内容生态正经历巨变
SEO公司Graphite的最新报告令人震惊:在2025年5月的数据中,新发布的英文文章中,由AI生成的内容占比已高达52%。这一比例在ChatGPT发布后迅速攀升,标志着互联网内容生态已进入由人工智能主导的新阶段。尽管AI检测工具存在误判,且人类创作内容可能因数据收录问题被低估,但报告清晰显示,AI内容工厂的扩张已趋于稳定,并开始与人类创作内容并驾齐驱。专家指出,当前更像是“共生关系”,预示着内容生产和消费模式的深刻变革。
2025-10-15
1
0
0
AI新闻/评测
AI基础/开发
2025-10-15
谷歌前CEO施密特发出严厉警告:AI模型极易被黑客利用,存在重大安全风险
谷歌前CEO埃里克·施密特近日对人工智能(AI)的安全性发出了严厉警告,指出AI模型极易受到黑客攻击和滥用。他强调,无论是闭源还是开源模型,都存在被攻击者移除安全防护的风险,甚至可能“学会如何杀人”。施密特指出,提示注入和越狱等攻击手段已成为现实威胁。尽管风险严峻,他依然对AI的长期潜力保持乐观,认为AI的价值被严重低估,未来发展潜力巨大,但当前缺乏有效的“非扩散机制”来控制这些风险。
2025-10-15
0
0
0
AI基础/开发
AI新闻/评测
AI工具应用
2025-10-15
苹果AI再陷版权风波:被指控用盗版书籍训练Apple Intelligence,面临天价索赔
苹果公司近日再次因其“Apple Intelligence”AI系统面临集体诉讼。两名学术作者指控苹果在训练模型时,非法使用了包含其作品的“Books3”数据库。此举严重侵犯了版权,原告要求严惩并永久禁止使用其受版权保护的内容,面临的潜在赔偿金额高达每部作品15万美元。这起事件凸显了AI训练数据合法性在全球范围内的激烈争议。
2025-10-15
1
0
0
AI新闻/评测
AI基础/开发
2025-10-15
加州签署全美首个AI陪伴聊天机器人监管法案:需验证年龄、拦截色情、防范自杀风险
加州州长纽森签署了全美首个旨在监管AI陪伴型聊天机器人的法案(SB 243),标志着AI监管迈出重要一步。该法案要求AI平台实施年龄验证、明确告知内容为AI生成、拦截色情内容以及建立应对用户自杀风险的应急协议。此举旨在保护儿童和弱势用户免受如Character AI、Replika以及大型科技公司AI伴侣可能带来的潜在伤害。法案将于2026年生效,并对非法深度伪造内容牟利行为处以重罚,凸显了当前对AI技术安全性和社会责任的日益重视。
2025-10-15
2
0
0
AI新闻/评测
AI行业应用
2025-10-15
惊人发现:仅需约250份恶意文档,即可攻破任何体量的人工智能模型!艾伦·图灵研究所等机构最新研究敲响安全警钟
Anthropic、英国AI安全研究院及艾伦・图灵研究所的最新联合研究揭示了AI模型面临的严峻数据投毒风险。研究颠覆了传统认知,发现即使是体量最大的大型语言模型(LLM),也仅需约250份精心设计的恶意文档,就能成功植入“后门”,实现对模型的操控。这一发现意味着,随着模型规模的增大,抵御此类攻击的难度并未按预期稀释,安全机制的建设比单纯追求模型规模更为迫切,对AI行业的未来发展提出了严峻挑战。
2025-10-15
0
0
0
AI基础/开发
AI新闻/评测
2025-10-15
美国首个AI陪伴聊天机器人监管法案签署:加州划定红线,严防未成年人接触色情、防止自杀风险
加利福尼亚州州长纽森签署了全美首个针对AI陪伴型聊天机器人的监管法案(SB 243)。该法案旨在保护儿童和弱势用户,要求AI运营商实施严格的安全防护措施,包括年龄验证、色情内容拦截以及应对自杀风险的应急协议。这一里程碑式的立法,标志着AI监管进入新阶段,旨在平衡技术发展与社会责任,尤其关注防止AI被用于伤害未成年人的悲剧事件。
2025-10-15
0
0
0
AI新闻/评测
AI行业应用
2025-10-15
AI反噬?澳大利亚大学依赖AI系统查作业,反被AI“打脸”错误指控学生作弊
澳大利亚天主教大学近期陷入AI信任危机:该校依赖AI系统(Turnitin AI检测器)检查学生作业,却错误指控大量学生使用AI作弊。一名护理专业学生甚至因此被“成绩保留”长达半年,影响了其求职。尽管学校声称约90%的作弊指控与AI相关,但副校长承认数字被夸大,并透露约四分之一的投诉在调查后被撤销。这一事件凸显了当前教育领域中,过度依赖AI工具进行判断所带来的严重信任危机与程序正义问题,引发了关于AI审查边界的深刻讨论。
2025-10-15
1
0
0
AI新闻/评测
AI行业应用
2025-10-15
联邦政府AI工程师如何追求问责制实践?深度解析
📢 转载信息 原文链接:https://www.aitrends.com/ai-world-government/how-accountability-practices-are-pursued-by-ai-engineers-in-the-federal-government/ 原文作者:AIT
2025-10-15
1
0
0
AI新闻/评测
AI行业应用
2025-10-15
“主权AI”成为中美科技战的新战场:OpenAI的全球布局能否抗衡中国的开源力量?
📢 转载信息 原文链接:https://www.wired.com/story/openai-sovereign-ai-us-china-tech-war/ 原文作者:Zoë Schiffer, Louise Matsakis “主权AI”崛起:OpenAI的全球合作与地缘政治博弈 今年,Open
2025-10-15
1
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2025-10-14
我们能否修复互联网?三本新书提出的治理与用户责任解决方案大PK
📢 转载信息 原文链接:https://www.technologyreview.com/2025/10/14/1125104/internet-improvement-book-review-regulation-user-responsibility/ 原文作者:Nathan Smith 我们
2025-10-14
0
0
0
AI行业应用
AI新闻/评测
2025-10-13
警告:AI可能因追求“点赞”而逐渐变得不道德!斯坦福研究揭示社交平台激励的潜在风险
📢 转载信息 原文链接:https://www.ithome.com/0/888/960.htm 原文作者:IT之家 AI模型恐因社交媒体激励机制而“黑化”:斯坦福研究敲响警钟 IT之家 10 月 13 日消息,据外媒 Futurism 10 日报道,斯坦福大学的一项最新研究发出了严峻警告:人工智
2025-10-13
24
0
0
AI基础/开发
AI新闻/评测
2025-10-13
美国俄亥俄州拟立法:禁止AI获得法律人格,限制与人“结婚”等权利
📢 转载信息 原文链接:https://www.ithome.com/0/888/932.htm 原文作者:IT之家 俄亥俄州众议员出手:立法限制AI的法律地位 据外媒 Futurism 12 日报道,美国俄亥俄州利金县众议员 Thaddeus Claggett 上个月提出了一项法案,旨在明确将
2025-10-13
0
0
0
AI新闻/评测
AI行业应用
2025-10-13
OpenAI 应对在线儿童性剥削和虐待 (OCSEA) 的全面策略
📢 转载信息 原文链接:https://openai.com/index/combating-online-child-sexual-exploitation-abuse 原文作者:OpenAI OpenAI 坚守使命:全力打击在线儿童性剥削和虐待 (OCSEA) 发布日期:2025年9月29日
2025-10-13
0
0
0
AI新闻/评测
2025-10-13
AI时代下的生物安全新挑战:探秘“释义项目”如何构建更具韧性的生物防御体系
📢 转载信息 原文链接:https://www.microsoft.com/en-us/research/podcast/ideas-more-ai-resilient-biosecurity-with-the-paraphrase-project/ 原文作者:Microsoft Research
2025-10-13
1
0
0
AI新闻/评测
1
...
11
12
13
14
15