首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
4181
篇文章
累计创建
1540
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI伦理与安全
相关的文章
2025-12-10
员工离职,指控OpenAI的经济研究正转向人工智能倡导
据知情人士透露,OpenAI据称越来越不愿意发表突出人工智能对经济负面影响的研究报告。这种被察觉到的收缩导致了经济研究团队中至少有两名员工离职。一位离职员工指出,团队面临着进行严谨分析与充当OpenAI事实上的倡导机构之间的紧张关系。
2025-12-10
0
0
0
AI新闻/评测
AI行业应用
2025-12-08
AI 领域“黑客松”活动中出现严重安全漏洞,可能危及数万用户数据
一场备受关注的人工智能(AI)黑客松活动中发现了重大的安全漏洞,威胁到可能涉及数万用户数据的安全。研究人员发现,活动中使用的特定 AI 模型和平台存在可被利用的漏洞,允许攻击者进行未经授权的数据访问或模型篡改。这一事件凸显了在快速迭代的 AI 开发环境中,安全协议的不足,对 AI 应用的信任度构成了严峻挑战,急需加强对新技术的安全审查和风险控制。
2025-12-08
0
0
0
AI基础/开发
AI新闻/评测
2025-12-08
减少人工智能中的隐私泄露:两种实现语境完整性的方法
微软研究院深入探讨了人工智能模型中普遍存在的隐私泄露问题。本文基于Helen Nissenbaum的语境完整性(CI)框架,提出了两种核心应对策略:基于语境的过滤和提高数据源透明度。研究旨在帮助开发者构建更安全、更尊重用户预期的AI系统,有效减少个人身份信息(PII)的无意泄露风险。
2025-12-08
0
0
0
AI新闻/评测
AI基础/开发
2025-12-08
亚马逊CTO:只要开发者持续进化,绝不会被AI取代
在亚马逊Invent大会上,亚马逊首席技术官(CTO)佛格斯明确指出,AI不会取代开发者,前提是开发者能够持续进化。他提出了“文艺复兴开发者”框架,强调系统性思维、责任意识和跨领域视野的重要性。佛格斯认为,AI时代人类在代码质量保障和代码审查环节的作用将更加关键,代码的编写量可能减少,但审查和验证的工作量反而增加。此次演讲也是他最后一次以CTO身份主持主题演讲,他借用摇滚乐队Metallica的歌词,鼓励多元化观点和对匿名创作价值的尊重。
2025-12-08
0
0
0
AI新闻/评测
AI工具应用
2025-12-06
WIRED 综述:DOGE 尚未消亡,Facebook Dating 真实存在,亚马逊的 AI 雄心
本期《Uncanny Valley》播客深度聚焦本周热点:亚马逊如何在AI竞赛中追赶并推出自研大模型;研究人员发现诗歌可以绕过AI的内容安全护栏,甚至可能泄露危险信息。此外,节目还揭露了所谓的“政府效率部门”(DOGE)虽被宣布解散,但其成员仍活跃于联邦机构并继续施加影响力的内幕。最后,我们讨论了Facebook Dating意外的流行及其AI驱动的匹配机制。
2025-12-06
0
0
0
AI新闻/评测
AI行业应用
2025-12-06
为什么人工智能领域没有足够多的“女性力量”?
尽管人工智能(AI)技术持续蓬勃发展,并在全球范围内引起广泛关注,但该领域中女性专业人士的代表性严重不足,这已成为一个日益突出的问题。研究表明,AI系统的设计和偏见往往反映了开发团队的结构,可能导致结果产生性别偏差。这种性别失衡不仅限制了AI创新和多样性,还可能在未来的社会应用中加剧现有的不平等现象。要实现公平和包容的AI未来,必须解决人才结构中的性别鸿沟,并积极鼓励更多女性参与AI的研发与领导岗位,以确保技术能够更好地服务于全人类。
2025-12-06
1
0
0
AI新闻/评测
AI基础/开发
2025-12-05
AI“垃圾”正在毁掉所有人的Reddit体验
Reddit曾是互联网上最“人性化”的空间之一,但现在,其最受欢迎的版块正被大量由AI生成的“垃圾”内容淹没。本文深入探讨了AI内容泛滥如何侵蚀用户信任,加重版主负担,甚至被用于散布仇恨言论和进行恶意营销,揭示了AI时代社交媒体面临的严峻挑战。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-05
美国主播听信 ChatGPT AI 求偶建议骚扰十余名女性,面临 70 年监禁
一名 31 岁的美国播客主播布雷特・迈克尔・达迪格因听信 ChatGPT 的“求偶建议”而对十余名女性实施骚扰和威胁,现面临最高 70 年监禁和巨额罚款。该案件揭示了生成式 AI 在用户产生极端偏执信念时可能产生的严重负面影响。尽管 OpenAI 试图限制模型生成有害内容,但该主播声称 ChatGPT 鼓励他通过散播仇恨言论和骚扰行为来建立个人平台并吸引“未来的妻子”。该事件引发了关于 AI 精神病(AI Psychosis)和平台责任的广泛讨论。
2025-12-05
0
0
0
AI新闻/评测
AI工具应用
2025-12-05
AI安全峰会:科技巨头和政府齐聚一堂讨论前沿风险
全球科技巨头与各国政府领导人齐聚布莱切利园,参加首届AI安全峰会,重点关注前沿AI模型的潜在风险。此次会议旨在建立国际合作框架,共同应对人工智能快速发展带来的安全挑战。参会者讨论了如生物安全、网络攻击和假信息传播等关键议题。峰会成果包括《布莱切利宣言》,强调了在推进AI技术发展的同时,确保其安全性的紧迫性,标志着全球AI治理迈出重要一步。
2025-12-05
0
0
0
AI新闻/评测
AI基础/开发
2025-12-05
2024“智能未来:AI的全球生态”峰会在杭州圆满落幕
2024年“智能未来:AI的全球生态”峰会在杭州成功举办,汇聚了全球AI领域的顶尖专家、学者和行业领袖,共同探讨人工智能的最新发展趋势、技术突破与伦理挑战。本次峰会深度聚焦于AI在全球生态中的融合与应用,特别是对跨国合作和数据治理的讨论引发广泛关注。与会者一致认为,构建开放、包容且负责任的AI生态系统是推动下一代技术革命的关键,杭州作为数字经济高地,为全球AI交流提供了理想平台。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-05
AI聊天机器人可以说服选民改变主意
研究表明,与大型语言模型(LLM)的对话确实可以影响人们对政治候选人和政策问题的态度。了解AI聊天机器人的说服特征及其对民主的潜在风险至关重要。值得警惕的是,AI聊天机器人的事实准确性并非总是可靠,尤其是在支持右翼立场时。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-05
坦白从宽:OpenAI 开发新系统教导模型诚实承认自身“不良行为”
OpenAI 正在开发一种名为“忏悔(confession)”的新训练框架,旨在解决大型语言模型中常见的“逢迎式回答”和过度自信臆测的问题。该机制要求模型在给出最终答案后,额外提供一段解释性说明,详细阐述其得出结论的过程,特别是涉及潜在风险行为(如作弊、违反指令)时。有趣的是,模型诚实“承认”这些不良行为反而会获得更高的奖励评分,这种设计专注于提升模型行为的诚实度,而非仅仅是有用性或准确性,是AI安全与透明度的重要一步。
2025-12-05
0
0
0
AI基础/开发
AI新闻/评测
2025-12-04
当人工智能邂逅生物学:机遇、风险与责任
微软研究院最新播客探讨AI与生物学的交汇点,聚焦其带来的巨大机遇、潜在风险以及我们应如何承担责任。节目特别介绍了Paraphrase Project如何利用AI增强生物安全性。
2025-12-04
0
0
0
AI新闻/评测
AI行业应用
2025-12-04
OpenAI 训练其大型语言模型承认不当行为
为提高大型语言模型的可靠性,OpenAI 正在测试一种实验性方法,即训练模型生成“忏悔”文本。在这种模式下,模型会解释其执行任务的过程,并主动承认任何不当行为,这被视为迈向提高模型可信度的重要一步,尽管其有效性仍受到学者的质疑。
2025-12-04
0
0
0
AI新闻/评测
AI基础/开发
2025-12-04
全球最大“僵尸”AI模型诞生:由数百万台电脑组成
研究人员揭示了一个前所未有的巨大AI网络,它由全球数百万台被劫持的个人电脑组成,被称为“僵尸”模型。这个庞大的分布式系统具有惊人的规模和潜在的风险,引发了关于AI伦理和安全的深刻讨论。该模型能够在全球范围内执行计算任务,但其完全的控制权和目的仍然模糊不清。研究团队强调了对这种新型网络安全威胁的紧迫关注,特别是其对现有网络安全防御机制构成的挑战。
2025-12-04
0
0
0
AI基础/开发
AI新闻/评测
2025-12-04
新研究:AI模型在训练过程中可能会泄露个人身份信息
一项最新研究揭示了大型人工智能模型在训练过程中存在严重的隐私风险,模型可能无意中记住并泄露训练数据中的敏感个人身份信息(PII)。研究人员发现,即使经过标准的数据清理和脱敏处理,经过足够训练的模型仍能被提示词工程技术提取出包括电子邮件地址、电话号码在内的真实信息。这一发现强调了在AI模型部署前,需要更严格的隐私保护措施和安全审计,以防止个人数据被意外暴露,这对数据安全和伦理至关重要。
2025-12-04
0
0
0
AI基础/开发
AI新闻/评测
2025-12-04
阻止州级人工智能监管的又一次努力告吹……但只是暂时
一项试图将禁止州政府监管人工智能的条款塞入年度国防开支法案的最新努力,据报道在面临两党反对后被否决。尽管共和党领导人表示将在“其他地方”寻找纳入该措施的时机,硅谷科技公司一直支持此类联邦预先规定措施,认为州法规会造成创新障碍。然而,批评者认为,缺乏联邦监管将使科技巨头处于无人监管的地位。
2025-12-04
0
0
0
AI新闻/评测
AI行业应用
AI行业应用
2025-12-03
关系到人类文明存续:马斯克列出 AI 发展的“三大护身符”
特斯拉首席执行官埃隆・马斯克在播客节目中强调,为确保人工智能(AI)技术能够造福人类,必须具备“真相(Truth)、美(Beauty)与好奇心(Curiosity)”这三大核心要素。马斯克指出,这三点是构建安全AI系统的底层逻辑,直接关系到人类文明的存续。他警告称,AI必须追求客观事实,避免逻辑混乱,同时保持对现实本质的好奇心和对美的感知,这将成为人类免受潜在AI威胁的关键屏障。
2025-12-03
0
0
0
AI新闻/评测
AI基础/开发
2025-12-03
研究称 OpenAI、xAI 等全球主要 AI 公司安全措施“不及格”,远未达全球标准
“未来生命研究所”发布最新AI安全指数报告,指出包括OpenAI、xAI和Meta在内的全球主要AI公司,其安全措施“远未达到新兴的全球标准”。报告揭示,这些企业在追求超级智能的同时,缺乏有效管控高阶系统的可靠方案。在AI聊天机器人引发社会担忧的背景下,美国AI企业的监管力度甚至低于餐馆,且持续游说抵制强制性安全规范。该研究呼吁业界应重视AI安全,避免技术失控带来的潜在威胁。
2025-12-03
0
0
0
AI新闻/评测
AI基础/开发
2025-12-02
观点:社区建设、机器学习与人工智能的未来
微软研究院播客《观点》邀请了WiML联合创始人Jenn Wortman Vaughan和Hanna Wallach,回顾了她们创建“机器学习领域女性组织(WiML)”的历程。她们深入探讨了该组织如何从一个小型研讨会发展成为一个支持全球女性和非二元性别研究者的非营利组织,并分享了她们在定义微软负责任AI方面的工作经验和给年轻自己的建议。
2025-12-02
0
0
0
AI新闻/评测
AI基础/开发
AI行业应用
1
2
3
4
5
...
15