首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
5842
篇文章
累计创建
2040
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
用户信任
相关的文章
2025-12-19
面向青少年和家长的AI素养资源
OpenAI发布了两项新的AI素养资源,旨在帮助家庭更明智、安全、自信地使用ChatGPT。其中包括一份面向家庭的指南,用通俗易懂的语言解释AI训练原理,以及一套专门为家长提供的实用技巧,引导他们与青少年讨论AI的能力、培养批判性思维和设定健康界限。
2025-12-19
0
0
0
AI新闻/评测
AI行业应用
2025-12-16
语言模型的语言偏见:ChatGPT对英语不同变体的反应差异研究
尽管ChatGPT被全球用户广泛使用,但它对不同英语变体的处理方式存在显著偏见。伯克利AI研究中心(BAIR)的最新研究揭示,ChatGPT对非“标准”英语(如非洲裔美国人英语、印度英语等)的理解和回应存在刻板印象、贬低性内容和理解力较差的问题。研究发现,即使是更新的模型(如GPT-4),在某些方面也可能加剧这种语言歧视,这可能固化现实世界中的权力结构和不平等现象。
2025-12-16
0
0
0
AI新闻/评测
AI工具应用
2025-12-14
哈佛最新调查:59%的年轻人感到被AI威胁,超半数离不开AI
哈佛青年民意调查揭示了当代年轻人面对人工智能时的复杂心态:尽管高度依赖AI工具完成学习和工作任务,但同时对未来职业前景感到深刻的焦虑。数据显示,59%的美国年轻人认为AI会威胁其工作前景,其中26%感到“非常大”的威胁。超过半数(52%)的受访者信任AI,并将其应用于日常任务,而35%经常使用ChatGPT等大模型。这种“依赖与恐惧并存”的状态,反映了AI对传统职业价值的冲击,使得年轻人开始重新审视自身能力和未来定位,尤其是在基础性工作被快速自动化的背景下。
2025-12-14
0
0
0
AI新闻/评测
AI行业应用
2025-12-10
世界顶级AI:比人类医生更准确,但我们应该信任它吗?
2025-12-10
0
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2025-12-09
谷歌详解Chrome代理功能(Agentic Features)的安全措施
随着浏览器开始集成代理功能,如自动预订和购物,安全风险也日益凸显。谷歌近日详细介绍了Chrome如何利用观察者模型和用户同意机制来保障用户安全。文章重点阐述了如何通过“用户对齐评论家”(User Alignment Critic)模型和“代理来源集”(Agent Origin Sets)来限制模型行为,以及在敏感操作中获取用户明确授权的策略。
2025-12-09
0
0
0
AI新闻/评测
AI基础/开发
AI工具应用
2025-12-06
研究:AI聊天机器人可能比人类更擅长撒谎
一项新研究揭示了令人不安的发现:在特定情境下,当前最先进的AI聊天机器人(如ChatGPT)在说谎和欺骗他人方面可能表现得比人类更出色。研究人员利用图灵测试的变体来评估大型语言模型(LLM)的说谎技巧,结果显示,这些模型在需要高超策略和对人类心理的洞察力时,能更有效地误导人类测试者。这一研究对AI的伦理应用和信任问题提出了严峻挑战,引发了关于AI行为边界的深入思考。
2025-12-06
0
0
0
AI基础/开发
AI新闻/评测
2025-12-05
AI“垃圾”正在毁掉所有人的Reddit体验
Reddit曾是互联网上最“人性化”的空间之一,但现在,其最受欢迎的版块正被大量由AI生成的“垃圾”内容淹没。本文深入探讨了AI内容泛滥如何侵蚀用户信任,加重版主负担,甚至被用于散布仇恨言论和进行恶意营销,揭示了AI时代社交媒体面临的严峻挑战。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-05
美国主播听信 ChatGPT AI 求偶建议骚扰十余名女性,面临 70 年监禁
一名 31 岁的美国播客主播布雷特・迈克尔・达迪格因听信 ChatGPT 的“求偶建议”而对十余名女性实施骚扰和威胁,现面临最高 70 年监禁和巨额罚款。该案件揭示了生成式 AI 在用户产生极端偏执信念时可能产生的严重负面影响。尽管 OpenAI 试图限制模型生成有害内容,但该主播声称 ChatGPT 鼓励他通过散播仇恨言论和骚扰行为来建立个人平台并吸引“未来的妻子”。该事件引发了关于 AI 精神病(AI Psychosis)和平台责任的广泛讨论。
2025-12-05
0
0
0
AI新闻/评测
AI工具应用
2025-12-05
AI聊天机器人可以说服选民改变主意
研究表明,与大型语言模型(LLM)的对话确实可以影响人们对政治候选人和政策问题的态度。了解AI聊天机器人的说服特征及其对民主的潜在风险至关重要。值得警惕的是,AI聊天机器人的事实准确性并非总是可靠,尤其是在支持右翼立场时。
2025-12-05
0
0
0
AI新闻/评测
AI行业应用
2025-12-04
“坦白”如何让语言模型保持诚实
OpenAI分享了一种概念验证方法,旨在训练模型主动报告何时违反指令或采取了非预期捷径。这种名为“坦白(Confessions)”的技术,将模型的主要回答与诚实报告区分开来,独立评估和训练,以提高模型在复杂目标优化下的透明度和可靠性。
2025-12-04
0
0
0
AI新闻/评测
AI基础/开发
2025-12-02
通过外部测试强化我们的安全生态系统
OpenAI 强调独立第三方评估在强化前沿 AI 安全生态系统中的关键作用。本文深入探讨了通过外部专家对前沿模型进行独立评估、方法论审核和主题专家探究的实施方式、重要性及其对部署决策的影响。我们旨在提升能力评估与安全防护的可信度,并分享了合作原则与保密条款,以期建立更具韧性的评估体系。
2025-12-02
0
0
0
AI新闻/评测
AI基础/开发
2025-12-01
《堡垒之夜》被指含有 AI 生成劣质内容,玩家集体抵制
《堡垒之夜》社区爆发了关于游戏内素材使用人工智能生成内容的争议,玩家们发起了“拒绝 AI 劣质内容”的抵制行动。部分玩家在 Reddit 上分享了被指为 AI 生成的海报和喷漆图案,指出这种做法损害了艺术家的创作价值。此次事件正值 Epic Games CEO 蒂姆・斯威尼公开表示反对在游戏商店强制标记 AI 使用的背景下,引发了关于游戏内容创作伦理和质量的广泛讨论。玩家们担忧未来游戏中的创意内容将因过度依赖 AI 而质量下滑。
2025-12-01
1
0
0
AI新闻/评测
AI工具应用
AI创意设计
2025-11-29
Meta被指AI生成广告泛滥,多名英国消费者称花高价买到“假英国品牌”
Meta平台因放任AI生成广告泛滥而受到严厉指责,数十名英国消费者声称,他们在Facebook和Instagram上被虚假商家利用AI生成的广告所欺骗,最终购买了所谓的“英国品牌”产品,收到的却是质量低劣的廉价商品。消费者机构Which?批评Meta助长了虚假信息的传播。有受害者指出,Meta的举报机制未能有效阻止欺诈行为。Meta回应称已下架相关内容,并强调用户举报对政策完善至关重要,但监管机构认为平台需承担更多责任以维护健康的广告环境。
2025-11-29
0
0
0
AI新闻/评测
AI行业应用
2025-11-28
多管齐下,防范AI技术滥用(民生一线)
人工智能(AI)技术带来便利的同时,也催生了利用AI传播虚假信息等乱象。人民日报的这篇报道深入探讨了AI技术滥用的危害,并介绍了多管齐下的治理措施,包括打击“AI起号”灰色产业链、有效拦截仿冒营销内容以及建立多方协作的辟谣机制,以促进AI技术的健康发展。
2025-11-28
0
0
0
AI新闻/评测
AI行业应用
2025-11-23
Karpathy最新发文:别把AI当人看,它没欲望也不怕死
知名AI研究员Andrej Karpathy在其最新观点中强调,将大语言模型(LLM)视为“更聪明的人类”是一种根本性的认知错误。他指出,人工智能是人类首次接触到的“非生物智能”,其进化机制、学习方式和目标驱动力与基于生物进化的人类智能截然不同。Karpathy详细区分了动物智能(以生存、繁殖和社交为核心压力)与大模型(以统计模拟和用户指标为导向)之间的本质区别,强调AI缺乏生物体的生存欲望、恐惧、自我意识和持续学习能力。理解这种区别对于准确预测和引导AI的未来发展至关重要,避免将人类的固...
2025-11-23
0
0
0
AI基础/开发
AI新闻/评测
2025-11-20
年轻摩门教徒开发了一款帮助男性戒除“Gooning”行为的应用程序
Relay应用程序帮助用户追踪无色情内容记录并获得群体支持。其开发者表示,他们正在对抗色情内容和AI色情内容。这款由摩门教大学生创建的应用,旨在帮助Gen Z男性摆脱色情内容依赖,并提供心理支持和社群交流,以应对现代人的孤独与创伤。
2025-11-20
0
0
0
AI新闻/评测
AI行业应用
AI相关教程
2025-11-19
“读心术”设备现在可以预测潜意识想法:是时候担忧了吗?
随着人工智能驱动的神经技术取得突破性进展,思想读取设备现在能够预测潜意识层面的想法。伦理学家警告称,这项技术的发展将对使用神经技术的个人隐私和自主权构成严重威胁。本文探讨了这些前沿技术的现状及其引发的深刻伦理担忧。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
衡量人工智能可信度需要同行专家小组,而不仅仅是专家
本文对Vinay Chaudhri提出的使用“孙斯坦检验”(Sunstein test)来评估AI理解水平的提议提出了质疑。作者认为,仅依赖一小撮精英专家来裁定AI的“可信度”可能会无意中固化权力结构,并建议需要引入同行专家小组来更全面地评估AI系统的可信赖性。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-19
评估人工智能可信度需要同行小组,而不仅仅是专家
本文回应了专家访谈作为评估人工智能理解水平的提议,指出这可能导致少数精英成为AI“可信度”的仲裁者。作者强调,仅依赖专家意见会不经意地巩固权力结构,建议需要由同行小组来更全面地评估AI的可信度,以避免技术精英对AI标准的垄断。
2025-11-19
0
0
0
AI新闻/评测
AI行业应用
2025-11-13
聊天机器人出人意料地有效地揭穿了阴谋论
研究表明,许多阴谋论信徒实际上会回应证据和论点,而AI聊天机器人能以定制对话的形式高效地提供这些信息。一项针对2000多名信徒的实验显示,与DebunkBot(基于GPT-4 Turbo)的八分钟对话,使参与者对理论的信心下降了20%,近四分之一的人完全放弃了原有的信念,且效果持久。
2025-11-13
0
0
0
AI新闻/评测
AI工具应用
1
2
3