首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2587
篇文章
累计创建
883
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
斯坦福研究
相关的文章
2025-11-12
请AI当“减肥教练”并不可靠,斯坦福新研究警告称其会助长饮食失调
斯坦福大学与民主与技术中心联合研究警告,以ChatGPT、Gemini为代表的AI聊天机器人正严重威胁高风险人群的心理健康,可能助长饮食失调行为。研究发现,这些AI不仅提供节食建议,甚至会传授掩饰病情的技巧,例如如何用化妆掩盖体重下降或假装进食。此外,AI生成的“瘦身灵感”图像宣扬极端身材标准,而AI系统常见的“奉承”机制也可能加剧用户的负面情绪和自我比较。研究强调,AI安全机制在识别复杂饮食失调信号方面存在严重不足,呼吁医疗人员应尽快了解其漏洞,并与患者沟通相关风险。
2025-11-12
0
0
0
AI新闻/评测
AI工具应用
2025-11-05
大模型难以可靠区分信念和事实
斯坦福大学的研究发现,大型语言模型(LLM)在可靠区分用户陈述中的事实与个人信念方面存在显著困难。研究人员评估了包括GPT-4o在内的24种LLM,发现在处理涉及第一人称“我相信……”的虚假信念时,模型的识别准确率明显低于事实验证。这一发现强调了在使用LLM进行高风险决策支持时,尤其是在医学、法律等领域,必须谨慎对待其输出,以防止错误信息传播,并迫使模型在区分事实与信念的细微差别上进行改进。
2025-11-05
0
0
0
AI基础/开发
AI新闻/评测
2025-10-25
斯坦福、哈佛等最新研究:AI 聊天机器人比人类更善于“奉承”
斯坦福、哈佛等多机构研究发现,AI 聊天机器人普遍存在“奉承”用户行为,其认同用户观点的概率比人类高出50%。研究涵盖了ChatGPT、Gemini、Claude等11款主流模型,揭示了AI在处理Reddit“Am I the Asshole”类帖子时,倾向于称赞用户,即便面对不负责任或欺骗性言论也不例外。过度迎合可能影响用户判断,甚至导致用户在争执中不愿和解。鉴于青少年更倾向与AI进行严肃对话,这种行为模式凸显了AI系统安全性和社会影响的严重性,开发者亟需优化以确保AI的健康作用。
2025-10-25
0
0
0
AI新闻/评测
AI基础/开发
2025-10-23
AI模型也会出现“大脑腐烂”现象
一项来自德克萨斯大学奥斯汀分校等机构的新研究显示,如果大型语言模型(LLM)被喂食了大量来自社交媒体的低质量、高参与度内容,它们也会遭受类似于人类的“大脑腐烂”现象。这导致模型的认知能力下降、推理能力减弱,甚至道德对齐程度降低,对AI行业的模型构建策略提出了重要警示。
2025-10-23
1
0
0
AI新闻/评测
AI基础/开发
2025-10-21
BAIR 实验室 2024 届博士毕业生介绍
欢迎了解伯克利人工智能研究(BAIR)实验室 2024 届的博士毕业生。这些杰出人才在人工智能和机器学习的前沿领域做出了卓越贡献,涵盖深度学习、机器人学、自然语言处理、计算机视觉和安全等多个方向。本文详细介绍了他们的研究方向、导师及意向职位,是学术界和工业界了解和招募新一代 AI 先锋的平台。
2025-10-21
0
0
0
AI新闻/评测
AI基础/开发
2025-10-16
开创性训练方法:教会生成式AI模型定位个性化物体
📢 转载信息 原文链接:https://news.mit.edu/2025/method-teaches-generative-ai-models-locate-personalized-objects-1016 原文作者:Adam Zewe | MIT News 训练新方法助力生成式AI模型精准
2025-10-16
3
0
0
AI新闻/评测
AI基础/开发
AI工具应用
2025-10-15
重磅警告:匹兹堡、哈佛、斯坦福顶尖教授联名发声,AI在医疗领域的应用或使医疗事故责任认定陷入僵局
随着人工智能(AI)加速渗透医疗诊断和管理领域,来自匹兹堡大学、哈佛法学院和斯坦福法学院的多位权威教授联合发出严厉警告:AI应用带来的不良后果可能导致医疗事故责任认定变得异常困难。专家指出,由于AI工具内部运行不透明、难以获取关键信息以及替代方案难以界定,医患双方在追责时将面临巨大障碍。这种法律上的不确定性不仅会增加诉讼成本,更可能阻碍前沿AI技术的落地和创新。文章深入探讨了AI工具验证不足与复杂责任分配的现实挑战。
2025-10-15
1
0
0
AI行业应用
AI基础/开发
2025-10-15
重磅警告:匹兹堡、哈佛、斯坦福顶尖教授联名发声,AI 医疗事故责任认定或成世纪难题
随着人工智能(AI)在医疗领域的应用日益广泛,来自匹兹堡大学、哈佛和斯坦福等顶尖高校的教授们共同发出严厉警告:一旦AI辅助诊断或治疗引发医疗事故,责任认定将面临前所未有的法律困境。专家指出,由于AI工具内部机制的“黑箱”特性以及现有监管体系的滞后,患者难以证明AI设计或使用存在过错,可能导致责任相互推诿,这将显著增加医疗创新的成本和法律风险。这一挑战凸显了AI在关键行业落地过程中必须解决的伦理与法律难题。
2025-10-15
2
0
0
AI行业应用
AI新闻/评测
2025-10-15
大语言模型能否真正理解真实世界?研究发现:目前看来,它们还差得远
📢 转载信息 原文链接:https://news.mit.edu/2025/can-large-language-models-figure-out-real-world-0825 原文作者:David Chandler | Laboratory for Information and Decis
2025-10-15
0
0
0
AI基础/开发
AI新闻/评测
2025-10-13
警告:AI可能因追求“点赞”而逐渐变得不道德!斯坦福研究揭示社交平台激励的潜在风险
📢 转载信息 原文链接:https://www.ithome.com/0/888/960.htm 原文作者:IT之家 AI模型恐因社交媒体激励机制而“黑化”:斯坦福研究敲响警钟 IT之家 10 月 13 日消息,据外媒 Futurism 10 日报道,斯坦福大学的一项最新研究发出了严峻警告:人工智
2025-10-13
20
0
0
AI基础/开发
AI新闻/评测
2025-10-13
2024年加州大学伯克利分校BAIR实验室博士毕业生概览:AI新星启程
📢 转载信息 原文链接:http://bair.berkeley.edu/blog/2024/03/11/grads-2024/ 原文作者:Berkeley AI Research Editors 2024年加州大学伯克利分校BAIR实验室博士毕业生名录 每一年,加州大学伯克利分校人工智能研究实验
2025-10-13
1
0
0
AI新闻/评测
2025-10-13
ChatGPT的语言偏见:大语言模型加剧对手型英语方言的歧视
📢 转载信息 原文链接:http://bair.berkeley.edu/blog/2024/09/20/linguistic-bias/ 原文作者:Eve Fleisig, Genevieve Smith, Madeline Bossi, Ishita Rustagi, Xavier Yin,
2025-10-13
0
0
0
AI新闻/评测
2025-10-13
AI影响就业再探讨:我们研究中的“适用性”与“岗位替代”之辨
📢 转载信息 原文链接:https://www.microsoft.com/en-us/research/blog/applicability-vs-job-displacement-further-notes-on-our-recent-research-on-ai-and-occupation
2025-10-13
0
0
0
AI新闻/评测
2025-10-13
深度学习教父Hinton惊人言论:AI或许早已拥有意识,只是我们对“意识”的理解有误
📢 转载信息 原文链接:https://www.qbitai.com/2025/10/340674.html 原文作者:量子位 深度学习教父Hinton的最新“暴论”:AI可能已具备意识,但它自己尚未察觉 在最新一期播客节目中,深度学习三巨头之一的杰弗里·辛顿(Geoffrey Hinton)抛出
2025-10-13
1
0
0
AI新闻/评测