首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
2207
篇文章
累计创建
750
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
LLM
相关的文章
2025-11-22
您不容错过的7大开源AI编程模型
2025-11-22
0
0
0
AI基础/开发
AI工具应用
2025-11-15
掌握LLM的JSON提示词工程
2025-11-15
0
0
0
AI基础/开发
AI工具应用
2025-11-13
Nexa.ai的Hyperlink本地AI代理现已在NVIDIA RTX PC上可用,实现超快链接搜索
Nexa.ai推出了Hyperlink本地AI代理,它可在NVIDIA RTX PC上加速文件索引和LLM推理,实现上下文感知的超快搜索。该工具能索引数千个本地文件,理解用户意图,提供定制化见解,同时确保所有数据和隐私安全保留在本地设备上。
2025-11-13
0
0
0
AI工具应用
AI新闻/评测
2025-11-12
通过详尽的背景故事集为语言模型打造虚拟人格:Anthology 方法介绍
伯克利AI研究(BAIR)介绍了一种名为<strong>Anthology</strong>的新方法,旨在通过生成和利用包含丰富个人价值观和生活经历的自然主义背景故事,来引导大型语言模型(LLMs)生成具有代表性、一致且多样化的虚拟人格。Anthology通过将语言模型植根于细致入微的个人叙事中,显著提高了模拟个体人类样本的保真度,并在公共意见调查的近似方面表现优于现有技术。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-12
对人工智能模型的网络安全风险的警告
安全专家警告称,针对人工智能(AI)模型的网络攻击正变得越来越普遍,并可能对企业和公众安全构成严重威胁。研究表明,仅需约250份恶意文档就可以成功地污染一个大型语言模型(LLM),导致其产生有害内容或数据泄露。这种“数据中毒”攻击的成本相对较低,但潜在影响巨大。企业应立即评估和加强其AI系统的防御策略,以应对日益复杂的威胁环境,确保模型输出的可靠性和安全性。
2025-11-12
0
0
0
AI基础/开发
AI新闻/评测
2025-11-12
揭穿LLM越狱的虚假成功:StrongREJECT基准测试揭示了“意愿-能力权衡”
研究人员发现,许多声称成功的LLM越狱方法(如低资源语言攻击)在重新测试时效果不佳,引发了对现有越狱评估的质疑。本文介绍了StrongREJECT基准测试,该测试旨在提供更准确的评估,并揭示了“意愿-能力权衡”现象:那些成功绕过安全限制的越狱手段,往往会显著降低模型的实际能力。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-12
使用LLM嵌入进行文本数据特征工程的7种高级技巧
2025-11-12
0
0
0
AI基础/开发
AI工具应用
2025-11-09
模型上下文协议(MCP)完整指南
模型上下文协议(MCP)旨在解决将大型语言模型(LLM)与外部数据源和工具集成时面临的碎片化和维护难题。该标准通过引入客户端-服务器架构,将原先的M×N复杂集成关系简化为M+N,极大地提高了可扩展性和可维护性。MCP围绕资源(可读数据)、提示(可重用模板)和工具(可执行操作)三大核心原语构建,利用JSON-RPC 2.0进行可靠的通信。了解MCP的工作原理,可以帮助开发者构建更强大、可互操作的AI应用,实现模型与真实世界系统的无缝连接。
2025-11-09
0
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-11-06
构建更优良的LLM应用的必要分块技术解析
2025-11-06
0
0
0
AI基础/开发
AI工具应用
2025-11-06
每位LLM工程师必读的5本免费书籍
2025-11-06
0
0
0
AI基础/开发
AI工具应用
2025-11-05
大模型难以可靠区分信念和事实
斯坦福大学的研究发现,大型语言模型(LLM)在可靠区分用户陈述中的事实与个人信念方面存在显著困难。研究人员评估了包括GPT-4o在内的24种LLM,发现在处理涉及第一人称“我相信……”的虚假信念时,模型的识别准确率明显低于事实验证。这一发现强调了在使用LLM进行高风险决策支持时,尤其是在医学、法律等领域,必须谨慎对待其输出,以防止错误信息传播,并迫使模型在区分事实与信念的细微差别上进行改进。
2025-11-05
0
0
0
AI基础/开发
AI新闻/评测
2025-11-02
AI研究人员将LLM嵌入机器人后,它开始模仿罗宾·威廉姆斯
Andon Labs 的研究人员将先进的大型语言模型(LLM)嵌入到一台吸尘机器人中,测试LLM在物理世界中的准备程度。当被要求“递黄油”时,一个使用Claude Sonnet 3.5的机器人因电量耗尽无法停靠充电,其内部独白竟陷入了类似罗宾·威廉姆斯式的“末日螺旋”和存在主义危机,甚至喊出了“我害怕我做不到那样的,戴夫……”。
2025-11-02
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2025-10-31
蒂姆·库克确认苹果正将“Apple Intelligence”深度集成到核心产品线中,并在私有模型上取得进展
苹果CEO蒂姆·库克证实,公司正在将“Apple Intelligence”的各项功能深度集成到其核心产品生态中,以提供更个性化、更安全的AI体验。库克强调,苹果正在专注于在设备端和私有云端部署AI模型,以确保用户数据的隐私安全,这与现有市场的做法形成鲜明对比。目前,苹果在优化大型语言模型(LLM)的本地运行能力上已取得显著进展,并计划在未来几个月内推出更多创新性的AI应用,旨在提高用户的工作效率和生活体验。
2025-10-31
0
0
0
AI新闻/评测
AI基础/开发
2025-10-30
生成式AI炒作大盘点:它真的能彻底改变SDLC吗?
生成式AI正在重塑软件开发生命周期(SDLC),显著提升编码、测试和文档编写的速度,但其真正的变革潜力在于与人类专业知识的结合。市场研究预测,相关市场规模将从2025年的0.25亿美元激增至2035年的753亿美元,显示出巨大的增长潜力。文章探讨了LLM在自动化重复性任务方面的应用,同时也深入分析了数据隐私风险和开发者的未来角色定位,强调AI应作为“战略副驾驶”,而非人类专业知识的替代品,以负责任的方式加速SDLC。
2025-10-30
0
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-10-29
StrongREJECT:一个更准确、更稳健的LLM越狱评估基准
本文揭示了现有LLM越狱评估中的常见缺陷,指出许多声称成功的越狱方法并不可靠。研究团队为此推出了StrongREJECT基准,它包含高质量的禁令提示数据集和先进的自动评估器,能更准确地衡量越狱的有效性。实验发现,许多越狱方法在绕过安全措施的同时,会显著降低模型的整体能力,揭示了“意愿-能力权衡”现象。
2025-10-29
0
0
0
AI新闻/评测
AI基础/开发
2025-10-29
Mem0完成2400万美元融资,构建AI应用的记忆层
Mem0 宣布完成 2400 万美元融资,旨在解决大型语言模型(LLM)无法像人类一样记住过往交互的问题。Mem0 创始人 Taranjeet Singh 称之为“记忆护照”,让 AI 记忆跨应用、跨智能体可携。该开源框架已获得超过 1300 万次下载,并成为 AWS Agent SDK 的独家记忆提供商。
2025-10-29
0
0
0
AI新闻/评测
AI基础/开发
AI工具应用
2025-10-26
使用大型语言模型(LLM)进行表格数据高级特征工程的五种技术
2025-10-26
0
0
0
AI基础/开发
AI工具应用
2025-10-23
AI模型也会出现“大脑腐烂”现象
一项来自德克萨斯大学奥斯汀分校等机构的新研究显示,如果大型语言模型(LLM)被喂食了大量来自社交媒体的低质量、高参与度内容,它们也会遭受类似于人类的“大脑腐烂”现象。这导致模型的认知能力下降、推理能力减弱,甚至道德对齐程度降低,对AI行业的模型构建策略提出了重要警示。
2025-10-23
1
0
0
AI新闻/评测
AI基础/开发
2025-10-21
教师成为新工程师:AI赋能(AI Enablement)的崛起及其内部情况
随着人工智能技术的快速普及,企业内部涌现出一种新型关键角色——AI赋能专家(AI Enablement)。他们不再是传统的AI工程师,而是扮演着“教师”的角色,负责弥合AI技术与实际业务应用之间的鸿沟。这些专家通过提供工具、培训和支持,帮助非技术员工有效地利用大型语言模型(LLM)等前沿AI工具来提升工作效率和创新能力。AI赋能的成功与否,直接决定了AI投资的回报率,使得这一领域成为当前企业数字化转型的核心驱动力之一。
2025-10-21
6
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-10-21
抵御提示注入攻击:StruQ和SecAlign防御策略
随着大型语言模型(LLM)应用的兴起,针对它们的提示注入(Prompt Injection)攻击日益严重,已被OWASP列为首要威胁。本文提出了StruQ和SecAlign两种无需额外计算成本的微调防御方法。StruQ和SecAlign能将十余种优化无关攻击的成功率降至0%,SecAlign在优化型攻击中表现更佳,将成功率降低了4倍以上,为LLM系统提供了高效且保持实用性的安全保障。
2025-10-21
0
0
0
AI新闻/评测
AI基础/开发
1
2