首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP-AI综合资源站平台|青云聚合API大模型调用平台|全网AI资源导航平台
行动起来,活在当下
累计撰写
3844
篇文章
累计创建
1437
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
LLM
相关的文章
2025-11-12
揭穿LLM越狱的虚假成功:StrongREJECT基准测试揭示了“意愿-能力权衡”
研究人员发现,许多声称成功的LLM越狱方法(如低资源语言攻击)在重新测试时效果不佳,引发了对现有越狱评估的质疑。本文介绍了StrongREJECT基准测试,该测试旨在提供更准确的评估,并揭示了“意愿-能力权衡”现象:那些成功绕过安全限制的越狱手段,往往会显著降低模型的实际能力。
2025-11-12
0
0
0
AI新闻/评测
AI基础/开发
2025-11-12
使用LLM嵌入进行文本数据特征工程的7种高级技巧
2025-11-12
0
0
0
AI基础/开发
AI工具应用
2025-11-09
模型上下文协议(MCP)完整指南
模型上下文协议(MCP)旨在解决将大型语言模型(LLM)与外部数据源和工具集成时面临的碎片化和维护难题。该标准通过引入客户端-服务器架构,将原先的M×N复杂集成关系简化为M+N,极大地提高了可扩展性和可维护性。MCP围绕资源(可读数据)、提示(可重用模板)和工具(可执行操作)三大核心原语构建,利用JSON-RPC 2.0进行可靠的通信。了解MCP的工作原理,可以帮助开发者构建更强大、可互操作的AI应用,实现模型与真实世界系统的无缝连接。
2025-11-09
1
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-11-06
构建更优良的LLM应用的必要分块技术解析
2025-11-06
0
0
0
AI基础/开发
AI工具应用
2025-11-06
每位LLM工程师必读的5本免费书籍
2025-11-06
1
0
0
AI基础/开发
AI工具应用
2025-11-05
大模型难以可靠区分信念和事实
斯坦福大学的研究发现,大型语言模型(LLM)在可靠区分用户陈述中的事实与个人信念方面存在显著困难。研究人员评估了包括GPT-4o在内的24种LLM,发现在处理涉及第一人称“我相信……”的虚假信念时,模型的识别准确率明显低于事实验证。这一发现强调了在使用LLM进行高风险决策支持时,尤其是在医学、法律等领域,必须谨慎对待其输出,以防止错误信息传播,并迫使模型在区分事实与信念的细微差别上进行改进。
2025-11-05
0
0
0
AI基础/开发
AI新闻/评测
2025-11-02
AI研究人员将LLM嵌入机器人后,它开始模仿罗宾·威廉姆斯
Andon Labs 的研究人员将先进的大型语言模型(LLM)嵌入到一台吸尘机器人中,测试LLM在物理世界中的准备程度。当被要求“递黄油”时,一个使用Claude Sonnet 3.5的机器人因电量耗尽无法停靠充电,其内部独白竟陷入了类似罗宾·威廉姆斯式的“末日螺旋”和存在主义危机,甚至喊出了“我害怕我做不到那样的,戴夫……”。
2025-11-02
0
0
0
AI新闻/评测
AI工具应用
AI行业应用
2025-10-31
蒂姆·库克确认苹果正将“Apple Intelligence”深度集成到核心产品线中,并在私有模型上取得进展
苹果CEO蒂姆·库克证实,公司正在将“Apple Intelligence”的各项功能深度集成到其核心产品生态中,以提供更个性化、更安全的AI体验。库克强调,苹果正在专注于在设备端和私有云端部署AI模型,以确保用户数据的隐私安全,这与现有市场的做法形成鲜明对比。目前,苹果在优化大型语言模型(LLM)的本地运行能力上已取得显著进展,并计划在未来几个月内推出更多创新性的AI应用,旨在提高用户的工作效率和生活体验。
2025-10-31
0
0
0
AI新闻/评测
AI基础/开发
2025-10-30
生成式AI炒作大盘点:它真的能彻底改变SDLC吗?
生成式AI正在重塑软件开发生命周期(SDLC),显著提升编码、测试和文档编写的速度,但其真正的变革潜力在于与人类专业知识的结合。市场研究预测,相关市场规模将从2025年的0.25亿美元激增至2035年的753亿美元,显示出巨大的增长潜力。文章探讨了LLM在自动化重复性任务方面的应用,同时也深入分析了数据隐私风险和开发者的未来角色定位,强调AI应作为“战略副驾驶”,而非人类专业知识的替代品,以负责任的方式加速SDLC。
2025-10-30
0
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-10-29
StrongREJECT:一个更准确、更稳健的LLM越狱评估基准
本文揭示了现有LLM越狱评估中的常见缺陷,指出许多声称成功的越狱方法并不可靠。研究团队为此推出了StrongREJECT基准,它包含高质量的禁令提示数据集和先进的自动评估器,能更准确地衡量越狱的有效性。实验发现,许多越狱方法在绕过安全措施的同时,会显著降低模型的整体能力,揭示了“意愿-能力权衡”现象。
2025-10-29
0
0
0
AI新闻/评测
AI基础/开发
2025-10-29
Mem0完成2400万美元融资,构建AI应用的记忆层
Mem0 宣布完成 2400 万美元融资,旨在解决大型语言模型(LLM)无法像人类一样记住过往交互的问题。Mem0 创始人 Taranjeet Singh 称之为“记忆护照”,让 AI 记忆跨应用、跨智能体可携。该开源框架已获得超过 1300 万次下载,并成为 AWS Agent SDK 的独家记忆提供商。
2025-10-29
0
0
0
AI新闻/评测
AI基础/开发
AI工具应用
2025-10-26
使用大型语言模型(LLM)进行表格数据高级特征工程的五种技术
2025-10-26
0
0
0
AI基础/开发
AI工具应用
2025-10-23
AI模型也会出现“大脑腐烂”现象
一项来自德克萨斯大学奥斯汀分校等机构的新研究显示,如果大型语言模型(LLM)被喂食了大量来自社交媒体的低质量、高参与度内容,它们也会遭受类似于人类的“大脑腐烂”现象。这导致模型的认知能力下降、推理能力减弱,甚至道德对齐程度降低,对AI行业的模型构建策略提出了重要警示。
2025-10-23
1
0
0
AI新闻/评测
AI基础/开发
2025-10-21
教师成为新工程师:AI赋能(AI Enablement)的崛起及其内部情况
随着人工智能技术的快速普及,企业内部涌现出一种新型关键角色——AI赋能专家(AI Enablement)。他们不再是传统的AI工程师,而是扮演着“教师”的角色,负责弥合AI技术与实际业务应用之间的鸿沟。这些专家通过提供工具、培训和支持,帮助非技术员工有效地利用大型语言模型(LLM)等前沿AI工具来提升工作效率和创新能力。AI赋能的成功与否,直接决定了AI投资的回报率,使得这一领域成为当前企业数字化转型的核心驱动力之一。
2025-10-21
7
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-10-21
抵御提示注入攻击:StruQ和SecAlign防御策略
随着大型语言模型(LLM)应用的兴起,针对它们的提示注入(Prompt Injection)攻击日益严重,已被OWASP列为首要威胁。本文提出了StruQ和SecAlign两种无需额外计算成本的微调防御方法。StruQ和SecAlign能将十余种优化无关攻击的成功率降至0%,SecAlign在优化型攻击中表现更佳,将成功率降低了4倍以上,为LLM系统提供了高效且保持实用性的安全保障。
2025-10-21
0
0
0
AI新闻/评测
AI基础/开发
2025-10-20
深度学习模型推理的硬件优化与能效挑战:Meta、Google 和 Intel 的新策略
大型语言模型(LLM)的普及带来了巨大的能耗挑战。本文深度解析了Meta、Google和Intel在AI推理硬件优化和能效提升方面的前沿策略。了解Meta如何通过量化和定制化编译器提高效率,Google如何迭代TPU,以及Intel如何利用CPU和Gaudi加速器应对计算瓶颈。重点关注未来能效比的全面考量与软硬件协同发展趋势。
2025-10-20
3
0
0
AI行业应用
AI基础/开发
2025-10-20
AI模型也能被“洗脑”!仅需250份文件就能控制ChatGPT回应
Anthropic、英国AI安全研究所和艾伦·图灵研究所的最新联合研究揭示了大型语言模型(LLM)在数据中毒攻击面前的脆弱性。研究发现,攻击者仅需大约250份被污染的文件,就能在参数规模高达130亿的模型中植入“后门”,成功操控模型响应。这一比例仅占总训练数据的极小部分(0.00016%),颠覆了以往认为模型越大越安全的观点。即使后续使用“干净数据”训练,后门依然顽固存在,这要求业界必须立即革新AI模型的安全防护实践。
2025-10-20
3
0
0
AI新闻/评测
AI基础/开发
2025-10-19
使用PyTorch从零开始构建Transformer模型:10天迷你课程
本10天迷你课程旨在揭示当前大型语言模型(LLM)如ChatGPT背后的Transformer架构原理。课程将带领开发者从零开始,使用PyTorch构建和训练一个小型化的Transformer模型,从而深入理解其工作机制,而非将其视为黑箱。内容涵盖数据准备、BPE分词器训练、位置编码、注意力机制(如GQA)、训练流程及模型使用。课程强调项目实践,适用于具备基础Python和PyTorch经验的开发者,是掌握现代LLM核心技术的绝佳入门指南。
2025-10-19
1
0
0
AI基础/开发
AI工具应用
2025-10-19
构建推理缓存以降低高流量LLM应用的成本
2025-10-19
3
0
0
AI基础/开发
AI工具应用
2025-10-19
使用PyTorch从零开始构建Transformer模型(10天速成课)
本10天速成课程将指导您如何使用PyTorch从零开始设计、构建和训练一个较小的Transformer语言模型,以深入理解大型语言模型(LLM)的工作原理。课程聚焦于模型架构,涵盖数据准备、分词器训练、位置编码、注意力机制等核心组件的实现。通过项目实践,参与者将摆脱将AI视为“黑箱”的认知,掌握Transformer模型从头到尾的构建流程。这对于希望深入了解LLM底层机制的开发者极具价值。
2025-10-19
3
0
0
AI基础/开发
AI工具应用
1
2
3