首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
青云TOP
行动起来,活在当下
累计撰写
524
篇文章
累计创建
321
个标签
累计收到
0
条评论
栏目
首页
AI内容归档
AI新闻/评测
AI基础/开发
AI工具应用
AI创意设计
AI行业应用
AI行业应用
AI相关教程
CG资源/教程
在线AI工具
全网AI资源导航
青云聚合API
注册送免费额度
300+大模型列表
详细的教程文档
关于青云TOP
目 录
CONTENT
以下是
AI基础/开发
相关的文章
2025-10-20
深度学习模型推理的硬件优化与能效挑战:Meta、Google 和 Intel 的新策略
大型语言模型(LLM)的普及带来了巨大的能耗挑战。本文深度解析了Meta、Google和Intel在AI推理硬件优化和能效提升方面的前沿策略。了解Meta如何通过量化和定制化编译器提高效率,Google如何迭代TPU,以及Intel如何利用CPU和Gaudi加速器应对计算瓶颈。重点关注未来能效比的全面考量与软硬件协同发展趋势。
2025-10-20
0
0
0
AI行业应用
AI基础/开发
2025-10-20
传闻:苹果可能在 WWDC 2025 上发布 A18 芯片,或专为 AI 优化
根据最新传闻,苹果可能计划在2025年的WWDC上发布下一代旗舰芯片A18,这款芯片据称将专门为人工智能优化,集成更强大的神经引擎以处理本地AI任务。此举可能预示着Mac和移动设备在AI能力上的重大飞跃,尤其是在生成式AI时代背景下,苹果正加速其硬件布局。
2025-10-20
1
0
0
AI新闻/评测
AI基础/开发
2025-10-20
英伟达宣布:新一代Blackwell GPU架构将不再是“巨型芯片”
英伟达宣布其下一代Blackwell GPU架构将不再采用“巨型芯片”设计,而是回归更具成本效益和灵活性的多芯片设计。首席财务官Colette Kress证实了这一转变,指出该策略旨在平衡性能与制造成本。这一决定标志着AI硬件设计趋势的重要调整,预计Blackwell将继续引领AI计算的性能提升。
2025-10-20
1
0
0
AI新闻/评测
AI行业应用
AI基础/开发
2025-10-20
AI模型也能被“洗脑”!仅需250份文件就能控制ChatGPT回应
Anthropic、英国AI安全研究所和艾伦·图灵研究所的最新联合研究揭示了大型语言模型(LLM)在数据中毒攻击面前的脆弱性。研究发现,攻击者仅需大约250份被污染的文件,就能在参数规模高达130亿的模型中植入“后门”,成功操控模型响应。这一比例仅占总训练数据的极小部分(0.00016%),颠覆了以往认为模型越大越安全的观点。即使后续使用“干净数据”训练,后门依然顽固存在,这要求业界必须立即革新AI模型的安全防护实践。
2025-10-20
1
0
0
AI新闻/评测
AI基础/开发
2025-10-19
NVIDIA RTX PRO 5000 专业显卡首测:竟配备128GB CAMM2内存
戴尔Pro Max 16 Plus专业笔记本首次曝光,搭载英伟达RTX PRO 5000 Blackwell次旗舰专业显卡和酷睿Ultra 9 285HX处理器。该工作站的一大亮点是配备了高达128GB的CAMM2内存,且显卡和内存均支持模块化更换升级。实测数据显示,RTX PRO 5000的3DMark综合性能与RTX 5090仅相差约1%,但在生产力测试中落后16%,主要受限于散热,实际功耗释放仅为125W。这款专业级移动工作站展示了下一代AI计算与专业图形处理的潜力。
2025-10-19
1
0
0
AI基础/开发
AI行业应用
2025-10-19
仅需约1万元!华为Atlas 300I DUO AI推理卡首次拆解:双芯合体 薄如蝉翼
华为Atlas 300I DUO AI推理加速卡首次被拆解,该卡采用特殊的双芯设计,厚度仅18.46毫米,据外媒报道,采购成本约为1400美元(约合人民币1万元),性价比突出。该推理卡融合了通用处理器、AI核心和编解码功能,提供强大的AI推理和视频分析能力。其核心规格包括两颗GPU核心、16个核心,主频1.9GHz,支持PCIe 4.0 x8接口,功耗为150W,INT8算力达到80 TOPS。尽管整体设计和用料相较于NVIDIA同类产品较为基础,但其低成本和国产自主的特性,体现了华为在A...
2025-10-19
1
0
0
AI基础/开发
AI行业应用
2025-10-19
如何在不增加新GPU的情况下,通过优化精度、内存和数据流来加速模型训练的三个方法
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-19
7 个 NumPy 技巧助您实现代码向量化
2025-10-19
2
0
0
AI基础/开发
AI工具应用
2025-10-19
使用PyTorch从零开始构建Transformer模型:10天迷你课程
本10天迷你课程旨在揭示当前大型语言模型(LLM)如ChatGPT背后的Transformer架构原理。课程将带领开发者从零开始,使用PyTorch构建和训练一个小型化的Transformer模型,从而深入理解其工作机制,而非将其视为黑箱。内容涵盖数据准备、BPE分词器训练、位置编码、注意力机制(如GQA)、训练流程及模型使用。课程强调项目实践,适用于具备基础Python和PyTorch经验的开发者,是掌握现代LLM核心技术的绝佳入门指南。
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-19
构建推理缓存以降低高流量LLM应用的成本
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-19
机器学习从业者的智能体AI系统实践指南
本指南为机器学习从业者提供了从传统工作流向生产级智能体AI系统(Agentic AI)转型的全面路线图。智能体AI系统能够独立规划、推理和执行复杂任务,代表了自深度学习以来最重大的变革。文章详细介绍了ReAct、Plan-and-Execute、Reflexion等核心架构模式,并推荐了LangGraph、CrewAI和AutoGen等主流框架。通过构建项目和掌握记忆系统,从业者可抓住这一快速增长领域带来的巨大职业机遇,实现从初级到架构师角色的跨越。
2025-10-19
2
0
0
AI基础/开发
AI工具应用
2025-10-19
使用PyTorch从零开始构建Transformer模型(10天速成课)
本10天速成课程将指导您如何使用PyTorch从零开始设计、构建和训练一个较小的Transformer语言模型,以深入理解大型语言模型(LLM)的工作原理。课程聚焦于模型架构,涵盖数据准备、分词器训练、位置编码、注意力机制等核心组件的实现。通过项目实践,参与者将摆脱将AI视为“黑箱”的认知,掌握Transformer模型从头到尾的构建流程。这对于希望深入了解LLM底层机制的开发者极具价值。
2025-10-19
1
0
0
AI基础/开发
AI工具应用
2025-10-19
处理大型数据集的 7 个 Pandas 技巧
2025-10-19
1
0
0
AI工具应用
AI基础/开发
2025-10-19
调用大型语言模型的 10 个 Python 单行代码示例
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-19
文本数据特征工程的七个技巧
2025-10-19
0
0
0
AI基础/开发
AI工具应用
2025-10-18
在不增加GPU的情况下,加速模型训练的三种方法
2025-10-18
0
0
0
AI基础/开发
AI工具应用
2025-10-18
向量数据库终极指南:为机器学习提供快速、可扩展的相似性搜索
2025-10-18
2
0
0
AI基础/开发
AI工具应用
AI行业应用
2025-10-18
台积电1.4nm工艺A14将于2028年量产:投资3500亿,晶圆报价或达32万元
台积电已向主管部门申请A14(1.4nm工艺)工厂开工,预计2028年量产,投资额高达3500亿元人民币。A14将采用第二代GAAFET晶体管和NanoFlex Pro标准单元架构,相较于N2工艺,有望在相同功耗下提升15%的速度或降低30%的功耗,逻辑密度提升超20%。然而,先进工艺成本高昂,1.4nm晶圆代工报价或将达到4.5万美元,约合每片32万元人民币,这可能使得只有NVIDIA等AI芯片巨头能负担得起,对传统PC和移动处理器厂商构成巨大挑战。
2025-10-18
0
0
0
AI基础/开发
AI行业应用
2025-10-18
通过增强的 BigQuery ML UI 彻底改变 MLOps:无缝的模型创建和管理
Google Cloud BigQuery ML (BQML) 引入了重大的用户界面增强功能,旨在简化端到端机器学习工作流程。这些更新使用户无需离开 BigQuery 控制台即可更轻松地创建、管理和调试模型。新的向导式流程允许直接在 UI 中保存 SQL 查询,从而提高了可重现性。例如,可以针对美国人口普查数据快速训练一个逻辑回归模型来预测收入阶层。此外,通过 ML.PREDICT 函数进行预测现在也更加直观,执行详细信息和执行图表提供了深入的模型性能洞察,标志着 MLOps 流程的重大改进。
2025-10-18
0
0
0
AI基础/开发
AI工具应用
2025-10-18
英伟达GPU用量削减82%!阿里云打造“AI性能压榨魔鬼”,213张卡干1192张卡的活
阿里云在SOSP顶级会议上发布的“Aegaeon”计算池化解决方案,成功解决了AI模型服务中普遍存在的GPU资源浪费难题。该系统通过创新的资源池化技术,打破了GPU与特定模型绑定的低效模式。一项为期三个月的Beta测试显示,服务数十个大型模型时,所需的英伟达H20 GPU数量从1192个锐减至213个,削减幅度高达82%。这项研究成果不仅大幅优化了资源利用率,更揭示了解决并发大语言模型服务高成本问题的有效路径,具有重要的行业意义。
2025-10-18
0
0
0
AI基础/开发
AI工具应用
AI行业应用
1
2
3
4
5
...
11