📢 转载信息
原文链接:https://sspai.com/post/105008
原文作者:Neighbor_Z
前言
Apple Intelligence,又称 Apple 智能,俗称「苹果 AI」,发布(WWDC24,2024 年 6 月)已有一年半的时间,从 iPhone 15 Pro 系列开始境外开发者 Beta 测试,到 iPhone 16 全系以 AI 作为主要卖点时国行仍为「为 Apple 智能预备好」状态,再到 iPhone 17 全系国行激活数量超千万(2025 年 11 月),目前国行 Apple 设备依旧停留在「为 Apple 智能预备好」的阶段。
考虑到 2025 年 11 月底 Apple 短时间内上线又下线的简体中文 Apple Intelligence 问卷,以及各路小道消息暗示 Apple Intelligence 上线国行 Apple 设备的前期工作已经接近尾声,也是时候再来聊聊 Apple Intelligence 了。
目前在国行设备上「体验」Apple Intelligence 的方式有限,由于 Apple Intelligence 在国行设备的长期缺席,大多数用户只能通过有限的视频演示或是图文介绍等方式了解,对其认识可能不够系统、全面、客观,甚至存在一些误区;国行 Mac 可以通过脚本启用 Apple Intelligence,但过程中需要关闭系统完整性保护(SIP),也可能会给系统带来风险,这种方法对普通用户而言存在一定的操作门槛;Misaka26 利用已知漏洞,可以在 iOS/iPadOS 26 Beta 1 及更低版本的设备上,修改销售地区和型号版本来启用 Apple Intelligence,但此举会导致设备面临概率性变砖、丢失全部数据、失去保修等风险,且该漏洞已在 iOS/iPadOS 26 Beta 2 上修复。
故通过以上方式开启了 Apple Intelligence 功能的国行设备暂不在本文的讨论范围。
本文旨在尝试用通俗易懂的语言,从技术角度出发解释 Apple Intelligence 的设计架构、选型合理性以及现阶段所面临的困境,尽最大可能为大家提供一个更全面、更系统理解 Apple Intelligence 的视角。
Apple Intelligence 的架构
虽然本文并不是要介绍「什么是 Apple Intelligence」,但要正确理解 Apple Intelligence 我们还是不可避免地要看看它的架构,最直观、最高效的呈现方式是下图:
上图比较复杂,又非常重要,快速提炼一下:左半边是设备端侧(On-device),右半边是云端服务器(Servers)。
左半边设备端中间的「个人智能系统」(Personal Intelligence System),由三部分组成:语义索引(Semantic index)、App 意图工具箱(App Intents Toolbox)和端侧模型(On-device Models)。
语义索引能够更深入地理解和利用用户的个人数据。这项功能通过创建一个语义索引库,将用户的照片、日历事件、文件、邮件和消息等信息进行组织和索引。通过语义索引,可以实现智能搜索和信息提取。
App 意图工具是面向开发者用于定义配合 Siri、快捷指令或其他系统与 App 功能交互使用的动作。
端侧模型又分为语言模型和图像模型,其中多个小块是语言模型和图像模型被微调为用于不同的任务的微调模型。
引用自知乎,有调整。
注意,「个人智能系统」虽然实际由语义索引、App 意图工具箱和端侧模型三部分组成,但为了下文方便表述我们暂且将它们用「端侧模型」一个词来指代。
不难发现,一些误区例如「Apple Intelligence = 接入 ChatGPT」「Apple 与 Open AI ChatGPT 合作才推出了 AI 功能」中的 ChatGPT,其实压根儿不是 Apple Intelligence 的组成部分,至少不是狭义上 Apple Intelligence 的组成部分。
那么 Apple 为何如此设计 Apple Intelligence?Apple 所指的设备端侧和云端又是怎样分工、怎样协作的?下文将逐步回答这些问题。
「个人智能」的愿景
要讨论 Apple 为何如此设计 Apple Intelligence,我们必须先探讨 Apple 试图解决什么问题。
在 Apple 的视角里,2023 年(Apple Intelligence 发布的前一年)的 AI 浪潮虽然喧嚣,但当时的 AI 工具对普通用户而言,普遍存在三个主要的体验断层:
- 「AI 孤岛」造成的数据割裂。2023 年的 AI 在形式设计上大多无外乎两种——独立的 App 或网页,当你需要 AI 帮你处理工作时,你需要把邮件里的内容拷贝出来粘贴给 AI,再将 AI 的回复拷贝粘贴回邮件。
- 缺乏个人语境。如果一位用户尝试询问 ChatGPT 自己下午是否有空,ChatGPT 将无法回答,因为 ChatGPT 之类的 AI 并没有获取个人日历日程的权限,也不认识用户的朋友或是同事,通用模型拥有海量的世界知识(World Knowledge),但对于用户本身却一无所知。
- 「隐私焦虑」与「云端算力」存在矛盾。承接上一点问题,用户如果需要获得通用 AI 的智能,则需要牺牲一定的隐私数据上传云端。
Apple 在意的是用户体验的连贯性、软硬结合以及用户隐私保护,因此自然不会满足于已有的 AI 方案。不久前微软 Windows 部门的高管表示要进一步推广 Copilot,将 Windows 打造成「智能体操作系统」(链接)。这一言论引来了大波用户的批评和反对,也证明强行将「聊天机器人」式的 AI 大模型同操作系统各处随意缝合并不是可行之路。
客观上来说,AI 算力设备采购不足以及从 Google 转来的前机器学习与 AI 策略主管 John Giannandrea,彼时并未深度融入 Apple 团队、与 Apple 文化/理念不合,也导致了 Apple 难以拿出与竞争对手匹敌的云端大模型;但或许也是「塞翁失马」,大模型方面的弱势促使 Apple 进一步深入技术、仔细思考「什么才是普通用户都想用的 AI」这个问题,避免了重复造「大模型」轮子。
| 针对问题 | 解法 | 对模型的要求 |
|---|---|---|
| 「AI 孤岛」造成的数据割裂 | 在系统各处无缝集成 | 规模小而精 |
| 「通用 AI」缺乏个人语境 | 在上一点基础上建立基于设备的语义索引(Semantic Index)。理解语言、理解屏幕上的内容、日程以及照片库等 | 多模态 |
| 「隐私焦虑」与「云端算力」的矛盾 | 创造一种全新的计算架构。在本地能解决的绝不上云;必须借助云端服务的,则设计一种不留存数据的私有云计算系统 | 以端侧模型为主 |
在明确了针对问题的对应解法,以及对于 AI 模型的要求之后,我们不难发现:即便基于现有的 AI 大模型方案稍加改良修剪,也无法满足 Apple 的需求。从零开始打造 Apple Intelligence 势在必行。
于是 Apple 选择避开与科技巨头在通用大模型参数上的军备竞赛,转而利用其在芯片、操作系统和隐私安全上的自身优势,去构建一个服务个人、与系统深度集成、端侧优先、隐私至上的混合 AI 架构。Apple Intelligence 没有追求万亿级的参数量,而是选择一条更为艰难但务实的道路:端云协同、以端为主。
可以说 Apple 是用短期技术上的劣势,去验证长期上「个人智能」使用场景路线的可行性。
Apple Intelligence 设计的合理性
Apple 选择将端侧模型作为主力,那么现在的 Apple Intelligence 设计合理吗?
要回答这个问题,我们应该要关注 Apple Intelligence 是否达成了上一节提及的、解决 AI 大模型弊病的目标。
设计目标在实现上的合理性
首先是与系统各处的无缝集成。
目前,写作工具可以在几乎所有地方(有文本框的地方)唤出使用、智绘表情几乎能在所有可以发送 emoji 的位置创作 Genmoji,信息、邮件、备忘录、照片以及提醒事项等众多第一方应用都能见到 Apple Intelligence 的影子。用户不需要为了使用 AI 而打断当前的工作流,AI 不再是喧宾夺主的中心,而是「如影随形」的辅助。
第二是多模态。
写作工具、通知总结、邮件智能回复等功能代表 Apple Intelligence 处理文本内容方面的能力,而图乐园、智绘表情、图像魔法棒等则意味着图像内容的能力。然而语义索引功能,即 Apple Intelligence 最重要的功能之一——基于个人场景的情景智能迟迟未能上线,的确令人失望。
第三是全新的计算架构。
在文章开头我们了解到 Apple Intelligence 中间是「个人智能系统」层,主要有「端侧模型」和「云端模型」两部分,且这两部分都是由 Apple 开发并运行在搭载 Apple 芯片的用户设备/Apple 服务器上;同时我们又已知 Apple Intelligence 能本地解决就不上云的策略,端侧模型能够保证个人数据全部在本地处理,并不会被上传到云端遭受数据泄露的风险。
这里一个最典型的例子是,前段时间基于努比亚 M153 的豆包手机助手技术预览版技惊四座,但频繁截图上传服务器推理的运作方式也令大量用户质疑其隐私安全性。在科技媒体 Android Authority 近日对 ARM 的采访中,ARM 高管 Chris Bergey 也完全认同基于端侧 AI 发展方向。
如果用户最关心的操作无法在本地解决,那 Apple 又是怎么设计云端的呢?这里就引出了 Private Cloud Compute(私有云计算,下文简称 PCC)。
PCC 不是普通的云端大模型,而是一个在硬件层面复刻了 iPhone 安全机制(如 Secure Enclave,安全隔区)的服务器集群。当数据被发送至 PCC 处理复杂任务时,数据是「阅后即焚」的。服务器不保留日志、不存储数据,Apple 的工程师没有权限查看。
Apple 甚至开放了 PCC 的镜像供安全研究人员审查。另外,在用户需要请求 ChatGPT 时,系统会弹窗让用户主动确认,尽最大可能保障用户的隐私安全。这种将隐私保障从「政策信任」提升到「代码与架构信任」的做法,目前在业界应该是独一无二的。
此外笔者认为,结合端侧 AI 功能的技术需求和 Apple 自身的价值观至少这两方面的因素来看,Apple Intelligence 的设计还有以下几点值得讨论:
- 不强制依赖网络,各种状态下都能实时响应
- 响应/处理速度
- 用户的学习成本
- 端侧模型的规模与算力/功耗需求
- 商业模式的可持续性
这些内容分别对应端侧需求在实现上的合理性、易用性上的合理性、架构设计与伦理上的合理性以及商业上的合理性,下文将逐一展开。
端侧需求在实现上的合理性
首先是实时响应。
实时响应就要求模型能够离线使用、不依赖于网络,这就意味着模型必然是运行在本地的。这样的设计使得用户免受因网络这种外部因素的干扰,保障体验的一致性和连贯性,消除「连上网络是人工智能设备,断开网络就是智障设备」的可能。
第二是响应速度。
这一点需要与 Apple Intelligence 所能够解决的问题或是使用场景结合来看。例如通知总结、邮件总结这类实时性要求高的功能,端侧模型可以自动完成,用户无需介入,整个体验是无感的。
这类需求如果交给云端大模型去做就会面临需要联网、排队、推理、回传等问题,尽管得益于云端模型更大的规模,其生成结果的准确度会更高一些,仅仅为了提升一点准确度要牺牲大量响应时间,即便抛开整个链路的延迟不谈,从技术角度而言也是不合理的——让一个千亿甚至万亿参数的模型去判断你的通知是否重要、如何总结,不仅是算力的极大浪费(大材小用),更涉及复杂的上下文传递。
故在此处云端模型的综合用户体验反而是更差的。
易用性上的合理性
本节讨论用户的学习成本,或者说上手使用的难度。在探讨这个话题前,我们不妨简单讨论一下如何利用好 AI。你肯定看到过或听说过以下故事或情景:
- 使用不支持多模态的大语言模型处理图像问题。
- 所有提问都开启「深度思考」功能。
- 完全相信 AI 生成的全部内容。
- 忽略 AI 模型 训练所采用数据集/知识库 的日期截止时间。
- ……
导致上述问题的原因可能并不完全在用户,某些 AI 模型/工具本身的设计也是一方面的因素。目前的 AI 潮流强迫用户学习一种新语言——Prompt(提示词)。这不仅增加了认知负荷,也违背了「科技应当服务于大多数人」的初衷。
这反映出云端大模型的特点:能力上限高、使用难度/充分利用的难度高。
我们说通常如果一个人向他人提出问题,往往具备一定思考、描述更加详细全面的问题会有更高的概率获得更详细更高质量的回答。(如何提出更高质量的问题?这里建议阅读「提问的智慧」,虽然「提问的智慧」起初面向程序员编写,但其中的提问思维则可以供各行各业的人士学习。)
这样的道理对于 AI 大模型来说同样适用。即提示词的质量很大程度上会影响 AI 模型输出回答的质量。例如以下两种提示词:
污水处理厂有哪些种类?
请从污水处理厂处理污水的种类、采用的污水净化技术、处理厂的规模等方面介绍一下污水处理厂有哪些种类。
我们可以直观地看到更详细的提问会收获更详细更优质的回答。
又比如 Google 最近推出的令人惊叹的全新图像生成模型 Nano Banana Pro,在此可以给出两个用于生成自行车部件爆炸图(立体装配图,用于示意自行车各零部件的组成和组装的方式)但描述详细程度完全不同的提示词供大家测试:
请生成一张自行车部件爆炸图。
生成一张自行车车架和组件的爆炸视图,技术蓝图风格,采用蓝版印刷,以毫米为单位注释测量值,齿轮和链条已拆卸,透视图,干净的线条,白色背景,16:9比例。
不幸的是,现实中许多人并不一定擅长将自身需求描述清楚,在这样的情况下很难指望 AI 模型输出高质量的结果。因此云端大模型(尤其指「聊天机器人」式的依赖提示词驱动的 AI)并不适合所有人使用。对于大众用户而言,低学习成本的 AI 才是最好的 AI,要求所有人都写长长的提示词可能并不是现代个人 AI 助手的正确发展方向。
目前 iOS 设备已在全球售出超 20 亿台,iOS 覆盖的用户群极为庞大。尽管这其中并非所有设备都支持 Apple Intelligence,但 Apple Intelligence 有潜力触及到的用户规模仍在不断增长。要为世界级用户规模的操作系统无缝地集成 AI 方面的能力,就必须赋予易用性很高的优先级。
事实确实如此,我们看到 Apple Intelligence 是生长在系统里的,不需要用户费尽心思编写提示词。Apple Intelligence 将 AI 能力拆解为具体的 UI 控件。例如在邮件应用中,它并不是给用户一个对话框让用户输入「帮我把这封信的语气改得更专业」,而是直接提供了一个 [重写] 或 [专业的语气] 的按钮;而在邮件的快速回复中,AI 已经提前阅读了对方发来邮件的内容,并针对可能的回复内容设计了易于选择的选项,用户只要快速点选几个选择就可以得到大差不差的一篇智能回复;又譬如图乐园 App,用户不需要编写冗长的生图提示词,而是可以在上方直接选择生图风格、下方选择内容主题,如需为图片添加更多细节,只需在下方简单输入几个关键词即可。

架构设计与伦理上的合理性
通常 AI 模型会对内存、算力提出很高的要求,功耗也是端侧运行模式下重要的考虑因素。Apple 的做法不是加载一个巨大的通用模型,而是先加载一个核心底座模型(Base Model),然后根据任务动态挂载微小的适配器(Adapters):需要处理文本时,系统加载「写作适配器」;涉及图像处理时,系统加载「图像适配器」。
这样的做法有效避免了庞大模型在内存中的长时间驻留,节省了系统内存占用,又有可控的能耗表现。
在将 AI 封装为确定功能选项实现 AI 易用化的同时,Apple Intelligence 虽然损失了 AI 的多种可能性,但同时也给用户带来了可控性。这种可控性使得 Apple Intelligence 符合伦理、避免幻觉(参考 Google AI 曾建议用户「吃石头」、微软警告用户 Win11 的 AI 智能体可能出现「幻觉」现象),也降低了被注入攻击的风险,是一种克制下的安全。
事实上,Apple 在生成式内容上表现得非常谨慎,更多聚焦于「改写」、「总结」已有信息,而不是「凭空创作」。作为拥有超 20 亿活跃设备的厂商,用稳健的 AI 策略来避免 AI 胡言乱语可能更加稳妥。对于面向大众用户的产品而言,也许「不出错」比「惊艳但会发疯」更重要。
商业上的合理性
最后浅谈一下 Apple Intelligence 的商业策略。
在 AI 的大潮下,大量企业都在亏钱做 AI。这是由于大部分企业都押注大模型、云计算,例如 OpenAI 和 Google 为了应对不断增长的请求,需要不断扩展服务器计算卡的规模,同时负担持续上涨的电费;不仅如此,OpenAI 还在用户侧限制使用额度、推出更为细分的 Plus(20 美元/月)和 Pro(200美元/月)计划,不断提高 AI 的入场门槛。
而 Apple Intelligence 的架构设计则可能形成目前最为可持续的 AI 商业模式。Apple Intelligence 的计算主力在用户端,即用户设备中的 Apple 芯片。这使得 Apple 能够专注于 Apple Intelligence 本身的功能开发,并以极低的边际成本提供 AI 服务。即便 Apple Intelligence 也有私有云计算服务,相比起纯云端 AI 服务供应商,Apple 也不需要在云端服务器方面持续大量烧钱。
有报道称,OpenAI 正在试图构建属于 ChatGPT 的应用商店,通过将第三方 App 能力接入到 ChatGPT 的形式,用户可以让 GPT 完成原先需要手动操作的功能。然而目前接入到 ChatGPT 的应用数量比较有限,许多已经接入的应用与大模型配合工作的效果也不太理想。而时至今日 Apple 的 App Store 已经坐拥数百万款 App,如果 App 的开发商能够适配 Apple Intelligence 未来的情景智能功能,Apple 的各系统平台更有机会在更短的时间内形成一个 AI+App 的生态。
另据多方媒体消息,OpenAI 也在积极开发各类硬件产品,意在融入公司已有的 AI 能力,试图将旗下的 AI 推广至更广阔的用户群体。这似乎暗示了软件或服务必须要依赖硬件载体才能获得更好的发展。软硬结合对 Apple 来说则是一贯的强项,Apple Intelligence 的定位是服务好系统、服务好硬件的务实功能,而不是用于拉高公司市值的叙事手段。
Apple Intelligence 可以依托既有的成熟硬件(iPhone、iPad、Mac 等)、成熟系统(iOS、iPadOS、macOS 等),通过系统更新就能实现更广的覆盖和更高效的用户触达,降低了用户使用的门槛;同时 Apple Intelligence 又融于系统的方方面面,它不仅仅是一种「能力」,更是一种「体验」。
所以当我们看到邮件 app 自动标出「优先邮件」、或者在备忘录里随手画的草图被「图像魔法棒」美化成精致插画时,感受到的不是不断修改提示词的疲惫,而是设备本身变得更懂自己的需求了。这是一种极其微妙却又极具粘性的体验,也是那些竞争对手难以复制并超越的「护城河」。
Apple Intelligence 推出至今虽有针对其功能方面的批评,但未见大规模的反对声音或者有关从系统当中彻底移除 Apple Intelligence 功能的讨论。至此我们可以下一个结论:虽然 Apple Intelligence 目前上线的功能仍有不全之处,但是其设计理念和思维总体瑕不掩瑜;Apple 通过工程化手段、硬件垂直整合和隐私架构创新,在功耗、隐私、性能和体验之间找到了一个平衡点。
Apple Intelligence 目前的困境
既然 Apple Intelligence 在技术选型和实现上总体是合理的,那么为什么如今对于 Apple Intelligence 的主流评价是喜忧参半的呢?
抛开一些已被反复提及反复讨论的话题,这里笔者认为还有几个方面的内容值得讨论,分别是边界感问题、短时刺激与长期发展的矛盾、预期管理问题。
边界感问题
前文提到,Apple Intelligence 将多种能力封装为确定性功能选项提高了 AI 工具的易用性,但这也使得 Apple Intelligence 具有明显的边界——选项里的操作全部可用,选项外的可能性一概没有。用户以 Apple 所构画的方式使用 Apple Intelligence 时可以获得流畅连贯的体验,而一旦用户的需求超出了可选项的范围则需要寻求其他方案,就会导致使用体验出现一个明显的割裂。
因此平衡易用性与工具能力是 Apple 需要面对的难题。Apple 或许应逐渐提供更多的选项,亦或是将 Apple Intelligence 在某些方面设计成半开放形式,允许用户在一定范围内进行渐进式的需求明确。
短时刺激与长期发展的矛盾
在云端 AI 大模型领域,每个季度甚至每个月都有新的更强的模型/更好的应用出现。这样的更新节奏不断刺激着用户,并在媒体的进一步催化下,普通用户逐渐习惯于快节奏的模型迭代和不断刷新认知的模型能力上限。
相比之下,受限于 Apple Intelligence 的定位(集成于系统各处的功能)和其本身的迭代节奏,Apple 难以高频率地拿出各不相同又抓人眼球营销材料,让用户直观感受到 Apple Intelligence 的变化。因此验证长期上「个人智能」使用场景路线的可行性,与满足短期刺激上的矛盾在一时间可能无法调和。
预期管理问题
从心理学的角度而言,厂商的营销策略作用于消费者预期管理的有效性会在很大程度上影响产品的销量和评价。例如分析师和爆料人员经常放出新一代 iPhone 可能涨价的信息,这可能导致消费者潜意识地认为下代 iPhone 必然会涨价。然而当新一代 iPhone 正式推出并维持与前代相同的起售价时,消费者可能会对现有的价格表现出更高的接受度。
而若从同样的视角看,Apple Intelligence 的营销则是预期管理失误。Apple 的高管在 WWDC 2024 上详细展示了Apple Intelligence 的所有能力,甚至包括技术团队从 Keynote 演示中首次得知的某些功能。尽管对于 Apple 而言,在 AI 浪潮的压力下急于推出解决方案、回应市场需求的做法存在一定的合理性,但这一详细的展示无疑过度拉高了用户对于 Apple Intelligence 的预期值,以至于当用户实际体验 Apple Intelligence 时,演示内容与实际落地功能之间的落差令用户感到失望。
雪上加霜的是,WWDC 2024 上所展示的重头戏——基于个人场景的情景智能时至今日仍未落地,进一步影响了 Apple Intelligence 的口碑。
一些误区
Apple Intelligence 就是套壳的 ChatGPT?
这可能是最大的误解。前文已经展示了 Apple Intelligence 的架构,它是一个完整的、多层次的技术栈,包含了:
- 端侧模型(On-device Model):处理绝大多数日常、高频、隐私敏感的任务。
- 私有云计算(Private Cloud Compute):处理端侧算力不足的中等复杂度任务。
ChatGPT 至少并不是狭义上 Apple Intelligence 的组成部分,而只是一个可选的第三方扩展。真正的核心智能则完全由 Apple 自研模型驱动。
Apple 需要放弃隐私才能换来 AI 能力的提升?
有人认为 AI 需要海量的数据来训练和调优,Apple 在严格的隐私数据保障情况下无法提升 AI 的能力。
在这里广泛的「数据」概念不能同「隐私数据」混为一谈,并且 AI 的发展与个人的隐私数据理论上不存在对立关系。个人数据是隐私(Privacy),而互联网上公开领域的数据很多是知识(Knowledge)。
用知识来训练 AI 是行业共同的方式,至于 Fine tuning 微调,理论上也不需要个人数据。因为生的(Raw)训练数据要做标记、要经过清洗等前处理才能利用。可以借助已有的 AI 来生成标准化的「伪个人数据」(pseudo data)提高效率。
其次 Apple Intelligence 的主力是端侧模型,能有效保证推理过程中需要用到的敏感数据全部保存在本地。而私有云计算(Private Cloud Compute)则是通过独特的架构设计和开放安全审查保证个人隐私不会妥协。
Apple Intelligence 由于云端模型国内合作伙伴的问题,导致无法落地?
前文已经展示了 Apple Intelligence 的架构,云端模型并非狭义上 Apple Intelligence 的组成部分,且国内已备案商用的云端大模型已有许多选择,并不构成 Apple Intelligence 落地的障碍。
Apple 在 AI 方面已经远远落后?
结合前文的讨论理性地来看,Apple Intelligence 与其他厂商在 AI 领域走不是同一个方向/赛道。
Apple Intelligence 不是一个仓促上马的 App /「聊天机器人」,而是对 iOS、iPadOS 和 macOS 方方面面能力的深度改进;它将 AI 变成了像文件系统、网络协议一样的基础设施。
其他厂商在 AI 大模型本身领先,而 Apple 则是聚焦于软硬结合,专注于个人智能系统的布局。
尾声
作为一名技术爱好者,剥离营销术语、探索底层技术架构是令人兴奋的。
Apple Intelligence 的出现,意味着 AI 不一定是一种需要用户主动探索的「工具」,而可以是一种无处不在的「能力」。Apple Intelligence 不是成为最会写诗的 AI,但它很有可能是第一个真正了解你、尊重你,并且能默默完成日常任务的 AI——然而不完整的落地功能、失误的预期管理也让 Apple Intelligence 暂时不能让人完全满意,对 Apple 而言实现美好的 AI 蓝图还有很长的一段路要走。
最后感谢您读到这里。以上内容仅为笔者基于现有的信息和理解所做的整理和总结,其中难免存在技术错误或理解偏差。个人水平有限,文中若有不当之处,恳请各位前辈和同行不吝指正,以便不断改进与提升。
扩展阅读:Apple Intelligence 面面观:「果味」模型是怎样炼成的?
> 关注 少数派公众号,解锁全新阅读体验 📰
> 实用、好用的 正版软件,少数派为你呈现 🚀
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区