📢 转载信息
原文链接:https://www.bbc.com/news/articles/crl95eg33k1o?at_medium=RSS&at_campaign=rss
原文作者:BBC News
谷歌发布了其最先进的人工智能模型 Gemini 1.5 Pro,这是其在人工智能领域取得的又一个重大飞跃。
该新模型具有 100 万个 Token 的上下文窗口,这是其前身 Gemini 1.0 Ultra 的 10 倍。
这使得 Gemini 1.5 Pro 能够一次性处理更长、更复杂的信息,例如整部小说、数小时的视频或大型代码库。
谷歌认为,这一重大进步将为人工智能在理解、推理和代码生成方面开辟新的可能性。
上下文窗口:处理更多信息
“上下文窗口”是指人工智能模型可以同时处理和记住的信息量。
Token 是模型用来理解文本的单位,可以是一个单词或一个单词的一部分。
谷歌表示,Gemini 1.5 Pro 可以一次性处理高达 100 万个 Token 的信息,这使得它能够深入分析大量数据,而无需像以前的模型那样将信息分解成小块。
例如,它可以接收一整本《指环王》三部曲的文本,并根据情节回答复杂的问题。
它还可以一次性摄入一小时的视频或一万多行代码。
“Gemini 1.5 Pro 首次将长上下文功能带入大规模多模态模型,”谷歌 AI 部门的首席执行官德米斯·哈萨比斯 (Demis Hassabis) 在一篇博文中表示。
“我们正在进入一个新时代,在这个时代,模型可以同时推理大量信息。”
人工智能的未来
在一次演示中,谷歌向 Gemini 1.5 Pro 展示了一段 11 分钟的默片,其中一位喜剧演员表演了一系列动作。
模型能够准确地识别出喜剧演员摔倒的时刻,甚至记住了其中的细节。
谷歌还展示了模型如何能够快速理解一个 3 万多行代码的复杂代码库,并找出其中的一个“错误”。
这表明 Gemini 1.5 Pro 在处理和理解大量非结构化数据方面的能力。
然而,谷歌表示,目前的版本 1.5 Pro 仍然处于测试阶段,只有有限数量的开发者可以访问。
尽管如此,谷歌认为这一技术突破对于未来的 AI 应用至关重要。
研究人员认为,更长的上下文窗口是实现更高级别 AI 的关键一步,因为它允许模型在更广泛的背景下进行思考和推理。
谷歌同时发布了 Gemini 1.5 Flash,这是一个更轻量级的版本,专为需要快速响应的应用而设计,例如聊天机器人或摘要生成。
尽管速度更快,但 Gemini 1.5 Flash 同样支持 100 万 Token 的上下文窗口。
谷歌强调,这些新模型比前代产品在能效方面有了显著提升。
“通过 Gemini 1.5,我们正在为构建下一代人工智能应用奠定基础,这些应用能够理解、总结和分析前所未有的海量信息,”哈萨比斯补充道。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区