📢 转载信息
原文链接:https://www.bbc.com/news/articles/c309qv9zglno?at_medium=RSS&at_campaign=rss
原文作者:BBC News
亚马逊Sagemaker现已支持Meta的Llama 3大语言模型
亚马逊云科技(Amazon Web Services,AWS)正在深化其与Meta的合作关系,将其最新的开源大语言模型Llama 3集成到其托管式机器学习服务 Amazon SageMaker 中。
这项更新使得数百万AWS客户能够更轻松地使用Meta最先进的生成式AI模型,用于构建和部署各种应用程序,而无需管理复杂的底层基础设施。
SageMaker对Llama 3的支持细节
AWS表示,通过将Llama 3集成到SageMaker中,客户可以利用该平台的全套工具,包括模型微调(fine-tuning)、安全部署和性能监控,从而加速AI创新。
AWS的这项服务直接提供了对Llama 3 8B和70B参数模型的优化支持,这些模型被认为是当前市场上性能最佳的开源模型之一。
- 简化的部署:客户可以利用SageMaker的JumpStart功能,快速启动Llama 3的实例进行实验和生产部署。
- 高性能优化:SageMaker提供了针对这些模型的特定优化,以提高推理速度和降低运行成本。
- 安全性与合规性:集成在AWS安全生态系统中,确保数据在训练和推理过程中保持安全。
AWS生成式AI服务副总裁达伦·韦斯伯格(Darren Weispfenning)表示:“我们很高兴能将Meta强大的Llama 3模型带到SageMaker上。这使得客户能够利用我们业界领先的MLOps工具,以安全、可扩展的方式,将尖端AI能力快速投入生产。”
开源AI生态系统的竞争
Meta在4月份发布了Llama 3系列模型,旨在与OpenAI的GPT系列和谷歌的Gemini模型竞争。开源社区对这些模型的反应非常热烈,部分原因是它们在性能上非常接近甚至超越了许多闭源模型。
通过将Llama 3集成到SageMaker中,AWS正在积极争取那些希望利用开源模型灵活性的企业客户,这些企业同时又需要AWS提供的企业级规模、稳定性和安全保障。
Meta的生成式AI副总裁詹妮弗·诺克斯(Jennifer Nou)评论道:“我们致力于为开发者提供最强大的工具,让他们能够构建下一代AI应用。与AWS的合作,确保了全球范围内的开发者都能便捷地使用Llama 3,并将其集成到他们信赖的云基础设施中。”
此举被视为云计算巨头之间围绕生成式AI基础设施展开激烈竞争的最新例证。提供对最热门模型的便捷访问,是吸引和留住AI开发者的关键策略。
该支持现已在全球多个AWS区域可用,客户现在可以直接在SageMaker控制台中访问Llama 3的最新版本。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区