📢 转载信息
原文链接:https://blogs.nvidia.com/blog/rtx-ai-garage-flux-2-comfyui/
原文作者:Michael Fukuyama
Black Forest Labs——这家致力于开发视觉生成式人工智能模型的前沿 AI 研究实验室——今日发布了FLUX.2一系列尖端的图像生成模型。
FLUX.2 带来了许多新工具和功能,包括一个多参考功能,可以生成数十个具有照片级真实感细节和更清晰字体的类似图像变体,即使在规模化应用中也是如此。
NVIDIA 已与 Black Forest Labs 和 ComfyUI 合作,在发布时便提供了采用 FP8 量化和针对 RTX GPU 性能优化的模型,将运行所需 VRAM 降低了 40%,并将性能提升了 40%。
这些模型无需特殊软件包即可运行,可直接在 ComfyUI 中使用。
State-of-the-Art Visual Intelligence
FLUX.2 生成的图像即使在放大到 4 兆像素分辨率时也具有照片级真实感,并具有真实世界的照明和物理效果,从而消除了影响视觉保真度的“AI 痕迹”。
这些模型增加了直接的姿态控制功能,可以明确指定图像中主体或角色的姿势,还能在信息图表、用户界面屏幕甚至多语言内容中提供清晰、可读的文本。此外,新的多参考功能允许艺术家选择最多六个参考图像,保持风格或主体的一致性——从而无需进行广泛的模型微调。
有关 FLUX.2 新功能的完整概述,请阅读 Black Forest Labs 的博客。
Optimized for RTX
新的 FLUX.2 模型令人印象深刻,但要求也很高。它们运行一个惊人的 320 亿参数模型,需要 90GB VRAM 才能完全加载。即使使用 lowVRAM 模式——一种允许艺术家一次只加载活动模型的流行设置——VRAM 要求仍然是 64GB,这使得任何消费级显卡都几乎无法有效使用该模型。
为了扩大 FLUX.2 模型的可访问性,NVIDIA 和 Black Forest Labs 合作将模型量化为 FP8,在保证可比质量的同时,将 VRAM 要求降低了 40%。
为了让此模型能在 GeForce RTX GPU 上使用,NVIDIA 与 ComfyUI(一个用于在 PC 上运行视觉生成式 AI 模型的流行应用程序)合作,改进了该应用的内存卸载功能,称为权重流(weight streaming)。
使用升级后的功能,用户可以将模型的某些部分卸载到系统内存中,从而扩展 GPU 上的可用内存——尽管这会带来一定的性能损失,因为系统内存比 GPU 内存慢。
NVIDIA 还与 ComfyUI 合作,优化了模型在 NVIDIA 和 GeForce RTX GPU 上的性能,包括对 FP8 检查点的优化。
立即开始使用 FLUX.2 吧。更新 ComfyUI 并查看 FLUX.2 模板,或者访问 Black Forest Labs 的 Hugging Face 页面以下载模型权重。
在 Facebook、Instagram、TikTok 和 X 上连接 NVIDIA AI PC——并通过订阅 RTX AI PC 通讯 保持了解。
在 LinkedIn 和 X 上关注 NVIDIA Workstation。
🚀 想要体验更好更全面的AI调用?
欢迎使用青云聚合API,约为官网价格的十分之一,支持300+全球最新模型,以及全球各种生图生视频模型,无需翻墙高速稳定,文档丰富,小白也可以简单操作。
评论区