当前位置: 首页 » 资讯 » 科技头条 » 正文

爆火全网FLUX.2重磅上线,开源版Nano Banana来了!

IP属地 中国·北京 新智元 时间:2025-11-26 14:14:16


新智元报道

编辑:元宇

Black Forest Labs的开源视觉模型FLUX.2上新,这是一款专为现实创意工作流程打造,绝非演示噱头的生产力工具,与前代FLUX.1相比,实现了从「会画」到「懂你要画什么」的跃升。

设计师要解放了!

刚刚,专为真实设计流程打造的视觉AI模式重磅发布。

假设你是一名设计师,正准备做一份产品海报。

按以往流程,你要先找图、修图、调光、排版、对齐Logo、试十几版字体……

等这些都做完了,也许客户或老板早已等得不耐烦了,也许后面还有无穷的改稿等着你。

「不是我没创意,而是时间不够!」

灵光乍现很简单,乍现的灵光落实到执行层大都是耗时费力的苦活累活。

如果有一天你只需要告诉电脑,你想出一份什么样的产品海报,这些苦活累活都有人帮你干了,这是一种什么感觉?

近日,Black Forest Labs推出的一款FLUX.2的视觉模型,让这这件事成为可能。


FLUX.2是一款专为现实创意工作流程打造,绝非演示噱头的生产力工具。

更重要的一点,它是开源的。


更低的价格,纳米香蕉版的品质,妥妥的设计师福利。

不炫技,让前沿视觉AI人人可用

FLUX.2 专为真实世界的创意工作流程打造,而不是只做演示或炫技。

它能够生成高质量图像,并在多个参考图像之间保持角色和风格的一致性;能理解结构化提示词;能阅读与生成复杂文本;能稳定处理光照、布局与Logo……

此外,它还能在最高4兆像素下进行图像编辑,同时保持细节与整体一致性。

这些媲美顶级视觉模型的能力,如今已经全部开源,这与Black Forest Labs的开放核心理念有关:

「我们相信,视觉智能应该由全球的研究者、创作者和开发者共同塑造,而不是集中在少数人手中。」

因此,自2024年创立之日起,他们一直致力于将前沿能力与开放研究结合,发布强大、透明且易组合的开放权重模型,同时为需要规模化、可靠性与自定义的团队提供稳健、可直接投入生产的服务接口。

它们将 FLUX.1 [dev](全球最受欢迎的开放图像模型)与专业级模型 FLUX.1 Kontext [pro] 结合,后者已被Adobe、Meta等团队使用。

Black Forest Labs通过开放核心策略促进实验、降低成本、鼓励审查,并确保能持续地把来开放技术带给更多的人。

FLUX.2

从能画东西,到「懂你要画什么」

FLUX.1作为创意工具已经很强了,能跟随提示词作创意。

FLUX.2的升级,像从「会画画的人」跃迁到「会观察、会分析、会推理的视觉大脑」。

这意味着前沿视觉AI能力正在改变生产流程和成本结构,成为未来创意基础设施中不可替代的组成部分。


所有FLUX.2变体均在一个模型中提供基于文本和多个参考图像的图像编辑功能。

为什么FLUX.2能够懂你要画什么,并且按照你的意思画出来,因为它一次把下列能力组合在了一起:

多参考支持:一次最多读10张参考图像,可以实现目前最佳的角色 / 产品 / 风格一致性。

图像细节与拟真度提升:更高细节、更锐利的纹理、更稳定的光照,适用于产品拍摄、可视化与类摄影应用。

更强文本渲染:复杂排版、信息图、表情包、UI设计稿中的小字现在可以稳定生成。

听得懂复杂指令:更强的提示词遵循能力,对复杂、结构化、多部分提示词与组合约束的执行更稳定。

理解空间与光线:更强世界知识理解,对真实世界、光照逻辑与空间结构的理解更扎实,使生成场景更自然、更符合预期。

高分辨编辑:更高分辨率与更灵活的比例,支持最高4兆像素的图像编辑。


输出多样性:FLUX.2能够生成高度精细的逼真图像以及包含复杂排版的信息图,分辨率最高可达400万像素(4MP)。

开箱即用

FLUX.2模型家族

性价比是FLUX.2模型系列的强项,在各性能层级中以极具竞争力的价格提供业界领先的图像生成质量。

FLUX.2模型家族从完全托管、可直接生产的API,一直到开发者可本地运行的开放权重模型一应俱全。

下面是FLUX.2 [pro]、FLUX.2 [flex]、FLUX.2 [dev] 与 FLUX.2 [klein] 的定位与适用场景:

FLUX.2 [pro]:图像质量达到顶级封闭模型水平,提示词遵循与画面保真度表现一流,同时生成更快、成本更低,实现速度与质量的双赢。可在BFL Playground、BFL API及合作伙伴平台使用。

FLUX.2 [flex]:允许调整步数、引导规模等参数,让开发者在质量、提示词执行力与速度之间自定义平衡。尤其擅长渲染文本与精细细节。可在bfl.ai/play、 BFL API及合作伙伴平台使用。

FLUX.2 [dev]:32B 开放权重模型,由 FLUX.2 基础模型衍生,是目前最强的开放权重图像生成与编辑模型。它将文本生成图像与多图像编辑集成在一个 checkpoint 中。权重已在Hugging Face发布,可使用官方推理代码本地运行。在消费级 GPU(如 GeForce RTX)上,可使用 NVIDIA 与 ComfyUI 合作优化的 fp8 推理版本。你也可以通过 FAL, Replicate, Runware, Verda, TogetherAI, Cloudflare, DeepInfra的API使用 FLUX.2 [dev]。

FLUX.2 [klein](即将上线):开源、Apache 2.0模型,由FLUX.2基础模型尺寸蒸馏而来,比同类从零训练的模型更强、更适合开发者,并保留大量教师模型的能力。可以加入测试计划。

FLUX.2 - VAE:全新的变分自编码器,在可学习性、质量与压缩率之间实现最佳平衡,是所有FLUX.2 flow主干的基础。技术报告已发布,模型在HF上以Apache 2.0许可提供。


使用可变步数生成设计:FLUX.2 [flex] 的「步数」参数允许在排版精度与延迟之间自由权衡。从左到右:6步、20步、50步。


通过可变步数控制图像细节:FLUX.2 [flex] 提供了一个「步数」参数,用于在图像细节和延迟之间进行权衡。从左至右分别为:6 步、20 步、50 步。


FLUX.2 系列以极具竞争力的价格提供顶级图像生成质量,跨不同性能层级都具备最强性价比。



对于开放权重模型,FLUX.2 [dev] 设立了新的业界标准,在文本生成图像、单参考编辑、多参考编辑等方面均达领先水平,并稳定超越所有其他开放权重替代品。

工作原理

FLUX.2基于潜空间的流匹配架构构建,并将图像生成与编辑整合在同一个模型中。

该模型将24B参数的Mistral-3视觉语言模型与rectified flow Transformer 结合。


https://docs.mistral.ai/models/mistral-small-3-2-25-06

VLM提供现实世界知识与语境理解,而Transformer捕捉空间结构、材质特性与构图逻辑,这些是早期架构难以呈现的。

研究人员从零重新训练了模型的潜空间,使其在可学习性与图像质量之间取得更优平衡。

参考资料:

https://x.com/bfl_ml/status/1993345470945804563?s=20%20

https://bfl.ai/blog/flux-2

秒追ASI

⭐点赞、转发、在看一键三连⭐

点亮星标,锁定新智元极速推送!

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。