OmniGen2 相较于其前身 OmniGen 1.0 有了显著的改进,并经过微调,在开源模型中取得了最先进的性能。该模型可以处理和灵活组合各种输入,包括人物、参考对象和场景,以产生新颖且连贯的视觉输出。然而,可能需要多次尝试才能获得满意的结果,并且模型有时不遵循指令。为提高生成质量,用户可以提供高质量的图像,明确说明指令,并优先使用英文提示。
OmniGen2 本地运行时需要 NVIDIA RTX 3090 或具有约 17GB 显存的同等 GPU。但是,对于显存较少的设备,用户可以启用 CPU Offload 来运行模型。通过减小 cfg_range_end 参数可以提高模型的推理性能,这对输出质量影响微乎其微。此外,OmniGen2 支持 TeaCache 和 TaylorSeer 以实现更快的推理,用户可以根据自己的具体用例调整关键超参数以获得最佳结果。

