Z-Image
轻量级图片生成引擎

Z-Image 是一款轻量级图片生成工具,采用高效 8-Step 推理架构,在消费级 GPU 上实现快速、高质量的 AI 图像生成,显著降低算力成本。

0/500

Dimensions

示例展示

电影感暗调爵士萨克斯

电影感暗调爵士萨克斯

一张极具电影感的胶片颗粒照片。在一个烟雾缭绕的昏暗老式爵士酒吧里,一位年迈的萨克斯风手正在深情演奏。一束暖黄色的舞台聚光灯从侧面打在他的脸上,在他的身后投射出长长的影子。背景是模糊的、拿着酒杯的观众和闪烁的霓虹灯牌。柯达Portra 400胶片质感。

东京雨夜街头纪实

东京雨夜街头纪实

一张纪实风格的中景照片,拍摄于繁忙的东京涩谷十字路口。雨夜,地面湿滑反射着五光十色的霓虹灯广告牌。一位撑着透明雨伞的年轻女子在人群中回头看向镜头,眼神迷茫。周围是匆忙的行人和出租车。高ISO感光度,带有噪点。

手工制表匠人

手工制表匠人

一位年迈的手工制表匠坐在凌乱的工作台前的纪实照片。他戴着放大镜,正在用镊子小心翼翼地处理微小的齿轮。房间里摆满了古董工具、钟表零件,台灯散发出温暖而凌乱的光线。灰尘和金属质感的每一个细节都很清晰。

唐朝汉服仕女特写

唐朝汉服仕女特写

一位身着华丽唐朝汉服的仕女半身像。她穿着织金刺绣的红色大袖衫,上面绣着精细的牡丹和凤凰图案,丝绸的光泽感极强。她梳着高耸的发髻,戴着金色的步摇。背景是虚化的古典园林和盛开的海棠花。柔和的自然光。

高级时装质感

高级时装质感

一张高级时装编辑摄影照片,模特穿着一套完全由回收材料和编织塑料制成的前卫服装。重点是服装复杂的纹理和层次。她站在粗野主义的混凝土环境中。鲜明的建筑照明强调了服装的几何形状。

吉卜力工作室插画

吉卜力工作室插画

一幅宁静的吉卜力工作室风格数字插画。一座舒适、凌乱的小屋建在一棵巨大古树的树根上。烟囱里升起袅袅炊烟。连绵起伏的绿色山丘和蓬松的云朵在淡蓝色天空中。水彩质感,温暖的色调,温馨的氛围。

复古电影海报《回忆之味》

复古电影海报《回忆之味》

一张虚构的英语电影《回忆之味》(The Taste of Memory)的电影海报。场景设置在一个质朴的19世纪风格厨房。海报主体是一男一女在模糊的雨夜街头擦肩而过的剪影,色彩是浓郁的蓝绿色调。片名使用手写体的白色书法字纵向排列在画面右侧。底部有小字"A FILM BY WONG KAR-WAI"。带有旧纸张和折痕的质感。

自然杂志封面

自然杂志封面

一个垂直的杂志封面设计。主要主题是一张充满活力的蓝色闪蝶停在覆盖露水的绿叶上的微距照片。顶部大号白色无衬线字体标题"生物多样性"。下方副标题为"昆虫的隐秘世界"和"A. Smith摄影"。整体构图干净而引人注目。

极简木椅海报设计

极简木椅海报设计

一张极简风格的产品宣传海报。画面中央是一把设计感的木质椅子,孤零零地放在一个纯白色的无边泳池边。背景是极简的蓝天和海平线。画面上方用细黑体字写着品牌名"NORDIC LIVING",下方写着slogan"Less is More"。光影干净,构图留白。

不仅仅是快,是全面进化

填补了轻量级模型与巨型模型之间的空白,Z-Image-Turbo 在速度、质量和易用性之间找到了完美的平衡点。

原生双语支持

内置 Qwen 3.4B 大语言模型作为大脑。不再有乱码的汉字,无论是书法、招牌还是复杂的中文排版,都能精准渲染。

S3-DiT 单流架构

激进的架构创新。将文本与图像 Token 统一处理,类似 GPT-4 的处理方式,每一分参数都在同时服务于图像生成和语义理解。

Apache 2.0 协议

真正的开源自由。不同于 Flux.1 的商业限制,您可以自由商用、修改、集成,是初创企业和游戏工作室的理想基座。

6B 参数量 黄金平衡点
8 Steps 推理步数 Decoupled-DMD
Qwen 3.4B 文本编码 完美中英双语
12GB 显存需求 无需量化
核心技术解析

S3-DiT:打破模态壁垒

传统模型采用“双流”架构,图像和文本各跑各的。Z-Image-Turbo 采用 可扩展单流扩散 Transformer (S3-DiT)

  • 统一输入流:文本 Token 与图像 Latent 直接拼接。
  • 全参数交互:每一层 Transformer 都在进行深度的图文注意力计算。
  • 解耦分布匹配蒸馏 (Decoupled-DMD):将推理压缩至 8 步的核心算法。
  • CFG 增强:独立优化引导信号,无需高 CFG 值即可获得清晰图像。
Architecture_v1.0
Text Token
+
Img Latent
Unified Transformer Block Self-Attention (All-to-All)
High-Fidelity Output (8 Steps)

为什么选择 Z-Image-Turbo?

在性能、成本与生态之间,我们提供了最优解。

指标Z-Image-TurboFlux.1 (Dev)SDXL Base
参数量6B (黄金平衡)12B (庞大)2.6B
显存需求12GB (原生 BF16)24GB+ (或量化)8GB
推理步数8 步 (Distilled)20-50 步20-50 步
文本编码器Qwen 3.4B (中英双语)T5 + CLIPOpenCLIP
中文排版⭐️⭐️⭐️⭐️⭐️ 完美⭐️⭐️ 较差⭐️ 乱码
开源协议Apache 2.0 (可商用)Non-CommercialOpenRAIL++
单图成本~$0.0029高昂

消费级硬件的福音

得益于 6B 参数规模和 8 步蒸馏技术,Z-Image-Turbo 可以在 RTX 3090/4090 等显卡上实现 2-3 秒的高清出图。对于企业用户,H800 更是能实现亚秒级响应。

Nvidia H800 (Enterprise) < 1 s
RTX 4090 (Consumer High-End) ~ 2.5 s
Flux.1 Dev (RTX 4090) ~ 10 s+

快速上手

# 使用 Diffusers 快速加载

from diffusers import DiffusionPipeline

import torch


# 加载 8-Step Turbo 模型

pipe = DiffusionPipeline.from_pretrained(

  "Tongyi-MAI/Z-Image-Turbo",

  torch_dtype=torch.bfloat16

).to("cuda")


# 生成图像

image = pipe(

  prompt="赛博朋克侦探,雨夜,霓虹灯,中文招牌写着"通义实验室"",

  num_inference_steps=8,

  guidance_scale=1.0 # 蒸馏模型无需高 CFG

).images[0]

常见问题解答

关于模型部署、使用与授权的疑问。

Z-Image-Turbo 对显卡有什么要求?

对于原生精度(BF16)运行,推荐使用 16GB VRAM 或更高的显卡。如果使用 GGUF/NF4 量化版本,8GB VRAM 的显卡也可以流畅运行,且画质损失极小。

它可以用于商业项目吗?

完全可以。 Z-Image-Turbo 采用宽松的 Apache 2.0 许可证。这意味着您可以免费将其用于商业用途,无需支付授权费。

如何书写中文 Prompt?

像与人聊天一样自然即可。得益于 Qwen 3.4B 强大的语言理解能力,您可以使用复杂的中文长句。如果需要生成特定文字,请使用引号包裹。

是否支持 ComfyUI 和 WebUI?

是的。ComfyUI 已实现零日支持(Day-0 Support)。Automatic1111 WebUI 的支持也在开发分支中,预计近期合并。

相比 Flux.1,它的优势在哪里?

Z-Image-Turbo 主要是为了解决 效率易用性 问题。推理速度快了 3 倍,显存占用少了一半,并且对中文的支持远超 Flux。

Z
Z-Image-Turbo

致力于构建基于统一序列建模的下一代高效生成式 AI 范式。