快科技4月1日消息,阿里巴巴今日正式发布图像生成与编辑统一模型Wan2.7-Image,直击当前 AI 生图领域“标准脸”审美疲劳和“色彩盲盒”等痛点。
该模型可实现“千人千面”,捏出“活人感”,全新的“调色盘”功能可精准控制色彩。
即日起,用户可在https://tongyi.aliyun.com/wan/、wan.video网站和阿里云百炼体验Wan2.7-Image,千问App也即将接入。

据介绍,Wan2.7-Image具备文生图、图生组图、图像指令编辑和交互式编辑等全链路能力。
在人类偏好盲测中,“文生图”能力超过GPT-Image1.5和国内主流模型,在文本渲染、照片级成像和世界知识指标上,接近Nano Banana Pro。

针对目前千篇一律的“AI脸”情况,Wan2.7-Image强化了虚拟形象捏脸功能,支持从骨相、眼眸到五官细微处的全方位定制。
例如更换提示词中的脸型(鹅蛋脸、圆脸、方脸、长方脸等)、眼部特征(杏仁眼、深邃眼窝、圆眼、丹凤眼等),实现“千人千面”。

此外,Wan2.7-Image全新支持“调色盘”功能,用户可通过Hex Code,一键提取或输入参考图的各种颜色和占比,并可自由调控颜色的数量和占比,自定义配色方案。

当前,超长文字渲染是AI生图的痛点,容易文字模糊、内容错乱甚至直接漏写。
而Wan2.7-Image对超长文字、表格和复杂公式的渲染可达印刷级,支持12种语言,最高3K tokens的超长文字输入,可输出一页A4纸的论文。

Wan2.7-Image还具备强大的组图生成能力,可生成多达12张,用于批量制作同风格系列图、PPT配图、分镜脚本、电商模特套图及多视角建筑图。

而Wan2.7-Image的多主体一致性最高支持输入9张图片作为参考源,对于合影、电影海报及家具组合图等,可保持风格与特征的统一,告别“抽卡”式创作。

值的注意的是,Wan2.7-Image不只会生图,还更懂图。
在训练数据上,超大规模的异构数据底座涵盖全域品类的视觉素材,还整合了理解类数据。
在模型架构上,模型采用了领先的生成与理解统一模型架构,模型不需费力去猜文字对应的画面。
此外,在数据工程维度,根据图像的布局、文字、光影、拍摄角度和用途等,模型团队构建了多维精细标注体系。
基于更大规模数据及尺寸训练而成的Wan2.7-Image-Pro也同步上线,生成图像的构图更加稳定,语义理解更强更精准。
目前,Wan2.7-Image的强大功能可应用于多个行业。
对于短剧与影视团队,可低成本完成角色设定、动作模仿与特效预览;对于自媒体与内容创作者,可轻松生成多风格封面、OOTD穿搭。
而在电商领域,可裂变生成特写图、不同场景的卖点图,大幅降低拍摄成本;教育和科研从业者也可直接调用模型生成论文配图、信息图表与儿童绘本。
针对时下大火的龙虾热,Wan2.7-Image 现已支持skill调用,让龙虾画画,全面解锁生成模型的应用场景。





京公网安备 11011402013531号