【TechWeb】7月29日消息,阿里云宣布通义万相重磅开源,通义万相2.2正式开源,包括开源文生视频Wan2.2-T2V-A14B、图生视频Wan2.2-I2V-A14B、统一视频生成Wan2.2-TI2V-5B。
即日起,用户可在GitHub、HuggingFace、魔搭社区下载模型和代码,也可在通义万相官网和通义APP直接体验。
文生视频模型和图生视频模型均为业界首个使用MoE架构的视频生成模型,总参数量为27B,激活参数14B;同时,首创电影美学控制系统,光影、色彩、构图、微表情等能力媲美专业电影水平。
Wan2.2-T2V-A14B、Wan2.2-I2V-A14B两款模型均由高噪声专家模型和低噪专家模型组成,分别负责视频的整体布局和细节完善,在同参数规模下,可节省约50%的计算资源消耗,在模型能上,通义万相2.2在复杂运动生成、人物交互、美学表达、复杂运动等维度上也取得了显著提升。
统一视频生成Wan2.2-TI2V-5B是一款5B小尺寸的模型,单一模型同时支持文生视频和图生视频,可在消费级显卡部署。
该模型采用了高压缩率3D VAE架构,时间与空间压缩比达到高达 4×16×16,信息压缩率提升至 64,均实现了开源模型的最高水平,仅需22G显存(单张消费级显卡)即可在数分钟内生成5秒高清视频,是目前24帧每秒、720P像素级视频生成速度最快的基础模型。(宜月)
0 条