Emote Portrait Alive
Emote Portrait Alive简介
Emote Portrait Alive是阿里巴巴发布的EMO,一种音频驱动的AI肖像视频生成框架。输入单个参考图像和声音音频,例如说话和唱歌,Emote Portrait Alive就可以生成具有表情丰富的面部表情和各种头部姿势的声音肖像视频,让照片中的人物根据音频内容自然地张嘴说话或唱歌,面部表情和头部姿态非常逼真。同时,我们可以根据输入视频的长度生成任意持续时间的视频。
Emote Portrait Alive功能和特点:
音频驱动的视频生成:EMO能够根据输入的音频(如说话或唱歌)直接生成视频,无需依赖于预先录制的视频片段或3D面部模型。
高表现力和逼真度:生成的视频具有高度的表现力,能够捕捉并再现人类面部表情的细微差别,包括微妙的微表情,以及与音频节奏相匹配的头部运动。
无缝帧过渡:确保视频帧之间的过渡自然流畅,避免了面部扭曲或帧间抖动的问题,从而提高了视频的整体质量。
身份保持:通过FrameEncoding模块,EMO能够在视频生成过程中保持角色身份的一致性,确保角色的外观与输入的参考图像保持一致。
稳定的控制机制:采用了速度控制器和面部区域控制器等稳定控制机制,以增强视频生成过程中的稳定性,避免视频崩溃等问题。
灵活的视频时长:可以根据输入音频的长度生成任意时长的视频,为用户提供了灵活的创作空间。
跨语言和跨风格:训练数据集涵盖了多种语言和风格,包括中文和英文,以及现实主义、动漫和3D风格,使得EMO能够适应不同的文化和艺术风格。
Emote Portrait Alive应用场景:
唱歌视频生成:输入一张人物肖像照片和唱歌音频,EMO可以生成与音频同步且富有表现力的唱歌视频。
说话视频生成:不仅限于唱歌,还可以处理说话音频,生成与语音同步的说话视频。
多语言支持:支持多种语言的音频输入,能够生成不同语言下的人物肖像视频。
跨风格应用:可以将不同风格(如动漫、3D模型等)的肖像图像与音频结合,生成具有特定风格的视频内容。
Emote Portrait Alive不仅限于处理唱歌的音频输入,还可以容纳各种语言的口语音频。此外,Emote Portrait Alive还能够将过去的老照片、绘画以及 3D 模型和AI生成的内容制作成视频,为它们注入逼真的动作和真实感。