摘要: 快手旗下可灵AI于2025年12月18日发布重大更新,其视频2.6模型正式上线“动作控制”与“音色控制”两大核心功能。此次升级标志着AI视频生成在人物动作与表情的自然度、同步性上取得关键进展,能够实现高难度舞蹈、武术动作的精准复刻,以及面部微表情、口型的同步生成,单次可处理长达30秒的参考视频,为AI视频创作带来全新工作流。
可灵AI此次推出的“动作控制”功能,并非简单的动作迁移,而是一个集成了肢体、表情、口型同步的综合性解决方案。它允许用户上传一段最长30秒的参考视频,AI模型将学习并复刻视频中人物的动作、神态乃至细微的表情变化,并生成一个由新角色(或指定形象)执行这些动作的全新视频。
该功能的突破性体现在三个维度:
根据AI创作者“叶子”的实际测试,可灵2.6的动作控制功能在多种场景下表现卓越。
可灵2.6的更新,尤其是结合同期上线的“音色控制”功能,正在重塑整个AI视频创作流程。过去,创作者需要先生成无声视频,再寻找配音并进行繁琐的后期对口型剪辑。现在,通过“文生视频+语音”或“图生视频+语音”模式,创作者只需输入包含台词的提示词或一张角色图,即可一键生成口型、动作、表情、背景音效完全同步的成片。
这带来了两大核心价值:
尽管功能强大,但要获得最佳效果,仍需遵循一定的创作方法。业内建议,在生成视频时,应尽量具体描述人物的动作过程,使用连贯动词并加入节奏提示。例如,“缓慢地挥手”、“快速转身后停顿两秒”等比模糊指令更能引导AI生成自然的动作。同时,可灵平台内置的“动作平滑”或“高帧率输出”等参数选项,也有助于进一步提升动作的流畅度。
目前,该功能在应对一边做大幅度舞蹈一边精准演唱的“唱跳”场景时,仍有一定挑战,且单次生成时长有限,对制作长篇内容需要分段剪辑。但总体而言,可灵2.6的“动作控制”功能无疑是AI视频生成领域的一次重大进步,它让虚拟角色的“活”起来不再停留于概念,而是进入了可大规模实践的应用阶段。
文章来源:大国Ai导航(daguoai.com)综合自可灵AI官方公告、AI绘梦师叶子评测、PHP中文网技术指南及雪雪实战教案。