可灵AI 2.6模型重磅升级:动作控制功能上线,AI视频人物微表情与舞蹈动作迎来革命性突破

Ai资讯1周前发布 大国Ai
143 0 0

摘要: 快手旗下可灵AI于2025年12月18日发布重大更新,其视频2.6模型正式上线“动作控制”与“音色控制”两大核心功能。此次升级标志着AI视频生成在人物动作与表情的自然度、同步性上取得关键进展,能够实现高难度舞蹈、武术动作的精准复刻,以及面部微表情、口型的同步生成,单次可处理长达30秒的参考视频,为AI视频创作带来全新工作流。


一、功能深度解析:从“能动”到“传神”的跨越

可灵AI此次推出的“动作控制”功能,并非简单的动作迁移,而是一个集成了肢体、表情、口型同步的综合性解决方案。它允许用户上传一段最长30秒的参考视频,AI模型将学习并复刻视频中人物的动作、神态乃至细微的表情变化,并生成一个由新角色(或指定形象)执行这些动作的全新视频。

可灵AI 2.6模型重磅升级:动作控制功能上线,AI视频人物微表情与舞蹈动作迎来革命性突破

该功能的突破性体现在三个维度:

  1. 同步性革命:实现了面部表情、口型、上半身及全身肢体动作与参考视频的高度一致,解决了以往AI视频中常见的“音画不同步”或“动作僵硬”的核心痛点。
  2. 复杂度突破:能够驾驭舞蹈、体育竞技、武术散打等高难度、大幅度的复杂动作序列,同时手部精细动作的生成稳定性也得到显著提升,避免了以往“人动手崩”的问题。
  3. 控制力增强:在复刻参考视频动作的基础上,用户仍可通过文本指令对生成画面的风格、场景、视角等进行控制,实现了“参考”与“创作”的结合。

二、实战效果验证:从“结印”到“影帝级微表情”

根据AI创作者“叶子”的实际测试,可灵2.6的动作控制功能在多种场景下表现卓越。

  • 复杂手势复刻:如《火影忍者》中的结印动作,AI模特能够准确地复刻一系列快速、复杂的手部姿势组合,证明了其在精细动作捕捉与重现上的能力。
  • 面部表演迁移:在复刻梁朝伟的影帝级表演片段时,AI生成的人物在面部微表情上取得了显著进步。尽管与真人表演仍有差距,但其在眼神、嘴角等细微之处的表现力已远超以往模型,使得AI角色更具情感深度。
  • 全身舞蹈演绎:对于需要全身协调的舞蹈动作,新功能能够保证肢体动作的流畅与连贯,实现“一镜到底”的30秒完整呈现,大幅降低了舞蹈类AI视频的制作门槛。

三、创作生态革新:重塑AI视频工作流

可灵2.6的更新,尤其是结合同期上线的“音色控制”功能,正在重塑整个AI视频创作流程。过去,创作者需要先生成无声视频,再寻找配音并进行繁琐的后期对口型剪辑。现在,通过“文生视频+语音”或“图生视频+语音”模式,创作者只需输入包含台词的提示词或一张角色图,即可一键生成口型、动作、表情、背景音效完全同步的成片。

这带来了两大核心价值:

  1. 效率跃升:将多环节的串行工作流压缩为一步到位的并行生成,极大缩短了从创意到成片的时间。
  2. 门槛降低:普通用户无需掌握专业的动画绑定或视频剪辑技能,即可制作出动作自然、音画同步的短视频内容,为UGC创作和营销内容生产提供了强大工具。

四、专家建议与优化方向

尽管功能强大,但要获得最佳效果,仍需遵循一定的创作方法。业内建议,在生成视频时,应尽量具体描述人物的动作过程,使用连贯动词并加入节奏提示。例如,“缓慢地挥手”、“快速转身后停顿两秒”等比模糊指令更能引导AI生成自然的动作。同时,可灵平台内置的“动作平滑”或“高帧率输出”等参数选项,也有助于进一步提升动作的流畅度。

目前,该功能在应对一边做大幅度舞蹈一边精准演唱的“唱跳”场景时,仍有一定挑战,且单次生成时长有限,对制作长篇内容需要分段剪辑。但总体而言,可灵2.6的“动作控制”功能无疑是AI视频生成领域的一次重大进步,它让虚拟角色的“活”起来不再停留于概念,而是进入了可大规模实践的应用阶段。


文章来源:大国Ai导航(daguoai.com)综合自可灵AI官方公告、AI绘梦师叶子评测、PHP中文网技术指南及雪雪实战教案。

© 版权声明

相关文章

暂无评论

none
暂无评论...