摘要:2026年4月初,一个名为HappyHorse-1.0的AI视频生成模型以完全匿名的姿态,空降全球权威评测平台Artificial Analysis视频竞技场(Arena)榜首,在文本转视频(T2V)和图片转视频(I2V)的无音频赛道上,全面超越了字节跳动的明星模型Seedance 2.0等一众大厂选手。其最核心的技术突破在于采用视音频联合建模,用单一Transformer同步生成画面与声音,实现了丝滑的口型同步与物理音效。现已证实,其幕后团队是前快手技术负责人张迪领衔的淘天集团未来生活实验室(隶属ATH-AI创新事业部,已独立运营)。目前模型已宣布开源,但公开体验入口尚未正式上线。
HappyHorse-1.0之所以能“屠榜”,靠的不是营销,而是在盲测中硬碰硬的生成质量与独特架构。其特点可概括为以下几点:
模型最初以“匿名选手”身份空降,引发了无数猜测(阿里Wan系列马甲?字节内部测试版?)。谜底现已揭晓:
尽管在纯视觉质量上领先,但HappyHorse并非全能,社区反馈也揭示了一些当前局限:
HappyHorse的出现,标志着AI视频赛道的竞争进入了新阶段:
一句话总结:一匹匿名参赛的“黑马”,用最硬核的联合生成架构和开源策略,搅动了AI视频生成的江湖。它证明了技术本身的力量,也让我们期待,当它真正向所有人开放时,能催生出怎样的创意。
文章来源:本文综合用户提供的原始文档及网络公开信息进行改写与补充,旨在提供清晰的技术产品科普。