4月28日,HappyHorse 1.0首发登陆LibTV。
HappyHorse 1.0由阿里巴巴ATH(Alibaba Token Hub)事业群创新事业部开发,此前曾登顶AI研究和基准平台Artificial Analysis的AI Video Arena排行榜。
它依托原生多模态架构,采用音视频联合生成方案,面向广告、电商、短剧、社媒创意等内容生产场景,提供从智能生成到编辑的一体化创作能力。模型支持15秒多镜头叙事、多画幅适配以及1080P超分输出,在画面质感、运镜流畅度、人物真实感这三个长期被视为“AI视频短板”的维度上,都给出了显著的改善。
模型层的突破需要工作流层的承接,否则再好的生成能力也只能停留在"片段演示"。承载HappyHorse 1.0首发的LibTV,正是为这件事准备的。
LibTV是哩布哩布AI(LiblibAI)全新推出的一站式AI视频创作平台。
LiblibAI成立于2023年底,经历了开源视觉创作的爆发期,目前已经成长为中国最大的多模态模型与创作社区——平台整合了图像、视频、3D、LoRA训练等多模态能力,覆盖从灵感生成、视觉设计到动态视频制作的完整AI工作流,孵化了超过2000万AI创作者。2025年10月,LiblibAI完成1.3亿美元B轮融资,是国内AI应用赛道迄今最大的单笔融资。旗下产品包括LiblibAI创作社区、星流、LibTV等。
在基础模型能力逐渐趋同的背景下,LiblibAI一边聚合全球领先的开闭源视频与图像生成模型,一边通过工具整合和创作者激励机制,让模型、场景、创作者三者互相生长。LibTV正是这条路径在视频领域的延伸。
LibTV专为专业AI视频创作者打造,覆盖从剧本创作、角色设计、分镜设计、灯光控制到最终成片的完整制作链路。它的底层逻辑是"无限画布+节点式工作流"——把剧本、分镜、镜头、剪辑组织在同一个空间里,让视频创作从一段段线性操作,变成可以反复修改、复用和编织的结构化流程。这种形态更接近影视工业的真实工作方式,不像传统AI工具那样一问一答。创作者可以在画布上逐步搭建内容,对任意节点进行修改和复用。
不论是最新发布的HappyHorse 1.0,还是不久前的Seedance 2.0,LibTV都做到了全网第一时间首发,展现了公司与模型团队长期稳定的合作关系,以及在产品工程上的敏捷响应能力。现在用户可以在LibTV上直接调用Seedance 2.0、可灵3.0、HappyHorse 1.0等顶级视频模型,以及Midjourney V7、Mureka等多模态模型,覆盖文本、图像、视频、音频四种生成能力。
据了解,LibTV平台上线首日访问量突破10万。未来,LibTV将继续首发接入全球领先的视频与多模态模型,与创作者、品牌和制作团队一道打磨从灵感到成片的每一个环节。



















京公安备11010102004047号