GitHub is where people build software. More than 100 million people use GitHub to discover, fork, and contribute to over 420 million projects.
Make one portrait alive! Contribute to ml-lab/LivePortrait development by creating an account on GitHub.
LivePortrait在生成质量上略弱于基于扩散模型的方法AniPortrait[11],但与后者相比,LivePortrait具有极快的推理效率且需要较少的FLOPs。 拓展 多人驱动:得益于LivePortrait的贴合模块,对于多人合照,LivePortrait可以用指定驱动视频对指定人脸进行驱动,从而实现多人合照驱动,拓宽了LivePortrait的实际应用。 视频链接:https:/...
github项目地址:https://github.com/KwaiVGI/LivePortrait 在线体验网址:https://huggingface.co/spaces/KwaiVGI/LivePortrait 安装步骤 下载源码 解压压缩包,进入项目文件夹内 点击地址栏输入cmd,回车,启动命令提示符界面 创建虚拟环境,输入如下命令: python -m venv venv 如果没安装python的话先安装python,教程:https...
LivePortrait体验地址:https://huggingface.co/spaces/KwaiVGI/LivePortrait 论文:https://arxiv.org/abs/2407.03168 Github:https://github.com/KwaiVGI/LivePortrait 项目主页:https://liveportrait.github.io/ LivePortrait 现已入驻趋动云『社区项目』,欢迎前来体验。
近日,快手可灵大模型团队开源了名为LivePortrait的可控人像视频生成框架,该框架能够准确、实时地将驱动视频的表情、姿态迁移到静态或动态人像视频上,生成极具表现力的视频结果。如下动图所示: 来自网友测试LivePortrait 来自网友测试LivePortrait 快手开源的LivePortrait对应的论文题目为: ...
liveportrait.github.io/ HuggingFace Space一键在线体验:huggingface.co/spaces/K LivePortrait到底用了什么样的技术,能够在全网快速"走红"呢? 一、方法介绍 和当前主流基于扩散模型的方法不同,LivePortrait探索并拓展了基于隐式关键点框架的潜力,从而平衡了模型计算效率和可控性。LivePortrait聚焦于更好的泛化性,可控性...
快手开源LivePortrait,GitHub 6.6K Star,实现表情姿态极速迁移近日,快手可灵大模型团队开源了名为LivePortrait的可控人像视频生成框架,该框架能够准确、实时地将驱动视频的表情、姿态迁移到静态或动态人像视频上,生成极具表现力的视频结果。并且,LivePortrait发布即可用,秉承快手风格,论文、主页、代码一键三连。LivePortrait...
项目主页:https://liveportrait.github.io/ HuggingFace Space一键在线体验:https://huggingface.co/spaces/KwaiVGI/LivePortrait LivePortrait的核心技术 LivePortrait是一种基于深度学习的技术,能够实现高效准确的表情和姿态迁移。这意味着可以将一个人的面部表情和头部姿态实时地转移到另一个人的照片或视频中,无论原始...
論文實作的GitHub:https://github.com/KwaiVGI/LivePortrait 2. 背景與動機 2.1 作者資訊 論文《LivePortrait: Efficient Portrait Animation with Stitching and Retargeting Control》由來自快手科技、中國科學技術大學和復旦大學的研究團隊共同撰寫。作者包括: ...