项目简介
本项目是基于PyTorch框架开发的虚拟形象生成系统,其核心功能是依据用户面部动作生成同步的虚拟形象,同时创建虚拟摄像头,让处理后的视频流能传入该虚拟摄像头。项目借助mediapipe库进行面部关键点检测,运用神经网络模型实现面部动作到虚拟形象的转换。
项目的主要特性和功能
- 面部动作捕捉:借助mediapipe库对摄像头捕捉的视频信息进行面部关键点检测,获取面部关键点位置信息。
- 数据处理:设计算法把面部关键点坐标信息转化为面部动作参数,如头部旋转角度、眼睛开闭程度、瞳孔位置、嘴部开闭程度等。
- 虚拟形象构建:采用
talking-head-anime-2-demo
模型,将处理后的动作数据传入神经网络,依据给定人物图片生成对应动作形象。 - 虚拟摄像头创建:利用
Unity Capture
生成虚拟摄像头,并通过pyvirtualcam
库将视频流传入其中。
安装使用步骤
环境配置
确保已安装Python 3.8及以上版本、PyTorch 1.7.1及以上版本,以及其他依赖库,如opencv-python、mediapipe、pyvirtualcam等。
模型准备
下载talking-head-anime-2-demo
模型文件,并将其放置在项目文件夹下。
打包可执行文件
使用pyinstaller
将项目打包为可执行文件,方便在web端或其他视频软件中调用。
运行程序
启动程序后,会自动创建名为VirtualCamera的虚拟摄像头。若视频无法正常显示,可手动运行/vc/Install.bat
安装虚拟摄像头驱动。
测试与调整
运行程序,在web端或其他视频软件中调用虚拟摄像头,查看生成的虚拟形象是否与面部动作同步。
下载地址
点击下载 【提取码: 4003】【解压密码: www.makuang.net】