梅宁航发自凹非寺

  量子位报道公众号 QbitAI

  有没有想过让蒙娜丽莎跟着你的表情动,来一番亲切的交流?

你动、蒙娜丽莎跟着一起动,OpenCV这么用,表情口型造假更难防了-风君雪科技博客

  Aliaksandr 的一阶运动模型(First Order Motion Model)可以实现,但是实现过程非常复杂且繁琐。

  一阶运动模型功能强大,可以在未经预训练的数据集上对图像和视频进行特效生成,但代价是安装配置比较繁琐。

  能不能简单一点,再简单一点?

  印度一位程序员阿南德·帕瓦拉(Anand Pawara)设计了基于 OpenCV 实现的实时动画特效。

  毕竟 OpenCV 是成名已久的跨平台视觉库,是事实上的计算机视觉领域的标准库。

  项目中涉及的人脸识别、动作识别和运动跟踪,均在 OpenCV 库中原生支持。

  几天前,阿南德在 GitHub 上开源了完整代码,并给出实现具体过程。

  走过路过,不要错过。

  安装过程

  1、安装依赖模块

  安装依赖模块:

pip install -r requirements.txt

  安装 pytorch 1.0.0 :

pip install torch===1.0.0 torchvision===0.2.1 -f https://download.pytorch.org/whl/cu100/torch_stable.html

  2、下载配置文件(如果不能下载,文件链接在文末)

gdown —id 1wCzJP1XJNB04vEORZvPjNz6drkXm5AUK

  3、运行程序

  运行文件 :

python image_animation.py -i path_to_input_file -c path_to_checkpoint

  针对摄像头的实时特效生成 :

python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar Run application from video file : python image_animation.py -i path_to_input_file -c path_to_checkpoint -v path_to_video_file

  针对既有视频的特效生成 :

python .\image_animation.py -i .\Inputs\Monalisa.png -c .\checkpoints\vox-cpk.pth.tar -v .\video_input\test1.mp4

  如果你想上手试试,只需要调整相关配置文件即可。

  模型分为两种使用模式,一种是较为常规的导入视频常规方法,另外一种就是实时生成视频特效。

  但是,请注意,一定要使用pytorch 1.0.0 版本,因为更高的版本在后端依赖的一阶模型上存在问题。

  按照作者的后续计划,会推出客户端程序,并且会增加假声(deepfake voice)功能。

  立足 OpenCV 的优化

  阿南德所做的工作是简化现有的一阶运动模型(First Order Motion Model),使用 OpenCV 对视频进行特效生成。

  项目的后端支持由 OpenCV 库完成,避免使用复杂的模型,降低使用门槛。

  按照作者观点,使用这个模型只需要对一类数据集进行训练后,便可应用到对其全部事物上去,即具有较好的泛化能力。

  不同于原一阶模型的多个数据集测试效果,现在阿南德实时动态特效模型还只在人脸数据集上进行测试,后续后持续增加其他数据集。

  这个模型的特点是易用,配置非常简单,基本可以开箱即用,即使是训练自己的数据集也会比较简单。

  因为立足于对现有资源进行优化配置,操作简易,功能强大。

  当然,简单也会带来问题,比如现在数据集较为单一,针对的主要是人脸数据集。

  此外,对人脸的轮廓识别效果还不那么令人满意,需要加以改造。

  作者简介

  项目作者阿南德·帕瓦拉(Anand Pawara)是印度 AvenDATA 公司的一名深度学习工程师,现居孟买。

  繁琐的工作自动化,大幅度降低上手的难度。

  完整实现过程连接在下面,如果有兴趣,欢迎自己去试试哟~

  参考链接:

  https://github.com/anandpawara/Real_Time_Image_Animation

  https://m.weibo.cn/1402400261/4508119667605445