有几个细节:
Finally. 这是一个fake face对个人用户的应用范例,把一个鬼畜视频制作工具,功能性减弱,却把社交性和传播性发挥的很好。
原本的医疗图像、安防监控都是对大公司、技术驱动的,AI和个人用户市场需求的结合或许预示着公共AI(云)算力市场即将火爆起来。
附上版权声明。
不是新鲜玩意儿。github上早就有了:
这个项目实际上是一个利用机器学习来替换视频中的面部的工具,通过运行脚本可以直接使用。
通过收集原图像和替换图像的大量视频和图片素材,将素材剪辑成为段视频,替换data_src.mp4和data_dst.mp4,然后使用一些脚本修改其中的参数,可以得到训练之后的模型,最后会将换脸后的图片合成视频。当然,这个不是最早的技术,2017年左右Deep fakes才算是最早的“换脸”产品,然后在外网势不可挡(后因大量被用于P站,遭到各大“被换脸”女星抵制)。
从本质上来说,类似ZAO这样的“换脸”是一种使用AI深度学习,从而将一张图片中人的脸换到其他人的图片上的技术。事实上,被“换脸”的视频在运行中也是被拆分为图片了,所以它和换脸人的图片要求基本一样,视频要清晰,视频中要只出现被换脸人的一个人的脸,如果有其他人的脸,需要把它去掉。
当然,最开始这项技术对硬件和视频、换脸人图片的质量甚至是数量都有非常高的要求:
硬件方面,尽量1060往上,内存至少8g,这只是标配,在这个标准配置下,图片训练时间至少为6小时。(低于这个配置也可以跑,但质量和耗时就不好估量了)
满足条件后,训练一个AI换脸模型需要3个步骤:
其中,1和3用到了数据预处理,另外3还用到了图片融合技术。所以主要包含的技术框架有:图像预处理、网络模型、图像融合等
具体原理思路为:对于每张脸,都训练一套编码器和相应的解码神经网络。编码时,使用的是第一个人的图片。而解码时,则使用第二个人解码器。
也就是说,既然我们想要将两张脸互换,那么我们可以设计两个不同的解码网络,也就是使用一个编码网络去学习两张不同人脸的共同特征,而使用两个解码器去分别生成他们。
因此,设计一个输入端或者说一个编码器,分别输入两个不同的脸,然后两个解码器,就可以通过隐含层来分别生成两张不同的人脸了。
我预估,接下来的节奏应该是:
借钱 -> 抵押 -> 融资 -> 被起诉 -> 不妥协 -> 被取代 -> 被监管 -> 妥协 -> 融合 -> 变现 -> 离场
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有