萧箫发自凹非寺
量子位报道公众号 QbitAI
中国最早的时装秀,是什么样的?
自修复 100 年前的北京影像后,微博博主@大谷 Spitzer这次又用 AI 工具,复原了民国时期的这场「花生骚」(Fashion Show)。
这段视频由福克斯公司拍摄于 1929 年 3 月 4 日,作者采用的源片出自南卡罗莱纳大学影像库(MIRC)馆藏胶片。
视频一出来,网友表示感慨:
「老上海的摩登时尚气息扑面而来。」
「AI 修复后,当时的时装现在看起来也不过时。」
也有网友表示,影视剧中的民国造型和当时实际的造型,果然有区别。
「现代旗袍和民国旗袍,就很不一样。」
「那时候的女性都有点含胸驼背,还是现在昂首挺胸比较自信。」
一起来看看,当时的时装秀是什么样的。
民国时期的名媛时装秀
首先映入眼帘的,是一款短裙形制的晚礼服。
从服装来看,虽然样式简洁,但手工绘制的这些精致图案,为图像增色不少。
接下来,一位留着当时流行发型的模特,带来了一套戚风天鹅绒的晚礼服。
这也是被网友评价称,直到今天都不过时的服装款式。
下面这位出场的模特,在原有的旗袍上,多穿了一件厚厚的貂皮大衣。
这幅打扮看起来,春寒料峭,当时的天气应该还挺冷的。
然而,主持人的晚礼服却是短袖样式,果真是“美丽冻人”。
不过,也并不是所有服装都能被网友所接受。
一开始网友以为,这位模特手上拿着的只是一条普通的围巾,直到她把它打开,披在脖子上时——
那是一只完整的狐狸皮,从耷拉的头、到四只晃动的脚……
有点惊悚。
网友表示,这就真的是上世纪的产物了,如今最多能在爷爷辈的衣柜里看见。
而在服装展示之后,还有当时名媛的发型样式介绍。
听到这口熟悉的粤语腔,才知道在当时的上海,也有许多广东的住民。
除此之外,还有一些有意思的小花絮。
主持人:下面,我们来看一下这位模特……嗯?
上面的这些彩色影像,都是由 AI 技术生成的,掌握了工具使用方法,你也能修复出自己想看的原带影像。
当 AI 成为视频后期
视频作者@大谷 Spitzer 表示,自己修复影像用了 4 个 AI 工具,整体分为补帧、上色、扩分辨率三个环节。
来看看这些AI 版视频后期是怎么修复黑白影片的吧。
「补帧神器」DAIN
DAIN 是上海交通大学开发的插帧算法,让 AI 从普通的视频,「脑补」出高帧率的画面。
视频由一帧帧图像构成,如果拍摄时间间隔较长,在播放时就会产生「卡顿」的效果。
由于技术限制,早期的视频「卡顿」的情况也比较严重。
而插帧算法,简单来说,就是在两帧之间补出画面,让动作变得更丝滑。
想象一下,360fps 的视频,能被插帧到 480fps 的效果,比手机慢动作录像的帧率还高。
这是个开源代码,研究人员甚至打包了一份 Windows 安装程序,即使没有任何 AI 基础,也可以直接拿来用。
这样,早先用胶片录制的视频,现在 AI 可以直接拿来用了。
「上色高手」DeOldify
从软件的名称就可以看出来,这款 AI 软件的目的是「去旧化」。
DeOldify 给旧图像上色的原理,用的是 NoGAN 的技术,这是一种基于 GAN(生成式对抗网络)的训练方法,但细节处理效果更好,渲染也更逼真。
采用 NoGAN 能保证视频着色的稳定性,例如,视频中的同一件衣服,不至于转换成多种颜色。
与此同时,DeOldify 也消除了令人讨厌的副作用(如视频中的闪烁物体)。
「扩分辨率」Topaz
给照片增加分辨率,补充像素细节,Topaz 做到了。
不仅能对图片降噪去颗粒,还可以增加分辨率,让图片看起来更清晰。
不过,这款软件看起来并不开源。
与此同时,作者也采用了DeepMaster软件。
这是一个能增强对比度、消除噪声、超分辨率的框架,基于带有注意力机制的时间卷积网络,在不需要分割的情况下给场视频着色,同时还能保持时间一致性。
至于整体框架流程,则参考了社交媒体上的各种经验贴。
当时,在修复 100 年前的老北京时,整个项目只用了 7 天时间,看起来 AI 的「手艺」也还是不错的。
不过,作者也表示,现在 AI 技术还比较初级,无法完全做到准确修复,比如颜色。
如果这项任务交给懂历史的艺术家,可能会完成得更加准确。
这是 AI 目前还不足的地方,需要不断通过训练加强。
完整版最早时装秀
完整版视频已经放出,据作者说,视频中的声音均为时代原声。
听过视频后,有网友感慨,视频中的主持人英语讲得太好了。
其实,这位「1929 年的小姐姐」名叫施惠珍,是著名外交官施肇基的侄女,也是宋氏兄妹的表弟媳。
其丈夫是国内无线电传讯技术的顶级专家,抗战时立下汗马功劳。
而更多网友表示:在那个时代,只有名媛才穿得起这样的衣服,感谢现在的生活。
参考链接:
https://m.weibo.cn/2395607675/4534262701499369
最新评论