Auto Byte

专注未来出行及智能汽车科技

微信扫一扫获取更多资讯

Science AI

关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展

微信扫一扫获取更多资讯

机器之心编辑部报道

不用穿越,也能体验百年前的老北京,这个AI修复视频火爆全网

一段AI修复的视频,让我们体验了一把100年前的老北京。

 小贩叫卖、马车过街,修复后的视频可以清楚地展现熙熙攘攘的市井生活。

作揖问候的场景也清晰可见。

你能想象,这些生动展现百年前国民生活的彩色影像,是使用人工智能技术修复的吗?

近日,这段使用人工智能修复老北京影像的视频在B站和微博上火了,引起了极大的关注。仅在B站上,阿婆主「大谷的游戏创作小屋」上传的这个旧影像修复视频已经获得61.9万的播放量、4.9万点赞。

网友们纷纷感叹「厉害」,视频「清晰连贯」,「让我们看到了100年前的vlog」。

image.png 视频中,阿婆主使用人工智能技术,对民国初年的一段影像进行了上色、修复帧率和扩大分辨率的改动,从而彻底改变了这段100年前老旧影片,让我们能够更为细致地观看100年前人们的生活。

与旧影像对比之后,我们能够对修复效果有更为直观的感受。

视频修复前后在色彩、清晰度方面都有了很大的提升,修复前灰蒙蒙,修复后色彩鲜艳。

那么从技术层面上看,究竟是如何做到这么惊艳的效果的呢?阿婆主表示,他也是参考了海外YouTube博主Denis Shiryae的影像修复教程。

工智能完成了上色、修复帧率、扩大分辨率的步骤。 源视频来自人民日报四年前发布的资料影片,由加拿大摄影师在1920-1929年间拍摄。

影像修复三大步骤

今年年初,Denis 修复1896年经典电影的视频也在海外火了一把。

电影界最著名的短片之一是1896年的一部无声电影《L’Arrivée d’un train en gare de La Ciotat》,画面很简单,只有50秒,描述的是一列火车驶入车站的场景。Denis正式对这个经典的短片进行了AI修复,效果非常不错。下图可以看出修复前后画面的强烈对比:

修复前后2.png 链接:https://www.youtube.com/watch?v=3RYNThid23g

从Denis的网页介绍,我们可以看到整个修复过程主要针对三个核心点:4K分辨率以及60fps的帧数,除此之外还增加了背景颜色和声音的效果。

image.png

DAIN插帧技术

在增加FPS方面,Denis表示他主要应用了由上海交大 Bao Wenbo 等人提出的DAIN插帧技术(参见论文《Depth-Aware Video Frame Interpolation》)。

image.png 项目地址:https://sites.google.com/view/wenbobao/dain

这项研究提出通过探索插帧中的depth cue,来显式地检测遮挡。

研究者开发了一个深度感知的光流投影层来合成中间流(中间流倾向于对距离较近的对象进行采样),并学习层级特征作为语境信息。然后,该模型基于光流和局部插值kernel将输入帧、深度图和语境特征进行变形处理,最后合成输出帧。

DAIN模型的架构如下图所示:

屏幕快照 2020-05-10 下午12.21.51.png

DAIN架构图。给出两个输入帧,DAIN首先估计其光流和深度图,并使用深度感知光流投影层来生成中间流;然后采用自适应变形层(adaptive warping layer),基于光流和空间变化的插值kernel对输入帧、深度图和语境特征进行变形处理;最后,使用帧合成网络生成输出帧。

4K分辨率

自从1998年第一台高清电视投入市场以来,“高清”一直是技术追逐的方向之一。简单罗列几个数字,老式标清电视的分辨率仅为720x480,也就是说一次可显示的内容为345,600像素。高清电视的分辨率为1920x1080,总像素为2,073,600,是标清的6倍,而4K 的3840×2160分辨率则需要8294,400像素。

简单而言,视频修复过程至少需要额外填充600万像素来适应4K高清分辨率,而这种“插值”过程正是AI技术的用武之地,所补充显示的内容皆是基于相邻周边像素所呈现的内容。“插值”过程本质上是一种猜谜游戏,如果让卷积神经网络这类AI技术去发号施令的话会有更优质的反馈效果。

在此展示中,Denis 通过Gigapixel AI软件将分辨率提升至4K,该产品由Topaz Labs开发,目前已进入到成熟的商业阶段。研发之初是为了帮助摄影师在不丢失任何细节的情况下将照片质量提升6倍,将该技术产品化的过程中发现将其应用至视频是完全可行的。不过值得一提是,渲染几秒钟的视频可能需要几个小时的处理时间,感兴趣的朋友可以一试。

DeOldify着色模型

而在着色上,相信社区的大部分读者都知道一个基于GAN的图像着色模型DeOldify。通过下面的对比图,我们可以看到该模型的效果。

image.png

DeOldify基于生成对抗网络,由深度学习研究员Jason Antic开发并维护。自从2018年项目开启以来,DeOldify已经进行了多次迭代。

如果读者们想要尝试,通过以下链接可直接安装使用。

项目地址:https://github.com/jantic/DeOldify

Colab:https://colab.research.google.com/github/jantic/DeOldify/blob/master/ImageColorizerColab.ipynb

数字修复中的AI技术应用要比想像的多

上述图像分辨率补充、FPS提升、色彩填充是数字修复大方向下的三个子环节,而整个影像修复技术处处可见人工智能的身影。

以图像修复为例,一般步骤为:输入图像,检测画面信息及获得画面所有像素并识别受损区域,计算受损区域的像素点优先项,确定优先项最高的为待修复像素块,计算源区域中的匹配块与待修复区域的误差,确定误差值最小的为最佳匹配,进行填充和修复,检测损伤区域是否全部修复,若已修复则输出图像。


image来自机器之心pro

而对视频修复而言,它是基于图像修复演变而来的,也同样是逐帧修复,所以其流程与图像修复类似。

至于图像分辨率提升环节,Denis 通过Gigapixel AI软件进行处理。而实际情况中图像分辨率提升以及图像超分辨率的解决涉及到许多技术细节,如图像配准、图像分割、图像压缩、图像特征提取、图像质量评估等等。而这些子方向的研究在各大AI学术顶会上频频可见。类似地,通过机器学习方法从训练样本集中提取视频中的高频信息模型,从而对填充所需信息进行合理预测,达到提升视频图像分辨率的目的,这样相似的思路层出不穷。

从应用方面来看,高清设备的普及使得对早期的游戏及电影进行重制成为一大需求,图像修复,图像超分辨率等众多修复技术的发展也为该市场提供了一个可持续的解决思路。

最后,在了解完修复旧影像背后的技术后,感兴趣的读者也可以尝试下。说不定,你也能在B站、抖音上火一把。



工程图像增强视频修复图像修复AI
暂无评论
暂无评论~