怎么给多个视频添加随机的背景图

刷新一次页面换一次图片可以調用到你的网站背景里面去,多炫酷啊刷新一下本页看下效果哦。

说明:随机图片壁纸api调用的是新浪api,速度不用担心图片资源也很哆

手机电脑自动判断,电脑显示适合电脑的壁纸手机显示适合手机的壁纸

api现在已经有几千张图了,每天都在增加大家可以玩玩。

}

绿幕是影视剧中抠图、换背景的利器但如果不在绿幕前拍摄,我们还能完美地转换背景吗华盛顿大学的研究者最近就上传了这样一份论文,不在绿幕前拍摄也能完美轉换视频背景让整个世界都变成你的绿幕。

从作者给出的 demo 可以看到他们的方法效果非常惊艳,即使视频中的人疯狂甩头发也没有影响匼成效果:

做各种动作也没有「穿帮」:

即使人物和背景不好区分、手持镜头稍微晃动时抠图效果也不赖:

目前这篇论文已被 CVPR 2020 大会接收。

在论文中研究者提出了一种创建蒙版(matting)的新方法。多数现有的蒙版方法都需要以绿幕为背景或者手工创建一个三元图(trimap)。当然也有些自动方法不需要三元图,但效果会很差本文提出的这个蒙版方法也不需要三元图,但抠图、换背景效果要更好

当然,达到这麼好的效果是有条件的除了原始图像/视频之外,研究者还要求拍摄者多拍一张不带人物的背景图这一过程要比创建三元图节省很多时間。研究者用对抗损失训练了一个深度网络用来预测蒙版。他们首先利用带有 ground truth 的合成数据训练了一个具有监督损失的蒙版网络为了在鈈加标记的情况下缩小合成图像与真实图像的差距,他们在第一个网络的指导下训练了另一个蒙版网络并通过一个判别器来判断合成图潒的质量。研究者在诸多图像和视频上测试了他们提出的新方法发现这一方法显著优于之前的 SOTA。

在关于这一论文的讨论中我们可以看箌很多潜在的应用场景,比如 vlog(云旅游)、视频会议等

对于广大「烟酒僧」来说,如果导师下次再让你发一段在实验室工(摸)作(鱼)的视频或许也能用得上呢。

系统的输入是一张图像或一个视频图像/视频中的人站在静态的自然背景前,此外还需输入一张纯背景图背景图的获取很简单,只需要让人物走出取景区域然后操作曝光、焦距都已固定的相机进行拍摄(如智能手机相机)。对于手持相机研究者假设相机的移动幅度很小,利用单应性(homography)将背景与给定的输入图像对齐从输入中,研究者还提取了目标人物的软分割对于視频输入,可以添加临近的帧来辅助生成蒙版

在 Adobe 数据集上进行监督训练

研究者首先在 Adobe Matting 数据集(只用不透明物体的图像)上训练了一个深喥蒙版网络。该网络将带有人物的图像 I、纯背景图像 B』、人物 S、相邻帧的时间堆栈 M(可选)的软分割作为输入输出则是一个前景图 F 和一個前景蒙版α。为了生成 S,研究者应用了人物分割、腐蚀(erode)、膨胀(dilate)以及高斯模糊在处理视频时,他们将 M 设为 I 前后相连的两帧设兩帧间隔为 T,则选取的相邻帧为 {I?2T , I?T , I+T , I+2T }这些图像被转换为灰度图,以忽略颜色更加专注于运动信息。如果输入中没有视频研究者就将 M 設定为 {I, I, I, I},这些图像也转化为灰度图将输入集合表示为 {I,B′,S,M},权重参数为θ的网络的运算可表示为:

研究者提出了一个语境转换块(Context Switching blockCS block)网絡,以根据输入图像更有效地结合所有输入信息的特征(见上图 2)举个例子,当人物的一部分背景相似时网络应该更加关注该区域的汾割线索。该网络有四个编码器分别产生 256 个通道的特征图,然后通过应用 1x1 卷积、BatchNorm 和 ReLU 将来自 I 的图像特征分别与 B '、S 和 M 的结合起来为这三对Φ的每一对生成 64 通道特征。最后他们通过 1x1 卷积、BatchNorm 和 ReLU 将这三组 64 通道特征与最初的 256 通道特征相结合,得到编码后的特征并将其传给网络的其怹部分包括残差块和解码器。研究者观察到上述 CS 块架构有助于网络从 Adobe 数据集泛化到实际数据。

其中(F, α) = G(X; θ_Adobe),梯度项α 可以鼓励模型生荿更高锐度的图像

在无标记真实数据上进行对抗训练

虽然研究者提出的 CS 块在结合了数据增广后,显著缩短了真实图像与使用 Adobe 数据集合成嘚图像之间的差距然而,该方法在处理真实图像时仍然存在以下困难:

  • 在手指、手臂、头发附近的背景被复制到蒙版中;

  • 前景重要部分嘚颜色与背景颜色相似;

  • 图像与背景之间没有对齐

为解决以上问题,研究者提出用一种自监督学习方法从未标注的真实数据中训练模型

该方法的主要思路是:蒙版估计中的主要误差会导致在新背景下合成的图片失真。例如不好的蒙版可能会包含一些原图像背景,当在與新背景合成时会将之前背景的一部分内容复制到新背景下于是,研究者训练了一个对抗判别器来区分合成图像与真实图像以此提高蒙版网络的性能。

研究者使用 LS-GAN 框架来训练生成器 G_{Real} 与判别器 D最小化以下目标函数来训练生成器:

当然,我们也可以使用其他任何一种图像汾割网络来替代 Deeplabv3+将分割后的结果保存成扩展名为_masksDL.png 的文件。

之后我们需要对图像进行对齐预处理,即将背景与输入图像进行对齐需要紸意的是,在拍摄图像时我们需要关闭自动对焦与自动曝光功能运行 python test_pre_process.py -i sample_data/input 即可对图像进行预处理。它会自动地对齐背景图片并调节偏置与增益来匹配输入图像。

合成数据集上训练的模型而不是真实的数据(效果最差)。

}

我要回帖

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信