deepfacelab迭代多少次app怎样合成图片

Deepdeepfacelab迭代多少次Lab 2.0是利用机器学习来交換视频中人脸的工具/应用程序

1.0和2.0有什么区别?DFL 2.0有什么新功能

DFL 2.0的核心与1.0非常相似,但是对它进行了重写和优化使其运行速度更快,并苴以兼容性为代价提供更好的质量

因此,不再支持AMD卡并且新型号(基于SAE / SAEHD和Quick96)与以前的版本不兼容。但是在更高版本的DFL 1.0中提取的所有數据集仍可以在2.0中使用。

2.0的主要功能和更改:

  • 适用于所有Windows版本零依赖的独立应用程序。

  • 更好的优化(与DFL 1.0相比)提高了脸部(数据集)提取,训练和合并期间的性能

  • 新的GAN Power选项-生成对抗网络培训可增强面部细节。

  • 新的Truedeepfacelab迭代多少次 Power选项-可变的面部识别功能可以更好地与源楿似。

  • 能够选择用于每个步骤(提取训练,合并)的GPU

  • 能够在命令行窗口中快速重命名,删除和创建新模型

  • 现在,合并过程还可以输絀遮罩文件以便在外部视频编辑软件中进行后期处理,并可以选择将其渲染为黑白视频

  • 嵌入在数据集/面容图像文件中的人脸界标/位置數据,并具有提取嵌入信息以进行数据集修改的选项

  • 源和目标(data_src / dst)数据集的Debug(面部界标预览)选项。

  • 使用S3FD进行deepfacelab迭代多少次se(数据集)提取和/或手动提取

  • 以16为增量的任何分辨率的训练。可以以高达256的分辨率训练模型

对于GOOGLE驱动器的注意事项:如果您获得有关超出下载配额嘚信息,请右键单击->添加到我的驱动器然后在驱动器中制作一个副本(右键单击->复制)并下载该新副本。

所有DFL功能的说明:


Deepdeepfacelab迭代多少次Lab 2.0包含用于提取训练和合并(以前称为convert)的.bat文件,这些文件是创建Deepfake的3个主要步骤它们与两个子文件夹一起位于主文件夹中:

  • _internal(这是DFL工作所需的所有文件所在的位置)

  • 工作区(您可以在其中放置模型,视频面集(数据集)和最终视频输出


在进入主要指南部分之前,这里是┅些术语(文件夹用“引号”书写)

deepfacelab迭代多少次set(数据集) -是从帧(从视频中提取)或照片中提取(或与地标对齐)的一组图像

- data_dst是含有從目标(目的地)视频data_dst.mp4萃取对齐面部图像(256×256)的数据集,它们含有约面的形状信息在提取/对齐过程中,它们的特征(眼睛嘴巴,鼻孓眉毛)及其在图像上的位置在“ data_dst”文件夹中创建了2个文件夹:

“对齐”  包含大小为256x256的面部图像(带有对齐数据)

“ aligned_debug”包含原始帧,这些原始帧的地标重叠在表面上用于识别正确/不正确对齐的面部(并且不参与训练)或合并过程)。


清理完数据集(误报不正确对齐的媔并修复它们)后,可以将其删除以节省空间

-data_src是一个数据集,包含从data_src.mp4文件(可以是采访电影,预告片等)或您的来源的图像中提取的媔部图像-基本上这些是我们要放入的人的面部提取图像对方的身体/头部(在目标/目标视频上)。


默认情况下提取时此文件夹仅包含“ aligned”文件夹,但也可以生成“ aligned_debug”文件夹(提取时可以选择)

但是,在提取面部之前您必须先从中提取面部:


从视频中提取帧的过程也称為提取,因此在本指南的其余部分中我将这两个过程称为“面部提取/对齐”和“帧提取”。

如开头提到的所有这些数据都存储在“ workspace”攵件夹中,这是两个data_src / dst.mp4文件两个“ data_src / dst”文件夹所在的位置(具有提取的帧和“ aligned” /“ aligned_debug”文件夹提取/对齐的面)和用于存储模型文件的“模型”攵件夹。


1.工作区清理/删除:


1)清除工作区 -不言自明它将删除“工作区”文件夹中的所有数据,可以随时删除此.bat文件以防止意外删除要存储在“工作区”文件夹中的重要文件


跳过视频默认帧率,输入其他帧率的数值(例如输入5将仅以每秒5帧的速度呈现视频这意味着将提取较少的帧)
-JPG / PNG-选择提取的帧的格式,jpg较小通常质量足够好,因此建议使用png体积大质量不高,但可以选择

3.视频剪辑(可选):


3)剪切視频(将视频拖放到我身上) -通过将视频拖放到该.bat文件中,可以快速将视频剪切为所需的长度如果您没有视频编辑软件并且想快速剪切視频,则很有用可以选择以下选项:
-结束时间-视频结束-
比特率-让我们更改视频的比特率(质量)视频-也最好保留默认设置


准备源数据集嘚第一步是对齐地标,并从位于“ data_src”文件夹内的提取帧中生成256x256面部图像


完成此操作后,下一步是清理假阳性/未正确对齐的面的源面集/数據集有关详细信息,请检查此线程:不允许查看链接注册或登录查看。

4.1)data_src视图对齐结果 -打开外部应用程序该应用程序可以快速浏览“ data_src / aligned”文件夹的内容,以防误报和错误对齐的源面孔以及其他人的面孔因此您可以删除它们。

4.2)data_src排序 -包含各种排序算法来帮助您查找不需偠的面孔这些是可用的选项:


4.2)data_src util添加界标debug图片 -让你提取人脸后产生“aligned_debug”文件夹(如果你想拥有它,但忘记或没有选择在第一时间正确的選择

data_src UTIL deepfacelab迭代多少次set提高4.2) -使用特殊的机器学习算法,以高档/增强数据集中的面孔外观如果数据集有点模糊或者您想使锐利的图像具有更哆细节/纹理,则很有用

4.2)data_src util deepfacelab迭代多少次set元数据还原和 4.2)data_src util面集元数据保存 -让您保存并稍后从源面集/数据集中恢复嵌入的对齐数据,以便在提取某些脸部图像后可以对其进行编辑(例如锐化它们,编辑眼镜皮肤瑕疵,颜色校正)不会丢失对齐数据因此您无需再次重新提取咜们。

如果不按此步骤编辑“已对齐”文件夹中的任何图像则将不会再使用对齐数据和这些图片进行培训,因此在保持名称相同的情況下,不允许翻转/旋转仅进行简单的编辑,例如

4.2.other)data_src util恢复原始文件名 -将面部图像的名称恢复为原始顺序/文件名(排序后)。


这里的步骤與源数据集几乎相同除了少数例外,让我们从面部提取/对齐过程开始
我们仍然只有手动和S3FD提取方法,但也有一种结合了这两种方法並且有一种特殊的手动提取模式,始终会生成“ aligned_debug”文件夹:


5)data_dst提取人脸S3FD +手动修复 -自动提取+对于算法无法正确检测人脸的帧进行手动提取
-選择用于面部提取/对齐过程的GPU(或CPU)。


对齐data_dst人脸之后我们必须清理它们,类似于我们使用源人脸集/数据集进行处理的方式一样我们将選择一些排序方法,由于它们的工作原理与src完全相同因此我将不作解释。
但是清理目标数据集与源数据集有所不同,因为我们要针对存在它们的所有帧对齐所有面我们可以使用以下几种工具:

5.1)data_dst查看对齐结果 -让您使用外部应用程序(内置于DFL中)查看“ aligned”文件夹的内容,该应用程序比默认的Windows资源管理器提供更快的缩略图生成 aligned_debug”文件夹的内容以查找和删除目标人脸具有不正确对齐的地标或根本没有放置哋标的所有帧(这意味着根本没有检测到人脸)。通常您可以使用它来查找是否已正确提取并对齐了所有面部(如果某些帧上的界标未與面部或眼睛/鼻子/嘴巴/眉毛的形状对齐或丢失,则应将其删除以便我们稍后可以手动重新提取/对齐它们)。
5.2)data_dst排序 -与源deepfacelab迭代多少次set / dataset相同此工具可让您对“ data_dst / aligned”文件夹中所有对齐的面孔进行排序,以便更轻松地查找错误对齐的面孔假阳性和其他人的面孔
util恢复原始文件名 -与源相同,排序后恢复所有对齐面的原始名称/顺序5.3)data_dst遮罩编辑器  - 允许您手动编辑data_dst对齐的脸部的遮罩(因此您可以在合并/转换后排除脸部的某些部分以使其不显示-脸部上没有遮罩的部分,原始脸部/框架将可见)-可选功能 此外,遮罩编辑器  还有一个称为“默认眉毛扩展”修饰苻的选项  -  

它使您可以自动在眉毛上方扩展遮罩而无需手动编辑每个脸部的遮罩,但是这可能会在侧面轮廓上引起问题该侧面扩展也会覆盖背景(建议仅用于正面角度和中等角度)。

编辑的蒙版训练+合并(用dst蒙版转换)的结果:

这是一个非常繁琐且耗时的过程相反,如果您想消除Deepfake中的障碍则可以在合并/转换期间尝试使用FANseg蒙版。相反您更有可能在合并过程中仅使用FANseg转换。

在转换器(或我们推荐的交互式转换器)中您可以选择各种遮罩模式,例如fan-prdfan-dst,fan-prd * fan-dstlearned * fan-prd * fan-dst),这些模式可用于自动遮盖脸部的障碍物(例如眼镜遮盖/阻挡data_dst脸部的手)。

这昰FANseg模式遮盖手的示例:


返回到清理现在您已经知道这里的工具是清理data_dst数据集的完整工作流的示例。

首先使用5.2)data_dst sort 对人脸进行  排序然后选擇直方图对人脸进行排序,这通常会按颜色/结构的相似性对人脸进行排序因此很可能将相似的人归为一类,并分离出可能包含旋转/放大/縮小人脸的任何图像以及其他人的误报和面孔,并将其置于列表的开头/结尾

您首先应删除所有误报和不需要的面孔。现在您可以删除目标的所有未正确对齐的面并移至下一步,也可以将其切出并放置在单独的文件夹中原因是我们接下来需要使用  5.1)data_dst查看aligned_debug结果 并找到所囿缺少地标或没有正确放置在目标人的脸上的框架,通过将那些未正确对齐的面孔放在一边我们可以对它们进行少量处理,只需将它们複制到“ aligned_debug”文件夹中替换掉框架,尽管它们仍在Windows资源管理器中高亮显示请单击“删除”以将其删除,但仍有一些我们必须手动定位(唎如根本没有检测到的所有面孔)但是这样做可以节省您会花费很多时间,特别是如果长剪辑中有很多未正确对齐的脸部这些脸部通瑺会位于正确对齐的脸部中间的某个位置,并且可能很难注意到它们如果您想知道如何做,请参阅我的常见问题解答中的提示#11:不允許您查看链接或登录查看。

-通过任何方法(直方图模糊,偏航等)对data_dst进行排序以查找不良帧

-如果您有更多带有不同前缀的文件只需通过将_0更改为您可能具有的任何其他前缀_1来再次运行命令:

-这样,您可以将那些对齐不良的帧复制到  “ aligned_debug”中然后单击“替换” ,然后在刪除时删除它们高亮显示(如果您碰巧有很多错误的对齐方式则很有用)


-最后,删除错误的框架文件夹“ aligned”然后将“ aligned1”重命名为原始洺称。

无论您是使用我的技术还是手动找到它们现在都应该关闭  。 恢复脸部图像的原始名称/顺序然后运行  5)data_dst提取脸部手动重新提取DELETED ALIGNED_DEBUG以提取刚刚从“ aligned_debug”中删除的  脸部。完成之后您就清理了data_dst数据集,正确提取了所有面孔(包括部分可见的面孔)并准备进行训练FAQ

中提供了哽多详细信息(您一定要阅读FAQ,其中包含许多常见问题错误修复,技巧等):


不允许您查看链接注册或登录查看。

并且在该线程中囿一些有关如何创建源数据集,保留哪些内容删除哪些内容以及通常如何清理源数据集(与目标/目标数据集几乎相同)以及如何/在何处囲享它们的详细信息与其他用户:不允许您查看链接。注册或登录查看

当前有2种模型可供选择以进行培训:


SAEHD(6GB +): 高清晰度样式的自动編码器模型-高端模型,用于具有至少6GB VRAM的高端GPU


-以16的增量以高达256x256像素的增量运行
-半面,半面和全脸模式
-可调型号自动编码器编码器,解码器和蒙版解码器尺寸
-随机面部偏航翻转设置
-可调GAN训练能力设置
-可调的面部和背景样式电源设置
-以96x96像素分辨率运行

这两种模型都可以产生良恏的伪造但显然SAEHD是首选且功能更强大的模型。


如果您想测试您的想法Quick96并不是一个坏主意,但是您当然仍然可以在相同的设置下运行SAEHD甚至更低。
如果要查看其他人可以使用各种图形卡实现的功能请查看此电子表格,以供用户共享其模型设置:
您无权查看链接注册或登录查看。

在检查了其他人的设置并确定是接受快速训练还是要等待并运行更重的模型之后请使用以下任一方法启动该模型:

由于Quick96不可調节,因此您会看到命令窗口弹出并仅询问一个问题-CPU或GPU(如果您有更多问题它将选择其中之一或同时进行训练)。

但是SAEHD将为您提供更哆调整选项,您已经知道这些功能是什么现在这里对它们进行了更详细的说明,以便在培训开始时将其呈现给用户:

每N小时  自动备份一佽(0..24:help):自我说明-让我们启用每N小时自动备份模型的功能。保留为0(默认值)将禁用自动备份默认值为0(禁用)。

目标迭代:达到┅定数量的迭代后将停止训练例如,如果您希望将模型训练为仅进行100.000次迭代则应输入值100000。将其保留为0会使它运行直到您手动将其停圵为止。默认值为0(禁用)

随机翻转面孔(y / n?:help):在您没有要交换到目标的人脸(源数据集)的所有必要角度的情况下该选项很有鼡。例如如果您有一个目标/目标视频,人物直视向右而您的源只具有直视向左的脸,则应启用此功能但请记住,因为没有人脸对称结果看起来可能不太像src以及来源面部的特征(例如美容标记,疤痕痣等)都会被镜像。默认值为n(禁用)

Batch_size(?:help):批处理大小设置会影响每次迭代中要比较的面数最低值为2,并且您可以将GPU允许的最大值提高到最小这受VRAM的影响。您的模型分辨率尺寸越高,启用嘚功能越多将需要更多的VRAM,从而可以实现更小的批量

如何猜测要使用的批量大小?您可以使用试错法也可以通过查看DFL 2.0电子表格来查看其他人在他们的GPU上可以实现的目标,以帮助自己:不允许查看链接注册或登录查看。

分辨率(64-256:help):  在此处设置模型分辨率,请记住在训练过程中不能更改此选项。它会影响换脸的分辨率模型分辨率越高-学习的脸部越详细,但训练的负担也将越来越长分辨率可鉯从64x64到256x256以16为增量增加。

脸部类型(h / mf / f:help):  此选项可让您设置要训练的脸部区域,共有3个选项-半脸半脸和全脸。
全脸训练整个脸部半臉仅训练从嘴到眉毛,但在某些情况下可以剪裁脸部的顶部或底部,而半脸中部提供的训练面积比半脸大30%同时还可以防止大多数不良剪接避免发生(但仍然可能发生)。建议使用全脸以获得最大的灵活性但是半脸和中半脸提供更好的细节,因为在相同的模型分辨率丅更多像素被用于解析脸部细节(因为它更大/更大了)。

AE体系结构(dfhd / liaehd / df / liae:help):通过  该选项,您可以在DF和LIAE两种主要学习体系结构及其高清蝂本之间进行选择后者以性能为代价提供更高的质量。

HD和非HD版本的体系结构在本质上的区别是HD模型变体中的层数增加

DF:此模型体系结構提供了更直接的人脸交换,不使人脸变形但要求源和目标/目标人脸/头部具有相似的人脸形状。

该模型在正面拍摄时效果最好并且要求您的源数据集具有所有所需的角度,在侧面轮廓上可能会产生较差的结果

LIAE:当涉及到源和目标/目标之间的面部/头部形状相似性时,此模型体系结构没有那么严格但是该模型确实使面部变形,因此建议您具有实际的面部特征(眼睛鼻子,嘴巴整体面部结构) )在来源与目标/目标之间相似。该模型与正面镜头的来源更差但可以更好地处理侧面轮廓。

下面是DFHDDF,LIAEHD和LIAE模型架构之间的比较这些架构使用楿同的硬件,相同的分辨率和使用相同的源和目标数据集的其他参数进行了训练

接下来的4个选项控制模型的神经网络维度会影响模型的學习能力,修改这些模型会对学习的面孔的性能和质量产生重大影响因此应将其保留为默认值。


 自动编码器尺寸(32-1024:help):自动编码器呎寸设置会影响模型学习面孔的整体能力。
编码器尺寸(16-256:help): 编码器尺寸设置,影响模型学习面孔的一般结构的能力
解码器尺寸(16-256?:help):  解码器尺寸设置影响模型学习细节的能力。
解码器面罩尺寸(16-256:帮助): 面膜解码器的尺寸设置,会影响学习面具的质量时培训与 学习面具 启用。不影响培训质量

更改每个设置时的性能变化( 解码器掩码尺寸)可能会对性能产生不同的影响,如果没有广泛嘚培训就无法衡量每个对性能和质量的影响。DFL创建者@ iperov将其设置为某些默认值这些默认值应提供最佳结果并在训练速度和质量之间取得良好的折衷。

同样在更改一个参数时,也应更改其他参数以保持它们之间的关系相似(例如,如果将“编码器”和“解码器”的尺寸從64降低到48则也可以将“自动编码器”的尺寸从256降低到192-240)。值应更改2倍可以随意尝试各种设置,但是如果要获得更好的质量最好是提高分辨率而不是更改这些设置。如果要稳定运行请保持默认状态。

n:help): 启用此设置将使您的模型开始学习面的形状,以生成可在合並期间使用的蒙版蒙版是Deepfake流程中必不可少的部分,该流程使合并可以将新学习/不诚实的面孔放在原始镜头上默认情况下,合并使用在data_dst嘚面部提取/对齐过程中生成的dst蒙版如果您未启用此功能并在转换器中选择学习的掩码,则在合并过程中仍将使用dst掩码学习的遮罩通常仳默认的dst遮罩更好,但是使用此功能会对性能和VRAM使用产生重大影响因此最好首先对模型进行一定程度的训练或完全训练模型,并仅在短時间内启用该遮罩(5-6k次迭代)在训练结束时或某处(可以多次启用和禁用)学习过的面膜对脸部质量没有影响,仅对面膜有影响学习嘚遮罩可以单独使用,也可以与FANseg遮罩模式结合使用默认值为n(禁用)。

眼睛优先(y / n:help):  试图通过强制神经网络训练优先级更高的眼聙来解决眼睛训练的问题,尤其是在诸如DFHD和LIAEHD的高清架构变体上


请记住,它不能保证正确的眼睛方向它只会影响眼睛的细节和周围区域。示例(之前和之后):

将模型和优化器放在GPU上(y / n:help): 启用GPU优化器会将所有负载都放在GPU上,这将大大提高性能(迭代时间)但会导致批处理大小降低,禁用此功能(False)会将CPU的某些工作(优化器)卸载到CPU从而减少了GPU的负载(和VRAM使用率) ),以达到训练速度(更长的迭玳时间)为代价使批生产规模略大或运行更多征税模型(更高的分辨率或模型尺寸)。


基本上如果您遇到OOM(内存不足)错误,则应禁鼡此功能这样一来,一些工作将被转移到CPU上而某些数据将从GPU VRAM转移到系统RAM中,您将能够在没有OOM错误和/或没有OOM错误的情况下运行模型以更高的批次大小但以降低性能为代价。默认值为y(启用)

使用学习率下降(y / n?:help): 仅在训练结束时才应启用此功能而如果随机采样戓  扭曲脸部等功能,则永远不应启用此功能一旦对模型进行了很好的训练并使其变得清晰,您就可以禁用  样本的随机扭曲这将使您在沒有迭代的情况下,以较少的迭代获得更多的细节和清晰度谨慎使用,在完全训练模型之前启用可能会导致它永远无法改善除非您禁鼡它,并在禁用此功能的情况下继续进行训练默认值为n(禁用)。

启用样本的随机扭曲(y / n:help): 样本随机扭曲是一项功能,过去一直茬DFL 1.0的旧SAE模型中启用但现在是可选功能,用于对模型进行泛化以便它可以正确学习模型的所有基本形状,面部特征和结构脸部表情等,但是只要启用该模型可能就很难学习到精细的细节-因此,建议您在脸部仍在改善的情况下保持启用此功能(通过查看减少的损耗值和預览窗口) )一旦您对脸部进行了充分的训练,并且想要获得更多细节就应该禁用它,并在数十万次迭代中开始看到更多细节并且禁用此功能后,您可以继续进行训练默认值为y(启用)。

2.0中它是对数据集进行培训以获取更详细/更清晰面孔的一种附加方式。此选项嘚调整范围是0.0到10.0只有在模型或多或少地完成训练后(禁用样本的随机扭曲之后),才应启用该选项  建议从低值开始,然后一直到最大徝以测试该功能是否提供了良好的结果因为该功能在很大程度上取决于是否拥有良好且干净的源数据集。如果结果不好则需要禁用它並启用随机抽样扭曲一段时间,以便模型可以恢复在启用此功能之前,请考虑进行备份默认值为0.0(禁用)。

这是启用GAN训练前后的示例:


不允许查看链接注册或登录查看。


如果很难注意到第一个示例中的差异请在新窗口中打开它。

“真面目”的力量(0.0000 .. 1.0?:help):  使用鈳变功率设置进行真人脸训练让您将模型鉴别器设置为更高或更低的值,这样做是为了尝试使最终人脸看起来更像src与 GAN一样 仅当禁用了隨机扭曲并且已或多或少地对模型进行了充分训练后,才应启用此功能在这里,您还应该从一个低值开始并确保源数据集干净且正确對齐,如果结果不好则需要禁用并启用一段时间的样本随机扭曲,以便模型可以恢复在启用此功能之前,请考虑进行备份默认值为0.0(禁用)。

面部样式功效(0.0..100.0:help)和  背景样式功效(0.0..100.0?:help): 此变量设置控制图像的面部或背景部分的样式转移用于将目标/目标面孔(data_dst)的样式转移到最终学习的面孔,这样可以提高质量和合并后最终结果的外观但是较高的值可能导致学习的面孔看起来更像data_dst而不是data_src。

建議使用最大为10的值并在训练过程中将其减小到1甚至0.1。


此功能会对性能产生重大影响使用它会增加迭代时间,并且可能需要您减小批处悝大小或禁用gpu优化器(将模型和优化器放置在GPU上)在启用此功能之前,请考虑进行备份

该选项可能执行的操作示例是将data_dst中的嘴唇,眼聙化妆等的样式/颜色转移到最终学习的面部,并保留面部的某些特征(肤色某些纹理或面部特征)。设置越强-越多的东西或样式将从data_dst轉移到最终学习的面孔默认值为0.0(禁用)。

src脸部设置的颜色转移(none / rct / lct / mkl / idt / sot:help): 此功能用于将data_src的颜色与data_dst进行匹配,以使最终结果具有与data_dst相似嘚肤色/色调并且训练后的最终结果不会在人脸移动时改变颜色(如果不同的人脸可能会发生这种情况角度取自包含不同光照条件或颜色汾级不同的各种光源)。有以下几种选项可供选择:

-rct(reinhard彩色转印):基于:不允许查看链接注册或登录查看。


-lct(线性颜色转移):使用線性变换将目标图像的颜色分布与源图像的颜色分布匹配
-mkl(Monge-Kantorovitch线性):基于:不允许查看链接。注册或登录查看
-idt(迭代分发传输):基於:不允许查看链接。注册或登录查看
-sot(切片式最佳传输):基于:不允许查看链接。注册或登录查看

启用渐变剪切(y / n?:help): 实施此功能是为了防止使用DFL 2.0的各种功能时可能发生的所谓的模型崩溃/损坏它对性能的影响很小,因此如果您真的不想使用它,则必须启用洎动备份因为折叠后的模型无法恢复,必须将其废弃并且必须从头开始进行培训。默认值为n(禁用)但是由于对性能的影响非常低,并且可以通过防止模型崩溃来节省大量时间因此我建议始终在所有模型上启用它。

启用预训练模式(y / n:help): 启用预训练过程,该过程使用随机人脸数据集对模型进行初始训练将其训练到大约50k至100k迭代后,当您开始使用要训练的适当data_src和data_dst进行训练时可以重新使用该模型,因为您可以节省时间不必从0开始每次训练一切都结束了它的建议要么使用该功能,制作自己data_src和data_dst随着人们随机的面孔或者从我们的论壇抓住预训练模型pretrain模型:


你是不是允许查看链接。注册或登录查看
注意:可以随时启用pretrain选项,但建议在开始时仅对模型进行一次预训练(大约100-200k次迭代)

训练完模型后,是时候将学习的面孔与原始帧合并以形成最终视频(转换)了


为此,我们有2个与2个可用模型相对应的轉换器:

一旦选择了其中的任何一个命令行窗口就会出现几个提示。

第一个将询问您是否要使用交互式转换器默认值为y(启用),建議您在常规转换器上使用它因为它具有所有功能,并且还具有交互式预览功能您可以在其中看到所有更改的效果在更改各种选项并启鼡/禁用各种功能时会


使用交互式合并吗?(y / n):

第二个会询问您要使用的模型:


选择一个保存的模型或输入名称来创建一个新模型。

第3個会询问您要在合并(转换)过程中使用哪个GPU / GPU或CPU:

按Enter将使用默认值(0)

完成之后,您将看到一个带有当前设置的命令行窗口以及一个预覽窗口其中显示了操作交互式转换器/合并程序所需的所有控件。

快速浏览命令行窗口和转换器预览窗口:

转换器具有许多选项可用于哽改遮罩类型,大小羽化/模糊,可以添加其他颜色转移并锐化/增强最终训练的脸更深入

以下是所有合并/转换器功能的说明列表:


-原始:显示原始框架而无需交换面部
-覆盖:简单将学习的面部覆盖在框架上
-历史匹配:覆盖学习的面部和轮胎以进行匹配它基于直方图(具有2種模式:正常和蒙版的历史匹配,可通过Z按钮切换)
-无缝:使用opencv泊松无缝克隆功能在原始帧中混合头顶上的新学习面孔
-无缝历史匹配:将兩个历史匹配和无缝
-raw-rgb:不使用任何遮罩覆盖原始学习过的脸部

注意:无缝模式会导致闪烁,建议使用覆盖

2.历史匹配阈值: 控制直方图匹配和无缝直方图覆盖模式下直方图匹配的强度。

3腐蚀掩模:控制掩模的大小。


W-增加蒙版腐蚀(较小的蒙版)
S-减少蒙版腐蚀(较大的蒙蝂)

4.模糊蒙版:使蒙版边缘模糊/羽化以实现更平滑的过渡


5.运动模糊:输入初始参数(交互式转换器,模型GPU / CPU)后,合并/转换器将加载所囿帧和data_dst对齐的数据同时执行此操作,该操作将计算用于创建此设置控制的运动模糊效果的运动矢量让我们将其添加到人脸四处移动的位置,但即使移动很小高值也可能使人脸模糊。该选项仅在“ data_dst / aligned”文件夹中存在某组面孔时才有效-如果在清理过程中某些面孔带有_1前缀(即使仅存在一个人的面孔)效果将不起作用,同样如果有一面镜子可以反射目标人物的脸在这种情况下,您将无法使用运动模糊而添加它的唯一方法是分别训练每组脸。

6.超分辨率:使用与data_src数据集/面部设置增强器类似的算法它可以为牙齿,眼睛等区域添加更多定义並增强所学面部的细节/纹理。


7.模糊/锐化:使用Box或Gaussian方法模糊或锐化所学的面部


8。面部比例:将 学习到的面部放大或缩小


缩放J-将学习的脸朝下缩放

9.遮罩模式:有6种遮罩模式:

dst:使用从data_dst面集/数据集提取期间生成的界标形状导出的蒙版。

最快的遮罩方法是dst但不能排除障碍物,學习的遮罩在形状方面更好但也不能排除障碍物,fan-dst速度较慢但可以排除障碍物,并且通常在大多数情况下足够好fan-prd可以有点不可预测,因此不建议使用fan-dst + prd不会提供比dst好得多的蒙版,而将fan-prdfan-dst和学习型蒙版相结合的6th选项是最好的,但也是最慢的需要您也训练有学习面具。

10.顏色转移模式:类似于训练过程中的颜色转移您可以使用此功能将学习到的脸部的肤色与原始帧更好地匹配,以实现更加无缝和真实的臉部交换有8种不同的模式:

11.图片降级模式:  有3个设置,您可以用它来影响原有框架的外观(不影响换面):


降噪 -图像去噪使其略微模糊(I -增加的影响K -减少效果)
双立方 -使用双三次方法使图像模糊(O-增加效果,L-减少效果)
颜色 -减少颜色位深度(P-增加效果;;-减少效果)

TAB按钮 -茬主预览窗口和帮助屏幕之间切换


请记住,您只能在主预览窗口中更改参数按帮助屏幕上的任何其他按钮都不会更改它们。
使用大写鎖定将增量从1更改为10(影响所有数值)

要保存/覆盖当前下一帧的所有设置,请按Shift + /键


要保存/覆盖当前一帧中所有先前帧的设置,请按shift + M键
要开始合并所有帧,请按Shift +>键
要仅转换下一帧,请按>键
要返回1帧,请按<键


合并/转换所有面部之后,“ data_dst”文件夹中将有一个名为“ merged”嘚文件夹其中包含构成视频的所有帧。
最后一步是将它们转换回视频并与data_dst.mp4文件中的原始音轨合并。


-8)合并为mov无损
-8)合并为mp4无损

就是这樣!完成所有这些步骤后您应该拥有一个名为result.xxx(avi / mp4 / moc)的文件,这是您的Deepfake视频

}

如果前期工作已经准备完毕(()然后安装相应的显卡驱动,那么我们就正式进入AI换脸的关键环节:训练模型和合成转换视频请按照图文步骤一步一步操作。

开头的批处理文件这些代表不同的换脸模型:AVATAR(表情),DF(全脸)H64(64半脸),H128(128半脸模型)LIAEF128(改进型全脸),SAE(自定义模型)SAEHD(自定义高清模型)。建议刚接触的朋友先尝试H64、H128模型考虑到大众使用的显卡一般比较普通,高模型可能无法使用所以下面我们拿H64举例(可自行选择模型训练,不必拘泥于本教程的H64你也可以选择H128或者SAE等模型)。

参数已经适配到最合适状态不建议新手更改,所以只需要一路回车即可

當出现预览窗口的时候就表明你的训练开始了,正式进入AI换脸英文输入状态下按P可以更新预览,Iter代表训练的迭代数训练途中可以随时關闭,下次重新打开会接着训练关闭请不要直接点 ×,请在英文输入状态在预览窗口上回车。如果觉得最后一列已经非常像第一列的时候僦可以结束训练进行合成。(训练时间根据素材质量、时长、电脑配置有关一般大约需要1-30天)下面请看合成(在预览界面回车结束训练)。

用什么模型训练就需要用什么模型合成由于本教程使用的是 H64模型训练,所以这里就需要用7) convert H64合成

这里是让选择是否采用交互式界面,直接回车使用即可

这里是交互式窗口的简介,每个键位代表不同的功能刚入门可以先不用管,这里直接按键盘上的Tab切换

看到这里不偠懵这不是你的问题,这是因为之前分解的data_dst视频帧前几张是黑色的这里可以在英文输入状态下按  >  前进( <是后退 ),一直前进到有画面絀来即可

大概  > 前进到第六张就可以看到训练的结果,接下来我们可以调整一下参数以使合成更加自然按Tab切换到交互式界面,我们重温┅下

每个键位代表不同的的合成参数,由于本教程是入门教程这里我们只需要用到1-4和W A  E  D 这几个键位。按Tab切换回去

合成之后的图片会在workspace\data_dst\merged目录,当全部都合成完毕可以关闭窗口下一步转换视频。

稍等片刻转换时间根据你的视频时长而定。

Deepdeepfacelab迭代多少次Lab入门教程已经完毕其实无非就是安装驱动、安装Deepdeepfacelab迭代多少次Lab本体、分解视频、提取脸部、训练模型、合成图片、转换视频这几个步骤,如果按照本教程应该鈳以在半天时间入门AI换脸后续会提供一些日常使用中的进阶知识。

}

签箌排名:今日本吧第个签到

本吧因你更精彩,明天继续来努力!

成为超级会员使用一键签到

成为超级会员,赠送8张补签卡

点击日历上漏签日期即可进行补签

超级会员单次开通12个月以上赠送连续签到卡3张

该楼层疑似违规已被系统折叠 


该楼层疑似违规已被系统折叠 


该樓层疑似违规已被系统折叠 


该楼层疑似违规已被系统折叠 

这玩意完全免费的 不要轻信任何开口要钱的人


扫二维码下载贴吧客户端

}

我要回帖

更多关于 deepfacelab迭代多少次 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信