deepfacelab是一款非常有意思的人物AI換臉軟件,提供豐富的視頻素材,用戶可以將自己的頭像圖片上傳并替換視頻素材中其他人的臉,然后在軟件內(nèi)對臉型處理一下,你可以使用濾鏡、美白等功能讓自己的臉型看起來更加漂亮,換臉成功后,使你的臉型圖片與視頻人物圖像毫無違和感,人臉融合效果非常棒,幾乎可以以假亂真,一點都看不出很假的感覺。使用這款軟件,可以通過人工智能技術(shù)進行視頻換臉,在制作視頻過程中,你可以將視頻中的人物臉換成你想要的人物臉,它的作用是將視頻里面的人臉換成別人的樣子,舉個例子,視頻里面的人是周星馳,你可以把他的臉換成吳孟達的臉,也可以換成你自己的臉,這樣是不是非常的有趣。你還在為沒有好的換臉軟件而苦惱嗎?小編推薦你來下載deepfacelab AI換臉軟件試試。
使用教程
解壓開你會發(fā)現(xiàn)軟件文件夾內(nèi)有兩個文件夾,和一堆bat批處理指令,下面請看我的介紹:
上圖這張圖是大概2018年6月的版本的列表,新版和舊版總體bat的功能不會差太多(2019/1/3作者更新了1個新算法,目前群內(nèi)大神測試沒太大用)。
另外你如果玩熟練了你可以自己弄一些拿到前面來,這樣會很方便:
我自己挑出來的這些像排序部分,有些是要自己修改bat內(nèi)容的。
記住,bat 批處理文件是可以修改的,文件夾里的只是送你的案例而已。
所有軟件對應的兩邊素材:
A即DST 就是原版的視頻素材,就是身體和背景不換,要換掉臉的視頻
B即SRC 就是要使用到的臉的素材
把兩邊素材稱為A和B的軟件,一般都可以互換方向,但是總體操作都是B臉放A上,SRC臉放DST上
DST和SRC素材都可以是圖片或者視頻
換臉軟件的操作是通過SRC臉圖集,運算出MDOEL,然后放到DST序列圖上,最后把DST序列圖連接為視頻
新手操作流程:
【手動】把DST視頻放到“workspace”文件夾下,并且命名為“data_dst”(后綴名和格式一般不用管)。
下面步驟的文件目錄均在workspace下,如“workspacedata_src”,我將省略為“data_src”
【手動】把SRC素材(明星照片,一般需要700~1500張)放到“data_src”下。
【bat】分解DST視頻為圖片(需要全幀提取,即Full fps),bat序號3.2 你會看到“data_dst”下有分解出來的圖片。
【bat】識別DST素材的臉部圖片,bat序號5 有DLIB和MT兩種分解方式,一般情況建議DLIB,具體差別什么自己摸索,后面不要帶Manual和Debug,這倆一個是手動一個是調(diào)試。
【bat】識別SRC素材的臉部圖片,bat序號4 具體操作同步驟4。
【手動】第4步和第5步識別并對齊的人臉素材在“data_dstaligned”和“data_srcaligned”內(nèi),你需要把這些人臉不正確識別的內(nèi)容刪除,否則影響MODEL訓練結(jié)果,如果臉圖特別小,或者翻轉(zhuǎn)了,那么基本判定為識別錯誤,但是要說明的是,DST臉超出畫面的半張臉需要留著不要刪除,SRC臉超出畫面基本沒用,直接刪除吧。
刪除SRC錯誤臉圖前可以使用bat序號4.2系列的排序,直方圖排序和人臉朝向排序可以較為方便地找出錯誤人臉,這屬于進階內(nèi)容,具體不給教程,有需要自己Baidu翻譯一下。
【bat】現(xiàn)在你已經(jīng)有DST的序列幀(圖片)素材和SRC的臉部(圖片)素材了,你需要運行MODEL訓練,bat序號6 一樣也是有好多種MODEL,目前建議新手直接跑H128的MODEL(除非你的顯卡比較差,那就跑H64)其他MDOEL算法請看GitHub上的介紹。
跑MODEL是可以中斷的,在預覽界面按回車鍵,軟件會自動保存當前進度,MDOEL文件在“model”文件夾下,不同的MODEL文件名不一樣,建議定期備份MODEL,并建議SRC專人專用MODEL
【bat】上面MODEL如果是第一次跑,可能需要10+小時才有合理的效果,結(jié)束訓練后請運行MODEL導出合成圖,bat序號7 這里就根據(jù)你的MODEL類型來運行就好了
這里會出現(xiàn)一個問題就是軟件會在DOS界面給你好多好多選項,請看下文“導出合成圖的選項”。
【bat】導出圖片后需要把圖片轉(zhuǎn)成視頻,那么就運行 bat序號8 就行了,根據(jù)你要的最終格式來定。
導出合成圖的選項
所有選項直接按回車即使用標注的默認選項(default)
第一個問答是問你要哪個合成模式,可以理解為:
1、普通
2、普通+直方圖匹配
3、無縫(默認)
4、無縫+直方圖匹配
可能每個視頻需要的效果都不一樣,一般情況我個人建議用:1普通
請注意保留源素材
不論哪款軟件,流程結(jié)束后建議復制并分類保留:
SRC素材(臉圖或原圖)
MODEL(丟了就浪費10小時了)
功能特色
1、可單獨使用,具有零依賴性,可與所有Windows版本的預備二進制文件(CUDA,OpenCL,ffmpeg等)一起使用。
2、新型號(H64,H128,DF,LIAEF128,SAE,惡棍)從原始的facewap模型擴展而來。
3、新架構(gòu),易于模型試驗。
4、適用于2GB舊卡,如GT730。在18小時內(nèi)使用2GB gtx850m筆記本電腦進行深度訓練的示例
5、面部數(shù)據(jù)嵌入在png文件中(不再需要對齊文件)。
6、通過選擇最佳GPU自動管理GPU。
7、新預覽窗口。
8、提取器和轉(zhuǎn)換器并行。
9、為所有階段添加了調(diào)試選項。
10、多種面部提取模式,包括S3FD,MTCNN,dlib或手動提取。
11、以16的增量訓練任何分辨率。由于優(yōu)化設置,使用NVIDIA卡輕松訓練256。
12、安裝方便,環(huán)境依賴幾乎為零,下載打包 app 解壓即可運行(最大優(yōu)勢)。
13、添加了很多新的模型。
14、新架構(gòu),易于模型實驗。
15、人臉圖片使用 JPG 保存,節(jié)省空間提高效率。
16、CPU 模式,第 8 代 Intel 核心能夠在 2 天內(nèi)完成 H64 模型的訓練。
17、全新的預覽窗口,便于觀察。
18、并行提取。
19、并行轉(zhuǎn)換。
20、所有階段都可以使用 DEBUG 選項。
21、支持 MTCNN,DLIBCNN,S3FD 等多種提取器。
22、支持手動提取,更精確的臉部區(qū)域,更好的結(jié)果。
使用技巧
1、 首先把源視頻拆分成圖片。
2、開頭兩個回車,等待,出現(xiàn)Done即表示處理成功。FPS :表示幀率,可以按回車默認,也可以輸入一個數(shù)字。 Format代表圖片格式,可以選JPG或者PNG,默認PNG。
3、處理完成后,data_src文件夾下面會出現(xiàn)很多圖片,這些圖片就來自data_src.mp4視頻。
4、一個回車,等待一段時間,看到Done表示結(jié)束。
處理完成后,data_dst文件夾下面會出現(xiàn)很多圖片,這些圖片就來自data_dst.mp4視頻。)
5、兩個回車,顯示進度條,最后會顯示發(fā)現(xiàn)的圖片和提取到的人臉數(shù)量。 GPU index 是針對多卡用戶,單卡用戶直接回車。 Debug Image 一般不需要,默認回車即可。
操作成功后,data_src/aligned 文件夾下面會出現(xiàn)唐尼的頭像。
6、從目標圖片中提取人臉
和上一步類似,只是少了一個參數(shù)Debug Image,其實是默認就啟用了這個參數(shù)。
操作成功后,data_dst/aligned文件夾下會出現(xiàn)希亞·拉博夫的人頭。在data_dst下面會出現(xiàn)一個aligned_debug文件夾。
deepfacelab配置要求
系統(tǒng):Win7, Win10
顯卡:GTX 1060以上效果較好,需要安裝windows 版本的 VS2015,CUDA9.0和CuDNN7.0.5
優(yōu)點:基于Faceswap定制的bat處理批版本,硬件要求低,2G顯存就可以跑,支持手動截取人臉、集成所需要的素材和庫文件,功能強大
缺點:復雜、處理批較多,臉部數(shù)據(jù)不能和其他deepfakes通用,需要重新截取
總結(jié):適合有一定編程基礎、追求效率高的用戶
常見問題
1、人臉素材需要多少?
盡量不要少,因為它是有限的且需要被替換的素材,根據(jù)各軟件的臉圖篩選規(guī)則和網(wǎng)上大神的建議,總體來說,SRC臉圖最好是大概700~3999的數(shù)量,像該軟件的作者,他就認為1500張夠了。對于SRC,各種角度、各種表情、各種光照下的內(nèi)容越多越好,很接近的素材沒有用,會增加訓練負擔。
2、手動對齊識別人臉模式如何使用?
回車鍵:應用當前選擇區(qū)域并跳轉(zhuǎn)到下一個未識別到人臉的幀
空格鍵:跳轉(zhuǎn)到下一個未識別到人臉的幀
鼠標滾輪:識別區(qū)域框,上滾放大下滾縮小
逗號和句號(要把
輸入法切換到英文):上一幀下一幀
3、MODEL是個什么東西?
MODEL是根據(jù)各種線條或其他奇怪的數(shù)據(jù)經(jīng)過人工智能呈現(xiàn)的隨機產(chǎn)生的假數(shù)據(jù),就像PS填充里的“智能識別”,你可以從 https://affinelayer.com/pixsrv/ 這個網(wǎng)站里體驗一下什么叫MODEL造假
4、MODEL使用哪種算法好?
各有千秋,一般軟件使用H128就好了,其他算法可以看官方在GitHub上寫的介紹:https://github.com/iperov/DeepFaceLab
5、Batch Size是什么?要設置多大?
Batch Size的意思大概就是一批訓練多少個圖片素材,一般設置為2的倍數(shù)。數(shù)字越大越需要更多顯存,但是由于處理內(nèi)容更多,迭代頻率會降低。一般情況在軟件中,不需要手動設置,它會默認設置顯卡適配的最大值。根據(jù)網(wǎng)上的內(nèi)容和本人實際測試,在我們這種64和128尺寸換臉的操作中,越大越好,因為最合理的值目前遠超所有民用顯卡可承受的范圍。
6、MODEL訓練過,還可以再次換素材使用嗎?
換DST素材:
可以!而且非常建議重復使用。
新建的MODEL大概10小時以上會有較好的結(jié)果,之后換其他DST素材,僅需0.5~3小時就會有很好的結(jié)果了,前提是SRC素材不能換人。
換SRC素材,那么就需要考慮一下了:
第一種方案:MODEL重復用,不管換DST還是換SRC,就是所有人臉的內(nèi)容都會被放進MODEL進行訓練,結(jié)果是訓練很快,但是越雜亂的訓練后越覺得導出不太像SRC的臉。
第二種方案:新建MODEL重新來(也就是專人專MODEL)這種操作請先把MODEL剪切出去并文件夾分類,這種操作可以合成比較像SRC的情況,但是每次要重新10小時會很累。
第三種方案:結(jié)合前兩種,先把MODEL練出輪廓后,再復制出來,每個MODEL每個SRC臉專用就好了。
7、出現(xiàn)ValueError: No training data provided怎么辦?
沒有臉部數(shù)據(jù),可能是你用其它軟件截的臉,這是不行的,DFL僅支持自己截的臉。你可以將其它軟件截的臉讓DFL再截一遍就可以用了
8、出現(xiàn)ImportError: DLL load failed.
首先檢查Microsoft Visual C++ distributed 2015 X64裝了沒有,如果裝了就找度娘下載api-ms-win-downlevel-shlwapi-l1-1-0.dll(32位)和ieshims.dll復制到DFL的“_internalpython-3.6.8Libsite-packagescv2”中,
9、為什么我換的臉是模糊的
運存過少,訓練時間不夠,src人臉過少,loss值太高(0.5以上都有點糊)以及"pixel_loss = True"(就是模糊的開關(guān))都會導致這種情況,雖然512MB可以運行,但是結(jié)果肯定是不盡人意的,推薦運存2GB以上,訓練時間一般10h以上,loss值推薦0.2左右。
10、為什么訓練時loss值顯示的是nan,而且馬上就報錯
這個我也不太清楚,可能是運存太低,解決辦法就是“Use lightweight autoencoder? (Y / n,:? Help skip: n):”選擇y(輕量編碼器,速度快35%,輸出結(jié)果目前看來差不多)。
11、為什么loss值降到一定就不降了
一般來說降到0.2左右訓練就很成功了(一般需要10+h,Iter100000+,而我的電腦需要訓練一個星期才能達到目標效果),但是也有特殊情況,降到1左右不再降的可能是臉差的太厲害了,比如講一個男人的臉貼一個女人身上,當然也有可能是時間不夠。
12、src需要多少個照片訓練比較好
700~3000個左右,推薦1500個最好,太少的話即使loss降到0.1也是糊的,太多的話加重運算負擔。
更新日志
deepfacelab v2018.12.2更新:
1、修復部分系統(tǒng)錯誤“Failed to get convolution algorithm”
2、修復部分系統(tǒng)錯誤“dll load failed”
3、修改模型下面的summary文件的格式,顯示更多內(nèi)容。
4、修改臉部遮罩,擴展眉毛部分區(qū)域,這個修改不影響Fan-x
5、轉(zhuǎn)換遮罩:為底部區(qū)域添加遮罩漸變。
0條評論