dupchecked22222../4ta/2chb/608/74/ascii157697460821736375253 【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com YouTube動画>2本 ->画像>4枚 ◎正当な理由による書き込みの削除について:      生島英之とみられる方へ:

【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com YouTube動画>2本 ->画像>4枚


動画、画像抽出 || この掲示板へ 類似スレ 掲示板一覧 人気スレ 動画人気順

このスレへの固定リンク: http://5chb.net/r/ascii/1576974608/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

1/名無しさん[1-30].jpg2019/12/22(日) 09:30:08.72ID:EHqFGFH20
deepfakesの技術交換スレです。

前スレ
【AIコラ】fakeapp その10革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1573832431/
テンプレに書いてない質問はok

2/名無しさん[1-30].jpg2019/12/22(日) 09:30:51.28ID:EHqFGFH20
deepfakesなソフト
◎DeepFaceLab(以下、DFL)
◎deepfakes/faceswap(以下、FS)
●fakeapp
●openfaceswap(以下、OFS)
●myfakeapp

deepfakesとは?
AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、decoderを入れ替えることにより、AとBの顔を交換する手法。
・質問や情報交換について
日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。
必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。

3/名無しさん[1-30].jpg2019/12/22(日) 09:31:38.61ID:EHqFGFH20
・エラーについて
エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。
特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。

4/名無しさん[1-30].jpg2019/12/22(日) 09:32:13.31ID:EHqFGFH20
◎よくある質問
・違法じゃないの?
deepfakes自体に違法性はない。
ただし権利者に許可を得ていないコンテンツの二次利用は著作権法に違反。
また、所謂フェイクポルノを不特定多数が見れる場所に公開すれば名誉毀損(侮辱罪)に該当。
有名人の顔を使用して経済的利益を得ればパブリシティ権の侵害になる。

・ソフトはどれ使えばいい?
利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。

・必要スペックは?
VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。

・RTXシリーズでも動くの?
FS、DFL共に動く。CUDA10以降を選ぶこと。

5/名無しさん[1-30].jpg2019/12/22(日) 09:32:38.74ID:EHqFGFH20
・作るのにどれくらいかかる?
パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。
2回目からはmodelの再利用により学習時間を大幅に短縮できる。但しmodelの再利用については賛否両論あり。

・lossについて
A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。

6/名無しさん[1-30].jpg2019/12/22(日) 09:33:09.09ID:EHqFGFH20
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://mrdeepfakes.com/forums/thread-deepfacelab-explained-and-usage-tutorial

FSはこれ
https://faceswap.dev/forum/app.php/faqpage

もうちょっと掘った内容の話はこれ読め
https://www.alanzucconi.com/2018/03/14/introduction-to-deepfakes/

リクエスト禁止

技術質問はテンプレ必須
【使用ソフト】バージョンも書く
【使用モデル】
【スペック】
【内容】エラー時はエラーメッセージ必須

7/名無しさん[1-30].jpg2019/12/22(日) 09:34:03.99ID:EHqFGFH20
過去スレ一覧(続く)
https://find.5ch.net/search?q=AI%E3%82%B3%E3%83%A9
【AIコラ】fakeapp その1【革命】
https://2ch.live/cache/view/ascii/1518391672
【AIコラ】fakeapp その2【革命】
https://2ch.live/cache/view/ascii/1525096908
【AIコラ】fakeapp その3【革命】
https://2ch.live/cache/view/ascii/1540703439
【AIコラ】fakeapp その4【革命】
https://2ch.live/cache/view/ascii/1558162081
【AIコラ】fakeapp その5【革命】
https://2ch.live/cache/view/ascii/1562952179
【AIコラ】fakeapp その6【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1565578836

8/名無しさん[1-30].jpg2019/12/22(日) 09:34:36.05ID:EHqFGFH20
過去スレ一覧(続き)
【AIコラ】fakeapp その7【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1567676603
【AIコラ】fakeapp その8【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1569811630
【AIコラ】fakeapp その9【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1571681348
【AIコラ】fakeapp その10【革命】
http://phoebe.bbspink.com/test/read.cgi/ascii/1573832431

9/名無しさん[1-30].jpg2019/12/22(日) 11:53:45.26ID:t5ViGOpAd

フォーラムのSAE+もdropout実装

10/名無しさん[1-30].jpg2019/12/23(月) 01:34:49.71ID:GUGHj1AM0
めっちゃイイこと思いついた!
AV男優に自分の顔ハメこめば、いい感じじゃね?
ついでに女の顔を知り合いの女と交換

11/名無しさん[1-30].jpg2019/12/23(月) 02:17:27.25ID:GepPnYgO0
Topaz Gigapixelですが、一応割れてはいます
無料のwaifu2x-caffeよりかはいい感じかと
人間が手で描いた、アニメ、漫画、イラストなど、
明示的に輪郭のあるやつをアップコンバートするといい感じなのか
しかしwaifu2x-caffeがCUDNNが使用でき、比較的高速なのに比べ、
遅いような気がします
CUDNNが使用できる様なものではないのか?

12/名無しさん[1-30].jpg2019/12/23(月) 02:35:42.67ID:u2GqWqsV0
これって途中でtrainの設定変更するのは出来るの?

13/名無しさん[1-30].jpg2019/12/23(月) 03:13:23.23ID:GepPnYgO0
>>12
train開始してから2秒以内に、Enterを押して、設定変更可能なパラメーターもありますが
途中で設定変更不可のパラメーターもあります
どうしても設定変更したい場合は、0から学習し直しになるかと
Topaz Gigapixelでの拡大の事でしょうか?
jpgのメタ情報は保たれるらしいので、train継続できるのでは?
別件ですが、Extractor512でも、256モデルでtrainできましたし
バックアップを取った後で、やってみて、報告をお願いいたします

14/名無しさん[1-30].jpg2019/12/23(月) 03:20:11.36ID:GepPnYgO0
changelog_en.txtに、やり方が書いてあるみたいですよ
run 'data_src util faceset metadata save.bat' とか
4.2.other) data_src util faceset metadata save.bat とか
4.2.other) data_src util faceset metadata restore.bat とかありますね

15/名無しさん[1-30].jpg2019/12/23(月) 03:23:16.82ID:u2GqWqsV0
ありがとうございます。
参考になります

16/名無しさん[1-30].jpg2019/12/23(月) 03:26:05.39ID:GepPnYgO0
1) 'data_src util faceset metadata save.bat'を実行します
2)Topaz Gigapixelを起動する
3) 'data_src \ aligned \'を開き、すべての画像を選択します
4)出力フォルダーを 'data_src \ aligned_topaz'に設定(保存ダイアログでフォルダーを作成)
5)スクリーンショット【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com	YouTube動画>2本 ->画像>4枚 のように設定します
2倍、4倍、または6倍のアップスケールレートを選択できます
6)プロセスイメージを開始し、完全なプロセスを待つ
7)フォルダーの名前変更:
data_src \ aligned-> data_src \ aligned_original
data_src \ aligned_topaz-> data_src \ aligned
8)「data_src \ aligned_original \ meta.dat」を「data_src \ aligned \」にコピーします
9) 'data_src util faceset metadata restore.bat'を実行します
画像は元のサイズ(256x256)に縮小され、詳細が保持されます
メタデータが復元されます
10)これで、新しい拡張Facesetを使用する準備が整いました!
256でしかtrainしないから、256の画像にはなるのか。256のまま詳細解像度が上がるのか?

17/名無しさん[1-30].jpg2019/12/23(月) 03:33:39.84ID:hesIOyQG0
そこそこ高画質なソースをよりよくする、ってところだね。

18/名無しさん[1-30].jpg2019/12/23(月) 06:36:55.43ID:Zcd1U2o50
srcの画質現状であまり不満ないんだけど
それでもGiga使えば良くなったって人いたら教えて欲しい

19/名無しさん[1-30].jpg2019/12/23(月) 08:21:58.30ID:TowEhXVcd
1080pのつべソースのアップスケールに使ってる
res256のドアップだと効果分かる
ドアップないres256じゃなくてかつ現状不満ないなら使う必要ない

20/名無しさん[1-30].jpg2019/12/23(月) 08:39:42.19ID:gDCFtTdhM
1080pの画像でも効果あるのか

21/名無しさん[1-30].jpg2019/12/23(月) 10:52:12.48ID:9Dxs5EgK0
笛の動画に挑戦しようと思いsrcとdstの素材を用意したんですが、
これは笛をしてるdst(口の前に障害物がある素材)をそのままTrainして最終的にFAN-xxでconvertするって解釈であってますか?

初歩的な質問ですが回答頂けると幸いです・・・

22/名無しさん[1-30].jpg2019/12/23(月) 11:06:13.62ID:GepPnYgO0
>>21
笛動画のdst次第なのですが、
そのままTrainして最終的にFAN-xxでconvertするだけでうまくいくものもあります
その解釈で基本的にはあっています
舌がかなり出ている笛動画などは、それだけではうまくいかない場合もあります
そのような場合は、mask editorを使用して、障害物のMask作業が必要になります
1回mask editorは使用せずに、やってみればいいと思います
そのtrainは無駄にはなりませんし
convertの際に、erodeとblurの値を、初期値から変更している人が多い様です

23/名無しさん[1-30].jpg2019/12/23(月) 11:14:03.93ID:GepPnYgO0
12_20_2019版ですが、ようやく
Extractor512、auto_preview、DF512でのtrainは動作する事が確認できました
DF512はVRAM 24GBでBatch_size:5は可能
一応、カスタムの修正ですし、本体の大幅な変更でもあれば
作り直しが必要になる場合もあるかもです
DF512はMasl Editorでの作業し直し、FANSegモデルも作り直しかぁ

24/名無しさん[1-30].jpg2019/12/23(月) 11:33:14.50ID:GepPnYgO0
DF512とか、どれだけ意味があるかは分かりません
DFLの作者は、高い解像度が、必ずしもよい結果をもたらすとは限りません
とか言っているし
やってみて実際に試してみない事にはね
しかし手動Maskとか、FANSegモデルのtrainとか、やる事が多くて、結構時間がかかりますね
誰かヤフオクでも、FANSegモデルを販売するとか
あまりおおっぴらにはしない方がいいでしょうから、それは無理か

25/名無しさん[1-30].jpg2019/12/23(月) 12:21:00.50ID:pNVtYMg1d
>>21
既に書いてくれてるけどちょっと補足すると

一番手抜きのパターンはこんな感じかな
・extractされたdstをそのまま使ってtrain
(明らかにおかしいlandmarkのalignedは消す、笛の部分まではみ出したlandmark程度は直さない)
・convert時のmaskはFAN-dst

舌が生えたり消えたり、口元が間延びした感じになったりするけど俺は許容範囲かな
あとはlandmarkを手動で直したりmaskがんばったりじゃなかろうか

笛動画は極端な俯き角度、上目遣いになりがちなのでsrcも難しくて、手コキや横向きでちろちろなめる程度が最初は作りやすいかもね

26/名無しさん[1-30].jpg2019/12/23(月) 12:56:28.12ID:R8F9li/o0
ふむ。。DFLド新参ですがプレビューの青と黄のグラフの意味がわからん

27/名無しさん[1-30].jpg2019/12/23(月) 13:13:15.03ID:6XJJyA3dp
仕上げ用がドロップとTFオンでいいの?

28/名無しさん[1-30].jpg2019/12/23(月) 13:59:15.48ID:GepPnYgO0
前スレ>>117さん
dstの解像度も高ければ高いほどいい。
学習早くて似る。
コンバート後に解像度を下げて馴染ませて完成

参考になりました。最終完成動画は、自分は540pまででいいので、縮小したものから切り出していましたが、
Extractor512とかで切り出す場合、1080pとかでないとあまり意味はないかもしれませんね
dstもトリミング編集とかしており、1080pは消してしまいましたが
dstも再作成かぁ

29/名無しさん[1-30].jpg2019/12/23(月) 16:27:43.70ID:9Dxs5EgK0
>>22 >>25
丁寧にありがとうございます。
とりあえず短めの素材で試してみてどうなるかって感じですね。
convertの設定は過去スレ見ながら試してみようと思います。

30/名無しさん[1-30].jpg2019/12/23(月) 18:25:36.36ID:l/R/uA5Y0
>>25
俺まんまこれ

@dstフェラ動画のalignedをそのまんまsrcフォルダにコピペしてプレビューで舌とかチムポが違和感無くなるまで学習
A作りたいアイドルなり女優なりのalignedと差し替えて学習し直し
BFan-dstでコンバート

fansegが何なのかも理解出来てない素人だけど、これで今のところ上手くいってるからmask処理やらなんやらした事無いよ

31/名無しさん[1-30].jpg2019/12/23(月) 18:36:32.91ID:gDCFtTdhM
dstの人のalignedをsrcのalignedに混ぜるのか?
それじゃsrcにそもそもdstの顔を混ぜるからsrcに似せるの難しくね?

32/名無しさん[1-30].jpg2019/12/23(月) 18:42:39.74ID:0+I29WX6p
スレ変わったんで書いとく。
twitterで職人限定グループDMやってます。
参加方法は前スレ259

33/名無しさん[1-30].jpg2019/12/23(月) 18:53:15.63ID:l/R/uA5Y0
>>31
混ぜない
src、dst共に全く同じalignedで学習
プレビュー画面は全部同じ人で3〜5番の画像がほぼ同じになったら学習終了
んでsrc差し替えで再度学習し直しってやってる

src、dst相性良ければ学習し直しても3時間もあればほぼ完成してる
ちなSAEHDでIter:1000000超え

34/名無しさん[1-30].jpg2019/12/23(月) 18:57:53.22ID:gDCFtTdhM
SAEHD Modelに混ぜるって事にならね?

35/名無しさん[1-30].jpg2019/12/23(月) 19:00:42.15ID:NcWfqvoU0
>>32
でた総本山

36/名無しさん[1-30].jpg2019/12/23(月) 19:10:49.32ID:l/R/uA5Y0
>>34
model使い回し懐疑的派の人?
俺srcもdstも同じmodelでガンガン回す派なんで気にした事無いなぁ

37/名無しさん[1-30].jpg2019/12/23(月) 19:24:25.57ID:4CIGlmO00
>>33
同じ人で回す発想はなかった。勉強になります。
dstとsrc合わせて1000000?
それをベースに3時間てことですか?

38/名無しさん[1-30].jpg2019/12/23(月) 19:42:33.97ID:l/R/uA5Y0
>>37
modelは使い回しが基本、最近懐疑的な人が出てきたってイメージなんだけど俺が遅れてるんだろうか

1000000↑はdstとsrc合わせてですよ
差し替え後の学習3時間はInterの総学習時間+グラボが1080tiの11Gなのでそれも影響してると思われます

39/名無しさん[1-30].jpg2019/12/23(月) 19:51:59.80ID:gDCFtTdhM
>>36
いやそうじゃない俺もsrcは固定の一人を使い回しだよ。
(もしかしてこれを使い回しと言わない?)
Modelの仕組みはよく分かってないが、Modelのsrc側?にdstの顔が混ざるんではないかと思ってな。
src画像はsrc aligned、dst画像はdst alignedで学習させないと結果的にsrc似の動画が出来ないのではと思った次第。

40/名無しさん[1-30].jpg2019/12/23(月) 20:48:45.21ID:l/R/uA5Y0
>>39
根本が違うね
俺はsrcも複数使い回し前提だから
dst側でしかありえない画像を先にsrcで覚えさせてから学習しなおせばいいんじゃね?
的な考えでやったら上手くいきましたみたいな感じ

41/名無しさん[1-30].jpg2019/12/23(月) 20:51:59.12ID:CKQmW8G90
笛マスク1%程度で巧いことやってくれる事もあれば、そうじゃない事もあった 無臭orモザもその時次第
旧SAEliae 笛パートは手動ランドとマスクでなるべく輪郭に忠実にしておくと良い結果になるかも

42/名無しさん[1-30].jpg2019/12/23(月) 20:56:44.48ID:7IBz3uxi0
modelってひたすら使いまわし続けるとエンコーダの容量が回数に従ってすごく大きくなってきませんか?

43/名無しさん[1-30].jpg2019/12/23(月) 21:02:18.59ID:l/R/uA5Y0
>>42
7) convert SAEHD.batがすげー時間かかるようになったのは勘違いじゃなかったって事ですか?

44/名無しさん[1-30].jpg2019/12/23(月) 22:21:21.92ID:CKQmW8G90
1220のextract精度が酷い…

45/名無しさん[1-30].jpg2019/12/23(月) 22:27:34.60ID:GepPnYgO0
>>30
スゲー画期的
mask処理しなくても上手くいっているの?
早速真似させてもらいますよ
しかし512のFANSegモデルは自作するしかなさそうと言う。。

46/名無しさん[1-30].jpg2019/12/23(月) 22:53:34.39ID:6o9zG+/W0
>>44
やっぱそう?
第一弾でSD画質のdstをextractしたんでこんなもんだろと思ってた
制度上げました的な触れ込みだったけど瞞しだったか・・・

47/名無しさん[1-30].jpg2019/12/23(月) 23:19:51.06ID:2aBqymWO0
これって眼鏡かけてても作れるの?
素材が黒ブチ同士、銀ブチ同士ならOK?

48/名無しさん[1-30].jpg2019/12/23(月) 23:41:27.24ID:4CIGlmO00
H128modelでの境界線問題解決法わかります?
過去スレはSAEの対策ばかりで参考にはなるけどconvertの最適オプションがわからない。
俺の場合、H128の方がsrcに似るのでどうにかしたいのでどうぞよろしくお願いします。

49/名無しさん[1-30].jpg2019/12/24(火) 01:38:08.74ID:fR8fm2Aw0EVE
すまん。テンプレに入れ忘れ
まあ、あまりテンプレが多いとスレ立てする人がいなくなるが

Deepfake 素材に関するスレ
https://mercury.bbspink.com/test/read.cgi/avideo/1575476933/
srcとdstの談議などに使おう

50/名無しさん[1-30].jpg2019/12/24(火) 05:22:36.10ID:nael51K00EVE
「使い回し無し」src 1 : dst 1
(Model使い回し無し)

「使い回し有りAパターン」src 1 : dst n
(dstのみModel使い回し)

「使い回し有りBパターン」src n : dst n
(srcもdstもModel使い回し)

使い回しAとBとでsrc再現度が比較できたらなぁ

51/名無しさん[1-30].jpg2019/12/24(火) 10:19:22.72ID:pP6ksn9o0EVE
急にDFL-Colabがエラー出るようになったんだが皆さんどうですか?
extract,train,convertをやろうとすると以下のようなランタイムエラーが出ます
セッションの再接続、再clone,pull、念のためPC再起動しても変わらずでした

Traceback (most recent call last):
File "DeepFaceLab/main.py", line 19, in <module>
multiprocessing.set_start_method("spawn")
File "/usr/lib/python3.6/multiprocessing/context.py", line 242, in set_start_method
raise RuntimeError('context has already been set')
RuntimeError: context has already been set

52/名無しさん[1-30].jpg2019/12/24(火) 11:27:06.15ID:y7DRI1Xu0EVE
>>30
@ってなんの意味があるのか詳しく説明してくれませんかお願いします

53/名無しさん[1-30].jpg2019/12/24(火) 11:57:11.66ID:fR8fm2Aw0EVE
>>30
こういった、やり方でも、舌、笛、手などはランドマークが入らず、
顔のパーツではなく、顔の前の障害物として学習してくれると言う訳なのかな?
mask作業不要は画期的だと思います

54/名無しさん[1-30].jpg2019/12/24(火) 12:35:58.87ID:TUwpexof0EVE
DFL1223動かないよー

55/名無しさん[1-30].jpg2019/12/24(火) 13:01:20.52ID:xWHC5AqAaEVE
>>51
同じエラーが出ますね。
コードとか、さっぱりわからないからdstを探す旅に出てます。

56/名無しさん[1-30].jpg2019/12/24(火) 13:19:53.51ID:fR8fm2Aw0EVE
Google Driveの方は、すぐにダウンロード制限がかかるので
https://rutracker.org/forum/viewtopic.php?p=75318742
からマグネットリンクを使ってダウンロード

57/名無しさん[1-30].jpg2019/12/24(火) 13:26:01.66ID:MgelE18gMEVE
まだ仕事なので確認できないが1223何か変わった?

58/名無しさん[1-30].jpg2019/12/24(火) 15:19:07.06ID:pP6ksn9o0EVE
>>55
ありがとうローカルPCの問題じゃなさそうやね
colabのノートブックの直近の変更箇所も問題なかったので
DFL1223動かないよー って言ってるアップデート?が関係してるっぽいかな

59/名無しさん[1-30].jpg2019/12/24(火) 16:08:08.23ID:fR8fm2Aw0EVE
== 2019年12月23日==
抽出:顔が見つからないフレームで2回目のパスがより速くなりました
すべてのモデル:オプション「src_scale_mod」および「ターゲットとしてヨーでサンプルをソート」を削除
必要に応じて、ヨーで並べ替えた後、src facesetから不要な角度を手動で削除できます。
最適化されたサンプルジェネレーター(CPUワーカー)。 現在では、RAMの消費量が減り、動作が高速になりました。
追加しました
4.2.other)data_src / dst util faceset pack.bat
/ aligned /サンプルを1つの/aligned/samples.pakファイルにパックします。
その後、すべての顔が削除されます。
4.2.other)data_src / dst util faceset unpack.bat
面を/aligned/samples.pakから/ aligned / dirに解凍します。
その後、samples.pakは削除されます。
パックされたファセットのロードと作業の高速化。

60/名無しさん[1-30].jpg2019/12/24(火) 16:22:43.95ID:fR8fm2Aw0EVE
DFL1223だと、モデルの互換性が無くなり、再train必要な気が。。
AttributeError: 'Model' object has no attribute 'src_scale_mod'
他のエラーでtrainできず
最近のDFL Versionに、Manualとtutorialがついてきていませんね
changelog_en.txtのみとか
モデル削除して、0からtrain必要し直しの気が。。

61/名無しさん[1-30].jpg2019/12/24(火) 16:49:21.25ID:fR8fm2Aw0EVE
train時yawでsortして合わせるか?聞かれなくなりました
DF256とかのModel.pyも作成し直しかな?

62/名無しさん[1-30].jpg2019/12/24(火) 17:50:22.84ID:fR8fm2Aw0EVE
しかし、train時yawでsortする/しないの選択も合理的なので、
この修正も一時的な物だったりしてとか?
オプション「src_scale_mod」および「ターゲットとしてヨーでサンプルをソート」を削除
すると、
現在では、RAMの消費量が減り、動作が高速になりました。
なのかな?

63/名無しさん[1-30].jpg2019/12/24(火) 18:38:48.23ID:fR8fm2Aw0EVE
元からあるDFモデルとかだと、1223版でもtrainしたモデルは継続できるみたいですね
しかし、色々エラーは吐いています
argument: Cannot parse tensor from tensor_proto.
いや、やっぱり動かない
どうしても使いたい人は、モデルの削除は必要かな?

64/名無しさん[1-30].jpg2019/12/24(火) 18:54:46.49ID:fR8fm2Aw0EVE
1223だと、使用するVRAMの量が増えたのか、
動作可能なバッチ数がやたらと少なくなりましたね
VRAM 8G以下の人が動くのだろうか?
いや、trainでまたすぐに落ちた
抱えているCUDAのVersionが変わったのかな?
Pythonは古いままですが

65/名無しさん[1-30].jpg2019/12/24(火) 18:59:11.48ID:fR8fm2Aw0EVE
いや、CUDA_10.1とうたっていますね
1223版を使用したい人は、人柱をお願いいたします

66/名無しさん[1-30].jpg2019/12/24(火) 19:27:43.99ID:MgelE18gMEVE
なんか不安定なんだな
とりあえずスルーが吉か

67/名無しさん[1-30].jpg2019/12/24(火) 19:47:18.52ID:imeUd6MrdEVE
>>46
失敗しがちな、横向きや笛吹き、舌出しなんかで試してみたけど1017と変わらないようには感じた
landmarkの修正は結構手間だから期待はあるんだけどな

たまにある明らかな認識失敗(おっぱいや股間が顔になったり)は減ったりしてるのかも

68/名無しさん[1-30].jpg2019/12/24(火) 20:51:06.34ID:pP6ksn9o0EVE
colabですがDFLサーバ側で修正あったのかextractとtrainはSAEHD256で動作しました
でもconvertと顔切り出しは別のエラーで動作せず

69/名無しさん[1-30].jpg2019/12/24(火) 20:58:20.07ID:fR8fm2Aw0EVE
trainの継続は可能なので、無視していますが
CUDAのメモリアロケートエラーがやたらと出ます
これはもう、SAEHDでシステムメモリとのスワップしている人専用Verとか?
システムメモリ64GBでもある人は幸せかもしれません
VRAM 24GBでも不満とは。。

70/名無しさん[1-30].jpg2019/12/24(火) 21:03:46.02ID:nael51K00EVE
俺の環境だけかもしれないが、
DFL1220(最新の1個前)でlr_drop falseで仕上げにTFのみtrueで一日くらい回すと
今まで(build_08_25_2019〜build_11_14_2019を試してきた)以上にsrcを再現するようになった。
DFL1220にしてから2作品作ったが2作品ともがそう。
これから過去作をtrainし直して行く予定。

71/名無しさん[1-30].jpg2019/12/24(火) 21:10:42.73ID:TX2Zywq00EVE
colab コンバート何とかならないかなー。

72/名無しさん[1-30].jpg2019/12/24(火) 21:12:30.72ID:aduzz6Oo0EVE
眉毛問題が解決したら呼んでくれ。

73/名無しさん[1-30].jpg2019/12/24(火) 21:30:34.86ID:pP6ksn9o0EVE
>>71
その後時間をおいてpullとランタイム再起動したらコンバート動作しましたよ

74/名無しさん[1-30].jpg2019/12/24(火) 21:38:59.19ID:TX2Zywq00EVE
>>73
ありがとう、やってみる

75/名無しさん[1-30].jpg2019/12/24(火) 22:32:47.85ID:fR8fm2Aw0EVE
>>72
>>30にならって、dstとsrcのalignedに同じものを置いて、学習してみては?

76/名無しさん[1-30].jpg2019/12/24(火) 23:30:29.51ID:7Ks/5GEF0EVE
おそらく、iperovはDFLを更新して何かを壊してしまいましたが、以前のリポジトリをいつでも読み込むことができます
(afaik 20/21は正常に動作し、22は壊れており、23はそれを修正したかもしれません)。

77/名無しさん[1-30].jpg2019/12/24(火) 23:32:38.65ID:fR8fm2Aw0EVE
>>72
前髪問題も、これは顔ではなく、顔の前の障害物である
と言うことで、mask editorでmaskして、
FANSegモデルをtrainすれば解決だとか
過去スレにありましたよ

78/名無しさん[1-30].jpg2019/12/25(水) 00:28:10.15ID:BxRgK6Oz0XMAS
FANSEG学習ってmodelないから初回から訓練になっちゃうんだけど
どうやって追加学習してるの

79/名無しさん[1-30].jpg2019/12/25(水) 00:37:45.80ID:lS1dI1yI0XMAS
>>78
%DFL_ROOT%\nnlib\FANSeg_256_full_face.h5を、バックアップを取った後に、
%WORKSPACE%\model\ の下にコピーとか

6) train FANSeg.batの中身の例は過去スレにもあります
前スレとか

80/名無しさん[1-30].jpg2019/12/25(水) 00:49:13.30ID:BxRgK6Oz0XMAS
>>79
nnlibのh5ファイルをmodelに貼り付けても初回から訓練になるんだけど
これで追加学習になってるって事?

81/名無しさん[1-30].jpg2019/12/25(水) 00:58:27.35ID:lS1dI1yI0XMAS
>>80
すまん。そこまで詳しくない
自分もこのスレで聞いてだから
何か、舌出しのdstで、作者がtrainしたmodelではうまくいかないな
と言うやつが、手動MaskしてFANSEG trainしたら、うまくいくのもありました
と言うだけです
fかhか聞かれるけど、fにしていますか?
256で抽出しないとだめかもです

82/名無しさん[1-30].jpg2019/12/25(水) 01:09:27.74ID:BxRgK6Oz0XMAS
>>81
抽出は256
とりあえずconvertしてみたら追加学習した以外で
FNANSEGはちゃんと機能してるからこれでいいのかな

83/名無しさん[1-30].jpg2019/12/25(水) 09:06:30.69ID:p4C51yNp0XMAS
Deepfake国内三強 最新版

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、
遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。

総本山
どこかに存在するという伝説のDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、高度な技術を持った複数の職人が最高の作品を公開しているといわれている。
なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。

84/名無しさん[1-30].jpg2019/12/25(水) 10:07:14.17ID:ZwrLVAlh0XMAS
No.TENによほど恨みがあるのかくどい

85/名無しさん[1-30].jpg2019/12/25(水) 13:03:59.95ID:lS1dI1yI0XMAS
フォーラムのダウンロードに
TopazLabsにギガピクセルのビデオ版がある事が紹介されていました
ビデオで動作するため、個々のフレームを処理する必要はありません。
30日間の試用版
複数のYahooメールやGmail、プロバイダメールなど使用すれば
試用期間を長くできるかもです
自分で割れるかもしれん。ファイヤーウォールをブロックするだけで
何とかならないかな?

86/名無しさん[1-30].jpg2019/12/25(水) 13:17:14.56ID:PsaBz9yVdXMAS
流石にそれはここで聞くことじゃない

87/名無しさん[1-30].jpg2019/12/25(水) 13:44:43.64ID:ElC79fSx0XMAS
Deepfake国内三強 最新版

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の
大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。

総本山
どこかに存在するという伝説のDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、
高度な技術を持った複数の職人が最高の作品を公開しているといわれている。
なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。

88/名無しさん[1-30].jpg2019/12/25(水) 22:16:21.45ID:ZwrLVAlh0XMAS
しつこいぞバカ

89/名無しさん[1-30].jpg2019/12/26(木) 11:11:27.57ID:z9SERCBO0
誰かNVLink試した人っている?
これまでのSLIと違ってVRAMも2枚分合算できるとか云々

90/名無しさん[1-30].jpg2019/12/26(木) 12:24:51.44ID:zxrs7VtaM
loss値[0.07][0.05]辺りになると本人再現度やばい事になるな

91/名無しさん[1-30].jpg2019/12/26(木) 16:20:31.42ID:F6Di0DH+0
>>90
モデルは何で、バッチ数はどのくらいで、何日間や、Iterいくつぐらいで
そうなるの?
srcの選別がうまいとかで、そんなに下がるのか?
グラボは何使っていますか?

92/名無しさん[1-30].jpg2019/12/26(木) 17:40:43.00ID:pW4DVmCq0
>>90
kwsk

93/名無しさん[1-30].jpg2019/12/26(木) 18:05:21.82ID:QtZ4emAT0
数値はただの指標

94/名無しさん[1-30].jpg2019/12/26(木) 18:18:00.75ID:A2Kt2VfJM
93が言う通りあくまで指標
iter 2.6M
SAEHD192(df,full,dims384)
GTX2080
bat3
回転期間はSAEHDが出てからほぼ毎日
(DF256を回していた空白期間がある)

以前はiter200k Loss1.5とか
iter800kくらいとかでもう完成だろと思っていたが
まだ先があった
多分まだこの先もある

95/名無しさん[1-30].jpg2019/12/26(木) 19:22:35.79ID:lSEcqJAq0
こどもまいんちゃんでやったら全然本人感が出なかった

96/名無しさん[1-30].jpg2019/12/26(木) 21:06:58.50ID:F6Di0DH+0
>>89
NVLinkってグラボ2枚差しとかできる様な、特殊なマザーボード持っていなくても使えるの?
ケースはどのぐらい大きければいいの?
Miniタワーだと無理ですよね?
ミドルタワー以上?
2080Ti 2枚挿しとかですか
電源容量もいっぱい必要そうですね
DFLは対応しているんですか?
プログラムはハード構成を意識しなくてもいいんですか?
ちょっとグラボのハード構成は意識しないと対応は出来ない様な気がしますが
どうなのでしょう?

97/名無しさん[1-30].jpg2019/12/26(木) 22:39:59.73ID:L/scnKGW0
>>96
E-ATXもしくはWTXのケースに電源1500W、水冷必須で性能5割増しってとこだろ。
コスパ的には最悪だと思う。

ミドルタワーとかアホかw
2080Ti1枚すら入らんわww

98/名無しさん[1-30].jpg2019/12/26(木) 22:56:50.99ID:F6Di0DH+0
>>97
すまんね。パソコンは自作できる程には詳しくはないし
搭載可能なPCは持っていないので、BTOでbワるごと購入とbゥしています
DFLがNVLinkに対応しているとは思えなくて
VRAM増やしたいだけなら、TITAN RTXやQuadro RTX 8000とかだと
動くんではないかい?
回せるモデルとかバッチ数とかが増やせるだけかと
srcの厳選や手動Maskとかに時間がかかるので
コスパ的には悪いかと思います
2080Ti 1枚だけとか
それでもPCまるごとだと高いね

99/名無しさん[1-30].jpg2019/12/26(木) 23:01:48.43ID:F6Di0DH+0
タイプミスか、文字化け

BTOでbワるごと購入とbゥしています

BTOでまるごと購入とかしています

100/名無しさん[1-30].jpg2019/12/27(金) 02:47:25.19ID:/5IXtoqW0
>>30
笛初挑戦したけど何にも考えずこれ実践しただけでかなりの出来映え

皆さん裕福でうらやましい
vram6gbで2-3日回しながら遊んでますがこれで十分かな

101/名無しさん[1-30].jpg2019/12/27(金) 05:21:40.31ID:4F9gVIKW0
ひさしぶりに第1SRCちゃんにばっちりの輪郭髪型DSTをHITしたので
うきうきで1時間半分ほどを順番に調理中うきうきやわ

102/名無しさん[1-30].jpg2019/12/27(金) 09:06:01.41ID:lyx8LeAH0
>>96
SLI対応のマザーが必要
ケースは冷却考えてもフルタワー
電源1200wぐらい
VRAM増やしたいだけだからTITAN RTXも候補なんだけど
2080ti2枚の方が安いし合計したらVRAM多いし売る時も売りやすいかなって。
ドライバでNVLinkを有効にしたらDFLからは1枚のグラボとして認識したらいいのに。
>>97
バッチはロマンだ。コスパの向こう側だ。

103/名無しさん[1-30].jpg2019/12/27(金) 11:22:24.54ID:MzZPC7uA0
DFLはNVLinkで2枚のグラボは使えない気がします
試してみてダメなら
2080ti搭載可能なパソコンを2台準備して、
2台のパソコンでDFLを回せば、2080tiは無駄にはならないかと思います

>>100
あくまで金と時間のかかるお遊びですしね
エロだけなら、無臭でも結構可愛い子、美人がいますし。それで十分な気もします
若い人ならば、昔のレジェンド女優の無臭とかもどうよ?DVD画質までしかありませんが

104/名無しさん[1-30].jpg2019/12/27(金) 14:43:04.42ID:Cb7xGcle0
顔の良し悪しって本当些細な違いから来てると
実感できて面白いね

105/名無しさん[1-30].jpg2019/12/27(金) 15:50:15.12ID:cNu14osc0
目が寄り目や閉じてるのに半開きになってしまう現象の回避方法って何かありますか?
モデルはSAEHDです。

何となくだけど、斜視についてはSRCに顔斜めのまま目線は正面(カメラ)向きの
グラビアやDVDから抜き出した画像が多すぎるせいかと思ったんだけどどうなんだろう。

106/名無しさん[1-30].jpg2019/12/27(金) 16:34:10.05ID:fxGVCYL60
>>105
目の開け閉めはface_style_powerを10〜15にして改善することもある。
DST寄りになるリスクもあるけど。

107/名無しさん[1-30].jpg2019/12/27(金) 19:26:55.99ID:wGMz9ySX0
DFL1226

108/名無しさん[1-30].jpg2019/12/27(金) 19:52:47.70ID:URLgg7k20
added FacesetEnhancer
4.2.other) data_src util faceset enhance best GPU.bat
4.2.other) data_src util faceset enhance multi GPU.bat

FacesetEnhancer greatly increases details in your source face set,
same as Gigapixel enhancer, but in fully automatic mode.
In OpenCL build it works on CPU only.

Please consider a donation.

109/名無しさん[1-30].jpg2019/12/27(金) 21:35:06.57ID:rH2s9iLH0
Gigapixel AI買わなくてもいいってことか?

110/名無しさん[1-30].jpg2019/12/27(金) 22:04:21.51ID:MzZPC7uA0
ガイドは修正中または更新中です。すぐに更新される予定です。

FacesetEnhancerを追加しました
4.2.other)data_src util facesetは最高のGPU.batを強化します
4.2.other)data_src util faceset extend multi GPU.bat

FacesetEnhancerは、ソースフェイスセットの詳細を大幅に増やします。
ギガピクセルエンハンサーと同じですが、完全自動モードです。
OpenCLビルドでは、CPUのみで動作します。

また顔抽出までに留めておけばいいVersionだったりして
train動く報告をよろしくお願いします

111/名無しさん[1-30].jpg2019/12/27(金) 22:24:10.17ID:MzZPC7uA0
serial
key
crack

112/名無しさん[1-30].jpg2019/12/27(金) 23:52:41.93ID:5B+zYbsx0
すみません。これらのファイルの再アップロードしてくれる方いますでしょうか。
よろしくお願いします。
515 : /名無しさん[1-30].jpg 2019/12/01(日) 19:58:58
DF256 (再アップ: __init__.py 入り。)
http://whitecats.dip.jp/up/download/1575197725/attach/1575197725.zip
batファイルがいっぱい並んでいるフォルダに_internalフォルダごと上書きコピー
6) train DF256.bat
http://whitecats.dip.jp/up/download/1574432289/attach/1574432289.zip
7) convert DF256.bat
http://whitecats.dip.jp/up/download/1574432492/attach/1574432492.zip
おまけ
4.3) data_src mask editor.bat
http://whitecats.dip.jp/up/download/1574424974/attach/1574424974.zip

113/名無しさん[1-30].jpg2019/12/28(土) 09:39:48.89ID:+OUcctom0
Deepfake国内三強 最新版

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。
国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。

総本山
どこかに存在するという伝説のDeepfakeコミュニティ。
その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、高度な技術を持った複数の職人が最高の作品を公開しているといわれている。
なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。

114/名無しさん[1-30].jpg2019/12/28(土) 12:07:47.08ID:flWEu01p0
>>30
やってみたけどsrc変えたあとの回しすぎは駄目なのかな?
どこでやめるかのタイミングが難しそう

115/名無しさん[1-30].jpg2019/12/28(土) 17:10:12.93ID:ow/FzmVY0
>>112
https://mega.nz/#F!6qgESQba!Swt37A4nKMJYlYh26xs2Nw
とか
_init__.py は、Model_DFフォルダをコピー&ペースト
Model_DF256にリネーム
Model.pyだけ上書きでもいけるかと
train DF256.batはtrain DF.batをコピー&ペースト
train DF256.batにリネーム
train DF256.batをテキストエディタかメモ帳で開いて
--model DFを --model DF256に変更すればいいだけ
convert DF256.batも同様
各種batファイルをテキストエディタかメモ帳で開いて、変更点は類推して欲しい
フォーラムのダウンロードスレッドでも探して欲しい
https://mrdeepfakes.com/forums/forum-downloads

116/名無しさん[1-30].jpg2019/12/28(土) 17:20:04.00ID:ow/FzmVY0
>>112
4.3) data_src mask editor.bat

https://mega.nz/#F!ajwgFCDK!kdIG14m5R9NSsuNCnNMUzw
とか

117/名無しさん[1-30].jpg2019/12/28(土) 18:23:09.39ID:98kftTwL0
これ、元顔の髪型とか年齢は統一したほうがいいの?
若い頃と老けた後では、だいぶん違うと思うんだけど

118/名無しさん[1-30].jpg2019/12/28(土) 18:51:29.22ID:ow/FzmVY0
>>117
srcの髪型の統一は考えなくていいかと思いますが
髪型まで特徴量を抽出すると、データ量、計算量が大き過ぎるかで、
髪型は顔認識の対象外ですし
本来、防犯カメラの顔映像から、人物を特定したいとかなので、
髪型は女性であれば、長くなったり短くなったりする可能性もありますので
同一人物かどうかを特定する手がかりにはならないかと
まあ、経歴の長い女優さんとかだと、どの様な年代のsrcで選別するかは
悩みどころかと
若かりし頃を再現させたいのであれば、若かりし頃のsrcかと

119/名無しさん[1-30].jpg2019/12/28(土) 19:14:34.87ID:ow/FzmVY0

120/名無しさん[1-30].jpg2019/12/28(土) 20:36:20.76ID:ow/FzmVY0
>>30
のやり方を真似させてもらいましたが、
>>30はSAEHDですか。DF256でもいい感じで出来ました
dstどうしを学習したモデルをBaseに追加学習しても
別にsrcにdstの名残など入ることもなく
srcのいい感じが再現できました
別のsrcにして、同じ事をやっています
手動Maskなしでいいのであれば、スゲー楽で画期的な事かと思います

121/名無しさん[1-30].jpg2019/12/28(土) 23:38:18.15ID:62IV5Kl30
>>118はグダグダ長文書いて本当に説明が下手だな
「顔の範囲のみでマスクしてるんだから髪型は関係ない」の一言で済むのに

122/名無しさん[1-30].jpg2019/12/29(日) 00:20:30.31ID:tw6sqPnc0
>>118は確かに分かりづらいだけでした
DFLをユーザーで使っている場合は
AIはこんな事もできんのか?と八つ当りしなければいいだけの事
できていない事をできるようにするアルゴリズムでも考案して
英語で論文でも発表すれば、名誉が与えられると思いますよ

123/名無しさん[1-30].jpg2019/12/29(日) 00:42:47.07ID:VEVq0an/C
DF256導入しようとしましたが、以下のようなエラーが出ます。
原因わかるひといるでしょうか。

Error: 'Model' object has no attribute 'src_scale_mod'
Traceback (most recent call last):
File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\mainscripts\Trainer.py", line 50, in trainerThread
device_args=device_args)
File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\models\ModelBase.py", line 145, in __init__
self.onInitialize()
File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\models\Model_DF256\Model.py", line 55, in onInitialize
sample_process_options=SampleProcessor.Options(random_flip=self.random_flip, scale_range=np.array([-0.05, 0.05])+self.src_scale_mod / 100.0 ),
AttributeError: 'Model' object has no attribute 'src_scale_mod'

124/名無しさん[1-30].jpg2019/12/29(日) 00:48:32.91ID:VEVq0an/C
>>115
ID変わってますが112です
ありがとうございました

125/名無しさん[1-30].jpg2019/12/29(日) 01:09:27.30ID:tw6sqPnc0
>>123
DF256は、12_20_2019版までは動作確認が取れていますが、
それ以降の版は動作未確認です
それ以降の版は、おそらくModelBase.pyが変わったので、互換はなく
それ以降の版はModel_DF256\Model.pyの修正が必要かと
最新版対応のDF256が作成されるまでは、12_20_2019版までを使用するとか
DF256はカスタムだから自分でメンテしないとね
差分確認とかで、作成できれば、気が向いたら作成してみます
試行錯誤で作成している間は、trainとか止まるんだよ−

126/名無しさん[1-30].jpg2019/12/29(日) 01:52:28.08ID:tw6sqPnc0
>>123
ダメ元で、DF256のモデルデータをバックアップコピーして待避
DF256のモデルデータを削除
0からtrainし直し
ダメっぽいけど
元々、新規導入で新規trainでもErrorなのか?であれば試す必要もないな
ちなみにDFLのVersionは?train前まではできましたか?
顔抽出までとか

127/名無しさん[1-30].jpg2019/12/29(日) 02:30:42.27ID:VEVq0an/C
>>126
1226です。
顔抽出までは可能でした。
以前のバージョン(CUDA10.1)はgoogledriveから消されていたので、どなたか対応版をあげてくれることを祈っています。

128/名無しさん[1-30].jpg2019/12/29(日) 03:53:36.28ID:iWakMU6o0
colabもTrain動かないのは同じ理由かな?

129/名無しさん[1-30].jpg2019/12/29(日) 04:06:50.60ID:vNCt6Kdx0
>>127
1226とdiff取って見ただけだが、
まずはDF256のmodel.pyの55行目の
+self.src_scale_mod / 100.0
を消せば次には進むんじゃないかな
さらにまたエラーでるかもだけど…

130/名無しさん[1-30].jpg2019/12/29(日) 08:54:43.62ID:tw6sqPnc0
>>127
https://mega.nz/#F!ajwgFCDK!kdIG14m5R9NSsuNCnNMUzw
に1220版を上げました
既存のDF256でtrain convertできるかと思います

131/名無しさん[1-30].jpg2019/12/29(日) 09:29:31.28ID:tw6sqPnc0
>>127
DeepFaceLabの最新版、12_26_2019版で動作するDF256モデルを作成しました。
フォーラムのダウンロードに上げてあります
https://mrdeepfakes.com/forums/thread-custom-df256-model

12_26_2019版前の版で抽出したalignedを使用
0からトレーニング
バッチ0にしたらバッチ4で動作した。可能な最大バッチ数は未確認
trainだけNo Errorで動いていますが、多分Convertも動くでしょう

132/名無しさん[1-30].jpg2019/12/29(日) 09:36:10.51ID:tw6sqPnc0
>>127
DF256モデルの作成
Model_DFをコピー&ペースト、Model_DF256にリネーム
Model_DF256\Model.pyをテキストエディタかメモ帳で開いて、
128→256にすればよさそうな所を256に置換
def Encoder(input_layer):とdef Decoder():は、前の版を参考に修正
def Encoder(input_layer):とdef Decoder():は、前の版をコピペで動きました

133/名無しさん[1-30].jpg2019/12/29(日) 09:46:56.21ID:tw6sqPnc0
>>127
ありがたみを感じたら、ダウンロードフォーラムにあるメールアドレスに
Amazonギフト券で300円でも500円でも寄付してくれるとうれしいw
ヤフオクでの販売みたいに、E-mailタイプを金額指定して購入して、
自分のアカウントには登録はせずに、
ダウンロードフォーラムにあるメールアドレスにギフト券番号を連絡すればよさそう

134/名無しさん[1-30].jpg2019/12/29(日) 10:00:48.26ID:tw6sqPnc0
256シリーズ第二弾、12_26_2019版対応
LIAEF256
フォーラムのダウンロードに上げてあります
https://mrdeepfakes.com/forums/thread-custom-256-face-model-auto-preview

作成方法はDF256と同様

135/名無しさん[1-30].jpg2019/12/29(日) 10:15:14.31ID:tw6sqPnc0
需要があるか、分かりませんが、作成できたので作成してみました
256シリーズ第三弾、12_26_2019版対応
H256
フォーラムのダウンロードに上げてあります
https://mrdeepfakes.com/forums/thread-custom-h256-model
作成方法はDF256と同様

136/名無しさん[1-30].jpg2019/12/29(日) 10:36:51.39ID:tw6sqPnc0
DF256があるから、他の256モデルを使用している人は少ないでしょうが
F256モデルも追加しました
F256モデルを軽く試した所、
フルフェイスなので似る事は似る
srcの表情が乏しかったのか、アイコラ的で表情に乏しい物ができてしまった
口周りのMask処理相当は必要
フォーラムのダウンロードに上げてあります
https://mrdeepfakes.com/forums/thread-custom-256-face-model-auto-preview
最新版の256シリーズはここにもあります

137/名無しさん[1-30].jpg2019/12/29(日) 13:12:07.83ID:mDvbBMXS0NIKU
>>128
俺も同じだ動かない。
colubでtrain動いてる人います?

138/名無しさん[1-30].jpg2019/12/29(日) 13:14:47.63ID:ZVonU5qBMNIKU
df256使うだけなら軽い0620ver.でもいいのか
それとも最新のやつのほうがいいのか

顔抽出性能向上とか細かいマイナーアップデート考えると最新版なのかな

139/名無しさん[1-30].jpg2019/12/29(日) 13:57:56.74ID:tw6sqPnc0NIKU
>>138
最新版は、主にSAEHDの対応でしょうから、
SAEHD以外の人は、無理に最新版にする必要はない場合もあるかと思います
0620verは、顔の前に障害物がない顔画像、
FAN-dst不要の場合は、0620verとか使用した方が、境界のなじみに違和感が無いのでいいかと思います
FAN-dst使用したい場合は、FAN-dst使用可のVersion以降かと思います

140/名無しさん[1-30].jpg2019/12/29(日) 14:30:53.00ID:tw6sqPnc0NIKU
DFL最新版対応のDF512モデル
https://mrdeepfakes.com/forums/thread-custom-512-face-model
昔はDF512は、バッチ数4が可能だったのですが、
DFL最新版だと可能なバッチ数1に劣化
TITAN RTX VRAM 24GB以上で動作可能
DF256の人は、DFL最新版だと、動作可能なバッチ数は、以前の版数より少なくなってしまう気がします
DFL最新版だと、VRAMの使用容量が増加し、重たくなっている様な気がします
DFL最新版でtrainするメリットはあるんかいな?

141/名無しさん[1-30].jpg2019/12/29(日) 14:51:49.80ID:ZVonU5qBMNIKU
>>139
FAN-dstとかは0620でも使えるはずだけど…
最新版の方がFANsegの性能上がってるから使うなら最新版の方がいいってこと?

後 FANprdの効能がいま1わからんのです
dstの方はなんとなくわかるけど

142/名無しさん[1-30].jpg2019/12/29(日) 15:01:55.70ID:zmkCPRCA0NIKU
FANPrdはsrcの輪郭を反映できる。
エラとか顎のラインが特徴的なsrcの場合に使える。

143/名無しさん[1-30].jpg2019/12/29(日) 15:11:05.57ID:tw6sqPnc0NIKU
>>141
FAN-dstとかは0620で使用できるのは、SAEモデルだけでは?
DF、H128、DF256とかになると、FAN-dst使用可能になるのは、
0830以降とか、8月の途中の版以降あたりだった様な

144/名無しさん[1-30].jpg2019/12/29(日) 15:15:07.51ID:tw6sqPnc0NIKU
DFL最新版対応のLIAEF512モデル
https://mrdeepfakes.com/forums/thread-custom-512-face-model
TITAN RTXでバッチ数:1であれば動作を確認
バッチ数の上限は未確認

145/名無しさん[1-30].jpg2019/12/29(日) 15:24:01.72ID:tw6sqPnc0NIKU
12_26_2019版だと、
カスタムのH512モデルは動作しませんでした
DF512が動作したからいいのですが

146/名無しさん[1-30].jpg2019/12/29(日) 16:34:07.30ID:tw6sqPnc0NIKU
>>131
凡ミスにより、Model_DF256\Model.pyを上書き差し替えています
VRAM 24GBでBatch_size:30とか
以前のVersionでは48可能だったので、
DFLのVersion Upのたびに重たくなっている気がします

147/名無しさん[1-30].jpg2019/12/29(日) 16:38:42.95ID:VEVq0an/CNIKU
>>142
ありがとうございます
srcのフェイスラインに癖がない場合は使う必要なさそうですね
>>143
そうだったんですね
勘違いしていました

1220verでdf256を実行すると以下のメッセージが出た後 普通にトレインしています
これって無視していいのでしょうか
2019-12-29 16:34:35.112997: E tensorflow/stream_executor/cuda/cuda_driver.cc:806] failed to allocate 167.85M (176007936 bytes) from device: CUDA_ERROR_OUT_OF_MEMORY: out of memory

質問ばかりで申し訳ないです…

148/名無しさん[1-30].jpg2019/12/29(日) 16:50:58.56ID:cxuUh7gB0NIKU
>>30
これ表情の拡張がすごい
微笑みsrcでアヘ顔外国人も出来る

149/名無しさん[1-30].jpg2019/12/29(日) 17:03:28.78ID:tw6sqPnc0NIKU
12_26_2019版ベースのExtractor512+pngで抽出
https://mega.nz/#F!3jAljYxR!oZFLBfV3Vza6xnPJMDCzOw

オリジナルの作者とは別人
Pythonは知らんが、差分法で作成
dstが512×512のpngで抽出される事は確認済

150/名無しさん[1-30].jpg2019/12/29(日) 17:03:55.68ID:oN4Nw6FE0NIKU
つか単純に外人(白人)の方が顔認識の精度高くない?

151/名無しさん[1-30].jpg2019/12/29(日) 17:13:30.49ID:tw6sqPnc0NIKU
>>147
バッチ数がぎりぎりtrain可かと
trainできているのなら問題ないのでは?
試しにバッチ数を減らしてエラーが出なくなるかどうか確認とか
cudaのallocate Errorはよく出ますよね
0620だとModelBase.pyが違うので、Model_DF256\Model.pyは別物
0620用のModel_DF256\Model.pyを作成しないと
Python知らなくても、何とか差分法で作成できたりするかと思います
0620でDF256だと、Mask mode: (1) learned, (2) dst
だけかと思います

152/名無しさん[1-30].jpg2019/12/29(日) 17:15:24.21ID:vNCt6Kdx0NIKU
>>148
srcとdstのalignedを同じにして
両方例えば0.08くらいまでtrainしたあと
srcのalignedを目的のものに差し替えるんだよね?
一時間回した感じではpreviewの一番右の列の見た目はdstのままだった
単に試行が足りないのかsrcの画像不足なのか…
truefaceとかオプションつけた方がいいのかな

153/名無しさん[1-30].jpg2019/12/29(日) 17:36:12.70ID:tw6sqPnc0NIKU
12_26_2019版ベースのauto_preview
https://mega.nz/#F!iiIwiCjY!8ViM6fusVUyBsYSuh_goBw

オリジナルの作者とは別人
手抜きVersion
プレビューの更新間隔のみカスタマイズ
プレビューの表示サイズなどは、オリジナルのDFLと同じまま

154/名無しさん[1-30].jpg2019/12/29(日) 17:46:32.17ID:fNYXm1+I0NIKU
>>148
kwsk

155/名無しさん[1-30].jpg2019/12/29(日) 19:02:18.57ID:tw6sqPnc0NIKU
おお、初めてこのスレの住民の方からきました
本当にどうも、ありがとうございます

DF256使用の場合は、FAN-dstが使用可能な、ぎりぎりのVersionの方がいいのかもしれませんね
Version UpのたびにVRAMの使用量が増えて、厳しくなっている気がします
新しいVersionの、顔抽出の良さだけをいいとこどりできないかな?
train以降は昔のVerとか
やってみないと分かりませんが

156/名無しさん[1-30].jpg2019/12/29(日) 19:13:42.17ID:tw6sqPnc0NIKU
個人の趣味の問題もありますが、
12_26_2019版で、カスタムsetenv.batで、
CUDA、CUDNN、ffmpeg、python-3.6.8、XnViewMP
DFLが内部に抱えている物ではなくて、
C:\Program Filesの下の共通の物を参照できました
DFLのVersionを複数抱えていたりして、ストレージ容量とか削減したい人とか向け

157/名無しさん[1-30].jpg2019/12/29(日) 19:58:26.99ID:1+tdogncpNIKU
こいつのアフィリエイトスレになっとるやん

158/名無しさん[1-30].jpg2019/12/29(日) 20:10:19.26ID:tw6sqPnc0NIKU
アフィリエイト収入はほぼ0だけどな

159/名無しさん[1-30].jpg2019/12/29(日) 20:25:18.81ID:cxuUh7gB0NIKU
>>152
>>154
train進むほど普通の顔になるわ
期待させてすまん

160/名無しさん[1-30].jpg2019/12/29(日) 20:51:59.08ID:VEVq0an/CNIKU
有用な情報なら何でもいいのでは

161/名無しさん[1-30].jpg2019/12/29(日) 21:04:24.55ID:tw6sqPnc0NIKU
>>159
表情の拡張なんて、あれっと思ったのですよね

162/名無しさん[1-30].jpg2019/12/29(日) 22:07:29.62ID:vNCt6Kdx0NIKU
>>159
30の言ってること自体は間違ってないと思うんだけどなかなかうまくできない…

それはそうとpornhubのahegao検索結果をdstにして色々試してるんだけど
極端な寄り目や白目は難しいな
src画像を自分で寄り目にするしかないのか

163/名無しさん[1-30].jpg2019/12/29(日) 22:56:35.29ID:tw6sqPnc0NIKU
>>30のやり方で、1つ動画が上手くいったと、素直に喜んでいたのだが、
>>30のやり方をしなくても、上手くいく動画だったのかも知れない
今度、舌ベロがいっぱい出ているdstでやってみよう

4.2.other) data_src util faceset enhance best GPU.bat 使用してみたのですが
動作可能なバッチ数が少し少なくなってしまう様な気が。。
それは原理的にそう言う物なのか?
VRAM 24GBでDF256でバッチ:28とか
4.2.other) data_src util faceset enhance best GPU.batも、512、pngはカスタム作成かぁ

164/名無しさん[1-30].jpg2019/12/29(日) 23:04:07.35ID:mDvbBMXS0NIKU
正月休みにcolab動かない困った

165/名無しさん[1-30].jpg2019/12/30(月) 02:10:50.40ID:rbzW5//X0
TITAN基地外や30みたいなオカルト手法でわけわからんようなっとるなwいいよいいよー

166/名無しさん[1-30].jpg2019/12/30(月) 03:16:42.16ID:01hrKP7q0
>>164

試しにtrain済みのmodelじゃなくて初期状態からやったらいけた。

167/名無しさん[1-30].jpg2019/12/30(月) 03:46:29.73ID:rKg13mQI0
SAEHD:optimized architecture, you have to restart training

168/名無しさん[1-30].jpg2019/12/30(月) 04:18:11.33ID:ixtxSxLg0
DFLcolabは常に最新バージョンになっちゃうからmodel使いまわせなくなる可能性あるってことか

169/名無しさん[1-30].jpg2019/12/30(月) 04:34:13.39ID:h428OUkJ0
DFLデビューしようと思ったけど
なんかDLリンクにすら辿り着けない

170/名無しさん[1-30].jpg2019/12/30(月) 07:30:32.86ID:kctyR7Mv0
>>166>>168
なるほどそういうことか
modelの使い回しが出来なくなるなら一点集中でやらないとダメですね。
育ててきた俺のsrc5人分の10万trainがパーか

171/名無しさん[1-30].jpg2019/12/30(月) 08:13:03.40ID:mOJgHVkdd
>>170
それはさすがにってことで
1226版も並行して残すって書いてあったよ
中華サイト情報ですまんが

172/名無しさん[1-30].jpg2019/12/30(月) 08:20:20.16ID:CPPBzd+d0

173/名無しさん[1-30].jpg2019/12/30(月) 08:38:52.24ID:rbzW5//X0
辿りつけない奴なんてほっとけよw
またいろいろ簡単なこと聞かれて懐かれるぞ

174/名無しさん[1-30].jpg2019/12/30(月) 08:40:49.95ID:CPPBzd+d0
== 29.12.2019 ==
編集されたマスクを含むフェイスのフェイスセットエンハンサーを修正
同じDFLフォルダーでさまざまなgpusを使用する場合の長い負荷を修正
整列していない面の抽出を修正
avatar:avatar_typeはデフォルトで頭のみになりました

== 28.12.2019 ==
FacesetEnhancerはaligned_enhanced /をaligned /にマージするように要求するようになりました
手動抽出で検出された0個の顔を修正
Quick96、SAEHD:最適化されたアーキテクチャ。 トレーニングを再開する必要があります。
現在、ビルドはCUDA(9.2ベース)とOpenclの2つのみです。

175/名無しさん[1-30].jpg2019/12/30(月) 08:42:00.68ID:CPPBzd+d0
== 29.12.2019 ==
fix faceset enhancer for faces that contain edited mask
fix long load when using various gpus in the same DFL folder
fix extract unaligned faces
avatar: avatar_type is now only head by default

== 28.12.2019 ==
FacesetEnhancer now asks to merge aligned_enhanced/ to aligned/
fix 0 faces detected in manual extractor
Quick96, SAEHD: optimized architecture. You have to restart training.
Now there are only two builds: CUDA (based on 9.2) and Opencl.

176/名無しさん[1-30].jpg2019/12/30(月) 08:47:18.33ID:CPPBzd+d0
ファイル名が
DeepFaceLab_CUDA_build_12_29_2019.exe
になりました
解凍すると
DeepFaceLab_CUDA
になりました
CUDA9.2のみになりました
RTXでもCUDA9.2でも動いた様な気がします
CUDA10.1を使用したい人は自分で

177/名無しさん[1-30].jpg2019/12/30(月) 09:29:30.86ID:CPPBzd+d0
システムのCUDA10.1、python-3.6.8、ffmpeg、XnViewMPは使えています
1226版で新規作成したモデルであれば、1229版でもDF256でtrainできています
1226版に比べれば、バッチ数は同じでした
workspaceのコピーに時間がかかるので、1226版の物を参照しています

178/名無しさん[1-30].jpg2019/12/30(月) 09:46:33.21ID:CPPBzd+d0
趣味の話ですが、カスタムのバッチが増えてきたので、
使用しないものは待避して別の場所に移動しています
train、convertのH64とかQuick96とか
8) converted to avi.batとか
F256など、モデルはあるが、train、convertのBatファイルは、F256モデル内のフォルダ内だな

179/名無しさん[1-30].jpg2019/12/30(月) 10:44:33.67ID:CPPBzd+d0
差分も取っていないのだが、Trainer.py変更の可能性もあると思い、
12_29_2019版ベースのauto_preview
https://mega.nz/#F!Gux1VKoC!OFge6yPJFFBt8qpa-6zrAA

オリジナルの作者とは別人
手抜きVersion
プレビューの更新間隔をカスタマイズ
Training preview (Auto Update) の表示
3分に1回の頻度でモデルをSave
デフォルトは15分なので、変更したい場合は、30行目の
save_interval_min = 3 の数値を変更
プレビューの表示サイズなどは、オリジナルのDFLと同じまま

180/名無しさん[1-30].jpg2019/12/30(月) 10:47:19.72ID:T5ndQbYD0
新しいDFLは また一からtrainし直しなのか
アップデートする意味あるのかな

181/名無しさん[1-30].jpg2019/12/30(月) 10:50:28.27ID:CPPBzd+d0
train再開時に、同じ設定でtrainがすぐ落ちてしまう事があり、
メモリクリーナーで検索して、
JetBoostを使用してみました
たまたま自分の環境ではいい感じです。注意点はユーザーレビューにある通り
メモリクリーナーが必要であれば、各自お好きな物を

182/名無しさん[1-30].jpg2019/12/30(月) 11:13:04.97ID:CPPBzd+d0
Quick96, SAEHD: optimized architecture. You have to restart training.
src_scale_modの有無が変更になってからか、yawでsortの有無が変更になってからか、
モデルの互換が無くなった様な気はします
DF256では試してはいませんが
CUDA9.2のみになりましたね。自分で簡単にCUDA10.1にできますが
iperovは寄付をたんまり受けて、RTX2080Ti搭載のパソコンも買えていないのか?
iperovはSAEHDに夢中ですしね。DF256の人がどこまで最新版に追従する意味合いがあるのかは不明かと

183/名無しさん[1-30].jpg2019/12/30(月) 11:30:26.86ID:xWT4E/sI0
完成した動画がちょいちょいdstの顔に戻るところあるんですけど、
これは単純にtrain不足ですか?
それともdata_dstのalignedの画像を消しすぎってことですか?

184/名無しさん[1-30].jpg2019/12/30(月) 11:47:46.27ID:CPPBzd+d0
>>183
srcの画角、カメラアングルが不足していて
srcとdstの画角が概ね一致していない様な時でもそうなりますね
data_dstのalignedは基本消さないと思いますが
間引く場合は、FANSegモデルのTrain時とかぐらいでは?
train不足でもそうなるかも知れませんね

185/名無しさん[1-30].jpg2019/12/30(月) 12:34:20.65ID:6dr1/A+Kd
>>183
消されたdstのaligned画像はconvertされないから間引いてtrainする場合は取っといて戻す必要あり
もう一つの可能性はdstのextractがうまくいってなくてそもそもalignedに入ってない
これはdebugをチェックして自分で再extractするべし

186/名無しさん[1-30].jpg2019/12/30(月) 12:45:49.43ID:CPPBzd+d0
差分も取っていないのだが、Extractor.py変更の可能性もあると思い、
12_29_2019版ベースのExtractor512+pngで抽出
https://mega.nz/#F!v3J3WKDB!BX0Me05-G-IwE5dmZ071Mw

オリジナルの作者とは別人
Pythonは知らんが、差分法で作成
dstが512×512のpngで抽出される事は確認済

187/名無しさん[1-30].jpg2019/12/30(月) 12:50:37.76ID:CPPBzd+d0
>>183
\workspace\data_dst\aligned_debugの画像を見て、うまく顔抽出がいっていない画像を削除
5) data_dst extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat
を使用して、手動で顔を再抽出
マウスカーソルを動かすと、目、鼻、口、眉、顎などぴったりになる事も
上手くいったらSave

188/名無しさん[1-30].jpg2019/12/30(月) 13:26:48.33ID:CPPBzd+d0
>>181
train中に、2回、画面が真っ黒になってしまったので
JetBoostでの変更を元に戻し、JetBoostをアンインストール
ここは素直にPCをリブートしろと言う事なのかな
後、Trainer.pyのsave_interval_min = 5 にしてみました
alignedの画像が少ないと、学習が速いですね
512で抽出して256で学習が速い様な気が。気のせい?
4.2.other) data_src util faceset enhance best GPU.bat
していないからかな?

189/名無しさん[1-30].jpg2019/12/30(月) 13:38:24.13ID:xWT4E/sI0
>>184>>185>>187
勉強になりました。
ありがとうございます。

190/名無しさん[1-30].jpg2019/12/30(月) 13:57:23.28ID:CPPBzd+d0
質問される方は、過去スレを読んだ方が、結果的に理解が早いそうですよ
Part1とか若いスレは、DFLではなくて、別のソフトの話題なので、関係ないかな
過去スレを、知りたい検索ワードで、検索すれば、大抵はひっかかるそうですよ

どなたか過去スレまとめのアフィサイト作成の話はどうなったのでしょうか?

どなたかWiki作成の話はどうなったのでしょうか?タイトルは適当に誤魔化して
大変そうですが

191/名無しさん[1-30].jpg2019/12/30(月) 17:59:00.99ID:grnR6fuL0
>>30
の手法で6.20の旧バージョン、H128でもかなりいけるよ
簡単に済ませたいのでこれでいいかなぁと割り切り

192/名無しさん[1-30].jpg2019/12/30(月) 20:05:52.68ID:vPwIQCl20
dstの「aligned」フォルダ内の顔じゃないものとか、ひっくり返ってる顔とか削除するけど、
その欠番を「aligned_debug」に反映させて自動で削除や隔離する方法やツールって無いの?

193/名無しさん[1-30].jpg2019/12/30(月) 20:31:21.75ID:T5ndQbYD0
>>192
alignedファイル名のうしろ「_0」を削ったものがaligned_debugファイル名になるから
それを元にバッチファイルなり作成すればいけるかもね。
(alignedファイルをソートしていないことが前提)

194/名無しさん[1-30].jpg2019/12/30(月) 20:31:42.95ID:5jE0LmA30
re extractの逆みたいなやつな
おれも欲しいなと思ったことあるな

195/名無しさん[1-30].jpg2019/12/30(月) 20:43:11.28ID:6dr1/A+Kd
それに加えて「本当はextractしてほしいのにされてないもの」もあるから結局debug画像はチェックしないといけないんだよな…

196/名無しさん[1-30].jpg2019/12/30(月) 20:43:23.17ID:q5mpt/hep
>>192
自分で作ったよ。
欠番と重複チェックしてdebug削除。

197/名無しさん[1-30].jpg2019/12/30(月) 20:47:26.50ID:1pJ8awQ/0
前にここに上がってたGUI版のDFLにそんな機能ついてた

198/名無しさん[1-30].jpg2019/12/30(月) 20:58:33.49ID:T5ndQbYD0
>>196
欠番チェック・debugファイル削除ってこんな感じのやり方かな?

「5) data_dst extract faces S3FD best GPU.bat」なりで顔抽出後、
不要aligned削除前に「dstのaligned」のファイル一覧取得しておいて、
不要aligned削除後にスクリプト等で、欠番チェック・alignedの欠番と一致するdebugファイルを削除する

199/名無しさん[1-30].jpg2019/12/30(月) 21:22:43.21ID:8gmfBQW80
>>192
@echo off
call _internal\setenv.bat
chdir /d "%WORKSPACE%\data_dst\aligned_debug"
echo please wait...
for %%F in (*.jpg) do call :sub "%%F"
pause
exit

:sub
set filename=%~n1
if not exist %WORKSPACE%\data_dst\aligned\%filename%*.jpg (del %WORKSPACE%\data_dst\aligned_debug\%filename%*.*
echo %1)
goto :eof
自己責任で。

200/名無しさん[1-30].jpg2019/12/30(月) 21:23:52.32ID:B9+ODVDV0
エンハンスめっちゃ遅いな i9 9900Kの3,000枚で9時間
確かに細部がクッキリするし、ボヤけもマシになる エンハンス済のsrcだけで揃ってないとtrain出来ないっぽい
ファイルサイズも大分大きくなってる 512サイズでエンハンスかけた顔はmask editorやたら重くなるだろう

201/名無しさん[1-30].jpg2019/12/30(月) 21:26:56.25ID:5jE0LmA30
そ、そんな時間かかるの?
しかもエンハンスしてないものと混在してたらだめなんだ

202/名無しさん[1-30].jpg2019/12/30(月) 21:44:14.93ID:T5ndQbYD0
もしかしてこのスレで言われていた新verでtraingのbat数下げないと動かないのってエンハンスしたせいなのか?

203/名無しさん[1-30].jpg2019/12/30(月) 22:04:04.53ID:CPPBzd+d0
エンハンスするとbat数は下げないと動かないみたい
versionを新しくするとbat数は下げないと動かないみたい
2つあるみたい

204/名無しさん[1-30].jpg2019/12/30(月) 22:07:03.78ID:6dr1/A+Kd
個人的意見だとenhance自体の影響じゃないと思うよ
ファイルサイズが大きくなってるのは最近のextractor.pyのデフォルトjpg品質指定が100に上がってるのもあるかもね
メモリ使用量も変わらないようには感じる

205/名無しさん[1-30].jpg2019/12/30(月) 22:15:02.27ID:CPPBzd+d0
1.versionを新しくするとbat数は下げないと動かなかった(DF256)
2.更に追加でenhanceすると、bat数は更に下げないと動かなかった(DF256)

206/名無しさん[1-30].jpg2019/12/30(月) 22:23:56.39ID:6dr1/A+Kd
>>205
一つ上の書き込み見れずに書いちゃったよ悪いね
tomoeの人は共有メモリも合わせて24Gとか言ってたっけ
俺は無印1070でSAEHDのres160バッチ6でちんまりやってるだけだから参考にはならんかもね

207/名無しさん[1-30].jpg2019/12/30(月) 22:25:30.01ID:T5ndQbYD0
いやいや色んな環境での動作状況は参考になる

208/名無しさん[1-30].jpg2019/12/30(月) 22:27:00.18ID:CPPBzd+d0
== 23.12.2019 ==
Now they consume less amount of RAM and work faster.
は体感できていないな。trainは関係ないのか

209/名無しさん[1-30].jpg2019/12/30(月) 22:29:56.18ID:6dr1/A+Kd
>>200
i5の俺が700枚50分だったよ
でも確かに初期の読み込み起動が異常に遅いときはあるかな

ちなみに一枚4秒程度は自分でgigapixel AI単体で動かしたときと同じくらいだった

210/名無しさん[1-30].jpg2019/12/30(月) 22:39:46.06ID:CPPBzd+d0
tomoeの人はVRAM24G TITAN RTX
システムメモリ32G(NVIDIAの推奨の最低がVRAM容量だったから)
システムメモリの実使用量を見ると、10.3GB/31.8GB(32%)とか(DF256)
パソコン工房は、16GBでいいのでは?との事
電源容量も800Wでいいのでは?との事で、
1200W電源とか選べませんでした
ちょっとFANの音がうるさい気がします
CPUは水冷なのですが、グラボの水冷はパソコン工房ではできませんでした
自分ではできません
グラボ水冷にすると、静かになるのかな?

211/名無しさん[1-30].jpg2019/12/30(月) 23:21:19.86ID:CPPBzd+d0
もう1台、マウスコンピューターのミニタワー、MicroATX
i7-8700 16GB CPU空冷 450W電源+RTX2080持っています
後から気が変わって、DFLのためグラボだけ追加しました
これがものすごくFANがうるさいですね
何も知らずにRTX2080だったのですが、DFLでは2060Superで同等ですかね
大奮発して、2080Tiとかだとぶつかって入らなかったのかな?
2080でぎりぎりだし

212/名無しさん[1-30].jpg2019/12/30(月) 23:22:12.66ID:CPPBzd+d0
もう1台、フロンティアのミドルタワー、1000W電源、
i7-第3世代 16GB CPU空冷持っています
これに入れると少しは静かになるのか?切り分けの価値ありですが、面倒でまだやっていない
パソコンを隣の部屋に置くと、さすがに静かですね
無線LANでつなぐと、もたつく事があり、イライラしました
宅内有線LANの工事を頼むのも面倒で、まだやっていない
1台はリモートで乗り込んだり、ファイル共有したりするため、
同じ部屋に設置が必要かな。それは押入れに入れれば、少しは静音化になります
1台は既に押入れに入れています。3mのディスプレイケーブルとかUSB、オーディオ延長とか

213/名無しさん[1-30].jpg2019/12/30(月) 23:28:38.78ID:T5ndQbYD0
静かさ求めるならエアフロー
大きなケースに大きめのファンをゆるく回すのがベスト
2080だけど全然うるさくない

214/名無しさん[1-30].jpg2019/12/30(月) 23:52:26.69ID:CPPBzd+d0
やはりそう言う物なんだ
TITAN RTX搭載パソコンも、ケースは大きいのですが、FANが3つしか無いしね
自前でFANを追加できないか、パソコン工房に聞いてみよう
ASUS Z390-Aは4ピンPWM/DCファンだけでも5個もあります
ミドルタワーATXケースなのですが、かなり大きく感じました
世の中にはこれ以上の大きなケースのPCもあると言う訳か
まあ押入れに収納できればいいしね

215/名無しさん[1-30].jpg2019/12/31(火) 00:02:01.67ID:+EeBDs0x0
1114版でtrainしたDF256モデルデータを、1229版で継続trainできましたね
== 23.12.2019 ==
all models: removed options 'src_scale_mod', and 'sort samples by yaw as target'
でモデルデータの互換が無くなったかと思いましたが
カスタムモデルtrain/convertは再作成済

== 28.12.2019 ==
Quick96, SAEHD: optimized architecture. You have to restart training.
ですが

216/名無しさん[1-30].jpg2019/12/31(火) 02:15:36.50ID:BUdRslgl0
ミドルタワーに2080Tiが入るわけないだろw
どんだけデカいと思ってんだ。

普通のATXケースでも寸法確認しないと入らないのに。

217/名無しさん[1-30].jpg2019/12/31(火) 09:26:16.02ID:WqOwtOTZC
DF256回してるけど輪郭が中々はっきりしてこないな
15万くらいで目処つくかな

218/名無しさん[1-30].jpg2019/12/31(火) 10:15:55.00ID:+EeBDs0x0
>>216
そうなの?2080と2080Tiでサイズは大違いなの?
今、ミドルタワー、1000W電源に2080を搭載してみようかと思っています
2080ならミニタワー、MiicroATXにぎりぎり入りましたし

TITAN RTXはミドルタワーATXケースに入っています
サイズ 約幅213mm×奥行510mm×高さ488mm ※最大突起物除く
ケースの中にマザーボードが入っていますが、マザーボードが入っていないスペースに余裕がある様に見えます
拡張ベイ(空きベイ数) 5.25インチベイ×4(3) ,3.5インチ内蔵ベイ×8(7) ,2.5インチ内蔵ベイ×6(6) ,3.5/2.5インチ兼用内蔵ベイ×1(1) ※基本構成時のベイ数となります。
やたらとHDDの内蔵搭載可能です。マザーボードはSATA6ポートなので、BD×1台、HDD×4台搭載済
これ以上HDDの台数を搭載したい場合は、SATA3.0 増設ボード 4ポート拡張カード 6Gbps PCI Express PCIeとか購入が必要かと
HDDはとりあえず4台もあればいいや。6TB+6TB+4TB+4TBなのですが、
4TBを6TBに換装するとか。ちょうどパソコン工房のポイントが 2831 pt入ったし
パソコン本体の価格の割には、ポイント還元率が低いな。ぶーぶー

219/名無しさん[1-30].jpg2019/12/31(火) 10:25:19.90ID:5LOYB/FC0
2080tiといってもメーカーとモデルによって全長が全く違う。

220/名無しさん[1-30].jpg2019/12/31(火) 10:53:25.63ID:+EeBDs0x0
4TBのHDDも、ちょっとバックアップの取り過ぎ状態です
トレジャー女優さんのフォルダは全HDDにあるしな
碧しのフォルダとかは、563GB程あるしな
2台のHDDだけ残して、後は削除すれば、空きは出るかと
パソコン工房のポイント2831pの使用のため、6TB HDD×1台とか、追加で買ってみますかね

221/名無しさん[1-30].jpg2019/12/31(火) 11:01:15.96ID:nf6LE4BF0
DF256はバッチサイズ大きく出来るんだけど習熟はSAEHD256より遅い印象
いつ追いつくのか分からんので自分はやめた
想像だけど512抽出なら綺麗になるのかも

222/名無しさん[1-30].jpg2019/12/31(火) 11:13:31.84ID:+EeBDs0x0
SAEHD256は、Op1、AutoEncoder dims 1024、Encoder/Decoder dims per channel 85
にしたら、VRAM24GBでもBat:1でも動きませんでした
AutoEncoder dimsは512以下にする必要はあるのか
Opも3とかにする必要はあるのか

223/名無しさん[1-30].jpg2019/12/31(火) 11:37:34.42ID:+EeBDs0x0
最近のDFLのVersionになると、train中にブラウザを開いただけでもtrainが落ちる事が出てきました
2台のディスプレイ出力はオンボード接続なんですけどね
特に楽天のトップページとかだと重くてtrainが落ちる
まあ、DFLを使用していないPCも1台は必要なのか
そのPCから、隣の部屋のDFLのPCにリモートで乗り込むとか、ファイル共有するとか
PCの静音化は、隣の部屋に設置するのが一番静かですね
今部屋の2台のPCも、同じLAN、同じルーターにつながっていますしね
まあ、ディスプレイはHDMIとDVIをボタンで切り替えて、
2台のKB、マウスで使用しているのですが

224/名無しさん[1-30].jpg2019/12/31(火) 11:59:58.36ID:xe89m5RE0
Deepfake国内二強 + 番外編

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり
垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。


番外編

DFJ
ツイッターでフィリップ2世を勧誘しているのが発見され話題になるが、総合スレ民が実際に見に行くとあまりのレベルの低さに驚愕してしまう。
月額制で技術力は最低レベルだがリクエストには比較的応じてくれるとの話も。総合スレが宣伝に非常に効果的だと気づいてしまい定期的に宣伝に来るようになる。

225/名無しさん[1-30].jpg2019/12/31(火) 12:35:38.29ID:L0tehM+E0
Deepfake番外編

Dfidol
国内でのDeepfakeブームのきっかけを作った伝説の製作者。
技術も最高レベルであり特に日本人を多く作成する事で知られている。
海外の高い技術を持った製作者は海外セレブやK-POPのみで日本人はあまり作らないが
Dfidolが初めて最高レベルでの日本人動画を量産して国内でレジェンドとなる。
突然なんのメッセージもなくアカウントやサイトを閉鎖し現在は消息不明。
過去のテキストファイル等に中国語のような痕跡があり中華系の可能性も。

226/名無しさん[1-30].jpg2019/12/31(火) 13:43:35.89ID:A5MqLCZh0
>>215
旧modelの再利用がcolabでもできるか確認したいがGPUが割り当てられない

227/名無しさん[1-30].jpg2019/12/31(火) 15:05:24.18ID:+EeBDs0x0

228/名無しさん[1-30].jpg2019/12/31(火) 15:16:34.43ID:HAWltyFh0
srcとdstのalignedの画像なんですが、
顔半分だったりブレたり障害物ありの画像は削除するのでしょうか?
それとも別フォルダに入れてtrainしてconvert時に戻すのでしょうか?

229/名無しさん[1-30].jpg2019/12/31(火) 15:21:56.30ID:5LOYB/FC0
>>226
別アカウントでgo

230/名無しさん[1-30].jpg2019/12/31(火) 15:42:56.03ID:PAmX97/N0
>>228
srcのそういう画像は削除する
dstのそういう画像は別フォルダに入れてtrainしてconvert時に戻す

231/名無しさん[1-30].jpg2019/12/31(火) 15:44:48.87ID:HAWltyFh0
>>230
ありがとうございます

232/名無しさん[1-30].jpg2019/12/31(火) 17:22:16.06ID:uq4LJjf20
今更だけど、>>30のやり方って舌もちゃんと学習するの?

233/名無しさん[1-30].jpg2019/12/31(火) 17:53:26.06ID:Ph+Nnx9Z0
>>232
プレビューでどんどん鮮明になってくから学習してると思うよ

でも舌出してベロベロ舐め回すとかは上手く仕上がるけど
口の中で男汁を舌で転がす的なのは全然無理っぽい

234/名無しさん[1-30].jpg2019/12/31(火) 19:06:02.42ID:BQvTK0fNa
本当はぶっかけで作りたいけど髪ぶっかけで我慢
顔は不可能だよね?

235/名無しさん[1-30].jpg2019/12/31(火) 19:14:05.17ID:fDYtBtpx0
セイシめっちゃ精巧にマスクしてもダメだろうなw

236/名無しさん[1-30].jpg2019/12/31(火) 19:45:44.79ID:4mk721Sc0
dst動画を動画編集ソフトでコントラスト強調→明暗閾値以下をRGB0.0.0に変更→コントラスト元に戻して書き出し
merged動画とdst動画を重ねて明部透過で一定以上dstが明るい部分をmergedの上に表示できる
コントラスト上げすぎて白すぎる場合はdstの透明度を上げればいい

237/名無しさん[1-30].jpg2019/12/31(火) 20:11:25.46ID:wjKunUem0
>>30 の効果を検証してみた

フェラdst約30秒ほど抽出
35万回転のDFモデルで

A) dstのalignedをsrcにコピーして2500回転 その後、元のsrcに戻して2500回転
B) srcのまま 5000回転
両方FAN-dstでコンバート

結果はAとBはフェラ場面について全く同じ
Bのほうがsrc分回しているせいか解像度がやや高いくらい
saeHDではやってないが

238/名無しさん[1-30].jpg2019/12/31(火) 20:12:56.81ID:U8pA4NY5a
難しそうだな…しかし!ぶっかけの為ならやるしか無い
ありがとう

239/名無しさん[1-30].jpg2019/12/31(火) 20:32:10.02ID:vIzTqOno0
そこでFan-dst使ったら当然同じになると思う。

240/名無しさん[1-30].jpg2019/12/31(火) 20:34:51.09ID:5LOYB/FC0
マスクしてやったほうがはやくね・・・

241/名無しさん[1-30].jpg2019/12/31(火) 21:05:08.22ID:wjKunUem0
>>239
なんか間違えてた? どこで使うんだ

242/名無しさん[1-30].jpg2019/12/31(火) 21:42:44.86ID:+EeBDs0x0
>>240
マスクを嫌がらないのであれば、マスクすれば確実

243/名無しさん[1-30].jpg2019/12/31(火) 21:43:36.59ID:fDYtBtpx0
美空ひばりsugeeeeee

244/名無しさん[1-30].jpg2019/12/31(火) 21:47:15.71ID:ZSJRMssO0
美空はなんか失敗した感じだったw

245/名無しさん[1-30].jpg2019/12/31(火) 21:54:13.11ID:Pcex5UmB0
顔動画って何分とかいう連続動画を取り込んだほうがいいの?
それとも、数秒の細切れ動画多数でもそれほど変わらんのかな?
まあさすがに静止画写真多数よりは動画のほうがイイんだろうけど

246/名無しさん[1-30].jpg2019/12/31(火) 22:42:00.53ID:WqOwtOTZC
df256コンバートの時顔でかくならない?
1220なんだけど

247/名無しさん[1-30].jpg2019/12/31(火) 23:16:18.62ID:fDYtBtpx0
ひばりSAEHDだったな

248/名無しさん[1-30].jpg2019/12/31(火) 23:16:29.14ID:fDYtBtpx0
ひばりSAEHDだったな

249/名無しさん[1-30].jpg2019/12/31(火) 23:21:59.07ID:fDYtBtpx0
くそ…こんなくだらないのがダブってしまった…

250/名無しさん[1-30].jpg2019/12/31(火) 23:30:58.97ID:DMoXM2gHd
>>245
連続してる必要はないけど
色んな目線や口の開き方のバリエーションがないと
出来上がりが虚ろで人形みたいになりがち

でも動画ソースなしのtwitter自撮り数百枚だけでもそれなりにはなったよ
どうしても足りない角度は別のアイドルので補完

251/名無しさん[1-30].jpg2019/12/31(火) 23:55:04.09ID:Pcex5UmB0
>>250
>どうしても足りない角度は別のアイドルので補完
AKBの後ろの方の奴って全員同じ顔だから
適当コイても作成可能 的な話なんかな?

それとも、まったく似ても似つかぬ別人の打ち込んでもOKみたいな?

252/名無しさん[1-30].jpg2019/12/31(火) 23:58:01.72ID:Pcex5UmB0
>>250
そういや、正面と横顔から中間顔作れるソフトがあるみたいよ
顎の引き方が普通じゃ無いと、作成に結構苦労するみたいだけど

253/名無しさん[1-30].jpg2020/01/01(水) 00:00:51.46ID:3FG2i/ofdNEWYEAR
フォーラムにもここにもヤバいのが沸いてるな

254/名無しさん[1-30].jpg2020/01/01(水) 00:01:09.23ID:3FG2i/ofd
フォーラムにもここにもヤバいのが沸いてるな

255/名無しさん[1-30].jpg2020/01/01(水) 00:01:33.32ID:Ju0Y8/Oj0
ソフト探すと、
上に書いた中間顔を作るソフトとか
横顔から正面作れる技術とか
少ない音声単語読ませるだけでセリフしゃべらせられる技術とか
半端無い技術がいっぱい見つかる

まんま知り合い女のAVでヌケル日も近いという事か

256/名無しさん[1-30].jpg2020/01/01(水) 00:01:39.20ID:3FG2i/ofd
フォーラムにもここにもヤバいのが沸いてるな

257/名無しさん[1-30].jpg2020/01/01(水) 00:03:22.83ID:hx8MwnC60
フォーラムにもここにもヤバいのが沸いてるな

258/名無しさん[1-30].jpg2020/01/01(水) 00:03:27.90ID:hx8MwnC60
フォーラムにもここにもヤバいのが沸いてるな

259/名無しさん[1-30].jpg2020/01/01(水) 00:09:10.15ID:vK/9JgDM0
知らない美人より身近なブサカワ

260/名無しさん[1-30].jpg2020/01/01(水) 00:14:46.69ID:Ju0Y8/Oj0
>>259
女に短い文章読ませるだけで、
キーボードで打った文字の通りにに、その女の声でセリフ喋ってくれるAI技術が
既にあるらしい

261/名無しさん[1-30].jpg2020/01/01(水) 00:18:19.77ID:RiZXFK9k0
とりあえずあけおめ

262/名無しさん[1-30].jpg2020/01/01(水) 00:43:28.98ID:5Y0TNBNf0
>>253
>>254
>>256
>>257
>>258
お前とかな

263/名無しさん[1-30].jpg2020/01/01(水) 01:51:40.38ID:MjWD3KGd0
iter 3Mあたりからさらにsrc再現度UPして行く気がする

264/名無しさん[1-30].jpg2020/01/01(水) 09:26:21.60ID:5Y0TNBNf0
RT コアとTensor コアはディープラーニング トレーニングには無関係でしょうか?
であれば、RT コアとTensor コアの替わりにCUDAコアにしてもらいたいものですが、
主な利用用途がゲーム、クリエイティブ ワークロードなので、
CUDAコアばかりは無理な話なのでしょうか?
VRAM容量からすると、CUDAコアばかりは無意味なのでしょうか?

265/名無しさん[1-30].jpg2020/01/01(水) 10:45:41.66ID:5Y0TNBNf0
>>200
同じくi9 9900Kだけれども、src 22419枚で、2時間以下いぐらいか?3時間までかからない
4.2.other) data_src util faceset enhance best GPU.bat だけれども
VRAM 24GB
>>200の言うエンハンスは、Topaz Gigapixelでの事?
Topaz Gigapixelだと確かにエンハンスめっちゃ遅い

266/名無しさん[1-30].jpg2020/01/01(水) 10:49:21.50ID:5Y0TNBNf0
4.2.other) data_src util faceset enhance best GPU.bat
を使用すると、顔にシアンかのノイズ?が少しのったりしませんか?

267/名無しさん[1-30].jpg2020/01/01(水) 11:42:41.19ID:cb/+Xkqxd

268/名無しさん[1-30].jpg2020/01/01(水) 14:13:28.20ID:i3+v60K20
指定したフレーム番号からコンバートする方法ってない?
py書き換えるしかないの…?

269/名無しさん[1-30].jpg2020/01/01(水) 15:18:55.23ID:b7ApQNwN0
>>268
dstフォルダ直下の画像、dstのaligned_debugフォルダ内の画像、
dstのalignedフォルダ内の画像をconvertしたいものだけにすればいい

270/名無しさん[1-30].jpg2020/01/01(水) 15:44:21.13ID:Ju0Y8/Oj0
これ、作業するのにCPUの性能はあまり関係無いんかな?
5年くらい前のi7フラッグシップにRTX Ti積もうかと思ってるんだけど

271/名無しさん[1-30].jpg2020/01/01(水) 15:52:58.83ID:dtQp04W6d
>>251
別人の顔でもokかと言われるとよくはないんだけど
結果的に俺のsrc7人くらいの俯き顔はみんな内○理央だよ…

関係ないけどだ○りおは女優の割には結構過激なDVD出してるおかげで素材には困らなかった

272/名無しさん[1-30].jpg2020/01/01(水) 18:13:04.50ID:r4gTCBvc0
>>270
学習とかはGPUメインだろうけどそれ以外の作業でCPUの処理速度
意外と重要。それで、学習が進むと学習以外にかける時間が多くなる
から、CPUが遅かったりメモリが少なかったりすると結構ストレス。
5年ぐらい前だとhaswellとかskylakeぐらいだろうけど、現行CPUだと
1.5倍以上速くなってるはずなので、自分だったら買い替えるかな。

273/名無しさん[1-30].jpg2020/01/01(水) 18:30:53.23ID:5Y0TNBNf0
>>270
尺の長い、30分超大作の動画など作成している人などは、
Convertに時間がかかり、速いCPUとか欲しがっている人もいるみたいですよ
ConvertにFAN-dstとか、顔の前の障害物を処理する場合、笛動画などは
Convertに時間がかかります。ConvertはGPUが使えず、CPU
顔抽出、trainはGPU

274/名無しさん[1-30].jpg2020/01/01(水) 18:41:15.25ID:i3+v60K20
>>269
サンキュー、できたわ。これでいいならpy書き換えないでも、画像待避バッチファイル書けば応用ききそうやな

275/名無しさん[1-30].jpg2020/01/01(水) 19:22:27.43ID:5Y0TNBNf0
>>270
筐体の大きな、PCでないと、RTX2080Tiはぶつかったりしてのらないらしいです
筐体が大きかったり、電源容量が十分だったり、エアフローが十分だったりしないと
動作が不安定になる恐れもあるそうです

276/名無しさん[1-30].jpg2020/01/01(水) 19:30:47.27ID:8T1Iw/7qa
教えてもらった事を参考に動画編集ソフトのブレンド効果で
ぶっかけ出来ました顔面デロデロで満足です

277/名無しさん[1-30].jpg2020/01/01(水) 20:21:50.86ID:5Y0TNBNf0
おお。RTX2080を、マウスコンピューターのミニタワー、MicroATX、450W電源
に搭載していたのですが、
フロンティアのミドルタワー、1000W電源に搭載したら、少しだけ静かになりました
しかしフロンティアも筐体FANは2個しかないしな
やはり静音化には、筐体の大きさ、エアフロー、電源容量など大事みたいですね
しかしやはりうるさい。自分でFAN追加できないかな?
隣の部屋と有線LAN接続で、どのぐらいストレスなく使用できるのかな?
フロンティアのは前のPCなので、i7-第3世代になってしまうしな

2782002020/01/01(水) 20:34:19.19ID:3fF/aLtt0
>>209
間違えてopen clでやってた…cudaにしたら数十分で出来た!
ブレたりしてギザギザのSD画像はよりギザる模様 低画質の補完というより、高画質の強化に適してるのかな

279/名無しさん[1-30].jpg2020/01/01(水) 20:35:39.25ID:TWV6RlQwa
手先が器用で保証を気にしないなら
グリスとサーマルパットを高品質のものに変えると
温度が下がって多少静かになるよ

280/名無しさん[1-30].jpg2020/01/01(水) 21:09:42.98ID:rH5bWsnU0
12_29版のSADHDにしたら
TrainでValueErrorがでるようになったんだが
俺だけかしら

281/名無しさん[1-30].jpg2020/01/01(水) 21:36:58.40ID:UYvmeioK0
残念ながら再トレインが必要です

282/名無しさん[1-30].jpg2020/01/01(水) 21:44:25.29ID:rH5bWsnU0
>>281
教えてくれてありがとう
ショックだわ

283/名無しさん[1-30].jpg2020/01/01(水) 21:57:08.51ID:y5r/Nobr0
>>240
色調補正、色域変換、合成モード、効果範囲の設定と調整で実質作業は2分、
あとは動画編集ソフトの再エンコの待ち時間だけだ。

まあ、馬鹿には無理だろうし
fake作成時のマスクが1分で終わるならマスクの方が早いと思うよ。

284/名無しさん[1-30].jpg2020/01/01(水) 22:06:13.05ID:/n9W6y6TC
眉毛ごん太問題
どうしたら回避できるんだ…
たくましい顔で喘がれても困る

285/名無しさん[1-30].jpg2020/01/01(水) 22:07:26.34ID:vK/9JgDM0
学習時間入ってないやんけ

286/名無しさん[1-30].jpg2020/01/01(水) 22:24:11.91ID:bjJ1TOKS0
触覚がある画像を学習させたらどういうデメリットがあるんですか?

287/名無しさん[1-30].jpg2020/01/01(水) 22:27:27.70ID:vK/9JgDM0
眉毛ごん太問題遭遇したことないが、想像するに
・srcとdstの前髪・眉毛をマスクしていない
・convert時にerodeをマイナスにしていない
・srcとdstの両方またはどちらかのランドマークがずれている
あたりかね。
でこだしsrcを収集するのがもっとも手がかからない。

288/名無しさん[1-30].jpg2020/01/01(水) 22:30:22.10ID:vK/9JgDM0
>>286
srcのマスク範囲内に触覚等の髪が多いと
仕上がりにも変なところに髪生えたり黒ずんだりするよ。
srcの中にどれくらい触覚画像があるかにもよるが。

仕上がりで気にならない程度ならなにもしなくてよし、気になるならマスクすればよい。

289/名無しさん[1-30].jpg2020/01/01(水) 22:32:33.55ID:bjJ1TOKS0
>>288
dstの場合も同じ考え方でいいですか?

290/名無しさん[1-30].jpg2020/01/01(水) 22:34:57.87ID:dtQp04W6d
>>284
あまりにFAQすぎるがせっかくなのでまとめておくと

1本質的には前髪ぱっつんのsrc画像は使わない
2前髪を避けてmaskを手動再設定
3elode値を上げる(が輪郭再現とトレードオフ)
4FANdstにするとうまくいくこともある

1以外は結局srcの眉毛ではないのでどう考えるかは人それぞれかな

291/名無しさん[1-30].jpg2020/01/01(水) 22:35:59.71ID:vK/9JgDM0
>>288
いや、dstはむしろ触覚を残したいはずだから何もしなくてよい。
srcにマスク学習させてるなら、learned * fan-prd * fan-dst
srcにマスク学習させてないなら、fan-dstでconvertすればよろし。

292/名無しさん[1-30].jpg2020/01/01(水) 22:40:13.96ID:bjJ1TOKS0
>>291
なるほど!
わかりやすい説明ありがとうございます

293/名無しさん[1-30].jpg2020/01/02(木) 01:24:01.60ID:VUgou7yZ0
額に線入る問題はバージョンアップで解決されたの?

294/名無しさん[1-30].jpg2020/01/02(木) 08:37:43.52ID:zCnbzZt+0
dstのmask editしてない場合、trainでLMって、もしかして不要?

295/名無しさん[1-30].jpg2020/01/02(木) 10:21:03.43ID:JtOGF9cr0
%CUDA_PATH%;%CUDA_PATH%\bin;%PATH%のCUDAを使う場合
iperovがビルドした、CUDA、CUDNNを上書きした方がいいみたい
iperovはtensorflowと連携したCUDA、CUDNNをビルトしてくれたのかな

296/名無しさん[1-30].jpg2020/01/02(木) 10:48:01.15ID:JtOGF9cr0
最近、Bat数がやたらと少なくなってしまったなと嘆いていたのだが
調子に乗って、512でのExtract、pngでのExtractをやっていたせいもあるかな
512でのExtract、pngでのExtractはとっておいて、
デフォルトでのExtractにしてみますか
4.2.other) data_src util faceset enhance best GPU.bat
はした方がいいのかな

297/名無しさん[1-30].jpg2020/01/02(木) 15:25:39.24ID:UNdAEHzcM
>>290
というより前髪があるsrcは原則不可ということを最初に説明すべき。
「出来なくはない」「テクがあれば可能」などとかしこぶらない。

例えば、齋藤〇鳥をsrcにする場合を例にすると、まず貴重なデコ出しルックを収集し、
基本的にそれのみを素材にする。アングルが足りない部分だけ前髪ありで埋める。

実をいうと齋藤〇鳥はこれ系アイドルの中では意外とデコ出し素材が存在し、
srcとして何とか使える貴重な存在なんだ。(もちろんDFを用いる)

298/名無しさん[1-30].jpg2020/01/02(木) 16:11:00.69ID:ej6gyrt90
なんだこいつ

299/名無しさん[1-30].jpg2020/01/02(木) 16:19:11.99ID:RfqdrcX50
なんだとこのやろう

300/名無しさん[1-30].jpg2020/01/02(木) 16:34:02.12ID:u5s/B2Ugd
>>293
もともとそんなものは存在しない…
convertのオプションでどうとでもなるよ

>>297
それはその通りだね
俺は前髪ありdstを使うことが多いからあまり気にならないけど
眉毛もこだわるに越したことはないと思う

301/名無しさん[1-30].jpg2020/01/02(木) 17:57:13.17ID:rCyj93+IM
>>300
いや、だからプライドが高いのか何か知らんけどそういう物言いをやめろと言っているw
眉毛がdstでまともな作品なんか出来るわきゃないの。

そこをまず説明しなさいとわしは言っているw
出来てもいないことを出来たというなって話ね。

そこは厳密に「眉毛がdstだから正直あんま似てないけど一応できた」
など一般人にも通じる言い方をしないと。
ネットで流れてる神職人の作品しか知らない人は
DFLを使えばみんなあんなのが作れると思ってんだから。

(顔真っ赤にしながら「え?作れるよ?」という返しがあると思うけどなww)

302/名無しさん[1-30].jpg2020/01/02(木) 18:10:41.95ID:u5s/B2Ugd
>>301
なんだちょっと前にあっちで吠えてた人か…

上のレスの俺は眉毛込みじゃないと似てないよって思ってるから本質的にはって言い方したしあなたと同じ意見ではあるけど、
ごまかし方の一つの方法として前髪ぱっつん同士のsrcとdstにするのは別にありなんじゃないかとも思うよ
原理主義的にみんなに啓蒙するのは思う存分やってくれ

303/名無しさん[1-30].jpg2020/01/02(木) 18:22:17.94ID:JtOGF9cr0
>>301
srcの眉毛が無いのに、srcの眉毛が再現できる訳はなかろう
srcの眉毛が無いのなら、dstに眉毛があるのは、不自然極まりない

304/名無しさん[1-30].jpg2020/01/02(木) 18:32:03.66ID:JtOGF9cr0
>>301
顔認識が何であるかも知らない馬鹿なのか
眉毛は、顔のパーツなので
眉毛の無い顔は、そもそも人間の顔ではないのだよ
Python書いて提供していない奴が偉そうに言うな

305/名無しさん[1-30].jpg2020/01/02(木) 18:50:10.58ID:cVF3B3gRa
抜ければ何でもイイんでないかい?

306/名無しさん[1-30].jpg2020/01/02(木) 19:01:59.58ID:JtOGF9cr0
>>305
そうだよ
>>301
原理も何も知らないくせに、わめいて八つ当たりしているのは、いくら何でも頭がおかしい
自分で何とかしようという気はないのか?自分では何もできないのか?
だったら黙っていろ

307/名無しさん[1-30].jpg2020/01/02(木) 19:26:15.64ID:VUgou7yZ0
>>300
線については、髪の毛と眉の間問題とか、髪の毛ぱっつんぱっつん使うなとか
そういう件じゃないと思うよ
職人の動画見ると、明らかに額に直線入ってる事あるけど、あれは何?ってこと

308/名無しさん[1-30].jpg2020/01/02(木) 19:26:50.89ID:VUgou7yZ0
っていうか、君らは
何分の動画をどれくらいの時間で作ってんの?

309/名無しさん[1-30].jpg2020/01/02(木) 19:37:46.59ID:RfqdrcX50
5分の動画を2日かけて作って2分で抜くよ

310/名無しさん[1-30].jpg2020/01/02(木) 20:01:09.43ID:JtOGF9cr0
>>307
おでことかの境界の色違いは、顔の前に特に障害物とか無い動画限定だけれども
0620版とか使えば違和感はない。FAN-dstとか使えないので
環境を分けるのも面倒かも
LandmarksProcessor.pyのeyebrows_expand_mod=1.0を2.0とか大きくすると
眉毛のかなり上の方まで顔として認識するみたい
Mask Editorで開くと違いが分かる
LandmarksProcessor.pyの修正だと、顔抽出時もtrain時もsrc、dst両方に適用される
眉毛の未抽出もやろうと思えばできる。src、dst両方に適用されるけれども
convert時のerodeの設定で何とかならないの?

311/名無しさん[1-30].jpg2020/01/02(木) 20:01:41.26ID:zCnbzZt+0
>職人の動画見ると、明らかに額に直線入ってる事あるけど、あれは何?ってこと
wwwwwww

1スレ目の1レスから全部みてこいw

312/名無しさん[1-30].jpg2020/01/02(木) 20:11:52.13ID:zSINQeDH0
>>310
いや、色違いの問題じゃんくて、横線が出てるんだよ
ハッキリ線に見えるときもあるし、段差みたいになってる事もある
首とかにも発生してる事有るみたいだし
まるで、顔に四角い顔素材あてがって、角落としてない
みたいな状況になってる場合が多々あるみたい

よく考えてみたら、首のほうが多かったかもしれん

313/名無しさん[1-30].jpg2020/01/02(木) 20:17:13.62ID:zSINQeDH0
>>311
あほ

キーワード 線で検索したが
一切載ってないぞ

314/名無しさん[1-30].jpg2020/01/02(木) 20:20:11.25ID:CDRLXZdR0
首あたりに線が入るのは古いバージョンの時にあったな
最近のコンバートは賢くなって全く出ないはずだけど

315/名無しさん[1-30].jpg2020/01/02(木) 20:29:44.27ID:JtOGF9cr0
職人のは大量生産だから、erodeとかblurとかいじっていないのではないでしょうか
コンバート時に時間のかかるFAN-dstもやっていないのでは
顔の前に手がかかると、手の上に顔を合成しようとして、手がボケボケになり消えていると言う
時間のかかるMaskはしないでしょう
srcを抽出しようとしたら、大して似ていなかったぞ

316/名無しさん[1-30].jpg2020/01/02(木) 20:37:47.37ID:ej6gyrt90



こういうのか?仕様です。

317/名無しさん[1-30].jpg2020/01/02(木) 20:42:42.27ID:+bbCKlJL0
>>314
検索した時、あたらしいヤツのほうが線が出るって検索結果があったから
現状治ったのか聞いてみた

318/名無しさん[1-30].jpg2020/01/02(木) 20:56:50.75ID:JtOGF9cr0
>>316
これはひどいな。FaceSwapじゃん。blur大きくして、なじませられないのか?
>>317
convertにFAN-dstができる様になった新しい版から
境界のなじみは悪くなっている様な気はします
blur大きくして、erodeマイナスにして、何とかカバーしている様な気がします
顔の前に障害物の無い動画限定ですが
convert時にFAN-dstができる様になる前の版を使うのもありかと。0620版とか

319/名無しさん[1-30].jpg2020/01/02(木) 21:01:00.67ID:JtOGF9cr0
>>316>>317
H128とかハーフフェイスを使用すると、ひどくなる場合もあるかと思います
DF、DF256、SAEHDでフルフェイスを使用するとかのがいいかと

320/名無しさん[1-30].jpg2020/01/02(木) 21:26:47.74ID:ojijBFVXa
PCスペック低くてlawなんちゃらでconvertしてるだけでは?

321/名無しさん[1-30].jpg2020/01/02(木) 21:48:20.62ID:+bbCKlJL0
まあ、実際やってないから専門用語とか全然分からんけど
合成時、どんな髪の毛だと合成困難なの?

やっぱ、顔も体もデコ見える状態が一番楽なん?
目の横とかに長い髪かかるとか、面倒くさそうなんだけど

322/名無しさん[1-30].jpg2020/01/02(木) 21:53:57.57ID:jaxbayhh0
erodeとblurを上下左右分けて指定とかできるようにならんかな

323/名無しさん[1-30].jpg2020/01/03(金) 05:18:55.34ID:5PDXty//0
>まるで、顔に四角い顔素材あてがって、角落としてない
みたいな状況になってる場合が多々あるみたい

だから過去スレ全部よんでこい

324/名無しさん[1-30].jpg2020/01/03(金) 06:12:33.16ID:rTz8Gps9M
>>323
どうせ読んでも理解できないんだからほっとけよ

325/名無しさん[1-30].jpg2020/01/03(金) 06:47:05.35ID:HYV6Dy3P0

326/名無しさん[1-30].jpg2020/01/03(金) 07:17:39.07ID:Hdz1gP9s0
それで分からない池沼どもが溢れここもあそこも荒れ果て糖質の巣窟になっちまったとさメデタシメデタシ

327/名無しさん[1-30].jpg2020/01/03(金) 07:27:20.08ID:hyS51VWN0
咀嚼しているdstをうまく活かすにはどのようにすればよいのか。先輩方ご指導お願い致します

328/名無しさん[1-30].jpg2020/01/03(金) 09:31:50.63ID:z9OUfIgR0
>>325
検索で見つかる
DeepFaceLabを使った、Deepfakeの作り方
【DeepFaceLab】インストールと使い方2019

は目を通してみた?

329/名無しさん[1-30].jpg2020/01/03(金) 09:39:03.46ID:z9OUfIgR0
>>325
尺の短いdst動画を作って、convert option実際に色々試してみればいいと思うよ
それから過去スレに目を通せば、分かりやすくなっている

330/名無しさん[1-30].jpg2020/01/03(金) 09:47:39.05ID:z9OUfIgR0
>>325
最低限使用するbatファイル
2) extract images from video data_src.bat(1-3fps程度推奨)
3.2) extract images from video data_dst FULL FPS.bat
4) data_src extract faces S3FD best GPU.bat
4.2.2) data_src sort by similar histogram.bat
5) data_dst extract faces S3FD best GPU.bat
6) train DF.batまたは6) train H128.bat
7) convert DF.batまたは7) convert H128.bat
8) converted to mp4.bat

331/名無しさん[1-30].jpg2020/01/03(金) 09:54:55.08ID:z9OUfIgR0
>>325
動画制作のおおまかな流れ

素材を準備する
素材動画を全フレーム画像で書き出し
顔部分のみを抽出
誤検出された画像を削除
学習させる(train)
顔を移植した画像を書き出し(convert)
書き出した画像を動画にする

332/名無しさん[1-30].jpg2020/01/03(金) 10:03:57.53ID:z9OUfIgR0
>>325
workspaceフォルダを開きます

data_dst:ベースとなる顔データファイルを格納するフォルダ
data_src:上書きしたい顔データファイルを格納するフォルダ
model:train後のファイルが格納されるフォルダ
data_dst.mp4:ベースとなる顔データの動画ファイル
data_src.mp4:上書きしたい顔データファイルの動画ファイル

最初にサンプルデータが入っているので、そのまま実行して流れを確認できます。実際に使用する前には削除して"ファイル名はそのままに"ファイルを入れ替えます。

data_dst.mp4の体、顔の輪郭、髪型を生かして、data_src.mp4の目、眉毛、鼻、口を貼り付ける

333/名無しさん[1-30].jpg2020/01/03(金) 10:12:31.60ID:z9OUfIgR0
>>325
DFLはフリーの動画編集ソフトなどで
動画の縮小、拡大や、トリミング編集(カット編集)などぐらいはできる人が使用する物です
例えばAvidemuxとか。お好みで
動画編集ソフト、使い方などは検索してね
検索で見つけられなかったら、QAサイトへGo

334/名無しさん[1-30].jpg2020/01/03(金) 10:43:02.47ID:z9OUfIgR0
>>325
1回、data_dst.mp4は540pとか480pに縮小して、dstは顔のどアップでもない動画、尺は短い物を作成
data_src.mp4はつべのインタビュー動画などから切り出せばいいでしょう
data_src.mp4は1つの動画で、顔の画角、表情が色々あるのが望ましい
少なくとも、かんなちゃん、すずちゃんはよさげな動画はつべで見つけられた
最初はsrcは映画やTVドラマからではなく、できるだけ1人で映っている動画が
4.2.2) data_src sort by similar histogram.bat で別人物、顔ではない物を削除するのが楽
最初はDFでもいいやつ、顔の前に障害物が無いdst動画が楽
1回、一通り作成してから、過去スレに目を通せば、より分かりやすい

335/名無しさん[1-30].jpg2020/01/03(金) 12:28:43.46ID:TQyXUcBc0
>>323>>324
はじめと言ってることが違うよね?
不正アクセスストーカーのあんちゃん

336/名無しさん[1-30].jpg2020/01/03(金) 13:04:52.62ID:z9OUfIgR0
>>325
確かに最初から>>325だと少し分かりづらいかもね
そういう時は、>>328だと、日本語で少し噛み砕いて書いてある
URLと短縮URLはNGワードで貼り付けられなかった
まあ、検索すれば分かるかと
その後でいいから、過去スレや>>325には一通り目を通してね

337/名無しさん[1-30].jpg2020/01/03(金) 13:53:42.44ID:eK1JF9Bf0

338/名無しさん[1-30].jpg2020/01/03(金) 13:57:20.59ID:CJ5qRlGV0
輪郭に対して、顔パーツを少し上や下に移動して配置することはできないのでしょうか?

339/名無しさん[1-30].jpg2020/01/03(金) 14:07:54.77ID:3f7jy0FW0
モデルの使いまわしは、学習速度を早くできるけど、使いまわすことの弱点とかありますか?

340/名無しさん[1-30].jpg2020/01/03(金) 14:27:52.71ID:OOWC7Dhq0
何ヶ月も使いまわしでずっとやってるけど、何も問題ない

341/名無しさん[1-30].jpg2020/01/03(金) 14:30:21.84ID:vVLZF4iud

342/名無しさん[1-30].jpg2020/01/03(金) 14:40:40.73ID:3f7jy0FW0
自分でやってみてよくわかったのですが、
srcの元の顔の特徴もよく とらえてるし、
dstが笑えば、mergedも笑うし、本当によくできた技術です。

343/名無しさん[1-30].jpg2020/01/03(金) 14:41:38.44ID:3f7jy0FW0
あと何年くらいすれば、
映画まるごと、キャラを置き換えるくらいになりますかね?

344/名無しさん[1-30].jpg2020/01/03(金) 15:13:29.11ID:u0hF2plpM
技術スレって蓄えていくものだと思っていたけどそう言うのはど返しで毎回一からなんだな。

345/名無しさん[1-30].jpg2020/01/03(金) 15:26:28.99ID:z9OUfIgR0
4k、8k放送や動画で、高解像度のsrcが大量に入手できる様にならないとね
TVの買い替えの時、4k、8k TVを購入している人も多いそうですが、
4k、8kコンテンツを見ている人がいったいどれだけいるのかと
地上波で既にチャンネルは多いし、4k Ultra HD Blu-rayは購入のみなので高い
PCで4k Ultra HD Blu-ray見るのもかなり高いPCが必要で、面倒くさかった様な
4Kがレンタルに回ってくる事はないのでしょう。未だにDVDだし
4k動画のダウンロードサービスはどの程度の市場規模なのかな?
GPUのコア数とVRAM容量も増えないとね。半導体も物理法則の限界近いのか?
なんだかんだ言って、ゲーム用途が一番市場を牽引しているのか?
8Kモニタは近くで見るPCディスプレイとしては、大きすぎて、視線移動が多くて見づらい気もします
今8Kだと60fpsぐらいになってしまうのか?ゲーマーはfps優先なのかな?

346/名無しさん[1-30].jpg2020/01/03(金) 15:33:25.20ID:3f7jy0FW0
srcを別の人に変えてみたんだけど、
src-Aと、src-Bの中間くらいのモデルが学習できたみたい
これは、これで萌えますね
なんだろう、この奥深い技術は・・・

347/名無しさん[1-30].jpg2020/01/03(金) 17:06:27.68ID:3Ll/k9XF0
ド返しとか言ってるからろくなモンできないし道具の文句言うようになるんだぞ
バカには使えないようになってるんだ

348/名無しさん[1-30].jpg2020/01/03(金) 17:36:52.37ID:u0hF2plpM
ふと過去スレメモ見返してたら技術の情報交換活発で勉強になる。
最近は頓珍漢な奴が住み着いてるようで全く話が噛み合わず無駄なレスも多いので(参考になるレスもあるが)過去スレ見返す方がお勧め。

349/名無しさん[1-30].jpg2020/01/03(金) 17:38:08.71ID:RTchxsvy0
その3,4,5あたりかな。

350/名無しさん[1-30].jpg2020/01/03(金) 17:44:38.96ID:D9MVqFuy0
明日から、中国で「パスワード法」が施行されます。
ネットの個人のパスワードを中国政府が管理し自由に閲覧可という恐ろしい法律です。
中国製アプリにも適用される可能性があると見なして良いかと。

351/名無しさん[1-30].jpg2020/01/03(金) 19:12:40.93ID:HYV6Dy3P0
>>349
過去ログ嫁と言われて読んでみたが有意義な話など何も無かったぞw
今と同じで糖質がやたら連投してるだけ。

DFL信者ともいうべき糖質が棲みついていて、DFLのアホさにケチを付けると激高するというか。
眉毛問題がその最たるもの。

352/名無しさん[1-30].jpg2020/01/03(金) 19:16:10.22ID:UfeM/IWud
糖質ってお前じゃんwww

353/名無しさん[1-30].jpg2020/01/03(金) 19:56:08.56ID:z9OUfIgR0
ここはDFLのノウハウに付いて質問したり、回答したり、技術スレ
質問は過去スレ、Manual、Tutorialに目を通してからにしてね
DFLが嫌なら自分で開発すれば?
何もできないくせにやたら偉そうだな

354/名無しさん[1-30].jpg2020/01/03(金) 20:20:09.14ID:OOWC7Dhq0
偉そうな自治厨だな

355/名無しさん[1-30].jpg2020/01/03(金) 20:27:24.21ID:EC75Nn7b0
>>351
そういや確かに
眉毛が二重になるとか訳もわからず騒いでた奴はいたね

356/名無しさん[1-30].jpg2020/01/03(金) 20:28:36.26ID:AgAux2ECa
へんなのは相手せずにスルーしましょう

357/名無しさん[1-30].jpg2020/01/03(金) 20:45:41.55ID:HYV6Dy3P0
へんなのしかいないんだけど。

358/名無しさん[1-30].jpg2020/01/03(金) 20:47:32.51ID:z9OUfIgR0
>>351
顔の前の障害物は、Mask Edittorでマスク作業とかしてください
Maskした物でFANSegモデルを自分で改善してください
Convert時にErodeの値をいじってみてください

そもそも最近のアイドルなんかのブサイクでやっている奴の気がしれんわw
48人セット販売とかでないと売れない奴らだろw
握手券セットで1人がCDを複数購入するアコギな商売だろw
最近のアイドルは、あまり美人だとかえってまずいらしい
あまり美人だと、自分など相手にしてくれそうもなく、
クラスの何処にでも居る様な美貌の方がいいらしい
確かにセット販売に美人はおらんな
確かに美人だとバラ売りしないと勿体ないな

359/名無しさん[1-30].jpg2020/01/03(金) 20:48:02.18ID:z9OUfIgR0
これなら無臭の女優さんの方が美人がいるぞw
無臭を見慣れていない奴が騒いでいるのか
おじさん、おじいさんにとっては、若い女の子はみな美人だしな
いくら何でもひどいな。老害かよ

360/名無しさん[1-30].jpg2020/01/03(金) 20:53:35.45ID:N1heFMe50
若い子の顔が分からなくなったらおじさんの始まり

361/名無しさん[1-30].jpg2020/01/03(金) 20:59:35.62ID:z9OUfIgR0
自分は眉毛問題に悩まされてはいないので、やる気はないのだが
LandmarksProcessor.pyをいじって、眉間のV字カットや
眉毛は顔ではないので、眉毛の未抽出ならいくらでもできるぞ
別にPython知らなくてもね
FORTRAN、BASIC、C、アセンブラ、VHDL、Rubyのいずれかぐらいは書いた事もないのか
if then elseとかforループとかの制御構造の概念は共通かと
どうせ無償だから、自分はやらないよ

362/名無しさん[1-30].jpg2020/01/03(金) 21:10:34.67ID:z9OUfIgR0
眉毛問題を、他人に解決してもらうとすれば
上手く行かないdata_src.mp4、data_dst.mp4、srcとdstのfacesetなど他人に提供する必要があるな
それは日本においては、著作権侵害に該当する恐れがあり、あまりおおっぴらにはできんな
あと、いくらくらいまでなら、金を払うのよ
無償のやつは気が向いた時な
エラーとならない事までは確認はするが、train/convertの結果は知らんよ

363/名無しさん[1-30].jpg2020/01/03(金) 21:19:06.92ID:z9OUfIgR0
>>351
>>287
>>290
>>297
前髪があるsrcは原則不可
本スレも読めないのか
日本語も通じないのか
なぜ出ていかない
なぜ粘着する

364/名無しさん[1-30].jpg2020/01/03(金) 21:40:40.55ID:5PDXty//0
ID:HYV6Dy
ID:HYV6Dy
ID:HYV6Dy

365/名無しさん[1-30].jpg2020/01/03(金) 21:40:50.93ID:z9OUfIgR0
>>351
srcに前髪がある場合、前髪は顔ではなく、顔の前の障害物なので
過去スレにあった4.3) data_src mask editor.batなど使用して
srcの前髪をMask
過去スレにあった6) train FANSeg.batなど使用して、 FANSegモデルなどtrain

mask editor未使用なら、そりゃあ上手くいかないよ

でこだしsrcを収集するのがもっとも手がかからない

convert時にerodeを変更

366/名無しさん[1-30].jpg2020/01/03(金) 21:44:47.66ID:Yfn5DaNcM
やっぱり前に眉毛問題で暴れてた奴がいるんだな

367/名無しさん[1-30].jpg2020/01/03(金) 21:46:21.19ID:Yfn5DaNcM
しかもそいつ自分のこと棚に上げるわ賢いと思い込んでて埒が開かない

368/名無しさん[1-30].jpg2020/01/03(金) 21:57:46.39ID:z9OUfIgR0
しかしmask editorも使用できない奴は、DFLとか使うなよ
mask editorも使用できない奴は、眉毛に前髪がかかったsrcは使うなよ
顔の前に障害物などないsrc/dstだけにしておけ
顔認識、顔抽出において、顔とは何か分かる?
髪は顔ではない。顔の前の邪魔な障害物
眉毛の無い顔は、人間の顔ではない

369/名無しさん[1-30].jpg2020/01/03(金) 22:03:43.09ID:z9OUfIgR0
若い女の子が、眉毛の上を前髪でおおう気持ちは分かるが
その分、顔としての特徴は出づらいでしょ?
美人なんだか美人でないのかも分かりづらくなるかと

370/名無しさん[1-30].jpg2020/01/03(金) 22:07:01.99ID:z9OUfIgR0
過去スレを読めば
別にPythonは知らなくても
LandmarksProcessor.pyをいじって、眉間のV字カットや
眉毛は顔ではなく、顔の前の障害物扱いで、眉毛の未抽出ならいくらでもできるぞ

371/名無しさん[1-30].jpg2020/01/03(金) 22:11:38.30ID:1UGWOf6U0
Deepfake国内二強

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。


Deepfake番外編

総本山
どこかに存在するというDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、
高度な技術を持った複数の職人が最高の作品を公開しているといわれている。なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。

372/名無しさん[1-30].jpg2020/01/03(金) 22:23:47.58ID:z9OUfIgR0
しかし、笛や舌や前髪など十分に学習した、FANSegモデルであれば、有料でも買うかな
いくらくらいが相場なのか分からんが
500円?1000円?2000円?
どのぐらい学習したモデルであるのか、デモでも必要だな
お金の支払いはE-mailタイプのアマギフか、PayPalでの寄付あたりかな
PayPalはアカウントだけ持っており、使用した事は無いので、よく知らんが
GoogleドライブかMega.nzあたりでファイル共有して
お金を支払った人にだけダウンロードURLを通知するとか

373/名無しさん[1-30].jpg2020/01/03(金) 23:04:03.21ID:z9OUfIgR0
本スレや素材スレで暴れているやつは、2080Tiを持っているみたい
いいハードを持っているのだから、問題はハードの制限では無い
せっかく2080Tiを持っていると言うのに
Maskもできないあんぽんたんには宝の持ち腐れみたいね
DFLはMaskもできない人には不向き。辞めれば?

374/名無しさん[1-30].jpg2020/01/03(金) 23:43:01.47ID:N1heFMe50
なんでわざわざID変えたんだよ・・・

375/名無しさん[1-30].jpg2020/01/04(土) 00:06:51.92ID:9vN0zM7r0
>>358
>そもそも最近のアイドルなんかのブサイクでやっている奴の気がしれんわw
最近のしてる日向坂の金村美〇って知ってる?

376/名無しさん[1-30].jpg2020/01/04(土) 00:21:01.62ID:ppHHZN7v0
そいつは知ってるがブス
ファンが橋本奈々未の後継を唄ってるがやめて欲しい

377/名無しさん[1-30].jpg2020/01/04(土) 00:51:01.89ID:blT6mx5K0
mask editor起動すると
Default eyebrows expand modifier? (0..400, skip:100) :
と聞かれ、デフォルト、小さな値、大きな値で顔の範囲がどうなるか試してみればいいだけ

378/名無しさん[1-30].jpg2020/01/04(土) 01:10:24.53ID:oyR2T27z0
>>358
ここは技術スレだよ
後半の長文いらないんじゃないの
本スレも読めないのか
日本語も通じないのか

379/名無しさん[1-30].jpg2020/01/04(土) 01:27:37.05ID:blT6mx5K0
>>30の手法が画期的だと思うので、試させてもらっていますが
erode = -100とかだと上手くいかないみたいです
当たり前か?erode = 0とかにしました

380/名無しさん[1-30].jpg2020/01/04(土) 01:38:48.15ID:blT6mx5K0
>>378
そだね
眉毛の無い顔は人間の顔では無いので、顔認識、顔抽出の対象外だね
人間の顔では無い物は顔入れ替えの対象外だね
DFLの使用は言わば無理やり

381/名無しさん[1-30].jpg2020/01/04(土) 01:48:46.35ID:blT6mx5K0
しかし未だに眉毛問題に悩む人が、LandmarksProcessor.pyを修正して
眉毛の未抽出も試さないとは
Python知らなくてもできるって
DFLに文句たれる奴は、黙って自分で修正している

382/名無しさん[1-30].jpg2020/01/04(土) 02:00:25.91ID:blT6mx5K0
srcに眉毛が無ければ、srcの眉毛は再現しようがないのは道理
出来上がりが極太眉毛になるのか?
LandmarksProcessor.pyのeyebrows_expand_mod=1.0の値を修正すればよかろう
眉間V字カットは過去スレにあったな
上手くいったと言う報告のカキコが無い様だが

383/名無しさん[1-30].jpg2020/01/04(土) 02:15:20.42ID:blT6mx5K0
人間の顔
http://mizutanikirin.net/unity-dlib-facelandmark-detector%E3%81%A7%E9%A1%94%E8%AA%8D%E8%AD%98
https://www.pyimagesearch.com/2017/04/10/detect-eyes-nose-lips-jaw-dlib-opencv-python/

プログラムなんだから、みんなが使い回す様な事は、ライブラリとして実装してくれている
ネットで検索すれば、非常に短いサンプルソースコードで、結構な事ができている
内容は分からないが雰囲気だけ。えらい短いソースコードでもいいんだな

384/名無しさん[1-30].jpg2020/01/04(土) 02:36:52.39ID:blT6mx5K0
眉毛問題って何?知らんがな
金にもならん事はやらんがな
まあ、気が向いた時だけ

Pythonはインタープリタ型言語の様で、ソースコードはTextファイルとして見えており
DFLに不満のある人などは、自分で修正ぐらいしますがな
ここは技術スレなんだし
本体がVersion Upしていくので、できればカスタマイズしたくは無い面もありますが
自分で直している人も、わざわざ公開はしないかもね

385/名無しさん[1-30].jpg2020/01/04(土) 03:23:54.25ID:oyR2T27z0
こいつ何だよ・・

386/名無しさん[1-30].jpg2020/01/04(土) 03:40:37.65ID:oyR2T27z0
長文君にアドバイスするとすれば
過去スレ過去スレ言うんだったら
今自分が書いてる文章が、将来検索された時に参考になるのかどうかを考えてほしい
自分で気づいてないんだろうけど、長文君のは駄文だ

387/名無しさん[1-30].jpg2020/01/04(土) 05:06:59.41ID:JmukAFVh0
リアル精神障碍者なので相手しないほうがいいよ

388/名無しさん[1-30].jpg2020/01/04(土) 05:29:37.38ID:Qc72PUOc0
カリスマだのキングだのと自画自賛、承認欲求爆発させてるヤツのことかっ!

389/名無しさん[1-30].jpg2020/01/04(土) 07:41:26.37ID:eukBc1BB0
>>384
失礼だけど少し黙って貰えませんか?
無視すれば良いのに反応するから居座るんだよ

390/名無しさん[1-30].jpg2020/01/04(土) 09:51:54.68ID:blT6mx5K0
data_src\aligned画像の選別ですが、顔の前に障害物のある画像は削除した方がいいと思います
顔の前に手、前髪などある画像は削除
伊達メガネは学習により綺麗に消える事も。プレビュー画像では

391/名無しさん[1-30].jpg2020/01/04(土) 10:02:58.77ID:blT6mx5K0
DFLですが、最初は顔の前に障害物のないsrc/dstでやった方がいいと思います
笛動画などはMaskせずともFAN-dstでのConvertだけで上手くいく物もあります
Maskしていない場合は、あまりerodeマイナスにできない様ですが
srcに障害物がある場合は、FAN-prdも使うのかな?
srcに障害物がある場合は、あまりいい Facesetではありません
コンバートオプションの調整だけでは上手くいかない様な場合は
Mask Editorを使用して手動Maskが必要になります

392/名無しさん[1-30].jpg2020/01/04(土) 10:15:21.79ID:blT6mx5K0
過去スレでどなたかが作成してくれた
4.3) data_src mask editor.bat
を使用してsrcにMaskが必要となる場合があります
FAX-xxのConvertだけでは上手くいかない場合
Convertオプション、特にerodeをいじっても上手くいかない場合
など

393/名無しさん[1-30].jpg2020/01/04(土) 10:19:36.55ID:blT6mx5K0
FANSegモデルをtrainする場合は、全ての画像をMaskしなくてもいいみたいです
4.2.6) data_src sort by best.bat
5.3.other) data_dst sort by best.bat
などを使用して、間引いた画像に対してmask editorを使用してもいい様です

394/名無しさん[1-30].jpg2020/01/04(土) 10:34:51.16ID:blT6mx5K0
mask editorを起動して
Default eyebrows expand modifier? (0..400, skip:100) :
に対して、0にすれば、眉毛の上が狭くなります
400にすれば、眉毛の上が広くなります
眉毛ごん太君に対しては、Default eyebrows expand modifier:0かな
額の色違いに対しては、Default eyebrows expand modifier:400かな

395/名無しさん[1-30].jpg2020/01/04(土) 10:49:31.40ID:hbzspZjR0
srcにmaskすれば、前髪生えないって本当?
src全部に手動でmaskって、かなりの手間だと思うんだけど。

396/名無しさん[1-30].jpg2020/01/04(土) 10:53:27.74ID:EWdL2va10
>>395
本当。もちろんlearn maskでtrainして
convert時もlearnまたはlearned * fan-prd * fan-dstにする必要はある。
手間はsrcへの愛でカバーしてくれ。

397/名無しさん[1-30].jpg2020/01/04(土) 11:43:00.23ID:blT6mx5K0
iperovはFANSeqモデルのtrainのため、Facesetを募集していたそうな
しかしコミュニティの誰もが反応しなかったそうな
コミュニティのみんなはDFLの作者ではなく、FANSeqモデルにピンとこなかったからかもしれない
公式ビルトにFANSegモデルの改善を盛り込みたい、FANSegモデルの改善を反映して欲しい場合などは
iperovにFacesetを提供すれば、彼は採用するかもしれないし、採用しないかもしれない
iperovへのFacesetの提供などは、プライベートメッセージなどで、こっそりとね
DFLの使用は最近なので、iperovは英語なので、英語のコミュニティに頻繁に出入りしている訳でもなく
iperovのFANSeqモデルのtrainのため、Facesetを募集していた事は、気づきませんでした。知りませんでした

398/名無しさん[1-30].jpg2020/01/04(土) 13:25:05.84ID:6cmoMTV2a
>>216
普通に入る、m1にもcore500にも乗るよ

399/名無しさん[1-30].jpg2020/01/04(土) 13:40:31.33ID:blT6mx5K0
iperovはDeepFaceLab_CUDA_10.1_AVXはリリースしなくなりました
DeepFaceLab_CUDAでGTX / RTX対応らしいです
DFL内部に抱えているCUDAは9.2のみになりましたね
今の所、CUDA10.1を参照しても、tensorflow-gpuはCUDA10.1でも動作しています

show-tensowflow-gpu.py

import tensorflow as tf

print(tf.__version__)

C:\Program Files\python-3.6.8>py show-tensowflow-gpu.py

400/名無しさん[1-30].jpg2020/01/04(土) 13:59:32.30ID:blT6mx5K0
過去スレより
H128でdstの眉が使われてしまう問題はDFでtrainしてerode=-200でconvertすることで解決する。

erodeをマイナスにすると言う事は、それだけ前髪のMaskをきっちりとやらないと
誤魔化しが効かないのでは?

401/名無しさん[1-30].jpg2020/01/04(土) 15:04:38.13ID:9vN0zM7r0
>>385
こいつがこのスレに棲みついてる糖質だよw
眉毛問題持ち出してDFLの無能っぷりに言及すると発狂して連投するからスルーするしかないww

402/名無しさん[1-30].jpg2020/01/04(土) 15:24:34.67ID:oyR2T27z0
そういうのいいから

403/名無しさん[1-30].jpg2020/01/04(土) 15:46:07.63ID:wg/Klbq40
>>395
全部にする必要はない。
普段はlearn mask offにしてmask無しのalignedを十分学習する
convert前にlearn mask onにして適当に間引いてmaskしたalignedのみを学習
previewで5列目のmaskを確認してからconvert

404/名無しさん[1-30].jpg2020/01/04(土) 15:54:32.55ID:blT6mx5K0
このスレでは、DFLの使用方法とかノウハウとか色々と教えてもらって、ありがたかったですけれどもね
DF256モデル等のカスタムのpyの作成とかもありがたかったです
DF256モデルのオリジナルの作者はSAEHD使いなので
メンテは引き継いで実施しています。他にもメンテする人が現れるとありがたい
Maskかぁ。時間がかかりそうですけれども、原理的に仕方がない事ですね

405/名無しさん[1-30].jpg2020/01/04(土) 16:39:49.50ID:blT6mx5K0
iperovはtensorflow-gpuのビルドし直しはしていないのかな
RTXでは、CUDAは%CUDA_PATH%;%CUDA_PATH%\bin;%PATH%の参照で
CUDA10.1までであれば使用できています
tensorflow-gpuはpythonのVerが新しすぎたり、CUDAのVerが新しすぎたりすると、ビルトできないのね
知らなんだ

406/名無しさん[1-30].jpg2020/01/04(土) 16:50:56.16ID:blT6mx5K0
tensorflow-gpuのインストールも、pip install tensorflow-gpuだけで済めば楽ですが
少なくともCUDA 10.0にはなってしまう様ですね
CUDA 10.1と対応するCUDNNでの、tensorflow-gpuのインストールは
えらく難しく、手順が長いですね。できませんでした
そこまでいくと、本物のプログラマーやLinux使いとかでないとね

407/名無しさん[1-30].jpg2020/01/04(土) 17:08:54.35ID:602GFRfH0
白石麻衣と相性の良さそうな動画見つけた
https://jp.pornhub.com/view_video.php?viewkey=ph5bbee1a0f362b

408/名無しさん[1-30].jpg2020/01/04(土) 19:10:14.12ID:AYtmfC870
>>407
白石麻衣にしなくても、この子で十分かなぁ

409/名無しさん[1-30].jpg2020/01/04(土) 19:51:13.69ID:cI6r2aWH0
>>407

お礼に作って渡すわ

410/名無しさん[1-30].jpg2020/01/04(土) 20:12:56.91ID:LgdWAtPc0
maskの話題ついでって事で確認したい
@extract後のlandとmask範囲が輪郭とか鼻先までキッチリ合ってないと良くない?
Asrcの場合、mask範囲が実際より広い場合と狭い場合(それぞれ極わずか)では前者の方が良い?
B角度的にmanualのaでもlandがキッチリ合わない場合、maskで適正範囲をとれていれば問題ない?
C@が是の場合、笛マスクなんかと同様に、ある程度の割合で正確なマスクが混ざっていればtrainで巧く処理される?

411/名無しさん[1-30].jpg2020/01/04(土) 21:38:48.12ID:zlm2eBuf0
>>407
白石なんて始まってもいないオワコン。どうでもいい

412/名無しさん[1-30].jpg2020/01/04(土) 22:33:56.85ID:blT6mx5K0
DFLの新しいVersionになると、train時にsort by yawが無くなりましたが、
いったんdata_src\alignedとdata_dst\alignedを混ぜて
sort by face yawして、srcが余っている様な所は
手動でどこかに待避すればいいのでしょうか?

413/名無しさん[1-30].jpg2020/01/04(土) 23:50:36.69ID:blT6mx5K0
2080Ti搭載可のPCも持っていないから、BTOでPC丸ごと購入すると
サイコムのデュアル水冷PCなどありますね
G-Master Hydro Z390 IIとか
お好みのカスタマイズありで、440,640円とか
結構高いですね

2060Superをお持ちの方は、DF、DF256、H128、SAEHDなどで、可能なバッチ数は
どのくらいなのでしょうか?

VRAM 24GBあっても、DF256で18.6GBしか使えていません
5GB以上も余っていると言う
持ってもいない環境で、プログラムをサポートするのは、非常に難しいのでしょうか

414/名無しさん[1-30].jpg2020/01/05(日) 02:04:03.81ID:3k4XOanz0
高性能GPUが必要なのは理解できるが、CPUはどうなんだよ?
そもそもこの場合、CPUって何に必要なん?

415/名無しさん[1-30].jpg2020/01/05(日) 02:27:11.16ID:F5UumwCZ0
せめてスレ内くらい検索しろや

416/名無しさん[1-30].jpg2020/01/05(日) 02:56:32.96ID:oHftmCXE0
ちゃんと外部のサイトで調べたほうが良い
今のこのスレは全然参考にならない

417/名無しさん[1-30].jpg2020/01/05(日) 03:40:37.54ID:F5UumwCZ0
マジレスすると各ステップの処理実行時にタスクマネージャーやvmstat、nvidia-smi等で
リソース消費状況自分で確認。不足しているリソースを追加しろ。

418/名無しさん[1-30].jpg2020/01/05(日) 09:08:24.10ID:9u5a3OQG0
DF256のtrain中はCPU使用率は9%〜39%ぐらいで変動しています
i9-9900K CPU速度も変動しており、4.89GHzぐらいでる事も
K付きCPUしかBTOで選択できなかったのだが、K付きCPUを買ったのは初めて
UEFIでOCしていないのですが、必要時CPUクロックが上がるのね。知らなんだ
カスタムTrainer.pyをDFL1220版で使用しています
save_interval_min = 3、こまめにプレビュー画面を更新、モデルデータをセーブ
2台のディスプレイ出力はオンボード接続
プレビュー画面の更新とモデルデータのセーブにCPUが必要な気が
Covert時にCPU負荷が上がるのでしょう
DF256のtrain中はシステムメモリの使用:12.3GB 利用可能19.5GBとか
BTOのデフォルトは16GBだったのだが、NVIDIAの推奨最低がVRAM容量だったので
32GBに載せ替え。載せ替えして余裕ができよかったかも
SAEHDでOp3とかにすると、システムメモリの使用が上がるのか?
SAEHDではシステムメモリ16GBでは不足かも

419/名無しさん[1-30].jpg2020/01/05(日) 09:35:00.78ID:X1oK5Anv0
>>418
日記書きたいならブログでやれ

420/名無しさん[1-30].jpg2020/01/05(日) 09:36:00.07ID:9u5a3OQG0
>>416
質問の大半は、過去スレに既にあり、新規の質問も少ないかと
たまに新規の質問/回答があり、たまに新規のノウハウの提示があるので
まだこのスレの存在意義はあるかと。無駄レスが増えている様な気もします
あと白石麻衣の話などは素材スレが適当なので、スレチかと
VRAM多いと、回せるモデル、バッチ数などは増えます
DFLの版数アップにより新規trainが必要となる時などVRAM多いとありがたい
トライアル&エラーが続く場合はVRAM多いとありがたい
24GBは使い切れていない様で、勿体ない面もあるかと
VRAM普通の容量でも、初回モデルの作成まで我慢すればいいだけかと
2080Tiとか搭載可能な、筐体、電源容量の大きなPCを持っている場合、
筐体内のFANが多い場合などは、VRAM11GBを中古でGetできればコスパはいいのかな?
中古は運が悪いと、地雷なのかな?

421/名無しさん[1-30].jpg2020/01/05(日) 10:37:26.94ID:9u5a3OQG0
>>417
nvidia-smi教えてくれてありがとう
CUDA 10.2??
CUDA 10.2はインストールしたつもりはないのですが
CUDA 10.2だとtensorflow-gpu、DFLは動作しないかと思いましたが
WindowsではELSA System Graph便利かと思い、既に使用しています
Temp:85℃とか。一番不足しているリソースはFANで冷却不足
なので、少しFANがうるさいのかな
パソコン工房、BTOでFANの追加とかさせておくれよー
BTOで1200W電源とかに変更させておくれよー
TITAN RTXをBTOで水冷にしてくれるBTOショップは見つけられませんでした

422/名無しさん[1-30].jpg2020/01/05(日) 10:50:49.35ID:o30YbLVG0
>>420
無駄レスが増えている様な気もします

お前が1番無駄レスしてるの気付けよTwitterにでも行けよ

423/名無しさん[1-30].jpg2020/01/05(日) 13:26:48.78ID:CsaqvJgp0
ここの「2分58秒」のシーン
https://jp.pornhub.com/view_video.php?viewkey=ph5deb6cb75c915
顔全体の大きさが 大->小 と大きく変化し「同時に首周りの大きさも変化してる」んだが
今までこんなことなったことないんだけどDFLでこんな風になった人いる?
もしかしてFSの方なのかな。

424/名無しさん[1-30].jpg2020/01/05(日) 14:12:25.55ID:oHftmCXE0
よくあるけど、この程度ならすぐに治せるはず

425/名無しさん[1-30].jpg2020/01/05(日) 14:44:45.04ID:Nwlx8X2a0
動画じゃなくて画像で良いからAとBを合わせた画像をすぐに作れるソフトないかな

426/名無しさん[1-30].jpg2020/01/05(日) 14:49:09.53ID:HizocWBE0
数枚なら手動でやればいいし大量ならDFLでやればいいし

427/名無しさん[1-30].jpg2020/01/05(日) 15:38:47.87ID:32d4AB9T0
>>423
顔認識がずれてるだけでしょう。
多分これはDFLのLIAEFだね

428/名無しさん[1-30].jpg2020/01/05(日) 16:02:19.10ID:rKSGBxfb0
>>414関連で、みんながどんなGPU・CPU使って、どうい使い心地なのか知りたいな
特に性能に余裕が有る場合はともかく、ちょっと性能足りないですみたいなレスは
参考になると思う

429/名無しさん[1-30].jpg2020/01/05(日) 17:29:23.88ID:6D42mwPb0
RTX Tiの最上位機種って、GTX Ti最上位の5倍以上するのかよw
やっぱ、RTX TiやめてGTX Tiにしとこうかな。。。

今あるPCに加えて追加でもう1台PC組んで、双方にGTXのっけて分業
とかどうだろう?

430/名無しさん[1-30].jpg2020/01/05(日) 18:13:21.49ID:3f5rTRJ/0
抽出や手動抽出はGTXの古いやつでも出来るからサブ機あるとやっぱ便利だな

431/名無しさん[1-30].jpg2020/01/05(日) 18:24:10.17ID:CrNLGsyn0
>>429
比較の仕方がおかしい。

432/名無しさん[1-30].jpg2020/01/05(日) 20:19:14.72ID:u5Zd4pPu0
>>416
そうみたいだな

433/名無しさん[1-30].jpg2020/01/05(日) 22:35:34.25ID:OafdW16x0
顔画像抽出の精度を上げるにはどうすればいいですか?
取りこぼしが多くて(10%以上)手動で修正するのが大変なんです

434/名無しさん[1-30].jpg2020/01/05(日) 22:46:03.28ID:F5UumwCZ0
対象動画を変えるしかない。

ソース動画の顔の角度が厳しかったりブレたりしてることが原因と思われる。
その動画で作っても出来はイマイチだから、別動画または別シーンで作ることをお勧めする。

435/名無しさん[1-30].jpg2020/01/05(日) 23:08:27.08ID:9u5a3OQG0
FANSegモデルをtrainしていると、少ないiter数にも関わらず、
すぐにモデル崩壊?してしまう場合があります
いきなりLoss値が急に跳ね上がって大きくなる事があります
学習srcにMask済の顔画像
学習dstにMaskなしの顔画像
だけだとまずいのでしょうか?
学習srcにMask済の顔画像+Maskなしの顔画像
学習dstにMaskなしの顔画像+Mask済の顔画像
なのでしょうか?

436/名無しさん[1-30].jpg2020/01/05(日) 23:45:23.22ID:OafdW16x0
>>434
ありがとうございます
>角度が厳しかったりブレたりしてる
まさにおっしゃるとおりです

せっかく長い時間かけて抽出して学習も進んでいたので破棄するのにためらいがありましたが、おかげで踏ん切りがつきました
srcはもちろんdstも素材選びから大切なのですね
勉強になりました

437/名無しさん[1-30].jpg2020/01/06(月) 01:22:53.40ID:EKxH4T8f0
何で元顔動画から合成出来るのか意味解ったわ
人間誰しも殆どの場合、瞬きしたり口開けて喋ったりしてるんで
それだけで既にいろんな状況の表情を再現できるという事だろうな
1つの顔を目と口のデータにバラして、それを福笑いみたいに置き換えると
いろんな表情が出来上がる

438/名無しさん[1-30].jpg2020/01/06(月) 02:55:50.24ID:VCYU7gCp0
>>437
お前は何を言っているんだ?data_srcがdata_dstに憑依するために
Deeplearningという儀式を行うわけなんだが。
そのあたり表層的に勝手な解釈して理解したつもりにならないように。

439/名無しさん[1-30].jpg2020/01/06(月) 03:49:50.79ID:n0YXEWYo0
>>437
小学生かよw

440/名無しさん[1-30].jpg2020/01/06(月) 08:25:15.30ID:8drjh0qp0
>>437
>>2
deepfakesとは?
AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、
decoderを入れ替えることにより、AとBの顔を交換する手法。

441/名無しさん[1-30].jpg2020/01/06(月) 08:59:11.84ID:8drjh0qp0
iperovはFANSEG_data.datは残していってくれなかった様な気がします
FANSEG_data.datがあれば、iperovのFANSeg_256_full_face.h5に対して
追加学習で改善ができる様な気がします
今FANSegモデルは新規学習になってしまうかと

442/名無しさん[1-30].jpg2020/01/06(月) 09:35:50.91ID:8drjh0qp0
>>429
DFL使用しなくてもPCは2台持ちがデフォでは?
PCが壊れたら何もできない。PCを通販で買うことさえもできない
DFL未使用で、気兼ねなく使える3台目も欲しくなる気がする

443/名無しさん[1-30].jpg2020/01/06(月) 15:10:55.03ID:H5A4bPik0
年食ってから脱いだタレント女優の顔に、若い頃の顔を貼り付ける
当然の事ながら、めっちゃ馴染んだわw

444/名無しさん[1-30].jpg2020/01/06(月) 16:10:25.80ID:ndBBLiME0
>>443
天才

445/名無しさん[1-30].jpg2020/01/06(月) 16:53:42.58ID:8drjh0qp0
>>443
伏せ字でいいから、例えば誰よ?

446/名無しさん[1-30].jpg2020/01/06(月) 17:07:27.95ID:H5A4bPik0
>>445
高岡●紀とかいいかもな
デブ化する前の小向●奈子とかも

447/名無しさん[1-30].jpg2020/01/06(月) 17:26:54.49ID:8drjh0qp0
>>446
ありがとう
写真集でも十分いけたけど、水着時代とかの顔を使用すれば、更にすごいものができるかもね
静止画アイコラなんかもDFLを使用するのが手っ取り早いかな?

448/名無しさん[1-30].jpg2020/01/06(月) 17:31:43.25ID:8drjh0qp0
いつか細○ふ○えあたりも頑張って作ってみますか

449/名無しさん[1-30].jpg2020/01/06(月) 17:36:05.88ID:l3/bVD0A0
>>448
あの人はおっぱい垂れ下がってるから
顔移植しても婆婆体型に泡なさそう

450/名無しさん[1-30].jpg2020/01/06(月) 17:51:26.01ID:8drjh0qp0
胸の大きな人は、脱がないうちが花かなと思います
脱ぐと垂れ下がっていたり、乳輪が大きいとか
Gカップみさちゃんあたりが限界の様な
最近一作だけ復活しましたね
つなちゃん、みうちゃん、ツバキちゃん無臭で復活しないかな?
憂ちゃんや結衣ちゃんが修正に行ってしまって寂しい

451/名無しさん[1-30].jpg2020/01/06(月) 19:36:52.75ID:h//9pJfBd
>>447
普通のアイコラを作ってた経験からいうと
角度や色合わせまで自動、表情も元画像にないものが量産できるのは画期的だなあと

src元画像を活かした剥ぎやぶっかけはdfではできないのでそれぞれ良さがあるなと思ってるよ

452/名無しさん[1-30].jpg2020/01/06(月) 19:45:09.95ID:8drjh0qp0
>>407
>>408
>>409
https://www.google.com/search?q=%E7%99%BD%E7%9F%B3%E9%BA%BB%E8%A1%A3&oq=%E7%99%BD%E7%9F%B3%E9%BA%BB%E8%A1%A3&aqs=chrome..69i57&sourceid=chrome&ie=UTF-8
しかし、これの、一体どこが美人だと言うのか。。
美人を見慣れていないのか?
そう言えば土○太○も美人女優扱いなのか?ひどすぎるお
あざといので女子に嫌われまくり、化粧品のCMモデルには採用される事はない

453/名無しさん[1-30].jpg2020/01/06(月) 20:02:18.00ID:lOi3a9F30
他人の好みに口を出すなんて野暮だな
自分の好みを見ていればそれでいいじゃないか

454/名無しさん[1-30].jpg2020/01/06(月) 20:27:57.09ID:EdXuxCbf0
ID:8drjh0qp0
こいついくつだ?w

455/名無しさん[1-30].jpg2020/01/06(月) 21:25:45.66ID:rA0qt15b0
srcのソースに異なる傾向のメイクとかすっぴんを混ぜると似なくなる気がする
アスリートとか中堅女子アナはイメージが固まりやすいのか成功率高いかも

456/名無しさん[1-30].jpg2020/01/06(月) 21:27:37.77ID:rA0qt15b0
厳しい角度ほどmaskはキッチリとっておかないと

457/名無しさん[1-30].jpg2020/01/06(月) 21:29:20.29ID:kn9PKgje0
ID:8drjh0qp0スレチ過ぎる。総合でやって来いよ
じじいの趣味なんて知らねえし誰も興味もねえよ

458/名無しさん[1-30].jpg2020/01/06(月) 22:03:39.82ID:8drjh0qp0
まあ、そうだね
途中から素材スレの方がいい話題になってしまった
srcに前髪ありは、難しい素材をやっているみたいね
前髪のMaskをきっちりやらないと上手くいかなかったりするみたい
ご苦労さま

459/名無しさん[1-30].jpg2020/01/07(火) 00:38:54.59ID:TE2Msp+a0
モデルの使い回しについて聞きたいんだが、srcはそのままで、dstだけ別の女優に変えたい場合はどうすりゃいいの?
data_dstフォルダの中身だけ作り変えて、modelフォルダ内のsrc関連ファイルだけ消すってかんじでおk?

460/名無しさん[1-30].jpg2020/01/07(火) 02:03:19.83ID:G3kzAUVL0
modelフォルダ内のモデルデーターを念の為バックアップコピー
data_dstフォルダの中身だけ作り変え。data_dst.mp4も目的の物に差し替え
modelフォルダ内は消さない。継続トレーニング
別にmodelフォルダ内のsrc関連ファイルは無理に消していないけど
継続Trainしたら、やがていい感じに

461/名無しさん[1-30].jpg2020/01/07(火) 02:08:44.17ID:G3kzAUVL0
せっかく作成した、data_dstフォルダも別名にしてバックアップコピーとかしておけばいいのでは?
data_dst集とかフォルダを作成して、dstの女優さん名のフォルダを作成して
data_dst集\麻○憂\麻○憂1とか作成しています

462/名無しさん[1-30].jpg2020/01/07(火) 02:13:42.92ID:G3kzAUVL0
せっかく作成した、data_src\alignedフォルダも
広○す○とか橋○環○フォルダとかに、バックアップコピーしています

463/名無しさん[1-30].jpg2020/01/07(火) 02:14:08.16ID:Bv3YR3H50
爺って話で思い出したけど、難敵は聖子ちゃんカットだな
今、あの髪型したAV女優おらん

しかも今頃のは大抵茶髪だから、更に難物

464/名無しさん[1-30].jpg2020/01/07(火) 02:23:02.23ID:G3kzAUVL0
例えばmodelフォルダ直下に
srcの女優さん名のフォルダを作成してモデルデータをバックアップコピーしています
新○結○とか能○玲○とか
場所はお好みで
事故を防ぐために、1) clear workspace.batは削除した方がいいかと

465/名無しさん[1-30].jpg2020/01/07(火) 02:38:10.19ID:TE2Msp+a0
>>460
違う女優でも消さずに継続した方がいいの?
顔混ざったりしない?

466/名無しさん[1-30].jpg2020/01/07(火) 03:09:31.73ID:G3kzAUVL0
>>465
それは2つの意見がありまして
どちらかというと、srcごとに0から新規に学習し直し派の方が多数かな
消さずに継続すれば混ざる恐れはあります

467/名無しさん[1-30].jpg2020/01/07(火) 07:49:24.16ID:TE2Msp+a0
>>466
なるほどさんくす

468/名無しさん[1-30].jpg2020/01/07(火) 09:12:05.55ID:G3kzAUVL0
>>461
>>462
alignedは画角など厳しい場合、顔のパーツの全てが入っていない場合などは、
手動抽出している物もあり、消すのは勿体ない

469/名無しさん[1-30].jpg2020/01/07(火) 09:35:07.30ID:G3kzAUVL0
DFLもVersion Upで、レベルダウン?も発生する可能性もあり、
過去のVersionの方が安定していたと思う場合などは
DeepFaceLab_CUDA_10.1_AVX_build_date.exeファイルなどは
ある程度は残しておいた方がいいかもしれません
まあ、Googleドライブ内に過去Ver. 3つまでありますね
無いVersionもあって、飛んでいますね
スキップして欲しいVerなのかな?

470/名無しさん[1-30].jpg2020/01/07(火) 10:36:36.05ID:G3kzAUVL0
ガイドは修正中または更新中です。すぐに更新される予定です。
DeepFaceLabバージョンの変更ログ:
は追加になりました

471/名無しさん[1-30].jpg2020/01/07(火) 11:02:38.83ID:G3kzAUVL0
8TB HDDもTBあたりの単価はリーズナブルになってきたかもしれません
Amazonで¥14,103とか。Seagateになってしまいますが
Mouseもパソコン工房、ユニットコム、by iiyamaも
Seagateを採用しており、Seagateでもいいのかも知れません
以前購入したSeagateは動作音がうるさかった記憶があり
基本的にWDにしていますが

472/名無しさん[1-30].jpg2020/01/07(火) 12:46:37.49ID:/HLLtHyyr
>>471
日替わりでNGするの面倒だからコテ付けて

473/名無しさん[1-30].jpg2020/01/07(火) 13:39:27.02ID:/98PlJih0
なんかレベル下がったなぁ…

474/名無しさん[1-30].jpg2020/01/07(火) 14:14:41.96ID:G3kzAUVL0
dstを完全にMaskした場合、FANSEGでTrainするより
FAN-xxでConvertせずに、 learnedでConvertした方がいいのでしょうか?

475/名無しさん[1-30].jpg2020/01/07(火) 14:32:14.89ID:G3kzAUVL0
過去スレまとめ1-10
手動で無駄レスできるだけ省いたつもり
https://mega.nz/#F!z34llSoa!r5StzhZKiqEQ37wrURrZyQ

476/名無しさん[1-30].jpg2020/01/07(火) 14:39:51.22ID:G3kzAUVL0
>>473
WikiとかFAQ作るの大変?

477/名無しさん[1-30].jpg2020/01/07(火) 17:15:19.65ID:hEsQ1CNKM
本当に日記帳状態をやめてほしいんだが。

478/名無しさん[1-30].jpg2020/01/07(火) 17:23:09.66ID:Ujhfz5kB0
今、NHKでディープフェイク特集してる・・・・

479/名無しさん[1-30].jpg2020/01/07(火) 17:31:57.71ID:sFXtEdLk0
>>477
こういうやつは聞く耳持ってないから諦めるしかない

480/名無しさん[1-30].jpg2020/01/07(火) 17:32:08.54ID:M25M9WVVa
>>412
うざい

481/名無しさん[1-30].jpg2020/01/07(火) 17:39:36.72ID:Nd8xQKC80
NG使えよ
おまえら無能かよ

482/名無しさん[1-30].jpg2020/01/07(火) 17:46:06.39ID:Bv3YR3H50
文句が有るなら自分で話題提起して書き込めばいいだけ
文句言ってるやつは一切それしてない
その行為は素人がどうこうより問題がある

483/名無しさん[1-30].jpg2020/01/07(火) 18:24:59.95ID:yS8prma80
>>482
日記許容派

484/名無しさん[1-30].jpg2020/01/07(火) 18:40:06.74ID:G3kzAUVL0
回答する側の人は、特に質問がない様なら、FAQみたいな物でも書いてしまえばいいのでは?
特に回答も質問も無いのであれば、わざわざこのスレに出入りする必要、意味も無いのかと
スレが埋まったら、まとめを作成するが、特に技術関係ではない無駄レスが多くなったな

485/名無しさん[1-30].jpg2020/01/07(火) 18:45:41.40ID:RciJFprc0
Deepfake国内二強

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。
国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の
大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。
転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの
嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。
その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。

486/名無しさん[1-30].jpg2020/01/07(火) 18:55:48.24ID:G3kzAUVL0
しかし、技術技術と言っている奴らが、Python修正して他人に提供してもいない訳だ
プログラムも修正できない奴が、賢いと思われる事があるとでも思ったのか?
おまえら短文だが、スマホからかよ
スマホの奴は消費するばかりで生産できない
他人には貢献できない。どうでもいいね

487/名無しさん[1-30].jpg2020/01/07(火) 19:07:43.37ID:HJQohQVK0
>>486
ひとりごとはTwitterでやってろ

488/名無しさん[1-30].jpg2020/01/07(火) 19:09:02.95ID:iTHJcM+d0
>>481
ほんこれ

489/名無しさん[1-30].jpg2020/01/07(火) 19:13:40.92ID:G3kzAUVL0
>>487
>>488
技術スレのレスでは無い。無駄レス。後に削除

490/名無しさん[1-30].jpg2020/01/07(火) 19:27:09.93ID:hEsQ1CNKM
もう閉鎖だな

491/名無しさん[1-30].jpg2020/01/07(火) 19:43:06.71ID:UQPYhDXV0
まれに親切なレスがあるから助かってるぞ

492/名無しさん[1-30].jpg2020/01/07(火) 19:47:39.28ID:G3kzAUVL0
途中だがスレまとめ。手動でできるだけ無駄レス省いたつもり
https://mega.nz/#F!z34llSoa!r5StzhZKiqEQ37wrURrZyQ

493/名無しさん[1-30].jpg2020/01/07(火) 19:48:44.61ID:PSn0Qx790
>>475
ありがとう

494/名無しさん[1-30].jpg2020/01/07(火) 19:50:49.86ID:H52/FV+Nd
俺みたいな気分屋親切マンもおるからな

495/名無しさん[1-30].jpg2020/01/07(火) 20:37:37.96ID:4O7ZLC0O0
自分にとって有益な情報だけ見たいってのも傲慢なガキっぽいし、日記もスレ汚し
たまに質問があっても誰も答えられてないケースも多い

496/名無しさん[1-30].jpg2020/01/07(火) 20:48:21.77ID:ibgn9OoFd
>>491
俺もそんなに嫌いじゃないよ色々書いてくれてるしね

突然始まる連投と自分語りと他人の好みの否定がちょっと鼻につくだけだろ
おおらかにやろうや

497/名無しさん[1-30].jpg2020/01/07(火) 21:29:45.86ID:ZyTqE7Ll0
俺が知っていることは無駄だから書くなマンがいるからな

498/名無しさん[1-30].jpg2020/01/07(火) 21:32:44.77ID:iRIZ3lo20
まぁ結局、質問スレではないから
フォーラムのガイドと過去スレ見てから聞いた方がいいとは思うけどね。
ただ親切マンは結構多いから、運がよければ答えてくれる。

499/名無しさん[1-30].jpg2020/01/07(火) 21:39:37.29ID:yS8prma80
>>496
連投
自分語り
他人の好みの否定

こんな奴いらないだろ

500/名無しさん[1-30].jpg2020/01/07(火) 21:58:09.49ID:+esSkS910
おまえらまとめZIPくれたからってコロっと態度変わってんじゃん

501/名無しさん[1-30].jpg2020/01/07(火) 22:04:43.39ID:mrSpevlYM
尼で2080tiが67601円

502/名無しさん[1-30].jpg2020/01/07(火) 22:27:07.07ID:/98PlJih0
無駄レス連投マン「無駄レス省いてまとめたぞ」
果たして自覚は有るのか無いのか怖くて見れないよ

503/名無しさん[1-30].jpg2020/01/07(火) 22:29:53.88ID:G3kzAUVL0
>>501
ありがとう
ところで、みなさん、グラボの温度は何度くらいでしょうか?

504/名無しさん[1-30].jpg2020/01/07(火) 22:31:34.88ID:+esSkS910
>>501
釣られたわ

505/名無しさん[1-30].jpg2020/01/07(火) 22:47:14.16ID:G3kzAUVL0
4.2.other) data_src util faceset enhance best GPU.bat できたので
5.2.other) data_dst util faceset enhance best GPU.bat できますね
@echo off
call _internal\setenv.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" facesettool enhance ^
--input-dir "%WORKSPACE%\data_dst\aligned"

pause

効果の程は不明ですが

506/名無しさん[1-30].jpg2020/01/08(水) 01:39:14.12ID:KN6l+Iq20
>>おまえら短文だが、スマホからかよ

スマホ認定w

507/名無しさん[1-30].jpg2020/01/08(水) 08:13:25.68ID:8zo/7amu0
このスレは質問、回答スレかと思っていたが
ノウハウの交換、技術の交換などか
質問、回答はおまけかな
ノウハウも過去スレまでで、ほとんど出尽くした?

508/名無しさん[1-30].jpg2020/01/08(水) 09:12:23.84ID:+ACh6RIbd
大体出たね
新機能リリースされたタイミングで当該機能に関する話題になり、
副次的に既存機能に関する新たな発見が出ることもあるってとこ

509/名無しさん[1-30].jpg2020/01/08(水) 09:47:57.25ID:31SeCadKp
TRAIN前に自動でsrc,dst全てにFANSEGでmaskするようにしたら、変換時にlearned maskだけでいい笛吹が出来ました。
このスレでの情報に感謝して、報告しとく。

510/名無しさん[1-30].jpg2020/01/08(水) 12:08:02.42ID:jQPmBaLZa
>>496

そういうのいいから。別スレ立ててお前が面倒見ろよな。
聞きたいことを纏めて尋ねられないのは迷惑なんだよ。指摘を受けての改善もないわけで、害悪でしかない。

511/名無しさん[1-30].jpg2020/01/08(水) 12:27:30.91ID:xtsOezQ6M
>>509
すまない、もう少し詳しく教えてくれ

512/名無しさん[1-30].jpg2020/01/08(水) 12:36:56.75ID:8zo/7amu0
>>510
>>412
>>435
>>474
に回答があればよろしくお願いいたします

513/名無しさん[1-30].jpg2020/01/08(水) 12:57:50.21ID:8zo/7amu0
>>510
ModelBase.py変更のタイミングで、カスタム256モデルとかメンテナンスとかしているんですけども
害悪とまで言われるのも心外ではある

514/名無しさん[1-30].jpg2020/01/08(水) 13:01:24.36ID:31SeCadKp
>511
Python書き換えて事前FANSEG出来るようにした。
コンバート時にFANSEGしなくても、learned maskだけで、かなりいい感じ。何よりコンバート時間短いのがいい。

改造版は配布はしてるが、ここで公開する気はないです。

515/名無しさん[1-30].jpg2020/01/08(水) 15:35:12.88ID:+ACh6RIbd
ん?自動で口マスクしてるってこと?ちゃう?
自動口マスクならlearnのコンバートだけで
抽出時のランドマークずれで顔の輪郭がクズレナイノモ納得。

516/名無しさん[1-30].jpg2020/01/08(水) 15:46:46.00ID:1xzJ8k7eM
>>514
convert時のFAN-xxを省けて事前にやっておけるのか。
そりゃめちゃくちゃいいじゃん。
デメリットはないの?

517/名無しさん[1-30].jpg2020/01/08(水) 16:12:50.92ID:31SeCadKp
マスクしてるのは舌と髪と障害物。
originalのDFLだとmaskの反映されないけど、TRAINも改造してあるから、デメリットないよ。

convert自体も、輪郭と障害物のerode blurを別にしたり、顔の上の方を任意の高さで切れるように改造した。

518/名無しさん[1-30].jpg2020/01/08(水) 16:50:33.92ID:I+0lsOFw0
DFLにてモデル別の色合わせやすさとかって、誰か検証したりしてる?
そもそもモデルと色合わせって全く関係ない?

519/名無しさん[1-30].jpg2020/01/08(水) 17:11:24.27ID:8zo/7amu0
眉の上をどこまでとするかはLandmarksProcessor.pyのeyebrows_expand_modの値をいじることは思いついたのだが
src眉毛前髪かかりだと値は小さく、デコ出しdstだと値を大きくすると、境界の色の違和感減るかもね
Full Faceにして、erodeマイナスにして顔の変換範囲を広くすれば、境界の色の違和感減るかもね

520/名無しさん[1-30].jpg2020/01/08(水) 17:16:37.00ID:8zo/7amu0
DFLの内部に抱えているPython、本体Verによって微妙に違うな
古いVerだとimportしている物が多いのかな
まあ、それでトラブルに見舞われるのは自分くらいだな

521/名無しさん[1-30].jpg2020/01/08(水) 17:46:59.23ID:1xzJ8k7eM
>>518
色合わせの検証は今まであまりないかな。
trainでmklなどやっておいてconv時にrctなどミックスさせるとかはあったけど。

522/名無しさん[1-30].jpg2020/01/08(水) 18:32:12.37ID:+ACh6RIbd
>>517
おー参考にさせてもらう

523/名無しさん[1-30].jpg2020/01/08(水) 18:35:26.22ID:+ACh6RIbd
pythonは2系と3系でコーディング規約違うしな
DFLは3だったかな

524/名無しさん[1-30].jpg2020/01/08(水) 18:38:05.90ID:8zo/7amu0
まあ5ちゃんは無駄レス、冷やかしレスが大半なのはどこのスレでも
QAサイトではないしな。このスレはQAスレではないしな。回答がつくだけでも儲けもの
QAサイトでもマイナーな質問は答えづらいかな

色合わせは静止画編集ソフトを駆使できる人は、mergedをいじって思いのままなんだとか
まあ、外部サイトで検索。外部サイトでQA。本スレはスレチ

525/名無しさん[1-30].jpg2020/01/08(水) 18:46:36.36ID:8zo/7amu0
無駄レス
無駄レス
>>476-481
>>483
>>485-490
>>499-502
>>510

526/名無しさん[1-30].jpg2020/01/08(水) 20:12:17.44ID:Ljvv+fJn0
前にextractor512はファイルサイズ大きくなるだけって書いたけど、超アップにしてみたら少しクッキリになってた
背景と輪郭の境とか歯の隙間が比較しやすい ただmask editorは線の起動が重くなるので、多用するケースではしんどい

527/名無しさん[1-30].jpg2020/01/08(水) 21:17:31.35ID:ulGpy+hG0
初歩的な質問でごめんなさい
src同一人物データの混合は
良くないものでしょうか?
素材が増えてきて上書きのように
しています。

528/名無しさん[1-30].jpg2020/01/08(水) 21:31:04.30ID:8zo/7amu0
src同一人物データの混合とは何を指すのか、明確でもないけれども、
例えば最初はsrcはつべでのインタビュー動画だけでした
画角、表情を補いたいとか思い、映画やTVドラマなどから追加で抽出
など素材の追加であれば、仕方がない事の様な気がしますが
活動期間の長い女優さんなどだと、年代が違えば顔もある程度異なるかと
メイクばりばりとすっぴんとかだと、顔もある程度異なるかと
DFLでTrain時のバッチ数を大きくできれば、1つの顔データだけに左右されず
平均化、平均した特徴をとらえられます
Train時のプレビューで別人が混ざっている事が分かりました。しまった
削除しそこない。切りのいいところで削除しましょうね
1顔画像データーぐらい別人でも、大勢に影響はない

529/名無しさん[1-30].jpg2020/01/08(水) 21:42:32.39ID:8zo/7amu0
公式ではsrcは2000〜5000枚程度が推奨されていまして
少なすぎるとうまく顔入れ替えができない事もあるでしょうとか
多すぎるとTrain時間が長くなるだけでしょうとか言っています
srcの枚数からして、動画からの切り出しが基本なのでしょうけれども
仕上げの高画質化に、高解像度の写真、写真集やグラビアからの顔画像を
追加している人も多い様です

530/名無しさん[1-30].jpg2020/01/08(水) 21:50:23.30ID:ulGpy+hG0
>>528>>529
ありがとうございます。
他番組の素材が色々と出てきまして
高画質の表情だけ混合させています。
このまま学習させて様子を見てみます。

531/名無しさん[1-30].jpg2020/01/08(水) 22:55:31.25ID:BH9z7FGq0
>>527
いろんな角度、表情が集められるなら1本の動画からでもいいけど現実的ではないから自分は混ぜてる
動画が長いなら1fpsで抽出するとか似た画像削除するソフト使ったりしててきとうに間引くといい

532/名無しさん[1-30].jpg2020/01/09(木) 02:19:34.69ID:UBIMVQxz0
初心者向けサイト
DeepFaceLabを使った、Deepfakeの作り方 | DEEPFAKE.XYZ
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/

DeepFaceLabで検索すれば上位に来るサイトです
DeepFaceLabはインストールは簡単ですし、1回実際に作成してみれば
大体の雰囲気はつかめるかと

533/名無しさん[1-30].jpg2020/01/09(木) 10:29:56.32ID:UBIMVQxz0
Wiki作成してみました
誰でも編集できると思います
https://seesaawiki.jp/dfl/

534/名無しさん[1-30].jpg2020/01/09(木) 10:32:52.17ID:Lwb4QnG3d
お疲れさん!

535/名無しさん[1-30].jpg2020/01/09(木) 13:42:56.62ID:cO8g9IK+0
やっぱ素材同士の輪郭と顎の線が一致してたら完璧なの?

536/名無しさん[1-30].jpg2020/01/09(木) 15:44:24.70ID:g6XP7YRd0
誰か、Quadroで作動するかどうか判る?

537/名無しさん[1-30].jpg2020/01/09(木) 17:25:31.49ID:43k98Piha
>>536
作動するよ

538/名無しさん[1-30].jpg2020/01/09(木) 17:25:58.38ID:UBIMVQxz0
多分動作すると思いますが
CUDAコアがあり、CUDA10.1とかサポートなんでしょ?
であれば動作しそう
しかしVRAM 48GBだとDFLが使いきれないかもしれません
モデルにもよるのでしょうけれども
DF256だとVRAM 24GBでも余っていて、勿体ないな

539/名無しさん[1-30].jpg2020/01/09(木) 17:46:45.08ID:g6XP7YRd0
>>537 >>538
同じ価格のGeForceと比較したら、明らかに数少ないし
どういうメリットがあるのかがよく分からない
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/quadro-product-literature/quadro-rtx-4000-data-sheet-us-nvidia-830682-r6-web.pdf

540/名無しさん[1-30].jpg2020/01/09(木) 17:52:05.96ID:g6XP7YRd0
>>538
2080 Tiが11Gだけど、11Gだと丁度使い来るくらいなんかな?

541/名無しさん[1-30].jpg2020/01/09(木) 18:02:20.06ID:Lwb4QnG3d
2080tiは使いきれるね
リソースモニターで見ても。高バッチだと足りなくて
もうちょい欲しいくらい

542/名無しさん[1-30].jpg2020/01/09(木) 18:26:35.75ID:g6XP7YRd0
>>538
いちおう Quadro RTX 4000 の仕様表にCUDAって書いてある
Quadroは色が10bitらしいけどGeForceって何bitなん?
そもそも、DFLとかって10bitに設定出来るの?

543/名無しさん[1-30].jpg2020/01/09(木) 18:29:20.61ID:UBIMVQxz0
VRAM 24GB DF256 JPG256エンハンス済で
バッチ:48とか VRAMの消費は18.6GBとか
バッチを4少なくしても8少なくしてもVRAMの消費は18.6GBで変わらず
512PNGとかだとVRAM使用が多くなるのかな?
でも512PNGで画質向上効果は試してみないと何とも
SAEHDでdims:1024、Op:1とか目いっぱいにすると、落ちて動きませんでしたな

544/名無しさん[1-30].jpg2020/01/09(木) 18:35:43.69ID:q66BONfeM
VRAMあればあるほど高画質設定でbat増やして使いきれるじゃん

545/名無しさん[1-30].jpg2020/01/09(木) 18:50:02.48ID:UBIMVQxz0
>>542
2080TiのUser Guideに
plus HDRとかHDMI Deep Colorの記載が
12bitとかじゃね?最近のグラボは色の内部演算が浮動小数点で実数だとか
モニタが4K HDRは持っていないな。27インチとか近くで見るにはでかすぎそう
近くで見るからFHDでもいいかな。FHDでHDRのモニタが安めで出ないかな?
CS2420-ZBKが90,000円弱かぁ
IPSパネルになってしまうのよね。黒のしまりはどうよ?

546/名無しさん[1-30].jpg2020/01/09(木) 18:54:46.49ID:KCZdLWtH0
>>30 ホントありがとうやっと笛出来た

547/名無しさん[1-30].jpg2020/01/09(木) 19:48:17.59ID:UBIMVQxz0
DeepFaceLab_CUDA_build_01_08_2020.exe

== 08.01.2020 ==
fixes and optimizations in sample generators
fixed Quick96 and removed lr_dropout from SAEHD for OpenCL build.
NVIDIA build now works on lower-end GPU with 2GB VRAM:
GTX 880M GTX 870M GTX 860M GTX 780M GTX 770M
GTX 765M GTX 760M GTX 680MX GTX 680M GTX 675MX GTX 670MX
GTX 660M GT 755M GT 750M GT 650M GT 745M GT 645M GT 740M
GT 730M GT 640M GT 735M GT 730M GTX 770 GTX 760 GTX 750 Ti
GTX 750 GTX 690 GTX 680 GTX 670 GTX 660 Ti GTX 660 GTX 650 Ti GTX 650 GT 740

548/名無しさん[1-30].jpg2020/01/09(木) 19:49:58.97ID:UBIMVQxz0
== 08.01.2020 ==
サンプルジェネレーターの修正と最適化
Quick96を修正し、OpenCLビルド用にSAEHDからlr_dropoutを削除しました。
NVIDIAビルドは、2GB VRAMを搭載したローエンドGPUで動作するようになりました。

549/名無しさん[1-30].jpg2020/01/09(木) 20:14:01.38ID:UBIMVQxz0
>>544
それはそうなんですけれども、現状、
srcとdstの相性確認が重要
srcの画像の厳選が重要
srcの類似画像は可能な限り間引きたい
Mask必要な画像はMaskが必要
とかで、VRAMあっても持て余し気味かと。コスパは悪いな
出来上がった動画も、最初は感激していたのだが、今見ると粗が
dstはお好みの無臭女優ばかりのせいもあるかな。dstは無臭で輪郭の良いペアとか見つけないとです

550/名無しさん[1-30].jpg2020/01/09(木) 20:16:10.70ID:43k98Piha
ワイはradeon viiとrocmでやってる

551/名無しさん[1-30].jpg2020/01/09(木) 20:38:13.47ID:5fjHrbsT0
やっぱradeonだと効率悪いのかな?
それとも一般的なベンチ通りの比率で回せる感じなのかな
対nvidiaで

552/名無しさん[1-30].jpg2020/01/09(木) 20:50:50.13ID:+1dv4gC70
DFL新しいの出てるね

553/名無しさん[1-30].jpg2020/01/09(木) 20:56:35.96ID:UBIMVQxz0
>>551
TITAN RTX DF256 Batc:48 1ループ4秒以上5秒未満とか
radeonだとtensorflow-gpuで動作しますかね?
CPU使用だとやたらと遅く、GPUの30倍以上はかかっていた様な
モデルと設定は何で、バッチ数と1ループどのぐらいでしょうか?

https://mrdeepfakes.com/forums/thread-deepfacelab-explaine-and-usage-tutorial
指定されたスレッドは存在しません。
あれあれ?

554/名無しさん[1-30].jpg2020/01/09(木) 21:09:08.65ID:43k98Piha
viiの性能は2080くらいで、まあまあの値段でvramでかいのがいいとこかな

555/名無しさん[1-30].jpg2020/01/09(木) 21:14:58.67ID:43k98Piha
>>551
openglだと効率悪いけどcudaで叩く分には悪くないよ

556/名無しさん[1-30].jpg2020/01/09(木) 22:49:03.11ID:g6XP7YRd0
ボディ側に2時間モノとか使ったら、何日くらいかかんの?
誰かやった事ある?

557/名無しさん[1-30].jpg2020/01/09(木) 23:54:21.18ID:UBIMVQxz0
初心者にまとめて教えたい事がある人もいらっしゃる様ですし
Wikiなどどうでしょうかね?
ここは技術交換スレですから、書き込むネタが無ければ別に無理に書き込まなくてもいいかと
ROMっているだけでもいいかと思いますが

558/名無しさん[1-30].jpg2020/01/10(金) 00:06:06.96ID:iq309HD60
おまえがROMってろ

559/名無しさん[1-30].jpg2020/01/10(金) 00:25:18.45ID:nBwzULEj0
ん。NGとかできるらしいけれども、していないの?
>>558とかは後に無駄レスとして削除
技術交換とかの話題ではない
このレスも後に無駄レスとして削除
>>558とかの書き込みは別にしない方がいいと思うよ

560/名無しさん[1-30].jpg2020/01/10(金) 00:30:42.01ID:iq309HD60
つまんね

561/名無しさん[1-30].jpg2020/01/10(金) 00:45:38.79ID:qDNzKTkBH
これだけ嫌われながらも毎日日記を書き続ける精神力は理解できん
分量も多いんだから普通にブログ立ち上げたほうが良いんじゃないかと思う

562/名無しさん[1-30].jpg2020/01/10(金) 01:08:22.35ID:nBwzULEj0
ブログは書いてるよ。昔から自分のメモとして
フリーのブログだから、Google検索には原則として引っかからない
Googleはフリーのブログは嫌うし
あと、記事が短いので、Google検索には原則として引っかからない
だから毎日毎日NGすれば?スルーしてもいいぞ
特に人の言う事を気にしていたらきりがないしな
SNSとかのコミュには参加していないぞ。やり方もよく知らん

563/名無しさん[1-30].jpg2020/01/10(金) 01:17:36.08ID:PN1z0rmO0
>>562
君の書き込みは全部無駄だからしないほうがいいと思うよ
存在が邪魔だからいなくなったほうがいいよ

564/名無しさん[1-30].jpg2020/01/10(金) 01:21:58.30ID:nBwzULEj0
ほほう。他人の事がいちいち気になると言うのか
大変だね
君がDF256のオリジナルの作者かどうか不明なので
誰が君の言う事をいちいち聞くのかと

565/名無しさん[1-30].jpg2020/01/10(金) 01:31:49.35ID:nBwzULEj0
CUDAのメモリアロケートエラーですが、
Nvidiaのドライバを変に最新版にしてしまったからかも知れませんね

NvidiaドライバとCUDAとcuDNNとTensorflow-gpuとPythonのバージョンの対応
https://qiita.com/konzo_/items/a6f2e8818e5e8fcdb896

Nvidiaドライバ,CUDA,cuDNN,tensorflow-gpu,Pythonのバージョンの対応はとても重要らしい。
NvidiaドライバはCUDAのバージョンに合わせて,CUDAとcuDNNとPythonはtensorflowのバージョンに合わせる。

tensorflow-gpuを使用する場合、Pythonは最新版にはできないでしょう
CUDAも10.2だとビルト例が無いのでは?

566/名無しさん[1-30].jpg2020/01/10(金) 01:41:08.31ID:nBwzULEj0
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1 がある場合
DFL同梱の物を上書きコピーした方がいいと思います
よく分からん。おまじない

567/名無しさん[1-30].jpg2020/01/10(金) 04:47:38.98ID:+zUZWj4X0
>>566
素朴な疑問なんですが友達います?

568/名無しさん[1-30].jpg2020/01/10(金) 07:32:37.27ID:V18KBVjDM
年寄りになると寂しくなるっていうしな。
ここではなんだかんだレスがあるから語り続けるという。

569/名無しさん[1-30].jpg2020/01/10(金) 08:42:34.86ID:nBwzULEj0
>>567
いないよ。無職で実家に寄生中だし
市役所から、精神、知的障害者などが集まって、お話したりパソコンしたり
就労ではなく、みんなが集まって何かしていると言う取り組みを勧められた
1人の方が気楽だな。DFLはよい暇つぶし

570/名無しさん[1-30].jpg2020/01/10(金) 09:09:18.68ID:nBwzULEj0
表1. CUDAツールキットと互換性のあるドライバーバージョン
https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html
コンパネまたはマウス右クリックのNVIDIAコントロールパネルからドライバのバージョンが確認できる
グラボからディスプレイ接続していないと使えない
ディスプレイがオンボードGPU接続のみだと使えない
ドライバは対応表より随分と新しいな。グラボのドライバのアップデートを促されるからだろう
ドライバが新しいのはええんかいな?
CUDAインストール時にドライバもインストールされた様な。うろ覚え
その後ドライバはアップデートしない方がよかったりして。分からんけど

571/名無しさん[1-30].jpg2020/01/10(金) 09:21:05.50ID:nBwzULEj0
CUDAドライバーは下位互換性があります。つまり、CUDAの特定のバージョンに対してコンパイルされたアプリケーションは、後続の(後の)ドライバーリリースで引き続き動作します。

RTXでもCUDA 9.2は動く事は動く訳か
DFL内部に抱えているCUDAが9.2だけになったので、RTX使いは少し気になった
iperov がRTXのサポートを辞めるとか暴挙に出ないだろうな
Tensorflow-gpuのビルトし直しも面倒だから、大丈夫かもしれない

NVIDIAドライバも > = 表現なので、新しい分にはかまわない訳か

572/名無しさん[1-30].jpg2020/01/10(金) 09:45:39.72ID:pwizQTXJa
>>569
まさにそんな印象だわあんた

573/名無しさん[1-30].jpg2020/01/10(金) 09:52:12.42ID:pwizQTXJa

574/名無しさん[1-30].jpg2020/01/10(金) 10:33:44.13ID:nBwzULEj0
ITハード土方は、若い頃月100時間残業とかしていたからな
これでは60歳まで勤務するのも、体や心が持たないでしょうと思い
老後資金を貯めてアーリーリタイアするのは予定の行動
予定外にうつ病が発生し、しばらく何とか就労していたのだが、徐々に悪化
休職→休職期限満了で退職に追い込まれ、予定外に早く退職
よくよく計算すると、100歳まで生きても貯金が持ちますがな
もちろん年金も計算に入れている。退職したら国民年金基金の勧誘があり加入した
最近、うつ病でも障害年金の受給ができる事を知り、厚生障害年金3級は受給できた
予定外の臨時収入なので、PC2台とグラボ2枚が買えました
2年に1回の更新なので、受給でき続けられればありがたい

575/名無しさん[1-30].jpg2020/01/10(金) 10:37:06.57ID:nBwzULEj0
DeepFake動画は作成しているので、技術スレと素材スレには出入りするよ
総合スレは5ちゃんに特有な無駄レスだらけだな

576/名無しさん[1-30].jpg2020/01/10(金) 12:15:47.45ID:V18KBVjDM
すまない、個人的な日記はよそでやってくれ

577/名無しさん[1-30].jpg2020/01/10(金) 13:25:41.70ID:nBwzULEj0
からむなよ

578/名無しさん[1-30].jpg2020/01/10(金) 13:53:13.56ID:+zUZWj4X0
>>575
いろいろ大変ですね。しかし老後の心配が無いのは羨ましいです

ソフト・ハード共に参考にさせて貰っています
最近はスレが荒れていて分かり辛いですが…

実質このスレをまとめているのは貴方の様ですし
コテハンを付けて頂けると分かり易くて助かります

579/名無しさん[1-30].jpg2020/01/10(金) 15:23:23.03ID:V18KBVjDM
きっしょ

580/名無しさん[1-30].jpg2020/01/10(金) 15:58:18.52ID:geJoaWCV0
桐山瑠衣 青山菜々

581/名無しさん[1-30].jpg2020/01/10(金) 15:59:19.05ID:geJoaWCV0
石橋けい 風間ゆみ

582/名無しさん[1-30].jpg2020/01/11(土) 00:00:27.45ID:jayfzp7u0
次スレ テンプレ案
1に追加
関連スレ
Deepfake 素材に関するスレ
https://mercury.bbspink.com/test/read.cgi/avideo/1575476933/
srcとdstの談議などに使おう

583/名無しさん[1-30].jpg2020/01/11(土) 00:12:09.02ID:jayfzp7u0

584/名無しさん[1-30].jpg2020/01/11(土) 04:42:06.92ID:60qeti/D0
スレ名は糖質の日記スレに変更

585/名無しさん[1-30].jpg2020/01/11(土) 06:26:51.01ID:nnI4n62r0
>>584
スレタイのカモフラージュっていう意味ではいいかも

586/名無しさん[1-30].jpg2020/01/11(土) 10:45:29.70ID:jayfzp7u0
Wiki色々と記載してみました
https://seesaawiki.jp/dfl/
内容は初心者向け。このスレで聞く前に、目を通せば5ちゃんで叩かれる事も少なくなるかと
記事の内容はこのスレの過去スレから個人的に抜粋した物がほとんどです
関連項目にWiki内の記事の内部リンクがあります
Wikiですから、記事の改善は可能。編集合戦は辞めてね
別記事を書いて関連項目に内部リンクを貼る事が可能
初心者にまとめて教えたい事がある人は、Wikiで長文の記事でも記載可能

587/名無しさん[1-30].jpg2020/01/11(土) 12:32:55.19ID:nnI4n62r0
初心者用Wikiは出来たし他にサイトもあるのでいいが、
中〜上級者用のWikiも欲しいな。
特にどうやったらsrcの動画

588/名無しさん[1-30].jpg2020/01/11(土) 12:33:38.91ID:nnI4n62r0
すまない途中で送信してしまった

初心者用Wikiは出来たし他にサイトもあるのでいいが、
中〜上級者用のWikiも欲しいな。
特にどうやったらsrcの動画が出来上がるのか。これは永遠の課題だが。

589/名無しさん[1-30].jpg2020/01/11(土) 12:55:26.50ID:jayfzp7u0
中〜上級者用のWikiとかになると、書ける人に書いてもらわないとです
書く気が起こるのかどうかは分かりません
記事のタイトルに、(中級者向け)とか(上級者向け)とかあれば分かりやすい

590/名無しさん[1-30].jpg2020/01/11(土) 13:31:41.68ID:c85ut7sE0
ランドマーク修正の手作業から開放されたい

591/名無しさん[1-30].jpg2020/01/11(土) 13:34:00.52ID:c85ut7sE0
男と女の両方にランドマークをつけるAIはバカなのかね

592/名無しさん[1-30].jpg2020/01/11(土) 13:38:10.60ID:EHv8rCZn0
またお前か

593/名無しさん[1-30].jpg2020/01/11(土) 13:59:30.74ID:c85ut7sE0
オマンコにランドマークをつけるAIもなあ

594/名無しさん[1-30].jpg2020/01/11(土) 16:14:50.93ID:jayfzp7u0
>>590
手動ランドマーク修正があまりにも大変な様なら
そもそもその動画、シーン、カットは向いていないとかの過去レスがあった様な
src/dst探しの旅は果てしなく続くのでありました
手作業が嫌な人は、DFLに向いていないのかもね
顔認識に不満なら、新しいアルゴリズムでも考案できて、英語で論文が書けて
だったら素晴らしいのでは
計算機にも分かるように、人間が噛み砕いて実装してるんじゃね?

595/名無しさん[1-30].jpg2020/01/11(土) 17:33:44.28ID:c85ut7sE0
>>594
そうなんだね。
半年前もランドマーク手作業が話題になったけど、まだ問題解決できてないのか。

希望なのだけど、

@ランドマークが2個以上ある画像を削除するスクリプト
Aおっぱいやマンコのランドマークを削除するスクリプト
Bランドマークを手作業でつける時に、向きや目鼻位置を手で指定できるスクリプト

を次バージョンで新規追加してくれたらいいのに。

どう思う?

596/名無しさん[1-30].jpg2020/01/11(土) 18:06:42.99ID:nnI4n62r0
>>594
糖質相手にしても不利益しかない

597/名無しさん[1-30].jpg2020/01/11(土) 18:23:49.88ID:jayfzp7u0
まあDFLとかAIとかに文句つけるのも禁止
みんな頑張って何とかしようとしているのに

598/名無しさん[1-30].jpg2020/01/11(土) 19:23:11.89ID:hRMDCRr+0
たまに乃木坂ちゃんが持ってるぬいぐるみの犬の顔がextractされて笑ってしまう

599/名無しさん[1-30].jpg2020/01/11(土) 22:24:02.81ID:jayfzp7u0
4.2.other) data_src sort by one face in image
画像内で検出した顔の数でソートします。これはあまり使用されません
が既にあります
す○のカルタ映画とかだと、2人の顔が近く、256×256の顔画像に
2人、3人映っている顔がありました
それにこのバッチを使用してみてどうなのか?
ちょっと試せていません

600/名無しさん[1-30].jpg2020/01/11(土) 22:39:50.33ID:jayfzp7u0
確かに体の部分を、顔と勘違いする事があり、顔が2つある人間などいないのだから
何とかならないのか?と思う事はあります
顔である事のしきい値の設定も難しそうです
防犯カメラの映像から、指名手配犯やテロリストなどの要注意人物を見つけるのも、
顔の角度が正面から見て、20度までの角度が顔認識で同一人物と認識できる限界だそうです
横顔、極端な上向き顔、極端な下向き顔は難しい様です
これは人間の顔認識も同じかも。例えばよく知っている女優さんが、下向きでラーメンを食べています
その目玉のよく見えない顔だけの画像を見て、果たして人間が、どの女優さんであるのかが分かるのかと
これは知覚心理学の研究領域かも知れません
人間は、上下反転した、顔を見ても、とたんに誰だか分からなくなるそうです
見慣れていないから

601/名無しさん[1-30].jpg2020/01/11(土) 23:06:31.63ID:jayfzp7u0
顔認識も、顔をAutoEncoderでエンコードし、decodeして元に戻している様です
よく分かりませんが、多分その様な手法、アルゴリズムが、計算量が削減できるからとかではないでしょうか
おかげでdecoderを取り替える事により、AさんとBさんの顔入替えができている様ですが
世の中で初めて、顔入替えを思いついて、やってみた人もすごい気がします
NNの計算量を大幅に削減できるアルゴリズムでも思いついて、実装でもしたら
チューリング賞ものじゃね?

602/名無しさん[1-30].jpg2020/01/11(土) 23:13:59.97ID:8AAoWsw+0
未検出よりも誤検出の方が遙かにマシなので、誤検出を問題にしてるこの流れはあまり意味がないように思う。
未検出じゃなくて誤検出なら_1とかで検索して対応できるし、similarソートでも容易にはじけたりして整理が楽。未検出だと手動以外にないから、それが問題なのは分かるけどね。
まあ、それはここでどうにかできることじゃないと思うけど。

extractであると便利で実装できそうな機能は複数の要素でソートできる機能かな。
例えば、similarが第一優先ソートで、pitchが第二優先ソートみたいな。特にsrcのfaceset作るのが捗りそう。

603/名無しさん[1-30].jpg2020/01/11(土) 23:39:03.69ID:c85ut7sE0
pythonという言語をマスターすれば、自分で新しいスクリプトを作れるようになるのでしょうか?

604/名無しさん[1-30].jpg2020/01/11(土) 23:50:31.69ID:EHv8rCZn0
何を作りたいかにもよるが、
python読み書きできれば、カスタムのDF256程度なら作れる(私)。

Windowsバッチやシェルを読み書きできるなら便利ツールくらいは作れる
(上であがった同一シーンで抽出した_0_1が存在するときにXXXを削除するとか)

extractしたファイルのソートカスタマイズや顔認識に手を入れるとなると
deep learning関連のフレームワークやライブラリ(TensorFlow,KerasやOpenCV,dlib等々)
の使い方、仕様理解が必要。

605/名無しさん[1-30].jpg2020/01/12(日) 00:10:17.07ID:g4Pve2OI0
既存のソースの少しのモディファイ程度で良ければ
別にpython知らなくてもできる(私)。
多言語少し読み書きした経験もありますけど
CUDAなんかも元々は開発者向け機能でっせ
C++でオープンソースで公開されており
Visual Studio Community 2019 やMSVC build toolなどインストールすれば何かと便利かも
git, cmake, wgetなどもインストールして
スタンドアロンでPython 3.6.8をインストールしておけばいいかも
今の所、フォーラムのsort_by_face.pyを使えるぐらいしかメリットはありませんけど

606/名無しさん[1-30].jpg2020/01/12(日) 00:10:39.27ID:oyBjzrYz0
DFLの処理って、別処理を2つ同時立ち上げとか出来る?
顔のコマ抽出と体のコマ抽出を同時に出来るの?って疑問なんだけど

607/名無しさん[1-30].jpg2020/01/12(日) 00:21:08.06ID:g4Pve2OI0
このスレで登場した、DF256、Auto Preview、Extractor512など画期的かと思います(自分とは別人)
カスタムの物はDFL本体のVer Upのたびにメンテが必要となるかも知れません
メンテは、WinMergeなどで差分を取って、オリジナルからどこが変更、修正になっているのかを知れば
意外とpython知らなくてもできる

608/名無しさん[1-30].jpg2020/01/12(日) 00:28:27.78ID:g4Pve2OI0
>>606
試してみれば分かると思うけど
GPUを専有する顔抽出とtrainなどは同時実行は無理だったかと
train中に、DFL新Verに、workspaceコピーとかしたら落ちたりした
別PCからリモートでコピーすればコピーはできましたが
体のコマ抽出ってffmpegを叩くだけのやつの事?
少なくとも別PCからリモートでやればできそうな気も
PCぶっ壊れたら何もできないので、2台持ちは必須かと

609/名無しさん[1-30].jpg2020/01/12(日) 00:40:30.35ID:r5VkmuKt0
>>604
すげーな。あなたが
DF256の開発者か。素直にすげーと思う。


>>605
フォーラムとかに参加して意見を言えるようになるとかっこ良さそう。


俺もランドマークの手作業でお正月と今週末を過ごしてるが、少しレベル頑張らないとな。

610/名無しさん[1-30].jpg2020/01/12(日) 00:56:18.37ID:g4Pve2OI0
ネットで無料でPython入門とかもあるので、目を通しておくといいかも知れません
AI、Deep Learning、Python、顔認識とかで検索すると
驚くほど短いソースコードで結構な事ができている事例も
他人のソースコードの少しのモディファイなら楽ですね
手作業を少なくしたいとかもありますので
Windowsバッチやスクリプトみたいなのが書ければ、随分楽になるかも知れません

611/名無しさん[1-30].jpg2020/01/12(日) 01:06:42.15ID:5o2cyO5U0
すみませんDF512のやり方お願い致しますm(_ _)m

612/名無しさん[1-30].jpg2020/01/12(日) 01:18:32.99ID:oyBjzrYz0
>>608
別々のPCで処理して抽出した画像をコピペで移動←これなら可能なんかな?
特段、他のPCで作ったDFLデータを別のPCに移して拒否されるとかいう事は無いんかな?

613/名無しさん[1-30].jpg2020/01/12(日) 01:29:15.16ID:g4Pve2OI0
>>611
DF512は2080Ti 11GBでも動作しませんよ
TITAN RTX 24GB以上とかでないと動作しません
動作してもバッチ数とか少なくなりますし。最後の切り札かと
>>612
alignedの下のjpgデータはメタデータが埋め込まれており、静止画編集ソフトでいじってはだめとかありますが
別PCでのtrainのmodelデータをコピーして、継続trainなどできています
同じDFLのVersionで作成した物どうしなら行けそうな気がします

614/名無しさん[1-30].jpg2020/01/12(日) 01:32:10.34ID:Y9BXlVCr0
その前に眉毛

615/名無しさん[1-30].jpg2020/01/12(日) 01:33:05.72ID:g4Pve2OI0

616/名無しさん[1-30].jpg2020/01/12(日) 01:38:24.25ID:g4Pve2OI0
>>614
地道にMask Editorで前髪Maskしています?
前髪があるsrcは原則不可
目のあたりまで前髪があるとtrainしても無理。convertした時に両津勘吉状態になる可能性大。眉間のあたりに髪が掛かってなく、片眉だけでも見えてるのが好ましい。
https://seesaawiki.jp/dfl/d/DeepFaceLab%20FAQ
Mask関連

617/名無しさん[1-30].jpg2020/01/12(日) 01:47:01.51ID:g4Pve2OI0
手作業とかは少なくしたいので
このスレで教えてもらった、Windowsバッチなどは随分とありがたかったです

618/名無しさん[1-30].jpg2020/01/12(日) 01:48:54.04ID:oyBjzrYz0
>>613
グラボ買ってないんで、雰囲気だけでもと
CPU用DFL使って顔画像6000枚で試してるトコだけど
顔を検出して切り出す段階で、まる1日くらいかかりそう

この後、体側が20万枚くらいあるんだけど無茶かな?
2時間くらいあるAVのそのまま抽出してもうたんだけど

619/名無しさん[1-30].jpg2020/01/12(日) 01:53:00.81ID:oyBjzrYz0
>>614 >>616
それ、考えようによっては、顔側が眉部で切らずにおでこ上の髪の毛まで合成出来れば
体側の髪型ガン無視で顔側のオカッパ活かせそうなんだけど
そういう装備は実装されて無いの?

620/名無しさん[1-30].jpg2020/01/12(日) 01:58:18.82ID:oyBjzrYz0
全然関係ないけど、DFLの顔切抜き処理中、CPU10%しか使ってないのに、
ネット閲覧動画がカクカクして文字書き込みがカクカクなる始末

CPU内蔵GPU使ってるからとか、そういう事なんかな?

621/名無しさん[1-30].jpg2020/01/12(日) 02:04:06.02ID:Q6DU3GDr0
ムリゲー角度が多いのとか障害物などで要maskが多いと854x480で10分くらいのdstでも目がやられる
グラボなしの2時間のdstとか大馬鹿者

622/名無しさん[1-30].jpg2020/01/12(日) 02:10:19.10ID:oyBjzrYz0
>>621
じゃあワイは現状、どれくらいが適正なん?
ハイビジョンやめてしかも、数分に減らすとかせんと駄目なの?

623/名無しさん[1-30].jpg2020/01/12(日) 02:14:53.74ID:g4Pve2OI0
>>618
最初は自分もCPUで試してみました。遅すぎて非現実的なので
何も知らずに2080を買ってしまった。MouseのミニタワーMicroATXにぎりぎり入った
いま新品だと2060SuperがVRAM 8GBでコスパはよさそう
VRAM 8GB以下でやっている人が多そう
>>619
convert時にerodeをマイナスにすれば、顔の範囲は拡がりますよ
Mask Editor起動して、Default eyebrows expand modifier? (0..400, skip:100) : 400
とかにすれば、眉毛の上の方まで顔扱いします
LandmarksProcessor.pyバックアップコピーして
LandmarksProcessor.pyのeyebrows_expand_mod=1.0から数字を大きくすれば
眉毛の上の方まで顔扱いします

624/名無しさん[1-30].jpg2020/01/12(日) 02:16:02.92ID:P7O01/Tu0
最初は試行錯誤だし数十秒にしとけ。

625/名無しさん[1-30].jpg2020/01/12(日) 02:20:19.31ID:g4Pve2OI0
>>622
一番短い動画で5秒、640×480、30fps、141コマとかあります
短い動画を作成しておけば、Convertオプションのお試しに便利かと

626/名無しさん[1-30].jpg2020/01/12(日) 02:49:33.39ID:/l1yla6N0
python main.py train (中略) --debug ← 最後にdebugオプション入れるとレア画面表示。 Preview(Auto Update)も有効。

627/名無しさん[1-30].jpg2020/01/12(日) 02:49:53.32ID:Q6DU3GDr0
1分以下でもいいと思うよ
おれは2080で最初の頃は2、3分のdstでたくさん実験した

628/名無しさん[1-30].jpg2020/01/12(日) 03:24:40.73ID:yeYOd4ld0
2時間とか完成まで一週間かかりそう

629/名無しさん[1-30].jpg2020/01/12(日) 03:36:24.54ID:oyBjzrYz0
とりあえず体動画は4分くらいで地上アナログレベルの解像度にした
ところで、顔画像6000枚はどうなん? 減らすべきかな?
見た感じ顔の切抜きに10時間くらいかかりそうなんだけど

630/名無しさん[1-30].jpg2020/01/12(日) 06:17:36.58ID:wIHNdctD0
初心者サポートスレじゃないんで
調べれば分かることは聞かないようにな

631/名無しさん[1-30].jpg2020/01/12(日) 08:50:04.01ID:g4Pve2OI0

632/名無しさん[1-30].jpg2020/01/12(日) 09:08:59.86ID:g4Pve2OI0
>>626
コマンドプロンプトで叩くのはタイピングが長そうなので(コピペでいいけど)
6) train DF256.batの最後に --debugオプションをつけてみた
ほほう。確かにレア画面
教えてくれてありがとう

633/名無しさん[1-30].jpg2020/01/12(日) 11:05:33.69ID:Q6DU3GDr0
>>626
これ何が起こるんだい?

634/名無しさん[1-30].jpg2020/01/12(日) 11:47:06.96ID:P7O01/Tu0
>>626
おー確かにレア画面だ。教えてくれてありがとう。
ランドマークとsrcとdstの対応セット(かどうかは分からないが)を同時に見られるとは。

635/名無しさん[1-30].jpg2020/01/12(日) 11:47:41.21ID:EnG9M3VLa
なんか変な層が増えたなあ

636/名無しさん[1-30].jpg2020/01/12(日) 11:51:30.99ID:KIXP9IaW0
起動ディスクのSATA接続SSD上にダウンロードして使ってみたけど
起動ディスクではないM.2のSSD上で作業したほうがいいのかな?

637/名無しさん[1-30].jpg2020/01/12(日) 11:54:23.54ID:KIXP9IaW0
あと、抽出した後、黒い部分がある顔画像が有るんだけど
これは消したほうがいいの?

638/名無しさん[1-30].jpg2020/01/12(日) 11:56:28.51ID:P7O01/Tu0
SSDの仕様考えればわかるだろ。
画像はガイドとマニュアル見てこい。

639/名無しさん[1-30].jpg2020/01/12(日) 11:59:55.44ID:KIXP9IaW0
見てきたけど、書いてないよ

640/名無しさん[1-30].jpg2020/01/12(日) 12:14:14.28ID:P7O01/Tu0
ガイド見てねーじゃねーか。親切マンが現れることを期待することだね。

641/名無しさん[1-30].jpg2020/01/12(日) 12:23:27.53ID:g4Pve2OI0
マスコミが顔入替えで変に騒いでいるからかね
単なる野次馬やあおりだと思うが。雑誌とかが売れるネタであればいいだけかと
DFLの存在にたどり着く人が増えたのかね
初心者が増えた様な気がします。みんなグラボなんて、金持ってるのな
初心者向け記事や初心者向けWiki、過去スレに目を通してきてからの質問でないと
過去スレ読めとか言われるぞ

642/名無しさん[1-30].jpg2020/01/12(日) 12:30:42.47ID:KIXP9IaW0
>ID:P7O01/Tu0
お前にはヤフー浅知恵袋オススメ
当たり障りのないアドバイスしてる時点で、お前が何者か判るわな

643/名無しさん[1-30].jpg2020/01/12(日) 12:41:12.62ID:Pj7psfuD0
>>637
顔が画面枠外に見切れてるやつだよね?
俺はいつも消さずにそのまま、trainで自動的に黒くしてくれる。

644/名無しさん[1-30].jpg2020/01/12(日) 12:45:07.01ID:Pj7psfuD0
定期的にこれ貼っていくことにするわ↓

※ 初心者はまずこれらを読んでから質問しましょう。

DeepFaceLab Wiki
https://seesaawiki.jp/dfl/

DeepFaceLabを使った、Deepfakeの作り方
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/

645/名無しさん[1-30].jpg2020/01/12(日) 12:47:22.83ID:P7O01/Tu0
何者だろうな。
煽りに負けて気が向いたのでガイド文字列検索ヒントを。

Bad lighting (blown whites) or too dark, transparent faces (eg: during scene transitions)
should also be removed during training. In the example below,
all images will be removed during training, and some even delete because they are not aligned properly.
I generally remove images from training if the eyebrows are cut off.

まぁ貴方がsrcとdstのどっちの顔画像のことを挙げてるが分らんが、
マスク範囲まで黒い部分が侵食している顔画像があったら削除した方がいいよ。
大概ランドマークが崩れてる。厳密性を求めるならランドマークとマスク位置確認しながら
1つ1つ取捨選択するべし。あくまで一意見です。

以上、DFL256アップロード者でした。しばらく親切マンは止めることにする。

646/名無しさん[1-30].jpg2020/01/12(日) 12:56:30.61ID:KIXP9IaW0
>>643
じゃあ、そのままでいいって事ね
ありがとう

>ID:P7O01/Tu0
ガイド見ろとかほざいてるけど、そもそもガイドの説明が雑い

ガイドには「DFLを任意の場所に解答する」と書いてある
が解凍物は、処理後の画像を保存するフォルダを内包してるんで
任意の場所だからと起動ディスクとか、遅いストレージに置いてしまうと
処理が爆遅になったりPCの動きカクカクなったりするわ

>ID:P7O01/Tu0は、たったこれくらいの事答えられんレベルの回答しかよこしてない

647/名無しさん[1-30].jpg2020/01/12(日) 13:04:35.20ID:vQShqdV4d
自己解決してよかったじゃん

648/名無しさん[1-30].jpg2020/01/12(日) 13:05:12.27ID:KIXP9IaW0
>>645
そんな事しなくても、普通に英語読めるよ

649/名無しさん[1-30].jpg2020/01/12(日) 13:53:58.72ID:vQShqdV4d
初心者が暴れてて草
全スルーか初心者スレたてるかかね

650/名無しさん[1-30].jpg2020/01/12(日) 14:01:35.07ID:g4Pve2OI0
srcの顔の手動再抽出
https://seesaawiki.jp/dfl/d/%b4%e9%c3%ea%bd%d0
トップページの、関連項目 顔抽出
4) data_src extract faces S3FD best GPU.bat を一行追加カスタマイズ
4) data_src extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat
を使用して、dstと同様にしてsrcの顔の手動再抽出もできる
srcランドマークずれなどの削除、手動再抽出などできる

651/名無しさん[1-30].jpg2020/01/12(日) 14:04:05.14ID:o1fUE2vl0
>ID:vQShqdV4d「俺は情弱なんで既にそういうスレがある事を知らない!」

まで読んだけど、

他に言いたい事有る?

652/名無しさん[1-30].jpg2020/01/12(日) 14:09:15.05ID:vQShqdV4d
情弱ですいませんでした!先生!

653/名無しさん[1-30].jpg2020/01/12(日) 14:17:06.40ID:g4Pve2OI0
>>651
情弱ですみませんが、どこのスレの事を言っているのか、教えてくだしゃあ
誘導して

654/名無しさん[1-30].jpg2020/01/12(日) 14:43:37.83ID:eUUD3aHf0
見てみたけどガイドまじで雑いな
Train時のパラメーターの説明とかいくつも飛んでるし

655/名無しさん[1-30].jpg2020/01/12(日) 14:56:29.89ID:g4Pve2OI0
GUIDE IS BEING FIXED/UPDATED, EXPECT UPDATES SOON.
ガイドは修正中または更新中です。すぐに更新される予定です。
状態がしばらく続いていますね
新しい版の追加機能の説明がchangelog_en.txtだけだったりします
新機能にGUIDEとmanualが追いついていない気がします

656/名無しさん[1-30].jpg2020/01/12(日) 15:02:05.80ID:eUUD3aHf0
>>655
いや、一番古いのつかってるんッスけど・・・

657/名無しさん[1-30].jpg2020/01/12(日) 15:53:49.81ID:CAcTms500
>>656
何だ!その口の利き方はぁ!

658/名無しさん[1-30].jpg2020/01/12(日) 16:08:38.65ID:g4Pve2OI0
>>656
全部入りのSAEとかで説明していますしね
H128やDFなどだと無い設定もあります
日本語の初心者向けサイトは、H128で説明していますし
先にそれの方を見る方が分かりやすいのでは?

659/名無しさん[1-30].jpg2020/01/12(日) 17:58:54.94ID:PdAxe8y00
train中に出る[XX:XX:XX]って時間表示的なものは何?

660/名無しさん[1-30].jpg2020/01/12(日) 19:15:00.33ID:g4Pve2OI0
[現時刻][train回数][1trainにかかる時間][srcのloss値][dstのloss値]では?

661/名無しさん[1-30].jpg2020/01/12(日) 19:20:56.69ID:Pj7psfuD0
>>626
これいいな。教えてくれてありがとう。

662/名無しさん[1-30].jpg2020/01/12(日) 19:33:40.28ID:PdAxe8y00
>>660
ありがとう
LOSS値の件を調べたら、自分が今やってるやつの値が凄く高いんだけど
(兆とかそういうレベル?) これはなぜ?
調べた限りでは0.0Xとかいう値になるとしくじり少ないらしいけど、
物凄くかけ離れた値になってるんだけど?

663/名無しさん[1-30].jpg2020/01/12(日) 21:03:11.10ID:uPGJDlyj0
Train中はモニタの電源を落としてても大丈夫ですか?

664/名無しさん[1-30].jpg2020/01/12(日) 21:05:05.03ID:uWUps5v30
>>663
もちろん大丈夫

665/名無しさん[1-30].jpg2020/01/12(日) 21:25:04.17ID:WzOliiR+0
>>635
糖質が自己レスで会話 専門版で稀によく見る風景

666/名無しさん[1-30].jpg2020/01/12(日) 21:25:34.68ID:IE3o1P3zM
>>664 了解です。ありがとうございました。

667/名無しさん[1-30].jpg2020/01/12(日) 21:41:52.53ID:0bAw7jmm0
ここに初心者が来るのは早すぎるな
何作かconvertまでやってから見に来ればいいのに

668/名無しさん[1-30].jpg2020/01/12(日) 22:22:14.94ID:g4Pve2OI0
そうですね
DFLはインストールは簡単だし、基本的に若い方から順番にバッチを流すだけ
短めの動画でconverしてみて、デフォルトから変更は
Apply color transfer to predicted face? Choose mode : rct にするくらいか
境界に違和感を感じた、なじみが悪かったら
blur mask modifierを大きくしてみるくらいでかなりいけるかと

669/名無しさん[1-30].jpg2020/01/12(日) 22:43:42.03ID:7RGjATR20
Deepfake国内二強

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。
国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の
大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。
転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの
嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。
その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。

670/名無しさん[1-30].jpg2020/01/12(日) 22:54:49.12ID:g4Pve2OI0
DFLの質問と回答はここへ

【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

671/名無しさん[1-30].jpg2020/01/13(月) 04:02:53.57ID:ozUbH0wE0
有益な情報をシェアします
srcの枚数を減らすことでグラボへの負担が軽くなることが確認できました。
ギリギリ動かないって人は減らすと動くかも。

672/名無しさん[1-30].jpg2020/01/13(月) 04:16:42.59ID:b3fo5s/K0
opt3て速度を理由に敬遠してたけどGPUの温度には若干優しいな
こっち使うのもありかな

673/名無しさん[1-30].jpg2020/01/13(月) 08:49:35.92ID:oG56Xael0
srcを厳選して枚数を減らせば、学習が速くなると思います
srcにボケた画像があると、loss値の割には完成動画がボケた様な気がします

674/名無しさん[1-30].jpg2020/01/13(月) 10:45:06.13ID:l3Ra46Xs0
1000k鍛えたmodelを新規srcに流用
してみた。20k程で完成形で成功
どんどん上書きして問題ないかな

675/名無しさん[1-30].jpg2020/01/13(月) 10:54:58.67ID:QTMfY5Wu0
srcを別人と混ぜたのか?
それってresult動画では二人分混ざった顔にならないの?

676/名無しさん[1-30].jpg2020/01/13(月) 11:04:06.09ID:l3Ra46Xs0
最初は混じるようでしたが
暫くすると完全に新規srcになります。
言われてた様な崩壊もなく
複数つくりましたが、非常にスピーディーかつ仕上り良好です。
2000k辺り超えると崩壊してくるのかな。

677/名無しさん[1-30].jpg2020/01/13(月) 11:39:42.43ID:qdheJES60
マジならそれ以外の作り方は馬鹿らしいな
src変える時はぜひ試そう

678/名無しさん[1-30].jpg2020/01/13(月) 14:29:45.29ID:+/GpLRcj0
最後までやってみたけど、体動画にまったく顔が合成されず
体側の顔に青いマスクかかかった状態で最終動画が出来上がってしまうんだけど、、、
何が問題なのか判る?

679/名無しさん[1-30].jpg2020/01/13(月) 14:47:18.25ID:5bzozEAg0
DFLの質問と回答はここへ

【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

680/名無しさん[1-30].jpg2020/01/13(月) 15:16:17.76ID:+/GpLRcj0
>>678の件、理解したわ
train中に出るプレビューが肝心だった
プレビューウィンドウを選択した後、ENTER押すと、それまでの学習経験を記録
とりあえず、そこでENTER押さないと学習した事にならないみたい

同じ画面でPキー押すとそれまでの学習から得たプレビューが見られ
Sキー押すと、それまでの学習を記憶してくれる

ちなみに、ENTERで終わらせた学習記録は、再trainで前回記回数からの継続学習になる

681/名無しさん[1-30].jpg2020/01/13(月) 15:26:09.20ID:xxk7jkNR0
しばらく消えるので障害者と初心者が居なくなったら教えて

682/名無しさん[1-30].jpg2020/01/13(月) 15:28:46.00ID:xxk7jkNR0
>>680
ここにそれを知らない奴なんて居ねぇよボケ

683/名無しさん[1-30].jpg2020/01/13(月) 15:38:52.06ID:QTMfY5Wu0

684/名無しさん[1-30].jpg2020/01/13(月) 15:50:16.19ID:+/GpLRcj0
なにほざいてるか知らんが
>ガイド見れば判るよ
↑ガイド見ても載ってないから書いた
つか、ガイドに載ってない事多すぎで
>見れば判る
とか、ただの妄想でしか無い

単に、知ってるやつが >見れば判る だけの話であって
初心者が見れば判るようになってない

685/名無しさん[1-30].jpg2020/01/13(月) 16:05:05.00ID:5bzozEAg0
初心者サポートスレでも日記スレでもないので他所でよろしく。

686/名無しさん[1-30].jpg2020/01/13(月) 16:11:01.58ID:+/GpLRcj0
今度は最終で、元体動画の顔そのまんまで仕上がったわ
前回の仕上がり動画がマスク付きだったのは>>680の件で学習してなかったせいだろうけど
今回のはどういう状況なん?
学習が足りないって事かな?

687/名無しさん[1-30].jpg2020/01/13(月) 16:14:50.74ID:vFLxGaNEd
なんだその口の聞き方は!

688/名無しさん[1-30].jpg2020/01/13(月) 16:38:38.70ID:gCQQ0Y6n0
srcに別人の顔混ぜると別人顔が混ざるのは判るんだけど
dstで別人混ざるとどうなる?
例えば単独インタビューで途中から別の人物がインタビュー受けたりしてた場合
双方に綺麗にsrcの顔が載るの?

689/名無しさん[1-30].jpg2020/01/13(月) 16:44:46.90ID:QTMfY5Wu0
ID:+/GpLRcj0

690/名無しさん[1-30].jpg2020/01/13(月) 16:45:11.84ID:vFLxGaNEd
>>684
確かにガイドに書いてなかったわ
マニュアルに書いてあった

691/名無しさん[1-30].jpg2020/01/13(月) 16:48:00.75ID:QTMfY5Wu0
>>688
dstのalignedの顔も二人分あるわけだよね?
だとしたら途中まではdstAの人に対しsrcをはめ込む、
途中からdstBの人に対しsrcをはめ込むから、resultは二人分できるんじゃないかな。

692/名無しさん[1-30].jpg2020/01/13(月) 16:50:29.93ID:QTMfY5Wu0
つかそんなのいちいち「どこに書いてあるか」まで言わないとかめんどすぎじゃね。
(ガイド見ろと言った本人ではない)
しかも書いてなかったからといって暴れるとかワケワカラン。

693/名無しさん[1-30].jpg2020/01/13(月) 17:10:13.36ID:oG56Xael0
DFLとかAIとかに文句つけるのは禁止。色々と八つ当たりして暴れるの禁止

DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
https://seesaawiki.jp/dfl/ 関連項目も読んでね
https://find.5ch.net/search?q=AI%E3%82%B3%E3%83%A9
https://mrdeepfakes.com/forums/thread-deepfacelab-explaine-and-usage-tutorial 最近更新中かしばしばリンク切れ

694/名無しさん[1-30].jpg2020/01/13(月) 17:18:46.81ID:gCQQ0Y6n0
train時のプレビューの意味が分からない
あれ見て何か判るの?

695/名無しさん[1-30].jpg2020/01/13(月) 17:22:28.28ID:ghwuSJJO0
見て分からんもんは聞いても分からん〜♪

696/名無しさん[1-30].jpg2020/01/13(月) 17:42:44.53ID:oG56Xael0
>>694
そう言う初心者の質問は、初心者質問スレで聞いた方が、後から見てみんなが分かりやすいでしょうが
親切マンが現れるか分からんけど
>>694とかのレスは、後でまとめる時に、無駄レスとして削除するぞ
過去スレに既に答えがあった様な記憶が
過去スレ読んだり、検索したりするのが、結果的に理解が速いらしい

697/名無しさん[1-30].jpg2020/01/13(月) 18:10:45.01ID:gCQQ0Y6n0
>>696
そういう精神論は間違い

昔そういう英語の先公がいて、解らない単語があるたびに辞書引いてたが
ある時抜群に英語が出来るやつに聞いてみたら
電子辞書に聞いたら速い上に速攻覚えるとか言ってた

つまり、一番早いのは知ってる奴がそばに居て教える事

698/名無しさん[1-30].jpg2020/01/13(月) 18:15:35.55ID:mOK/m1vS0
>>697
人を電子辞書扱いかよw

699/名無しさん[1-30].jpg2020/01/13(月) 18:18:47.12ID:vFLxGaNEd
個人の一経験をさも一般論のように語る社会経験のないキチガイだろ
もしくは釣りか煽りカス

700/名無しさん[1-30].jpg2020/01/13(月) 18:20:13.28ID:oG56Xael0
>>697
ここは初心者の質問スレではありません。初心者の質問スレは既に別の所にあります
初心者が同じ様な質問を繰り返せば
過去スレ見たり、過去スレ検索したり、過去スレ抜粋見たり、Wiki見たりしてくれと言うのは当然
親切マンが何回も繰り返し教えてくれるとは限らないぞ
いいかげんうんざりしたら、スルーされるだけ
無償の行為、回答だし。コミュニティにはみんなが貢献する様でないと

701/名無しさん[1-30].jpg2020/01/13(月) 18:25:47.65ID:gCQQ0Y6n0
そもそもここは、初心者お断りとかいうスレでは無いし
お前は運営じゃ無いから、お前に決める権限は無いよ
そもそも過疎ってるのにスレ分けるほうが迷惑

702/名無しさん[1-30].jpg2020/01/13(月) 18:27:40.84ID:gCQQ0Y6n0
それに、即答しれば1レスで済むのに
1レスするたびに、即答もせず、延々何レスも初心者お断りとか言い続けて
迷惑にも程がある

703/名無しさん[1-30].jpg2020/01/13(月) 18:33:14.41ID:5bzozEAg0

704/名無しさん[1-30].jpg2020/01/13(月) 18:33:17.74ID:oG56Xael0
このスレでは、ID:gCQQ0Y6n0の方が迷惑だと思われていると思うけどね
ID:gCQQ0Y6n0にも決める権限など無いだろう
少し過疎ってるぐらいの方がいいんだよ
スレが落ちない様に、たまに保守しないといけないかも

705/名無しさん[1-30].jpg2020/01/13(月) 18:33:18.23ID:oG56Xael0
このスレでは、ID:gCQQ0Y6n0の方が迷惑だと思われていると思うけどね
ID:gCQQ0Y6n0にも決める権限など無いだろう
少し過疎ってるぐらいの方がいいんだよ
スレが落ちない様に、たまに保守しないといけないかも

706/名無しさん[1-30].jpg2020/01/13(月) 18:36:04.87ID:5VNC3MWwa
初心者vs糖質www

707/名無しさん[1-30].jpg2020/01/13(月) 18:38:04.79ID:5bzozEAg0
>>681
おーけー。
といいつつ自分もDFLの次回アップデートまで消えるわ。
皆さん、またお会いしましょう。

708/名無しさん[1-30].jpg2020/01/13(月) 18:41:45.04ID:oG56Xael0
誰か親切マンが、Gmailかyahooメールとかの捨てアドでも晒して、
1回答につきアマギフ 50円とか100円なとか言い出すと面白いかもw
質問する側は、回答する側を、あまり怒らせない方がいい

709/名無しさん[1-30].jpg2020/01/13(月) 18:47:20.17ID:gCQQ0Y6n0
>ID:oG56Xael0
お前が迷惑だよ
スレ守りたいやつが延々そんな下らん事書くわけが無い

710/名無しさん[1-30].jpg2020/01/13(月) 18:56:54.23ID:oG56Xael0
DFLアップデートしてます
01112020版
マグネットリンク
== 11.01.2020 ==
fix freeze on sample loading
== 08.01.2020 ==
fixes and optimizations in sample generators
fixed Quick96 and removed lr_dropout from SAEHD for OpenCL build.
CUDA build now works on lower-end GPU with 2GB VRAM:

711/名無しさん[1-30].jpg2020/01/13(月) 19:10:20.66ID:v+5SRs0ha
>>684
見ればわかるよ。普通。

712/名無しさん[1-30].jpg2020/01/13(月) 19:17:06.67ID:v+5SRs0ha
>>702

異常だろ…あんた

713/名無しさん[1-30].jpg2020/01/13(月) 19:23:55.15ID:b3fo5s/K0
ここはソシャゲをみんなで遊ぼうのスレじゃねえんだから
やってりゃわかる事をいちいち他人に解説求めるんじゃねえよ

714/名無しさん[1-30].jpg2020/01/13(月) 19:42:09.66ID:oG56Xael0
最近初心者が暴れまくっており、ふざけんな状態です
スレのテンプレには
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://mrdeepfakes.com/forums/thread-deepfacelab-explained-and-usage-tutorial
技術質問はテンプレ必須
過去スレリンクが貼ってあり、日本語も読めないあんぽんたんはスルーされても当然

715/名無しさん[1-30].jpg2020/01/13(月) 19:43:00.15ID:JW58AAGj0
コマンド打った後の説明に出ることごちゃごちゃ書いてるID:+/GpLRcj0は低能なんか?

716/名無しさん[1-30].jpg2020/01/13(月) 19:55:56.65ID:oG56Xael0
いいから初心者はいいかげんこのスレから出ていけよ。ふざけんな
それが人に物を聞く時の態度か?
社会常識はあるのか?
初心者スレが出来てからは、ここは初心者が出入りするスレではない

717/名無しさん[1-30].jpg2020/01/13(月) 19:57:46.67ID:JW58AAGj0
しょしんしゃというか、それいぜんに、たぶんえいごもかんじもよめないんだとおもう。

718/名無しさん[1-30].jpg2020/01/13(月) 19:58:32.87ID:sGLWhbVT0
>>709
今の流れだけで言えばおまえだけがキチガイだよ

初心者スレに脱初心者までTIPS書いてみたぞ
普通の口調で会話する気があるならあっちでなら答える
その代わり一通り自分でできるようになるまでこっちにくんなよ

719/名無しさん[1-30].jpg2020/01/13(月) 20:09:35.25ID:o0MPQfmBa
>>716
障害者も出て行けよwww
お前に社会常識なんて無いだろwww

720/名無しさん[1-30].jpg2020/01/13(月) 20:11:06.03ID:l3Ra46Xs0
やばいな、すげぇブツが出来上がっちまった。おかずは自炊にかぎるわ

721/名無しさん[1-30].jpg2020/01/13(月) 20:12:55.64ID:gCQQ0Y6n0
>ID:oG56Xael0
↑ありゃりゃ?おかしいぞ?
こんなにコイツに賛同者がいるなら、初心者的な質問が出たところで
それガン無視で、コイツと賛同者との会話が成立してるはずなんだが????

ID:oG56Xael0を否定した時だけ、コイツの賛同者が現れるって、、、
おかしくね????w

722/名無しさん[1-30].jpg2020/01/13(月) 20:22:03.70ID:vFLxGaNEd
>>721
おまえの頭が一番おかしい

723/名無しさん[1-30].jpg2020/01/13(月) 20:34:47.64ID:gCQQ0Y6n0
悔し紛れに携帯末端を起動して自己援護とか
よく有りがち

724/名無しさん[1-30].jpg2020/01/13(月) 20:38:41.60ID:oG56Xael0
>>721
単にお前の様に、書いてあることも読まずに聞いてきて
人に物を聞く時の態度もわきまえない奴が嫌われているだけ
おまえは自分がおかしい事も分からないのか
みんな書いてあることを読まずに来るやつは嫌っている
自分が嫌われている事も分からないのか?

725/名無しさん[1-30].jpg2020/01/13(月) 20:39:38.10ID:JW58AAGj0
>>721
万が一賛同者とカウントされてたら嫌なので念のため

英語も読めない逆切れする低能もそうだが、
やり合っているお前らも俺から見たらどちらもキチガイや。

726/名無しさん[1-30].jpg2020/01/13(月) 20:44:56.56ID:v+5SRs0ha
>>721
なんでもいいから黙れ。

727/名無しさん[1-30].jpg2020/01/13(月) 20:51:33.79ID:oG56Xael0
うーん
DeepFaceLab_CUDA_10.1_AVXが無くなってから、嫌な予感がしたのですが、
iperovは持ってもいない、RTX、CUDA10.1のサポートがおざなりになってきた様な気が
tensorflow-gpuは面倒なのでビルドし直しはしていない気はしますが
SET PATH=%CUDA_PATH%;%CUDA_PATH%\bin;%PATH% にして
今までの
SET PYTHONHOME=%ProgramFiles%\python-3.6.8とかにしたらようやく動いた様な気がします

728/名無しさん[1-30].jpg2020/01/13(月) 21:04:19.17ID:oG56Xael0
うーん
まあRTXでも、NVIDIAのサイトからCUDA10.1などダウンロード/インストールなどせずに
DFL内部に抱えているCUDA9.2でも、バージョンが下位の分には問題なく動くのか
pythonも、DFL内部に抱えているものだけならば問題なく動くのか
DF256のModel.pyも、必要かどうかは分からないが修正してしまったぞ
DF256のModel.pyの修正が必要な人は、Wikiでも見て、128→256の変更とかしてください
DFをDF256にコピペして、差分を見て修正

729/名無しさん[1-30].jpg2020/01/13(月) 21:12:30.37ID:b3fo5s/K0
久しぶりにleanedのconvertしたがめっちゃ早いな…
一応FANSEGに近い仕上がりにはなってるけどそこまで手を掛けてないから精度が足らん
自動マスク出来る工程を用意してくれんものか

730/名無しさん[1-30].jpg2020/01/13(月) 21:13:05.74ID:v+5SRs0ha
都度ng入れます、さようなら

731/名無しさん[1-30].jpg2020/01/13(月) 21:19:58.51ID:gCQQ0Y6n0
ほらな?
全然スレ維持する気もなく、延々嫌がらせの反論ばっかだ
しかも質問にも答えない

732/名無しさん[1-30].jpg2020/01/13(月) 21:25:38.40ID:oG56Xael0
>>729
>>514
SNSのクローズドでやっているのかね?
色々と理解している人は、色々とできるのかな?

python-3.6.8と言っても、色々と必要なライブラリはpip installしているのだろうだし
必要であれば最新版にしているだろうし
最新版にできないのは、tensorflow-gpu、CUDA、pythonかな

色々と嫌気がさして、昔からの人は多くが去っていきました
まあ過去スレまでで多くのノウハウは出尽くした様です

733/名無しさん[1-30].jpg2020/01/13(月) 21:27:49.63ID:oG56Xael0
>>731
このスレでは質問に答える義理はない
初心者質問スレへどうぞ
君の態度では、親切マンを拒むだけ

734/名無しさん[1-30].jpg2020/01/13(月) 21:36:49.99ID:oG56Xael0
何回も同じ様な質問が来る気がして
Wiki作成しました。このスレから誘導したので、毎日それなりのアクセスがあるみたい
まあ内容のほとんどは、この過去スレからの個人的な抜粋なんですけど
自分へのメモとしてもいいな
既に書いてある事は、目を通してきてからにしてちょうだい
でないとスルーするとこのスレに書いてある

735/名無しさん[1-30].jpg2020/01/13(月) 21:38:59.79ID:v+5SRs0ha
4K動画集めて自分専用の初期学習用のデータセット作ったわ。とりあえずyolo v3とか使ってpythonで仕分けを少し自動化してみた。

初めは切り出しとか修行僧の気分だったけど、今では随分楽になった。yolo v3でなおコストがデカいから、大量処理にはもう少しライトなやつの方がいいかも知れない。

あと、まだ精度甘いけど、画像フォルダから年齢と性別を判定させて結果をsqliteに突っ込んですぐに取り出せるスクリプトも作った。

ちなみにあぼーん表示でngに入れた人のコメントは見えません。さようなら。

736/名無しさん[1-30].jpg2020/01/13(月) 21:39:50.07ID:gCQQ0Y6n0
ここは初心者お断りの場所では無いし
お前にそれを決める権限も無い

しかも、何か自分の思惑と違う事があると、すぐ別スレ立てて誘導
こんな過疎ってるスレを3スレに分割して

マジで阿呆の極み

737/名無しさん[1-30].jpg2020/01/13(月) 21:44:13.88ID:gCQQ0Y6n0
>>734
そこそこ使ったやつしか分からんwikiとか、作るだけ無駄
実際それ見てやってみたが、最終段階で元体動画に元体の顔載ったままで
まったく合成できてない

で、これを聞くと、何も答えない
上記は、初心者だから発生してる事例では無いのに

738/名無しさん[1-30].jpg2020/01/13(月) 21:58:47.80ID:vFLxGaNEd
なんだ同一人物か、あきらめろ

739/名無しさん[1-30].jpg2020/01/13(月) 22:08:58.55ID:b3fo5s/K0
なんでwiki見てやってんだよ
公式のガイドだけで完成まで出来るだろ

740/名無しさん[1-30].jpg2020/01/13(月) 22:08:59.72ID:ty+AaTJY0
盛り上がってるとこすまんがこれ>>626 「--debug」をどこに入れたらいいの(´・ω・`)?
6)train xx に最後に入れても何も起きないのだが

741/名無しさん[1-30].jpg2020/01/13(月) 22:15:11.74ID:oG56Xael0
ふーん。パソコンの事とか何も知らない奴には使えない様にできているのかね
まあDeepfakeなんぞは、あまりおおっぴらには拡がらない方がいいしな
まあ、こんな簡単な事が、何一つもできない奴がいるなんて思っても見なかったよ
自分のやりたい事を丸投げではなく、明確に。論理的に

https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

742/名無しさん[1-30].jpg2020/01/13(月) 22:19:34.10ID:oG56Xael0
>>740 例えば自分は下記。他のモデルも同様かと --model DF256 ^  ^を付け忘れないようにしてね
@echo off
call _internal\setenv.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" train ^
--training-data-src-dir "%WORKSPACE%\data_src\aligned" ^
--training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^
--model-dir "%WORKSPACE%\model" ^
--model DF256 ^
--debug

pause

743/名無しさん[1-30].jpg2020/01/13(月) 22:20:24.93ID:vFLxGaNEd
>>740
trainファイルそのものを編集するって意味ね
例えばSAEなら
--model SAE --debug
に変更する

744/名無しさん[1-30].jpg2020/01/13(月) 22:32:05.79ID:oG56Xael0
6) train LIAEF256,bat 変更無しに動作しましたので、
今回はカスタム256、512モデルの変更は不要でしょう
DF256は以前の版数から継続trainできましたし

745/名無しさん[1-30].jpg2020/01/13(月) 22:35:49.29ID:ty+AaTJY0
>>742>>743
さんきゅー できたわ

で、1と4列目に、うにょーんってなってるのが混じってるが、意味がわからん(´・ω・`)

746/名無しさん[1-30].jpg2020/01/13(月) 22:47:48.21ID:vKVXf3JI0
誰でも最初は初心者だから仕方ないけど
流石にここ数日は酷いな
俺が初心者だった頃はまだマシだ

747/名無しさん[1-30].jpg2020/01/13(月) 22:53:39.42ID:oG56Xael0
data_dst.mp4はできるだけ正面顔、主観動画、短いシーンを動画編集ソフトで切り出す
フリーの動画編集ソフトでトリミング編集や、拡大縮小編集などは検索して覚える、慣れる必要性あり
data_src.mp4は、つべのインタビュー動画、割と高解像度、照明条件良好のsrcがおすすめ
最初から好みのsrcでやるな。前髪なんぞはもってのほか
それか最初から入っているサンプルで一通り作成だけしてみろ

748/名無しさん[1-30].jpg2020/01/13(月) 23:02:34.26ID:oG56Xael0
最初はDFとかH64とか軽いモデルにしておけ
最初はsrcに前髪ありとか、いきなり難易度の高いsrcでやるな
前髪ありのsrcだとdstも前髪ありで、眉毛なしののみとかマッチしていないとおかしいでしょ?違和感ばかり
バッチを順番に流す。各種Sortツールで、変なsrcは削除(前髪とか顔の前に障害物ありとか)
変なsrcを使うな。変なdstを使うな
顔は変な奴はちゃんと削除しろ。変な顔画像しか無いのであれば、srcの選定が下手

749/名無しさん[1-30].jpg2020/01/13(月) 23:08:14.76ID:oG56Xael0
最初から入っているサンプルで一通り作成だけしてみろ
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
H128をH64かDFに読み替えろ
上記スレ主はVRAM 11GBだぞ。それでH128だ
VRAMそれより貧弱なら、最初はもっと軽いモデルで試さないと
最初はdstは480p以下にしろ

750/名無しさん[1-30].jpg2020/01/13(月) 23:19:59.89ID:oG56Xael0
どうせaligned_debugの下の顔画像のランドマークとか一切見ていないとかいうオチなんでしょ?
そりゃあ顔が小さかったり、角度が厳しかったりしたら顔認識、顔抽出できませんがな
srcとdstの選定、編集が下手なだけ
手順を覚える、理解するのと、お好みのsrcでやるのとは別
srcが前髪ありが好きな人はご苦労さま。srcの前髪全てに手動Maskしないと上手くいかないかもね

751/名無しさん[1-30].jpg2020/01/13(月) 23:21:21.26ID:vFNiZOe1d
dstのalignedに顔がない限り、元動画のままにならないもんなあ。なんか間違ってるんだろう

752/名無しさん[1-30].jpg2020/01/13(月) 23:44:11.66ID:oG56Xael0
何かAIとか計算機とかプログラムとかに対して、幻想がある人も多いのかね?
まあ確かに予算、開発費の獲得や、販売のために、AIを誇大に吹聴するきらいはある
理科系だと数値演算、FORTRANぐらいはやったかと思ったが
機械に計算させて人間が楽するとかで、計算機の歴史とかネット検索してもいいぞ
雰囲気だけ
pythonのソースを見れば、ほほう。何も考える事ができない、何も理解できない、何も意識が無い
機械が、if,and,or,=,+,-,*,/,for,elseとかなら分かるのかとか
ブール代数とか四則演算とか制御構造とかに噛み砕いてやればいいのだなとか思わないか?

753/名無しさん[1-30].jpg2020/01/13(月) 23:52:27.79ID:gzUFJUPw0
元のsrcとdstは静止画でもいいの?

7545142020/01/13(月) 23:59:40.68ID:3BI54O5zp
>>732
twitter >>32

755/名無しさん[1-30].jpg2020/01/14(火) 00:00:02.01ID:O5DOUJCl0
srcは2000枚〜5000枚程度は推奨されているので、基本動画からの切り出しでないとその枚数は厳しい
srcの高画質化に、高解像度の静止画も使うのは十分にあり
srcが少なすぎると、ずっと同じ表情のまま張り付いたりして、ホラー感が出てくる物が出来上がる場合もあるそうな
dstが静止画だと、意味合い的に、静止画のアイコラ作成に流用しているのかね?
dstはDFLの前から、トレジャーハンティングには労力は惜しまんですよとかの人も多いのでは?

756/名無しさん[1-30].jpg2020/01/14(火) 00:08:06.95ID:O5DOUJCl0
まあDFLで動画を作成しようと言うのなら
曲がりなりにも消費する立場だけではなく、生産する立場になった訳だ
何でもかんでも他人のせい、周りのせいにはするなよ
調べたり、トライアル、試行すれば誰にでも分かりそうな事を聞くのは、そりゃあ嫌われる
調べたけど、理解できませんでした、すみませんけど、申し訳ありませんが
とかで聞くのであれば、まだ親切マンが現れるのかも知れないが
回答者の回答を自ら拒んでいる態度もどうかと思うけどな
まあ社会人としての常識。まあリアルとネットで大違いなんでしょうけど

757/名無しさん[1-30].jpg2020/01/14(火) 00:13:44.29ID:O5DOUJCl0
このスレで回答がつくのを期待するのはおかしい
回答はおまけな。ついでな。回答が付けばラッキーだと思っておけ

758/名無しさん[1-30].jpg2020/01/14(火) 00:26:19.41ID:2DE0V+oq0
自演が下手くそだから
口調が変わったなw

759/名無しさん[1-30].jpg2020/01/14(火) 00:43:33.91ID:O5DOUJCl0
一体どこでつまづいているのか、他人にとっては必ずしも明確では無い
ブラウザは基本Google Chromeを使用
https://mrdeepfakes.com/forums/thread-guide-deepfacelab-explained-and-tutorials
マウス右クリック→日本語に翻訳
最初はhttps://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/の方が分かりやすいかも
最初は最初から入っているサンプルでやれば?
障害発生時の切り分けとかした事もないの?

760/名無しさん[1-30].jpg2020/01/14(火) 00:47:12.22ID:O5DOUJCl0
多くの人ができている事ができない様であれば
君はそれらの人よりはるかな馬鹿な訳だ
何を勘違いしているのかね?本当に馬鹿は無敵だな
できない様なら諦める方が早いぞ

761/名無しさん[1-30].jpg2020/01/14(火) 00:50:54.04ID:2DE0V+oq0
と、延々こいつのヤフー浅知恵袋が続くわけか
こいつ、まじで社会性のかけらもの無いな

762/名無しさん[1-30].jpg2020/01/14(火) 00:55:19.95ID:2DE0V+oq0
>>759みたいに
誰でも知ってるような事をドヤ顔で言ってるの見ると
草生えるw

763/名無しさん[1-30].jpg2020/01/14(火) 00:56:02.03ID:7zBn6ScD0
そいつもおまえも両方ゴミ。

764/名無しさん[1-30].jpg2020/01/14(火) 01:02:03.13ID:O5DOUJCl0
DFLの使い方とか作成の仕方は、誰でも知ってるような事なのだが?
誰でも知ってるような事を質問してくるのはおかしい

765/名無しさん[1-30].jpg2020/01/14(火) 01:08:18.93ID:O5DOUJCl0
うーん
全く作成できないとは。。
ちょっと手のほどこしようのないレベル
諦めろ

766/名無しさん[1-30].jpg2020/01/14(火) 01:11:42.83ID:5SKRz2Kx0
ちんちんぺろぺろー

767/名無しさん[1-30].jpg2020/01/14(火) 01:13:04.14ID:O5DOUJCl0
色々読んでも理解できないのなら、質問しても無駄
回答も理解できないでしょ?

768/名無しさん[1-30].jpg2020/01/14(火) 01:15:29.88ID:2DE0V+oq0
何がそんなに悔しいんだよ?w
ただ質問に答えるだけだぞ????

769/名無しさん[1-30].jpg2020/01/14(火) 01:27:42.05ID:O5DOUJCl0

770/名無しさん[1-30].jpg2020/01/14(火) 01:31:08.99ID:O5DOUJCl0
>>768
回答は色々調べろ、試行せよ、色々読め
それで分からないのだから、聞くだけ無駄
ここは初心者質問スレではありません
そう認識しているのは、何も自分だけではありません

771/名無しさん[1-30].jpg2020/01/14(火) 01:34:07.31ID:O5DOUJCl0
君には無理と言う事が、お互い理解できたので
何も無理にDFLを使用する必要は無い
諦めろ

772/名無しさん[1-30].jpg2020/01/14(火) 01:40:15.77ID:O5DOUJCl0
>>768
うーん
君は障害者であり、周りから配慮してもらう必要のある、社会的弱者なのかな?
でも君には周りの誰もHelpできないな
周りにHelpしてもらえる性質のものではないな

773/名無しさん[1-30].jpg2020/01/14(火) 01:54:40.37ID:O5DOUJCl0
うーん
理解できない人には永遠に理解できないみたいね
しょうがないよ。いい大人なんだし。現役の学生じゃないんだから
学習、理解も無理でしょう。年寄りなんだから、頭も衰えていて当然

774/名無しさん[1-30].jpg2020/01/14(火) 02:06:45.53ID:O5DOUJCl0
うーん
まさかこんなに簡単な事も分からなくて、質問してくる人がいるなんて。。
思ってもいなかったよ
おとなしく諦めろ

775/名無しさん[1-30].jpg2020/01/14(火) 02:13:25.38ID:O5DOUJCl0
うーん
類推とか推論とかしてくれて、補完してくれたらいいとかだけなんですけど
世の中無理な人は無理みたいね
しかも本人にはその自覚は全く無いと言う

776/名無しさん[1-30].jpg2020/01/14(火) 02:27:37.48ID:5SKRz2Kx0
うーん

777/名無しさん[1-30].jpg2020/01/14(火) 02:32:30.84ID:O5DOUJCl0
うーん
お互い会話を成立させる気など更々無い事が分かっただけでもいいのでは
まあ時間の無駄と言うか

778/名無しさん[1-30].jpg2020/01/14(火) 02:34:08.70ID:U7zXE8XW0
>>775
無駄レス嫌っていた障害者のかたですよね?
今の状態の半分は貴方の所為だと感じますが
どうお考えですか?

779/名無しさん[1-30].jpg2020/01/14(火) 02:38:06.61ID:O5DOUJCl0
そうか、すみませんでした
スルーすればいいだけなのか
まあ、このスレも、埋まったら手動無駄レス削除の.txtファイルでもまた作りますかね

780/名無しさん[1-30].jpg2020/01/14(火) 07:26:44.80ID:D0Z44ai20
この連投してる病気の奴って、ちょっと前からいたウザい日記みたいな投稿の張り付きと一緒なん?

781/名無しさん[1-30].jpg2020/01/14(火) 07:43:03.03ID:yjFgI0Li0
GPUの将来展望だけど
OpenVINOが主流になって
CUDAは廃れていくのかな?

意味も分からずにCUDAを使ってるけど

782/名無しさん[1-30].jpg2020/01/14(火) 09:29:26.15ID:LIoPjZwgM
2日見ないうちにめちゃくちゃスレが進んでると思ったら内容ほぼ0じゃねーか
スレの何割1人で書き込んでるんだよ

783/名無しさん[1-30].jpg2020/01/14(火) 09:50:34.51ID:O5DOUJCl0
OpenVINOって推論だけで学習には使えないみたいだけど
機械学習はNVIDIAの独占状態
チビコアたくさん搭載したGPU+直付け大容量VRAM+CUDAの様な開発者向けTool Kitが必要
推論はIntelのCPUだし、実はIntelも儲かっているらしい

784/名無しさん[1-30].jpg2020/01/14(火) 10:04:59.98ID:yjFgI0Li0
これからは、OpenVINOとCUDAの両方の対応したGPUになっていくということ?

むつかしい質問して申し訳無いけど

785/名無しさん[1-30].jpg2020/01/14(火) 10:19:42.01ID:CUobcwHYM
とうとうVRで同僚の女子社員とやっちまった
dstは顔が中央付近にある歪みの少ない正常位シーンを使用
やばい技術だよまったく

786/名無しさん[1-30].jpg2020/01/14(火) 11:16:56.62ID:NAT0iDJl0
女優側はともかく素材側流用できるの誰か配布してくれねえかなあ
素材編集がダルすぎてしばらくやめてしまった

787/名無しさん[1-30].jpg2020/01/14(火) 11:37:32.60ID:N+GSdcKnM
>>785
やりたいと思える同僚がいることがうらやましい(笑)

788/名無しさん[1-30].jpg2020/01/14(火) 11:38:24.56ID:O5DOUJCl0
スレの途中だが、このスレのまとめ、抜粋、無駄レス削除
https://mega.nz/#F!z34llSoa!r5StzhZKiqEQ37wrURrZyQ
個人の主観が入り、削除の過不足はあるかも

例えば自分のdstは短すぎて、他人には不満かもしれない

789/名無しさん[1-30].jpg2020/01/14(火) 12:09:39.52ID:O5DOUJCl0
機械学習アルゴリズムのボトルネックをCythonで改善する話
https://qiita.com/tn1031/items/fe83f6d7904871162085
*.pyを動かすと、すぐにimportなんちゃらが見つからないとか言われる
本物のプログラマとかでないと難しそう

Cythonで高速化
実装
先ほどのforループをCythonで書き直します。
Pythonが遅い原因のひとつが、Pythonは動的型付けであるということです。変数を参照するたびに型をチェックしているので、変数の参照が多いプログラムはこの操作にかかる時間が無視できなくなってきます。
Cythonを使って書けばc言語のように変数の型を定義できます。いちいち型の確認が行われないのでかなりの高速化が期待できます。
変数の宣言はcdefで行います。計算に用いるすべての変数の型を定義しておきます。

790/名無しさん[1-30].jpg2020/01/14(火) 12:47:49.53ID:RlvgEpied
>>786
src側のaligned画像群はみんな開放しないね
狭量という自覚はあるが
収集と高品質化の苦労を思うと他人に簡単には渡したくない…

色んな動画や画像を集めてるときが結構楽しくて
やっぱりこの子かわいいなあこの表情いいなあとか言いながら一コマ一コマキャプチャしてたりもしてる
我ながらキモいな!

791/名無しさん[1-30].jpg2020/01/14(火) 12:52:03.50ID:RlvgEpied
キモいついでに個人的なおすすめとしては
いきなりハメハメさせるんじゃなくて
最初はただの水着動画、着エロ、裸、エロマッサージ、オナニー、笛吹き、とか段階的に作ることで何度も楽しめる!

792/名無しさん[1-30].jpg2020/01/14(火) 13:07:19.37ID:5SMc35Jl0
>>785
相性のいいdstを自力で見つけなければいけないのに苦労するが
知り合いで作った破壊力はものすごいよな
>>791のように段階的に作るとなおさら

793/名無しさん[1-30].jpg2020/01/14(火) 13:28:27.05ID:NAT0iDJl0
>>790
俺みたいに素材探しと編集がダルすぎてやめる奴もいるから
ディープフェイクの今後を考えるのであれば数種類で良いからベースになる素材が欲しいわ
そこら辺海外は協力し合ってて流石だなと思う

794/名無しさん[1-30].jpg2020/01/14(火) 13:29:51.94ID:CUobcwHYM
>>792
段階的なことは2Dで散々やったよ
ちなみに2Dでの最後の作品は、src同僚、dst俺だ
これ以上やることなくなってVRに移行した

795/名無しさん[1-30].jpg2020/01/14(火) 13:30:34.50ID:NAT0iDJl0
あ、よく見たら話題が噛み合ってないかも
俺が言ってるのはdstの顔をハメられる側の素材の方ね
srcは自分の好きな女優だから編集してても苦じゃないけどdstはキツいわ

796/名無しさん[1-30].jpg2020/01/14(火) 13:43:10.38ID:RlvgEpied
>>795
そうか俺が勘違いだったねすまん

dstはextractする前の全コマpngと、した後のalignedと内部で紐付けしてるんだっけか
だとすると一番手間のかかる修正済alignedだけ共有って無理なのかも
pngまで共有となると数十GBとかだし

素材スレの方でおすすめ動画のURLを書くくらい?

797/名無しさん[1-30].jpg2020/01/14(火) 15:07:54.22ID:O5DOUJCl0
海外のフォーラムではCelebrity FacesetsとPornstar Facesets
がMega.nzなどで共有しているみたいだけれどもね
日本人がFacesetsの共有をすれば、著作権法に違反、パブリシティ権の侵害、名誉毀損(侮辱罪)に該当なのかね
>>4
DF256モデルデータ全体で例えば652MBとか。.7zに圧縮しても、592MBとか
Mega.nzにアップするのも大容量過ぎてきつい

798/名無しさん[1-30].jpg2020/01/14(火) 15:25:46.32ID:c6TKpqsw0
誰か俺が死んだら物理的にパソコン破壊してくんないかなぁ

799/名無しさん[1-30].jpg2020/01/14(火) 16:37:04.79ID:kri0PG6Od
フェイスセットをパックする機能実装されなかったっけ?
試してないけど

800/名無しさん[1-30].jpg2020/01/14(火) 16:37:24.38ID:HxSA1YRBM
なんかカオスだな。
これから始めようとする人が増えて、ますますカオス状態になっていくんだろうな。

初期の頃からスレに参加できていて良かったわ。
もう5ヵ月くらいやっていてiterも350万超えたけど、今の状態じゃ答えてあげようって気にすらならない。
技術情報の交換スレなのに初心者サポートスレと思い込んで疑わない糖質が増えてるしな。

801/名無しさん[1-30].jpg2020/01/14(火) 16:41:46.39ID:HxSA1YRBM
次スレたてるときはテンプレに必ず初心者スレも入れて技術スレと完全に分離してくれ。
(あと糖質スレもな)

802/名無しさん[1-30].jpg2020/01/14(火) 17:01:05.15ID:O5DOUJCl0
ん。僕の日記スレとかもたてればいいと言う事?

次スレテンプレ案
https://seesaawiki.jp/dfl/d/%a5%c6%a5%f3%a5%d7%a5%ec%b0%c6

deepfakesの技術交換スレです。質問スレではありません。初心者スレではありません。

初心者お断り。AI、DFLに八つ当たりして暴れるの禁止。お断り
DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

803/名無しさん[1-30].jpg2020/01/14(火) 17:06:07.87ID:O5DOUJCl0
DFLならこれに書いてある内容の質問は全スルー、マニュアル記載の内容も全スルー
https://find.5ch.net/search?q=AI%E3%82%B3%E3%83%A9
https://www.deepfake.xyz/make_deepfake/how-to-use-deepfacelab/
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/
https://seesaawiki.jp/dfl/ 関連項目にも目を通してね
https://mrdeepfakes.com/forums/thread-guide-deepfacelab-explained-and-tutorials

もうちょっと掘った内容の話はこれ読め
http://mizutanikirin.net/unity-dlib-facelandmark-detector%E3%81%A7%E9%A1%94%E8%AA%8D%E8%AD%98

技術質問はテンプレ必須。スレのテンプレにある物は、1回は目を通したり、検索したりする事が必須。

804/名無しさん[1-30].jpg2020/01/14(火) 17:26:43.29ID:O5DOUJCl0
しばらく、使用のプロバイダではスレたてできませんでした

【不満】DFL【日記】

DFLの不満をぶちまけよう。ただそれだけです。質問/回答禁止
物好きな人ぐらいしかレスしなくていいです
あと、僕の日記もOK

DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

805/名無しさん[1-30].jpg2020/01/14(火) 18:25:52.72ID:RlvgEpied
>>799
何万枚のdstのaligned画像を一ファイルにできるのは便利だよ
リリースノートによれば動作も早くなるらしいんだが1iteあたりとしては体感できなかった
train開始時の初期読み込みは早いかな

806/名無しさん[1-30].jpg2020/01/14(火) 18:40:10.39ID:kri0PG6Od
>>805
教えてくれてありがとう!

そうかそのままtrainできるんだ
確かにファイル数多いとフォルダ読み込み遅くなるし
(ls結果が遅いみたいな感じ)、
1ファイルとして扱えるのは便利ですね
つかってみよ

807/名無しさん[1-30].jpg2020/01/15(水) 00:01:28.30ID:iQTdSvV20
>>806
srcもdstも両方pacしてみた
厳密に測ったわけではないけど
数%くらいは1iterationあたりの速度が上がってる気がする

808/名無しさん[1-30].jpg2020/01/15(水) 01:40:43.92ID:l9Rw55m90
本スレは
deepfakesの技術交換スレです。質問スレではありません。初心者スレではありません。

初心者お断り。AI、DFLに八つ当たりして暴れるの禁止。お断り
DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

>>803

809/名無しさん[1-30].jpg2020/01/15(水) 10:15:26.47ID:I9HYn6aO0
CUDA_9.2_SSE_build_12_20_2019から1.0_CUDA_build_01_11_2020
に替えたけどmodelデータ引き継げないのかなんか知らんがエラーはいてTrain始まらない
model消して1からならちゃんと始まるめんどくさぁ…

810/名無しさん[1-30].jpg2020/01/15(水) 10:26:17.92ID:dTwJXmAY0
>>809
SAEHDだったら12月末ぐらいのバージョンで以前のmodelと互換性なくなった
他のは使ってないからちゃんと見てないけど新規でやり直すか旧バージョン使い続けるかだな

811/名無しさん[1-30].jpg2020/01/15(水) 10:33:31.67ID:I9HYn6aO0
>>810
そうSAEHDでやってる
えぇマジか…

812/名無しさん[1-30].jpg2020/01/15(水) 12:32:02.24ID:Ksi+ZBMF0
src動画をfps指定で書き出した後にdata_dstに放り込んで
dstのalignedでextractした方がdebug画像の確認ができるから
抽出漏れやlandmarkズレなんかの再抽出がやりやすいな

813/名無しさん[1-30].jpg2020/01/15(水) 13:38:13.82ID:Ksi+ZBMF0
複数srcのデータ管理一例。srcごとにbatファイル作成
src画像とmodelを絶対パスで指定しとくとバージョンアップの時に楽
mergedはdst保管するときに容量食うので上書き設定。残したい人は注意

・train_XXX.bat( _XXX の文字を変えて使い分け)
--training-data-src-dir "D:\dfl\aligned\aligned_XXX" ^ (src別のalignedフォルダ指定)
--training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^
--model-dir "D:\dfl\model\model_XXX" ^ (src別にmodelを使い分ける場合)

・converted_XXX.bat
--input-dir "%WORKSPACE%\data_dst" ^
--output-dir "%WORKSPACE%\merged\merged_XXX" ^ (src別にマージ画像を出力)
--aligned-dir "%WORKSPACE%\data_dst\aligned" ^
--model-dir "D:\dfl\model\model_XXX" ^ (modelを使い分けた場合のmodel読み込み)

814/名無しさん[1-30].jpg2020/01/15(水) 13:39:30.03ID:Ksi+ZBMF0
・converted to mp4_XXX.bat(alpha出力使う人は別途作成)
--input-dir "%WORKSPACE%\merged\merged_XXX" ^ (src別のマージ画像入力)
--output-file "%WORKSPACE%\result_XXX.mp4" ^ (src別に動画出力)
--reference-file "%WORKSPACE%\data_dst.*"

DFやSAEなどのmodel名で使い分ける時は都度bat作成
srcのextractやsortやmask作業をする時は初期フォルダ
>>30の@はtrain.batのsrc-dirにdstフォルダを指定するといい

815/名無しさん[1-30].jpg2020/01/15(水) 13:47:35.77ID:l9Rw55m90
>>812
dstと同様に、4) data_src extract faces S3FD best GPU.batの内容を変更してaligned_debug作成もできる
@echo off
call _internal\setenv.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^
--input-dir "%WORKSPACE%\data_src" ^
--output-dir "%WORKSPACE%\data_src\aligned" ^
--detector s3fd ^
--debug-dir "%WORKSPACE%\data_src\aligned_debug"

pause

816/名無しさん[1-30].jpg2020/01/15(水) 13:49:44.19ID:l9Rw55m90
4) data_src extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat
@echo off
call _internal\setenv.bat

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^
--input-dir "%WORKSPACE%\data_src" ^
--output-dir "%WORKSPACE%\data_src\aligned" ^
--multi-gpu ^
--detector manual ^
--manual-output-debug-fix ^
--debug-dir "%WORKSPACE%\data_src\aligned_debug"

pause

817/名無しさん[1-30].jpg2020/01/15(水) 13:59:43.01ID:BywqsYXK0

818/名無しさん[1-30].jpg2020/01/15(水) 14:03:30.43ID:l9Rw55m90
バージョンアップの時にworkspaceを全てコピーするのもやってられない
setenv.bat例
SET DFL_WORK_ROOT=D:\DeepFaceLabCUDA10.1AVX
SET WORKSPACE=%DFL_WORK_ROOT%\workspace

D:\DeepFaceLabCUDA10.1AVXの下とかにバックアップ
model集例:model\女優1、2..フォルダとか
src alignedl集例:data_src集\女優1、2..フォルダとか
dst集例:data_dst集\女優1、2..フォルダとか

819/名無しさん[1-30].jpg2020/01/15(水) 15:55:29.51ID:UdIk6Vou0
>>818
人のやり方見るのは参考になるな。ただ、このやり方だとbatファイルがとんでもない量ありそうだな…
dstのリネームはどうやってんの?まさか都度入れ替えるために手動リネームじゃないよな…?

820/名無しさん[1-30].jpg2020/01/15(水) 18:39:38.69ID:l9Rw55m90
>>819
実際にtrainするsrcとdstは、前の物を削除して、都度コピーしています
srcの入れ替えは、\data_src\alignedを削除して、目的の物をコピー
dstの入れ替えは、\workspace\data_dstの下を削除して、目的の物をコピー
もっとうまい方法でやっている人もいるかも
batファイルを書き換えて、srcとdstの参照フォルダも変更はできますね
自分が分かりやすい方法とかでやればいいのかと
ちなみに自分のdstは尺が短い物ばかりです
まあ、少なくともみなさん、せっかく作成した
\data_src\aligned、\workspace\data_dst、\workspace\modelのバックアップコピーは取っているかと
で、実際の使用時に、参照、リードばかりの物はいいのですが、
上書きされる物(今回trainのmodelデータくらいか?)は注意も必要かと
今回更新されるデータが分かっていればいいかと

821/名無しさん[1-30].jpg2020/01/15(水) 18:50:33.38ID:l9Rw55m90
実際に作業するworkspaceの他、せっかく作成した物はバックアップも取っておきたいとかだけ
ちなみに自分は、srcにしたい女優さんが7人とかはいます
割と上手くいったdstがあれば、他のsrcでもいけるんじゃね?
と言う事で試みようとはしています
まだまだsrcにしたい女優さんもいます。基本臭正のみ出演の女優さんの流出ものもどきも作成してみたい
最近のグラドルでもレンタルはDVDばかりですな。こ○る○あたりでも作成したいのですが
新規srcは、高解像度の顔画像集めが大変ですな

822/名無しさん[1-30].jpg2020/01/15(水) 19:02:20.33ID:l9Rw55m90
カスタムのbatファイルも増えてきたので、自分が使用しない様な物は別ファルダに待避とかもしています
おじさんには懐かしのグラドルは、DVDのIVとかしかなかったりしますが、
意外とDVD画像の解像度でもいけましたぞ
何かここが似ていれば本人らしいとか特徴のあるsrcだといいですな
作成したいsrcは結構あるのですが、その分、srcの選定、抽出、厳選とかに時間がかかりますな
新規srcのTrainには時間がかかりますな。色々な手作業に時間がかかりますな
DFLは最初考えていたのとは、大変ですな

823/名無しさん[1-30].jpg2020/01/15(水) 19:32:27.68ID:Ksi+ZBMF0
>>818
なるほどsetenvをおぼろげに理解したよ。ありがとう
データ管理がもう少し改善できそうだ

824/名無しさん[1-30].jpg2020/01/15(水) 22:40:32.35ID:l9Rw55m90
初心者スレから、また暴れまくる糖質がくるぞ
試行すればすぐに分かる様な質問は無視して
初心者質問は無視して
態度の悪い質問は無視して

自分のプロバイダはそれなりにメジャーなので、糖質スレはしばらくはたてられません
糖質スレをたてたところで、本スレに出入りしたがる様です

825/名無しさん[1-30].jpg2020/01/15(水) 23:49:29.38ID:LsjCXWZg0
>>821
こ○る○はTVでいろんな表情を見せてくれるから高画質で録画したものを使ってる
それで俺は満足なんだけど

826/名無しさん[1-30].jpg2020/01/16(木) 00:43:20.19ID:kwKsQebK0
>>825
こ○る○とかのTVからの録画だと、BDレコーダー持っていて、HDD→BDに焼いて
BDをPCに持ってきてリッピングですか?BDレコーダーは持っていないしな
つべでFHDのインタビュー動画でもあれば、相当いいsrcが収集できますが
最近DVDを借りるのでも、水着のないIVでもよくなりましたな
srcの収集目的に変わってきたと言う

827/名無しさん[1-30].jpg2020/01/16(木) 03:46:52.45ID:mdwbWA1N0
VRで作っています
extract faces MANUAL RE-EXTRACTで
1画面で2つの顔を選択は出来ないのでしょうか?

828/名無しさん[1-30].jpg2020/01/16(木) 05:48:40.44ID:kwKsQebK0
【不満】DFL【日記】
https://mercury.bbspink.com/test/read.cgi/avideo/1579121226/

DFLの不満をぶちまけよう。ただそれだけです。質問/回答禁止
物好きな人ぐらいしかレスしなくていいです
あと、僕の日記もOK

DFLの質問と回答はここへ
【質問】dfl【初心者】
http://phoebe.bbspink.com/test/read.cgi/ascii/1578836130/

829/名無しさん[1-30].jpg2020/01/16(木) 12:14:28.56ID:qHFDacWZa
>>828
ネガティブすぎだろ…。githubリポジトリを見てる作者に言えよ。

830/名無しさん[1-30].jpg2020/01/16(木) 12:39:26.60ID:kwKsQebK0
糖質隔離スレが欲しいとの要望を受けて
眉毛、前髪問題で暴れまくる質問者とチラ裏日記連投者向けのスレです
DFLに文句を言いまくっている人がいますが
作者にたんまりと寄付でもして要望でもしないとね

クソスレ立てるな
スレ立てた奴、もう他のスレに来なくていいのでここで隔離されててくれ
とのカキコが

831/名無しさん[1-30].jpg2020/01/16(木) 12:40:53.18ID:kwKsQebK0
>>828
すぐにスレが落ちそう

832/名無しさん[1-30].jpg2020/01/16(木) 20:46:54.00ID:YZgDkHT1M
loss値0.05より下回った人いる?

833/名無しさん[1-30].jpg2020/01/16(木) 22:26:08.38ID:pEexgLbV0
ヘボGPUなのでsrc0.12、dst0.08くらいまでしかない

834/名無しさん[1-30].jpg2020/01/17(金) 07:25:21.07ID:VTlTBd0R0
>>832
照明条件よくても0.05未満はなったことないすね。
0.06前後で下げ止まる。dropout on は試してないけど。

835/名無しさん[1-30].jpg2020/01/17(金) 15:01:46.24ID:ROcVpPpUp
1229だけど500k超えたあたりから急にプレビューが2枚目以外マスクになったけど仕様?

836/名無しさん[1-30].jpg2020/01/17(金) 15:12:29.02ID:KAejt6OP0
スペース押せ

837/名無しさん[1-30].jpg2020/01/17(金) 15:57:02.85ID:j9u8LKpG0
いくらなんでも適当な奴多すぎだろ
英語表記だからって理由じゃ説明つかないぞ

838/名無しさん[1-30].jpg2020/01/17(金) 18:09:46.42ID:OvopN/Dv0
>>788
素晴らしい仕事です。ありがとうございます。

839/名無しさん[1-30].jpg2020/01/17(金) 18:32:53.82ID:0RzgjcrS0
本人うぜえ死ね

840/名無しさん[1-30].jpg2020/01/17(金) 21:20:39.75ID:B9/5Jyqg0
>>838
>>839
ん。誰でもできる事だよ。でも5ちゃんに緒o入りしている瑞lはこう言う事bヘあまりやらなb「みたい
b竄チてみたら、意外と受けた。試ゥ分が欲しかっbスから作っただbッの物なのだが

841/名無しさん[1-30].jpg2020/01/17(金) 21:22:39.50ID:B9/5Jyqg0
でも5ちゃんに出入りしている奴はこう言う事はあまりやらないみたい
やってみたら、意外と受けた。自分が欲しかったから作っただけの物なのだが

842/名無しさん[1-30].jpg2020/01/18(土) 00:54:43.13ID:ZexBUxgt0
>>841
糖質は隔離スレ行けよクソうぜえ

843/名無しさん[1-30].jpg2020/01/18(土) 02:46:41.28ID:H2wnSFlj0
>>842
技術交換スレでも、5ちゃんとかは1行レスの無駄レスだらけで埋まるのであった

844/名無しさん[1-30].jpg2020/01/18(土) 02:49:32.52ID:H2wnSFlj0
特に提供ネタが無くて、煽りだけなら、別に書き込まない方がいいと思うけど

845/名無しさん[1-30].jpg2020/01/18(土) 03:32:09.52ID:4MEcGG/50
1回の書き込みで済むことを1行ずつ2回に分けて書いてるやつが何言ってんだ

846/名無しさん[1-30].jpg2020/01/18(土) 04:44:57.03ID:gsDknBHTa
こまけぇことはいいんだよ

847/名無しさん[1-30].jpg2020/01/18(土) 06:25:53.22ID:tER5hUtTM
糖質スルーできるか頑張るスレ

848/名無しさん[1-30].jpg2020/01/18(土) 07:57:17.94ID:XGfMYA/60
杜寧パンがねー死ねば良いのに

849/名無しさん[1-30].jpg2020/01/18(土) 09:59:51.64ID:kYxEpEzd0
ここ、すごい頭いい人が何名かいるよね
すげえなあと思ってしまうが、カテゴリー的にはエロ動画愛好家なんだよなあ。

850/名無しさん[1-30].jpg2020/01/18(土) 14:25:36.34ID:lTD2loQZ0
本日の患者さんのIDは以下、NG推奨
H2wnSFlj0
JvsXi898

851/名無しさん[1-30].jpg2020/01/18(土) 15:00:57.50ID:CRZfXxrB0
>>849
エロは能力以上の力を発揮する

852/名無しさん[1-30].jpg2020/01/18(土) 16:18:32.25ID:H2wnSFlj0
>>850
ストーカーめw
ZexBUxgt0
4MEcGG/50
lTD2loQZ0
もNG推奨だと思うけどw

853/名無しさん[1-30].jpg2020/01/18(土) 18:51:05.79ID:H2wnSFlj0
このスレは、もう次スレも建てない方がいい気もしてきた
いいかげんノウハウの交換もネタ切れ近いかも
本スレの次スレを建てたい場合は、初心者の質問厳禁とか
初心者質問スレに誘導してね
あと、これ見た方が、結局は話が速いと言う事は、できればテンプレに貼ってね

854/名無しさん[1-30].jpg2020/01/18(土) 20:41:03.52ID:K1G9N1050
このスレは絶対に残してほしい
隔離スレとして

855/名無しさん[1-30].jpg2020/01/18(土) 22:18:46.24ID:H2wnSFlj0
途中だけれども、初心者質問スレまとめ。本当に初心者の質問なのか?中〜上級者のマッチポンプでは?w
https://mega.nz/#!z34SwYoJ!DmTIX-LviL5DP3gq6TP7CiZTFakXy54fxjwptCnpWYc

856/名無しさん[1-30].jpg2020/01/19(日) 02:01:39.20ID:L8P/WexF0
長時間PCを放置したい人向けのちょっとした工夫でも書いておくよ
1.複数動画を分解&extract
  →data_dst1.mp4/data_dst2.mp4/data_dst3.mp4…のように複数準備しておく
  →基本は3.2) extract images from video data_dst FULL FPS と 5) data_dst extract faces S3FD best GPU の中身を連結しただけ

"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed extract-video ^
--input-file "%WORKSPACE%\data_dst1.*" ^
--output-dir "%WORKSPACE%\data_dst1" ^
--output-ext "png" ^ ★これを追加するとコマンドラインで訊かれなくなる
--fps 0
"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^
--input-dir "%WORKSPACE%\data_dst1" ^
--output-dir "%WORKSPACE%\data_dst1\aligned" ^
--detector s3fd ^
--debug-dir "%WORKSPACE%\data_dst1\aligned_debug"
以下dst2、dst3用を追記

857/名無しさん[1-30].jpg2020/01/19(日) 02:05:23.47ID:F8QHcwTx0
神の上か

858/名無しさん[1-30].jpg2020/01/19(日) 02:08:39.23ID:L8P/WexF0
2.convertとmp4作成まで一気に
"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" convert ^
--input-dir "%WORKSPACE%\data_dst" ^
--output-dir "%WORKSPACE%\data_dst\merged" ^
--aligned-dir "%WORKSPACE%\data_dst\aligned" ^
--model-dir "%WORKSPACE%\model" ^
--model SAEHD
"%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed video-from-sequence ^
--input-dir "%WORKSPACE%\data_dst\merged" ^
--output-file "%WORKSPACE%\result.mp4" ^
--reference-file "%WORKSPACE%\data_dst.*" ^
--bitrate "3" ★この行を追加(数値は各自お好きに)
このままだとconvert完了時に止まるので Converter.py の581行目修正
if len(self.frames_idxs) == 0:
self.process_remain_frames = False
self.is_interactive_quitting = True ★この行を追記(ESC押したことにする)

859/名無しさん[1-30].jpg2020/01/19(日) 09:21:22.34ID:YltgNv/Ip
せっかくsrcにもマスクしたけど、truefaceにしたら髪の毛生えてきた。どうにかならないでしょうか。

860/名無しさん[1-30].jpg2020/01/19(日) 09:52:00.23ID:OR+mt5PX0
コンバートすると、dstの下唇が残ってしまいます
打開策ありますでしょうか

861/名無しさん[1-30].jpg2020/01/19(日) 10:17:47.07ID:L8P/WexF0
>>859
原理はわからないけど経験則的にはsrc画像の特徴や色合いが強制的に再現されるので
truefaceを使わないか、髪の毛があるsrc画像を消す/もしくは髪の毛を自分でレタッチして消す
とかじゃなかろうか

>>860
勝手に状況を推測するとdstが舌出ししてるシーンでFAN-dstでconvertすると
dstの舌の一部とsrcの下唇とが同時に見えるって感じ?
前スレ前スレあたりで話してたように、自分でmaskをtrainするか
srcのmaskの口の部分をぶったぎる(dstの口にしてしまう)とか?
ちなみに俺はめんどくさいので出来上がりをそのまま受け入れているよ…

862/名無しさん[1-30].jpg2020/01/19(日) 12:52:56.18ID:ctWfY9la0
srcにマスクしてもTFで髪が生えるって、多分全てのsrcの髪をマスクしきれてなんだろうな

863/名無しさん[1-30].jpg2020/01/19(日) 15:45:23.59ID:I164y0vb0
>>785
すみません
VRで作るのってどうやるんですか

864/名無しさん[1-30].jpg2020/01/19(日) 16:43:01.33ID:OR+mt5PX0
>>863
基本2Dと同じ作業でいけましたよ
ただ、顔が画面端で歪んじゃうと、顔として認識されないので注意
だからdst動画の選別が限られてしまいますね

865/名無しさん[1-30].jpg2020/01/19(日) 17:38:56.38ID:WIb8fxar0
本格的にVRやろうとしたら過去スレ3に書いてあるCube2DMを使って一旦2Dにするという方法がある
めちゃくちゃめんどくさい

866/名無しさん[1-30].jpg2020/01/19(日) 18:07:59.36ID:I164y0vb0
>>864
ありがとう

867/名無しさん[1-30].jpg2020/01/19(日) 23:51:08.61ID:ra86GCmV0
もし、DFLに改善してもらいたい事があれば、
作者にPayPal、クレジットカード、BitCoinなどで寄付をして
作者に要望する事ができます
https://github.com/iperov/DeepFaceLab
または
https://mrdeepfakes.com/forums/user-iperov
Email:かPrivate Message:
作者に寄付でもしない事には話は聞いてもらえないかも知れません。切りがない
原理的にDFLの階層でやっている事では無いと無理。DFLが叩いている下の階層は無理
Python読めない事には、要望も無意味

868/名無しさん[1-30].jpg2020/01/20(月) 09:25:49.74ID:ag0eQxiN0
== 14.11.2019 ==
Converter: added new color transfer mode: mix-m
== 13.11.2019 ==
SAE,SAEHD,Converter:
added sot-m color transfer
Converter:
removed seamless2 mode
FacesetRelighter:
Added intensity parameter to the manual picker.
'One random direction' and 'predefined 7 directions' use random intensity from 0.3 to 0.6.

869/名無しさん[1-30].jpg2020/01/20(月) 09:27:32.90ID:ag0eQxiN0
== 12.11.2019 ==
FacesetRelighter fixes and improvements:
now you have 3 ways:
1) define light directions manually (not for google colab)
watch demo

2) relight faceset with one random direction
3) relight faceset with predefined 7 directions

870/名無しさん[1-30].jpg2020/01/20(月) 09:28:57.82ID:ag0eQxiN0
== 2019年11月14日==
コンバーター:新しいカラー転送モードを追加:mix-m
== 2019年11月13日==
SAE、SAEHD、コンバーター:
sot-mカラー転送を追加
コンバータ:
seamless2モードを削除
FacesetRelighter:
手動ピッカーに強度パラメーターが追加されました。
「1つのランダムな方向」と「事前定義された7つの方向」は、0.3&#12316;0.6のランダムな強度を使用します。

871/名無しさん[1-30].jpg2020/01/20(月) 09:30:25.13ID:ag0eQxiN0
== 2019年12月11日==
FacesetRelighterの修正と改善:
今、あなたは3つの方法があります:
1)手動で光の方向を定義します(Google Colab用ではありません)
デモを見る

2)1つのランダムな方向でファセットを再照明する
3)事前に定義された7方向のファセットを再照明する

872/名無しさん[1-30].jpg2020/01/20(月) 09:38:57.30ID:ag0eQxiN0
>>868->>871
は日付見間違えの盛大な誤爆
申し訳ない。スルーして

873/名無しさん[1-30].jpg2020/01/20(月) 11:30:36.77ID:ag0eQxiN0
公式チュートリアルのGoogle翻訳をローカルにセーブした物
公式チュートリアルのページにいって、Google翻訳した物と同じ
https://mega.nz/#!fjABHAjT!fO81-Iugt1-PfC1f9wuGqP9ZlshppGNelaHXeAPjUFU

874/名無しさん[1-30].jpg2020/01/20(月) 13:20:50.89ID:crQCEZWy0
Deepfake国内二強

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。
国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の
大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。
転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの
嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。
その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。

875/名無しさん[1-30].jpg2020/01/20(月) 13:31:20.64ID:ag0eQxiN0
ユーザーマニュアルの機械翻訳から抜粋

理解:このプログラムは、すべての場合において人の完全な交代を保証するものではありません!
それはソースデータの品質、それらの光源の互換性などに依存します。
また、最近登場したテクノロジー(2018年2月)は、額や髪のない人だけに置き換えられるため、理想からはほど遠いです。
多くの時間と労力を費やすことができますが、最終的には何も得られません!
成功した偽物を最初の試みにする可能性は低いですか。
さまざまな人とフェイキーを作成しようと多くの試みを行った場合にのみ、すべてのニュアンスを理解できます。
DeepFaceLabは、1人の純粋な熱意で作成されました。したがって、エラーを見つけた場合は、理解してこれを扱ってください。

876/名無しさん[1-30].jpg2020/01/20(月) 17:24:56.61ID:SmazWC3u0
顔素材って目鼻口隠れてたら使えないの?
唇になにか咥えててちょっと隠れてたらムリ?

877/名無しさん[1-30].jpg2020/01/20(月) 18:36:16.94ID:ph5M2GJC0
音声波形データから実物の声のAI合成できるようになるのはいつや
これできたらもう何もいらん

878/名無しさん[1-30].jpg2020/01/20(月) 18:47:01.23ID:KU0uTp6WM
>>876
mask処理すれば使える。
しなくても使えないことはないが、
例えば顔の前に手がある場合、
その手も含めて顔と認識される。

879/名無しさん[1-30].jpg2020/01/20(月) 19:04:38.76ID:ag0eQxiN0
ユーザーマニュアルの機械翻訳から抜粋
理解:また、最近登場したテクノロジー(2018年2月)は、額や髪のない人だけに置き換えられるため、理想からはほど遠いです。
DFLは最近登場したテクノロジーを使用しており、それは額や髪は顔扱いしないと作者が明確に言っている

880/名無しさん[1-30].jpg2020/01/20(月) 19:25:36.14ID:ag0eQxiN0
>>877
DeepFakeVoiceは既に実現できているのでは?
ただフリーソフトとして皆に開放されていないだけかと
海外でオバマ元大統領がトランプ大統領の悪口を言っている動画が
言ってね
海外で上司になりすまして電話し、架空請求、振り込め詐欺の電話が
電話だと高い周波数成分はカットしているので、兄弟姉妹でも区別できなかったりするし
大学または大学院レベルの各種数学の知識、Pythonを始めとした各種プログラミングの知識、
AI、Deep Learning、neural network、NNの知識、
データを収集できるスキル、機械学習できるスキルがあれば、いかようにもできるかと
お好みの声優さんで、任意のテキストをナレーションとかして欲しいかな?
お好みの声優さんのVoiceを収集して学習の必要はありそうだけど

881/名無しさん[1-30].jpg2020/01/20(月) 19:32:47.34ID:ag0eQxiN0
CEOになりすましたディープフェイクの音声で約2600万円の詐欺被害か
https://japan.zdnet.com/article/35142255/
オバマ元大統領も再現可能。AIが人の声を解析してセリフを喋る
https://www.gizmodo.jp/2018/06/lyre-bird-voice-avatar.html
AIで作った音声アバターで母を騙してみた これが最新のフェイク技術だ
https://www.buzzfeed.com/jp/charliewarzel/i-used-ai-to-clone-my-voice-and-trick-my-mom-into-thinking-1

882/名無しさん[1-30].jpg2020/01/20(月) 19:43:59.95ID:ag0eQxiN0
音声Fakeはできると言えばできるし、既にできている
ただフリーソフトとして公開すれば、公開は悪用しか無いとして差し止められるだけかも知れない
フリーソフトを当てにせず、自分でプログラム書けばいいだけ。上記の知識は必要そう
自分でデータ採取して、自分で機械学習して、自分でモデルを作成すればいいだけ
何か新規にやりたい事でもあれば、PythonとかDeep Learning、neural network、NNとか理解すればいいだけ

883/名無しさん[1-30].jpg2020/01/21(火) 15:08:33.49ID:nVKWP2I50

884/名無しさん[1-30].jpg2020/01/22(水) 12:19:43.53ID:3w5ZBehJ0
learned*FAN-bukkakeまだか

885/名無しさん[1-30].jpg2020/01/22(水) 12:38:55.61ID:CcKep2uLd
作者ロシア人だっけ
ロシアで人気あれば微レ存

886/名無しさん[1-30].jpg2020/01/22(水) 14:14:14.95ID:G1cFy0mxM
trainの右側loss値だけど、どのくらいが下限Maxなんだろうか?
iter380万でやっと0.057くらいなんだけど(LMのみTrue時)。
本人度もかなり高まって来ているように思う。
0.03くらいになれば超越したsrc再現度になるのかぁ。

887/名無しさん[1-30].jpg2020/01/22(水) 15:18:21.20ID:fJTDg4XN0
loss値の概念超越してんね

888/名無しさん[1-30].jpg2020/01/22(水) 17:24:56.36ID:YtR6Du5z0
ぶっかけは動画編集ソフトでそれっぽく作れるよ

完成動画を基準にしてdst動画を重ねて
基準よりも明るい部分(精液)のみ合成

でも精液のせいで思うように学習が進まないからぼやける…

889/名無しさん[1-30].jpg2020/01/22(水) 21:33:13.65ID:KaH3KHPB0
mask範囲外で探すか、端っこなら気合の全マスクでイケる事もある
正面以外でのextractで鼻先とか片方の瞼なんかがa使っても微妙に収まらないのが疲れる

890/名無しさん[1-30].jpg2020/01/22(水) 21:38:57.83ID:LNLK0tdd0
srcを学習したいと言う事で、
srcとdstのalignedに同じ顔画像をコピペして、学習する事はありでしょうか?
無意味でしょうか?

891/名無しさん[1-30].jpg2020/01/23(木) 00:20:53.95ID:chznjT6P0
ありかなしかを事前に判断しようとするのは何故?
自分で試せる事は自分でやればいいんじゃないの

892/名無しさん[1-30].jpg2020/01/23(木) 02:13:59.67ID:/M9/i7bv0
ぶさかわsrcをやってるとdstが可愛いのにつられてなかなかいい感じにぶさいくになんない
しかしある瞬間から突然ぶさいくに変化していく現象をぶさいくの谷を超えたと呼ぼう

893/名無しさん[1-30].jpg2020/01/23(木) 07:33:15.67ID:32oIKyT20
>>890
SAEHDの互換性がなくなったので似たような実験してるけど試行回数10000回程度での個人的な知見は
「srcの学習速度(1iterあたりの処理時間/loss値の下がり方)と、dstの枚数/内容とは無関係」だよ
※src枚数が増えるほどloss値は下がりにくい

なので0から学習効率を上げる仮説としてはこう考えている
【初期学習】・複数人のsrc画像を全部混ぜる/dstは適当に1枚
 ・randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる
 ・ある程度(数万回?)trainする
【本番】・ある一人のsrc画像のみにする/dst画像を作りたいものにして通常trainする
 ・これをsrcごとに行ってそれぞれの学習を進めていく

ちなみに今が〇きー/かんな/田中みな〇/ささ〇希/吉岡〇帆/だ〇りお/宇垣〇里のaligned6000枚でやってて、
・この7神合体で動画を作るとどう混ざるのかの好奇心
・デフォルト値が変わったdim512からdim256になると悪い影響は出るか
を試そうとしているよ違う意見もお待ちしています、さらに言うとdst側の学習だけoffにできないかコード眺めてるけどハードル高いね…

894/名無しさん[1-30].jpg2020/01/23(木) 09:01:41.01ID:hsSopiM8d
面白い実験だね
俺もコード眺めたことあるけどtensorflowやkerasの知識がないし変んにいじるのあきらめた

895/名無しさん[1-30].jpg2020/01/23(木) 09:48:30.47ID:gw5Q7LTud
じゃあpretrainの画像変えて最初学習すればいいのかな

896/名無しさん[1-30].jpg2020/01/23(木) 12:14:35.08ID:IhMg1e9/d
>>895
そうそうその通り、ごちゃごちゃ書いたけど結局は「自分の好きなsrc複数でpretrainしましょう」と同義かな
0からやり直す必要のない人はもちろん今ある学習済modelの継続利用でよい

ちなみに俺は作りたいsrcが12人くらいいてわちゃわちゃなので効率を求めてるだけです
みんな何人くらい作ってるのかな
世に出回ってるのは数十人くらいあるよね

897/名無しさん[1-30].jpg2020/01/23(木) 13:58:45.91ID:puEDE8AK0
ボロGPUとかCPU内蔵GPUでやってる人は、モニタ消してみて
これみよがしに処理速度が上がるよ
つまり学習とかは、寝てる間にモニタ消して処理すればいいって事

898/名無しさん[1-30].jpg2020/01/23(木) 14:25:21.04ID:lwLP1jyPM
trainマシンのモニタ接続を物理的に外し、別PCからリモートデスクトップ。これでbatを1増やすことができた。
(ようはVRAMの節約)

899/名無しさん[1-30].jpg2020/01/23(木) 15:21:36.01ID:NM7L6xCw0
7神合体はワロタ

900/名無しさん[1-30].jpg2020/01/23(木) 16:08:40.98ID:OOY/mMO+0
1万強学習して、現在Loss値0.9〜07

学習グラフの傾斜がだんだん緩くなってきたんだけど
これって0.2まで到達するのは無理って事?
【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com	YouTube動画>2本 ->画像>4枚

ちなみにconvertしてみたけど、
昔のTVゲームの処理落ち状態で、顔外に四角線出たり、顔が突然ガラス破片化して爆発したり
けっこうカオス

901/名無しさん[1-30].jpg2020/01/23(木) 16:39:06.88ID:BECcSaP6M

902/名無しさん[1-30].jpg2020/01/23(木) 16:41:29.54ID:wxVa9e2DM
>>893
ガイヤー

美人?の平均顔を作ったならば、ある意味それが最強なのかもしれない。

903/名無しさん[1-30].jpg2020/01/23(木) 16:46:03.70ID:BECcSaP6M
学習効率を上げるための検証でやってるだけだろ

904/名無しさん[1-30].jpg2020/01/23(木) 16:56:28.96ID:ODpJBpazd
なるほどねーdst探ししてる間、
よく使うsrc6-7人混ぜて回してみよ
今のところ12月版のsaeで200万回して壊れてない
saehdは70万くらいでプレビューの四隅が変な色に侵食され始めたなー

どちらにせよ昔ほどstyle powerで黒い涙流してモデル崩壊とかは起きなくなった

905/名無しさん[1-30].jpg2020/01/23(木) 18:16:57.92ID:ahFc0bek0
DeepFaceLab 2.0はまだ普通の人はDLできないんだよね?

906/名無しさん[1-30].jpg2020/01/23(木) 18:23:50.19ID:Av47WLGr0
さっきみたらダウンロードできるようになってたよ

907/名無しさん[1-30].jpg2020/01/23(木) 19:09:26.42ID:NM7L6xCw0
2.0でファンセグモデルが削除されたことに気付きました。

908/名無しさん[1-30].jpg2020/01/23(木) 20:03:32.20ID:cF/hCyTi0
ロマサガの7英雄思い出したwwww

909/名無しさん[1-30].jpg2020/01/23(木) 20:24:29.52ID:a/qD8Tpx0
>>907
DLしてないし、使ってないので定かではないですけど、
facelib下のFANSeg_256_full_face.npyが、そうなのでは?
形式が変わってるっぽいですね。

910/名無しさん[1-30].jpg2020/01/23(木) 20:28:09.01ID:NM7L6xCw0
>>909
こちらも同じ
sae+のファッペンベルグがつぶやいてたからマジかと思って
あるなら良かった

911/名無しさん[1-30].jpg2020/01/23(木) 21:15:51.98ID:M9JNvc8b0
2.0って何か大幅に変わった?

912/名無しさん[1-30].jpg2020/01/23(木) 21:44:45.75ID:M9JNvc8b0
見てきた
Multi-gpu training is now supported.

SLIも視野かなぁ

913/名無しさん[1-30].jpg2020/01/23(木) 21:55:18.17ID:chznjT6P0
2枚目は抽出でも高温になるから空冷だとtrainできる気はしないな

914/名無しさん[1-30].jpg2020/01/23(木) 22:30:26.29ID:2dLm7viSa
sliしなくてもいいんのでは?

915/名無しさん[1-30].jpg2020/01/23(木) 23:01:04.05ID:NM7L6xCw0
マルチで額面通り動いたら
かなりコストダウンになるのでは

916/名無しさん[1-30].jpg2020/01/24(金) 00:05:33.24ID:A1sOXVHr0
AMD切り捨てかよ
ワロタ…

917/名無しさん[1-30].jpg2020/01/24(金) 01:02:32.03ID:AuY0HnuF0
2.0のFAN-xかなりはやくなっとる
これだけでも移行の利点あるわ

918/名無しさん[1-30].jpg2020/01/24(金) 01:03:52.55ID:V6+oOXA90
modelの互換は無くなってんのかな?

919/名無しさん[1-30].jpg2020/01/24(金) 01:15:53.90ID:narv2zgG0
互換なくなってるね。

920/名無しさん[1-30].jpg2020/01/24(金) 01:44:34.79ID:64SSw7+90
今度のFANはGPU使うとか書いてあったような

921/名無しさん[1-30].jpg2020/01/24(金) 03:21:46.53ID:narv2zgG0
DFL2.0:res192、dimsデフォ、dfhd、0900ms/Iter、batch 6 2080tiの環境

922/名無しさん[1-30].jpg2020/01/24(金) 03:34:04.19ID:lqZIYyya0
T4だとres256 batch4 で2500msくらい
多分P100だと1200msくらい

923/名無しさん[1-30].jpg2020/01/24(金) 06:41:12.22ID:juuhYa5b0
2.0メモ
https://drive.google.com/drive/folders/17a9b9zmLdnAlItifcGSE9ixDIDAT3YxP
ここの0123版(2.0とは書いてない)ダウンロードできない場合は自分のgDriveにコピーしてからDL

「place models on gpu」をyesにすると今までのopt1、noがopt2/3

無印1070(8GB):
res160 dfhd dimsデフォルト(256/64/64/22) batch6 他のオプションfalse
models_opt_on_gpuをonだと1450ms/1iter、off だと1850ms/1iter

これでまずは半日回してみるかー…FANconvertが速くなるなら楽しみだな

924/名無しさん[1-30].jpg2020/01/24(金) 07:03:01.05ID:Z4n9yILa0
品質は上がるのかなぁ

925/名無しさん[1-30].jpg2020/01/24(金) 07:36:18.75ID:juuhYa5b0
まだ1時間回しただけだけど0からの初期の学習速度(loss値の下がり方)はこれまでよりも速くなってる気が
よくわからんけどe/dのdimensionが21から64に上がってるとかそういうのもあるんだろうか
あとは底打ちする最終品質と目線とかの表現力がよくなったり…?

926/名無しさん[1-30].jpg2020/01/24(金) 08:25:25.64ID:E41SkNcFa
いや普通に開発工数面倒だからと思われ

927/名無しさん[1-30].jpg2020/01/24(金) 09:38:21.49ID:uoPzJN79p
Dimsは元々内部で3倍して、奇数だったら1足してたから、多分その処理飛ばして21から64に変えただけと推測。

928/名無しさん[1-30].jpg2020/01/24(金) 12:04:29.85ID:E41SkNcFa
修理上がりのzotac 2080tiが8.5諭吉で売ってたので二本買ってみた。流石に早いなあ。

929/名無しさん[1-30].jpg2020/01/24(金) 12:16:29.91ID:ivjbideSM

930/名無しさん[1-30].jpg2020/01/24(金) 13:19:00.99ID:xnTZqNMe0
Deepfake国内二強

フィリップ2世
オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。
国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の
大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。

No.TEN
実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。
転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。
大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの
嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。
その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。

931/名無しさん[1-30].jpg2020/01/24(金) 13:32:53.56ID:L5RGPePKM
>>928
裏山

932/名無しさん[1-30].jpg2020/01/24(金) 14:07:05.31ID:A1sOXVHr0
>>928
マルチで動くの?
速度2倍近くになるならとんでもない夢の技術だけど

933/名無しさん[1-30].jpg2020/01/24(金) 14:07:16.21ID:HeU5fzYed
>>929
maskが上手くないのかしてないのか
もう少し上手く作れそうなもんだがね

これのdstの元ネタわかるソムリエおる?

934/名無しさん[1-30].jpg2020/01/24(金) 16:30:36.24ID:OKGwpDil0
ある程度長めの動画を1個100円で売ってくださる方、
いらっしゃいましたら下記アドレスに連絡ください。

まだネットに上がっていないあなたが作成した動画でお願いします。
詳しくはメールで
seso372@ichigo.me

935/名無しさん[1-30].jpg2020/01/24(金) 17:34:55.12ID:Mr+9UQCE0
>>934
これで商売する気か?一昨日来やがれ

936/名無しさん[1-30].jpg2020/01/24(金) 18:13:24.24ID:L5RGPePKM
>>934
安すぎワロた

937/名無しさん[1-30].jpg2020/01/24(金) 19:27:01.65ID:f0Y26HID0
2.0いろいろと高速化しててええな
いらない選択肢が増えてるのはめんどいが

938/名無しさん[1-30].jpg2020/01/24(金) 21:37:03.55ID:ENpHWsCBa
手塩にかけて作った動画
お前らなら1分いくらで売る?

939/名無しさん[1-30].jpg2020/01/24(金) 21:52:35.68ID:BZJ96hrj0
1分20円くらいで上等だな

940/名無しさん[1-30].jpg2020/01/24(金) 21:53:53.61ID:E41SkNcFa
うぜえからng入れよう

941/名無しさん[1-30].jpg2020/01/24(金) 22:19:37.38ID:V6+oOXA90
pinkってワッチョイつけれるんだっけ?
次スレ建てるならあったほうがいいと思うんだけどどうだろうか?

942/名無しさん[1-30].jpg2020/01/24(金) 22:47:30.68ID:nMqrQqnh0
5秒くらいの動画を100円で良いのなら嫌っていうほど送りつけてやるよ

943/名無しさん[1-30].jpg2020/01/24(金) 23:49:21.80ID:VrjcR+rd0
radeonはどうすれば…

9449232020/01/25(土) 02:44:53.66ID:I3fE+Awk0
>>923
>無印1070(8GB):res160 dfhd dimsデフォルト(256/64/64/22) batch6 他のオプションfalse
srcを7人混ぜた6000枚で、2.0でtrainを17時間やった結果を書いておくよ個々人で値は変わるので目安だけどね

srcのloss値が0.3になるのに5時間(12000回)、0.2になるのに17時間(40000回)、
見た目の品質としては最終形まではまだもう一歩という感じ(歯と歯の間の隙間があんまり無い)
ちなみにこの7神合体状態で一つconvert(mergeという呼び方になった)してみたけど
正面はシーンごとに誰かの面影がある謎の誰かに、横顔はやや化け物チックな謎の何かができてしまった
横顔は正面より個性があるから混ぜるな危険なのかなたぶん
目線(アへ顔、上目遣いの超寄り眼)再現は問題なさそうだが色々試さないと分からないかも

あと、FAN-XXXは3倍程度速くなった、superresolutionがgaussianからfaceenhancerに変わってより強力になった、つまるところ少々ボケててもかなりくっきりになる
個人的な意見では2.0に移行して悪い点はなさそうだが自己責任で

945/名無しさん[1-30].jpg2020/01/25(土) 03:00:17.13ID:I3fE+Awk0
蛇足だけど
複数人混ぜて初期trainしすぎるのはあまり効率化にならないような気もしてきた
「複数src混ぜてそこそこtrainしてさっさと個人srcに移行する」か、
「手持ちsrcの中で一番バリエーションの多い人でまず十分にtrainし、それを軸にしてこれまで通り再利用していく」かかな
適当に言ってるのでみんな色々試してちょ

946/名無しさん[1-30].jpg2020/01/25(土) 03:36:05.04ID:dGeeIcwg0
効率化考えるよりその時間回した方が速いぞ

947/名無しさん[1-30].jpg2020/01/25(土) 06:25:34.45ID:SK8ZsZQf0
fan-xxxのconvert早くなったのはいいが2.0のメリットってそのくらい?

948/名無しさん[1-30].jpg2020/01/25(土) 08:14:22.48ID:KOLvQED/0
2.0になってcolabの使い方がわからなくなった

949/名無しさん[1-30].jpg2020/01/25(土) 08:53:43.51ID:V5o+MxxB0
モデルに名前をつけて管理?できるようになった
怖くてまだ試してないが

950/名無しさん[1-30].jpg2020/01/25(土) 10:11:30.50ID:MDjUFulp0
>>948
何が分からないのか分からない程には変わってないと思うがDFLcolabも2.0のに更新したか?

951/名無しさん[1-30].jpg2020/01/25(土) 10:21:58.30ID:KOLvQED/0
>>950
2.0に更新したらmodelが使えなくなってた。
前のバージョンを見つけて自己解決しました。

952/名無しさん[1-30].jpg2020/01/25(土) 10:28:42.79ID:MDjUFulp0
>>951
modelに互換性が無いから2.0を使いたければ新規で始める必要があるね

953/名無しさん[1-30].jpg2020/01/25(土) 11:42:41.39ID:j2aWR3IBa
もしかして、最近2080TIの値段崩れてきた?
大人買いしようと思ったけど、流石に出費でかいので1個だけ買ってきた。

954/名無しさん[1-30].jpg2020/01/25(土) 12:00:54.53ID:78OSNnwqa
またお気に入りのsrcを一から作り直しか

955/名無しさん[1-30].jpg2020/01/25(土) 12:57:30.02ID:+Nt5BTFq0
2.0は1050ti VRAM4GBでは厳しそうだな・・・

956/名無しさん[1-30].jpg2020/01/25(土) 13:42:25.62ID:Xp6Pbbc80
6月にメモリ容量が増えた3000シリーズが出る噂あるから値下がってきてるんだろう

957/名無しさん[1-30].jpg2020/01/25(土) 14:01:35.24ID:Vk8uxRH60
extract facesが遅いの何とかならんのかな
CPU20%、メモリ1.5GB、GPU10%ぐらいしか使ってないっぽい
1.5it/sで30分のdst12時間とかだいぶしんどい。なんか設定とかもないみたいだし

>>955
1050tiの者だけどres192、バッチ2、なら回ってくれたから無理ってわけでもなさそうだけどねパラメータほぼデフォで速度もそんなに変わってないっぽいし
でもいつかは見切られるんだろうなもっといいの欲しい…

958/名無しさん[1-30].jpg2020/01/25(土) 14:09:57.48ID:T9AEk1u40
似てねぇんだよ!ヘタクソ共!下手っ粕!
どんなに良い機材揃えようが豚に真珠だわ!
ふざけんな!

959/名無しさん[1-30].jpg2020/01/25(土) 14:46:00.17ID:vyHSO17/0
今GRAM15GBの環境でSAEHD,res256,他設定全デフォ、バッチ4でtrainしてるんだけど、
convertや追trainをローカルでやるとして、
バッチ数3とか2減らせばGRAM11GBないしGRAM8GBで動きそうかな?

960/名無しさん[1-30].jpg2020/01/25(土) 14:57:20.01ID:SK8ZsZQf0
3000シリーズ6月ってマジか

961/名無しさん[1-30].jpg2020/01/25(土) 16:30:12.17ID:ICpayQDmM
旧ver.でDF256、40万回くらい回したモデルを使ってるけど、オーバーレイでコンバートすると顔がバカ殿みたく白くなる。
モデル壊れた?

962/名無しさん[1-30].jpg2020/01/25(土) 16:31:30.41ID:+Nt5BTFq0
>>957
そっかあキツそうだな・・・
せめてVRAMが6GBくらいあればなあ

963/名無しさん[1-30].jpg2020/01/25(土) 17:09:03.71ID:xD+kDz9V0
archi:dfがSAE+みたいなもんなんでdfhdが重い人は試してみたらいい

964/名無しさん[1-30].jpg2020/01/25(土) 17:59:42.91ID:08mAiRSW0
2.0は最先端だから
これからも意欲的にモデル初期化要求されるだろうな

965/名無しさん[1-30].jpg2020/01/25(土) 18:55:57.45ID:08mAiRSW0
gigapixel AI for videoってやつも凄いね
詳しい仕組みは分からないけど
ただ画像の高精細化を繋いでるわけではなくて前後分析みたいなこともしてるらしい

過去のお気に入りDVD資産がかなり綺麗になって幸せになる
低速ながらDFL中遊んでるiGPUを動員して
PC資産フル稼働させてる

dst側の高画質化にも使えそう

966/名無しさん[1-30].jpg2020/01/25(土) 18:58:41.65ID:j2aWR3IBa
顔真っ赤だなw
たかだか二十万しないグラボ程度のおもちゃ買えないとか悲惨だな。

967/名無しさん[1-30].jpg2020/01/25(土) 19:47:43.15ID:Gwxp17Ul0
つまんね

968/名無しさん[1-30].jpg2020/01/25(土) 20:59:05.27ID:V5o+MxxB0
モデルの名前や設定変えて新しいのいくつも作れるのね2.0
こりゃ新モデル育成厨にはたまらんな

969/名無しさん[1-30].jpg2020/01/25(土) 21:18:34.94ID:qM01wWkm0
以前は初期以降は固定だったdimsとかが後からでも変えられるって事?
DF256好きだから2.0対応のmodel待ってるぜ!

970/名無しさん[1-30].jpg2020/01/25(土) 21:48:18.72ID:V5o+MxxB0
いやただ名前付けて簡単に選べるってだけ
変えられないよw

971/名無しさん[1-30].jpg2020/01/25(土) 21:54:07.20ID:lM1X9waQF
管理が簡単なのはいいね
今まではいちいちファイル移動してた

にしても2.0(dfhd)でいまだに上手く作れなくて困ってるよ
まだtrain多くないのはあるにせよ1.0と同じsrcとdstなのに顔が似ない、、、

972/名無しさん[1-30].jpg2020/01/25(土) 22:21:54.26ID:KOLvQED/0
modelフォルダは1つでいいってこと?
しかしcolabがここ数日割り当てられない

973/名無しさん[1-30].jpg2020/01/26(日) 01:57:43.55ID:MWibTxfE0
規制なりbanなりされたんじゃないの

974/名無しさん[1-30].jpg2020/01/26(日) 03:01:32.26ID:oM3CA2Ya0
>>965
これかなりいいな。
DVDからだとかなりの効果を感じる。

975/名無しさん[1-30].jpg2020/01/26(日) 03:57:50.51ID:8LN0DNqP0
>>965
それ業者が宣伝しまくってるやつじゃん。あ、てめーが業者かw

976/名無しさん[1-30].jpg2020/01/26(日) 04:31:13.63ID:oM3CA2Ya0
すぐに業者とかいうやつ、自分では頭いいと思ってるのかね。

977/名無しさん[1-30].jpg2020/01/26(日) 06:20:04.29ID:qpJP77AH0
2.0めっちゃいいな

978/名無しさん[1-30].jpg2020/01/26(日) 06:56:15.46ID:BuSCX6eV0
むしろ頭のおかしさを感じる

979/名無しさん[1-30].jpg2020/01/26(日) 07:07:01.35ID:jJi0vdP30
== 25.01.2020 ==
TFバージョン1.13.2にアップグレードしました
ほとんどのグラフィックカードの初回起動時の待機を削除しました。
トレーニングの速度が10〜20%向上しましたが、すべてのモデルを最初から再トレーニングする必要があります。
SAEHD:
オプション 'use float16'が追加されました
実験オプション。 モデルサイズを半分に縮小します。
トレーニングの速度を上げます。
モデルの精度を低下させます。
モデルが崩壊するか、訓練されない場合があります。
モデルは、大きな解像度でマスクを学習しない場合があります。
このオプションはいつでも有効/無効にできます。
true_face_trainingオプションは次のように置き換えられます
「真の顔の力」。 0.0000 .. 1.0
実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。

980/名無しさん[1-30].jpg2020/01/26(日) 07:18:24.77ID:ZcFG6OC60
さあまたゼロから再トレやで

981/名無しさん[1-30].jpg2020/01/26(日) 07:24:10.77ID:qpJP77AH0
お試し中だから作り直しはいいんだけどバッチサイズが減りまくっててやばい

982/名無しさん[1-30].jpg2020/01/26(日) 08:20:10.35ID:jJi0vdP30
Quick128とかのカスタムモデルはさっそく互換が無くなった
すぐに作り直したけど
Quick系とかSAEHD系はすぐに互換が無くなる
どなたかDF系作成してくだしゃあ

983/名無しさん[1-30].jpg2020/01/26(日) 08:35:17.70ID:jJi0vdP30
SAEHD Res256 dims256とかだとかなり重たい
何がそんなにVRAMとか食っているんだ?システムメモリも使っているぞ
SAEHDをベースに、DFには無かったオプション削除しまくってみればいいのか?

984/名無しさん[1-30].jpg2020/01/26(日) 08:41:07.84ID:+JbrDEde0
colabに旧バージョン残してくれて良かった

985/名無しさん[1-30].jpg2020/01/26(日) 09:47:35.33ID:jJi0vdP30
TFバージョン1.13.2ってtensorflowの略かな
\DeepFaceLab_NVIDIA\_internal\python-3.6.8\Lib\site-packagesの下を見ると
tensorflow-1.13.2.dist-infoフォルダとかあるし

986/名無しさん[1-30].jpg2020/01/26(日) 09:47:35.60ID:jJi0vdP30
TFバージョン1.13.2ってtensorflowの略かな
\DeepFaceLab_NVIDIA\_internal\python-3.6.8\Lib\site-packagesの下を見ると
tensorflow-1.13.2.dist-infoフォルダとかあるし

987/名無しさん[1-30].jpg2020/01/26(日) 09:57:06.01ID:jJi0vdP30
pythonをコマンドラインから使用したい場合はpython_console.bat使用すればよさそう
py -m pip listでおかしなVersionになっていたので
py -m pip install tensorflow-gpu==1.13.2
py -m pip install tensorflow==1.13.2

988/名無しさん[1-30].jpg2020/01/26(日) 10:54:27.33ID:+JbrDEde0
colabで2.0を使うと続きではなくて、また1から学習しなおしになるんだけど
Choose one of saved models, or enter a name to create a new model.
[r] : rename
[d] : delete
[0] : noname - latest
どれ選択してもダメなんだけど、これってデフォ?

989/名無しさん[1-30].jpg2020/01/26(日) 11:10:18.78ID:jJi0vdP30
== 25.01.2020 ==
トレーニングの速度が10〜20%向上しましたが、すべてのモデルを最初から再トレーニングする必要があります。
== 22.01.2020 ==破壊的な変更!!!
1.0としてマークされた古いDFLは引き続きダウンロードできますが、サポートされなくなります。
DFL 1.0のトレーニング済みモデルファイルは再利用できません

colabは使用した事がありませんが、問答無用で最新版になるんじゃ?

990/名無しさん[1-30].jpg2020/01/26(日) 12:10:25.92ID:zFwt6Ozp0
モデルが崩壊するか、訓練されない場合の 'use float16'
「真の顔の力」実験オプションか恐いな
さっそく実験してみよう

991/名無しさん[1-30].jpg2020/01/26(日) 12:59:28.79ID:oM3CA2Ya0
> 実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。
これだよ俺が待っていたものは。
けど作り直しがなくなる安定版まで待とう。

992/名無しさん[1-30].jpg2020/01/26(日) 13:14:43.41ID:WfBtLktX0
その1.25版とやらが無いんすけど…

993/名無しさん[1-30].jpg2020/01/26(日) 14:25:28.95ID:oM3CA2Ya0
いや普通にあるが・・・
1月25日版だぞ?今までどこから拾ってきてんだ。

994/名無しさん[1-30].jpg2020/01/26(日) 14:49:12.63ID:fXq6WUoH0

995/名無しさん[1-30].jpg2020/01/26(日) 15:30:06.56ID:mbO5onEJp
for videoは無料だし宣伝とかじゃなく使ってみ
まあそれで感動して静止画有料のを買わせる算段なんだろうけど

996/名無しさん[1-30].jpg2020/01/26(日) 16:04:32.62ID:dvNUq/Zk0
>>993
騒いですまないですありました

997/名無しさん[1-30].jpg2020/01/26(日) 16:22:17.83ID:oM3CA2Ya0
2.0期待梅

998/名無しさん[1-30].jpg2020/01/26(日) 16:23:49.96ID:oM3CA2Ya0
ver.12.20 iter410万 loss0.5以下でもめちゃくちゃ似てるレベルのものまでしか作れない

999/名無しさん[1-30].jpg2020/01/26(日) 16:26:52.92ID:oM3CA2Ya0
実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。

1000/名無しさん[1-30].jpg2020/01/26(日) 16:33:42.51ID:dXcssvRd0
糖質死ね


lud20200716203817ca
このスレへの固定リンク: http://5chb.net/r/ascii/1576974608/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

TOPへ TOPへ  
このエントリをはてなブックマークに追加現在登録者数177 ブックマークへ



全掲示板一覧 この掲示板へ 人気スレ | Youtube 動画 >50 >100 >200 >300 >500 >1000枚 新着画像

 ↓「【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com YouTube動画>2本 ->画像>4枚 」を見た人も見ています:
王将戦 ©bbspink.com
【アイコラ】 水玉コラ11 【革命】 ©bbspink.com ->画像>1417枚
着衣巨乳・爆乳 37 ©bbspink.com pornhost>1本
むしゃぶりつきたくなるカラダの女 106人目©bbspink.com ->動画>24本->画像>626枚
【AIコラ】fakeapp その12【革命】©bbspink.com ->動画>8本->画像>19枚
野ションしているvine [無断転載禁止]©bbspink.com pornhost>1本
【質問】dfl【初心者】【その2】 [無断転載禁止]©bbspink.com ->画像>24枚
【いく!】イク前にイクと言いってから、イク動画 [無断転載禁止]©bbspink.com ->動画>2本->画像>9枚
ねこ&#169;bbspink.com (914)
画像 [転載禁止]©bbspink.com (211)
顔舐め [無断転載禁止]&#169;bbspink.com (6)
ソーピランド [無断転載禁止]&#169;bbspink.com (3)
ペド総合 [転載禁止]©bbspink.com (229)
浣腸 [無断転載禁止]&#169;bbspink.com (17)
貧乳熟女 [転載禁止]©bbspink.com (57)
品川女子学院の制服画像 6&#169;bbspink.com (52)
鬼パンチラ [転載禁止]©bbspink.com (140)
スク水17 [転載禁止]©bbspink.com (93)
超パンチラ [転載禁止]©bbspink.com (77)
昭和のXVIDEOS [転載禁止]©bbspink.com (50)
JKのvineで抜く Part.7&#169;bbspink.com (142)
膨らみかけ 3 [転載禁止]©bbspink.com (963)
手ブラ画像 [無断転載禁止]&#169;bbspink.com (30)
ようつべの洋炉動画 [転載禁止]©bbspink.com (49)
【外人】BBWスレ [転載禁止]©bbspink.com (52)
中出しされてキレる動画 [転載禁止]©bbspink.com (38)
さくらんぼ女学園 [転載禁止]©bbspink.com (31)
巨根で犯られる女6本目 [転載禁止]©bbspink.com (429)
イラマチオ part9 [転載禁止]©bbspink.com (707)
youtubeのちょっとエロい動画2©bbspink.com (192)
いじめ脱がし動画 [転載禁止]©bbspink.com (408)
モリマン 恥丘 土手 [転載禁止]©bbspink.com (33)
盗撮もののばれるやつがすき [転載禁止]©bbspink.com (36)
ヌーディスト物総合 [転載禁止]©bbspink.com (313)
これで抜きたいんじゃ・・・ [転載禁止]©bbspink.com (32)
そそる集合写真14 [無断転載禁止]&#169;bbspink.com (861)
本物のレイプ動画27 [転載禁止]©bbspink.com (647)
水着巨乳・爆乳 1 [転載禁止]©bbspink.com (741)
人形とセックス [無断転載禁止]&#169;bbspink.com (16)
ぽっかり空いたまんまんが好き [転載禁止]©bbspink.com (37)
女におしっこかけてる動画 [転載禁止]©bbspink.com (51)
着衣巨乳・爆乳 30 [無断転載禁止]&#169;bbspink.com (140)
ギャルのエロGIFください [転載禁止]©bbspink.com (35)
ガチ隠しカメラの動画 [無断転載禁止]&#169;bbspink.com (12)
半角版・おまん師匠 [無断転載禁止]&#169;bbspink.com (118)
身長の低い女優の画像動画 [転載禁止]©bbspink.com (31)
U-18のパンチラ動画 [転載禁止]©bbspink.com (590)
おっぱい画像総合13 [転載禁止]©bbspink.com (143)
真パンチラ part1 [転載禁止]©bbspink.com (48)
【動画】洋物熟女【外人】 [転載禁止]©bbspink.com (100)
【画像】洋物素人画像スレ [転載禁止]©bbspink.com (36)
アウディ画像を集めるスレ [転載禁止]©bbspink.com (196)
【画像】パイパン専門 13【動画】&#169;bbspink.com (43)
自撮りエロ収集スレ [転載禁止]©bbspink.com (121)
パンチラ part44 [無断転載禁止]&#169;bbspink.com (904)
学生証・身分証スレ [無断転載禁止]&#169;bbspink.com (20)
洋炉NN画像スレ [無断転載禁止]&#169;bbspink.com (410)
くびれ画像part01 [無断転載禁止]&#169;bbspink.com (39)
可愛い女の子の動画 [無断転載禁止]&#169;bbspink.com (18)
子宮、子宮口大好き! [転載禁止]©bbspink.com (30)
顔射動画が集まるスレ [無断転載禁止]&#169;bbspink.com (15)
今日保存した最高の画像を転載するスレ 478&#169;bbspink.com (191)
優秀なエロ画像で打線組んだ [無断転載禁止]&#169;bbspink.com (12)
【急募】( ´_ゝ`) アフォマターリ・・・60©bbspink.com (180)
xvideosが見れなくなったんだが [転載禁止]&#169;bbspink.com (22)
カップルのセックス動画総合 [転載禁止]&#169;bbspink.com (27)
17:27:33 up 28 days, 3:51, 1 user, load average: 13.85, 10.11, 9.33

in 0.040127992630005 sec @0.040127992630005@0b7 on 010907