deepfakesなソフト ◎DeepFaceLab(以下、DFL) ◎deepfakes/faceswap(以下、FS) ●fakeapp ●openfaceswap(以下、OFS) ●myfakeapp deepfakesとは? AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、decoderを入れ替えることにより、AとBの顔を交換する手法。 ・質問や情報交換について 日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。 必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。 特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。
◎よくある質問 ・違法じゃないの? deepfakes自体に違法性はない。 ただし権利者に許可を得ていないコンテンツの二次利用は著作権法に違反。 また、所謂フェイクポルノを不特定多数が見れる場所に公開すれば名誉毀損(侮辱罪)に該当。 有名人の顔を使用して経済的利益を得ればパブリシティ権の侵害になる。 ・ソフトはどれ使えばいい? 利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。 ・必要スペックは? VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。 ・RTXシリーズでも動くの? FS、DFL共に動く。CUDA10以降を選ぶこと。
・作るのにどれくらいかかる? パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。 2回目からはmodelの再利用により学習時間を大幅に短縮できる。但しmodelの再利用については賛否両論あり。 ・lossについて A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。
めっちゃイイこと思いついた! AV男優に自分の顔ハメこめば、いい感じじゃね? ついでに女の顔を知り合いの女と交換
Topaz Gigapixelですが、一応割れてはいます 無料のwaifu2x-caffeよりかはいい感じかと 人間が手で描いた、アニメ、漫画、イラストなど、 明示的に輪郭のあるやつをアップコンバートするといい感じなのか しかしwaifu2x-caffeがCUDNNが使用でき、比較的高速なのに比べ、 遅いような気がします CUDNNが使用できる様なものではないのか?
これって途中でtrainの設定変更するのは出来るの?
>>12 train開始してから2秒以内に、Enterを押して、設定変更可能なパラメーターもありますが 途中で設定変更不可のパラメーターもあります どうしても設定変更したい場合は、0から学習し直しになるかと Topaz Gigapixelでの拡大の事でしょうか? jpgのメタ情報は保たれるらしいので、train継続できるのでは? 別件ですが、Extractor512でも、256モデルでtrainできましたし バックアップを取った後で、やってみて、報告をお願いいたします changelog_en.txtに、やり方が書いてあるみたいですよ run 'data_src util faceset metadata save.bat' とか 4.2.other) data_src util faceset metadata save.bat とか 4.2.other) data_src util faceset metadata restore.bat とかありますね
1) 'data_src util faceset metadata save.bat'を実行します 2)Topaz Gigapixelを起動する 3) 'data_src \ aligned \'を開き、すべての画像を選択します 4)出力フォルダーを 'data_src \ aligned_topaz'に設定(保存ダイアログでフォルダーを作成) 5)スクリーンショット のように設定します 2倍、4倍、または6倍のアップスケールレートを選択できます 6)プロセスイメージを開始し、完全なプロセスを待つ 7)フォルダーの名前変更: data_src \ aligned-> data_src \ aligned_original data_src \ aligned_topaz-> data_src \ aligned 8)「data_src \ aligned_original \ meta.dat」を「data_src \ aligned \」にコピーします 9) 'data_src util faceset metadata restore.bat'を実行します 画像は元のサイズ(256x256)に縮小され、詳細が保持されます メタデータが復元されます 10)これで、新しい拡張Facesetを使用する準備が整いました! 256でしかtrainしないから、256の画像にはなるのか。256のまま詳細解像度が上がるのか? そこそこ高画質なソースをよりよくする、ってところだね。
srcの画質現状であまり不満ないんだけど それでもGiga使えば良くなったって人いたら教えて欲しい
1080pのつべソースのアップスケールに使ってる res256のドアップだと効果分かる ドアップないres256じゃなくてかつ現状不満ないなら使う必要ない
笛の動画に挑戦しようと思いsrcとdstの素材を用意したんですが、 これは笛をしてるdst(口の前に障害物がある素材)をそのままTrainして最終的にFAN-xxでconvertするって解釈であってますか? 初歩的な質問ですが回答頂けると幸いです・・・
>>21 笛動画のdst次第なのですが、 そのままTrainして最終的にFAN-xxでconvertするだけでうまくいくものもあります その解釈で基本的にはあっています 舌がかなり出ている笛動画などは、それだけではうまくいかない場合もあります そのような場合は、mask editorを使用して、障害物のMask作業が必要になります 1回mask editorは使用せずに、やってみればいいと思います そのtrainは無駄にはなりませんし convertの際に、erodeとblurの値を、初期値から変更している人が多い様です 12_20_2019版ですが、ようやく Extractor512、auto_preview、DF512でのtrainは動作する事が確認できました DF512はVRAM 24GBでBatch_size:5は可能 一応、カスタムの修正ですし、本体の大幅な変更でもあれば 作り直しが必要になる場合もあるかもです DF512はMasl Editorでの作業し直し、FANSegモデルも作り直しかぁ
DF512とか、どれだけ意味があるかは分かりません DFLの作者は、高い解像度が、必ずしもよい結果をもたらすとは限りません とか言っているし やってみて実際に試してみない事にはね しかし手動Maskとか、FANSegモデルのtrainとか、やる事が多くて、結構時間がかかりますね 誰かヤフオクでも、FANSegモデルを販売するとか あまりおおっぴらにはしない方がいいでしょうから、それは無理か
>>21 既に書いてくれてるけどちょっと補足すると 一番手抜きのパターンはこんな感じかな ・extractされたdstをそのまま使ってtrain (明らかにおかしいlandmarkのalignedは消す、笛の部分まではみ出したlandmark程度は直さない) ・convert時のmaskはFAN-dst 舌が生えたり消えたり、口元が間延びした感じになったりするけど俺は許容範囲かな あとはlandmarkを手動で直したりmaskがんばったりじゃなかろうか 笛動画は極端な俯き角度、上目遣いになりがちなのでsrcも難しくて、手コキや横向きでちろちろなめる程度が最初は作りやすいかもね ふむ。。DFLド新参ですがプレビューの青と黄のグラフの意味がわからん
前スレ>>117 さん dstの解像度も高ければ高いほどいい。 学習早くて似る。 コンバート後に解像度を下げて馴染ませて完成 参考になりました。最終完成動画は、自分は540pまででいいので、縮小したものから切り出していましたが、 Extractor512とかで切り出す場合、1080pとかでないとあまり意味はないかもしれませんね dstもトリミング編集とかしており、1080pは消してしまいましたが dstも再作成かぁ >>22 >>25 丁寧にありがとうございます。 とりあえず短めの素材で試してみてどうなるかって感じですね。 convertの設定は過去スレ見ながら試してみようと思います。 >>25 俺まんまこれ @dstフェラ動画のalignedをそのまんまsrcフォルダにコピペしてプレビューで舌とかチムポが違和感無くなるまで学習 A作りたいアイドルなり女優なりのalignedと差し替えて学習し直し BFan-dstでコンバート fansegが何なのかも理解出来てない素人だけど、これで今のところ上手くいってるからmask処理やらなんやらした事無いよ dstの人のalignedをsrcのalignedに混ぜるのか? それじゃsrcにそもそもdstの顔を混ぜるからsrcに似せるの難しくね?
スレ変わったんで書いとく。 twitterで職人限定グループDMやってます。 参加方法は前スレ259
>>31 混ぜない src、dst共に全く同じalignedで学習 プレビュー画面は全部同じ人で3〜5番の画像がほぼ同じになったら学習終了 んでsrc差し替えで再度学習し直しってやってる src、dst相性良ければ学習し直しても3時間もあればほぼ完成してる ちなSAEHDでIter:1000000超え >>34 model使い回し懐疑的派の人? 俺srcもdstも同じmodelでガンガン回す派なんで気にした事無いなぁ >>33 同じ人で回す発想はなかった。勉強になります。 dstとsrc合わせて1000000? それをベースに3時間てことですか? >>37 modelは使い回しが基本、最近懐疑的な人が出てきたってイメージなんだけど俺が遅れてるんだろうか 1000000↑はdstとsrc合わせてですよ 差し替え後の学習3時間はInterの総学習時間+グラボが1080tiの11Gなのでそれも影響してると思われます >>36 いやそうじゃない俺もsrcは固定の一人を使い回しだよ。 (もしかしてこれを使い回しと言わない?) Modelの仕組みはよく分かってないが、Modelのsrc側?にdstの顔が混ざるんではないかと思ってな。 src画像はsrc aligned、dst画像はdst alignedで学習させないと結果的にsrc似の動画が出来ないのではと思った次第。 >>39 根本が違うね 俺はsrcも複数使い回し前提だから dst側でしかありえない画像を先にsrcで覚えさせてから学習しなおせばいいんじゃね? 的な考えでやったら上手くいきましたみたいな感じ 笛マスク1%程度で巧いことやってくれる事もあれば、そうじゃない事もあった 無臭orモザもその時次第 旧SAEliae 笛パートは手動ランドとマスクでなるべく輪郭に忠実にしておくと良い結果になるかも
modelってひたすら使いまわし続けるとエンコーダの容量が回数に従ってすごく大きくなってきませんか?
>>42 7) convert SAEHD.batがすげー時間かかるようになったのは勘違いじゃなかったって事ですか? >>30 スゲー画期的 mask処理しなくても上手くいっているの? 早速真似させてもらいますよ しかし512のFANSegモデルは自作するしかなさそうと言う。。 >>44 やっぱそう? 第一弾でSD画質のdstをextractしたんでこんなもんだろと思ってた 制度上げました的な触れ込みだったけど瞞しだったか・・・ これって眼鏡かけてても作れるの? 素材が黒ブチ同士、銀ブチ同士ならOK?
H128modelでの境界線問題解決法わかります? 過去スレはSAEの対策ばかりで参考にはなるけどconvertの最適オプションがわからない。 俺の場合、H128の方がsrcに似るのでどうにかしたいのでどうぞよろしくお願いします。
「使い回し無し」src 1 : dst 1 (Model使い回し無し) 「使い回し有りAパターン」src 1 : dst n (dstのみModel使い回し) 「使い回し有りBパターン」src n : dst n (srcもdstもModel使い回し) 使い回しAとBとでsrc再現度が比較できたらなぁ
急にDFL-Colabがエラー出るようになったんだが皆さんどうですか? extract,train,convertをやろうとすると以下のようなランタイムエラーが出ます セッションの再接続、再clone,pull、念のためPC再起動しても変わらずでした Traceback (most recent call last): File "DeepFaceLab/main.py", line 19, in <module> multiprocessing.set_start_method("spawn") File "/usr/lib/python3.6/multiprocessing/context.py", line 242, in set_start_method raise RuntimeError('context has already been set') RuntimeError: context has already been set
>>30 @ってなんの意味があるのか詳しく説明してくれませんかお願いします >>30 こういった、やり方でも、舌、笛、手などはランドマークが入らず、 顔のパーツではなく、顔の前の障害物として学習してくれると言う訳なのかな? mask作業不要は画期的だと思います >>51 同じエラーが出ますね。 コードとか、さっぱりわからないからdstを探す旅に出てます。 まだ仕事なので確認できないが1223何か変わった?
>>55 ありがとうローカルPCの問題じゃなさそうやね colabのノートブックの直近の変更箇所も問題なかったので DFL1223動かないよー って言ってるアップデート?が関係してるっぽいかな == 2019年12月23日== 抽出:顔が見つからないフレームで2回目のパスがより速くなりました すべてのモデル:オプション「src_scale_mod」および「ターゲットとしてヨーでサンプルをソート」を削除 必要に応じて、ヨーで並べ替えた後、src facesetから不要な角度を手動で削除できます。 最適化されたサンプルジェネレーター(CPUワーカー)。 現在では、RAMの消費量が減り、動作が高速になりました。 追加しました 4.2.other)data_src / dst util faceset pack.bat / aligned /サンプルを1つの/aligned/samples.pakファイルにパックします。 その後、すべての顔が削除されます。 4.2.other)data_src / dst util faceset unpack.bat 面を/aligned/samples.pakから/ aligned / dirに解凍します。 その後、samples.pakは削除されます。 パックされたファセットのロードと作業の高速化。
DFL1223だと、モデルの互換性が無くなり、再train必要な気が。。 AttributeError: 'Model' object has no attribute 'src_scale_mod' 他のエラーでtrainできず 最近のDFL Versionに、Manualとtutorialがついてきていませんね changelog_en.txtのみとか モデル削除して、0からtrain必要し直しの気が。。
train時yawでsortして合わせるか?聞かれなくなりました DF256とかのModel.pyも作成し直しかな?
しかし、train時yawでsortする/しないの選択も合理的なので、 この修正も一時的な物だったりしてとか? オプション「src_scale_mod」および「ターゲットとしてヨーでサンプルをソート」を削除 すると、 現在では、RAMの消費量が減り、動作が高速になりました。 なのかな?
元からあるDFモデルとかだと、1223版でもtrainしたモデルは継続できるみたいですね しかし、色々エラーは吐いています argument: Cannot parse tensor from tensor_proto. いや、やっぱり動かない どうしても使いたい人は、モデルの削除は必要かな?
1223だと、使用するVRAMの量が増えたのか、 動作可能なバッチ数がやたらと少なくなりましたね VRAM 8G以下の人が動くのだろうか? いや、trainでまたすぐに落ちた 抱えているCUDAのVersionが変わったのかな? Pythonは古いままですが
いや、CUDA_10.1とうたっていますね 1223版を使用したい人は、人柱をお願いいたします
>>46 失敗しがちな、横向きや笛吹き、舌出しなんかで試してみたけど1017と変わらないようには感じた landmarkの修正は結構手間だから期待はあるんだけどな たまにある明らかな認識失敗(おっぱいや股間が顔になったり)は減ったりしてるのかも colabですがDFLサーバ側で修正あったのかextractとtrainはSAEHD256で動作しました でもconvertと顔切り出しは別のエラーで動作せず
trainの継続は可能なので、無視していますが CUDAのメモリアロケートエラーがやたらと出ます これはもう、SAEHDでシステムメモリとのスワップしている人専用Verとか? システムメモリ64GBでもある人は幸せかもしれません VRAM 24GBでも不満とは。。
俺の環境だけかもしれないが、 DFL1220(最新の1個前)でlr_drop falseで仕上げにTFのみtrueで一日くらい回すと 今まで(build_08_25_2019〜build_11_14_2019を試してきた)以上にsrcを再現するようになった。 DFL1220にしてから2作品作ったが2作品ともがそう。 これから過去作をtrainし直して行く予定。
>>71 その後時間をおいてpullとランタイム再起動したらコンバート動作しましたよ >>72 >>30 にならって、dstとsrcのalignedに同じものを置いて、学習してみては? おそらく、iperovはDFLを更新して何かを壊してしまいましたが、以前のリポジトリをいつでも読み込むことができます (afaik 20/21は正常に動作し、22は壊れており、23はそれを修正したかもしれません)。
>>72 前髪問題も、これは顔ではなく、顔の前の障害物である と言うことで、mask editorでmaskして、 FANSegモデルをtrainすれば解決だとか 過去スレにありましたよ FANSEG学習ってmodelないから初回から訓練になっちゃうんだけど どうやって追加学習してるの
>>78 %DFL_ROOT%\nnlib\FANSeg_256_full_face.h5を、バックアップを取った後に、 %WORKSPACE%\model\ の下にコピーとか 6) train FANSeg.batの中身の例は過去スレにもあります 前スレとか >>79 nnlibのh5ファイルをmodelに貼り付けても初回から訓練になるんだけど これで追加学習になってるって事? >>80 すまん。そこまで詳しくない 自分もこのスレで聞いてだから 何か、舌出しのdstで、作者がtrainしたmodelではうまくいかないな と言うやつが、手動MaskしてFANSEG trainしたら、うまくいくのもありました と言うだけです fかhか聞かれるけど、fにしていますか? 256で抽出しないとだめかもです >>81 抽出は256 とりあえずconvertしてみたら追加学習した以外で FNANSEGはちゃんと機能してるからこれでいいのかな Deepfake国内三強 最新版 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、 遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 総本山 どこかに存在するという伝説のDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、高度な技術を持った複数の職人が最高の作品を公開しているといわれている。 なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。
フォーラムのダウンロードに TopazLabsにギガピクセルのビデオ版がある事が紹介されていました ビデオで動作するため、個々のフレームを処理する必要はありません。 30日間の試用版 複数のYahooメールやGmail、プロバイダメールなど使用すれば 試用期間を長くできるかもです 自分で割れるかもしれん。ファイヤーウォールをブロックするだけで 何とかならないかな?
Deepfake国内三強 最新版 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の 大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 総本山 どこかに存在するという伝説のDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、 高度な技術を持った複数の職人が最高の作品を公開しているといわれている。 なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。
誰かNVLink試した人っている? これまでのSLIと違ってVRAMも2枚分合算できるとか云々
loss値[0.07][0.05]辺りになると本人再現度やばい事になるな
>>90 モデルは何で、バッチ数はどのくらいで、何日間や、Iterいくつぐらいで そうなるの? srcの選別がうまいとかで、そんなに下がるのか? グラボは何使っていますか? 93が言う通りあくまで指標 iter 2.6M SAEHD192(df,full,dims384) GTX2080 bat3 回転期間はSAEHDが出てからほぼ毎日 (DF256を回していた空白期間がある) 以前はiter200k Loss1.5とか iter800kくらいとかでもう完成だろと思っていたが まだ先があった 多分まだこの先もある
こどもまいんちゃんでやったら全然本人感が出なかった
>>89 NVLinkってグラボ2枚差しとかできる様な、特殊なマザーボード持っていなくても使えるの? ケースはどのぐらい大きければいいの? Miniタワーだと無理ですよね? ミドルタワー以上? 2080Ti 2枚挿しとかですか 電源容量もいっぱい必要そうですね DFLは対応しているんですか? プログラムはハード構成を意識しなくてもいいんですか? ちょっとグラボのハード構成は意識しないと対応は出来ない様な気がしますが どうなのでしょう? >>96 E-ATXもしくはWTXのケースに電源1500W、水冷必須で性能5割増しってとこだろ。 コスパ的には最悪だと思う。 ミドルタワーとかアホかw 2080Ti1枚すら入らんわww >>97 すまんね。パソコンは自作できる程には詳しくはないし 搭載可能なPCは持っていないので、BTOでbワるごと購入とbゥしています DFLがNVLinkに対応しているとは思えなくて VRAM増やしたいだけなら、TITAN RTXやQuadro RTX 8000とかだと 動くんではないかい? 回せるモデルとかバッチ数とかが増やせるだけかと srcの厳選や手動Maskとかに時間がかかるので コスパ的には悪いかと思います 2080Ti 1枚だけとか それでもPCまるごとだと高いね タイプミスか、文字化け BTOでbワるごと購入とbゥしています BTOでまるごと購入とかしています
>>30 笛初挑戦したけど何にも考えずこれ実践しただけでかなりの出来映え 皆さん裕福でうらやましい vram6gbで2-3日回しながら遊んでますがこれで十分かな ひさしぶりに第1SRCちゃんにばっちりの輪郭髪型DSTをHITしたので うきうきで1時間半分ほどを順番に調理中うきうきやわ
>>96 SLI対応のマザーが必要 ケースは冷却考えてもフルタワー 電源1200wぐらい VRAM増やしたいだけだからTITAN RTXも候補なんだけど 2080ti2枚の方が安いし合計したらVRAM多いし売る時も売りやすいかなって。 ドライバでNVLinkを有効にしたらDFLからは1枚のグラボとして認識したらいいのに。 >>97 バッチはロマンだ。コスパの向こう側だ。 DFLはNVLinkで2枚のグラボは使えない気がします 試してみてダメなら 2080ti搭載可能なパソコンを2台準備して、 2台のパソコンでDFLを回せば、2080tiは無駄にはならないかと思います >>100 あくまで金と時間のかかるお遊びですしね エロだけなら、無臭でも結構可愛い子、美人がいますし。それで十分な気もします 若い人ならば、昔のレジェンド女優の無臭とかもどうよ?DVD画質までしかありませんが 顔の良し悪しって本当些細な違いから来てると 実感できて面白いね
目が寄り目や閉じてるのに半開きになってしまう現象の回避方法って何かありますか? モデルはSAEHDです。 何となくだけど、斜視についてはSRCに顔斜めのまま目線は正面(カメラ)向きの グラビアやDVDから抜き出した画像が多すぎるせいかと思ったんだけどどうなんだろう。
>>105 目の開け閉めはface_style_powerを10〜15にして改善することもある。 DST寄りになるリスクもあるけど。 added FacesetEnhancer 4.2.other) data_src util faceset enhance best GPU.bat 4.2.other) data_src util faceset enhance multi GPU.bat FacesetEnhancer greatly increases details in your source face set, same as Gigapixel enhancer, but in fully automatic mode. In OpenCL build it works on CPU only. Please consider a donation.
Gigapixel AI買わなくてもいいってことか?
ガイドは修正中または更新中です。すぐに更新される予定です。 FacesetEnhancerを追加しました 4.2.other)data_src util facesetは最高のGPU.batを強化します 4.2.other)data_src util faceset extend multi GPU.bat FacesetEnhancerは、ソースフェイスセットの詳細を大幅に増やします。 ギガピクセルエンハンサーと同じですが、完全自動モードです。 OpenCLビルドでは、CPUのみで動作します。 また顔抽出までに留めておけばいいVersionだったりして train動く報告をよろしくお願いします
Deepfake国内三強 最新版 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。 国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 総本山 どこかに存在するという伝説のDeepfakeコミュニティ。 その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、高度な技術を持った複数の職人が最高の作品を公開しているといわれている。 なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。
>>30 やってみたけどsrc変えたあとの回しすぎは駄目なのかな? どこでやめるかのタイミングが難しそう これ、元顔の髪型とか年齢は統一したほうがいいの? 若い頃と老けた後では、だいぶん違うと思うんだけど
>>117 srcの髪型の統一は考えなくていいかと思いますが 髪型まで特徴量を抽出すると、データ量、計算量が大き過ぎるかで、 髪型は顔認識の対象外ですし 本来、防犯カメラの顔映像から、人物を特定したいとかなので、 髪型は女性であれば、長くなったり短くなったりする可能性もありますので 同一人物かどうかを特定する手がかりにはならないかと まあ、経歴の長い女優さんとかだと、どの様な年代のsrcで選別するかは 悩みどころかと 若かりし頃を再現させたいのであれば、若かりし頃のsrcかと >>30 のやり方を真似させてもらいましたが、 >>30 はSAEHDですか。DF256でもいい感じで出来ました dstどうしを学習したモデルをBaseに追加学習しても 別にsrcにdstの名残など入ることもなく srcのいい感じが再現できました 別のsrcにして、同じ事をやっています 手動Maskなしでいいのであれば、スゲー楽で画期的な事かと思います >>118 はグダグダ長文書いて本当に説明が下手だな 「顔の範囲のみでマスクしてるんだから髪型は関係ない」の一言で済むのに >>118 は確かに分かりづらいだけでした DFLをユーザーで使っている場合は AIはこんな事もできんのか?と八つ当りしなければいいだけの事 できていない事をできるようにするアルゴリズムでも考案して 英語で論文でも発表すれば、名誉が与えられると思いますよ DF256導入しようとしましたが、以下のようなエラーが出ます。 原因わかるひといるでしょうか。 Error: 'Model' object has no attribute 'src_scale_mod' Traceback (most recent call last): File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\mainscripts\Trainer.py", line 50, in trainerThread device_args=device_args) File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\models\ModelBase.py", line 145, in __init__ self.onInitialize() File "D:\DeepFaceLab_CUDA_10.1_AVX\_internal\DeepFaceLab\models\Model_DF256\Model.py", line 55, in onInitialize sample_process_options=SampleProcessor.Options(random_flip=self.random_flip, scale_range=np.array([-0.05, 0.05])+self.src_scale_mod / 100.0 ), AttributeError: 'Model' object has no attribute 'src_scale_mod'
>>115 ID変わってますが112です ありがとうございました >>123 DF256は、12_20_2019版までは動作確認が取れていますが、 それ以降の版は動作未確認です それ以降の版は、おそらくModelBase.pyが変わったので、互換はなく それ以降の版はModel_DF256\Model.pyの修正が必要かと 最新版対応のDF256が作成されるまでは、12_20_2019版までを使用するとか DF256はカスタムだから自分でメンテしないとね 差分確認とかで、作成できれば、気が向いたら作成してみます 試行錯誤で作成している間は、trainとか止まるんだよ− >>123 ダメ元で、DF256のモデルデータをバックアップコピーして待避 DF256のモデルデータを削除 0からtrainし直し ダメっぽいけど 元々、新規導入で新規trainでもErrorなのか?であれば試す必要もないな ちなみにDFLのVersionは?train前まではできましたか? 顔抽出までとか >>126 1226です。 顔抽出までは可能でした。 以前のバージョン(CUDA10.1)はgoogledriveから消されていたので、どなたか対応版をあげてくれることを祈っています。 >>127 1226とdiff取って見ただけだが、 まずはDF256のmodel.pyの55行目の +self.src_scale_mod / 100.0 を消せば次には進むんじゃないかな さらにまたエラーでるかもだけど… >>127 DF256モデルの作成 Model_DFをコピー&ペースト、Model_DF256にリネーム Model_DF256\Model.pyをテキストエディタかメモ帳で開いて、 128→256にすればよさそうな所を256に置換 def Encoder(input_layer):とdef Decoder():は、前の版を参考に修正 def Encoder(input_layer):とdef Decoder():は、前の版をコピペで動きました >>127 ありがたみを感じたら、ダウンロードフォーラムにあるメールアドレスに Amazonギフト券で300円でも500円でも寄付してくれるとうれしいw ヤフオクでの販売みたいに、E-mailタイプを金額指定して購入して、 自分のアカウントには登録はせずに、 ダウンロードフォーラムにあるメールアドレスにギフト券番号を連絡すればよさそう >>128 俺も同じだ動かない。 colubでtrain動いてる人います? df256使うだけなら軽い0620ver.でもいいのか それとも最新のやつのほうがいいのか 顔抽出性能向上とか細かいマイナーアップデート考えると最新版なのかな
>>138 最新版は、主にSAEHDの対応でしょうから、 SAEHD以外の人は、無理に最新版にする必要はない場合もあるかと思います 0620verは、顔の前に障害物がない顔画像、 FAN-dst不要の場合は、0620verとか使用した方が、境界のなじみに違和感が無いのでいいかと思います FAN-dst使用したい場合は、FAN-dst使用可のVersion以降かと思います >>139 FAN-dstとかは0620でも使えるはずだけど… 最新版の方がFANsegの性能上がってるから使うなら最新版の方がいいってこと? 後 FANprdの効能がいま1わからんのです dstの方はなんとなくわかるけど FANPrdはsrcの輪郭を反映できる。 エラとか顎のラインが特徴的なsrcの場合に使える。
>>141 FAN-dstとかは0620で使用できるのは、SAEモデルだけでは? DF、H128、DF256とかになると、FAN-dst使用可能になるのは、 0830以降とか、8月の途中の版以降あたりだった様な 12_26_2019版だと、 カスタムのH512モデルは動作しませんでした DF512が動作したからいいのですが
>>131 凡ミスにより、Model_DF256\Model.pyを上書き差し替えています VRAM 24GBでBatch_size:30とか 以前のVersionでは48可能だったので、 DFLのVersion Upのたびに重たくなっている気がします >>142 ありがとうございます srcのフェイスラインに癖がない場合は使う必要なさそうですね >>143 そうだったんですね 勘違いしていました 1220verでdf256を実行すると以下のメッセージが出た後 普通にトレインしています これって無視していいのでしょうか 2019-12-29 16:34:35.112997: E tensorflow/stream_executor/cuda/cuda_driver.cc:806] failed to allocate 167.85M (176007936 bytes) from device: CUDA_ERROR_OUT_OF_MEMORY: out of memory 質問ばかりで申し訳ないです… >>30 これ表情の拡張がすごい 微笑みsrcでアヘ顔外国人も出来る つか単純に外人(白人)の方が顔認識の精度高くない?
>>147 バッチ数がぎりぎりtrain可かと trainできているのなら問題ないのでは? 試しにバッチ数を減らしてエラーが出なくなるかどうか確認とか cudaのallocate Errorはよく出ますよね 0620だとModelBase.pyが違うので、Model_DF256\Model.pyは別物 0620用のModel_DF256\Model.pyを作成しないと Python知らなくても、何とか差分法で作成できたりするかと思います 0620でDF256だと、Mask mode: (1) learned, (2) dst だけかと思います >>148 srcとdstのalignedを同じにして 両方例えば0.08くらいまでtrainしたあと srcのalignedを目的のものに差し替えるんだよね? 一時間回した感じではpreviewの一番右の列の見た目はdstのままだった 単に試行が足りないのかsrcの画像不足なのか… truefaceとかオプションつけた方がいいのかな おお、初めてこのスレの住民の方からきました 本当にどうも、ありがとうございます DF256使用の場合は、FAN-dstが使用可能な、ぎりぎりのVersionの方がいいのかもしれませんね Version UpのたびにVRAMの使用量が増えて、厳しくなっている気がします 新しいVersionの、顔抽出の良さだけをいいとこどりできないかな? train以降は昔のVerとか やってみないと分かりませんが
個人の趣味の問題もありますが、 12_26_2019版で、カスタムsetenv.batで、 CUDA、CUDNN、ffmpeg、python-3.6.8、XnViewMP DFLが内部に抱えている物ではなくて、 C:\Program Filesの下の共通の物を参照できました DFLのVersionを複数抱えていたりして、ストレージ容量とか削減したい人とか向け
>>159 表情の拡張なんて、あれっと思ったのですよね >>159 30の言ってること自体は間違ってないと思うんだけどなかなかうまくできない… それはそうとpornhubのahegao検索結果をdstにして色々試してるんだけど 極端な寄り目や白目は難しいな src画像を自分で寄り目にするしかないのか >>30 のやり方で、1つ動画が上手くいったと、素直に喜んでいたのだが、 >>30 のやり方をしなくても、上手くいく動画だったのかも知れない 今度、舌ベロがいっぱい出ているdstでやってみよう 4.2.other) data_src util faceset enhance best GPU.bat 使用してみたのですが 動作可能なバッチ数が少し少なくなってしまう様な気が。。 それは原理的にそう言う物なのか? VRAM 24GBでDF256でバッチ:28とか 4.2.other) data_src util faceset enhance best GPU.batも、512、pngはカスタム作成かぁ TITAN基地外や30みたいなオカルト手法でわけわからんようなっとるなwいいよいいよー
>>164 試しにtrain済みのmodelじゃなくて初期状態からやったらいけた。 SAEHD:optimized architecture, you have to restart training
DFLcolabは常に最新バージョンになっちゃうからmodel使いまわせなくなる可能性あるってことか
DFLデビューしようと思ったけど なんかDLリンクにすら辿り着けない
>>166 >>168 なるほどそういうことか modelの使い回しが出来なくなるなら一点集中でやらないとダメですね。 育ててきた俺のsrc5人分の10万trainがパーか >>170 それはさすがにってことで 1226版も並行して残すって書いてあったよ 中華サイト情報ですまんが 辿りつけない奴なんてほっとけよw またいろいろ簡単なこと聞かれて懐かれるぞ
== 29.12.2019 == 編集されたマスクを含むフェイスのフェイスセットエンハンサーを修正 同じDFLフォルダーでさまざまなgpusを使用する場合の長い負荷を修正 整列していない面の抽出を修正 avatar:avatar_typeはデフォルトで頭のみになりました == 28.12.2019 == FacesetEnhancerはaligned_enhanced /をaligned /にマージするように要求するようになりました 手動抽出で検出された0個の顔を修正 Quick96、SAEHD:最適化されたアーキテクチャ。 トレーニングを再開する必要があります。 現在、ビルドはCUDA(9.2ベース)とOpenclの2つのみです。
== 29.12.2019 == fix faceset enhancer for faces that contain edited mask fix long load when using various gpus in the same DFL folder fix extract unaligned faces avatar: avatar_type is now only head by default == 28.12.2019 == FacesetEnhancer now asks to merge aligned_enhanced/ to aligned/ fix 0 faces detected in manual extractor Quick96, SAEHD: optimized architecture. You have to restart training. Now there are only two builds: CUDA (based on 9.2) and Opencl.
ファイル名が DeepFaceLab_CUDA_build_12_29_2019.exe になりました 解凍すると DeepFaceLab_CUDA になりました CUDA9.2のみになりました RTXでもCUDA9.2でも動いた様な気がします CUDA10.1を使用したい人は自分で
システムのCUDA10.1、python-3.6.8、ffmpeg、XnViewMPは使えています 1226版で新規作成したモデルであれば、1229版でもDF256でtrainできています 1226版に比べれば、バッチ数は同じでした workspaceのコピーに時間がかかるので、1226版の物を参照しています
趣味の話ですが、カスタムのバッチが増えてきたので、 使用しないものは待避して別の場所に移動しています train、convertのH64とかQuick96とか 8) converted to avi.batとか F256など、モデルはあるが、train、convertのBatファイルは、F256モデル内のフォルダ内だな
差分も取っていないのだが、Trainer.py変更の可能性もあると思い、 12_29_2019版ベースのauto_preview https://mega.nz/#F!Gux1VKoC!OFge6yPJFFBt8qpa-6zrAA オリジナルの作者とは別人 手抜きVersion プレビューの更新間隔をカスタマイズ Training preview (Auto Update) の表示 3分に1回の頻度でモデルをSave デフォルトは15分なので、変更したい場合は、30行目の save_interval_min = 3 の数値を変更 プレビューの表示サイズなどは、オリジナルのDFLと同じまま 新しいDFLは また一からtrainし直しなのか アップデートする意味あるのかな
train再開時に、同じ設定でtrainがすぐ落ちてしまう事があり、 メモリクリーナーで検索して、 JetBoostを使用してみました たまたま自分の環境ではいい感じです。注意点はユーザーレビューにある通り メモリクリーナーが必要であれば、各自お好きな物を
Quick96, SAEHD: optimized architecture. You have to restart training. src_scale_modの有無が変更になってからか、yawでsortの有無が変更になってからか、 モデルの互換が無くなった様な気はします DF256では試してはいませんが CUDA9.2のみになりましたね。自分で簡単にCUDA10.1にできますが iperovは寄付をたんまり受けて、RTX2080Ti搭載のパソコンも買えていないのか? iperovはSAEHDに夢中ですしね。DF256の人がどこまで最新版に追従する意味合いがあるのかは不明かと
完成した動画がちょいちょいdstの顔に戻るところあるんですけど、 これは単純にtrain不足ですか? それともdata_dstのalignedの画像を消しすぎってことですか?
>>183 srcの画角、カメラアングルが不足していて srcとdstの画角が概ね一致していない様な時でもそうなりますね data_dstのalignedは基本消さないと思いますが 間引く場合は、FANSegモデルのTrain時とかぐらいでは? train不足でもそうなるかも知れませんね >>183 消されたdstのaligned画像はconvertされないから間引いてtrainする場合は取っといて戻す必要あり もう一つの可能性はdstのextractがうまくいってなくてそもそもalignedに入ってない これはdebugをチェックして自分で再extractするべし >>183 \workspace\data_dst\aligned_debugの画像を見て、うまく顔抽出がいっていない画像を削除 5) data_dst extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat を使用して、手動で顔を再抽出 マウスカーソルを動かすと、目、鼻、口、眉、顎などぴったりになる事も 上手くいったらSave >>181 train中に、2回、画面が真っ黒になってしまったので JetBoostでの変更を元に戻し、JetBoostをアンインストール ここは素直にPCをリブートしろと言う事なのかな 後、Trainer.pyのsave_interval_min = 5 にしてみました alignedの画像が少ないと、学習が速いですね 512で抽出して256で学習が速い様な気が。気のせい? 4.2.other) data_src util faceset enhance best GPU.bat していないからかな? 質問される方は、過去スレを読んだ方が、結果的に理解が早いそうですよ Part1とか若いスレは、DFLではなくて、別のソフトの話題なので、関係ないかな 過去スレを、知りたい検索ワードで、検索すれば、大抵はひっかかるそうですよ どなたか過去スレまとめのアフィサイト作成の話はどうなったのでしょうか? どなたかWiki作成の話はどうなったのでしょうか?タイトルは適当に誤魔化して 大変そうですが
>>30 の手法で6.20の旧バージョン、H128でもかなりいけるよ 簡単に済ませたいのでこれでいいかなぁと割り切り dstの「aligned」フォルダ内の顔じゃないものとか、ひっくり返ってる顔とか削除するけど、 その欠番を「aligned_debug」に反映させて自動で削除や隔離する方法やツールって無いの?
>>192 alignedファイル名のうしろ「_0」を削ったものがaligned_debugファイル名になるから それを元にバッチファイルなり作成すればいけるかもね。 (alignedファイルをソートしていないことが前提) re extractの逆みたいなやつな おれも欲しいなと思ったことあるな
それに加えて「本当はextractしてほしいのにされてないもの」もあるから結局debug画像はチェックしないといけないんだよな…
>>192 自分で作ったよ。 欠番と重複チェックしてdebug削除。 前にここに上がってたGUI版のDFLにそんな機能ついてた
>>196 欠番チェック・debugファイル削除ってこんな感じのやり方かな? 「5) data_dst extract faces S3FD best GPU.bat」なりで顔抽出後、 不要aligned削除前に「dstのaligned」のファイル一覧取得しておいて、 不要aligned削除後にスクリプト等で、欠番チェック・alignedの欠番と一致するdebugファイルを削除する >>192 @echo off call _internal\setenv.bat chdir /d "%WORKSPACE%\data_dst\aligned_debug" echo please wait... for %%F in (*.jpg) do call :sub "%%F" pause exit :sub set filename=%~n1 if not exist %WORKSPACE%\data_dst\aligned\%filename%*.jpg (del %WORKSPACE%\data_dst\aligned_debug\%filename%*.* echo %1) goto :eof 自己責任で。 エンハンスめっちゃ遅いな i9 9900Kの3,000枚で9時間 確かに細部がクッキリするし、ボヤけもマシになる エンハンス済のsrcだけで揃ってないとtrain出来ないっぽい ファイルサイズも大分大きくなってる 512サイズでエンハンスかけた顔はmask editorやたら重くなるだろう
そ、そんな時間かかるの? しかもエンハンスしてないものと混在してたらだめなんだ
もしかしてこのスレで言われていた新verでtraingのbat数下げないと動かないのってエンハンスしたせいなのか?
エンハンスするとbat数は下げないと動かないみたい versionを新しくするとbat数は下げないと動かないみたい 2つあるみたい
個人的意見だとenhance自体の影響じゃないと思うよ ファイルサイズが大きくなってるのは最近のextractor.pyのデフォルトjpg品質指定が100に上がってるのもあるかもね メモリ使用量も変わらないようには感じる
1.versionを新しくするとbat数は下げないと動かなかった(DF256) 2.更に追加でenhanceすると、bat数は更に下げないと動かなかった(DF256)
>>205 一つ上の書き込み見れずに書いちゃったよ悪いね tomoeの人は共有メモリも合わせて24Gとか言ってたっけ 俺は無印1070でSAEHDのres160バッチ6でちんまりやってるだけだから参考にはならんかもね == 23.12.2019 == Now they consume less amount of RAM and work faster. は体感できていないな。trainは関係ないのか
>>200 i5の俺が700枚50分だったよ でも確かに初期の読み込み起動が異常に遅いときはあるかな ちなみに一枚4秒程度は自分でgigapixel AI単体で動かしたときと同じくらいだった tomoeの人はVRAM24G TITAN RTX システムメモリ32G(NVIDIAの推奨の最低がVRAM容量だったから) システムメモリの実使用量を見ると、10.3GB/31.8GB(32%)とか(DF256) パソコン工房は、16GBでいいのでは?との事 電源容量も800Wでいいのでは?との事で、 1200W電源とか選べませんでした ちょっとFANの音がうるさい気がします CPUは水冷なのですが、グラボの水冷はパソコン工房ではできませんでした 自分ではできません グラボ水冷にすると、静かになるのかな?
もう1台、マウスコンピューターのミニタワー、MicroATX i7-8700 16GB CPU空冷 450W電源+RTX2080持っています 後から気が変わって、DFLのためグラボだけ追加しました これがものすごくFANがうるさいですね 何も知らずにRTX2080だったのですが、DFLでは2060Superで同等ですかね 大奮発して、2080Tiとかだとぶつかって入らなかったのかな? 2080でぎりぎりだし
もう1台、フロンティアのミドルタワー、1000W電源、 i7-第3世代 16GB CPU空冷持っています これに入れると少しは静かになるのか?切り分けの価値ありですが、面倒でまだやっていない パソコンを隣の部屋に置くと、さすがに静かですね 無線LANでつなぐと、もたつく事があり、イライラしました 宅内有線LANの工事を頼むのも面倒で、まだやっていない 1台はリモートで乗り込んだり、ファイル共有したりするため、 同じ部屋に設置が必要かな。それは押入れに入れれば、少しは静音化になります 1台は既に押入れに入れています。3mのディスプレイケーブルとかUSB、オーディオ延長とか
静かさ求めるならエアフロー 大きなケースに大きめのファンをゆるく回すのがベスト 2080だけど全然うるさくない
やはりそう言う物なんだ TITAN RTX搭載パソコンも、ケースは大きいのですが、FANが3つしか無いしね 自前でFANを追加できないか、パソコン工房に聞いてみよう ASUS Z390-Aは4ピンPWM/DCファンだけでも5個もあります ミドルタワーATXケースなのですが、かなり大きく感じました 世の中にはこれ以上の大きなケースのPCもあると言う訳か まあ押入れに収納できればいいしね
1114版でtrainしたDF256モデルデータを、1229版で継続trainできましたね == 23.12.2019 == all models: removed options 'src_scale_mod', and 'sort samples by yaw as target' でモデルデータの互換が無くなったかと思いましたが カスタムモデルtrain/convertは再作成済 == 28.12.2019 == Quick96, SAEHD: optimized architecture. You have to restart training. ですが
ミドルタワーに2080Tiが入るわけないだろw どんだけデカいと思ってんだ。 普通のATXケースでも寸法確認しないと入らないのに。
DF256回してるけど輪郭が中々はっきりしてこないな 15万くらいで目処つくかな
>>216 そうなの?2080と2080Tiでサイズは大違いなの? 今、ミドルタワー、1000W電源に2080を搭載してみようかと思っています 2080ならミニタワー、MiicroATXにぎりぎり入りましたし TITAN RTXはミドルタワーATXケースに入っています サイズ 約幅213mm×奥行510mm×高さ488mm ※最大突起物除く ケースの中にマザーボードが入っていますが、マザーボードが入っていないスペースに余裕がある様に見えます 拡張ベイ(空きベイ数) 5.25インチベイ×4(3) ,3.5インチ内蔵ベイ×8(7) ,2.5インチ内蔵ベイ×6(6) ,3.5/2.5インチ兼用内蔵ベイ×1(1) ※基本構成時のベイ数となります。 やたらとHDDの内蔵搭載可能です。マザーボードはSATA6ポートなので、BD×1台、HDD×4台搭載済 これ以上HDDの台数を搭載したい場合は、SATA3.0 増設ボード 4ポート拡張カード 6Gbps PCI Express PCIeとか購入が必要かと HDDはとりあえず4台もあればいいや。6TB+6TB+4TB+4TBなのですが、 4TBを6TBに換装するとか。ちょうどパソコン工房のポイントが 2831 pt入ったし パソコン本体の価格の割には、ポイント還元率が低いな。ぶーぶー 2080tiといってもメーカーとモデルによって全長が全く違う。
4TBのHDDも、ちょっとバックアップの取り過ぎ状態です トレジャー女優さんのフォルダは全HDDにあるしな 碧しのフォルダとかは、563GB程あるしな 2台のHDDだけ残して、後は削除すれば、空きは出るかと パソコン工房のポイント2831pの使用のため、6TB HDD×1台とか、追加で買ってみますかね
DF256はバッチサイズ大きく出来るんだけど習熟はSAEHD256より遅い印象 いつ追いつくのか分からんので自分はやめた 想像だけど512抽出なら綺麗になるのかも
SAEHD256は、Op1、AutoEncoder dims 1024、Encoder/Decoder dims per channel 85 にしたら、VRAM24GBでもBat:1でも動きませんでした AutoEncoder dimsは512以下にする必要はあるのか Opも3とかにする必要はあるのか
最近のDFLのVersionになると、train中にブラウザを開いただけでもtrainが落ちる事が出てきました 2台のディスプレイ出力はオンボード接続なんですけどね 特に楽天のトップページとかだと重くてtrainが落ちる まあ、DFLを使用していないPCも1台は必要なのか そのPCから、隣の部屋のDFLのPCにリモートで乗り込むとか、ファイル共有するとか PCの静音化は、隣の部屋に設置するのが一番静かですね 今部屋の2台のPCも、同じLAN、同じルーターにつながっていますしね まあ、ディスプレイはHDMIとDVIをボタンで切り替えて、 2台のKB、マウスで使用しているのですが
Deepfake国内二強 + 番外編 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり 垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 番外編 DFJ ツイッターでフィリップ2世を勧誘しているのが発見され話題になるが、総合スレ民が実際に見に行くとあまりのレベルの低さに驚愕してしまう。 月額制で技術力は最低レベルだがリクエストには比較的応じてくれるとの話も。総合スレが宣伝に非常に効果的だと気づいてしまい定期的に宣伝に来るようになる。
Deepfake番外編 Dfidol 国内でのDeepfakeブームのきっかけを作った伝説の製作者。 技術も最高レベルであり特に日本人を多く作成する事で知られている。 海外の高い技術を持った製作者は海外セレブやK-POPのみで日本人はあまり作らないが Dfidolが初めて最高レベルでの日本人動画を量産して国内でレジェンドとなる。 突然なんのメッセージもなくアカウントやサイトを閉鎖し現在は消息不明。 過去のテキストファイル等に中国語のような痕跡があり中華系の可能性も。
>>215 旧modelの再利用がcolabでもできるか確認したいがGPUが割り当てられない srcとdstのalignedの画像なんですが、 顔半分だったりブレたり障害物ありの画像は削除するのでしょうか? それとも別フォルダに入れてtrainしてconvert時に戻すのでしょうか?
>>228 srcのそういう画像は削除する dstのそういう画像は別フォルダに入れてtrainしてconvert時に戻す 今更だけど、>>30 のやり方って舌もちゃんと学習するの? >>232 プレビューでどんどん鮮明になってくから学習してると思うよ でも舌出してベロベロ舐め回すとかは上手く仕上がるけど 口の中で男汁を舌で転がす的なのは全然無理っぽい 本当はぶっかけで作りたいけど髪ぶっかけで我慢 顔は不可能だよね?
dst動画を動画編集ソフトでコントラスト強調→明暗閾値以下をRGB0.0.0に変更→コントラスト元に戻して書き出し merged動画とdst動画を重ねて明部透過で一定以上dstが明るい部分をmergedの上に表示できる コントラスト上げすぎて白すぎる場合はdstの透明度を上げればいい
>>30 の効果を検証してみた フェラdst約30秒ほど抽出 35万回転のDFモデルで A) dstのalignedをsrcにコピーして2500回転 その後、元のsrcに戻して2500回転 B) srcのまま 5000回転 両方FAN-dstでコンバート 結果はAとBはフェラ場面について全く同じ Bのほうがsrc分回しているせいか解像度がやや高いくらい saeHDではやってないが 難しそうだな…しかし!ぶっかけの為ならやるしか無い ありがとう
そこでFan-dst使ったら当然同じになると思う。
>>240 マスクを嫌がらないのであれば、マスクすれば確実 顔動画って何分とかいう連続動画を取り込んだほうがいいの? それとも、数秒の細切れ動画多数でもそれほど変わらんのかな? まあさすがに静止画写真多数よりは動画のほうがイイんだろうけど
df256コンバートの時顔でかくならない? 1220なんだけど
>>245 連続してる必要はないけど 色んな目線や口の開き方のバリエーションがないと 出来上がりが虚ろで人形みたいになりがち でも動画ソースなしのtwitter自撮り数百枚だけでもそれなりにはなったよ どうしても足りない角度は別のアイドルので補完 >>250 >どうしても足りない角度は別のアイドルので補完 AKBの後ろの方の奴って全員同じ顔だから 適当コイても作成可能 的な話なんかな? それとも、まったく似ても似つかぬ別人の打ち込んでもOKみたいな? >>250 そういや、正面と横顔から中間顔作れるソフトがあるみたいよ 顎の引き方が普通じゃ無いと、作成に結構苦労するみたいだけど ソフト探すと、 上に書いた中間顔を作るソフトとか 横顔から正面作れる技術とか 少ない音声単語読ませるだけでセリフしゃべらせられる技術とか 半端無い技術がいっぱい見つかる まんま知り合い女のAVでヌケル日も近いという事か
>>259 女に短い文章読ませるだけで、 キーボードで打った文字の通りにに、その女の声でセリフ喋ってくれるAI技術が 既にあるらしい iter 3Mあたりからさらにsrc再現度UPして行く気がする
RT コアとTensor コアはディープラーニング トレーニングには無関係でしょうか? であれば、RT コアとTensor コアの替わりにCUDAコアにしてもらいたいものですが、 主な利用用途がゲーム、クリエイティブ ワークロードなので、 CUDAコアばかりは無理な話なのでしょうか? VRAM容量からすると、CUDAコアばかりは無意味なのでしょうか?
>>200 同じくi9 9900Kだけれども、src 22419枚で、2時間以下いぐらいか?3時間までかからない 4.2.other) data_src util faceset enhance best GPU.bat だけれども VRAM 24GB >>200 の言うエンハンスは、Topaz Gigapixelでの事? Topaz Gigapixelだと確かにエンハンスめっちゃ遅い 4.2.other) data_src util faceset enhance best GPU.bat を使用すると、顔にシアンかのノイズ?が少しのったりしませんか?
指定したフレーム番号からコンバートする方法ってない? py書き換えるしかないの…?
>>268 dstフォルダ直下の画像、dstのaligned_debugフォルダ内の画像、 dstのalignedフォルダ内の画像をconvertしたいものだけにすればいい これ、作業するのにCPUの性能はあまり関係無いんかな? 5年くらい前のi7フラッグシップにRTX Ti積もうかと思ってるんだけど
>>251 別人の顔でもokかと言われるとよくはないんだけど 結果的に俺のsrc7人くらいの俯き顔はみんな内○理央だよ… 関係ないけどだ○りおは女優の割には結構過激なDVD出してるおかげで素材には困らなかった >>270 学習とかはGPUメインだろうけどそれ以外の作業でCPUの処理速度 意外と重要。それで、学習が進むと学習以外にかける時間が多くなる から、CPUが遅かったりメモリが少なかったりすると結構ストレス。 5年ぐらい前だとhaswellとかskylakeぐらいだろうけど、現行CPUだと 1.5倍以上速くなってるはずなので、自分だったら買い替えるかな。 >>270 尺の長い、30分超大作の動画など作成している人などは、 Convertに時間がかかり、速いCPUとか欲しがっている人もいるみたいですよ ConvertにFAN-dstとか、顔の前の障害物を処理する場合、笛動画などは Convertに時間がかかります。ConvertはGPUが使えず、CPU 顔抽出、trainはGPU >>269 サンキュー、できたわ。これでいいならpy書き換えないでも、画像待避バッチファイル書けば応用ききそうやな >>270 筐体の大きな、PCでないと、RTX2080Tiはぶつかったりしてのらないらしいです 筐体が大きかったり、電源容量が十分だったり、エアフローが十分だったりしないと 動作が不安定になる恐れもあるそうです 教えてもらった事を参考に動画編集ソフトのブレンド効果で ぶっかけ出来ました顔面デロデロで満足です
おお。RTX2080を、マウスコンピューターのミニタワー、MicroATX、450W電源 に搭載していたのですが、 フロンティアのミドルタワー、1000W電源に搭載したら、少しだけ静かになりました しかしフロンティアも筐体FANは2個しかないしな やはり静音化には、筐体の大きさ、エアフロー、電源容量など大事みたいですね しかしやはりうるさい。自分でFAN追加できないかな? 隣の部屋と有線LAN接続で、どのぐらいストレスなく使用できるのかな? フロンティアのは前のPCなので、i7-第3世代になってしまうしな
>>209 間違えてopen clでやってた…cudaにしたら数十分で出来た! ブレたりしてギザギザのSD画像はよりギザる模様 低画質の補完というより、高画質の強化に適してるのかな 手先が器用で保証を気にしないなら グリスとサーマルパットを高品質のものに変えると 温度が下がって多少静かになるよ
12_29版のSADHDにしたら TrainでValueErrorがでるようになったんだが 俺だけかしら
>>240 色調補正、色域変換、合成モード、効果範囲の設定と調整で実質作業は2分、 あとは動画編集ソフトの再エンコの待ち時間だけだ。 まあ、馬鹿には無理だろうし fake作成時のマスクが1分で終わるならマスクの方が早いと思うよ。 眉毛ごん太問題 どうしたら回避できるんだ… たくましい顔で喘がれても困る
触覚がある画像を学習させたらどういうデメリットがあるんですか?
眉毛ごん太問題遭遇したことないが、想像するに ・srcとdstの前髪・眉毛をマスクしていない ・convert時にerodeをマイナスにしていない ・srcとdstの両方またはどちらかのランドマークがずれている あたりかね。 でこだしsrcを収集するのがもっとも手がかからない。
>>286 srcのマスク範囲内に触覚等の髪が多いと 仕上がりにも変なところに髪生えたり黒ずんだりするよ。 srcの中にどれくらい触覚画像があるかにもよるが。 仕上がりで気にならない程度ならなにもしなくてよし、気になるならマスクすればよい。 >>288 dstの場合も同じ考え方でいいですか? >>284 あまりにFAQすぎるがせっかくなのでまとめておくと 1本質的には前髪ぱっつんのsrc画像は使わない 2前髪を避けてmaskを手動再設定 3elode値を上げる(が輪郭再現とトレードオフ) 4FANdstにするとうまくいくこともある 1以外は結局srcの眉毛ではないのでどう考えるかは人それぞれかな >>288 いや、dstはむしろ触覚を残したいはずだから何もしなくてよい。 srcにマスク学習させてるなら、learned * fan-prd * fan-dst srcにマスク学習させてないなら、fan-dstでconvertすればよろし。 >>291 なるほど! わかりやすい説明ありがとうございます dstのmask editしてない場合、trainでLMって、もしかして不要?
%CUDA_PATH%;%CUDA_PATH%\bin;%PATH%のCUDAを使う場合 iperovがビルドした、CUDA、CUDNNを上書きした方がいいみたい iperovはtensorflowと連携したCUDA、CUDNNをビルトしてくれたのかな
最近、Bat数がやたらと少なくなってしまったなと嘆いていたのだが 調子に乗って、512でのExtract、pngでのExtractをやっていたせいもあるかな 512でのExtract、pngでのExtractはとっておいて、 デフォルトでのExtractにしてみますか 4.2.other) data_src util faceset enhance best GPU.bat はした方がいいのかな
>>290 というより前髪があるsrcは原則不可ということを最初に説明すべき。 「出来なくはない」「テクがあれば可能」などとかしこぶらない。 例えば、齋藤〇鳥をsrcにする場合を例にすると、まず貴重なデコ出しルックを収集し、 基本的にそれのみを素材にする。アングルが足りない部分だけ前髪ありで埋める。 実をいうと齋藤〇鳥はこれ系アイドルの中では意外とデコ出し素材が存在し、 srcとして何とか使える貴重な存在なんだ。(もちろんDFを用いる) >>293 もともとそんなものは存在しない… convertのオプションでどうとでもなるよ >>297 それはその通りだね 俺は前髪ありdstを使うことが多いからあまり気にならないけど 眉毛もこだわるに越したことはないと思う >>300 いや、だからプライドが高いのか何か知らんけどそういう物言いをやめろと言っているw 眉毛がdstでまともな作品なんか出来るわきゃないの。 そこをまず説明しなさいとわしは言っているw 出来てもいないことを出来たというなって話ね。 そこは厳密に「眉毛がdstだから正直あんま似てないけど一応できた」 など一般人にも通じる言い方をしないと。 ネットで流れてる神職人の作品しか知らない人は DFLを使えばみんなあんなのが作れると思ってんだから。 (顔真っ赤にしながら「え?作れるよ?」という返しがあると思うけどなww) >>301 なんだちょっと前にあっちで吠えてた人か… 上のレスの俺は眉毛込みじゃないと似てないよって思ってるから本質的にはって言い方したしあなたと同じ意見ではあるけど、 ごまかし方の一つの方法として前髪ぱっつん同士のsrcとdstにするのは別にありなんじゃないかとも思うよ 原理主義的にみんなに啓蒙するのは思う存分やってくれ >>301 srcの眉毛が無いのに、srcの眉毛が再現できる訳はなかろう srcの眉毛が無いのなら、dstに眉毛があるのは、不自然極まりない >>301 顔認識が何であるかも知らない馬鹿なのか 眉毛は、顔のパーツなので 眉毛の無い顔は、そもそも人間の顔ではないのだよ Python書いて提供していない奴が偉そうに言うな >>305 そうだよ >>301 原理も何も知らないくせに、わめいて八つ当たりしているのは、いくら何でも頭がおかしい 自分で何とかしようという気はないのか?自分では何もできないのか? だったら黙っていろ >>300 線については、髪の毛と眉の間問題とか、髪の毛ぱっつんぱっつん使うなとか そういう件じゃないと思うよ 職人の動画見ると、明らかに額に直線入ってる事あるけど、あれは何?ってこと っていうか、君らは 何分の動画をどれくらいの時間で作ってんの?
>>307 おでことかの境界の色違いは、顔の前に特に障害物とか無い動画限定だけれども 0620版とか使えば違和感はない。FAN-dstとか使えないので 環境を分けるのも面倒かも LandmarksProcessor.pyのeyebrows_expand_mod=1.0を2.0とか大きくすると 眉毛のかなり上の方まで顔として認識するみたい Mask Editorで開くと違いが分かる LandmarksProcessor.pyの修正だと、顔抽出時もtrain時もsrc、dst両方に適用される 眉毛の未抽出もやろうと思えばできる。src、dst両方に適用されるけれども convert時のerodeの設定で何とかならないの? >職人の動画見ると、明らかに額に直線入ってる事あるけど、あれは何?ってこと wwwwwww 1スレ目の1レスから全部みてこいw
>>310 いや、色違いの問題じゃんくて、横線が出てるんだよ ハッキリ線に見えるときもあるし、段差みたいになってる事もある 首とかにも発生してる事有るみたいだし まるで、顔に四角い顔素材あてがって、角落としてない みたいな状況になってる場合が多々あるみたい よく考えてみたら、首のほうが多かったかもしれん >>311 あほ キーワード 線で検索したが 一切載ってないぞ 首あたりに線が入るのは古いバージョンの時にあったな 最近のコンバートは賢くなって全く出ないはずだけど
職人のは大量生産だから、erodeとかblurとかいじっていないのではないでしょうか コンバート時に時間のかかるFAN-dstもやっていないのでは 顔の前に手がかかると、手の上に顔を合成しようとして、手がボケボケになり消えていると言う 時間のかかるMaskはしないでしょう srcを抽出しようとしたら、大して似ていなかったぞ
>>314 検索した時、あたらしいヤツのほうが線が出るって検索結果があったから 現状治ったのか聞いてみた >>316 これはひどいな。FaceSwapじゃん。blur大きくして、なじませられないのか? >>317 convertにFAN-dstができる様になった新しい版から 境界のなじみは悪くなっている様な気はします blur大きくして、erodeマイナスにして、何とかカバーしている様な気がします 顔の前に障害物の無い動画限定ですが convert時にFAN-dstができる様になる前の版を使うのもありかと。0620版とか >>316 >>317 H128とかハーフフェイスを使用すると、ひどくなる場合もあるかと思います DF、DF256、SAEHDでフルフェイスを使用するとかのがいいかと PCスペック低くてlawなんちゃらでconvertしてるだけでは?
まあ、実際やってないから専門用語とか全然分からんけど 合成時、どんな髪の毛だと合成困難なの? やっぱ、顔も体もデコ見える状態が一番楽なん? 目の横とかに長い髪かかるとか、面倒くさそうなんだけど
erodeとblurを上下左右分けて指定とかできるようにならんかな
>まるで、顔に四角い顔素材あてがって、角落としてない みたいな状況になってる場合が多々あるみたい だから過去スレ全部よんでこい
>>323 どうせ読んでも理解できないんだからほっとけよ それで分からない池沼どもが溢れここもあそこも荒れ果て糖質の巣窟になっちまったとさメデタシメデタシ
咀嚼しているdstをうまく活かすにはどのようにすればよいのか。先輩方ご指導お願い致します
>>325 検索で見つかる DeepFaceLabを使った、Deepfakeの作り方 【DeepFaceLab】インストールと使い方2019 は目を通してみた? >>325 尺の短いdst動画を作って、convert option実際に色々試してみればいいと思うよ それから過去スレに目を通せば、分かりやすくなっている >>325 最低限使用するbatファイル 2) extract images from video data_src.bat(1-3fps程度推奨) 3.2) extract images from video data_dst FULL FPS.bat 4) data_src extract faces S3FD best GPU.bat 4.2.2) data_src sort by similar histogram.bat 5) data_dst extract faces S3FD best GPU.bat 6) train DF.batまたは6) train H128.bat 7) convert DF.batまたは7) convert H128.bat 8) converted to mp4.bat >>325 動画制作のおおまかな流れ 素材を準備する 素材動画を全フレーム画像で書き出し 顔部分のみを抽出 誤検出された画像を削除 学習させる(train) 顔を移植した画像を書き出し(convert) 書き出した画像を動画にする >>325 workspaceフォルダを開きます data_dst:ベースとなる顔データファイルを格納するフォルダ data_src:上書きしたい顔データファイルを格納するフォルダ model:train後のファイルが格納されるフォルダ data_dst.mp4:ベースとなる顔データの動画ファイル data_src.mp4:上書きしたい顔データファイルの動画ファイル 最初にサンプルデータが入っているので、そのまま実行して流れを確認できます。実際に使用する前には削除して"ファイル名はそのままに"ファイルを入れ替えます。 data_dst.mp4の体、顔の輪郭、髪型を生かして、data_src.mp4の目、眉毛、鼻、口を貼り付ける >>325 DFLはフリーの動画編集ソフトなどで 動画の縮小、拡大や、トリミング編集(カット編集)などぐらいはできる人が使用する物です 例えばAvidemuxとか。お好みで 動画編集ソフト、使い方などは検索してね 検索で見つけられなかったら、QAサイトへGo >>325 1回、data_dst.mp4は540pとか480pに縮小して、dstは顔のどアップでもない動画、尺は短い物を作成 data_src.mp4はつべのインタビュー動画などから切り出せばいいでしょう data_src.mp4は1つの動画で、顔の画角、表情が色々あるのが望ましい 少なくとも、かんなちゃん、すずちゃんはよさげな動画はつべで見つけられた 最初はsrcは映画やTVドラマからではなく、できるだけ1人で映っている動画が 4.2.2) data_src sort by similar histogram.bat で別人物、顔ではない物を削除するのが楽 最初はDFでもいいやつ、顔の前に障害物が無いdst動画が楽 1回、一通り作成してから、過去スレに目を通せば、より分かりやすい >>325 確かに最初から>>325 だと少し分かりづらいかもね そういう時は、>>328 だと、日本語で少し噛み砕いて書いてある URLと短縮URLはNGワードで貼り付けられなかった まあ、検索すれば分かるかと その後でいいから、過去スレや>>325 には一通り目を通してね 輪郭に対して、顔パーツを少し上や下に移動して配置することはできないのでしょうか?
モデルの使いまわしは、学習速度を早くできるけど、使いまわすことの弱点とかありますか?
何ヶ月も使いまわしでずっとやってるけど、何も問題ない
自分でやってみてよくわかったのですが、 srcの元の顔の特徴もよく とらえてるし、 dstが笑えば、mergedも笑うし、本当によくできた技術です。
あと何年くらいすれば、 映画まるごと、キャラを置き換えるくらいになりますかね?
技術スレって蓄えていくものだと思っていたけどそう言うのはど返しで毎回一からなんだな。
4k、8k放送や動画で、高解像度のsrcが大量に入手できる様にならないとね TVの買い替えの時、4k、8k TVを購入している人も多いそうですが、 4k、8kコンテンツを見ている人がいったいどれだけいるのかと 地上波で既にチャンネルは多いし、4k Ultra HD Blu-rayは購入のみなので高い PCで4k Ultra HD Blu-ray見るのもかなり高いPCが必要で、面倒くさかった様な 4Kがレンタルに回ってくる事はないのでしょう。未だにDVDだし 4k動画のダウンロードサービスはどの程度の市場規模なのかな? GPUのコア数とVRAM容量も増えないとね。半導体も物理法則の限界近いのか? なんだかんだ言って、ゲーム用途が一番市場を牽引しているのか? 8Kモニタは近くで見るPCディスプレイとしては、大きすぎて、視線移動が多くて見づらい気もします 今8Kだと60fpsぐらいになってしまうのか?ゲーマーはfps優先なのかな?
srcを別の人に変えてみたんだけど、 src-Aと、src-Bの中間くらいのモデルが学習できたみたい これは、これで萌えますね なんだろう、この奥深い技術は・・・
ド返しとか言ってるからろくなモンできないし道具の文句言うようになるんだぞ バカには使えないようになってるんだ
ふと過去スレメモ見返してたら技術の情報交換活発で勉強になる。 最近は頓珍漢な奴が住み着いてるようで全く話が噛み合わず無駄なレスも多いので(参考になるレスもあるが)過去スレ見返す方がお勧め。
明日から、中国で「パスワード法」が施行されます。 ネットの個人のパスワードを中国政府が管理し自由に閲覧可という恐ろしい法律です。 中国製アプリにも適用される可能性があると見なして良いかと。
>>349 過去ログ嫁と言われて読んでみたが有意義な話など何も無かったぞw 今と同じで糖質がやたら連投してるだけ。 DFL信者ともいうべき糖質が棲みついていて、DFLのアホさにケチを付けると激高するというか。 眉毛問題がその最たるもの。 ここはDFLのノウハウに付いて質問したり、回答したり、技術スレ 質問は過去スレ、Manual、Tutorialに目を通してからにしてね DFLが嫌なら自分で開発すれば? 何もできないくせにやたら偉そうだな
>>351 そういや確かに 眉毛が二重になるとか訳もわからず騒いでた奴はいたね >>351 顔の前の障害物は、Mask Edittorでマスク作業とかしてください Maskした物でFANSegモデルを自分で改善してください Convert時にErodeの値をいじってみてください そもそも最近のアイドルなんかのブサイクでやっている奴の気がしれんわw 48人セット販売とかでないと売れない奴らだろw 握手券セットで1人がCDを複数購入するアコギな商売だろw 最近のアイドルは、あまり美人だとかえってまずいらしい あまり美人だと、自分など相手にしてくれそうもなく、 クラスの何処にでも居る様な美貌の方がいいらしい 確かにセット販売に美人はおらんな 確かに美人だとバラ売りしないと勿体ないな これなら無臭の女優さんの方が美人がいるぞw 無臭を見慣れていない奴が騒いでいるのか おじさん、おじいさんにとっては、若い女の子はみな美人だしな いくら何でもひどいな。老害かよ
自分は眉毛問題に悩まされてはいないので、やる気はないのだが LandmarksProcessor.pyをいじって、眉間のV字カットや 眉毛は顔ではないので、眉毛の未抽出ならいくらでもできるぞ 別にPython知らなくてもね FORTRAN、BASIC、C、アセンブラ、VHDL、Rubyのいずれかぐらいは書いた事もないのか if then elseとかforループとかの制御構造の概念は共通かと どうせ無償だから、自分はやらないよ
眉毛問題を、他人に解決してもらうとすれば 上手く行かないdata_src.mp4、data_dst.mp4、srcとdstのfacesetなど他人に提供する必要があるな それは日本においては、著作権侵害に該当する恐れがあり、あまりおおっぴらにはできんな あと、いくらくらいまでなら、金を払うのよ 無償のやつは気が向いた時な エラーとならない事までは確認はするが、train/convertの結果は知らんよ
ID:HYV6Dy ID:HYV6Dy ID:HYV6Dy
>>351 srcに前髪がある場合、前髪は顔ではなく、顔の前の障害物なので 過去スレにあった4.3) data_src mask editor.batなど使用して srcの前髪をMask 過去スレにあった6) train FANSeg.batなど使用して、 FANSegモデルなどtrain mask editor未使用なら、そりゃあ上手くいかないよ でこだしsrcを収集するのがもっとも手がかからない convert時にerodeを変更 しかもそいつ自分のこと棚に上げるわ賢いと思い込んでて埒が開かない
しかしmask editorも使用できない奴は、DFLとか使うなよ mask editorも使用できない奴は、眉毛に前髪がかかったsrcは使うなよ 顔の前に障害物などないsrc/dstだけにしておけ 顔認識、顔抽出において、顔とは何か分かる? 髪は顔ではない。顔の前の邪魔な障害物 眉毛の無い顔は、人間の顔ではない
若い女の子が、眉毛の上を前髪でおおう気持ちは分かるが その分、顔としての特徴は出づらいでしょ? 美人なんだか美人でないのかも分かりづらくなるかと
過去スレを読めば 別にPythonは知らなくても LandmarksProcessor.pyをいじって、眉間のV字カットや 眉毛は顔ではなく、顔の前の障害物扱いで、眉毛の未抽出ならいくらでもできるぞ
Deepfake国内二強 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 Deepfake番外編 総本山 どこかに存在するというDeepfakeコミュニティ。その存在は謎に包まれており使者と思われる一部が情報を小出しに伝えるのみで、 高度な技術を持った複数の職人が最高の作品を公開しているといわれている。なお最新の研究では脳内の神経細胞の変性消失により出現するコミュニティではないかとの研究結果が報告されている。
しかし、笛や舌や前髪など十分に学習した、FANSegモデルであれば、有料でも買うかな いくらくらいが相場なのか分からんが 500円?1000円?2000円? どのぐらい学習したモデルであるのか、デモでも必要だな お金の支払いはE-mailタイプのアマギフか、PayPalでの寄付あたりかな PayPalはアカウントだけ持っており、使用した事は無いので、よく知らんが GoogleドライブかMega.nzあたりでファイル共有して お金を支払った人にだけダウンロードURLを通知するとか
本スレや素材スレで暴れているやつは、2080Tiを持っているみたい いいハードを持っているのだから、問題はハードの制限では無い せっかく2080Tiを持っていると言うのに Maskもできないあんぽんたんには宝の持ち腐れみたいね DFLはMaskもできない人には不向き。辞めれば?
>>358 >そもそも最近のアイドルなんかのブサイクでやっている奴の気がしれんわw 最近のしてる日向坂の金村美〇って知ってる? そいつは知ってるがブス ファンが橋本奈々未の後継を唄ってるがやめて欲しい
mask editor起動すると Default eyebrows expand modifier? (0..400, skip:100) : と聞かれ、デフォルト、小さな値、大きな値で顔の範囲がどうなるか試してみればいいだけ
>>358 ここは技術スレだよ 後半の長文いらないんじゃないの 本スレも読めないのか 日本語も通じないのか >>30 の手法が画期的だと思うので、試させてもらっていますが erode = -100とかだと上手くいかないみたいです 当たり前か?erode = 0とかにしました >>378 そだね 眉毛の無い顔は人間の顔では無いので、顔認識、顔抽出の対象外だね 人間の顔では無い物は顔入れ替えの対象外だね DFLの使用は言わば無理やり しかし未だに眉毛問題に悩む人が、LandmarksProcessor.pyを修正して 眉毛の未抽出も試さないとは Python知らなくてもできるって DFLに文句たれる奴は、黙って自分で修正している
srcに眉毛が無ければ、srcの眉毛は再現しようがないのは道理 出来上がりが極太眉毛になるのか? LandmarksProcessor.pyのeyebrows_expand_mod=1.0の値を修正すればよかろう 眉間V字カットは過去スレにあったな 上手くいったと言う報告のカキコが無い様だが
眉毛問題って何?知らんがな 金にもならん事はやらんがな まあ、気が向いた時だけ Pythonはインタープリタ型言語の様で、ソースコードはTextファイルとして見えており DFLに不満のある人などは、自分で修正ぐらいしますがな ここは技術スレなんだし 本体がVersion Upしていくので、できればカスタマイズしたくは無い面もありますが 自分で直している人も、わざわざ公開はしないかもね
長文君にアドバイスするとすれば 過去スレ過去スレ言うんだったら 今自分が書いてる文章が、将来検索された時に参考になるのかどうかを考えてほしい 自分で気づいてないんだろうけど、長文君のは駄文だ
カリスマだのキングだのと自画自賛、承認欲求爆発させてるヤツのことかっ!
>>384 失礼だけど少し黙って貰えませんか? 無視すれば良いのに反応するから居座るんだよ data_src\aligned画像の選別ですが、顔の前に障害物のある画像は削除した方がいいと思います 顔の前に手、前髪などある画像は削除 伊達メガネは学習により綺麗に消える事も。プレビュー画像では
DFLですが、最初は顔の前に障害物のないsrc/dstでやった方がいいと思います 笛動画などはMaskせずともFAN-dstでのConvertだけで上手くいく物もあります Maskしていない場合は、あまりerodeマイナスにできない様ですが srcに障害物がある場合は、FAN-prdも使うのかな? srcに障害物がある場合は、あまりいい Facesetではありません コンバートオプションの調整だけでは上手くいかない様な場合は Mask Editorを使用して手動Maskが必要になります
過去スレでどなたかが作成してくれた 4.3) data_src mask editor.bat を使用してsrcにMaskが必要となる場合があります FAX-xxのConvertだけでは上手くいかない場合 Convertオプション、特にerodeをいじっても上手くいかない場合 など
FANSegモデルをtrainする場合は、全ての画像をMaskしなくてもいいみたいです 4.2.6) data_src sort by best.bat 5.3.other) data_dst sort by best.bat などを使用して、間引いた画像に対してmask editorを使用してもいい様です
mask editorを起動して Default eyebrows expand modifier? (0..400, skip:100) : に対して、0にすれば、眉毛の上が狭くなります 400にすれば、眉毛の上が広くなります 眉毛ごん太君に対しては、Default eyebrows expand modifier:0かな 額の色違いに対しては、Default eyebrows expand modifier:400かな
srcにmaskすれば、前髪生えないって本当? src全部に手動でmaskって、かなりの手間だと思うんだけど。
>>395 本当。もちろんlearn maskでtrainして convert時もlearnまたはlearned * fan-prd * fan-dstにする必要はある。 手間はsrcへの愛でカバーしてくれ。 iperovはFANSeqモデルのtrainのため、Facesetを募集していたそうな しかしコミュニティの誰もが反応しなかったそうな コミュニティのみんなはDFLの作者ではなく、FANSeqモデルにピンとこなかったからかもしれない 公式ビルトにFANSegモデルの改善を盛り込みたい、FANSegモデルの改善を反映して欲しい場合などは iperovにFacesetを提供すれば、彼は採用するかもしれないし、採用しないかもしれない iperovへのFacesetの提供などは、プライベートメッセージなどで、こっそりとね DFLの使用は最近なので、iperovは英語なので、英語のコミュニティに頻繁に出入りしている訳でもなく iperovのFANSeqモデルのtrainのため、Facesetを募集していた事は、気づきませんでした。知りませんでした
>>216 普通に入る、m1にもcore500にも乗るよ iperovはDeepFaceLab_CUDA_10.1_AVXはリリースしなくなりました DeepFaceLab_CUDAでGTX / RTX対応らしいです DFL内部に抱えているCUDAは9.2のみになりましたね 今の所、CUDA10.1を参照しても、tensorflow-gpuはCUDA10.1でも動作しています show-tensowflow-gpu.py import tensorflow as tf print(tf.__version__) C:\Program Files\python-3.6.8>py show-tensowflow-gpu.py
過去スレより H128でdstの眉が使われてしまう問題はDFでtrainしてerode=-200でconvertすることで解決する。 erodeをマイナスにすると言う事は、それだけ前髪のMaskをきっちりとやらないと 誤魔化しが効かないのでは?
>>385 こいつがこのスレに棲みついてる糖質だよw 眉毛問題持ち出してDFLの無能っぷりに言及すると発狂して連投するからスルーするしかないww >>395 全部にする必要はない。 普段はlearn mask offにしてmask無しのalignedを十分学習する convert前にlearn mask onにして適当に間引いてmaskしたalignedのみを学習 previewで5列目のmaskを確認してからconvert このスレでは、DFLの使用方法とかノウハウとか色々と教えてもらって、ありがたかったですけれどもね DF256モデル等のカスタムのpyの作成とかもありがたかったです DF256モデルのオリジナルの作者はSAEHD使いなので メンテは引き継いで実施しています。他にもメンテする人が現れるとありがたい Maskかぁ。時間がかかりそうですけれども、原理的に仕方がない事ですね
iperovはtensorflow-gpuのビルドし直しはしていないのかな RTXでは、CUDAは%CUDA_PATH%;%CUDA_PATH%\bin;%PATH%の参照で CUDA10.1までであれば使用できています tensorflow-gpuはpythonのVerが新しすぎたり、CUDAのVerが新しすぎたりすると、ビルトできないのね 知らなんだ
tensorflow-gpuのインストールも、pip install tensorflow-gpuだけで済めば楽ですが 少なくともCUDA 10.0にはなってしまう様ですね CUDA 10.1と対応するCUDNNでの、tensorflow-gpuのインストールは えらく難しく、手順が長いですね。できませんでした そこまでいくと、本物のプログラマーやLinux使いとかでないとね
>>407 白石麻衣にしなくても、この子で十分かなぁ maskの話題ついでって事で確認したい @extract後のlandとmask範囲が輪郭とか鼻先までキッチリ合ってないと良くない? Asrcの場合、mask範囲が実際より広い場合と狭い場合(それぞれ極わずか)では前者の方が良い? B角度的にmanualのaでもlandがキッチリ合わない場合、maskで適正範囲をとれていれば問題ない? C@が是の場合、笛マスクなんかと同様に、ある程度の割合で正確なマスクが混ざっていればtrainで巧く処理される?
>>407 白石なんて始まってもいないオワコン。どうでもいい DFLの新しいVersionになると、train時にsort by yawが無くなりましたが、 いったんdata_src\alignedとdata_dst\alignedを混ぜて sort by face yawして、srcが余っている様な所は 手動でどこかに待避すればいいのでしょうか?
2080Ti搭載可のPCも持っていないから、BTOでPC丸ごと購入すると サイコムのデュアル水冷PCなどありますね G-Master Hydro Z390 IIとか お好みのカスタマイズありで、440,640円とか 結構高いですね 2060Superをお持ちの方は、DF、DF256、H128、SAEHDなどで、可能なバッチ数は どのくらいなのでしょうか? VRAM 24GBあっても、DF256で18.6GBしか使えていません 5GB以上も余っていると言う 持ってもいない環境で、プログラムをサポートするのは、非常に難しいのでしょうか
高性能GPUが必要なのは理解できるが、CPUはどうなんだよ? そもそもこの場合、CPUって何に必要なん?
ちゃんと外部のサイトで調べたほうが良い 今のこのスレは全然参考にならない
マジレスすると各ステップの処理実行時にタスクマネージャーやvmstat、nvidia-smi等で リソース消費状況自分で確認。不足しているリソースを追加しろ。
DF256のtrain中はCPU使用率は9%〜39%ぐらいで変動しています i9-9900K CPU速度も変動しており、4.89GHzぐらいでる事も K付きCPUしかBTOで選択できなかったのだが、K付きCPUを買ったのは初めて UEFIでOCしていないのですが、必要時CPUクロックが上がるのね。知らなんだ カスタムTrainer.pyをDFL1220版で使用しています save_interval_min = 3、こまめにプレビュー画面を更新、モデルデータをセーブ 2台のディスプレイ出力はオンボード接続 プレビュー画面の更新とモデルデータのセーブにCPUが必要な気が Covert時にCPU負荷が上がるのでしょう DF256のtrain中はシステムメモリの使用:12.3GB 利用可能19.5GBとか BTOのデフォルトは16GBだったのだが、NVIDIAの推奨最低がVRAM容量だったので 32GBに載せ替え。載せ替えして余裕ができよかったかも SAEHDでOp3とかにすると、システムメモリの使用が上がるのか? SAEHDではシステムメモリ16GBでは不足かも
>>416 質問の大半は、過去スレに既にあり、新規の質問も少ないかと たまに新規の質問/回答があり、たまに新規のノウハウの提示があるので まだこのスレの存在意義はあるかと。無駄レスが増えている様な気もします あと白石麻衣の話などは素材スレが適当なので、スレチかと VRAM多いと、回せるモデル、バッチ数などは増えます DFLの版数アップにより新規trainが必要となる時などVRAM多いとありがたい トライアル&エラーが続く場合はVRAM多いとありがたい 24GBは使い切れていない様で、勿体ない面もあるかと VRAM普通の容量でも、初回モデルの作成まで我慢すればいいだけかと 2080Tiとか搭載可能な、筐体、電源容量の大きなPCを持っている場合、 筐体内のFANが多い場合などは、VRAM11GBを中古でGetできればコスパはいいのかな? 中古は運が悪いと、地雷なのかな? >>417 nvidia-smi教えてくれてありがとう CUDA 10.2?? CUDA 10.2はインストールしたつもりはないのですが CUDA 10.2だとtensorflow-gpu、DFLは動作しないかと思いましたが WindowsではELSA System Graph便利かと思い、既に使用しています Temp:85℃とか。一番不足しているリソースはFANで冷却不足 なので、少しFANがうるさいのかな パソコン工房、BTOでFANの追加とかさせておくれよー BTOで1200W電源とかに変更させておくれよー TITAN RTXをBTOで水冷にしてくれるBTOショップは見つけられませんでした >>420 無駄レスが増えている様な気もします お前が1番無駄レスしてるの気付けよTwitterにでも行けよ 動画じゃなくて画像で良いからAとBを合わせた画像をすぐに作れるソフトないかな
数枚なら手動でやればいいし大量ならDFLでやればいいし
>>423 顔認識がずれてるだけでしょう。 多分これはDFLのLIAEFだね >>414 関連で、みんながどんなGPU・CPU使って、どうい使い心地なのか知りたいな 特に性能に余裕が有る場合はともかく、ちょっと性能足りないですみたいなレスは 参考になると思う RTX Tiの最上位機種って、GTX Ti最上位の5倍以上するのかよw やっぱ、RTX TiやめてGTX Tiにしとこうかな。。。 今あるPCに加えて追加でもう1台PC組んで、双方にGTXのっけて分業 とかどうだろう?
抽出や手動抽出はGTXの古いやつでも出来るからサブ機あるとやっぱ便利だな
顔画像抽出の精度を上げるにはどうすればいいですか? 取りこぼしが多くて(10%以上)手動で修正するのが大変なんです
対象動画を変えるしかない。 ソース動画の顔の角度が厳しかったりブレたりしてることが原因と思われる。 その動画で作っても出来はイマイチだから、別動画または別シーンで作ることをお勧めする。
FANSegモデルをtrainしていると、少ないiter数にも関わらず、 すぐにモデル崩壊?してしまう場合があります いきなりLoss値が急に跳ね上がって大きくなる事があります 学習srcにMask済の顔画像 学習dstにMaskなしの顔画像 だけだとまずいのでしょうか? 学習srcにMask済の顔画像+Maskなしの顔画像 学習dstにMaskなしの顔画像+Mask済の顔画像 なのでしょうか?
>>434 ありがとうございます >角度が厳しかったりブレたりしてる まさにおっしゃるとおりです せっかく長い時間かけて抽出して学習も進んでいたので破棄するのにためらいがありましたが、おかげで踏ん切りがつきました srcはもちろんdstも素材選びから大切なのですね 勉強になりました 何で元顔動画から合成出来るのか意味解ったわ 人間誰しも殆どの場合、瞬きしたり口開けて喋ったりしてるんで それだけで既にいろんな状況の表情を再現できるという事だろうな 1つの顔を目と口のデータにバラして、それを福笑いみたいに置き換えると いろんな表情が出来上がる
>>437 お前は何を言っているんだ?data_srcがdata_dstに憑依するために Deeplearningという儀式を行うわけなんだが。 そのあたり表層的に勝手な解釈して理解したつもりにならないように。 >>437 >>2 deepfakesとは? AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、 decoderを入れ替えることにより、AとBの顔を交換する手法。 iperovはFANSEG_data.datは残していってくれなかった様な気がします FANSEG_data.datがあれば、iperovのFANSeg_256_full_face.h5に対して 追加学習で改善ができる様な気がします 今FANSegモデルは新規学習になってしまうかと
>>429 DFL使用しなくてもPCは2台持ちがデフォでは? PCが壊れたら何もできない。PCを通販で買うことさえもできない DFL未使用で、気兼ねなく使える3台目も欲しくなる気がする 年食ってから脱いだタレント女優の顔に、若い頃の顔を貼り付ける 当然の事ながら、めっちゃ馴染んだわw
>>445 高岡●紀とかいいかもな デブ化する前の小向●奈子とかも >>446 ありがとう 写真集でも十分いけたけど、水着時代とかの顔を使用すれば、更にすごいものができるかもね 静止画アイコラなんかもDFLを使用するのが手っ取り早いかな? >>448 あの人はおっぱい垂れ下がってるから 顔移植しても婆婆体型に泡なさそう 胸の大きな人は、脱がないうちが花かなと思います 脱ぐと垂れ下がっていたり、乳輪が大きいとか Gカップみさちゃんあたりが限界の様な 最近一作だけ復活しましたね つなちゃん、みうちゃん、ツバキちゃん無臭で復活しないかな? 憂ちゃんや結衣ちゃんが修正に行ってしまって寂しい
>>447 普通のアイコラを作ってた経験からいうと 角度や色合わせまで自動、表情も元画像にないものが量産できるのは画期的だなあと src元画像を活かした剥ぎやぶっかけはdfではできないのでそれぞれ良さがあるなと思ってるよ 他人の好みに口を出すなんて野暮だな 自分の好みを見ていればそれでいいじゃないか
srcのソースに異なる傾向のメイクとかすっぴんを混ぜると似なくなる気がする アスリートとか中堅女子アナはイメージが固まりやすいのか成功率高いかも
ID:8drjh0qp0スレチ過ぎる。総合でやって来いよ じじいの趣味なんて知らねえし誰も興味もねえよ
まあ、そうだね 途中から素材スレの方がいい話題になってしまった srcに前髪ありは、難しい素材をやっているみたいね 前髪のMaskをきっちりやらないと上手くいかなかったりするみたい ご苦労さま
モデルの使い回しについて聞きたいんだが、srcはそのままで、dstだけ別の女優に変えたい場合はどうすりゃいいの? data_dstフォルダの中身だけ作り変えて、modelフォルダ内のsrc関連ファイルだけ消すってかんじでおk?
modelフォルダ内のモデルデーターを念の為バックアップコピー data_dstフォルダの中身だけ作り変え。data_dst.mp4も目的の物に差し替え modelフォルダ内は消さない。継続トレーニング 別にmodelフォルダ内のsrc関連ファイルは無理に消していないけど 継続Trainしたら、やがていい感じに
せっかく作成した、data_dstフォルダも別名にしてバックアップコピーとかしておけばいいのでは? data_dst集とかフォルダを作成して、dstの女優さん名のフォルダを作成して data_dst集\麻○憂\麻○憂1とか作成しています
せっかく作成した、data_src\alignedフォルダも 広○す○とか橋○環○フォルダとかに、バックアップコピーしています
爺って話で思い出したけど、難敵は聖子ちゃんカットだな 今、あの髪型したAV女優おらん しかも今頃のは大抵茶髪だから、更に難物
例えばmodelフォルダ直下に srcの女優さん名のフォルダを作成してモデルデータをバックアップコピーしています 新○結○とか能○玲○とか 場所はお好みで 事故を防ぐために、1) clear workspace.batは削除した方がいいかと
>>460 違う女優でも消さずに継続した方がいいの? 顔混ざったりしない? >>465 それは2つの意見がありまして どちらかというと、srcごとに0から新規に学習し直し派の方が多数かな 消さずに継続すれば混ざる恐れはあります >>461 >>462 alignedは画角など厳しい場合、顔のパーツの全てが入っていない場合などは、 手動抽出している物もあり、消すのは勿体ない DFLもVersion Upで、レベルダウン?も発生する可能性もあり、 過去のVersionの方が安定していたと思う場合などは DeepFaceLab_CUDA_10.1_AVX_build_date.exeファイルなどは ある程度は残しておいた方がいいかもしれません まあ、Googleドライブ内に過去Ver. 3つまでありますね 無いVersionもあって、飛んでいますね スキップして欲しいVerなのかな?
ガイドは修正中または更新中です。すぐに更新される予定です。 DeepFaceLabバージョンの変更ログ: は追加になりました
8TB HDDもTBあたりの単価はリーズナブルになってきたかもしれません Amazonで¥14,103とか。Seagateになってしまいますが Mouseもパソコン工房、ユニットコム、by iiyamaも Seagateを採用しており、Seagateでもいいのかも知れません 以前購入したSeagateは動作音がうるさかった記憶があり 基本的にWDにしていますが
>>471 日替わりでNGするの面倒だからコテ付けて dstを完全にMaskした場合、FANSEGでTrainするより FAN-xxでConvertせずに、 learnedでConvertした方がいいのでしょうか?
>>477 こういうやつは聞く耳持ってないから諦めるしかない 文句が有るなら自分で話題提起して書き込めばいいだけ 文句言ってるやつは一切それしてない その行為は素人がどうこうより問題がある
回答する側の人は、特に質問がない様なら、FAQみたいな物でも書いてしまえばいいのでは? 特に回答も質問も無いのであれば、わざわざこのスレに出入りする必要、意味も無いのかと スレが埋まったら、まとめを作成するが、特に技術関係ではない無駄レスが多くなったな
Deepfake国内二強 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。 国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の 大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。 転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの 嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。
しかし、技術技術と言っている奴らが、Python修正して他人に提供してもいない訳だ プログラムも修正できない奴が、賢いと思われる事があるとでも思ったのか? おまえら短文だが、スマホからかよ スマホの奴は消費するばかりで生産できない 他人には貢献できない。どうでもいいね
自分にとって有益な情報だけ見たいってのも傲慢なガキっぽいし、日記もスレ汚し たまに質問があっても誰も答えられてないケースも多い
>>491 俺もそんなに嫌いじゃないよ色々書いてくれてるしね 突然始まる連投と自分語りと他人の好みの否定がちょっと鼻につくだけだろ おおらかにやろうや 俺が知っていることは無駄だから書くなマンがいるからな
まぁ結局、質問スレではないから フォーラムのガイドと過去スレ見てから聞いた方がいいとは思うけどね。 ただ親切マンは結構多いから、運がよければ答えてくれる。
>>496 連投 自分語り 他人の好みの否定 こんな奴いらないだろ おまえらまとめZIPくれたからってコロっと態度変わってんじゃん
無駄レス連投マン「無駄レス省いてまとめたぞ」 果たして自覚は有るのか無いのか怖くて見れないよ
>>501 ありがとう ところで、みなさん、グラボの温度は何度くらいでしょうか? 4.2.other) data_src util faceset enhance best GPU.bat できたので 5.2.other) data_dst util faceset enhance best GPU.bat できますね @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" facesettool enhance ^ --input-dir "%WORKSPACE%\data_dst\aligned" pause 効果の程は不明ですが
>>おまえら短文だが、スマホからかよ スマホ認定w
このスレは質問、回答スレかと思っていたが ノウハウの交換、技術の交換などか 質問、回答はおまけかな ノウハウも過去スレまでで、ほとんど出尽くした?
大体出たね 新機能リリースされたタイミングで当該機能に関する話題になり、 副次的に既存機能に関する新たな発見が出ることもあるってとこ
TRAIN前に自動でsrc,dst全てにFANSEGでmaskするようにしたら、変換時にlearned maskだけでいい笛吹が出来ました。 このスレでの情報に感謝して、報告しとく。
>>496 そういうのいいから。別スレ立ててお前が面倒見ろよな。 聞きたいことを纏めて尋ねられないのは迷惑なんだよ。指摘を受けての改善もないわけで、害悪でしかない。 >>510 ModelBase.py変更のタイミングで、カスタム256モデルとかメンテナンスとかしているんですけども 害悪とまで言われるのも心外ではある >511 Python書き換えて事前FANSEG出来るようにした。 コンバート時にFANSEGしなくても、learned maskだけで、かなりいい感じ。何よりコンバート時間短いのがいい。 改造版は配布はしてるが、ここで公開する気はないです。
ん?自動で口マスクしてるってこと?ちゃう? 自動口マスクならlearnのコンバートだけで 抽出時のランドマークずれで顔の輪郭がクズレナイノモ納得。
>>514 convert時のFAN-xxを省けて事前にやっておけるのか。 そりゃめちゃくちゃいいじゃん。 デメリットはないの? マスクしてるのは舌と髪と障害物。 originalのDFLだとmaskの反映されないけど、TRAINも改造してあるから、デメリットないよ。 convert自体も、輪郭と障害物のerode blurを別にしたり、顔の上の方を任意の高さで切れるように改造した。
DFLにてモデル別の色合わせやすさとかって、誰か検証したりしてる? そもそもモデルと色合わせって全く関係ない?
眉の上をどこまでとするかはLandmarksProcessor.pyのeyebrows_expand_modの値をいじることは思いついたのだが src眉毛前髪かかりだと値は小さく、デコ出しdstだと値を大きくすると、境界の色の違和感減るかもね Full Faceにして、erodeマイナスにして顔の変換範囲を広くすれば、境界の色の違和感減るかもね
DFLの内部に抱えているPython、本体Verによって微妙に違うな 古いVerだとimportしている物が多いのかな まあ、それでトラブルに見舞われるのは自分くらいだな
>>518 色合わせの検証は今まであまりないかな。 trainでmklなどやっておいてconv時にrctなどミックスさせるとかはあったけど。 pythonは2系と3系でコーディング規約違うしな DFLは3だったかな
まあ5ちゃんは無駄レス、冷やかしレスが大半なのはどこのスレでも QAサイトではないしな。このスレはQAスレではないしな。回答がつくだけでも儲けもの QAサイトでもマイナーな質問は答えづらいかな 色合わせは静止画編集ソフトを駆使できる人は、mergedをいじって思いのままなんだとか まあ、外部サイトで検索。外部サイトでQA。本スレはスレチ
前にextractor512はファイルサイズ大きくなるだけって書いたけど、超アップにしてみたら少しクッキリになってた 背景と輪郭の境とか歯の隙間が比較しやすい ただmask editorは線の起動が重くなるので、多用するケースではしんどい
初歩的な質問でごめんなさい src同一人物データの混合は 良くないものでしょうか? 素材が増えてきて上書きのように しています。
src同一人物データの混合とは何を指すのか、明確でもないけれども、 例えば最初はsrcはつべでのインタビュー動画だけでした 画角、表情を補いたいとか思い、映画やTVドラマなどから追加で抽出 など素材の追加であれば、仕方がない事の様な気がしますが 活動期間の長い女優さんなどだと、年代が違えば顔もある程度異なるかと メイクばりばりとすっぴんとかだと、顔もある程度異なるかと DFLでTrain時のバッチ数を大きくできれば、1つの顔データだけに左右されず 平均化、平均した特徴をとらえられます Train時のプレビューで別人が混ざっている事が分かりました。しまった 削除しそこない。切りのいいところで削除しましょうね 1顔画像データーぐらい別人でも、大勢に影響はない
公式ではsrcは2000〜5000枚程度が推奨されていまして 少なすぎるとうまく顔入れ替えができない事もあるでしょうとか 多すぎるとTrain時間が長くなるだけでしょうとか言っています srcの枚数からして、動画からの切り出しが基本なのでしょうけれども 仕上げの高画質化に、高解像度の写真、写真集やグラビアからの顔画像を 追加している人も多い様です
>>528 >>529 ありがとうございます。 他番組の素材が色々と出てきまして 高画質の表情だけ混合させています。 このまま学習させて様子を見てみます。 >>527 いろんな角度、表情が集められるなら1本の動画からでもいいけど現実的ではないから自分は混ぜてる 動画が長いなら1fpsで抽出するとか似た画像削除するソフト使ったりしててきとうに間引くといい やっぱ素材同士の輪郭と顎の線が一致してたら完璧なの?
多分動作すると思いますが CUDAコアがあり、CUDA10.1とかサポートなんでしょ? であれば動作しそう しかしVRAM 48GBだとDFLが使いきれないかもしれません モデルにもよるのでしょうけれども DF256だとVRAM 24GBでも余っていて、勿体ないな
>>538 2080 Tiが11Gだけど、11Gだと丁度使い来るくらいなんかな? 2080tiは使いきれるね リソースモニターで見ても。高バッチだと足りなくて もうちょい欲しいくらい
>>538 いちおう Quadro RTX 4000 の仕様表にCUDAって書いてある Quadroは色が10bitらしいけどGeForceって何bitなん? そもそも、DFLとかって10bitに設定出来るの? VRAM 24GB DF256 JPG256エンハンス済で バッチ:48とか VRAMの消費は18.6GBとか バッチを4少なくしても8少なくしてもVRAMの消費は18.6GBで変わらず 512PNGとかだとVRAM使用が多くなるのかな? でも512PNGで画質向上効果は試してみないと何とも SAEHDでdims:1024、Op:1とか目いっぱいにすると、落ちて動きませんでしたな
VRAMあればあるほど高画質設定でbat増やして使いきれるじゃん
>>542 2080TiのUser Guideに plus HDRとかHDMI Deep Colorの記載が 12bitとかじゃね?最近のグラボは色の内部演算が浮動小数点で実数だとか モニタが4K HDRは持っていないな。27インチとか近くで見るにはでかすぎそう 近くで見るからFHDでもいいかな。FHDでHDRのモニタが安めで出ないかな? CS2420-ZBKが90,000円弱かぁ IPSパネルになってしまうのよね。黒のしまりはどうよ? DeepFaceLab_CUDA_build_01_08_2020.exe == 08.01.2020 == fixes and optimizations in sample generators fixed Quick96 and removed lr_dropout from SAEHD for OpenCL build. NVIDIA build now works on lower-end GPU with 2GB VRAM: GTX 880M GTX 870M GTX 860M GTX 780M GTX 770M GTX 765M GTX 760M GTX 680MX GTX 680M GTX 675MX GTX 670MX GTX 660M GT 755M GT 750M GT 650M GT 745M GT 645M GT 740M GT 730M GT 640M GT 735M GT 730M GTX 770 GTX 760 GTX 750 Ti GTX 750 GTX 690 GTX 680 GTX 670 GTX 660 Ti GTX 660 GTX 650 Ti GTX 650 GT 740
== 08.01.2020 == サンプルジェネレーターの修正と最適化 Quick96を修正し、OpenCLビルド用にSAEHDからlr_dropoutを削除しました。 NVIDIAビルドは、2GB VRAMを搭載したローエンドGPUで動作するようになりました。
>>544 それはそうなんですけれども、現状、 srcとdstの相性確認が重要 srcの画像の厳選が重要 srcの類似画像は可能な限り間引きたい Mask必要な画像はMaskが必要 とかで、VRAMあっても持て余し気味かと。コスパは悪いな 出来上がった動画も、最初は感激していたのだが、今見ると粗が dstはお好みの無臭女優ばかりのせいもあるかな。dstは無臭で輪郭の良いペアとか見つけないとです やっぱradeonだと効率悪いのかな? それとも一般的なベンチ通りの比率で回せる感じなのかな 対nvidiaで
viiの性能は2080くらいで、まあまあの値段でvramでかいのがいいとこかな
>>551 openglだと効率悪いけどcudaで叩く分には悪くないよ ボディ側に2時間モノとか使ったら、何日くらいかかんの? 誰かやった事ある?
初心者にまとめて教えたい事がある人もいらっしゃる様ですし Wikiなどどうでしょうかね? ここは技術交換スレですから、書き込むネタが無ければ別に無理に書き込まなくてもいいかと ROMっているだけでもいいかと思いますが
ん。NGとかできるらしいけれども、していないの? >>558 とかは後に無駄レスとして削除 技術交換とかの話題ではない このレスも後に無駄レスとして削除 >>558 とかの書き込みは別にしない方がいいと思うよ これだけ嫌われながらも毎日日記を書き続ける精神力は理解できん 分量も多いんだから普通にブログ立ち上げたほうが良いんじゃないかと思う
ブログは書いてるよ。昔から自分のメモとして フリーのブログだから、Google検索には原則として引っかからない Googleはフリーのブログは嫌うし あと、記事が短いので、Google検索には原則として引っかからない だから毎日毎日NGすれば?スルーしてもいいぞ 特に人の言う事を気にしていたらきりがないしな SNSとかのコミュには参加していないぞ。やり方もよく知らん
>>562 君の書き込みは全部無駄だからしないほうがいいと思うよ 存在が邪魔だからいなくなったほうがいいよ ほほう。他人の事がいちいち気になると言うのか 大変だね 君がDF256のオリジナルの作者かどうか不明なので 誰が君の言う事をいちいち聞くのかと
CUDAのメモリアロケートエラーですが、 Nvidiaのドライバを変に最新版にしてしまったからかも知れませんね NvidiaドライバとCUDAとcuDNNとTensorflow-gpuとPythonのバージョンの対応 https://qiita.com/konzo_/items/a6f2e8818e5e8fcdb896 Nvidiaドライバ,CUDA,cuDNN,tensorflow-gpu,Pythonのバージョンの対応はとても重要らしい。 NvidiaドライバはCUDAのバージョンに合わせて,CUDAとcuDNNとPythonはtensorflowのバージョンに合わせる。 tensorflow-gpuを使用する場合、Pythonは最新版にはできないでしょう CUDAも10.2だとビルト例が無いのでは? C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1 がある場合 DFL同梱の物を上書きコピーした方がいいと思います よく分からん。おまじない
年寄りになると寂しくなるっていうしな。 ここではなんだかんだレスがあるから語り続けるという。
>>567 いないよ。無職で実家に寄生中だし 市役所から、精神、知的障害者などが集まって、お話したりパソコンしたり 就労ではなく、みんなが集まって何かしていると言う取り組みを勧められた 1人の方が気楽だな。DFLはよい暇つぶし CUDAドライバーは下位互換性があります。つまり、CUDAの特定のバージョンに対してコンパイルされたアプリケーションは、後続の(後の)ドライバーリリースで引き続き動作します。 RTXでもCUDA 9.2は動く事は動く訳か DFL内部に抱えているCUDAが9.2だけになったので、RTX使いは少し気になった iperov がRTXのサポートを辞めるとか暴挙に出ないだろうな Tensorflow-gpuのビルトし直しも面倒だから、大丈夫かもしれない NVIDIAドライバも > = 表現なので、新しい分にはかまわない訳か
ITハード土方は、若い頃月100時間残業とかしていたからな これでは60歳まで勤務するのも、体や心が持たないでしょうと思い 老後資金を貯めてアーリーリタイアするのは予定の行動 予定外にうつ病が発生し、しばらく何とか就労していたのだが、徐々に悪化 休職→休職期限満了で退職に追い込まれ、予定外に早く退職 よくよく計算すると、100歳まで生きても貯金が持ちますがな もちろん年金も計算に入れている。退職したら国民年金基金の勧誘があり加入した 最近、うつ病でも障害年金の受給ができる事を知り、厚生障害年金3級は受給できた 予定外の臨時収入なので、PC2台とグラボ2枚が買えました 2年に1回の更新なので、受給でき続けられればありがたい
DeepFake動画は作成しているので、技術スレと素材スレには出入りするよ 総合スレは5ちゃんに特有な無駄レスだらけだな
>>575 いろいろ大変ですね。しかし老後の心配が無いのは羨ましいです ソフト・ハード共に参考にさせて貰っています 最近はスレが荒れていて分かり辛いですが… 実質このスレをまとめているのは貴方の様ですし コテハンを付けて頂けると分かり易くて助かります >>584 スレタイのカモフラージュっていう意味ではいいかも Wiki色々と記載してみました https://seesaawiki.jp/dfl/ 内容は初心者向け。このスレで聞く前に、目を通せば5ちゃんで叩かれる事も少なくなるかと 記事の内容はこのスレの過去スレから個人的に抜粋した物がほとんどです 関連項目にWiki内の記事の内部リンクがあります Wikiですから、記事の改善は可能。編集合戦は辞めてね 別記事を書いて関連項目に内部リンクを貼る事が可能 初心者にまとめて教えたい事がある人は、Wikiで長文の記事でも記載可能 初心者用Wikiは出来たし他にサイトもあるのでいいが、 中〜上級者用のWikiも欲しいな。 特にどうやったらsrcの動画
すまない途中で送信してしまった 初心者用Wikiは出来たし他にサイトもあるのでいいが、 中〜上級者用のWikiも欲しいな。 特にどうやったらsrcの動画が出来上がるのか。これは永遠の課題だが。
中〜上級者用のWikiとかになると、書ける人に書いてもらわないとです 書く気が起こるのかどうかは分かりません 記事のタイトルに、(中級者向け)とか(上級者向け)とかあれば分かりやすい
男と女の両方にランドマークをつけるAIはバカなのかね
>>590 手動ランドマーク修正があまりにも大変な様なら そもそもその動画、シーン、カットは向いていないとかの過去レスがあった様な src/dst探しの旅は果てしなく続くのでありました 手作業が嫌な人は、DFLに向いていないのかもね 顔認識に不満なら、新しいアルゴリズムでも考案できて、英語で論文が書けて だったら素晴らしいのでは 計算機にも分かるように、人間が噛み砕いて実装してるんじゃね? >>594 そうなんだね。 半年前もランドマーク手作業が話題になったけど、まだ問題解決できてないのか。 希望なのだけど、 @ランドマークが2個以上ある画像を削除するスクリプト Aおっぱいやマンコのランドマークを削除するスクリプト Bランドマークを手作業でつける時に、向きや目鼻位置を手で指定できるスクリプト を次バージョンで新規追加してくれたらいいのに。 どう思う? まあDFLとかAIとかに文句つけるのも禁止 みんな頑張って何とかしようとしているのに
たまに乃木坂ちゃんが持ってるぬいぐるみの犬の顔がextractされて笑ってしまう
4.2.other) data_src sort by one face in image 画像内で検出した顔の数でソートします。これはあまり使用されません が既にあります す○のカルタ映画とかだと、2人の顔が近く、256×256の顔画像に 2人、3人映っている顔がありました それにこのバッチを使用してみてどうなのか? ちょっと試せていません
確かに体の部分を、顔と勘違いする事があり、顔が2つある人間などいないのだから 何とかならないのか?と思う事はあります 顔である事のしきい値の設定も難しそうです 防犯カメラの映像から、指名手配犯やテロリストなどの要注意人物を見つけるのも、 顔の角度が正面から見て、20度までの角度が顔認識で同一人物と認識できる限界だそうです 横顔、極端な上向き顔、極端な下向き顔は難しい様です これは人間の顔認識も同じかも。例えばよく知っている女優さんが、下向きでラーメンを食べています その目玉のよく見えない顔だけの画像を見て、果たして人間が、どの女優さんであるのかが分かるのかと これは知覚心理学の研究領域かも知れません 人間は、上下反転した、顔を見ても、とたんに誰だか分からなくなるそうです 見慣れていないから
顔認識も、顔をAutoEncoderでエンコードし、decodeして元に戻している様です よく分かりませんが、多分その様な手法、アルゴリズムが、計算量が削減できるからとかではないでしょうか おかげでdecoderを取り替える事により、AさんとBさんの顔入替えができている様ですが 世の中で初めて、顔入替えを思いついて、やってみた人もすごい気がします NNの計算量を大幅に削減できるアルゴリズムでも思いついて、実装でもしたら チューリング賞ものじゃね?
未検出よりも誤検出の方が遙かにマシなので、誤検出を問題にしてるこの流れはあまり意味がないように思う。 未検出じゃなくて誤検出なら_1とかで検索して対応できるし、similarソートでも容易にはじけたりして整理が楽。未検出だと手動以外にないから、それが問題なのは分かるけどね。 まあ、それはここでどうにかできることじゃないと思うけど。 extractであると便利で実装できそうな機能は複数の要素でソートできる機能かな。 例えば、similarが第一優先ソートで、pitchが第二優先ソートみたいな。特にsrcのfaceset作るのが捗りそう。
pythonという言語をマスターすれば、自分で新しいスクリプトを作れるようになるのでしょうか?
何を作りたいかにもよるが、 python読み書きできれば、カスタムのDF256程度なら作れる(私)。 Windowsバッチやシェルを読み書きできるなら便利ツールくらいは作れる (上であがった同一シーンで抽出した_0_1が存在するときにXXXを削除するとか) extractしたファイルのソートカスタマイズや顔認識に手を入れるとなると deep learning関連のフレームワークやライブラリ(TensorFlow,KerasやOpenCV,dlib等々) の使い方、仕様理解が必要。
既存のソースの少しのモディファイ程度で良ければ 別にpython知らなくてもできる(私)。 多言語少し読み書きした経験もありますけど CUDAなんかも元々は開発者向け機能でっせ C++でオープンソースで公開されており Visual Studio Community 2019 やMSVC build toolなどインストールすれば何かと便利かも git, cmake, wgetなどもインストールして スタンドアロンでPython 3.6.8をインストールしておけばいいかも 今の所、フォーラムのsort_by_face.pyを使えるぐらいしかメリットはありませんけど
DFLの処理って、別処理を2つ同時立ち上げとか出来る? 顔のコマ抽出と体のコマ抽出を同時に出来るの?って疑問なんだけど
このスレで登場した、DF256、Auto Preview、Extractor512など画期的かと思います(自分とは別人) カスタムの物はDFL本体のVer Upのたびにメンテが必要となるかも知れません メンテは、WinMergeなどで差分を取って、オリジナルからどこが変更、修正になっているのかを知れば 意外とpython知らなくてもできる
>>606 試してみれば分かると思うけど GPUを専有する顔抽出とtrainなどは同時実行は無理だったかと train中に、DFL新Verに、workspaceコピーとかしたら落ちたりした 別PCからリモートでコピーすればコピーはできましたが 体のコマ抽出ってffmpegを叩くだけのやつの事? 少なくとも別PCからリモートでやればできそうな気も PCぶっ壊れたら何もできないので、2台持ちは必須かと >>604 すげーな。あなたが DF256の開発者か。素直にすげーと思う。 >>605 フォーラムとかに参加して意見を言えるようになるとかっこ良さそう。 俺もランドマークの手作業でお正月と今週末を過ごしてるが、少しレベル頑張らないとな。 ネットで無料でPython入門とかもあるので、目を通しておくといいかも知れません AI、Deep Learning、Python、顔認識とかで検索すると 驚くほど短いソースコードで結構な事ができている事例も 他人のソースコードの少しのモディファイなら楽ですね 手作業を少なくしたいとかもありますので Windowsバッチやスクリプトみたいなのが書ければ、随分楽になるかも知れません
すみませんDF512のやり方お願い致しますm(_ _)m
>>608 別々のPCで処理して抽出した画像をコピペで移動←これなら可能なんかな? 特段、他のPCで作ったDFLデータを別のPCに移して拒否されるとかいう事は無いんかな? >>611 DF512は2080Ti 11GBでも動作しませんよ TITAN RTX 24GB以上とかでないと動作しません 動作してもバッチ数とか少なくなりますし。最後の切り札かと >>612 alignedの下のjpgデータはメタデータが埋め込まれており、静止画編集ソフトでいじってはだめとかありますが 別PCでのtrainのmodelデータをコピーして、継続trainなどできています 同じDFLのVersionで作成した物どうしなら行けそうな気がします 手作業とかは少なくしたいので このスレで教えてもらった、Windowsバッチなどは随分とありがたかったです
>>613 グラボ買ってないんで、雰囲気だけでもと CPU用DFL使って顔画像6000枚で試してるトコだけど 顔を検出して切り出す段階で、まる1日くらいかかりそう この後、体側が20万枚くらいあるんだけど無茶かな? 2時間くらいあるAVのそのまま抽出してもうたんだけど >>614 >>616 それ、考えようによっては、顔側が眉部で切らずにおでこ上の髪の毛まで合成出来れば 体側の髪型ガン無視で顔側のオカッパ活かせそうなんだけど そういう装備は実装されて無いの? 全然関係ないけど、DFLの顔切抜き処理中、CPU10%しか使ってないのに、 ネット閲覧動画がカクカクして文字書き込みがカクカクなる始末 CPU内蔵GPU使ってるからとか、そういう事なんかな?
ムリゲー角度が多いのとか障害物などで要maskが多いと854x480で10分くらいのdstでも目がやられる グラボなしの2時間のdstとか大馬鹿者
>>621 じゃあワイは現状、どれくらいが適正なん? ハイビジョンやめてしかも、数分に減らすとかせんと駄目なの? >>618 最初は自分もCPUで試してみました。遅すぎて非現実的なので 何も知らずに2080を買ってしまった。MouseのミニタワーMicroATXにぎりぎり入った いま新品だと2060SuperがVRAM 8GBでコスパはよさそう VRAM 8GB以下でやっている人が多そう >>619 convert時にerodeをマイナスにすれば、顔の範囲は拡がりますよ Mask Editor起動して、Default eyebrows expand modifier? (0..400, skip:100) : 400 とかにすれば、眉毛の上の方まで顔扱いします LandmarksProcessor.pyバックアップコピーして LandmarksProcessor.pyのeyebrows_expand_mod=1.0から数字を大きくすれば 眉毛の上の方まで顔扱いします >>622 一番短い動画で5秒、640×480、30fps、141コマとかあります 短い動画を作成しておけば、Convertオプションのお試しに便利かと python main.py train (中略) --debug ← 最後にdebugオプション入れるとレア画面表示。 Preview(Auto Update)も有効。
1分以下でもいいと思うよ おれは2080で最初の頃は2、3分のdstでたくさん実験した
とりあえず体動画は4分くらいで地上アナログレベルの解像度にした ところで、顔画像6000枚はどうなん? 減らすべきかな? 見た感じ顔の切抜きに10時間くらいかかりそうなんだけど
初心者サポートスレじゃないんで 調べれば分かることは聞かないようにな
>>626 コマンドプロンプトで叩くのはタイピングが長そうなので(コピペでいいけど) 6) train DF256.batの最後に --debugオプションをつけてみた ほほう。確かにレア画面 教えてくれてありがとう >>626 おー確かにレア画面だ。教えてくれてありがとう。 ランドマークとsrcとdstの対応セット(かどうかは分からないが)を同時に見られるとは。 起動ディスクのSATA接続SSD上にダウンロードして使ってみたけど 起動ディスクではないM.2のSSD上で作業したほうがいいのかな?
あと、抽出した後、黒い部分がある顔画像が有るんだけど これは消したほうがいいの?
SSDの仕様考えればわかるだろ。 画像はガイドとマニュアル見てこい。
ガイド見てねーじゃねーか。親切マンが現れることを期待することだね。
マスコミが顔入替えで変に騒いでいるからかね 単なる野次馬やあおりだと思うが。雑誌とかが売れるネタであればいいだけかと DFLの存在にたどり着く人が増えたのかね 初心者が増えた様な気がします。みんなグラボなんて、金持ってるのな 初心者向け記事や初心者向けWiki、過去スレに目を通してきてからの質問でないと 過去スレ読めとか言われるぞ
>ID:P7O01/Tu0 お前にはヤフー浅知恵袋オススメ 当たり障りのないアドバイスしてる時点で、お前が何者か判るわな
>>637 顔が画面枠外に見切れてるやつだよね? 俺はいつも消さずにそのまま、trainで自動的に黒くしてくれる。 何者だろうな。 煽りに負けて気が向いたのでガイド文字列検索ヒントを。 Bad lighting (blown whites) or too dark, transparent faces (eg: during scene transitions) should also be removed during training. In the example below, all images will be removed during training, and some even delete because they are not aligned properly. I generally remove images from training if the eyebrows are cut off. まぁ貴方がsrcとdstのどっちの顔画像のことを挙げてるが分らんが、 マスク範囲まで黒い部分が侵食している顔画像があったら削除した方がいいよ。 大概ランドマークが崩れてる。厳密性を求めるならランドマークとマスク位置確認しながら 1つ1つ取捨選択するべし。あくまで一意見です。 以上、DFL256アップロード者でした。しばらく親切マンは止めることにする。
>>643 じゃあ、そのままでいいって事ね ありがとう >ID:P7O01/Tu0 ガイド見ろとかほざいてるけど、そもそもガイドの説明が雑い ガイドには「DFLを任意の場所に解答する」と書いてある が解凍物は、処理後の画像を保存するフォルダを内包してるんで 任意の場所だからと起動ディスクとか、遅いストレージに置いてしまうと 処理が爆遅になったりPCの動きカクカクなったりするわ >ID:P7O01/Tu0は、たったこれくらいの事答えられんレベルの回答しかよこしてない >>645 そんな事しなくても、普通に英語読めるよ 初心者が暴れてて草 全スルーか初心者スレたてるかかね
srcの顔の手動再抽出 https://seesaawiki.jp/dfl/d/%b4%e9%c3%ea%bd%d0 トップページの、関連項目 顔抽出 4) data_src extract faces S3FD best GPU.bat を一行追加カスタマイズ 4) data_src extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat を使用して、dstと同様にしてsrcの顔の手動再抽出もできる srcランドマークずれなどの削除、手動再抽出などできる >ID:vQShqdV4d「俺は情弱なんで既にそういうスレがある事を知らない!」 まで読んだけど、 他に言いたい事有る?
>>651 情弱ですみませんが、どこのスレの事を言っているのか、教えてくだしゃあ 誘導して 見てみたけどガイドまじで雑いな Train時のパラメーターの説明とかいくつも飛んでるし
GUIDE IS BEING FIXED/UPDATED, EXPECT UPDATES SOON. ガイドは修正中または更新中です。すぐに更新される予定です。 状態がしばらく続いていますね 新しい版の追加機能の説明がchangelog_en.txtだけだったりします 新機能にGUIDEとmanualが追いついていない気がします
>>655 いや、一番古いのつかってるんッスけど・・・ >>656 全部入りのSAEとかで説明していますしね H128やDFなどだと無い設定もあります 日本語の初心者向けサイトは、H128で説明していますし 先にそれの方を見る方が分かりやすいのでは? train中に出る[XX:XX:XX]って時間表示的なものは何?
[現時刻][train回数][1trainにかかる時間][srcのloss値][dstのloss値]では?
>>660 ありがとう LOSS値の件を調べたら、自分が今やってるやつの値が凄く高いんだけど (兆とかそういうレベル?) これはなぜ? 調べた限りでは0.0Xとかいう値になるとしくじり少ないらしいけど、 物凄くかけ離れた値になってるんだけど? Train中はモニタの電源を落としてても大丈夫ですか?
>>635 糖質が自己レスで会話 専門版で稀によく見る風景 ここに初心者が来るのは早すぎるな 何作かconvertまでやってから見に来ればいいのに
そうですね DFLはインストールは簡単だし、基本的に若い方から順番にバッチを流すだけ 短めの動画でconverしてみて、デフォルトから変更は Apply color transfer to predicted face? Choose mode : rct にするくらいか 境界に違和感を感じた、なじみが悪かったら blur mask modifierを大きくしてみるくらいでかなりいけるかと
Deepfake国内二強 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。 国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の 大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。 転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの 嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。
有益な情報をシェアします srcの枚数を減らすことでグラボへの負担が軽くなることが確認できました。 ギリギリ動かないって人は減らすと動くかも。
opt3て速度を理由に敬遠してたけどGPUの温度には若干優しいな こっち使うのもありかな
srcを厳選して枚数を減らせば、学習が速くなると思います srcにボケた画像があると、loss値の割には完成動画がボケた様な気がします
1000k鍛えたmodelを新規srcに流用 してみた。20k程で完成形で成功 どんどん上書きして問題ないかな
srcを別人と混ぜたのか? それってresult動画では二人分混ざった顔にならないの?
最初は混じるようでしたが 暫くすると完全に新規srcになります。 言われてた様な崩壊もなく 複数つくりましたが、非常にスピーディーかつ仕上り良好です。 2000k辺り超えると崩壊してくるのかな。
マジならそれ以外の作り方は馬鹿らしいな src変える時はぜひ試そう
最後までやってみたけど、体動画にまったく顔が合成されず 体側の顔に青いマスクかかかった状態で最終動画が出来上がってしまうんだけど、、、 何が問題なのか判る?
>>678 の件、理解したわ train中に出るプレビューが肝心だった プレビューウィンドウを選択した後、ENTER押すと、それまでの学習経験を記録 とりあえず、そこでENTER押さないと学習した事にならないみたい 同じ画面でPキー押すとそれまでの学習から得たプレビューが見られ Sキー押すと、それまでの学習を記憶してくれる ちなみに、ENTERで終わらせた学習記録は、再trainで前回記回数からの継続学習になる しばらく消えるので障害者と初心者が居なくなったら教えて
>>680 ここにそれを知らない奴なんて居ねぇよボケ なにほざいてるか知らんが >ガイド見れば判るよ ↑ガイド見ても載ってないから書いた つか、ガイドに載ってない事多すぎで >見れば判る とか、ただの妄想でしか無い 単に、知ってるやつが >見れば判る だけの話であって 初心者が見れば判るようになってない
初心者サポートスレでも日記スレでもないので他所でよろしく。
今度は最終で、元体動画の顔そのまんまで仕上がったわ 前回の仕上がり動画がマスク付きだったのは>>680 の件で学習してなかったせいだろうけど 今回のはどういう状況なん? 学習が足りないって事かな? srcに別人の顔混ぜると別人顔が混ざるのは判るんだけど dstで別人混ざるとどうなる? 例えば単独インタビューで途中から別の人物がインタビュー受けたりしてた場合 双方に綺麗にsrcの顔が載るの?
>>684 確かにガイドに書いてなかったわ マニュアルに書いてあった >>688 dstのalignedの顔も二人分あるわけだよね? だとしたら途中まではdstAの人に対しsrcをはめ込む、 途中からdstBの人に対しsrcをはめ込むから、resultは二人分できるんじゃないかな。 つかそんなのいちいち「どこに書いてあるか」まで言わないとかめんどすぎじゃね。 (ガイド見ろと言った本人ではない) しかも書いてなかったからといって暴れるとかワケワカラン。
train時のプレビューの意味が分からない あれ見て何か判るの?
>>694 そう言う初心者の質問は、初心者質問スレで聞いた方が、後から見てみんなが分かりやすいでしょうが 親切マンが現れるか分からんけど >>694 とかのレスは、後でまとめる時に、無駄レスとして削除するぞ 過去スレに既に答えがあった様な記憶が 過去スレ読んだり、検索したりするのが、結果的に理解が速いらしい >>696 そういう精神論は間違い 昔そういう英語の先公がいて、解らない単語があるたびに辞書引いてたが ある時抜群に英語が出来るやつに聞いてみたら 電子辞書に聞いたら速い上に速攻覚えるとか言ってた つまり、一番早いのは知ってる奴がそばに居て教える事 個人の一経験をさも一般論のように語る社会経験のないキチガイだろ もしくは釣りか煽りカス
>>697 ここは初心者の質問スレではありません。初心者の質問スレは既に別の所にあります 初心者が同じ様な質問を繰り返せば 過去スレ見たり、過去スレ検索したり、過去スレ抜粋見たり、Wiki見たりしてくれと言うのは当然 親切マンが何回も繰り返し教えてくれるとは限らないぞ いいかげんうんざりしたら、スルーされるだけ 無償の行為、回答だし。コミュニティにはみんなが貢献する様でないと そもそもここは、初心者お断りとかいうスレでは無いし お前は運営じゃ無いから、お前に決める権限は無いよ そもそも過疎ってるのにスレ分けるほうが迷惑
それに、即答しれば1レスで済むのに 1レスするたびに、即答もせず、延々何レスも初心者お断りとか言い続けて 迷惑にも程がある
このスレでは、ID:gCQQ0Y6n0の方が迷惑だと思われていると思うけどね ID:gCQQ0Y6n0にも決める権限など無いだろう 少し過疎ってるぐらいの方がいいんだよ スレが落ちない様に、たまに保守しないといけないかも
このスレでは、ID:gCQQ0Y6n0の方が迷惑だと思われていると思うけどね ID:gCQQ0Y6n0にも決める権限など無いだろう 少し過疎ってるぐらいの方がいいんだよ スレが落ちない様に、たまに保守しないといけないかも
>>681 おーけー。 といいつつ自分もDFLの次回アップデートまで消えるわ。 皆さん、またお会いしましょう。 誰か親切マンが、Gmailかyahooメールとかの捨てアドでも晒して、 1回答につきアマギフ 50円とか100円なとか言い出すと面白いかもw 質問する側は、回答する側を、あまり怒らせない方がいい
>ID:oG56Xael0 お前が迷惑だよ スレ守りたいやつが延々そんな下らん事書くわけが無い
DFLアップデートしてます 01112020版 マグネットリンク == 11.01.2020 == fix freeze on sample loading == 08.01.2020 == fixes and optimizations in sample generators fixed Quick96 and removed lr_dropout from SAEHD for OpenCL build. CUDA build now works on lower-end GPU with 2GB VRAM:
ここはソシャゲをみんなで遊ぼうのスレじゃねえんだから やってりゃわかる事をいちいち他人に解説求めるんじゃねえよ
コマンド打った後の説明に出ることごちゃごちゃ書いてるID:+/GpLRcj0は低能なんか?
いいから初心者はいいかげんこのスレから出ていけよ。ふざけんな それが人に物を聞く時の態度か? 社会常識はあるのか? 初心者スレが出来てからは、ここは初心者が出入りするスレではない
しょしんしゃというか、それいぜんに、たぶんえいごもかんじもよめないんだとおもう。
>>709 今の流れだけで言えばおまえだけがキチガイだよ 初心者スレに脱初心者までTIPS書いてみたぞ 普通の口調で会話する気があるならあっちでなら答える その代わり一通り自分でできるようになるまでこっちにくんなよ >>716 障害者も出て行けよwww お前に社会常識なんて無いだろwww やばいな、すげぇブツが出来上がっちまった。おかずは自炊にかぎるわ
>ID:oG56Xael0 ↑ありゃりゃ?おかしいぞ? こんなにコイツに賛同者がいるなら、初心者的な質問が出たところで それガン無視で、コイツと賛同者との会話が成立してるはずなんだが???? ID:oG56Xael0を否定した時だけ、コイツの賛同者が現れるって、、、 おかしくね????w
悔し紛れに携帯末端を起動して自己援護とか よく有りがち
>>721 単にお前の様に、書いてあることも読まずに聞いてきて 人に物を聞く時の態度もわきまえない奴が嫌われているだけ おまえは自分がおかしい事も分からないのか みんな書いてあることを読まずに来るやつは嫌っている 自分が嫌われている事も分からないのか? >>721 万が一賛同者とカウントされてたら嫌なので念のため 英語も読めない逆切れする低能もそうだが、 やり合っているお前らも俺から見たらどちらもキチガイや。 うーん DeepFaceLab_CUDA_10.1_AVXが無くなってから、嫌な予感がしたのですが、 iperovは持ってもいない、RTX、CUDA10.1のサポートがおざなりになってきた様な気が tensorflow-gpuは面倒なのでビルドし直しはしていない気はしますが SET PATH=%CUDA_PATH%;%CUDA_PATH%\bin;%PATH% にして 今までの SET PYTHONHOME=%ProgramFiles%\python-3.6.8とかにしたらようやく動いた様な気がします
うーん まあRTXでも、NVIDIAのサイトからCUDA10.1などダウンロード/インストールなどせずに DFL内部に抱えているCUDA9.2でも、バージョンが下位の分には問題なく動くのか pythonも、DFL内部に抱えているものだけならば問題なく動くのか DF256のModel.pyも、必要かどうかは分からないが修正してしまったぞ DF256のModel.pyの修正が必要な人は、Wikiでも見て、128→256の変更とかしてください DFをDF256にコピペして、差分を見て修正
久しぶりにleanedのconvertしたがめっちゃ早いな… 一応FANSEGに近い仕上がりにはなってるけどそこまで手を掛けてないから精度が足らん 自動マスク出来る工程を用意してくれんものか
ほらな? 全然スレ維持する気もなく、延々嫌がらせの反論ばっかだ しかも質問にも答えない
>>729 >>514 SNSのクローズドでやっているのかね? 色々と理解している人は、色々とできるのかな? python-3.6.8と言っても、色々と必要なライブラリはpip installしているのだろうだし 必要であれば最新版にしているだろうし 最新版にできないのは、tensorflow-gpu、CUDA、pythonかな 色々と嫌気がさして、昔からの人は多くが去っていきました まあ過去スレまでで多くのノウハウは出尽くした様です >>731 このスレでは質問に答える義理はない 初心者質問スレへどうぞ 君の態度では、親切マンを拒むだけ 何回も同じ様な質問が来る気がして Wiki作成しました。このスレから誘導したので、毎日それなりのアクセスがあるみたい まあ内容のほとんどは、この過去スレからの個人的な抜粋なんですけど 自分へのメモとしてもいいな 既に書いてある事は、目を通してきてからにしてちょうだい でないとスルーするとこのスレに書いてある
4K動画集めて自分専用の初期学習用のデータセット作ったわ。とりあえずyolo v3とか使ってpythonで仕分けを少し自動化してみた。 初めは切り出しとか修行僧の気分だったけど、今では随分楽になった。yolo v3でなおコストがデカいから、大量処理にはもう少しライトなやつの方がいいかも知れない。 あと、まだ精度甘いけど、画像フォルダから年齢と性別を判定させて結果をsqliteに突っ込んですぐに取り出せるスクリプトも作った。 ちなみにあぼーん表示でngに入れた人のコメントは見えません。さようなら。
ここは初心者お断りの場所では無いし お前にそれを決める権限も無い しかも、何か自分の思惑と違う事があると、すぐ別スレ立てて誘導 こんな過疎ってるスレを3スレに分割して マジで阿呆の極み
>>734 そこそこ使ったやつしか分からんwikiとか、作るだけ無駄 実際それ見てやってみたが、最終段階で元体動画に元体の顔載ったままで まったく合成できてない で、これを聞くと、何も答えない 上記は、初心者だから発生してる事例では無いのに なんでwiki見てやってんだよ 公式のガイドだけで完成まで出来るだろ
盛り上がってるとこすまんがこれ>>626 「--debug」をどこに入れたらいいの(´・ω・`)? 6)train xx に最後に入れても何も起きないのだが >>740 例えば自分は下記。他のモデルも同様かと --model DF256 ^ ^を付け忘れないようにしてね @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" train ^ --training-data-src-dir "%WORKSPACE%\data_src\aligned" ^ --training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^ --model-dir "%WORKSPACE%\model" ^ --model DF256 ^ --debug pause >>740 trainファイルそのものを編集するって意味ね 例えばSAEなら --model SAE --debug に変更する 6) train LIAEF256,bat 変更無しに動作しましたので、 今回はカスタム256、512モデルの変更は不要でしょう DF256は以前の版数から継続trainできましたし
>>742 >>743 さんきゅー できたわ で、1と4列目に、うにょーんってなってるのが混じってるが、意味がわからん(´・ω・`) 誰でも最初は初心者だから仕方ないけど 流石にここ数日は酷いな 俺が初心者だった頃はまだマシだ
data_dst.mp4はできるだけ正面顔、主観動画、短いシーンを動画編集ソフトで切り出す フリーの動画編集ソフトでトリミング編集や、拡大縮小編集などは検索して覚える、慣れる必要性あり data_src.mp4は、つべのインタビュー動画、割と高解像度、照明条件良好のsrcがおすすめ 最初から好みのsrcでやるな。前髪なんぞはもってのほか それか最初から入っているサンプルで一通り作成だけしてみろ
最初はDFとかH64とか軽いモデルにしておけ 最初はsrcに前髪ありとか、いきなり難易度の高いsrcでやるな 前髪ありのsrcだとdstも前髪ありで、眉毛なしののみとかマッチしていないとおかしいでしょ?違和感ばかり バッチを順番に流す。各種Sortツールで、変なsrcは削除(前髪とか顔の前に障害物ありとか) 変なsrcを使うな。変なdstを使うな 顔は変な奴はちゃんと削除しろ。変な顔画像しか無いのであれば、srcの選定が下手
どうせaligned_debugの下の顔画像のランドマークとか一切見ていないとかいうオチなんでしょ? そりゃあ顔が小さかったり、角度が厳しかったりしたら顔認識、顔抽出できませんがな srcとdstの選定、編集が下手なだけ 手順を覚える、理解するのと、お好みのsrcでやるのとは別 srcが前髪ありが好きな人はご苦労さま。srcの前髪全てに手動Maskしないと上手くいかないかもね
dstのalignedに顔がない限り、元動画のままにならないもんなあ。なんか間違ってるんだろう
何かAIとか計算機とかプログラムとかに対して、幻想がある人も多いのかね? まあ確かに予算、開発費の獲得や、販売のために、AIを誇大に吹聴するきらいはある 理科系だと数値演算、FORTRANぐらいはやったかと思ったが 機械に計算させて人間が楽するとかで、計算機の歴史とかネット検索してもいいぞ 雰囲気だけ pythonのソースを見れば、ほほう。何も考える事ができない、何も理解できない、何も意識が無い 機械が、if,and,or,=,+,-,*,/,for,elseとかなら分かるのかとか ブール代数とか四則演算とか制御構造とかに噛み砕いてやればいいのだなとか思わないか?
srcは2000枚〜5000枚程度は推奨されているので、基本動画からの切り出しでないとその枚数は厳しい srcの高画質化に、高解像度の静止画も使うのは十分にあり srcが少なすぎると、ずっと同じ表情のまま張り付いたりして、ホラー感が出てくる物が出来上がる場合もあるそうな dstが静止画だと、意味合い的に、静止画のアイコラ作成に流用しているのかね? dstはDFLの前から、トレジャーハンティングには労力は惜しまんですよとかの人も多いのでは?
まあDFLで動画を作成しようと言うのなら 曲がりなりにも消費する立場だけではなく、生産する立場になった訳だ 何でもかんでも他人のせい、周りのせいにはするなよ 調べたり、トライアル、試行すれば誰にでも分かりそうな事を聞くのは、そりゃあ嫌われる 調べたけど、理解できませんでした、すみませんけど、申し訳ありませんが とかで聞くのであれば、まだ親切マンが現れるのかも知れないが 回答者の回答を自ら拒んでいる態度もどうかと思うけどな まあ社会人としての常識。まあリアルとネットで大違いなんでしょうけど
このスレで回答がつくのを期待するのはおかしい 回答はおまけな。ついでな。回答が付けばラッキーだと思っておけ
多くの人ができている事ができない様であれば 君はそれらの人よりはるかな馬鹿な訳だ 何を勘違いしているのかね?本当に馬鹿は無敵だな できない様なら諦める方が早いぞ
と、延々こいつのヤフー浅知恵袋が続くわけか こいつ、まじで社会性のかけらもの無いな
>>759 みたいに 誰でも知ってるような事をドヤ顔で言ってるの見ると 草生えるw DFLの使い方とか作成の仕方は、誰でも知ってるような事なのだが? 誰でも知ってるような事を質問してくるのはおかしい
うーん 全く作成できないとは。。 ちょっと手のほどこしようのないレベル 諦めろ
色々読んでも理解できないのなら、質問しても無駄 回答も理解できないでしょ?
何がそんなに悔しいんだよ?w ただ質問に答えるだけだぞ????
>>768 回答は色々調べろ、試行せよ、色々読め それで分からないのだから、聞くだけ無駄 ここは初心者質問スレではありません そう認識しているのは、何も自分だけではありません 君には無理と言う事が、お互い理解できたので 何も無理にDFLを使用する必要は無い 諦めろ
>>768 うーん 君は障害者であり、周りから配慮してもらう必要のある、社会的弱者なのかな? でも君には周りの誰もHelpできないな 周りにHelpしてもらえる性質のものではないな うーん 理解できない人には永遠に理解できないみたいね しょうがないよ。いい大人なんだし。現役の学生じゃないんだから 学習、理解も無理でしょう。年寄りなんだから、頭も衰えていて当然
うーん まさかこんなに簡単な事も分からなくて、質問してくる人がいるなんて。。 思ってもいなかったよ おとなしく諦めろ
うーん 類推とか推論とかしてくれて、補完してくれたらいいとかだけなんですけど 世の中無理な人は無理みたいね しかも本人にはその自覚は全く無いと言う
うーん お互い会話を成立させる気など更々無い事が分かっただけでもいいのでは まあ時間の無駄と言うか
>>775 無駄レス嫌っていた障害者のかたですよね? 今の状態の半分は貴方の所為だと感じますが どうお考えですか? そうか、すみませんでした スルーすればいいだけなのか まあ、このスレも、埋まったら手動無駄レス削除の.txtファイルでもまた作りますかね
この連投してる病気の奴って、ちょっと前からいたウザい日記みたいな投稿の張り付きと一緒なん?
GPUの将来展望だけど OpenVINOが主流になって CUDAは廃れていくのかな? 意味も分からずにCUDAを使ってるけど
2日見ないうちにめちゃくちゃスレが進んでると思ったら内容ほぼ0じゃねーか スレの何割1人で書き込んでるんだよ
OpenVINOって推論だけで学習には使えないみたいだけど 機械学習はNVIDIAの独占状態 チビコアたくさん搭載したGPU+直付け大容量VRAM+CUDAの様な開発者向けTool Kitが必要 推論はIntelのCPUだし、実はIntelも儲かっているらしい
これからは、OpenVINOとCUDAの両方の対応したGPUになっていくということ? むつかしい質問して申し訳無いけど
とうとうVRで同僚の女子社員とやっちまった dstは顔が中央付近にある歪みの少ない正常位シーンを使用 やばい技術だよまったく
女優側はともかく素材側流用できるの誰か配布してくれねえかなあ 素材編集がダルすぎてしばらくやめてしまった
>>785 やりたいと思える同僚がいることがうらやましい(笑) 機械学習アルゴリズムのボトルネックをCythonで改善する話 https://qiita.com/tn1031/items/fe83f6d7904871162085 *.pyを動かすと、すぐにimportなんちゃらが見つからないとか言われる 本物のプログラマとかでないと難しそう Cythonで高速化 実装 先ほどのforループをCythonで書き直します。 Pythonが遅い原因のひとつが、Pythonは動的型付けであるということです。変数を参照するたびに型をチェックしているので、変数の参照が多いプログラムはこの操作にかかる時間が無視できなくなってきます。 Cythonを使って書けばc言語のように変数の型を定義できます。いちいち型の確認が行われないのでかなりの高速化が期待できます。 変数の宣言はcdefで行います。計算に用いるすべての変数の型を定義しておきます。 >>786 src側のaligned画像群はみんな開放しないね 狭量という自覚はあるが 収集と高品質化の苦労を思うと他人に簡単には渡したくない… 色んな動画や画像を集めてるときが結構楽しくて やっぱりこの子かわいいなあこの表情いいなあとか言いながら一コマ一コマキャプチャしてたりもしてる 我ながらキモいな! キモいついでに個人的なおすすめとしては いきなりハメハメさせるんじゃなくて 最初はただの水着動画、着エロ、裸、エロマッサージ、オナニー、笛吹き、とか段階的に作ることで何度も楽しめる!
>>785 相性のいいdstを自力で見つけなければいけないのに苦労するが 知り合いで作った破壊力はものすごいよな >>791 のように段階的に作るとなおさら >>790 俺みたいに素材探しと編集がダルすぎてやめる奴もいるから ディープフェイクの今後を考えるのであれば数種類で良いからベースになる素材が欲しいわ そこら辺海外は協力し合ってて流石だなと思う >>792 段階的なことは2Dで散々やったよ ちなみに2Dでの最後の作品は、src同僚、dst俺だ これ以上やることなくなってVRに移行した あ、よく見たら話題が噛み合ってないかも 俺が言ってるのはdstの顔をハメられる側の素材の方ね srcは自分の好きな女優だから編集してても苦じゃないけどdstはキツいわ
>>795 そうか俺が勘違いだったねすまん dstはextractする前の全コマpngと、した後のalignedと内部で紐付けしてるんだっけか だとすると一番手間のかかる修正済alignedだけ共有って無理なのかも pngまで共有となると数十GBとかだし 素材スレの方でおすすめ動画のURLを書くくらい? 海外のフォーラムではCelebrity FacesetsとPornstar Facesets がMega.nzなどで共有しているみたいだけれどもね 日本人がFacesetsの共有をすれば、著作権法に違反、パブリシティ権の侵害、名誉毀損(侮辱罪)に該当なのかね >>4 DF256モデルデータ全体で例えば652MBとか。.7zに圧縮しても、592MBとか Mega.nzにアップするのも大容量過ぎてきつい 誰か俺が死んだら物理的にパソコン破壊してくんないかなぁ
フェイスセットをパックする機能実装されなかったっけ? 試してないけど
なんかカオスだな。 これから始めようとする人が増えて、ますますカオス状態になっていくんだろうな。 初期の頃からスレに参加できていて良かったわ。 もう5ヵ月くらいやっていてiterも350万超えたけど、今の状態じゃ答えてあげようって気にすらならない。 技術情報の交換スレなのに初心者サポートスレと思い込んで疑わない糖質が増えてるしな。
次スレたてるときはテンプレに必ず初心者スレも入れて技術スレと完全に分離してくれ。 (あと糖質スレもな)
>>799 何万枚のdstのaligned画像を一ファイルにできるのは便利だよ リリースノートによれば動作も早くなるらしいんだが1iteあたりとしては体感できなかった train開始時の初期読み込みは早いかな >>805 教えてくれてありがとう! そうかそのままtrainできるんだ 確かにファイル数多いとフォルダ読み込み遅くなるし (ls結果が遅いみたいな感じ)、 1ファイルとして扱えるのは便利ですね つかってみよ >>806 srcもdstも両方pacしてみた 厳密に測ったわけではないけど 数%くらいは1iterationあたりの速度が上がってる気がする CUDA_9.2_SSE_build_12_20_2019から1.0_CUDA_build_01_11_2020 に替えたけどmodelデータ引き継げないのかなんか知らんがエラーはいてTrain始まらない model消して1からならちゃんと始まるめんどくさぁ…
>>809 SAEHDだったら12月末ぐらいのバージョンで以前のmodelと互換性なくなった 他のは使ってないからちゃんと見てないけど新規でやり直すか旧バージョン使い続けるかだな >>810 そうSAEHDでやってる えぇマジか… src動画をfps指定で書き出した後にdata_dstに放り込んで dstのalignedでextractした方がdebug画像の確認ができるから 抽出漏れやlandmarkズレなんかの再抽出がやりやすいな
複数srcのデータ管理一例。srcごとにbatファイル作成 src画像とmodelを絶対パスで指定しとくとバージョンアップの時に楽 mergedはdst保管するときに容量食うので上書き設定。残したい人は注意 ・train_XXX.bat( _XXX の文字を変えて使い分け) --training-data-src-dir "D:\dfl\aligned\aligned_XXX" ^ (src別のalignedフォルダ指定) --training-data-dst-dir "%WORKSPACE%\data_dst\aligned" ^ --model-dir "D:\dfl\model\model_XXX" ^ (src別にmodelを使い分ける場合) ・converted_XXX.bat --input-dir "%WORKSPACE%\data_dst" ^ --output-dir "%WORKSPACE%\merged\merged_XXX" ^ (src別にマージ画像を出力) --aligned-dir "%WORKSPACE%\data_dst\aligned" ^ --model-dir "D:\dfl\model\model_XXX" ^ (modelを使い分けた場合のmodel読み込み)
・converted to mp4_XXX.bat(alpha出力使う人は別途作成) --input-dir "%WORKSPACE%\merged\merged_XXX" ^ (src別のマージ画像入力) --output-file "%WORKSPACE%\result_XXX.mp4" ^ (src別に動画出力) --reference-file "%WORKSPACE%\data_dst.*" DFやSAEなどのmodel名で使い分ける時は都度bat作成 srcのextractやsortやmask作業をする時は初期フォルダ >>30 の@はtrain.batのsrc-dirにdstフォルダを指定するといい >>812 dstと同様に、4) data_src extract faces S3FD best GPU.batの内容を変更してaligned_debug作成もできる @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^ --input-dir "%WORKSPACE%\data_src" ^ --output-dir "%WORKSPACE%\data_src\aligned" ^ --detector s3fd ^ --debug-dir "%WORKSPACE%\data_src\aligned_debug" pause 4) data_src extract faces MANUAL RE-EXTRACT DELETED RESULTS DEBUG.bat @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^ --input-dir "%WORKSPACE%\data_src" ^ --output-dir "%WORKSPACE%\data_src\aligned" ^ --multi-gpu ^ --detector manual ^ --manual-output-debug-fix ^ --debug-dir "%WORKSPACE%\data_src\aligned_debug" pause
バージョンアップの時にworkspaceを全てコピーするのもやってられない setenv.bat例 SET DFL_WORK_ROOT=D:\DeepFaceLabCUDA10.1AVX SET WORKSPACE=%DFL_WORK_ROOT%\workspace D:\DeepFaceLabCUDA10.1AVXの下とかにバックアップ model集例:model\女優1、2..フォルダとか src alignedl集例:data_src集\女優1、2..フォルダとか dst集例:data_dst集\女優1、2..フォルダとか
>>818 人のやり方見るのは参考になるな。ただ、このやり方だとbatファイルがとんでもない量ありそうだな… dstのリネームはどうやってんの?まさか都度入れ替えるために手動リネームじゃないよな…? >>819 実際にtrainするsrcとdstは、前の物を削除して、都度コピーしています srcの入れ替えは、\data_src\alignedを削除して、目的の物をコピー dstの入れ替えは、\workspace\data_dstの下を削除して、目的の物をコピー もっとうまい方法でやっている人もいるかも batファイルを書き換えて、srcとdstの参照フォルダも変更はできますね 自分が分かりやすい方法とかでやればいいのかと ちなみに自分のdstは尺が短い物ばかりです まあ、少なくともみなさん、せっかく作成した \data_src\aligned、\workspace\data_dst、\workspace\modelのバックアップコピーは取っているかと で、実際の使用時に、参照、リードばかりの物はいいのですが、 上書きされる物(今回trainのmodelデータくらいか?)は注意も必要かと 今回更新されるデータが分かっていればいいかと 実際に作業するworkspaceの他、せっかく作成した物はバックアップも取っておきたいとかだけ ちなみに自分は、srcにしたい女優さんが7人とかはいます 割と上手くいったdstがあれば、他のsrcでもいけるんじゃね? と言う事で試みようとはしています まだまだsrcにしたい女優さんもいます。基本臭正のみ出演の女優さんの流出ものもどきも作成してみたい 最近のグラドルでもレンタルはDVDばかりですな。こ○る○あたりでも作成したいのですが 新規srcは、高解像度の顔画像集めが大変ですな
カスタムのbatファイルも増えてきたので、自分が使用しない様な物は別ファルダに待避とかもしています おじさんには懐かしのグラドルは、DVDのIVとかしかなかったりしますが、 意外とDVD画像の解像度でもいけましたぞ 何かここが似ていれば本人らしいとか特徴のあるsrcだといいですな 作成したいsrcは結構あるのですが、その分、srcの選定、抽出、厳選とかに時間がかかりますな 新規srcのTrainには時間がかかりますな。色々な手作業に時間がかかりますな DFLは最初考えていたのとは、大変ですな
>>818 なるほどsetenvをおぼろげに理解したよ。ありがとう データ管理がもう少し改善できそうだ 初心者スレから、また暴れまくる糖質がくるぞ 試行すればすぐに分かる様な質問は無視して 初心者質問は無視して 態度の悪い質問は無視して 自分のプロバイダはそれなりにメジャーなので、糖質スレはしばらくはたてられません 糖質スレをたてたところで、本スレに出入りしたがる様です
>>821 こ○る○はTVでいろんな表情を見せてくれるから高画質で録画したものを使ってる それで俺は満足なんだけど >>825 こ○る○とかのTVからの録画だと、BDレコーダー持っていて、HDD→BDに焼いて BDをPCに持ってきてリッピングですか?BDレコーダーは持っていないしな つべでFHDのインタビュー動画でもあれば、相当いいsrcが収集できますが 最近DVDを借りるのでも、水着のないIVでもよくなりましたな srcの収集目的に変わってきたと言う VRで作っています extract faces MANUAL RE-EXTRACTで 1画面で2つの顔を選択は出来ないのでしょうか?
>>828 ネガティブすぎだろ…。githubリポジトリを見てる作者に言えよ。 糖質隔離スレが欲しいとの要望を受けて 眉毛、前髪問題で暴れまくる質問者とチラ裏日記連投者向けのスレです DFLに文句を言いまくっている人がいますが 作者にたんまりと寄付でもして要望でもしないとね クソスレ立てるな スレ立てた奴、もう他のスレに来なくていいのでここで隔離されててくれ とのカキコが
ヘボGPUなのでsrc0.12、dst0.08くらいまでしかない
>>832 照明条件よくても0.05未満はなったことないすね。 0.06前後で下げ止まる。dropout on は試してないけど。 1229だけど500k超えたあたりから急にプレビューが2枚目以外マスクになったけど仕様?
いくらなんでも適当な奴多すぎだろ 英語表記だからって理由じゃ説明つかないぞ
>>788 素晴らしい仕事です。ありがとうございます。 >>838 >>839 ん。誰でもできる事だよ。でも5ちゃんに緒o入りしている瑞lはこう言う事bヘあまりやらなb「みたい b竄チてみたら、意外と受けた。試ゥ分が欲しかっbスから作っただbッの物なのだが でも5ちゃんに出入りしている奴はこう言う事はあまりやらないみたい やってみたら、意外と受けた。自分が欲しかったから作っただけの物なのだが
>>842 技術交換スレでも、5ちゃんとかは1行レスの無駄レスだらけで埋まるのであった 特に提供ネタが無くて、煽りだけなら、別に書き込まない方がいいと思うけど
1回の書き込みで済むことを1行ずつ2回に分けて書いてるやつが何言ってんだ
ここ、すごい頭いい人が何名かいるよね すげえなあと思ってしまうが、カテゴリー的にはエロ動画愛好家なんだよなあ。
本日の患者さんのIDは以下、NG推奨 H2wnSFlj0 JvsXi898
>>850 ストーカーめw ZexBUxgt0 4MEcGG/50 lTD2loQZ0 もNG推奨だと思うけどw このスレは、もう次スレも建てない方がいい気もしてきた いいかげんノウハウの交換もネタ切れ近いかも 本スレの次スレを建てたい場合は、初心者の質問厳禁とか 初心者質問スレに誘導してね あと、これ見た方が、結局は話が速いと言う事は、できればテンプレに貼ってね
長時間PCを放置したい人向けのちょっとした工夫でも書いておくよ 1.複数動画を分解&extract →data_dst1.mp4/data_dst2.mp4/data_dst3.mp4…のように複数準備しておく →基本は3.2) extract images from video data_dst FULL FPS と 5) data_dst extract faces S3FD best GPU の中身を連結しただけ "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed extract-video ^ --input-file "%WORKSPACE%\data_dst1.*" ^ --output-dir "%WORKSPACE%\data_dst1" ^ --output-ext "png" ^ ★これを追加するとコマンドラインで訊かれなくなる --fps 0 "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^ --input-dir "%WORKSPACE%\data_dst1" ^ --output-dir "%WORKSPACE%\data_dst1\aligned" ^ --detector s3fd ^ --debug-dir "%WORKSPACE%\data_dst1\aligned_debug" 以下dst2、dst3用を追記
2.convertとmp4作成まで一気に "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" convert ^ --input-dir "%WORKSPACE%\data_dst" ^ --output-dir "%WORKSPACE%\data_dst\merged" ^ --aligned-dir "%WORKSPACE%\data_dst\aligned" ^ --model-dir "%WORKSPACE%\model" ^ --model SAEHD "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed video-from-sequence ^ --input-dir "%WORKSPACE%\data_dst\merged" ^ --output-file "%WORKSPACE%\result.mp4" ^ --reference-file "%WORKSPACE%\data_dst.*" ^ --bitrate "3" ★この行を追加(数値は各自お好きに) このままだとconvert完了時に止まるので Converter.py の581行目修正 if len(self.frames_idxs) == 0: self.process_remain_frames = False self.is_interactive_quitting = True ★この行を追記(ESC押したことにする)
せっかくsrcにもマスクしたけど、truefaceにしたら髪の毛生えてきた。どうにかならないでしょうか。
コンバートすると、dstの下唇が残ってしまいます 打開策ありますでしょうか
>>859 原理はわからないけど経験則的にはsrc画像の特徴や色合いが強制的に再現されるので truefaceを使わないか、髪の毛があるsrc画像を消す/もしくは髪の毛を自分でレタッチして消す とかじゃなかろうか >>860 勝手に状況を推測するとdstが舌出ししてるシーンでFAN-dstでconvertすると dstの舌の一部とsrcの下唇とが同時に見えるって感じ? 前スレ前スレあたりで話してたように、自分でmaskをtrainするか srcのmaskの口の部分をぶったぎる(dstの口にしてしまう)とか? ちなみに俺はめんどくさいので出来上がりをそのまま受け入れているよ… srcにマスクしてもTFで髪が生えるって、多分全てのsrcの髪をマスクしきれてなんだろうな
>>785 すみません VRで作るのってどうやるんですか >>863 基本2Dと同じ作業でいけましたよ ただ、顔が画面端で歪んじゃうと、顔として認識されないので注意 だからdst動画の選別が限られてしまいますね 本格的にVRやろうとしたら過去スレ3に書いてあるCube2DMを使って一旦2Dにするという方法がある めちゃくちゃめんどくさい
== 14.11.2019 == Converter: added new color transfer mode: mix-m == 13.11.2019 == SAE,SAEHD,Converter: added sot-m color transfer Converter: removed seamless2 mode FacesetRelighter: Added intensity parameter to the manual picker. 'One random direction' and 'predefined 7 directions' use random intensity from 0.3 to 0.6.
== 12.11.2019 == FacesetRelighter fixes and improvements: now you have 3 ways: 1) define light directions manually (not for google colab) watch demo VIDEO 2) relight faceset with one random direction 3) relight faceset with predefined 7 directions == 2019年11月14日== コンバーター:新しいカラー転送モードを追加:mix-m == 2019年11月13日== SAE、SAEHD、コンバーター: sot-mカラー転送を追加 コンバータ: seamless2モードを削除 FacesetRelighter: 手動ピッカーに強度パラメーターが追加されました。 「1つのランダムな方向」と「事前定義された7つの方向」は、0.3〜0.6のランダムな強度を使用します。
== 2019年12月11日== FacesetRelighterの修正と改善: 今、あなたは3つの方法があります: 1)手動で光の方向を定義します(Google Colab用ではありません) デモを見るVIDEO 2)1つのランダムな方向でファセットを再照明する 3)事前に定義された7方向のファセットを再照明する Deepfake国内二強 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。 国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の 大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。 転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの 嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。
ユーザーマニュアルの機械翻訳から抜粋 理解:このプログラムは、すべての場合において人の完全な交代を保証するものではありません! それはソースデータの品質、それらの光源の互換性などに依存します。 また、最近登場したテクノロジー(2018年2月)は、額や髪のない人だけに置き換えられるため、理想からはほど遠いです。 多くの時間と労力を費やすことができますが、最終的には何も得られません! 成功した偽物を最初の試みにする可能性は低いですか。 さまざまな人とフェイキーを作成しようと多くの試みを行った場合にのみ、すべてのニュアンスを理解できます。 DeepFaceLabは、1人の純粋な熱意で作成されました。したがって、エラーを見つけた場合は、理解してこれを扱ってください。
顔素材って目鼻口隠れてたら使えないの? 唇になにか咥えててちょっと隠れてたらムリ?
音声波形データから実物の声のAI合成できるようになるのはいつや これできたらもう何もいらん
>>876 mask処理すれば使える。 しなくても使えないことはないが、 例えば顔の前に手がある場合、 その手も含めて顔と認識される。 ユーザーマニュアルの機械翻訳から抜粋 理解:また、最近登場したテクノロジー(2018年2月)は、額や髪のない人だけに置き換えられるため、理想からはほど遠いです。 DFLは最近登場したテクノロジーを使用しており、それは額や髪は顔扱いしないと作者が明確に言っている
>>877 DeepFakeVoiceは既に実現できているのでは? ただフリーソフトとして皆に開放されていないだけかと 海外でオバマ元大統領がトランプ大統領の悪口を言っている動画が 言ってね 海外で上司になりすまして電話し、架空請求、振り込め詐欺の電話が 電話だと高い周波数成分はカットしているので、兄弟姉妹でも区別できなかったりするし 大学または大学院レベルの各種数学の知識、Pythonを始めとした各種プログラミングの知識、 AI、Deep Learning、neural network、NNの知識、 データを収集できるスキル、機械学習できるスキルがあれば、いかようにもできるかと お好みの声優さんで、任意のテキストをナレーションとかして欲しいかな? お好みの声優さんのVoiceを収集して学習の必要はありそうだけど 音声Fakeはできると言えばできるし、既にできている ただフリーソフトとして公開すれば、公開は悪用しか無いとして差し止められるだけかも知れない フリーソフトを当てにせず、自分でプログラム書けばいいだけ。上記の知識は必要そう 自分でデータ採取して、自分で機械学習して、自分でモデルを作成すればいいだけ 何か新規にやりたい事でもあれば、PythonとかDeep Learning、neural network、NNとか理解すればいいだけ
trainの右側loss値だけど、どのくらいが下限Maxなんだろうか? iter380万でやっと0.057くらいなんだけど(LMのみTrue時)。 本人度もかなり高まって来ているように思う。 0.03くらいになれば超越したsrc再現度になるのかぁ。
ぶっかけは動画編集ソフトでそれっぽく作れるよ 完成動画を基準にしてdst動画を重ねて 基準よりも明るい部分(精液)のみ合成 でも精液のせいで思うように学習が進まないからぼやける…
mask範囲外で探すか、端っこなら気合の全マスクでイケる事もある 正面以外でのextractで鼻先とか片方の瞼なんかがa使っても微妙に収まらないのが疲れる
srcを学習したいと言う事で、 srcとdstのalignedに同じ顔画像をコピペして、学習する事はありでしょうか? 無意味でしょうか?
ありかなしかを事前に判断しようとするのは何故? 自分で試せる事は自分でやればいいんじゃないの
ぶさかわsrcをやってるとdstが可愛いのにつられてなかなかいい感じにぶさいくになんない しかしある瞬間から突然ぶさいくに変化していく現象をぶさいくの谷を超えたと呼ぼう
>>890 SAEHDの互換性がなくなったので似たような実験してるけど試行回数10000回程度での個人的な知見は 「srcの学習速度(1iterあたりの処理時間/loss値の下がり方)と、dstの枚数/内容とは無関係」だよ ※src枚数が増えるほどloss値は下がりにくい なので0から学習効率を上げる仮説としてはこう考えている 【初期学習】・複数人のsrc画像を全部混ぜる/dstは適当に1枚 ・randomwarp/learningmask/lrdropout/trueface等はOFFにして処理速度を上げる ・ある程度(数万回?)trainする 【本番】・ある一人のsrc画像のみにする/dst画像を作りたいものにして通常trainする ・これをsrcごとに行ってそれぞれの学習を進めていく ちなみに今が〇きー/かんな/田中みな〇/ささ〇希/吉岡〇帆/だ〇りお/宇垣〇里のaligned6000枚でやってて、 ・この7神合体で動画を作るとどう混ざるのかの好奇心 ・デフォルト値が変わったdim512からdim256になると悪い影響は出るか を試そうとしているよ違う意見もお待ちしています、さらに言うとdst側の学習だけoffにできないかコード眺めてるけどハードル高いね… 面白い実験だね 俺もコード眺めたことあるけどtensorflowやkerasの知識がないし変んにいじるのあきらめた
じゃあpretrainの画像変えて最初学習すればいいのかな
>>895 そうそうその通り、ごちゃごちゃ書いたけど結局は「自分の好きなsrc複数でpretrainしましょう」と同義かな 0からやり直す必要のない人はもちろん今ある学習済modelの継続利用でよい ちなみに俺は作りたいsrcが12人くらいいてわちゃわちゃなので効率を求めてるだけです みんな何人くらい作ってるのかな 世に出回ってるのは数十人くらいあるよね ボロGPUとかCPU内蔵GPUでやってる人は、モニタ消してみて これみよがしに処理速度が上がるよ つまり学習とかは、寝てる間にモニタ消して処理すればいいって事
trainマシンのモニタ接続を物理的に外し、別PCからリモートデスクトップ。これでbatを1増やすことができた。 (ようはVRAMの節約)
1万強学習して、現在Loss値0.9〜07 学習グラフの傾斜がだんだん緩くなってきたんだけど これって0.2まで到達するのは無理って事? ちなみにconvertしてみたけど、 昔のTVゲームの処理落ち状態で、顔外に四角線出たり、顔が突然ガラス破片化して爆発したり けっこうカオス >>893 ガイヤー 美人?の平均顔を作ったならば、ある意味それが最強なのかもしれない。 なるほどねーdst探ししてる間、 よく使うsrc6-7人混ぜて回してみよ 今のところ12月版のsaeで200万回して壊れてない saehdは70万くらいでプレビューの四隅が変な色に侵食され始めたなー どちらにせよ昔ほどstyle powerで黒い涙流してモデル崩壊とかは起きなくなった
DeepFaceLab 2.0はまだ普通の人はDLできないんだよね?
2.0でファンセグモデルが削除されたことに気付きました。
>>907 DLしてないし、使ってないので定かではないですけど、 facelib下のFANSeg_256_full_face.npyが、そうなのでは? 形式が変わってるっぽいですね。 >>909 こちらも同じ sae+のファッペンベルグがつぶやいてたからマジかと思って あるなら良かった 見てきた Multi-gpu training is now supported. SLIも視野かなぁ
2枚目は抽出でも高温になるから空冷だとtrainできる気はしないな
マルチで額面通り動いたら かなりコストダウンになるのでは
2.0のFAN-xかなりはやくなっとる これだけでも移行の利点あるわ
DFL2.0:res192、dimsデフォ、dfhd、0900ms/Iter、batch 6 2080tiの環境
T4だとres256 batch4 で2500msくらい 多分P100だと1200msくらい
まだ1時間回しただけだけど0からの初期の学習速度(loss値の下がり方)はこれまでよりも速くなってる気が よくわからんけどe/dのdimensionが21から64に上がってるとかそういうのもあるんだろうか あとは底打ちする最終品質と目線とかの表現力がよくなったり…?
Dimsは元々内部で3倍して、奇数だったら1足してたから、多分その処理飛ばして21から64に変えただけと推測。
修理上がりのzotac 2080tiが8.5諭吉で売ってたので二本買ってみた。流石に早いなあ。
Deepfake国内二強 フィリップ2世 オープン気質でフレンドリーなナイスミドル。フォロワー6万超えのカリスマ製作者。 国内屈指の技術力と生産性の高さ、遊び心もあり垢凍結でも前向きに前進する器量の 大きさとフォロワーからも返信多数の信頼感と人望の厚さ。威風堂々としてまさにキング。 No.TEN 実力はそこそこだが閉鎖的な陰キャ気質でブロックが楽しみのブロックマニア。 転載厨を親の仇として憎んでおり作品制作よりもブロックに夢中。 大言壮語を述べた後に鍵垢にして逃亡。復帰後にエロを求めて集まる人たちへの 嫌がらせとしてドラム演奏Deepfakeを公開し自分は技術が高いと自己陶酔ツイート。 その後にDfidolが閉鎖するのを見計らって温存しておいた新作を公開する狡猾さも見せる。
>>928 マルチで動くの? 速度2倍近くになるならとんでもない夢の技術だけど >>929 maskが上手くないのかしてないのか もう少し上手く作れそうなもんだがね これのdstの元ネタわかるソムリエおる? ある程度長めの動画を1個100円で売ってくださる方、 いらっしゃいましたら下記アドレスに連絡ください。 まだネットに上がっていないあなたが作成した動画でお願いします。 詳しくはメールで seso372@ichigo.me
2.0いろいろと高速化しててええな いらない選択肢が増えてるのはめんどいが
手塩にかけて作った動画 お前らなら1分いくらで売る?
pinkってワッチョイつけれるんだっけ? 次スレ建てるならあったほうがいいと思うんだけどどうだろうか?
5秒くらいの動画を100円で良いのなら嫌っていうほど送りつけてやるよ
>>923 >無印1070(8GB):res160 dfhd dimsデフォルト(256/64/64/22) batch6 他のオプションfalse srcを7人混ぜた6000枚で、2.0でtrainを17時間やった結果を書いておくよ個々人で値は変わるので目安だけどね srcのloss値が0.3になるのに5時間(12000回)、0.2になるのに17時間(40000回)、 見た目の品質としては最終形まではまだもう一歩という感じ(歯と歯の間の隙間があんまり無い) ちなみにこの7神合体状態で一つconvert(mergeという呼び方になった)してみたけど 正面はシーンごとに誰かの面影がある謎の誰かに、横顔はやや化け物チックな謎の何かができてしまった 横顔は正面より個性があるから混ぜるな危険なのかなたぶん 目線(アへ顔、上目遣いの超寄り眼)再現は問題なさそうだが色々試さないと分からないかも あと、FAN-XXXは3倍程度速くなった、superresolutionがgaussianからfaceenhancerに変わってより強力になった、つまるところ少々ボケててもかなりくっきりになる 個人的な意見では2.0に移行して悪い点はなさそうだが自己責任で 蛇足だけど 複数人混ぜて初期trainしすぎるのはあまり効率化にならないような気もしてきた 「複数src混ぜてそこそこtrainしてさっさと個人srcに移行する」か、 「手持ちsrcの中で一番バリエーションの多い人でまず十分にtrainし、それを軸にしてこれまで通り再利用していく」かかな 適当に言ってるのでみんな色々試してちょ
fan-xxxのconvert早くなったのはいいが2.0のメリットってそのくらい?
2.0になってcolabの使い方がわからなくなった
モデルに名前をつけて管理?できるようになった 怖くてまだ試してないが
>>948 何が分からないのか分からない程には変わってないと思うがDFLcolabも2.0のに更新したか? >>950 2.0に更新したらmodelが使えなくなってた。 前のバージョンを見つけて自己解決しました。 >>951 modelに互換性が無いから2.0を使いたければ新規で始める必要があるね もしかして、最近2080TIの値段崩れてきた? 大人買いしようと思ったけど、流石に出費でかいので1個だけ買ってきた。
2.0は1050ti VRAM4GBでは厳しそうだな・・・
6月にメモリ容量が増えた3000シリーズが出る噂あるから値下がってきてるんだろう
extract facesが遅いの何とかならんのかな CPU20%、メモリ1.5GB、GPU10%ぐらいしか使ってないっぽい 1.5it/sで30分のdst12時間とかだいぶしんどい。なんか設定とかもないみたいだし >>955 1050tiの者だけどres192、バッチ2、なら回ってくれたから無理ってわけでもなさそうだけどねパラメータほぼデフォで速度もそんなに変わってないっぽいし でもいつかは見切られるんだろうなもっといいの欲しい… 似てねぇんだよ!ヘタクソ共!下手っ粕! どんなに良い機材揃えようが豚に真珠だわ! ふざけんな!
今GRAM15GBの環境でSAEHD,res256,他設定全デフォ、バッチ4でtrainしてるんだけど、 convertや追trainをローカルでやるとして、 バッチ数3とか2減らせばGRAM11GBないしGRAM8GBで動きそうかな?
旧ver.でDF256、40万回くらい回したモデルを使ってるけど、オーバーレイでコンバートすると顔がバカ殿みたく白くなる。 モデル壊れた?
>>957 そっかあキツそうだな・・・ せめてVRAMが6GBくらいあればなあ archi:dfがSAE+みたいなもんなんでdfhdが重い人は試してみたらいい
2.0は最先端だから これからも意欲的にモデル初期化要求されるだろうな
gigapixel AI for videoってやつも凄いね 詳しい仕組みは分からないけど ただ画像の高精細化を繋いでるわけではなくて前後分析みたいなこともしてるらしい 過去のお気に入りDVD資産がかなり綺麗になって幸せになる 低速ながらDFL中遊んでるiGPUを動員して PC資産フル稼働させてる dst側の高画質化にも使えそう
顔真っ赤だなw たかだか二十万しないグラボ程度のおもちゃ買えないとか悲惨だな。
モデルの名前や設定変えて新しいのいくつも作れるのね2.0 こりゃ新モデル育成厨にはたまらんな
以前は初期以降は固定だったdimsとかが後からでも変えられるって事? DF256好きだから2.0対応のmodel待ってるぜ!
いやただ名前付けて簡単に選べるってだけ 変えられないよw
管理が簡単なのはいいね 今まではいちいちファイル移動してた にしても2.0(dfhd)でいまだに上手く作れなくて困ってるよ まだtrain多くないのはあるにせよ1.0と同じsrcとdstなのに顔が似ない、、、
modelフォルダは1つでいいってこと? しかしcolabがここ数日割り当てられない
>>965 これかなりいいな。 DVDからだとかなりの効果を感じる。 >>965 それ業者が宣伝しまくってるやつじゃん。あ、てめーが業者かw すぐに業者とかいうやつ、自分では頭いいと思ってるのかね。
== 25.01.2020 == TFバージョン1.13.2にアップグレードしました ほとんどのグラフィックカードの初回起動時の待機を削除しました。 トレーニングの速度が10〜20%向上しましたが、すべてのモデルを最初から再トレーニングする必要があります。 SAEHD: オプション 'use float16'が追加されました 実験オプション。 モデルサイズを半分に縮小します。 トレーニングの速度を上げます。 モデルの精度を低下させます。 モデルが崩壊するか、訓練されない場合があります。 モデルは、大きな解像度でマスクを学習しない場合があります。 このオプションはいつでも有効/無効にできます。 true_face_trainingオプションは次のように置き換えられます 「真の顔の力」。 0.0000 .. 1.0 実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。
お試し中だから作り直しはいいんだけどバッチサイズが減りまくっててやばい
Quick128とかのカスタムモデルはさっそく互換が無くなった すぐに作り直したけど Quick系とかSAEHD系はすぐに互換が無くなる どなたかDF系作成してくだしゃあ
SAEHD Res256 dims256とかだとかなり重たい 何がそんなにVRAMとか食っているんだ?システムメモリも使っているぞ SAEHDをベースに、DFには無かったオプション削除しまくってみればいいのか?
TFバージョン1.13.2ってtensorflowの略かな \DeepFaceLab_NVIDIA\_internal\python-3.6.8\Lib\site-packagesの下を見ると tensorflow-1.13.2.dist-infoフォルダとかあるし
TFバージョン1.13.2ってtensorflowの略かな \DeepFaceLab_NVIDIA\_internal\python-3.6.8\Lib\site-packagesの下を見ると tensorflow-1.13.2.dist-infoフォルダとかあるし
pythonをコマンドラインから使用したい場合はpython_console.bat使用すればよさそう py -m pip listでおかしなVersionになっていたので py -m pip install tensorflow-gpu==1.13.2 py -m pip install tensorflow==1.13.2
colabで2.0を使うと続きではなくて、また1から学習しなおしになるんだけど Choose one of saved models, or enter a name to create a new model. [r] : rename [d] : delete [0] : noname - latest どれ選択してもダメなんだけど、これってデフォ?
== 25.01.2020 == トレーニングの速度が10〜20%向上しましたが、すべてのモデルを最初から再トレーニングする必要があります。 == 22.01.2020 ==破壊的な変更!!! 1.0としてマークされた古いDFLは引き続きダウンロードできますが、サポートされなくなります。 DFL 1.0のトレーニング済みモデルファイルは再利用できません colabは使用した事がありませんが、問答無用で最新版になるんじゃ?
モデルが崩壊するか、訓練されない場合の 'use float16' 「真の顔の力」実験オプションか恐いな さっそく実験してみよう
> 実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。 これだよ俺が待っていたものは。 けど作り直しがなくなる安定版まで待とう。
いや普通にあるが・・・ 1月25日版だぞ?今までどこから拾ってきてんだ。
for videoは無料だし宣伝とかじゃなく使ってみ まあそれで感動して静止画有料のを買わせる算段なんだろうけど
ver.12.20 iter410万 loss0.5以下でもめちゃくちゃ似てるレベルのものまでしか作れない
実験オプション。 結果の面をsrcの面により似ているように区別します。 より高い価値-より強い差別。
lud20200716203817ca
このスレへの固定リンク: http://5chb.net/r/ascii/1576974608/ ヒント: 5chスレのurlに
http ://xxxx.5ch
b .net/xxxx のように
b を入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【AIコラ】fakeapp その11【革命】 [無断転載禁止]©bbspink.com YouTube動画>2本 ->画像>4枚 」 を見た人も見ています:・王将戦 ©bbspink.com ・【アイコラ】 水玉コラ11 【革命】 ©bbspink.com ->画像>1417枚 ・着衣巨乳・爆乳 37 ©bbspink.com pornhost>1本 ・むしゃぶりつきたくなるカラダの女 106人目©bbspink.com ->動画>24本->画像>626枚 ・【AIコラ】fakeapp その12【革命】©bbspink.com ->動画>8本->画像>19枚 ・野ションしているvine [無断転載禁止]©bbspink.com pornhost>1本 ・【質問】dfl【初心者】【その2】 [無断転載禁止]©bbspink.com ->画像>24枚 ・【いく!】イク前にイクと言いってから、イク動画 [無断転載禁止]©bbspink.com ->動画>2本->画像>9枚 ・ねこ&#169;bbspink.com (914) ・画像 [転載禁止]©bbspink.com (211) ・顔舐め [無断転載禁止]&#169;bbspink.com (6) ・ソーピランド [無断転載禁止]&#169;bbspink.com (3) ・ペド総合 [転載禁止]©bbspink.com (229) ・浣腸 [無断転載禁止]&#169;bbspink.com (17) ・貧乳熟女 [転載禁止]©bbspink.com (57) ・品川女子学院の制服画像 6&#169;bbspink.com (52) ・鬼パンチラ [転載禁止]©bbspink.com (140) ・スク水17 [転載禁止]©bbspink.com (93) ・超パンチラ [転載禁止]©bbspink.com (77) ・昭和のXVIDEOS [転載禁止]©bbspink.com (50) ・JKのvineで抜く Part.7&#169;bbspink.com (142) ・膨らみかけ 3 [転載禁止]©bbspink.com (963) ・手ブラ画像 [無断転載禁止]&#169;bbspink.com (30) ・ようつべの洋炉動画 [転載禁止]©bbspink.com (49) ・【外人】BBWスレ [転載禁止]©bbspink.com (52) ・中出しされてキレる動画 [転載禁止]©bbspink.com (38) ・さくらんぼ女学園 [転載禁止]©bbspink.com (31) ・巨根で犯られる女6本目 [転載禁止]©bbspink.com (429) ・イラマチオ part9 [転載禁止]©bbspink.com (707) ・youtubeのちょっとエロい動画2©bbspink.com (192) ・いじめ脱がし動画 [転載禁止]©bbspink.com (408) ・モリマン 恥丘 土手 [転載禁止]©bbspink.com (33) ・盗撮もののばれるやつがすき [転載禁止]©bbspink.com (36) ・ヌーディスト物総合 [転載禁止]©bbspink.com (313) ・これで抜きたいんじゃ・・・ [転載禁止]©bbspink.com (32) ・そそる集合写真14 [無断転載禁止]&#169;bbspink.com (861) ・本物のレイプ動画27 [転載禁止]©bbspink.com (647) ・水着巨乳・爆乳 1 [転載禁止]©bbspink.com (741) ・人形とセックス [無断転載禁止]&#169;bbspink.com (16) ・ぽっかり空いたまんまんが好き [転載禁止]©bbspink.com (37) ・女におしっこかけてる動画 [転載禁止]©bbspink.com (51) ・着衣巨乳・爆乳 30 [無断転載禁止]&#169;bbspink.com (140) ・ギャルのエロGIFください [転載禁止]©bbspink.com (35) ・ガチ隠しカメラの動画 [無断転載禁止]&#169;bbspink.com (12) ・半角版・おまん師匠 [無断転載禁止]&#169;bbspink.com (118) ・身長の低い女優の画像動画 [転載禁止]©bbspink.com (31) ・U-18のパンチラ動画 [転載禁止]©bbspink.com (590) ・おっぱい画像総合13 [転載禁止]©bbspink.com (143) ・真パンチラ part1 [転載禁止]©bbspink.com (48) ・【動画】洋物熟女【外人】 [転載禁止]©bbspink.com (100) ・【画像】洋物素人画像スレ [転載禁止]©bbspink.com (36) ・アウディ画像を集めるスレ [転載禁止]©bbspink.com (196) ・【画像】パイパン専門 13【動画】&#169;bbspink.com (43) ・自撮りエロ収集スレ [転載禁止]©bbspink.com (121) ・パンチラ part44 [無断転載禁止]&#169;bbspink.com (904) ・学生証・身分証スレ [無断転載禁止]&#169;bbspink.com (20) ・洋炉NN画像スレ [無断転載禁止]&#169;bbspink.com (410) ・くびれ画像part01 [無断転載禁止]&#169;bbspink.com (39) ・可愛い女の子の動画 [無断転載禁止]&#169;bbspink.com (18) ・子宮、子宮口大好き! [転載禁止]©bbspink.com (30) ・顔射動画が集まるスレ [無断転載禁止]&#169;bbspink.com (15) ・今日保存した最高の画像を転載するスレ 478&#169;bbspink.com (191) ・優秀なエロ画像で打線組んだ [無断転載禁止]&#169;bbspink.com (12) ・【急募】( ´_ゝ`) アフォマターリ・・・60©bbspink.com (180) ・xvideosが見れなくなったんだが [転載禁止]&#169;bbspink.com (22) ・カップルのセックス動画総合 [転載禁止]&#169;bbspink.com (27)
17:27:33 up 28 days, 3:51, 1 user, load average: 13.85, 10.11, 9.33
in 0.040127992630005 sec
@0.040127992630005@0b7 on 010907