deepfakesなソフト ◎DeepFaceLab(以下、DFL) ◎deepfakes/faceswap(以下、FS) deepfakesとは? AutoEncoderで顔を再生成できるようにAとBそれぞれの特徴量を学習し、decoderを入れ替えることにより、AとBの顔を交換する手法。 ・質問や情報交換について 日進月歩、モデルやオプションが多様化しているにもかかわらず、局所的な意見が散見されます。 必要に応じて自分の使ってるソフトやモデル、パラメータ等の詳細も書きましょう。
・エラーについて エラーが出て解決できない場合は、なるべく詳細な情報(環境やどうしてそうなったか)を書きましょう。 特にエラー文は1番のヒントです。ググれば解決することも多いです。自分で解決できない場合はログを全文コピペしましょう。 エラーの質問はテンプレ必須。スレのテンプレにある物は、1回は目を通したり、検索したりする事が必須。 【使用ソフト】バージョンも書く 【使用モデル】 【スペック】 【内容】エラー時はエラーメッセージ必須
◎よくある質問 ・違法じゃないの? deepfakes自体に違法性はない。 ただし権利者に許可を得ていないコンテンツの二次利用は著作権法に違反。 また、所謂フェイクポルノを不特定多数が見れる場所に公開すれば名誉毀損(侮辱罪)に該当。 有名人の顔を使用して経済的利益を得ればパブリシティ権の侵害になる。 ・ソフトはどれ使えばいい? 利用者が多く情報が多いのはDFL。FSも英語圏では情報が得やすい。他は更新していない。 ・必要スペックは? VRAM容量6GB〜が推奨スペック。GPU性能は高い程いい。 ・RTXシリーズでも動くの? FS、DFL共に動く。CUDA9.2でも動作する。CUDAは別途インストール不要
・作るのにどれくらいかかる? パラメータやスペックにより異なるがはじめは2日から1週間程度学習させる必要がある。 2回目からはmodelの再利用により学習時間を大幅に短縮できる。但しmodelの再利用については賛否両論あり。 ・lossについて A→A'、B→B'の学習具合の目安にできるが、データセットやtrainer、パラメータに左右されるので具体的な数値目標を設けるのは間違い。学習具合はプレビューで判断する。 顔の前に障害物(髪、前髪、笛、舌)などあれば、loss値はあまり下がらない様だ
技術質問はテンプレ必須。スレのテンプレにある物は、1回は目を通したり、検索したりする事が必須。 【使用ソフト】バージョンも書く 【使用モデル】 【スペック】 【内容】エラー時はエラーメッセージ必須 自分で調べれば分かる事は自分で調べましょう。自分で試せば分かる事は自分で試しましょう
ソフトウェア板の方は板内重複な上に建てたヤツがアレっぽいんで、こっちが本スレって事でいいよな
iperov: delete liaech, arhi will be changed in near future train中の人は留意 動作が軽くてtrain序盤から感触は良かったけどね 新装かoption追加来るだろうか
ソフトウェア板の方はメジャーなプロバイダは書き込めない様で、過疎ってる このスレも過疎ってますが スレ乱立のせい? 過疎ってる方がお望みなのかな? GitHubにはFANSeg来ていますが、Googleドライブやトレントにはアップデートないですね liaechは実験オプションと言っていましたね 横顔や角度の厳しい顔に良いそうですが もちろん、srcの素材がそれなりに無いと、どうしようもないでしょうが
Gigapixel for Videoのオンラインでの無料の奴で高画質に やりまくれるかと思ったら何度かうpるとはじかれるっぽい
SAEHD: removed option learn_mask, it is now enabled by default learn_mask この機能を使用するとパフォーマンスとVRAMの使用に大きな影響があるため、 まずモデルをある程度または完全にトレーニングし、短時間(5-6k回の反復)のみマスクを有効にすることをお勧めします 最後またはトレーニング中のどこか(複数回有効化および無効化できます)。 学習したマスクは、顔の品質には影響せず、マスクにのみ影響します。 学習したマスクは、単独で使用することも、FANsegマスクモードと組み合わせて使用することもできます。 デフォルト値はn(無効)です。 大丈夫?
大分前にここの人が↑と同じようなこと書いてた。 んで俺も必要なときに短時間だけ回すいうにしたけど特に違和感なし
8kにアプコンした20秒の動画をfullspsで切り出したdata_dst画像のサイズが15GB… 一時的な保管とはいえちょっと引く容量だ
changelog.txt == 15.03.2020 == global fixes SAEHD: removed option learn_mask, it is now enabled by default removed liaech arhi removed support of extracted(aligned) PNG faces. Use old builds to convert from PNG to JPG. removed liaech arhi 15.03.2020版以降はliaech使用不可の様です
>>27 どうやらXSegはwhole_faceの時だけ有効で おでこまで手動Maskしてから、FANSegの様に、XSegモデルtrainするみたいです 手動extractの青枠を長方形にするにはどうすればいいですか?
最近試してるんだけど DFLの顔の周りの違和感をなくすこと 特にでこのところの境界線 convertのときになんか設定変えたらできますか? 皆さんはどんな設定にしてますか?
>>32 mergeの時にrctではなくidt-mでやると肌色が合うかも Googleドライブに03_18_2020版来てます ============ CHANGELOG ============ == 18.03.2020 == Merger: fixed face jitter overlay erode-250 blur400 boxsharp3 rct でしてる
03_15版でやろうと思ったらもう新しいのきてるのね FANseg復活してるみたいだけどXsegとFANsegどっちがいいの
>>35 blur400って顔dstになるんじゃないかな == 24.03.2020 == SAEHD: 'dfuhd'および 'liaeuhd' archiを追加 uhdバージョンは「HD」よりも軽いが、通常バージョンよりも重い。 liaeuhdはより「srcに似た」結果を提供します
liaeuhd使ってまだ80kだが、srcに無い画角の崩れ方が酷いかも なんかdfっぽい
== 2020年3月25日== SAEHD:「dfuhd」と「liaeuhd」archiを追加 uhdバージョンは「HD」よりも軽量ですが、通常のバージョンよりも重いです。 liaeuhdはより「 srcのような」結果を提供します ほとんど24日版の差し替えみたい。24日版は無かった事になっている
好みで 3) extract images from video data_dst FULL FPS.bat @echo off call _internal\setenv.bat mkdir "%WORKSPACE%\data_dst" 2>nul "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed extract-video ^ --input-file "%WORKSPACE%\data_dst.*" ^ --output-dir "%WORKSPACE%\data_dst" ^ --output-ext "png" ^ --fps 0 pause
好みで 2) extract images from video data_src.bat @echo off call _internal\setenv.bat mkdir "%WORKSPACE%\data_src" 2>nul "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" videoed extract-video ^ --input-file "%WORKSPACE%\data_src.*" ^ --output-dir "%WORKSPACE%\data_src" ^ --output-ext "png" pause
動作可能ギリギリまで解像度上げてたけどやりすぎはダメだな・・・ バッチ2ですらmaskとかGANとかのオプションが動かねえ ある程度ゆとりをもった解像度設定にしとけばよかったわ
パラメーターを上げすぎると、2台のPC間でファイルコピーしただけでも落ちる 若干不便 VRAM 24GBでしかtrainできない設定にすると VRAM 8GBのPCは顔抽出までの専用機とかMask Editor専用機に
wholefaceはsrc画像を使ったアイコラのアニメーションにしかならないな
4) data_src extract faces S3FD best GPU.bat @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^ --input-dir "%WORKSPACE%\data_src" ^ --output-dir "%WORKSPACE%\data_src\aligned" ^ --detector s3fd ^ --no-output-debug ^ --force-gpu-idxs 0 del "%WORKSPACE%\data_src\*.png" /q pause
ganって使った方がいいの?使うにしてもおすすめ数値がわからん
== 2020年3月27日== XSegEditor:バグの修正、レイアウトの変更、現在のファイル名ラベルの追加 SAEHD:事前トレーニング済みのliaeモデルの使用を修正、顔のモーフィングが少なくなりました
mask editorがめんどすぎる もっと簡単にやれる方法ないよなー・・・
>>53 くそめんどいよな 最近whole face使ってるがdst変えるごとに手動でxseg editすることに疲れてきてfull faceに戻りたい random warpってsrcの汎用モデルを作る時は汎化のためにもちろん使うと思うけど、dstと顔交換する時もがっつり使う?
liaechはおれもいいなと思った 他とコード構造も全く違うものだったし、差別化に可能性を感じた 消された時はコードは選択部分だけの削除だったから比較的簡単に自分で書き戻せたけど、今回のarchiの追加で骨組み部分がバッサリ消されてしまった ちなみに今回の「u」版はliaechの流用というわけでは全く無くて、既に書いた通り非HDをほんの少し変更したものだね 的外れなら申し訳ないんだが、DFとLIAEのアーキテクチャの違いって識別モデルか生成モデルかの違い? LIAEの方が色んな角度に対応できるのって入力データから分布推定して自分で訓練データ生成してるから? 合ってても間違ってても教えてくれると助かる 識別か生成かはよく分からないけど LIAEは外観と表情を明示的に分けて中間層を作るモデル構造を採ってるために モーフィング的なスワップが上手くいくということだと思う
外観(輪郭のこと?)を表現する中間層を用意することで外観ごと似せられるようになるってことなのかな IAEをImplicit AutoEncoderの略だと勝手に解釈をして>>54 みたいなことを考えてたけど、それは関係ないみたいね ImprovementAEだね 元はfsの関係者が「速度や解像度の面で優れたAEを作ったよ」と出して来たものを dflの作者が調整してliaeになった なのでオーソドックスタイプに比して角度に強いとかいう特徴が残ったのは結果論であって元々意図したものではない気がする オーソドックスタイプもdfl独自の改良を経てDFとして進化をして来たけど、liaeはその特徴があるために並行して残されてるんだろうなと liaeはdfにおけるtfの様なお手軽にsrcに寄せるパラメータが無いのが最大の欠点だから 作者も今そこを克服させるために試行錯誤して出してきてるのがliaechだったりliaeuhdなんだろうね このスレ、前はあっという間にスレ消費してたのに最近は遅くなったね
日記が来てから以前レスしてた人たちが来なくなって 日記もいなくなった
日記はまだ色んなスレに出没してる。 日記対策でワッチョイスレに変えたけどそこはメジャープロバイダ規制が多く書き込めないことが多いらしい。
== 2020年3月30日== 新しいスクリプト: 5.XSeg) data_dst/src mask for XSeg trainer - fetch.bat XSegポリゴンを含む面を、aligned_xseg \ dirにコピーします。 ラベルの付いた顔を収集して他の偽物で再利用する場合にのみ役立ちます。 これで、SAEHDトレーニングプロセスでトレーニング済みのXSegマスクを使用できます。 これは、ランドマークから取得されたデフォルトの「full_face」マスクが、トレーニングされたXSegモデルから取得されたマスクで置き換えられることを意味します。 使用する 5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-apply.bat 5.XSeg.optional)data_dst / data_srcのトレーニング済みマスク-remove.bat 通常は必要ありません。障害物で 'face_style'と 'bg_style'を使用したい場合は、これを使用できます。
XSegトレーナー:顔のタイプを選択できるようになりました XSegトレーナー:「オーバーライド設定」でトレーニングを再開できるようになりました merge:XSeg- *モードをすべてのタイプの面で使用できるようになりました。 したがって、古いMaskEditor、FANSEGモデル、およびFAN-xモードは削除されました。 新しいXSegソリューションの方が優れており、シンプルで便利です。通常のディープフェイクの手動マスキングは1時間だけです。
まぁ日記は少なくともスレ違いな事はしてないしな 人様とピントがズレてるのとコピペ多様しがちというだけで おれは初心者が断定的にデマレスをしていたのが我慢ならなかったからワッチョイスレ出来て良かったわ
DFLの顔認識の精度については、DFLの作者がやっている事では無い S3FDとかdlibとかopencvとかDFLの作者の考案では無い 68ランドマーク方とかDFLの作者の考案では無い
顔認識の精度を上げようとすると、処理時間がえらいかかる 誤検出を避けようとすると未検出が増える 未検出を避けようとすると誤検出が増える
手間を抜くとその程度のものができる、手間をかけると良いものができる(とは限らない)
xsegうんぬんになってまだなんもやってないんだが結局 なんかやり直したりせんといかんの?
顔認識の研究用のデータセットも、記念写真の様な正面が多いだろう 角度の厳しい顔を収集しようとすると、膨大な手間と金と時間が データセットを収集してタグ付けしている人と 顔認識のアルゴリズムを考案して実装して検証している人は別でしょう 角度が厳しいとランドマークが一部無くなる 難しいでしょう
動画から顔抽出も、1フレームの静止画からしている 静止画からの顔認識の研究はあるが、フレーム間の相関とかを利用した 動画の顔認識の研究、実装は無いと思うが 正面顔のランドマークだと耳は無いな。見える事が期待できないからでしょう 人間の耳の形状の平均顔、期待値とか求めるのも難しいでしょう 大勢の人の舌出し顔とかのデータセットとか無ければ、舌のランドマークも無い
>>75 関連スレ分離したし 質問スレ、素材スレ、ソフトウェア板にもあるし そろそろ技術交換の話題もネタ切れに近いかも 1つ検証するのも時間がかかるし 0330版で 7) merge SAEHD.batでエラーになってしまうので以下 Model_XSegのmodel.py 25行目のwfをfに変更
0330版で 7) merge SAEHD.batでmergeが進まないので 03_27版に戻した XSeg trainしないとだめみたい デフォルトのモデルは無いみたい
がいしゅつだったらすまんが、フールフェイスとフルフェイスってどっちがいいの?
>>81 whole_faceで笛動画の顔の抽出だけやってみたのだが、 full faceより顔の取りこぼしが多かった 額に前髪がかかっているから? whole_faceだと顔の手動再抽出が多くなりそう 手動Mask必須の様だが、おでこまで顔扱いなので、境界、肌色の違和感は感じないかも whole_faceだとMaskしてXSeg trainが必須の様な。。 好みで 4.2) data_src sort by face rect size in source image.bat @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" sort ^ --input-dir "%WORKSPACE%\data_src\aligned" ^ --by face-source-rect-size pause
>>71 full faceでMaskしていないsrc/dstだとmergeの時に xseg-prd+xseg-dst+learnedを選んだらエラーに このモードでmergeしたい場合は、MaskしてXSeg tranが必須の様な。。 srcの汎用モデルを作る時ってどこまでtrainしておく? 歯列がハッキリするくらいtrainしてるんだけど皆どんなもんなのかと
>>85 個人的にそのくらいでいいのでは? しかしsrcで下の歯が見えるのが少ない dstが上○結○だと結構下の歯が見えるので、上の歯くっきり。下の歯ボケたりしてます dstの下の歯Maskかぁ。。面倒 == 2020年4月4日== Windows 10の入力ダイアログのバグを修正 ディレクトリパスにスペースが含まれている場合のXSegEditorの実行を修正 SAEHD:「顔スタイルのパワー」と「背景スタイルのパワー」がWhole_faceで使用できるようになりました これらのオプションの新しいヘルプメッセージ。 XSegEditor:「トレーニングされたXSegマスクを表示」ボタンを追加しました。これにより、マスク品質を向上させるためにどのフレームをマスクする必要があるかを確認できます。 merge: 「raw-predict」モードを追加しました。ニューラルネットワークから未加工の予測正方形画像を出力します。 「学習済み」のマスクモードは、3つの新しいモードに置き換えられました。 「learned-prd」–予測された顔の滑らかな学習マスク 「learned-dst」– DST面の滑らかな学習マスク 「learned-prd * learned-dst」–両方の最小領域(デフォルト)
新しい顔のタイプを追加:頭 これで、ヘッドを交換できます。 例:VIDEO 要件: Adobe After EffectsまたはDavinci Resolveの後処理スキル。 >>88 これやばバババババwww早速使ってみるwwww head はxsegが必須とのこと。 トレインも1からやらなきゃいけないし、、、
iperovさんは時代の最先端のクオリティを実現したいって言ってるからな ユーザフレンドリーさとかより新機能を追求したいんだろうな
作り方書いてたサイトも潰れてきたし 地下に潜って技術高めますね
== 2020年4月6日== 16以上のCPUコアと大きなフェイスセットの修正。 XSegトレーナー用の5.XSeg)data_dst / data_srcマスクを追加 -remove.bat 抽出されたフレームからラベル付きのxsegポリゴンを削除します
元動画の顔の輪郭を変えるやつと音声fakeができると最高 これができるの何年後になるだろうな
好みで 4) data_src extract faces S3FD best GPU.bat @echo off call _internal\setenv.bat "%PYTHON_EXECUTABLE%" "%DFL_ROOT%\main.py" extract ^ --input-dir "%WORKSPACE%\data_src" ^ --output-dir "%WORKSPACE%\data_src\aligned" ^ --detector s3fd ^ --face-type full_face ^ --no-output-debug ^ --force-gpu-idxs 0 del "%WORKSPACE%\data_src\*.png" /q pause
動画じゃなくて画像をめちゃハイクオリティで仕上げるディープフェイクが欲しい
>>101 DFLでも静止画で顔を入れ替えていますよ DFLでも静止画アイコラは制作可能 しかし輪郭と髪型は入れ替わらない 網膜投影でディープフェイク風俗流行る未来になってくれ
>>98 ロボット工学とか研究してみたらどうですか? 最近は進化の方向性がxsegとかheadとか海外向けで日本では話題が少ないな face extractの高速化とか基礎能力向上系は開発者は興味ないだろうしなあ
1番改善して欲しいのは色合わせ力かな AVはやたらと赤っぽかったりして しっくりくる相性の良い作品が少なすぎる
>>105 選挙とかもあって、エロじゃなくて政治用の需要と寄付が多いんじゃね DFL0406版、dstの障害物をmaskするのに前の 5.3) data_dst mask editor.bat が無い。 どうやってマスクするんだ?
twitterで作者限定のグループDMやってます。過去スレ参考にどうぞ。
dst の extract の face type がデフォルトで「wf」になってるけど、wfにする意味あるかな?
fは額の中間で切れる。wfは額全域を残しつつ背景の割合が多くなる XSegとmodel-wfのtrainで若干影響がでるぐらいでこだわりが無ければfでも大丈夫 それよりもmodelがfかwfかの方が違いがあって、mergeの時に model-wfだとXSegの学習しだいだけど額上部の生え際まで変換範囲にできる model-fだとXSegの学習をしてあっても額の中間までが変換範囲
== 2020年4月14日== Merger:最適化 color transfer「sot-m」:色のちらつきは軽減されますが、処理時間がx5長くなります マスクモード「learned-prd + Learned-dst」を追加: dstマスクと予測マスクの両方で最大の領域を生成します XSegEditor:編集中にポリゴンが透明になりました 新しいサンプルdata_dst.mp4ビデオ 新しい公式ミニチュートリアルVIDEO >>106 色合わせは計算量の都合上、サンプリングしている点数が少ないので、合わない事も多いんでしょうね おでこの色の境目が。。 >>108 5.3) data_dst mask editor.bat やFANSegを使用したいため、 03_27_2020 FANSEG LAST BUILD を使用しています 笑った画像しか無いんだが上手くいかない そもそも表情が少なすぎるのか? ご教授願います
目をつぶった画像が多くあればなんとかなる 全フレーム抽出→類似画像検出ソフトで選別→@類似でない画像のボケ・ブレ画像削除、 A類似画像の中からボケてないブレてない目つむり画像のみを選ぶ @とAからextract これで君も全フレーム教の教徒だ
>>119 ご教授ありがとうございます ただ笑ってるだけで目をつぶってる画像が一枚もなく、しかも斜めの画像しかないのでかなり厳しいです かなりヘンテコな動画の仕上がりで諦めるしか無さそうです 失礼しました さてはsrcは知人だな そういうdstを探したほうがいいかも。正面固定のオ○ニー動画とか オ○ニーフェイスで検索してみたらいいかも Liaeなら斜め向きの画像だけでもある程度はいけそうな気がする
主観はVRが主流なんだけどVRを2Dにして作ることってできるんですか? 技術スレはハードルが高くて見てないので当たり前の事だったらごめんなさい
出来るけど難しい 普通に2Dの主観物からdstになるのを探したほうが良い
== 2020年4月15日== XSegEditor:描画モードでシフトを保持することにより、中央にビューロックを追加しました。 Merger:色変換「sot-m」:5〜10%の速度最適化 サンプルローダーの小さなバグを修正
liae系のマトモなmodelが出てこないとxseg以降のbuildを使う気にならない 米選挙が終わるまではiperovもporn用じゃなくてspeech前提での開発しかしない気かな
俺も年末のVer.1に戻った。 DFLの進化を201906〜201912ぐらいので仕上がり比較したら 201908ぐらいでランドマークブレが解消・色調異常が顕著 201911ぐらいで異常角度以外のランドマークブレ・色調異常の双方が解消って感じ。 DF128で全体、アップシーンはあんま輪郭関係無いからH128で解像感得て Fanseg使わずアルファ吐きして、Aviultで如意棒反転マスクってのが最も効率が良いと思う。 まぁ手とかは素のFanseg必須だから、そこらは使い分けてるけど。 コロナボーナスで2070SPでも買おうかと思ったけど、昔使ってたRadeonの8Gでええわ。
やっぱその手の情報は目に入ってくるけど 写真1枚から動かす遊び的なのがほとんどだよな 表情変化させてsrc補完に使うとか色々可能性はあるかもしれんが
DFL 1.0のsort_by_yawがあると、無駄な学習をせずに済むのに DFL 2.0に移植しようとしたけど、自分の力では無理でした srcとdstを混ぜて、sort_by_yawして、無駄なsrcは手動で退避しようかな
>>130 Trainのsort_by_yawって多分aligndユーティリティのヨーソートと同じロジックだと思ってんだけど その場合、Pitchはグチャグチャになるだろ? 経験上Pitchの学習速度が妙に遅かったり、特に上向きが全く収束しないのはこのせいではって思って 仕組みが良くワカランけど、Ver1で今検証してるとこ。 とりあえず動画抽出時点で上向き系が集合する様に吐いてやってるけど Yaw_Offだとどういう順番でBatch組み合わせになるんだろ? >>121 亀レスですまんが知人じゃなくて地方のローカル局アナでマニアックすぎる人なんです 今は画像しか残ってなくて大変苦労してました 画期的な効率的処理方法思いついたわ PCが1台しか無い場合、同じDFLを2フォルダ作成して 片方がDFLを処理してる間にもう片方のフォルダ側で別作品の不要src画像削除を進める これで待ち時間が減ってかなり効率上がるよ
data_src01 とかフォルダ名変えるだけで解決するよ
何かと思えば初心者スレにそういう書き込みがあるのか ここには関係ない話
trainしたあとにsrc追加しても効果ありますか?
>>138 ありますが、追加srcを学習するために、src追加後、trainを継続する必要があります >>135 過去VerをD:\DeepFaceLab_NVIDIA_03_25_2020とかで残しておけば GPUを使わない処理、CPU負荷の少ない処理はできる sortでかなり重い物もある様な。。 Ver.1の最後の方でメタデータ抽出&挿入って追加されたけど あれって、くっそ面倒なFansegマスク無しで恵方巻の作成に使えるんでは? 恵方巻のせいで顎ラインを見つけられないからランドマークが暴れるワケで、 抽出前の画像に顎ライン位置に線引けば、適切なランドマークがヒットしやすい。 っがAlignedに生成されるJpegはランドマークメタデータが混じってるから弄れなかった。 けどメタデータ抽出&挿入を利用すれば、Extract後の画像セットを改変出来るから 1.動画編集ソフトでアゴライン当たりにテキトーに線を追加 2.このをExtractしてランドマーク設定 3.ここからメタデータ抽出 4.ガイドラインを書いてない本来の動画をExtract 5.本来の動画で造ったArigndに、ガイドライン入れて作ったメタデータを挿入 ってやれば、かなり綺麗な恵方巻プレイが再現できる気がするんやけど。 ヒマ見て試してみる。
DF派とLIAE派 結局どっちが主流なんだろうか 自分はLIAEメインなんだが
>>143 DF派のが多そう。正面近くならば、パラメータを上げられるし、似るのも速い LIAEは顔の角度が色々ある笛動画などによさそう 重いけれども、似せに行く強引さがあるし 顔と表情を別々に学習しているのだとか DFはできるけどliefはメモリ足りなくなってtrainできないわ
似ててもマグロだと面白くないから表情多い痴女物の方がええのか
表情がないとヌけない ↓ 大量src投入で表情バリエーション増やす ↓ バッチ上げないと時間かかりすぎて待ちきれない ↓ 解像度が犠牲になる ↓ 顔面アップに耐えきれない というループに入っている
アイドルなんかで作っても張り付いた笑顔にしかならないよ 女優のドラマや映画のDVDを何枚も使えばマジで本物になる
>>147 顔面アップのコマ画像だけでも、Topaz Gigapixel AIやwaifu2x-caffe TTAモードとかで アップコンバートしてから、また縮小してみるとか >>148 つべにインタビュー動画、正面、少し左横向き、少し右横向き、表情:中立、笑顔 とかあれば、楽 女優のドラマや映画のBDは、女優だけ取り出すのが面倒だけど、色々表情があっていいかな 照明条件が違うので、肌色合わせが大変な場合もないですか? 少なくともwaifu2xよりDFL標準のFaceEnhancerの方が高性能やけど。 今両方で試してるけどEnhancerの方が爆速やし。 まぁウチはRadeやし、DFL_EnhancerはOpenCLの場合CPU稼働で遅いけど i7_8700で256*2500枚で数十分。 Cudaだと理論値で1/4、CPUのユニットオンリーで*1/10程度やから、10分以内に走ると思う。
Xsegでマスクする時って表情のバリエーションって関係ある? 輪郭は学習されるだろうから角度は色々変えてやってるんだけど、 目をつぶってるとか笑ってるとか表情も関係してるのか知りたい
初歩的な質問で申し訳ないんですけど DeepFakeLabで一度失敗作が出来たので(aligned内の動画素材が無視され同じフォルダ内のDoitおじさんビデオで作られた) 最初から作り直そうと試みるもbatファイルを開いて「続行するには何かキーを押してください」画面でキーを入力すると動作せずにcmdが勝手に閉じてしまう現象が解決できません。 セーフモードで起動しても同じ結果なので先に進めません何か原因がわかる方はいらっしゃいませんか?
>>152 サンプルのdata_src.mp4とdata_dst.mp4は上書き削除した方がいいと思います モデルファイルは、全部消してみましたか? data_srcとdstの下のalignedは期待どおりですか? data_dstの下にコマ、フレーム画像はありますか? data_dst.mp4は音声トラックの抜き出しのため必要です Xseg、全枚数マスクしないといかんのですか? 面倒くない?
そもそもめっちゃローテクやん 「簡単に自動でフェイクポルノがー」っとか言ってるメディアは一回自分で作って見ろと。 そこらの修行僧なんか足元にも及ばんわ
簡単だよって謳い文句に騙されてDFL使った時は顔面奇形になるわ雑コラ感半端ないわでドン引きしたな
Python?なにそれレベルの人には簡単ではない罠。
>>157 まさに俺 bat叩くだけ→なにこの溶けた巨神兵 dtsの顔の下書きで顔の認識みすっちゃったフレームを後から手動でやろうとして5.のgpu best+manualのやつやろうとしたら最初にファイル全部消すってでてきちゃうんだけどどうやって手動で修正するの?
>>160 それじゃなくてRE-EXTRACTっての選んで RTX2070でcpuがryzen5 3600x メモリ32gbという性能の自作pc使ってるんですがH128やるとメモリ不足でtrainできないってなるんですけどgpu変えたほうがいいですかね?cpu変えたらできるようになりますか?batchサイズ下げたら時間かかるけどできるようになりますか?ちなみに今は32でやってます。
バッチ32は高すぎ バッチ数は低いと進行が速いけど似ない、高いと遅いけど似るから 最初はバッチ低くしてloss値を下げていって、下げ止まったらバッチ高くすると良い と聞いた気がする
マージするとどうしてもsrc側の前髪が残るので修正したいんだけど、 fullでtrainしているsrc側のマスクを修正するのって画像を直接編集するしかないって認識で合ってますか?
髪のマスクってAfter Effectとか使えば楽になるって聞いたけど月額2500円も掛かるからハードル高い
前髪が残っても問題ないようなdstを探すのが一番だな 左右反転させてでもsrcと合うようにする
素材は同じようなのばっかりでもtrainに時間食っちゃうからだめなんですかね?
>>165 ありがとうございます。 batchあとから変更しようとしたら出来なかったんですけどどうやりましたか? DFL1だと前髪とか自然にマージ出来たんだけど、2になってマスクとかカスタマイズできる分厳格になったのか、単にモデルのtrain数が足りてないんですかね。 色々と試してやってみます。
ここは質問スレじゃないって書いてあるだろ 初心者スレってのがあるからそこでやって
>>166 眉毛が出ているsrcを探すのが一番楽。あるいは眉毛が出ていないdstのみにする >>171 2秒以内にEnter >>172 Overlayじゃなくてseamlesにすると前髪うまくいく場合も バッチ数って例えば運びたい荷物が沢山あるとして それを一度にどれだけ抱えて運びますか、みたいなことじゃないの 一度に抱える数増やせばそれだけ時短になるけど 量が多過ぎると持ちきれなくてこんな重いの運べねーよ!ってなる そこで運ぶ奴の体力と荷物の量の折合いつけて無理なく、かつ迅速に動ける数値を決める、みたいな 仕上がりには関係しないと思ってたけど 俺もよく分かってないから違ったらすんませんw
どっかにバッチ数より解像度だって書いてあったから最近は解像度重視にしてるな
素材選別で難易度が変わるのってPhotoshopでアイコラが流行ってた時と同じだよなー 何も気にせずにお気楽コラが作れるようになるのは何時になるんだろうか
>>177 バッチ数より解像度、Dims重視。できあがりの品質に関係してくる まあ、DVDで顔アップでもない場合はRes128でいけるかも 別モデルになってしまうが >>179 眉毛が見えていても、眉間に前髪の触覚がかかっている場合は、やはり手動Maskが必要 バッチ数はみんな言うことが違って良くわからんw 常に進化させてるから、その時々で理論も違ってくるんだろうと思うけど
バッチ数等の話はTrainモデルに拠る。Ver1の頃の素のH128やDF系はバッチ数が命。 バッチ数が高いほど、並列学習でModelDataに正常学習としてヒット吸収する率が高くなるから。 そもそもここがDeepLeraningの神髄なワケで。 実際にDF128と256(上っ面だけじゃ無くπも直したバージョン)で試したけど 128バッチ8・16・32でそれぞれ40万・20万・10万回すと、バッチデカイほど頭打ちは起きず高品質に。 更にDF128・バッチ32をIter0.1まで持って行くのに10時間掛かる素材の場合、 DF256でバッチ8は理屈では4倍回せば良いハズだけど、100時間回してもIter0.2でほぼ頭打ちに。 つか、こんなこと書きに来たんじゃ無かった。 AV女優と、女子アナや一流女優の致命的な顔の差に気付いたんです。 この条件を考慮すれば、失敗が激減します(但しオバカ芸人は除く) lossのことをiterとか書いてる時点でゲボ吐きそう
>>183 DF256の(上っ面だけじゃ無くπも直したバージョン)ってどんなの? バッチサイズの厳密な影響は未だに論文で議論されるレベルだから、素人の俺では影響について完璧な説明はできないが、 まずバッチサイズの基本的な意味自体は理解しておいた方がいい DFLにおいてバッチサイズとは、1回のモデル(重み)更新に何枚の画像を使うかということ バッチサイズが1の場合、その1枚の画像に対してlossを小さくする方向に重みを更新する バッチサイズが10の場合、10枚の画像それぞれに対してlossを小さくする方向を計算し、その平均の方向に向かって重みを更新する
理屈は置いておいて、一定のloss値(例えば0.2)まで収束させるのにたとえば 「バッチ2でずっと回す」「バッチ30でずっと回す」のどっちが早いのか 最適なバッチサイズの値はデータにもよるし理論的な保証はないので、基本は実験的に確かめるしかない ただDFL界隈ではVRAMが許す限りバッチサイズを高く設定する傾向がある DFLにおいては、市販GPUのVRAMで取りうるバッチサイズの範囲であれば、数値を大きく した方が速く目的のloss値まで収束することが経験的に知られているということかもしれない
最初にモデル作る時はバッチ気にしたけど それ以降のモデル使いまわしはバッチ最大でずっと動かしてるな
自分の環境内で回る最大って意味ね 俺は8までしか上がらない(1080でSAEHD)
pornhubからVRダウンロードしてそれでフェイク作ったけどうまくいかん
一応ちゃんとVRにはなったんだけどなぁ足りないんだよなあ調べようかなあ
VRは素材選びに異常に時間がかかるし、なかなか似ない どこかで妥協が必要になる
まともな議論するとすぐ正論で返されてマウント取れないからね
だんだん発言者を叩くのがメインのスレになってきとらんか
誰かが原因でこういう流れになったというのはわかるよね
もともとこういうスレじゃん イカ臭い屍がファビョってウサ晴らししてるのが笑えるけど
head→髪長いモデル向かない=AVに不向き hf+Xseg→dst,src双方前髪ありだとちょっといいけど、わざわざ乗り換えるほどでもない ということで、投下できるネタもない。
しかし商売してる輩が出てきてるな・・・ 300円で会員募ってこいつ捕まるだろ てか個人で楽しんでる者にとっては迷惑だ
まあぶっちゃけ必要な設定に関する議論も終わったし新しい技術もないし 後は淡々とdst探して作るだけだわな
合いそうなdst探すだけで疲れて寝ちゃうわ こういうのは自分で作るもんじゃねーな 出来上がったところで元ネタ知ってるせいもあってたいして興奮しないし なにやってんだろ、って感じ
liaehdでrandom warp使わずに1日学習させたけど全く似ないな ただただ画像の解像感が高くなるだけでほぼdstから変わらなかった random warpオンにしたらみるみる顔がsrcに似始めたわ
今、回してるけどgpuと簡易水冷のファンがブォンブォンいってるよ こう暑いとなぁ
>>212 random warp On-> Off lr_dropout Off-> On (可能ならば) TFやGANはお好みで? TFとかGANとか初回0.0以外にしないとTrain再開時に選択できない様な。。 >>218 TFとかGANとかTrain再開時に聞かれました 昨年の九月くらいから離れてたんだがその間に何か変わったことある?
フォーラムにある流用モデルってアジア人でも行けんの?白人でやると骨格違いすぎて余計時間掛かりそうだが
>>226 src 広○す○から継続Trainで、ク○エ・グ○ー○・モ○ッ○にしたけど 0から学習に比べ、随分速く、モデルが出来ました dstは日本人だったので、dstとの相性がいまいちでしたが 白人モデルの流用してみたら明らかに精度とスピード上がったわ ただやっぱり骨格が少し白人っぽくはなるなw w
前(xseg以前)まではErode maskで+にすると眉毛部分も下がってくれていたけど xseg以降は眉毛部分は下がらず、他だけ小さくなるように変更されている これが不便すぎてどうにかしたいがわからない 誰か助けてください
すみません結構ROMってもわからなかったんですが、srcのmodel流用って具体的にはどうすればいいんでしょうか。 srcの人物を今までtrainさせてた人から別の人に変えたいけど、学習を反映させたいって意味です。 普通にdata_srcフォルダ内の画像を削除して、そこに新しい人物の画像ぶっこむだけでいいんでしょうか? それともmodelフォルダ内のデータをなんかいじるんでしょうか? おそらく皆さんなら感覚的にできてる部分でしょうけど、情弱過ぎて困ってます泣 よろしくお願いします!m(__)m
>>230 srcだけ変えりゃ良いよ あとはmodelの部分は複製して保存しておけば同じ人を作るときは高速で作れる ただ、train時の[n] Enable pretraining mode ( y/n ?:help ) を有効にするべきなのかは俺もよくわからん フォーラムの流用モデルに192が多いのは何でだろ 192でもどアップキツいから256に挑戦してみたいんだが全然無いのな 192が一般的なパソコンで回せる限界値だったりすんのかな
192以上だとpreview表示が4列以下になるしな… 一般的なfullHDのdstではres192で事足りるし、dimsとかを優先した方が良いからかな
res256だと2080tiでもキツイからな hdアーキテクチャを諦めたりdimsを落としてモデルの表現力を弱くするくらいなら 196で学習しといて最後にsuper resolutionで解像度復元する方がよくない?と思ってる
super resolutionって言うほど画質戻る?やってみたけどジャギジャギになるだけだった気がする やっぱ顔どアップって256のDFHDじゃないと無理なんじゃなかろうか
そんな事なかったわ、クッソ解像度上がった 他の機能と勘違いしてたみたいだ、それでもまだ足りんが
fullHD画質のどアップを劣化させずにやろうと思うとそれは256以上のdfhdでいくしかないな 正面どアップ部分→256/dfhd それ以外→196/liaehd とかで分けて作成して最後に動画を結合するのが理想ではあるな
>>239 256以上のdfhdなんて、VRAM 48GBは無いと。。 ここはTopaz Gigapixel AIでのアップコンバートかwaifu2x-caffeのTTAモードか TecoGANかEnhanceNetでアップコンバートとか >>241 現実的に考えるならそうだね 実際俺も自分の環境ではres256でhdアーキテクチャは動かせない rtx titanとかQuadro RTX 8000とか化物みたいなGPU積んでるなら別だが。。。 歯列を優先的に学習する方法ないんかな? ピクセル的には小さいから学習が後回しにされがちだけど、歯列がボケてると違和感がすごい 目よりも歯列優先のアルゴリズムが欲しい
歯列がボケたことが無いから良くわからん 学習が足りてないだけじゃないの?
srcで下の歯が見えているのが少なくて、dstで下の歯が見えていると、下の歯がボケる Maskするしかなさそう。。
完全にスレチだと思うけど Gigapixel AI for Video何度実行しても始まらんわ、×1ですら始まらないんだが これはうちのPCのスペックが低すぎるって事?VRAM6GBあるけどメモリが16GBしかないからそれかな
>>246 推奨メモリは32GB以上らしいけど、お試し無料期間でも、メアドとパスワード登録してログインしないといけないとか?? 自分も動作しないので、性能は劣りそうだが、waifu2x-caffeを使用したり、 TecoGANやEnhanceNetをお試しで使用してみたり EnhanceNetはコードの互換性の問題でCPU動作のみなので、大量の画像だとかなり時間がかかりそう 縦横×4のみだし。TecoGANもか。TecoGANもCPUになってしまった >>244 src中に歯の見える画像の割合が少なすぎて学習できてないだけだった 歯の見える画像だけにして学習したらすぐに歯列ハッキリしたわすまん >>247 メアドパスワード登録してても無理だな オンラインでやって貰ってたけど無修正上げるのは流石に怖いからローカルでやりたい メモリ増設するか他のソフト試してみるかあ >>249 マジかー、ちなみにどの程度のスペックなのか聞いておきたい >>250 自分のスペックは以下です。 CPU:i7-9700K RAM:16GB VRAM:11GB(2080Ti) >>251 あー VRAM6GB以外は同性能だからやつぱりグラボ不足っぽいなぁ、ありがとう うちの環境でも動いたよ ryzen7 2700x 16G GTX1080
Core i7 8700 16G RTX2080 VRAM 8G で動作しなかった。。
DFL備え付けのenhancerよりgiga pixel AIの方が良かったりする?
DFL備え付けのenhancerはギラギラするとの感想も giga pixel AIに比べ、爆速でしょうし しかしsrcの顔をgiga pixel AIするのなら、顔はPNGで切り出さないと 拡大時にJPGノイズが目立つ事になる様な気も。。 jpgは拡大やEditには適していませんし
1年ぶりくらいにDF動画作ろうと戻ってきたけど最新版DFLのSAEHDでTrainできなくて泣ける 前は2060でもなんとか動作したじゃないか…
笛のマスクは、どうやりゃいいんだ? あまり分かってないXsegを試してみたが、exclude, include どちらでやっても上手くいかない。 やり方が悪いのかな。
XSegの使い方が分からないので、FANSegの使用できる03_27_2020版で止まってますわ whole_faceなんて使用しないし FANSegモデルがそれなりに鍛えられた気がするし
xseg editorで顔のパスをいくつか取って、xseg trainするのでいいのかな これで笛もうまくいってるけど
俺もXsegに懐疑的だったけど使ってみたらFANsegよりもよっぽどクオリティ高いからやってみると良いぞ エディター立ち上げたら何となくわかる
3/25版のDFLでtrainしたfullfaceでliaeuhdのmodelを5/6版DFLでtrainしたら エラーが出たんだが、もしかしてtrainやり直しになるのかな Xsegでなければ従来modelを使い回せるのかと思っていたんだけど違うの?
>>258 設定合わせても全くダメですな tensorflow−gpuとかそこらへんが根本的にダメなのかも…っていうか1.0は本体ダウンロードしてきて解凍即使用可だった気がするのに導入のハードル上がったんか >>267 FANSegなくなった版からは、Mergeの時にエラーになった FANSegなくなった版からは、XSeg Trainしないとだめっぽい >>268 DFLは版数が上がるたびにグラボへの要求スペックが高くなる FANSegなくなった版からは、何もしないと使用できないっぽい XSeg Trainしないとだめっぽい >>269 2.0本体バージョンを古いの(とりあえず動作報告のある0203)で再導入しようと思ったけど過去バージョンってfanseg最終の0327までしか公式になかったわ いろいろと調べるの疲れたので1.0に帰ります、ご助言ありがとう FANseg入ってるバージョンってdfuhdアーキテクチャあったっけ?
>>269 ありがとう。やっぱりだめみたいね でもtrain saehd.batばあるから1からtrainやり直したらいけるかも いつか試してみる >>272 3/25版はおkなはず 俺はliaeuhdで使ってる >>267 == 06.05.2020 == Some fixes SAEHD: changed UHD arhis. You have to retrain uhd models from scratch. giga pixel AI for video、重いけど普通に走るね R7 2700 1060 6GB RAM 48GB
>>274 う・・・見落としてたわ 教えてくれてありがと 3月末辺りの古いDFL2.0ってどこにあるんだ… 見つけたやつ大体4月以降なんだが
Github経由で https://github.com/iperov/DeepFaceLab Releases Windows Mega.nz Mega.nzをクリック DeepFaceLab_NVIDIA_build_03_27_2020 FANSEG LAST BUILD.exe これならXSeg Trainしなくても動作すると思う この版は、上がっているうちにDLしておかないと この版より後は、XSeg Train必須とか、色々とややこしい事になる ちょうど俺もFANSeg入ってるバージョン探してたからありがてえわ やっぱMEGA経由じゃなきゃダメか
XSEGを浸透させたいんなら、FANSEG程度に簡単にできるようになってほしいね 作者にそんなつもりはサラサラ無いんだろうけど
技術面を成熟させたい焦燥と、あれもこれも早く試したいという欲求が… 短い尺の480Pでもいいから1本20-30分とかでできるようにならんかなぁ。
同じアーキテクチャでも新しいバージョンの方が負荷が軽くなるように出来てんのかな? 同じパラメータで実行したはずなのに旧バージョンの方ではOOM吐きやがったんだが
同じbuildのままmodel使いまわすなら、都度pycacheを全部消した方が良いかも ある程度続けてると、蓄積ファイルに齟齬でも生まれるのか、過去に成功したsrc/dstでも全く似せなくなる時期が来る気がする 0307のliaechで先月辺りからそうなって、pycacheを検索で消してworkspace上のファイルはそのままで似る様に戻った
>>284 ほぉありがとう。 今度回すときおまじない的にやってみるわ。 ちょっと上で話題になってたけどみんな解像度いくつでやってる? 256でやってたんだけど192でもあんまり変わらないなら移行しようかな
難しいですよね 解像度を下げた分、dimsを上げられれば、いい感じに仕上がるかも知れませんし 試してみるしかないのかな?
解像度に正解はないから何が一番とは言えんねえ 1個言えるのは低解像度は後からsuper resolutionとかgiga pixel AIとかで回復させられるけど dims不足や非hdアーキテクチャで顔の構造が似てないのは後からではどうにもならない なので自分はdimsとかhdアーキテクチャを優先させてるな
全然似る見込みがないことに気づかずひたすら学習させてしまった後の絶望感やばい lossが下がりきってない早い段階でお試しマージして輪郭のフィット感を試しとかないとlossを下げきった後に絶望する
似ないどころか なぜと思うほどのブスが出来上がったときの精神的なダメージ
本人ではないがそれなりにかわいくて見れるものができるところまできた
2か月ぶり位にVersionアップして、Train済みの素材でFan-segで再Mergeしてみたら、 Dstそのままの画像が出るんだけど、X-segってのが増えてサポート外になった? 一応seamlessのlearnedかなんかを選ぶと以前の通りにMergeできたけど、 こっちもどの素材の組み合わせでも以前は出なかったノイズが1秒に数回〜数秒に一回乗る。 ノイズは黒いランダムノイズがぽつぽつ出たり、 青地に白抜きの半透明のが下から上に走るとかまちまちなんだけど、出る領域は画面中心からやや上の部分に出るっぽい。 同じ現象の方や、回避方法分かる方いますか?
>>296 train済みの素材でFan-segで再Mergeしてみたら、 fan-prd*fan-dst*learnedではエラーとなってMergeできませんでした 03_27_2020版を使用し続けています X-seg MaskしてX-seg trainしないとだめっぽい gigapixelaiで古い映像コンバートしてsrcに使おうとしたけど歯が汚くなっちゃうな dstなら問題なく使えるけどsrcには厳しいか
今更だけど、wholefaceって顎の長さや頬の膨らみとかも全部取り替えてくれるの?
チュートリアル見ると輪郭はそのままかな 画質がきつくなるから眉とかにこだわりがなければフルでいいんじゃね
流用しまくってdstだけ変えまくってたら学習回数増える一方なんだけど、これってsrcの学習結果だけ持ち越して新しくmodel作ることってできないんですかね なんか基本的な勘違いしてたらゴメンナサイ
>>306 そのsrcをsrc/dstに使ってpretrainでmodel育てておくとか。 新規dsの際に、上記modelのコピーを使えばsrcの純粋性?は保てそう 俺はdstもsrcも気にせずmodel流用してたが、ある時期から全く似なくなった んで新規にpretrainで1mまで回してそれをベースに、src毎に別modelとして(予習100k必要)作ってる 圧倒的に似るし、model使いまわし時と時間も変わらずなのでオススメ すまん、理解できなかった 分かりやすくお願い致しますm(_ _)m
>>307 これを真似て12万くらい回したところだけど、同じ顔でやってるのに横顔とかは学習がこんなに進まないのね… >>311 DF系ならそうだね 上のやり方はliaechでのケース DFなら500k以上のiterがあれば普通にmodel使いまわしで良い気がする 現在はちょっと変えて、手持ちのsrc約100人から数%ずつと、dstの一部(mask済の笛など)を合わせたセット3万枚をceleb_Aにして回し中 元々buildに入ってるpretrain用のpakも解凍するとそんな感じ(西洋ver)なので、自分好みの邦エロ用として res192/batch8+l.mask+1powerで動く最大値のdims類(それぞれ初期値の1.5倍位)にした
ただ、どのoption設定でどの位ずつ回すとか順番なんかも正しく理解できてないかも trustmybarrehの書いた説明はあんまアテにならないし、pretrainの場合と実践でも異なる筈
同じ童貞租チン同士なんだから言葉尻捕らえていがみ合うなよ。
>>312 liaeだったのね dfの横顔なんとかしたいから今回してるのが一段落したらチャレンジしてみようかな mrdeepfakesのユーザー登録したんだけど、フォーラムだけログインできない 誰か同じ症状の方いませんかね?
Ryzen7 3700x RTX2070s メモリ16ギガ これで作れますか?
>>322 Ryzen7 3700x RTX2070 メモリ32ギガ これでそれなりの物が作れているよ メモリそんなに無くても大丈夫 CPUも良いに越したことはないけど、DFLが全然効率的に使ってくれないから宝の持ち腐れになる
Ryzen7 1700 RTX2700 8GB Ram 16GB で20分弱(フレーム3万枚強)のベースでtrainしようとしたらRam不足でできなかったよ まぁChromeとかも起動してたんだけど 1万枚強ずつ分ければtrainできそうだったけど結局32GBに増やした
ん?何か勘違いしてないか? train時はalignmentの画像全部同時にメモリに突っ込む訳じゃないからalignmentsは何枚あってもtrainの可否はには殆ど影響ないぞ lossの下がり具合には影響するだろうが 影響するのは、主に modelの解像度、アーキテクチャ batch エンコーダ、デコーダのdimension 他一部のパラメータ くらいか
train中にゲームでもやってたんだろう 検証しないで情報だす初心者スレの日記みたいなもんだな
いや、DFL以外はChromeしか起動してなかった タスクマネージャー見てたら dstのalignedの読み込み終わった時点ではまだ容量に余裕あったけどその後の処理でメモリ使用量が98%とかまで上がってエラー吐いて止まってた エラーの内容はゴメン記録してない もちろん「Place models〜」はyesにしてたよ 解像度128、アーキテクチャdf、パワー類全部0、バッチ14でした メモリ増設後は同じ条件で問題なくtrainできてる まぁ初めて1ヶ月もたたない初心者には違いないし、この程度の知識しかないので日記レベルの価値しかないかw
本当にギリギリのラインだと知らぬ間にエラー吐いてたり 前回動いたのに今回動かないみたいなこともある そういう時は安定動作する設定をみつければいい
chromeもメモリ食いで有名だから起動させない方がいいと思うけどな
fsganの話題が全くないんだけど、使った人いる?
ググったらiperovがfsganでレスバしてるのをみた
偽草BANされる気配全くないな 何かの御加護でも受けてんのか?
最近DFLの開発そのものが停滞気味なのはなんでなんだろう
trustmybarrehも本場の日記って感じだな
誰か、初心者が一から学べる技術本を電子書籍で出してよ 3000円までなら買うから
またややこしそうな感じで更新されてるな… facetype headって横顔は耳まで含まれるの?extract範囲がffと同じなら意味無さそうだし、前者ならmask地獄
ほーん・・・ SAEHD: Maximum resolution is increased to 640. ‘hd’ archi is removed. ‘hd’ was experimental archi created to remove subpixel shake, but ‘lr_dropout’ and ‘disable random warping’ do that better. ‘uhd’ is renamed to ‘-u’dfuhd and liaeuhd will be automatically renamed to df-u and liae-u in existing models. Added new experimental archi (key -d) which doubles the resolution using the same computation cost. It is mean same configs will be x2 faster, or for example you can set 448 resolution and it will train as 224. Strongly recommended not to train from scratch and use pretrained models.
正直liaech消えてから、新しいbuild試すものの移行には至ってない dfとliaeそれぞれの問題点の解消とextractorの改善(特に角度と障害物)、スピーチ前提の開発が終わらないと無理
X-seg使いたくないワイ氏、FANseg最終ver.から進めず
高クオリティを目指す方向に開発してるのかもしれんけど、extractとかがもっと精度良くなったり簡単になったりするような利便性を伸ばして欲しいなあ 顔の認識とかその類いは開発者からしたら俺の範疇じゃないって感じなんかね
extract後に使うlandmarkの微調整editorとか欲しい 黒目の位置や口の開き方をマニュアルで弄れる感じの
輪郭だけでもいいから手動で指定したいときがめっちゃある あとextract自体も学習で精度上がったりしたらいいなぁ
rectの赤枠の範囲が気に入らない時もある 個人modとか意外と無いね
DFLってどんどん進化してるけど似るわけじゃないのが何とも
面白そうだから作ってみたいけど今のPCでいくか新しく買うか迷う グラボが1070と2080スーパーじゃだいぶ違う?
学習始める直前までの準備はどっちでも一緒だからとりあえず現環境でやってみれば
顔検知の速さはグラボに依って差が出るんじゃないか?
画像のサイズが大きいと重いね 4Kからgigapixel4倍の素材だと2080tiでもマトモに動かない
>>355 あまりにも輪郭とかが違いすぎるとダメだけど 大抵はfより外周含めるモードで何とかなる 一番良いのは輪郭・頬骨一致したdstにh使う事 計算も速くて済むし、似た画像作れる ただ、しくじりも大きく出るんで、上向きとか極端な画像な場合 それに見合うsrcが無ければ、ブタやらカッパみたいなクリーチャー鼻穴出来てしまうよ VR映像を2D映像に変換するソフトってないのかね? 左右で分割して半分だけ使うとかそういうことではなくて
Extractor: … @iperov iperov committed 4 hours ago added ‘Image size’ option. The higher image size, the worse face-enhancer works. Use higher than 512 value only if the source image is sharp enough and the face does not need to be enhanced. added ‘Jpeg quality’ option in range 1-100. The higher jpeg quality the larger the output file size
二ヶ月くらいアップデートしてないけど進化しましたか?
>>361 2Dに変換?????? そもそもVR動画のデータはどの形式でも2Dなんだから何を言いたいのか全く意味不明だ 言いたいことはわかるでしょ VRの動画を通常の2DのAVみたいな見た目にしたいって事 さらに言うと、おそらくVRは主観だから2Dで使えれば便利だと思ってるんだと思う 残念ながら超大変だからやめたほうが良い
>>366 どれも中心部分は歪みなく2Dになってるだろ?アホじゃねえのか? アホだとは思うが理解は出来るという話だよ 子供じゃないんだから
落ち着いたらまたAMDとIntelに対応してほしい
複数の写真から3dモデル作れれば解決 あとは首から上を丸ごと交換で瓜二つ
長時間高負荷かけ続けるから寿命が縮みやすいのは確か
>>378 買い替える前のPCでDFL1.0のCPU用build使ってた 10年物ってのもあってかDdriveのHDDが逝った Xseg使い始めたんだけど前髪がギリギリ眉毛にかかってるようなdstには 眉毛の下までマスクしたほうがいいのかな?
>>381 マスクした部分はmergeの時に変換されない部分ということを踏まえて 眉毛にマスクするかは個人の好みしだい xsegは後から修正できるんで、とりあえずmergeを試してみる Reminiスレ誰か立ててよ、悪質削除人薫に潰されたんなら諦めるけど
Xsegを今日初めて使ってみたんだけどコレ.XSeg train.batてマスクしない時のtrain.batと同じく10万回ぐらいまわすのです?
そんなまわさなくても反映可能。 ロス値を見つつマージして仕上がり確認。
XSegってもしかして100枚ぐらいは輪郭を手作業でなぞらないといかんの?
>>387 大丈夫そうなやつ(デコだし、髪類、障害物ナシ)2,3枚と明らかにこれはだめそうだなってシーンからそれぞれ1,2枚ずつ手動でやってとりあえずtrain回す 結果見てだめだったのを手動追加してまたtrain、の繰り返し 手動で設定したのはfetch.batでコピーしておけば新しくX-Segするとき0からやらなくてもいいから楽 たまにmodelが壊れたって人がいるけどどれくらい回したら壊れるんかな 設定にもよるとは思うけど基準としての実例が知りたいな
>>390 1年くらいDFLつかってるけど、壊れたのは1回。 DFL1.0、SAEHDで80万回したとき。 その後DFL2.0で170万回してるけど壊れてないですね。 >>391 XsegはXsegで別trainだからその分かかるっちゃかかる、が 本体?のtarinほどではない。 == 2020年6月19日== 同じ計算コストを使用して解像度を2倍にする新しい実験的アーキ(key -d)を追加しました。 これは、同じ設定がx2高速になることを意味します。たとえば、解像度を448に設定すると、224としてトレーニングされます。 これはVRAMを2倍に使えるてことか。8GBなら16GBに。実際前より余裕を感じる
>>397 res448,dimsデフォ,models_opt_on_gpu=true,batch4で動作確認 2080Ti 日記はXsegを覚えていない なんか、誰でも日記扱いしていない??
2、3ヶ月ぶりくらいにアップデートしたらめちゃくちゃ軽くなってて驚いた。技術の進歩素晴らしい
むこうってソフトウェア板? ソフトウェア板もすごい意味無しスレで質問しても誰も回答しない感じかな エロスレも過疎スレみたいね 保守しなくても落ちないみたい 5ちゃんになって、更に過疎化した様な 2ちゃんの多くは一行レスなのかな 市況2なんかは長文もありましたが
colabがGPUつかえんかったが、久々にログインしたら使えるようになってた。 まじめな内容の作成はこちらでやれば無料で2台体制
あんまり書き込むネタも無いと言えば無いしな。ネタできてよかったじゃん
新VerのDFLはどこからダウンロードしてるんだ? 久しぶりにリンク先たどったら404だったよ。
dst作成時にやたらと顔が回転したdstが出るんだけど これ、解決法って無いの? あと、このマスク失敗したdstは削除する事になるんだろうけど、 削除したdst部分は merge時に合成されずに置き換わらないわけだよね? このしくじった部分は修正出来ないの?
マニュアルで治すバッチファイルがあるから、それ使うしかないね
>>416 あまり自動抽出が上手くいかないdstは、手動作業が多くなり大変とか 手動作業が嫌で、別のdstにするとか、別のシーンで自動抽出が上手くいくのを探すのかと どうしても、このdst、このシーンにしたいので、手動作業を頑張るとか まあ、うまくいったdstは、srcを変えても上手くいくので 上手くいくdstを見つけるのが勝ちかと思います 自分の場合src女優さんが複数で多いので 上手くいくdstは、正面アングル近くとかばかりで、やがて飽きてきたりするかも知れません その場合、厳しいdstも手動作業を頑張るのか dstは目瞑ってるのが多いぞ。そんな目を瞑られっぱなしだと、顔の特徴が出づらい、分かりづらいのだが
同じ顔を2回(ほんの少しだけ回転してる)検知してて類似性ソートでも気づかず、mergeのときに「1フレームに顔が2つあるから消せ」って言われるのもあるある
ちょっとプログラムの構造が分から無いけど 顔が有るのにdst抽出されなかったコマの場合 前後のコマのdstのalignedを複製して代替えする事は可能でしょうか? dstのalignedがABCとなってないといけないのにBが抽出されなかった場合に 前コマのAをコピーして、AACにするという事です あと、mergeの前後コマをモーフィングソフトに取り込んで 中間のコマを作成する事も可能そうですが 結局、どういう手法がベストでしょうか? もしくは絶対諦めることになるのでしょうか?
DFLが生成するjpgは単なる画像じゃなくて様々な情報も入れてるからコピーしただけじゃ無理 基本的にはMANUAL RE-EXTRACTして、だめなら諦める
やってみて気づいたが dstにXseg使うと、 dstマスクが顔部分に載って無いハズレdstの鬱陶しいバババッって乱れ画像がかなり消えるんやな まあ当たり前だけどxsegが顔だけ見えるようにマスクかけるんで 顔以外に載っかってるdstが完全にマスクされて消える xsegはdstの眉にかかるような前髪も綺麗に残せるからいいね
dstの顔にふりかかってる精液は どうやったらmergeに乗っけられるの?
眉毛に髪がかぶってるsrcにxseg使う場合、 左みたいに眉毛と髪の境目を突っ切るのと右みたいに眉毛ごと囲んじゃうのどっちがいい? もしくはどっちにしてる? 髪の毛込みで頭丸ごとxsegでやってる。youtubeの解説動画もそれだし。 VIDEO &t=480s >>430 全然関係ないよ 含む部分を含むマスクで、含まない部分を含まないマスクで処理するだけ 顔には含むマスクをかけて、髪の毛を障害物として含まないマスクかけるだけ ただ含むマスクの顔は髪の毛の下に隠れてる部分も顔だから 髪の毛の下にある輪郭を思い描きながら含むマスクする >>432 それが正しい フェラ動画とかも、dstを口から上だけになるようにマスクかける するとmergeに元動画の口元がそのまま残り 鼻の下から眉まではsrcで口元が元動画の動画に仕上がる 都合が良いことに、フェラ状態だと誰しも口をすぼめて伸ばし、顔が大きく変形する フェラ状態だと歯も余程も出っ歯とか特殊なフェラ方法で無い限り見えないので 顔が誰だろうとほとんど違和感なく顔と口元をニコイチに出来る >>430 の画像手抜きして申し訳ないな しっかり顔全体をマスクする前提で中途半端に見えてる眉毛を含めるべきか否かっていうのを聞きたかったんだ(srcの話 dstの前髪が長かったらdst側でマスクすれば>>432 の言うdstの前髪・眉を使うことはできるから あと質問しといてあれだけど有効な範囲(学習させたい範囲)をマスクできれば結果は変わらないから >>433 の輪郭を思い描いてマスクしてあとから髪の毛を取り除くなんて二度手間なことする必要はない >>435 俺の認識だと、 applyしてマスクとして使う⇒学習時の有効範囲 xsegtrainしたxsegモデルをmargeでxsegで使う⇒margeの範囲 なので、マスクとして使うだけならそれでいいし 「中途半端に見えている眉毛は全部dstのにする」ということでよければ それでtrainしたxsegモデルでいいと思う。俺はそれ嫌なんで眉は入れてる。 >>435 >あと質問しといてあれだけど有効な範囲(学習させたい範囲)をマスクできれば結果は変わらないから >>>433 の輪郭を思い描いてマスクしてあとから髪の毛を取り除くなんて二度手間なことする必要はない やってみりゃわかるよ >>433 のほうが綺麗に仕上がるから 質問です。DFL2のSAEHDの最初のトレインで、 AutoEncoder dimensions ( 32-1024 ) Encoder dimensions ( 16-256 ) Decoder dimensions ( 16-256 ) Decoder mask dimensions ( 16-256 ) ・・って設定で、これらの数値を上げるとすんごいトレインが遅くなるんだけど、 低い数値だと、いくらトレインしても解像度は低いままなのでしょうか?
バッジ数と解像度のバランス調整だけは必要 良い結果求めて解像度MAX・バッジ数最小にしてると 再train時に、ちょっとでも重い設定に変えたら落ちたり PC上で他のアプリを使おうとしたらtrainが落ちたりするから 最低でもバッジ数を常に2以上に維持出来るように できれば6〜8くらいに出来るようにしてたほうが良い
なるほどねえ。 初めてliaeでモデル作り始めたけどバッジ2で回したの失敗だったかな dfと比べてこんなに重いとは思わなかった
>>441 バッジ数2辺りだと、途中で何かtrainの設定変えた時に 処理容量越えて落ちてしまい、にっちもさっちもいかなくなる場合があるよ >>441 周り始めるならまあ行けることはいけるけど 回しながらネットでもしようかと思って、ブラウザ開いて まかりまちがって動画とか見たら 急にtrain落ちたりする バッチ数攻めすぎるとlearning rate dropoutとかGANが動かせないとかはあるよね 別の話だけど解像度を大きくした時にネットワークの次元数って比例させてる?
xseg trainってこれどれぐらいまで回せばいいんだろ?
train中のgpuのvram使用率が60%くらいでcudaは100%稼働 これ以上バッチを上げると動かんくなるけど他に上げれるパラメーターってある? ちなryzen3600 rxt2070 dfでバッチ8で回してる
過去ログみたら解像度が上げられそうだね でもどっちかっていうとtrainにかかる時間がを減らしたいのよね
>>448 同じRTX2070でDFがバッチ15,DF-UDが解像度256バッチ14でも動いてる vram8GBほぼ100%使ってるけど そうなんだ ゼロからtrainしたときはバッチ8じゃなきゃ動かんかったけどtrain進んだらバッチ増やせるんだったような 参考になった ありがとう
現状の設定書かないで上げれるパラメーターって言われてもな
DF512や512x512のextractorってどこにありますか?
Xsegをバッジ4とかでtrain中 以前は150〜200msでコンスタントにダダダダダダダっと反復できてたのが 最近なんだか200msと1000msを交互にみたいな反復になって 速度がガタ落ちしたんだが、なんだろこれ…
src画像で大きく口を開けてるのが大爆笑しているところしかないのだけど、そういうのも含めた方がいいのかな
素直にデスクトップPC2台持ちして、DFL用PC 操作用PCとかした方がいいと思いますが DFL用PCでは極力ブラウザなど起動しない様にするとか DFL用にPCごと買い増ししたらどうですか?
ベース桜空ももで、dstが池田〇ライザの神作があるんだが、 あれってあきらかに顔全体を縮小してる。 face scaleで縮小じゃなくて輪郭そのものを縮小している。 この技術分かる人いる? いないよな
前髪ぱっつんの子にいちいちxsegするの面倒だから普通にfで抽出してdstのほうの子 でも髪型ぱっつんのに合成させてる。一応ソフトでも髪がつながる様にしてくれてる みたい
>>462 mergeの設定にマスクの拡大縮小設定が有るやん 昨日始めた新参者です。 6万回ほどtrainしたのですが、正面の顔はわりといい感じなのですが、横顔が化け物です。src側の素材達が正面を向いてる画像ばかりなので、横顔が写っている素材を追加したいのですが、追加ってできるんですか?
できる random warpからやりなおしになるが
昨日あたりからcolabがエラーで動かなくなったけど俺だけ?
>>466 これのことか? Choose output face scale modifier これだと輪郭まで縮小されなくない? >>471 dstの輪郭を縮小してるってこと? そんな技術はさすがのdfidol氏にも無いだろう Fansegで粘ってたけどやっとXsegデビューできた スレ過疎ってるけど参考になるレス何個もあったよありがとう
DFLでのGANってAutoencoderがジェネレータとして働く構成なのね ゼロからデータ生成してると勝手に勘違いしてた
dfidolの設定ってどんなだったんだろう・・? srcが小倉優子で、dstが吉沢明歩の作品があるんだけど、 俺が作ると笑いじわまで再現されるんだよね どうやったらあんなつるんとした顔になるんだろう
チラっとしか見てないけどあんな出来が悪くサムイものをよく地上波で流したなとむしろ感心した
顔検出の下顎の誤検出って無視しても問題ないんだな 笛とかで首のあたりまで顎として検出されてても口の検出とX-Segさえちゃんとしてれば違和感無かった 輪郭の上端は顔の向きとかに影響出るみたいだから修整必要だけど
erodeをマイナスに指定すると顔の周りが白くなったりしちゃうんだけど これってどうしようもない?
要はsrcの顔の外の部分をdstに載せようとしてるから、どうしようもない
erode 0がどういう意味になるのかよく分かってないけどsrcの内側ギリギリまでに設定できればなって
>>307 を参考にpretrainで基礎のmodelを育て始めたのだけど、random warp外したりするのはsrc毎にmodelを分けた後にやるべきなんだろうか pretrainでrandom warpを外す必要はないよ 本番データで学習させる時の最後の方に外せば十分 random warpって入力画像に変形とかノイズ入れて一般化を促してくれるから基本は入れといた方がいい
なるほどねーありがとう。このまましばらく回し続けてみます。 初めてのxseg、初めてのliaeでもあるので楽しみだ
ぶっちゃけ似るかどうかって輪郭・髪毛・眉毛が似てるかのdst人物相性と、角度・表情が一致してるかのデータ相性でほぼ決まるよね 人とデータの相性で決まりすぎるからか最近random warp切ったりlr dropout入れたりの学習に拘るのがめんどくなってきた
コラってのは素材が命だからね 画質の悪いsrcしか用意出来ないならそれに見合った低画質のdstを用意すればいいし 輪郭(頬・顎ライン)と眉毛から上の頭のサイズで似るかはだいたい決まる 顔の形さえ一致していれば髪型が多少違っても似合って元より良くなったりする事もある
dstがかなり上向きの角度の顔だと、そんなたくさんのsrcは入手できないし dstがかなりうつ向き 目玉が見えていないほどうつ向きだと、似ているかどうかはっきりしないぞ なんか正面近くのdstだと似せやすいので、同じ様なアングルばかりになったりとか srcとして今はそれなりの年の人の、若かりし頃をやりたいとかなると SD画質しか無かったりして。SD画質でも顔の割とアップで、色々な角度が入手できれば結構いけたりする
>>492 上向きに関しては、鼻の形・鼻穴の形が似てる素材混ぜとけばなんとかなるよ 下向きはおおよそまつげの量っていうか、輪郭似てる素材ならOK きつい角度のは、どっちもほとんど誰だかわからんから、 適当に似てるの混ぜとけばそこそこ乗り切れる 俺なんか、下向きは、あえてdst を混ぜない選択してガンガンdst消してるよ 笛は、顔の輪郭に沿ってX-Segのマスクしとけば、顔お以外の場所がマスクされて消えるから そこそこ良い出来になるんだよ もっといいのはX-Segの顔マスクで鼻の下辺りはごっそり除去する事 笛はだれがやっても同じ口すぼめる形になるから、最終仕上がり動画にsrcの口が残って無くて dstの口元そのままでも、ほとんど違和感無いよ よほどの出っ歯とかたらこ唇でも無い限りね
動画をみる見方が変わった。顔で選ばなくなった。顔はこちらで何とでもなる から。中身とか内容で見るようになった。しかし、容姿のよろしくない子は中身 も良くないことが多い。たぶん、可愛い子の時は監督、スタッフが気合入れて るのだろう。
可愛い →人気上昇 →撮影数増加 →シチュエーション等も多種多様に
x-segっつーかmaskな ずーっと間違えてる子いるけど
dst_alignedあるある チクビ2つを… 顔として認識 w
>>495 楽したいならイメージビデオだな 大抵、本人以外出てこないから、dstのalignedを消す手間が皆無 自分は黒人モノか介護モノかヘルス行ったら隣の奥さんだったとか系選んでる 素材全く無いけど、 お笑い芸人と結婚した女性タレントと芸人相方のカラミとか 学園女子校生モノで、同級女子と担任の先生とかを合成とかいう、 高難度なのも有りかな? 出てくる男優が同じ体型の同じ人物ばっかなんで、はめ込む側の人物も限られるけど IVは尺に対して動きが無く画もクセが強いからからゴミ
ホクロが一向に出て来てくれないんだけどどれを上げるのが近道?
ホクロが出なかったことあんまないな random warp切って普通にtrainしてるだけでも十分反映されてるわ
srcについてなんですが、例えば徹coの部屋的な番組でかなりきれいに映っていたり、 それなりの角度があったりしても、ライティングが一方からで 同じような明暗のような顔だけでやってもあまりうまくいかないんですか。 やはりインタビュー番組だとしてもいろんなのを入れないとだめですか?
明るい映像が若干苦手だな 明るすぎて白飛びとか暗すぎて潰れてたりしてなければ使える ライトの角度は関係ないね 顔の角度が揃っていればちゃんと学習する
すんなり色が合う時と、いくら回しても色が合わない時がある。 違いが出る条件が今ひとつ一貫性なくて困惑。
ライトの角度は重要ってiperovが書いてたじゃん…
ランドマークってセミオートであわせるしかなくてウザいんだが、手動で修正するのって自分でエディタ作るしかないのかねえ。 ソース見たらどういうデータ構造なのか分かるので、作れば良いけど、他な人が作ってたら悲しい。
RTXの3000番台の発表が9/1に行われるそうで 高いんだろうなあ
2000番台が安くなるんだから朗報とも言える どうせVRAM容量は大して変わらないだろうしな
srcは顔を下から仰ぎ見る動画があるとかなりできがよくなる。この角度が意外と 入手するのが難しい。3Dモデル作ろうかとチャレンジしたけど挫折した
結局srcで一番重要なのは顔の角度なのはわかる 色はなんとかなる、画質もなんとかなる、表情も最悪なんとかなる 角度だけは無いとどうしようもない
>>515 dstの画像をコピーしてsrcフォルダに入れてtrainしてから本来のercに入れ替えたら random worpでわりとどうにかなる >>516 まあグラボに買い時は無いけど、しいて言うなら 冬場、暖房が必要になった時が買い時 だな どうせ70番台以下は2080以下だろうからセーフそうであってくれ
(resolution,batch等のパラメータは同条件での)trainの可否ってvramだけで決まるのかな 処理能力高ければVRAMの容量同じでも可否が違ってきたりするんだろうか
train不可なのってプログラムが確保するメモリ容量がvramのキャパを超えるからであって、演算するコアの処理速度が上がってもあまり意味ないのではないか
trainに関しては実行さえできればokみたいなとこあるしなあ
>>519 0307で現役として使ってるわ 正面以外も作るならfullfaceだろうし、xsegもwholeもいらん感じ model自体が見つからなくて欲しいって意味なら後日うpっ出来る 2080tiブン回したときの電気代やばそう(小並感)
>>530 何より死ぬほど暑い 部屋で暖房つけてんのかと思うくらい これがあるから2080tiに買い換えるの迷ってるんだよな 買い切りならいい少々高値でもいいかなって思うけど、維持費というか運転費がバカみたいにかかるっていうのがねえ
>>520 それよさそうですね dstをコピーした時はワープ必要ないですか >>533 dstの顔の角度の画像は全て揃っているわけだから、random warpはいらないよ srcを本来のものに戻したときにrandom warpをオンにすればいい >>515 そういう角度のは大抵鼻の形さえ合ってれば他人の顔ぶちこんでもどうとでもなる 経験上言わせてもらうと、 鼻と鼻の穴がジャストフィットするsrcとdstは、 うつむき状態とか目をつぶった状態とかも激似な場合が多い srcに合う角度がなくて化物になるくらいなら、dst素材を入れろということね
3DMark Time Spy Extreme 'Rumored' Performance Numbers: NVIDIA GeForce RTX 3090 Founders Edition - 10,000 Graphics Score NVIDIA GeForce RTX 3080 Founders Edition - 9,000 Graphics Score NVIDIA GeForce RTX 3070 Founders Edition - 7,300 Graphics Score NVIDIA GeForce RTX 3090 Custom - 11,500 Graphics Score NVIDIA GeForce RTX 3080 Custom - 9,700 Graphics Score NVIDIA GeForce RTX 3070 Custom - 7,800 Graphics Score ほんとに今買うか?
・NVIDIA Titan - 48 GB GDDR6X ・NVIDIA GeForce RTX 3090 - 24 GB GDDR6X ・NVIDIA GeForce RTX 3080 - 20 GB GDDR6X ・NVIDIA GeForce RTX 3070 - 16 GB GDDR6X ・NVIDIA GeForce RTX 3060 - 12 GB GDDR6X これマジ?3060で12GBとか2080が馬鹿みたいじゃん
titan RTXってvram20GBくらいだったよな? その辺が基準になりそう
>噂によると、GeForce RTX 30シリーズのグラフィックスカードは、Turingベースのそれより20%高くなる。 >これは、GeForce RTX 3090が1400米ドル近く、GeForce RTX 3080が800米ドル近くになることを示唆しており >GeForce RTX 3070は、RTX 2080 Tiよりも優れたパフォーマンスを提供する約500米ドルで、 >700米ドルから800米ドルほど安く、より大きなメモリ容量を提供している。 これガチならアスク乗っても2080Tiより3070やろ ゲームやらんのならvRAM一点突破で3060でもええくらいやん
2060sでやってるので10GBオーバーは憧れるな とはいえ今の環境でもそれなりに満足はしてるけど
FHD素材を前提とすると、batchとresを鑑みて2080tiだと現状若干厳しい res128→res256にdims等倍でbatch8でも無理 せいぜいres192にdims等倍 でも笛のどアップとか以外は正直あんま恩恵無い 素材の選定が最重要なのは変わらず
コスパとか考えたらまあ2060Sが1番無難だったりする
>>551 使ってる人はクーラーとかどうしてるの? >>552 最善策は 部屋に居ない時間帯に、窓開放した状態で使用(当然、ゲーム時は除く) 日本家屋で夏場2080Ti使うと、発熱量がエアコン冷房能力とほぼ同等で いつまで経っても涼しくならない >>553 そんな方法? てっきりUSB扇風機(強風)かエアコンキンキンにかけるしかないと思ってたわ PCケースの横パネルを外してる >>549 liaech/res192/ae368/e92/d92/md32/batch8 くらい >>554 全然無理な 常時小さい温風ドライヤーかけてるのと同じレベルだから 暖房能力はセラミックヒーター並み 夏場はアイドル状態でもHDDが49度とか普通で負荷掛ければHDD温度は更に上昇 もっとクーラー特にケースファンは回転数上げて利かせてほしいが 設定が無い様?だからどうする事も出来ないが静か過ぎて不安 故障するよりもマシなんで多少うるさいのは我慢する出来るけど 静穏PC静穏ファンで組んだからか 家ではエアコンや扇風機の方が遥かにうるさい
>>555 liae-udにしたらもっと設定上げれるんじゃないの 品質がどれほど変わるかは分からんが 3090tiで32GBとかになるのかね もう性能云々より室内の温度管理がダルそう
ほほう ae余り上げない替りに、eとかdとか優先するものなのか batchも8とな。batch4とかでdimsを上げる訳ではなくて >>560 フロンティアとか、水冷CPUクーラー ※水冷ユニットは有寿命部品です と言う言い方みたいですね。何年くらい?? いや、ワイは8gbだからエアコンで大丈夫。ヤフオク見ても11gb から水冷化した出品があるから相当な熱だなと
2080tiだが普通にエアコン付けていれば大丈夫なんだが
batch4は低すぎるってmrのチュートリアル読んでればわかるじゃん
アフターバーナーでリミット80%くらいにして使ってる 15度くらい抑えられるし処理速度も大して変わらん気がする
>>566 ゲームじゃねえのにそんなにOCしても意味ねえけどなあ 2080tiでもOCしたところで800msが600msになる程度だしねぇ
顔抽出してxxx_0とxxx_1がほとんど同じ画像で 人間から見るとどっちも普通の顔にアップにしか見えない場合ってどっちを消したらいいでしょうか デバッグの方みてもどっちがどっちなのか分からんです…
初めの段階で動画から写真化でframe数で0を 入れないで10コマとかにしている。これなら 違う写真が出るので。
>>572 前後の画像と比べて違和感なく連続して見えるほうで >>572 前後の画像と比べて若干 大きい/小さい 傾いている のいずれか なるほど〜 前後を見るしかないんですね ありがとうございます!
無料で使用できる動画編集ソフトでresult_maskをマスクレイヤーにできるのって ある?やっぱりAfterEffects買わなきゃダメ?
少し前からXseg使い始めて、最初は面倒にも感じたけど使うほど手間かからなくなっていいね Xsegを育てる感じが楽しい
お前がいつから始めたとかここのやつに知らせる意味は何なんだよ 日記ならtwitterにでも書いてろ
俺もまじで今日Xseg始めた所 導入がもうちょっと楽なら良いなと思う
xseg感動ボーイってmask editor使った事無さそう
だから過疎るんだよ 乞食しかいない無価値なスレの方がよっぽど伸びてる
俺SUGEEEEEEEEEEEEE が出来なくなるもんな 根性がクソ
今日も暑かったです 明日は少しマシになるそうです RTX3080くださいな
extract faceのデフォルトがwhole faceになってるけど、みんなwhole faceなんて使ってるの? full faceはもうオワコン?
前髪あるならfull faceでいいんじゃない デコ出しならwhole faceがいいと思う いまはextractで2048までサイズ選べるしwhole faceでextractして学習はfullでやるとか
と言いつつ自分からは一切の情報提示は行わないガイジが居座るスレ
いや、しょっちゅう書いてるんだよ・・ このスレには大変お世話になったらか、言いたいこともわかるけど
前髪マシマシのアイドルで作ってばかりだしまだ抽出はfullで十分かな それより手動でマスク設定する手間がかなり省けたのはかなり大きい
「コマ数増やしたらdst取り込みのしくじりも半分だよ!」 と、秒間60コマにしたら、、、 データ容量も倍になったでござるw
たとえ新規でもスレに沿ったレスしてる分存在意義はあるし 日記とか頭悪いしか言えないヤツのほうが邪魔だわな 頭の良い日記連呼マンはもう一つのスレに常駐してるんだろうし、住み分け出来てるんならほっとけよ
そうなん? 256のfで回す予定のものを512でwfでExtractする程度なら 問題ないとおもってた(wfにもfにも流用できる) まぁ対象intr時間が伸びるとかの弊害はあるが
wfのほうが合成結果が悪いけどな 余計な外周部分まで計算の中に入れられて合成されるんで 顔のパーツの位置ズレが激しい事がある 突然顔が巨大化したりする失敗合成も多い
おーありがとう 残念な出来になるリスクと失敗合成がおきることがあるんですね
例えば 目のすぐ横に長い棒状態の髪の毛がかかってる場合 hだとほぼ何もしなくてもその髪の毛残ったまま合成出来るけど wfとかにすると髪の毛の上にsrcの顔が載ってしまい 頬の下辺りから棒髪の毛生えてる状態になっていまう 逆に顎長いdstにsrcを合成した場合 hとかfだとsrcの下唇の下からdstの下唇見えてしまったり というじくじり合成が発生する いや お前が生まれてきた事自体が 最大のしくじりだろう
生まれるのをしくじってしまい申し訳ありませんでした!
●●って良い?じゃなくて、目的に合った物を選ぶのが大事 xxに合うdstないですか?とかも同様
フルでも行けるからwfで抽出ってのはいいんだが、 それをさらにheadでやろうとしたら抽出結果のランドマークがひどい崩れ方してた。 あとみんな解像度いくつで抽出してる? 大は小を兼ねるだろうとか思ってsrcだけ2048抽出したらtrain時 隔回で(srcだけだからか?)かかる時間が数倍に跳ね上がってしまった。
df-udって速いしバッチも上げられるし、なかなかいいね
interactive merger は最後までやる必要なし 数値は実際の動画に合わせる。一枚合わせ たらその数値覚えてsaehd merger再起動して 数値をキーボード入力残りは自動でやる
dstの目元のメイクが濃くて合成時にところどころ半目になっちゃうのはどうしようもないですかね
マニュアルとガイドと過去スレみればよいので放置でヨシ!
ランダムワープをnにしても無効になんないんだけどなにゆえ?
interactiveのメリットを殺していくスタイル
>>625 目元の化粧が濃いと斜視とかも発生するんだよな・・・ iperovcolab for enhance dfl faceset using DFDNet
途中で書き込んでしまった colabで試してみたけど従来の付属enhanceやTopazとは 段違いに画質改善(修正)された。若干色味がアナログっぽくなるが
何回かpreview更新して顔確認すればいいのでは てかtrain止めたら一回きりって訳じゃないしとりあえずmergeすればいいと思うが
これ最初にpretrainするときはsrcとdstはセットしなくていいの?
dstとかのマスク再抽出前のdebug削除にMassiGraとか便利だよ スライドショーさせながら、しくじったマスクをdel削除出来るから