22222../cacpdo0/2chb/430/37/cg171323743021738740645
【StableDiffusion】画像生成AI質問スレ23 ->画像>20枚 ◎正当な理由による書き込みの削除について: 生島英之とみられる方へ:
【StableDiffusion】画像生成AI質問スレ23 ->画像>20枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1713237430/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは
>>970が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは
https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ22
http://2chb.net/r/cg/1708834240/ >>1 立て乙
「ワッチョイ厨が970を踏んだ場合は他の人が立ててください」もテンプレに追加が必要か?
今でもまだ3060がコスパ最強?
さすがにもう変わった?
このタイミングで前スレ970が正統性を主張してもう一つのワッチョイなしスレを立てるんだろ
俺が立てたスレが本スレだと
マジな話するとテンプレに入れようが周知徹底しようがキ印には効かない
質問に答える時にこういうスレに情報があるよ、って紹介するのもダメにしていいなら
テンプレに誘導禁止って書いてもいいよ
利用者が困るようなことをテンプレに入れるのがいいことかどうか今一度考えようぜ
今は「Automatically convert VAE to bfloat16」だけにチェックしてあるんだけど
「Automatically revert VAE to 32-bit floats」の方が良い場合はあるのかな?
または両方にチェックはどうなんだろ??
Automatically convert VAE to bfloat16
(triggers when a tensor with NaNs is produced in VAE; disabling the option in this case will result in a black square image; if enabled, overrides the option below)
Automatically revert VAE to 32-bit floats
(triggers when a tensor with NaNs is produced in VAE; disabling the option in this case will result in a black square image)
>>4 オナニーでテンプレ変えんなアホ
余計なことをせず並行して存在してれば良い 存在自体が許せなかったり困ったりするやつは脛に傷持つやつなんだから
おまえは
>>4の存在が許せないんだな
何か困ることでもあるのかな
sd-scriptsでHDDからSSDにコピーしてなんか読み込みがおかしいなと思ったら
__pycache__フォルダが悪さしてたみたいね
気づかなかったらかなりの落とし穴だわ
AUTOTMATIC1111で
複数のキャラを学習していて1つのトリガーワードで1キャラ呼び出すタイプのLoRAを使って
違う2人のキャラを同時に立たせるにはどうしたらいい?
トリガーワード2個使うと混ざったキャラが出てきちゃうんだけど……
拡張機能で領域を分割してそれぞれにLoRAを効かせるしかない?
とりあえず Forge couple とかは試してみた?
亜人生成マンいませんか・・・・・
普通のニンゲンしか出ません
複乳(multiple breasts)
複数の腕(extra arms)
これらのプロンプトがスルーされちゃう
>>18 ごめんなさいうちfogeは入れてないです
>>19 Vitruvian diagram
>>14 自己レスだけど
やっぱりvenv一から作り直さないと駄目だったわ
ご丁寧にEXEにまで古いパスが埋め込まれてる始末
仮想環境の利点薄いなw
PONY系だけopenposeが効かないでノイズ塗れになるんだけどなんとかならん?
sd-webuiのv1.6を使っているんですが
lycorisを表示する方法ってありますか?
一々検索するのが面倒なので…
すみません質問です。
ポニーディフュージョンなどで制作された
画像のプロンプトによく入っている
score_9, score_8_up, score_7_up, score_5, score_4,
とかいうプロンプトは一体何をさしており
どのような効果があるのでしょうか。
>>24 best quarityなどの品質タグがponyは独自で高9〜低4
7_upで品質7以上の意味だがpony製作者の学習がうまく行かず
9, 8_up, 7_up, と並べて記述しないと全てをカバーできない
4や5のネガティブ入れはそんなに効果が高くないので好みが分かれる
高品質狙いばかりで顔が画一化されるマスピ顔現象はpony系にもあるので
あえて9を外してみたりとかその辺は各自のノウハウ
civitaiのpony配布ページとそこから飛べるリンクに詳細が書いてあるので
pony系使うなら一度読んでおくといいかも
>>25 なるほど、非常に詳しい説明ありがとうございます。
今までNAIで0anlas生成をしてたせいか期限が迫っているのに余ってて消費に困っています
ガチャにおすすめなプロントや設定を教えてくださると助かります
1girlと1boyで回すのにちょっと飽きたので味変したいです
おっと、VAEって色だけ変えると思ってたが結構絵自体にも変化与えてくるのか・・・
VAEはloraみたいに強度あげのようなのって
できるんですか?
もうちょっと濃くしたいとかは
新たなるVAE探索の旅にでるしかないですか?
ComfyUIとか使うとよくわかるのだけど、生成ってのは潜在空間データで処理していて、
VAEってのはその潜在空間データ(Latent)と、実際に画像として表示できるピクセルデータとの変換を行う部分。
何でVAEによって色が薄い画像になる物があるのかは自分も深くは理解してないけど。
彩度を上げたりコントラストを調整するのだったら、そういうLoRAがあるからそちらを探すのが本筋じゃないかと。
ちょっと試したら、HiresのUpscalerをLatentにするとVAEの違いによる差分がほとんどなくなる(色彩だけになる)
R-ESRGAN 4x+ Anime6B にすると結構差分がでる。
何が起きてるかは調べないと分からんが、まぁこういう事あったよっていう参考程度に。
SDXLをhiresfixで4Kサイズに拡大しようとしたら、
ほぼ終わりくらいまで行って、メモリエラーで止まります
グラボは4060TI16GB、メモリは32GBですが足りないのでしょうか
xformsは入れてます
>>32 最後の最後に画像ファイルとして吐き出すときにメモリドカ食いするんだよね。
xformsを外すと出力されると思うよ。
xformsはメモリを有効活用して高速化するためのもので節約するものではない。
大きいサイズ頻繁に作るようならForgeでも同じ設定で試してみては
VRAM足りないときは自動で省VRAMのタイル動作になる
>>33 ありがとう
xformsをなしでやってみましたが、
ありの時よりもはやい段階でエラーになって止まってしまいました
>>35 forgeも調べてみてみたいと思います
>>36 メインメモリが32gだとsdxlを扱うには足りないと思うから
os側で仮想メモリを10gぐらい設定してみては?
それでうまくいくようならメモリ増設を考えたらいいかと
仮想メモリでスワップしたままだとストレージを酷使することになるから
>37
何のOSを使っているのか知らんが、Windows7以降ならデフォルトで仮想メモリはHDDの空き容量の半分までは勝手に生成される。
ただ、まぁ物理メモリがふんだんにあるのが正義だよ。
うちは512GB積んでいる。
>>37 タスクマネージャーみたら、メインメモリから16GBを使っていて、
グラボと合わせて32GBで頑張っていました
それでも駄目みたいなので、hiresfix以外でアップスケールしたいと思います
グラボ4070SUPERで画像生成してんだけどCPUの使用率生成中に100%になるのは4090とかでも同じなん
>>40 その質問にGPUだけ書いてCPU書かないの問題解決する気無いだろ?
4070で古いCPUだと間に合わなくなって100%に張り付くだろうな、コアごとがどうなってるか知らんけど
昔「AI生成でCPUはボトルネックにならない」の真偽議論があった
まさか10年以上前のCPU+最新GPUなんて誰も想定してなくて、「CPUは関係ない」とか普通に言われてた
今やi3にも劣るi5 9400Fに4070TiSというGPU偏重構成でも
生成中CPU25~50%で同時に動画視聴とかWebブラウズしてて問題ないけど
一体どんなCPU使ってるのやら…
3060Tiと3700xの構成でa1111で生成してもCPU使用率の張り付きなんて起きないな
GPUのコア使用率は張り付くがVRAMの使用率は最終処理で一瞬張り付くだけ
ただ、VRAMは使い方で使用率全く違うから環境で変わる
Stability Matrixでforgeのパッケージをインストールしようとするとこのエラーが出て止まっちゃうんですけどこれってどうやったら解決出来ますか?
ImportError: cannot import name 'Undefined' from 'pydantic.fields' (C:\Users\ユーザ名\AppData\Roaming\StabilityMatrix\Packages\Stable Diffusion WebUI Forge\venv\lib\site-packages\pydantic\fields.py)
うちはXEONのE5-2699V3×2個(36コア/72スレッド)という古いCPUで画像生成しているが100%はないな。
1コア高クロック至上主義みたいなプログラムなのかな
Ryzen5を9に換えたら1.5倍ぐらい速くなった
逆にこっちは画像生成中でも使用率が全然上がらないんだけどそんなもの?
ebara 1024×1024 アップスケール×2
GPU RTX4090 7%~ 22%
CPU 5900X 8%~20%
もっと頑張ってくれれば生成速度速くなったりしないかな。
>>49 GPU部分は並列で動くけどGPUに指示を出すCPU担当の部分はシングルスレッドなんじゃないかな
背景があるよりsimple backgroundの方が2次絵にはあってる気がしてきた……
ここで聴くべきか迷ったんですが
クトゥルフとダゴンを喧嘩させたいんですけど
どのモデルを使っても、プロンプトにCthulhuと入れただけで
ネクロノミコンっぽい本だけの画像しか出てきません
ラブクラフト系モンスターに強そうなLoRAを入れてもだめでした
Civitaiでそれっぽい出力結果を探してプロンプトとモデルも試したのですが
うまくいったのはクトゥルフの立ち絵だけで、ダゴンを割り込ませるのができません
何かいい方法はないでしょうか
>>50 タスクマネージャーで見てるなら初期設定見てる項目にAIが使ってる機能はないよ
どれかをcudaに変えればみれるよ
知ってたらスマン
>>54 OSとかバージョンにもよるんじゃないかな
うちのWindows10は3Dのところで出てる
>>56 もちろん環境によって違う可能性はあるよ。
俺は「RTX4090で、使用率がかなり低い」という環境に対して、ただ表示されてないだけではないか?と言ったまで
>>55 タスクマネージャーのGPUのところで、項目名をクリックしてみるのだ
>>53 クトゥルフ神話とか全然知らんけど、とりあえずクトゥルフは出るが
ダゴンを単独で描画してもあきらかにググったイメージと違うから
civitaiにいっぱいあるlora使わんとダメじゃない?
手持ちのdreamshaperXLとかGhostXLとかXLベースモデルとか
エロ以外に強そうな感じのモデル適当に試したけど
全部クトゥルフは出てダゴンは出ない
1 monster, Dagon god, god of merman, fish head, giant monster, scene of Cthulhu Mythos, H.P. Lovecraft style
ベースモデルのsd_xl_base_1.0の描画が雰囲気は一番良かった
SDXLベースモデルってエロに使わんから触ってなかったけど
エロ以外の描画力は高かったのね
勝手に使えん子と思い込んでたわ、SDXLちゃんスマン
毎回オッサンが立ってるのは謎だけど
いま質問読み返したら既にLora使ったって話だったのか
何も役に立ってなくてスマン・・・スマン・・・
2キャラ描画するのはBREAKでしっかりキャラごとに区切って
プロンプトを分けないと難しいよ
それぞれにLora絡む時はRegional Prompterとか使わないと要素が混ざる
ここ最近のCivitai Helperで画像スキャンすると一部LORA(といっても結構な割合)だけ画像を持ってこない事があるんですが理由はなにかわかりますか?
トップがGIFとかだった場合は持ってこれない事は今までもあったんですが、最近は静止画でもなります。
使ってるのはSDXL Forgeです。
>>54 いや、知らなかった。
そういう仕組みなんだ、そっちを見てみます。ありがとう
なおwindows11はデフォでCUDA選べない
https://stealthinu.hatenadiary.jp/entry/2022/07/30/183632 4090でもCUDAパンパンで他ガラ空き=低い%扱いになってると思う
まあCUDAガラ空きは無いだろうけどね
そのうち気にするのはVRAMだけになる
>>60,63
>2キャラ描画するのはBREAKでしっかりキャラごとに区切って
>プロンプトを分けないと難しいよ
>それぞれにLora絡む時はRegional Prompterとか使わないと要素が混ざる
いえいえこれ、すごく参考になります
とりあえず頑張ってやってみます。ありがとうございました
>>70 Stable Diffusionのプロンプトの言語処理の仕組みとして75(+システム用2)トークンごとに送って処理する というのがあるんだけど、
(1トークン=1単語 または1区切り文字(,とかスペースとか)=だいたい37単語ごとに送って処理してる)
BREAK という管理用の単語を入れることで、そのBREAKの前の単語までで75トークンいかなくても1区切りの送信情報として扱う形になる
BREAKのあとの単語は新しい送信情報の1単語目なので、いわゆる重み付けが上がる形になるし、
送信情報の区分けが違うと別の情報として扱われる可能性が高くなる
>>71 へえ、BREAKって単語に意味あんのか
たとえばA, B, BREAK, C, Dみたいに書けばいいの?
>>72 そんな感じ 特殊な単語は、あとはANDと、()の扱い(普通は1単語の1.1倍強調なんだけど、複数単語を囲むと関連付けされやすいっぽい)と、
Prompt Editingとかの[]で単語反映されるタイミングを指定するやつ(とワイルドカード周り)くらいかなあ
そういう意味もあるけど昔の話っぽいし可読性上げるために使う感じだ自分は
キャラBREAKシチュBREAK背景みたいな感じ
>>73 なるほど、いろいろ知らなかったことを教えてくれてありがとう
勉強になったわ
>>74 可読性にも良いよなBREAK
Styleを組み合わせて使う上でも便利
SDXLのLyCORISでウェイト調整する時、26ALLで真っ黒になるIN00,09~11,OUT09~11は使ってない層ですよね?
Weight-HelperでLyCORIS SDXLにするとIN00が出る代わりにOUT04~08が表示されないんですがどっちを信用すれば良いんでしょうか
>>77 そもそもSDXLのLyCORISは20ALLだよね
1.5 LoRA 17階層
1.5 LyCO 26階層
SDXL LoRA 12階層
SDXL LyCO 20階層
そういう話じゃなく?
>>78 あ、SDXLのLyCORISが20層で認識してますが、プリセットをLoRAもSD1.5も全部共通で26に揃えてあるんです
それでWeight-Helplerを見るとBASEからOUT03までの15層しか表示されてなくておや?と思ったんです
LoRAは12層出てるのでLyCORISだけなんか聞いてるのと違うなーと
>>79 > Weight-Helpler
入れてみた
おかしいね、なんだこれ、15個しかない
矢印のところに不完全な枠があるような
作者も誰も気づいてないバグかな?
わかった
extensions\sd-webui-weight-helper\scriptsのweight_helper.py内の2か所
【誤】
"BASE, IN00-IN03, IN04-IN08, MID, OUT00-OUT03, OUT04-OUT8"
"default: BASE, IN00-IN03, IN04-IN08, MID, OUT00-OUT03, OUT04-OUT8"
【正】
"BASE, IN00-IN03, IN04-IN08, MID, OUT00-OUT03, OUT04-OUT08"
"default: BASE, IN00-IN03, IN04-IN08, MID, OUT00-OUT03, OUT04-OUT08"
の誤記が原因だ、OUT8→OUT08
これで治ったよ
作者さんに誰か教えてあげて・・
>>81 それは気づいた人がGithubでissueを…
>>80-81 検証して頂いてありがとうございます
pyファイルを直せばいいんですね!
と思って直しましたが、pycacheを消したり拡張機能を再インストールしてから書き換えたりPC再起動しても変わりません・・
weight_helper.pyの109と112行目の2か所ね、片方だと変わらない
(念のためバックアップはとってね)
要webui再起動
>>84 2箇所直しましたが、他に前の情報が残っているのかwebui再起動でも直りませんです。javascriptフォルダのjsファイルにもOUT8があったのでOUT08にしましたが、そちらは関係ないのか変化なしでした
ごめん、今偶然気付いたんだけどsettingsのWeight Helperのオプションにそこらあるわ
この08を8にしてapplyするとwebui再起動しなくても
>>80に戻るのでここが全てかと
ここは壊れてない?
なんかここ監視してるみたいなタイミングになっちゃったけど
見つけて書き込もうとしたらシンクロニシティ
>>85 質問します。
初めてのlora作りで
画像生成→切り抜きまでやり終わり
EXTRA項目からのアップスケールをやってみたんですが背景が真っ黒になりました。
これは白背景や透過背景のようなもので問題ありませんか?
次の手順に移っていいですか、それとも再び黒い背景を切り抜かないといけませんか?
ご回答よろしくお願いします。
>>88 黒背景での学習なんてやったことないのでどうなるかわからないけど、
textあり学習の場合、タグ付けでblack backgroundって入るなら大丈夫じゃね?
(黒背景がついて回る可能性もある)
某所にあるこれかな?
>AUTOMATIC1111で学習する場合、透過色は拡大・加工時に黒色になったり、まだらな色になる場合がある*1。
>白が無難。
>透過色は使いやすい。背景除去ツールで処理した画像そのままを使える。
>どんな背景色であっても、タグで背景色を指定すればあまり気にしなくて良い。
>>86 オプションがあったんですね。すっかり見落としてましたw
修正したらすぐ反映されました。ありがとうございます。
Githubにも報告しておきました。
>>74 便乗質問だが、BREAKの前の単語の最後に","は入れてる?
ネットで見ると人によって入れている人と入れていない人がいるけど、なんか差が出るのかな?
08を8にするの自分もやっておこうと今見たら8だった
これ一桁は0が要らないという事ではないのかな、上から二番目の05は大丈夫なのか
>>91 横からだけど、自分はBREAKの前に「,カンマ」入れてない、後ろにも入れていない
例) small breasts BREAK 1boy, brown hair
例)自分のやり方はBREAKで改行しちゃう
girl on top
BREAK
small breasts
BREAK
1boy, brown hair
でもsmall breasts, BREAK, nipples こういう人もいるし、こうする人もいる→small breasts, BREAK nipples
カンマ1個でも差が出るけど、入れてる拡張で最後部の単語に付いたカンマとか途中の余分なスペースは自動削除される
ついでだけど、[ブラケット]と{ブレース}が混同しやすいのもありそう
連投になるけど、{A|B|C} {A | B | C}このスペースの有無なんかも人それぞれぽい
Dynamic Promptsのヘルプを見るとスペースは無い{2$$artist1|artist2|artist3}設定で{}を変えられる
正規表現を見るとスペースは無い模様
prompt-all-in-oneでloraが赤く点滅してcivitaiと連携しなくなる状態って治す方法ありますか?
治ったと思ったらまた再発したりして結構苦労しています。
スレでよく聞くebaraってなんですか?
ebaraで調べてもヒットしないので教えて欲しいです
>>96 hugging faceでebara ponyを検索すると幸せになれるよ
>>97 ありがとう
civitaiしか見てなかったです
>>89 ご返事遅れました。
ありがとうございます。
切り抜き線外は白い部分になってる画像もあったのでちょっといじくってみましたが結局わかりませんた。黒背景はやめておいて改めて切り抜きしようと思います。
よくわからないことばかりなので助かりました。
>>92 >>08を8にするの自分もやっておこうと今見たら8だった
>>これ一桁は0が要らないという事ではないのかな、上から二番目の05は大丈夫なのか
もう結果は出てるかと思うけど数字は2桁で記述です
8→08です
>>80 >>81 たまたまこのスレに気づいたんで修正しました!
>>作者も誰も気づいてないバグかな?
LoRAばかりいじってたんでLyCORIS気づかんかった・・・
8年前の1080GTXからようやくRTX4080superに載せ替えたら世界変わったわw
お前らこんな快適な環境でエロ画像量産してたんだな
生成速度が10倍ぐらいに跳ね上がるので、同じ枚数を生成するなら電気代は結果的には安いはず
同じ枚数なら
>>101 ありがとう、思い切り勘違いしていた
あぶなかったw修正後にファイルも確認しました!
長時間ブン回すならGeForce標準の設定ツールでの電力制限もオススメ
4080SをGTX1080同等の電力60%程度まで落としても生成速度は精々1割しか低下しない
電気代変わらず生成速度10倍で文字通り桁違いよ
生成AIとゲームの両立を考えて4070Sを考えているのだけどオススメのボードはありますか?
予算10万円でボード厚2.5スロ程度まで
一応候補としては
玄人志向 2ファンモデル (保証3年)
Palit 2ファンモデル (保証1年)
GIGABYTE WindForce (保証2年)
静かであればより嬉しい
目の崩れ(主に瞳孔部分)が多くて困ってるんだけど
何か良い方法ないかな?
生成してる物はXLのPony等のアニメ系のみで、
ハイレゾやADetailerもかけてるんだけど、かなり軽度の物しか治らず
ADetailerのプロンプト部分にdetailed eyesとか入れてみたりしてるんだけど
イマイチ良い結果にならず
adのモデルはcivitaiなどに個別であるから
自分にあう目または顔のをいれたら?
>>103 だからRTX 4090が一番安いとあれほど言われていただろう
>>109 どっかで
@_@
をNGしろって聞いたことがある
グルグル目?pony特有の何かかも
LoRA学習で色々オプティマイザーを試してるとprodigyは水面に映ったみたいに顔が歪むのは何だろう?
LRを1→0.5に下げても数百ステップから歪み始める
>>115 値はt5clrs.jsonのデフォ?
repetitionは1とか低めにして全部epochに振ってる?
prodigyは
「1_xxx girlの100epoch」を「10_xxx girlの10epoch」
とかにするとイマイチうまく行かないような
>>116 レスどうもです。そのプリセットではないですが繰り返し15とかでやってました。一回そのプリセットでやってみます。
キャラクターとモンスターを戦わせるようなイラストを生成したいのですが上手くいかず苦戦してます
monsterあるいは1girl and monsterみたいなプロンプトを仕込んで重みを上げても
一人しか出ないかそのキャラがモンスター化してしまう関係ないイラストが生成されます
今のところ理想に近いLoraも無いため何かいい方法は無いでしょうか
レスありがとう
RoLAやADetailerの目モデル探してみるわ
>>118 bing image creatorなんかでフォトリアルで生成して、それを使って好きなモデルでi2iが一番早い
それ以外だとregional prompterとか使わないとちびしい
スカートやパンチラのRoLAやADetailerってあるかな?
二重になったりして困ってるの
逆に言うとbingとかだとモンスターと戦う美少女剣士だけでいい感じの画像作れたりするのが悔しい
>>122 LORAはskirtやpantiesで検索すると出る
Chilloutmix, Majicmix, yayoimixあたり使ってるんだけど、リアル系で他におすすめのモデルある?
>>126 t3,puremix,pika,nobel,dream2realityなどなど
自分はマージしたのを使ってるんでマージするのもあり
BeautifulRealisticAsianとか
更新されてないけど、リアルさでminaduki mix 一択。
Loraで実在人物の顔作ってるんだけど
学習枚数が十数枚程度でもいい感じだったんで、もっと精度上げようと三十数枚に増やしたら
逆に個性がなくなったというか、「その人」感が無くなって
なんか人形っぽいというか、つるんとした感じの顔になってしまった
これってプロ野球選手各球団ごとの平均顔みたいな遊びで
合成人数増やすとだんだん無個性のイケメンになっていくのと同じようなことなんだろうか?
lora作成をよちよち歩き始めたら盛大にずっこけたので知恵を拝借したく
と色々調べて設定したけど
というエラー。無理くり実行してもすぐ終わってしまいます。何をミスってるのでしょうか?(解像度922は某白抜きサイトの縛りで…)
設定おかしい言うてるのに実行するからエラー出るのでは?
まずはそういうエラーの元になっているところを修正してからやってみるのもそうだし
各種設定も誰かの成功例をコピペしてるならともかく自分で設定してるなら
まず誰かの設定をそのままもらってきた方がいいと思う
成功例で何JNVA部の各種lora設定セット(SDXLとかanimagineとか数種の)からpony用プリセット.xmolaを使っています
この画像範囲では設定に悪いところが見当たらないので…
解像度直してエラー無くなるならそこしか原因なく無い?
まさかそれすら試してないとかなん?
>>132 922を64の倍数、できれば1024にしてください
赤くなってるのは勝手な値入れてるからでは?
> (解像度922は某白抜きサイトの縛りで…)
なんのことかさっぱりだけど、1024に自動で拡大されるので関係ないです
XLでも512でも行けます
>>134 > 成功例で何JNVA部の各種lora設定セット(SDXLとかanimagineとか数種の)からpony用プリセット.xmolaを使っています
こんなことここで書かれてもさっぱり意味が分からない・・一応google検索したけど掛からなかった、.xmolaって?
なんJNVAを検索しに行けと?最低でも該当レスへのリンク貼りましょう
当該スレからmegaのリンクなので、すみません
1024で画像用意するとこからやってみます
>>132 lora training guiって作者がスレに常駐してる系のアプリじゃなかった?
あんまりググっても情報出てこないのであっちで聞いた方がいいんじゃない?
>>137 いやだから学習画像のサイズをいちいち1024で準備する必要ないです
(厳密にはbucket関係で揃える人もいるけど、GUIのそれは設定する場所ないのかな?)
そのまま922を1024にして学習開始してください
仰る通りで、情報がなくて聞いてみた感じです
今他のbatで試してみてるので、頂いたレスで試してみます
お手数かけました
kohya guiは素直になんjに質問なげたほうがいいぞ
他スレには利用者が殆どいない
まぁguiの使ったことなくてもだいたいわかるけどね、重要なところだけ表に出してて好感
kohya_ssはadvanced内とかにまで混在してて最初わけわかめ
>>139 結論、これでした。用意してるのが規格外だから「赤色で当然じゃん」って思い込みが…
ただ結構時間がかかっていて終了報告はできず、動作報告です
結局皆さんが常用してる(使いやすい)のはどれかなあ、って興味はありますが
ひとまず、ありがとうございました
>>142 それ便利だな
ssは必須な項目とオプションが区別できてなくて訳わからんかった
1.9.0以降でHires.fix使って生成するとpromptエラーとnegative promptエラーが出るけどバグなんかな?
同じ設定同じpromptで1.7.0と1.8.0ではエラーは出ない
>>145 > promptエラーとnegative promptエラー
これじゃ何の話か分からない、なんかの拡張関連かな?
前後含めたテキストをそのまま貼ってください
Pony系のLoRAでアニメキャラ作ってて年齢設定が上手くいかず困ってるんだけど
キャラ設定通り15~16歳程度で作りたいんだけど、15 years oldといったプロンプトはまったく効果なく
普通に作ると20台後半ぐらいの感じで大人びすぎてて、childとか入れるとかなり変化するんだけど
今度は幼くなりすぎで、もうちょっと細かく設定する方法ないかな?
年齢yo、年齢years old、petite girl(小柄な女の子)、little girl、loli、
このくらいしかわからない。後はもう組み合わせとかAge LoRAやモデルかな
chacolebaraで生成してるのですが薄暗い部屋を出そうとしても上手くいきません。
そもそもPony系は薄暗い部屋が学習されてないのかな?と思ってたらガチャで出てきました、という事はプロンプトでも出せると思うのですが呪文判る人いますか。
LoRAを初めて自分で作ってみたんだけどゲームのキャラで素材にした画像が
ゲーム公式機能でとったスクリーンショットのみを編集もなんもしないで作ったらゲームのスクショの端にあるゲーム会社の公式ロゴが謎文字でほぼ標準されて消えないんだけどこりゃ嫌なら普通に作り直すしかないよな
キャラや衣装はなんの問題のないんだが
あとゲームのスクショ自分が使ってるモニターがWQHDだからWQHD解像度設定でゲーム起動してスクショとってそれ使ったんだけど別にFHDとかもっと解像度の低い画像でもこれLoRAて問題なく作れる?それとも高画質な画像用意できるなら高画質の素材のほうがいいの?
>>147 teenageやteen age入れるのも手
モデルによってスペース有無変わるから両方試すといい
あとはネガディブにchildやlori入れるとかadult入れるとか
1111バージョン1.7を今まで使っていて、昨夜最新の1.9.3にしたら
過去に生成したイラストをSD・XL共にかなり再現できなくなっているのだけど
こういうものなのかしら?
>>149 何にでもgirlつけがちだけどつけないほうが効果ある
トークン数多くするとどんどん効果薄くなる
>>154 バージョン上げたのはA1111だけ?
CHeckpointとか再ダウンロードしていない?
スプラッターま画像を生成したいんですけど
internal organsを指示すると変な触手だったり中出し断面図だったりで
一向に内臓を描いてくれないんですが何かいいプロンプトやモデルがあったら教えてもらえないでしょうか
胸が大きいと大人になって小さくすると子供っぽくなるのはある
ただ貧乳にしたい時とか困るw
>>158 内臓をうまく描写できるモデルは一般的に存在してないと思うよ
自分でLoRA作るしかないって考えていいかも
>>159 リアル系じゃないのかよ
リアル系で高品質なのないの?
内蔵系はcivitaiの1.5でそれ系を延々上げてる人見たことある記憶
速攻NGしたのであんま覚えてないけど
>>156 やはりそうなのね
>>157 上げたのは1111だけです
XLはウェイトの影響が変わっているようで、それまで綺麗に生成できていたのが1.9.3だと
https://imgur.com/a/k4Tbn1z こんなんになるから、なんか自分が間違えているのかとw
同じ絵が生成できないだけならともかく、過去の生成絵を試すとちゃんと生成できても
微妙に画風変わっていて1.8でも同じだったので、お気に入りの画風がある場合は
バージョン移動躊躇しますな
yes、だけみたいなレスはあんま相手にしない方がいいと思うぞ
普通もっとなんか言うだろ
サンプラーは合わせたり変えたり試したけど出てくるのはそういうレベルのものじゃ無い感じ
と思ったら仕様じゃなくてバグの可能性あるのね
内臓はないぞうかー
スプラッターモデルって意外とないんですね
>>169 全く同じって人もいて、checkpointの違いやLora使用有無で変わるんじゃないか?とかも言われてるね
こういう時は静観するに限る・・
>>172 同じ人もいるのね、当面は1.7を使い続けますか
SDXLデビューしてみたけどLoraのウェイト結構変わるもん?Loraの数値0.6~0.8とかじゃなくて1以上の方が安定するけどそんなもん?
ちなcheckpointは asyncsMIXXL
Pony Diffusionはなんか安定しなくてやめた
セーラー服のスカーフの色を指定したいのにscarf使うと首にも巻くから困る
指定の仕方ある?
>>174 Loraの出来によるけど、1.0超えはさすがに出来が悪いような・・
1.5に比べて過学習に近いのはあんま見ないので数値は0.8-1.0の高め指定OKが多いとは思う(1.5は0.6推奨とかよくあった)
pony系はややピーキー、score系指定はちゃんと推奨のを用いたうえで、3文字ネガをやるとloraがやや安定する
>>175 neckerchiefとか?
あああと、そのloraはちゃんとasyncsMIXXL(魔人系かな)用の奴?
>>174 1.5のNAI流出派生系ほど別checkpoint間での流用は効かない印象なので
例えば同じpony系loraならやや使えるかな?って程度
1.5の頃はLora学習時のcheckpointと生成を変えるとブーストされるみたいなのもたまにあったけど
XLはそういうのもない気がする、単に弱くなるだけで
>>177 使用Loraの説明文見たら安定しないって書いてあったから多分そのせいやわ。でも高めでいいのは安心した。あとそのLora投稿した人と同じやつ入れたから大丈夫なはず。
Ponyはもうちょい調べてからリベンジした方が良さそうやね
>>175 俺は school sailor uniform, navy collar, red bowtie, あたりで
スカーフタイプとリボンタイプをガチャってるなあ
school uniformの記述か、もしくは「school 〜」つければ勝手に合わせてくれる感
スカーフタイプだけ確定で出す方法あれば俺も知りたい
>>176 >>179 情報助かる
red school scarf試したけど強度低いと色つかないし強度上げると首に巻くしって感じだった
どうしても忍者やライダーみたいに巻き出すわ
red tieだと色はつくけど形が2つ割れスカーフにならないからほんと難しい
プロンプトに色 sailor scarf, 色 tie
ネガディブにscarfとnecktieを1.5くらいで指定で安定してきたわ
>>175 まさに今日その辺やってたけど
female sailor uniform with red ribbon
これでほぼ赤リボン出てます
で、試しに同Seed値同モデルでribbonをscarfに変えたら首に巻くようになりました
ご参考までに
>>175 趣旨を全然理解せずレスしてしまいましたすみません
なのでいくつかやってみたところ…
red short tie
これで首に巻くことなく打率上がりました
1.3くらいに強調すれば大体生成できてると思います
>>181 neckerchiefで安定しなかった?
うちはneckerchiefで問題ないよ
>185
1.6ってREACTORとか、使えない機能がいくつもあるような気がする
>>184 強度上げたら首に巻き出した
なので
>>181の通り強めにネガディブ入れたら良い感じに
モデルの違いも大きそうだけどな
>>154 えー、確かに今SD1.5リアル系のLoRAを試したらv1.9.3はForgeとほぼ同じ絵が出た。
慌ててv1.7.0に戻したわ。。
古いエロゲの画像をimg2に読み込ませて画像生成してるんだけど、古めのエロゲって胴長くない?
もしかして胴長の画像が生成されやすいのって画像生成の仕組み上の問題ではなくそういう学習をしてるからなんじゃ…
1.7.0魔改造組だから上げたくても上げれん
フォークして独自ブランチ切るしかないがやる気が起きない。
SDアニメ系メインだったからずっと1.41使ってて
んでPony台頭でXL環境激変したから1.7入れて
そこから1.8に変えて現状ド安定で満足してるわ。
1.9はなんかヤバそうだから当分放置だなぁ
前にここで見た気もするけどSDXLの指のプロンプトって何が良いんだっけ
ネガディブにsticky fingers試してみる
ついでに綺麗な乳首の出し方わかる人いたら教えて欲しい
anystyleを試したいけど「TypeError: 'NoneType' object is not iterable」のエラーが解決できず
イメージサイズは入出力どちらも1024x1024にしてsd_forge_kohya_hrfixとsd_forge_latent_modifierも無効化しても変わらず
Forgeごと入れなおしてもダメ
他に対策はある?
>>197 モデル変えてもだめかな?
素ponyか魔神かebaraで動かないかな?
>>200 素pony、魔神3&3.1、ebaraもダメ、念のためblue_pencilXLとかも試したけどダメでした
明日もういちど頭からやり直してみるつもり
Lora作成し始めてみたけど学習させたいタグいちいち消すの疲れるからなんかいいやつ無いんか。
https://note.com/gugenkamikami/n/ne7669052565e このサイトのやつ入れたけど何故か開けない
全部つけたままにすればいいじゃん
しきい値下げて少なめにしてもいいし100タグしかつかないんだしさ
TaggerとかDatasetTagEditorとか、他にもツールはあるぞ。
>>205 調べたらTaggerに出てほしくないタグ打ち込む場所あったのな。すまん解決した。
つか去年の制作記事を参考にするなせめて2ヶ月内にしろ
生成や学習に勤しんでいると新しい技術動向に追いつけないw
LoRA作る時のキャプションで漠然系のワードは残していいて解説してるとこが多いけど例えば1ガールとか背景系以外にも上半身とか下半身とかこういうのも放置でええの?
そこらへんのタグは消さずに残さないと自由度が下がる
自分がlora作るモデルによって
変えたほうがいいのかなって思ってたけど
単純に新しいの使うものなのかな
SDXL環境を別に構築したんだけど
モデル変更したときにボタン押さずに自動で読み込むのって設定でどうするの?
意外と細かいところが忘れてる・・
同じ人が作った芸能人顔Loraでも、
ある程度どんな条件でもピチッとキマってその人だな、ってわかる芸能人と、
何回も生成して極稀にしかキマらず大抵出来損ないのマネキンみたいになる芸能人がある
人間の顔って不思議
>>216 png infoから送ったりするときの話なら、settingsのInfotextの
>Disregard checkpoint information from pasted infotext
> (when reading generation parameters from text into UI)
のチェックをOFFかな
ここらデフォで使ったことしかないんであんま知らんけど、無視する項目も下で選べるみたい
>>218 いや、送る時ではなく単に左上のcheckPointやVAEで
プルダウンから選択した後にデフォルトは青いボタンを押さないといけないけど、
自動的に読み込んでくれるようにしたい
Hyper-SD XLをLORAフォルダに入れたのですが表示されません
他に何か必要なのでしょうか?Forgeを使っています
適応できるCheck Pointの選択と再読み込み
SDで生成したものではない画像を高解像化する場合(昔の写真をきれいにしたいなど)、GigapixelみたいなAIソフトを使った方がよいのでしょうか? 教えてください
高解像度化っていっても再描写だから別のなにかに変質してしまうけど用途的に問題なさげ?
ちょっと言葉が間違っていたようです
ピンボケ解消の方が正しいかも
画質わるいなーって画像の画質をよくしたい
「SD 高解像化」で調べるとSDで生成した画像ありきのやり方しか出てこないので
たとえば自分で撮ったスマホの写真の画質をあげる、みたいな用途です
AIを使った技術で高画質化はできるけど
SDはあくまで生成と生成したものの高画質化がメインじゃないかな
フリーソフトとかサービスあるみたいだからまずそれで納得できる感じになるかどうかやってみたらいいと思う
Check Pointが問題だったのですね
221さんありがとうございます
>>224 PhotoDirectorとか画像編集アプリにそういう機能ついてるね
求めているのはそっちだと思う
RTX 3060 12GBで、A1111+SD1.5を使ってて、forge+SDXL併用しだしたけど
SD1.5をA1111からforgeに移行するデメリットってある?
細かいここが使えなくなってしまうとか
>>230 ふんいきか・・・
同じモデルなのに変わるの不思議ね
✂と✄くらいの違いだから
そもそも併用派が多いぞ
最近forgeは更新されなくなって
死んだのではないかと囁かれている
>>232 併用でもいいかな
forgeのそれ見たけど、やることなくなってるから更新停止しているのでは?
最近のGPUの占有3スロットてw
なので3060を愛用するしかないな
GPU以外刺すもんないから占有スロット数気にならん
>>219 普通は選ぶとすぐそれになるはず
青いボタンはリストの更新用だよ、フォルダに新規で入れたり名前を変えたモデルを認識させるだけの
>>230 ちゃんと合わせたらほとんど変わらないよ、交互に表示させても微小レベル
bbspinkの方で上げたやつ、1.5じゃなくてXL比較だけど
A1111
https://majinai.art/i/7gjL1x7 forge
https://majinai.art/i/JZrPMgB forgeは一部使えない拡張やらがあるのかな?自分は特にないのでもう1111は使ってない
>>228様 みなさま ありがとうござます
結局gigapixelで解決しました
まあ思ったことができた感じです
forgeは2070SでもSDXL+Hires.fixが実用レベルで動くからありがたい
forge死んだらグラボ新調しないと
そんな試用期間+有料のソフト使わなくても、このスレらしくwebuiのextrasタブにあるUpscalerでいいのでは・・
gigaなんたらは使ったことないのでどのくらいの高精細化できるのか知らんけど、原理は同じだろうし
webuiのは2種混ぜたりできる
×Upscaler
○GFPGAN
だった、ごめん
サイズそのままだね
gigapixelはまだSDがなかった時代は有用な方だったけど今ならswinirとかの方が断然上だろうな
civitaiでプロンプトの単語で検索するやつ消えた?(imagesのカテゴリ)
あそこ自由な単語で直接検索絶対させないマンだよね、勝手に候補選んで出してくる
検索系ほんと使いにくいのは負荷回避なんだろうか
なんかの収益対策なのか知らないけど
わざわざ不便ばかり強いられて草
ちょうど使ってた時にimagesなくなったからおま環かと思ってたよ
履歴見てもどれかわからないからあのプロンプトはもう
seaartで似たの探すか
Loraのプレビューをreplace previewしたものを元のNO PREVIEWにするにはどうしたら良い?
civitai helperは使ってないです
>>248 Loraと同じフォルダにあるLoraと同名の Lora.jpg か Lora.png を削除すればいいんでない?
>>250 おぉ、まさかそんなところにあるとは
もっとシステム的な内部に保存されていると思ったわサンクス
背景を街やショッピングモール等にすると看板が中国語っぽくなるから回避したい
背景に特化したcheckpointにするとモデルの顔が変わってしまうからpromptかLoRAで回避したいけど良い案ない?
checkpointはマージしたオリジナル、モデル用に自作LoRA使ってる。
背景を街やショッピングモール等にすると看板が中国語っぽくなるから回避したい
背景に特化したcheckpointにするとモデルの顔が変わってしまうからpromptかLoRAで回避したいけど良い案ない?
checkpointはマージしたオリジナル、モデル用に自作LoRA使ってる。
プロンプトにfrom side, lying, looking at viewerと入れてうつ伏せとか仰向けのポーズを真横から見たアングルにすると身体と顔が崩れてしまうのを防ぐ方法ありますか?
試しに顔だけ左右90度とか180度回転した教師画像を作ってupside-downとかlyingとかreverseとかタグを付けてLoRAを作りましたが、まあ、顔の崩壊はそこそこ防げる時もありますが構図が常に回転してしまい使い勝手が悪いだけでした
とりあえずSD1.5でforgeに移行したけど、生成めちゃ早くなった
forgeの動画入れてのanimatediffにControlnet使えないし結局どっちでも使えんの意味ないからcomfyuiが最適解かなぁ
顔回転loraを調整してcfgも上げたら打率が良くなったので自決しました
comfyのanimatediffで動画がたまにボケボケになるんだけど
原因がイマイチ分からない。同じワークフロー使ってるのに
Adetailer使うと修正されたとこだけちょっとボヤける
ukforumでcomfyでXTXと4090で差が余り無いって実験成功してたな
ゲフォに拘ら無くてもよくなってくるか
macM1でforge使ってるけど
1111のときに出てたinpaintの生成途中画像表示は出来ないの?
あのボカシ入り画像が興奮出来たのに
縦長を3枚生成した時のgridを横3枚に並べる方法ってある?
>>264 Forgeでも設定の「ライブプレビュー(Live previews)」をいじれば出るはず、というか出てる
>>266 設定の「画像/グリッドの保存(Saving images/grids)」にある「グリッドの列数(Grid row count)」を1にすればいいはず
次は本スレで質問してね。このくらいの質問なら向こうの方が早いから
>>263 いい方向だね
競争が無くて殿様商売はマジ勘弁
>>267 ぉぉ、ありがとう
rowCountでいけた・・・ってここ本スレじゃないの?
プレビュークリックしたら横幅に拡大・縮小されるけど
等倍で表示は左上のアイコンをクリックするしかない?
一発目で等倍することってできる?
スレ乱立ガイジが主張してるだけでここが本スレであってる
伸びてる方が本スレってのが常識
ワッチョイは糞スレ
Loraの複数使用したいんだけどRegional Prompte使うと画像がガビガビになるの仕様なのかな
LatentでガビガビになってAttentionだと普通に生成されるでも当然混ざる
SDLX Forgeでやってるんですが8GBのせいなのか
always offload from vramで毎回モデルの読み込みで遅くなってしまいます
これを解除する設定はどこかにありますか?
nVIDIAドライバで共有メモリ使用しないオプションにしろ
勝手に自分が立てたスレを本スレと称して誘導している頭がおかしい人
自分の立てたスレに人が来なくて勧誘のために出張してくる
>>275 Regional Prompterで上手くいった試しが無い……
最近のバージョンだと良くなってないのかな
おま環かと思ったけどやっぱり上手くいかんのか…Lora同時使用したかったら混ざりがちだけどガチャ回すしかないか
http://2chb.net/r/cg/1700315721/972 http://2chb.net/r/cg/1700315721/983 を見てください
>>271 1つめのレスで次スレが立ったのに、同じスレの直後に勝手に立てられたスレの末裔が今いるこのスレです
ルールに反して勝手にスレを立てた人はIDを変えながら、ワッチョイありの本スレを否定・中傷する書き込みを行っています
>>271 rowCountというのはちょっとよくわからないけどプレビューが出るようになったのはよかった
プレビューを1クリックするだけで等倍表示にはできないんじゃないかなあ
プレビューをクリックしたあと、左上にある斜めの両矢印アイコンをクリックするしかないと思う
>>283 rowCountは行の数、デフォルトは -1で無視なのを 1(1行)にしたら期待通りになりました。
プレビュー1クリックで幅に合わせると解像度が低いのが引き延ばされるので等倍で見たいのよね・・
あと、どのモデルを選んでも、Adetailerありなし、プロンプトに目のカラーに関して指定しないときに
「青の眼」ばかり出るのがどうも不思議なんだけど仕様?
目の色を指定すると、服の色「も」指定した色になる時がたまにあるのも不思議
>>284 ゴメン、rowCountは
>>266の話だったのか。次の質問がプレビューの話だったから
>>264の続きだと勘違いしてしまった
なるほど、横長の画像が拡大されないようにしたいのか…すまんが方法はわからない
青い目が出るのは試したモデルのデフォルトなんじゃないかな、少なくとも目の色が無指定の場合にあらゆるモデルで青い目が出るわけではありません
一方、色指定がほかの要素にもれ出るのは仕様です
次の質問は本スレによろしくね
>>284 色混ざりはCutoffって拡張で回避がたぶん一番効果ある
自作Loraでt2iで生成するとやけにキャラクターの分身が発生してしまうんですが原因は何なんでしょう?
Hires Fix使えば分身を防げるというのはどこかで見たんですがあまり効果がなく
>>289 >>291だと思うけど元サイズとhires倍率書かないとエスパー不可
例えば512基準の1.5でいきなり1024x1024とかしたらそりゃそうなる
元データの解像度確認して再度作り直してみます
ありがとうございました
forge couple使うと比較的マシになった
Loraはちゃんと反映されてるしガビガビにならない相変わらず混ざるけど分離したものが出る確率は上がってる気がする
最初からうまくいかないほうが色々理屈わかって後々良い気がする
失敗しながら身につけていく
今の日本だと何でも失敗せず最短でコスパ良くって風潮だけど消費者止まりで開拓者になれない
なにげに起動ログ見てみたらDAAMがエラー吐いてた
色々いじっていたら入れ替わりに今度はtaggerタブがエラー吐いて消えていた
もうわけわからん~
>>297 普通に壊れた竹
クリーンインストールすれば直る
AIイラストって実写は終わってんな
喘ぎ表情も絡みも作れん
俺は実写にしか興味ないが、歯医者さんとか美容院とかのシーン作るだけでもうまくいかないからあきらめた
道具関係が全くダメ
初心者の質問で申し訳ないのですが、コラ画像を作るためにinpaintで一部をレタッチしています。
しかし特に腕や足など一部分をレタッチしようとすると、どんなにネガティブプロンプトに人体の部分を入れても顔や体がが錬成されてしまいます。
どうしたらこれが防げるか知りたいんで宜しくお願い致します。
Inpaint areaをwhole pictureに変更
DS下げてマスクを広く取るかいっそControlNet使う
あざます!
いろいろ導入してみてなんか詰まったらまた来ます
forgeの初期状態ではならないんだけど、
a1111の時はモデルを変更したら読み込んでいます的な秒数のカウントがあったのよね
コンソールを見たら読みこんだことがわかるんだけど、
webui上でモデルを読み込んでいる進捗って設定で出るの?
forgeは切り替えても読まないで、
生成時に読み込みでてなかった?
ワッチョイ有に書いたけど人いないみたいだからこっちに
も
Have different permissions when sharing mergesがOKのモデルってマージしたら俺ルールに変えられちゃうの?
例えば商用不可を商用可にとか…そんなジャイアンみたいなことある?
>>298 背中押されてエイヤと再インストールしてきた
生成めちゃくちゃ早くなったし彼女もできました
完璧ですありがとう!
生成物に関しては言えない
モデルそのものに関しては学習元の情報次第で言えることもあるかもしれないけど
civiにあがってるようなマゼモノは基本商用利用可も不可も好き勝手言うだけで実際の拘束力はないと思ってる
>>311 ややこしすぎる
元が商用不可なのに可になってるマージ品とか山ほどあるし何を信じていいかわからん
商用不可って言っててマージのライセンス変更は可みたいなのはとりあえず混ぜない方がいいかね
倫理と法律がゴッチャになってて、商用不可と言ってるモデル自体も
元はNAIリークの知財侵害の血を引いてたりで
そもそも可だの不可だの言う権利はあるのか?とか、
もちろんSDベースモデルの学習元の著作権侵害疑惑とか
各国の法律の違いとかもあって
あれもこれもクソミソで誰が正当な権利主張できるかすら怪しいのさ
色々カオスな現状は一旦置いとくとして
CreativeML Open RAIL-M ライセンスの考え方としては
派生先は派生元のライセンスに制限を追加はできるけど外す事はできない(Section IIIの4)
だからジャイアンにはなれんのよ
> 商用不可って言っててマージのライセンス変更は可みたいなのはとりあえず混ぜない方がいいかね
元のモデルが商用不可でライセンス変更可なら
マージモデルも商用不可を引き継ぐ必要がある
>>313,314
そうだよねありがとうスッキリしたわ
pixivにAI絵あげてる人ってLAMA使えばすぐ直せるような部分ですらそのままであげてるやついるけど
あぁ言うのってstablediffusionじゃなくてNovelAIやらローカルじゃないので生成してるからLAMAの存在すら知らない人達なのかな?
ホクロ増殖してるのとか気になって仕方ない
一発撮って出しを信条としてるのかもしれない、知らんけど
forgeでextraからupscaleするとjpgとpngの2つが出るんだけど
どちらかに設定できる?
>>318ですが、バッチだと2つ出る時があって単独では2つ生成されないのでスルーしてください
>>317 本気の作品は自分用に
ソコソコな物は表に出す
Stable Diffusion AI画像生成ガイドブック
買ったけど早速資源ごみに出しました
>>318 Settings → Saving images/grids の Save copy of large images as JPG じゃないの?
>>321 この時代になんで紙媒体でPC関連の情報が得られると思ったの?
>>322 それっぽいです。
途中でアスペクト比を変えた2サイズが混在するディレクトリがあって
そのディレクトリに対してバッチ処理したところ
768x1024を2xスケールアップ → png(約3.5MB)
768x1280を2xスケールアップ → png(約4.2MB), jpg(約350KB)
と縦の少しの違いでjpgが出来てしまったのは、何を基準なのかなと思いました
ComfyUIでanimatediffを使いテキストから動画生成するところまではできたんですが
Hires fixみたく画像の破綻を防ぎつつ高解像度化した動画を生成できるワークフローありませんか?
VideoCombineの直前にUpscaleImageを繋げてみたんですが、小さい動画をそのまま拡大したような品質になってしまうんです
>>325 自分も動画制作に挑戦したことあるけどモーションデータを噛ます関係上、通常の画像生成クオリティで動画にするのは無理だと判り諦めたわ。
StableDiffusionのAnimateDiff以外だと上手くいくのかな?
赤か青の本というようなor条件ができたはずなのですが、
上手くいかなくて・・・
(red | blue) book
[red | blue ) book
みたいな パイプを使ってたような気がするのですがどうやるのでしょうか?
>>328 ぁぁ、まさかのフニャ括弧でしたか・・
確かに分散されています、ありがとうございます
それDynamic Prompts抜きに機能したっけ
Animagine派生で塗りの濃淡指定するプロンプトってどういうのがある?
たまに塗りがべったり濃くなる時があるからどうにかしたい
AI生成してるときにグラボからコイル鳴きみたいな
「ジーー」とか「チチチ」みたいな音出るんですけど
こういうもんと思ってほっといても大丈夫ですか?
うちの4090でも重い処理をさせると音は出るからそんなもんだよ
>>332 暑くなったし蝉が鳴き出したら気にならなくなる
>>316 1枚1枚丁寧に作ってるわけじゃなくて、ガチャりながら大量に生成してる。
そこからある程度絞るけど枚数多いから、1枚1枚丁寧にLAMAにかけるのが面倒なのだ。
本当に1枚だけの生成なら使うし、手書きで手直しもする。
>>336 気持ちはわかるけどそういう雑さが反AIの人口増やしてそうだから修正してほしいわ
多いっていったってせいぜい15枚くらいでしょpixivじゃなくてCG集で出すとかならもっと多いかもだけどね
AI生成する側だけどpixivでサーフィンしてるとお前さぁ・・・って感情沸く生成絵結構あるよね
そんなんないけど同じようなの1枚1枚投稿してるのはムカつく
似たようなの上げてるだけなら、せめてチェリーピッカーしろよと思う程度だわ
元々ちゃんとした絵やら描いてる人のは結構修正してくれてるけどAIから始めたんだな~って人はガバポン出しドバーっと大量投稿って印象
まぁ上のは別に良いけどポン出しガバクオリティのを大量に一枚一枚投稿するハゲは許せん
絵が好きだけど絵心無いから生成する人と
新しいもの好きで生成と言う行為が好きで生成する人の2タイプがいると思う
後者は絵へのこだわりは薄いから粗悪ものを量重視で上げるイメージ
前者は絵を見る事はやってるから気になる所くらいはレタッチして少量上げるイメージ
絵心無いから0から描くと大変なことになる上にロークオリティなんだよね
自分が作りたいものが脳内でしっかり具体化出来ていないか具体化出来ていてもそのとおりに出力出来ないから0から1を作るのが大変
AIは0から1の部分をアシストしてくれる
1から10、100にする部分はまだ人間の作業かな
いい加減スレチやろ、質問形式にしたらなんでも語っていいってもんじゃない
> LAMAの存在すら知らない人達なのかな?
人が多いからって勝手に雑談スレにするな
突然キレ出すのこわ
しかもずいぶんと前のレスにキレてるし普段LAMAすら使わない人間か?
LAMA使えばすぐ修正できるのに使わない人が多いのはなぜか?って質問じゃないか
>>321 半年前に買ったけど基礎動作を覚えるのには役立った 今は使わないけど
結論面倒だし、344みたいな感じよな
次の質問どうぞ
環境変わってないのに、1週間前は起動出来たけど、急に下記エラーで起動できなくなりました。
分かる方いたらお願いします。jaxlib勝手にインストールされるからのような
RuntimeError: jaxlib version 0.4.28 is newer than and incompatible with jax version 0.4.11. Please update your jax and/or jaxlib packages.
>>350 jaxと jaxlibのバージョン合わせろ、だそうだ。
>>0353
>>0352
自己解決しました、たしかにエラー文よく見るとjaxと jaxlibはセットだということが分かりますね。
>>0353の方法は自己解決した後に見たレスなのでやってないですが、こんな方法があったんですね。
L:\satable duffusion\stable-diffusion-webui\venv\Lib\site-packages
のディレクトリの「jax」と「jax-0.4.11.dist-info」のフォルダをなんとなく削除して再起動したら
同ディレクトリに「jax」と「jax-0.4.28.dist-info」が勝手に作られエラー出ずに正常に起動出来ました。
ありがとうございました。
forgeで生成したら
A1111の時には
output/txt2image/日付/ の モデル名のディレクトリが作られてたんだけど
forgeではモデル名は作られず、日付直下に保存されるのは仕様?
>>355 設定に出力先指定できるからどうにでもなるでしょ
>>356 元のA1111が吹っ飛んだけど、ファイル名はカスタマイズできたのは覚えているけど
保存ディレクトリまでカスタマイズできたっけ?
{date}とかやってみたけど、そのままの文字列のディレクトリ名になっちゃった
>>357 一時ファイルや圧縮ファイルの解凍用にRAM disk作っててそこを出力ディレクトリにしてるけどちゃんと生成画像出力されているから好きな場所に指定できると思うよ
>>358 パス指定はできると思うけど
以前、吹っ飛ぶ前のA1111の時はoutput/yyyy-mm-dd/モデル名のディレクトリ/に保存してくれていたのよ
それができるかなと
コロコロモデル名を変えてテストしてるから以前の環境が助かってたのよね
設定にあるて言われてるのに、
1から100までをご所望なんだろ
誰か赤ちゃんに教えてやれ
設定に記載方法書かれたサイトへのリンクあるからそこ参照しろとしか言えん
>>361-362 すまん、いけたわ
>the following information is about the image filename and subdirectory name, not the Paths for saving \ Output directories
って書いてるのに必至にoutput dir触ってたわ
CUDA errorでHires出来ない
ググっても意味が分からん
実写系だが、街の看板やショップロゴが中国語っぽくなって生成にがっかりしてるんだけどpromptでどうにかなるものなの?
>>364 こっちもそれだけの情報では意味分からん
>>365 ネガにchinese入れればほぼ消える
あと背景以外の中国要素をチェックする
背景・人種・服装はぜんぶ国籍リンクするから
japaneseやeuropeanやtokyo入れればふつうは大丈夫だけど
中華系モデルとかはアジア系は全部同じ漢字にしかならんから
ネガchinese入れて日本語も韓国語も巻き添えにぜんぶ消して英語にする
lora作ってる時に、自動調節系Optimizerでたまに序盤いきなり失敗するので
一発目のxxx-000005.safetensorの出来をforgeで確認してるんだけど、失敗時にそのsafetensor削除しようとすると
「別のプログラムがこのファイルを開いてるので、操作を完了できません」でforgeを一旦終了しないと消せない
この時のおなじみのやり方として
リソースモニターのCPUの検索窓でxxxとかsafetensorで検索しても、掴んでるプログラムが何故か一切出ない
この状態でズボラかまして同名でloraを再作成すると、上書きの瞬間kohya_ssが書けねぇぞエラー吐いて落ちる
(エラーメッセージは忘れた)
webui終了以外では名前変える、Save every N epochsの値を変えてずらすくらいしか思いつかないんだけど、
面倒なんでなんか回避方法ないかな?a1111では起こらなかった事象
the action can't be completed because the folder or a file in it is open in another program
あたりでforgeのissues検索した限りになかった
追記
同PC上でlora学習+確認やってる場合です
lora共有してサブPCで確認って前まではやってたんだけど、サブPCの起動が面倒なので・・
学習できるほどのスペックのグラボに手が出なくて、お試しで『クラウドGPU』というサービスで自分のイラストの絵柄学習させてみたいんですけど、このクラウドGPUっていうのは学習の時に使うイラストも生成したイラストも提供側の会社に見られちゃう可能性ってあるんでしょうか?
クラウド経由で送受信されるんだから提供側には誰が何をしてるか筒抜けってことですよね?
自分はエロ絵師ですし、海外のクラウドGPUの会社だとロリぷに系や低頭身系イラストとかだと向こうは例えイラストでも厳しいですよね?
アダルトイラストの学習・出力の場合、クラウドGPUは危険でしょうか?
>>371 やりようによっちゃ3060ti8Gでも自作LoRAなら作れるよ
>>371 BAN対象は主にGoogleドライブに置いておくとなかみAIに覗かれて検知される
だけど他所にファイルを置いてそのアドレスからデータを引っ張れば問題なし
colabに展開されるデータは画としてにんしきされてない
さらに出来たLoRA等のファイルはそれ単体ではロリでもぷにでもないのでおいておいてOK
安全なやり方はあるけどあなたがそこまでたどり着けるかはしらない。ちなみにpixAIの学習は丸見えです
クラウド使う時はCryptomator経由にすれば運営に覗き見されないよ
「お前のファイル、ランサムウェアにやられてないか?」ってOneDriveの個人ユーザー向けはご丁寧に訊いてくる
sdxl forgeでtagcompleteが機能しなくなったんですが同じ症状の方います?
Settingを見ると一覧に入ってないんでどうも認識してないっぽいんですが、拡張機能の方から見ると普通に入ってます。
一度消して再インストールしても変わりません。
なぜか1.5 forgeだと機能してます。
forgeだとCUDAエラー出るけど1111だと出ない
不思議
forgeだけど
white(hair, clothes, stockings)
みたいなトークン節約的なプロンプトって効いているような微妙に効かなかったりするけど使い方あってる?
これを丸ごと強調させる方法ってある?
(white(hair, clothes, stockings):1.1)って合ってるのかな
色分け指定しても
その色に引っ張られるから
同じ色で統一したいなら(white)でいいのでは
>>380 すまん、ちょっとわからないんだが
(white)これにはどういう意味があるの?
白の何?みたいな感じにならない?
色が引きずられるのはLora使わずにBREAKとネガで対応できてる
>>382 実例サンクス、そういう使い方があるのか
よくありがちなのは、例えば dark red eyesなんて入れると色々なものに引きずられてネガを羅列するんだけど
加えて黒い床、紫の壁とか複数の色を組み合わせたいときは、引きずられたく無い強調色は最後尾に持ってくるのがセオリー?
何か一般的な色浸食への対応方法ってある?
そのモデル良いね、XLのモデル?
モデル名良かったら教えて
ついでに
[high quality, best quality]、あえて減らすことによるメリットってあるの?
masterpieceはマスピ顔対策?
色も微妙な指定ができるといいんだがな
もう少し濃い青とかちょっと赤みを入れた緑とか
HTMLみたいに(255,255,255)とかで指定できると一番いいんだが
>>378 こんなの初めて知ったわ
説明ってa1111やらのどっかにある?
token節約ってbreak導入以前はよくやられてたけど
>>386 ないよw
>>378の「使い方合ってる?」という質問に誰もちゃんと「間違ってる」って回答しないからこうなるんだよな
w
>>378 そんな使い方はありません
前に強調で全然間違った理屈さもそれらしく言い張る人見たことあるわ・・
(aaa,bbb,ccc:1.2)が
bbb 1.1
aaa 1.1
ccc 1.32
だとか
あまりに自信満々で誰も否定しないので、突っ込んだとたんみんな否定しだして笑った
赤く光ってる378ですw
まぁ当時はこれで上手くいっていた(実際は色が引きずられていた)のもあって
成功体験として覚えてたのよね
なのであまりいじらないでw
なんだ、red hairにしたら引きずられて目も赤くなっちゃうっていうのと同じだけか
lora作成の勉強して自分なりのルールを決めてるんですが
・なるべく高画質、詳細が分かる画像を用意
・教師画像は20枚を最低ラインに50~100用意する
・画像の大きさは1024×1024.アスペクト比は1:1で統一
・背景や文字をトリミング
・カラーでないものは全てカラー化
これでいいですかね?間違ってる部分があったら指摘お願いします。またみなさんの作り方を教えてほしいです。
LoRAを作ってみたものの納得のいく出来映えでなく作り直そうと思っていたらXL台頭
技術の進化に取り残される……
いつもと同じmodel、LoRA、prompt使っていつも通り生成してもいつも違う生成画像出てGenerateForever使って生成しっぱにしてるとそのうちいつもの生成結果になるけど違う生成画像出すロジックが不明
給湯器から離れたシンクでお湯出そうとしても暫く水しか出ない状態という感じ
直前に実行したのプロンプトの影響があるとかなんとか。
ずっと実行すれば平均的な結果になるよね。
>>393 古いのしか動かないぶっ壊れた拡張入れてない?
loconとかlycoris系の
>>391 あんまり細かいこと気にせずポンポン出していきましょう
1:1とか150以上作ってるけど一度もやったことない
XLでカラー生成したいならカラー多い方がいいけど、全部そうである必要はないと思う
タグありならmonochromeとか入ってるだろうし
学習元の解像度は出したいものによるかな、XLで小さいとボケボケになる場合もあるけど
lbwのOUTのケツの方で微調整できることもある
256くらいの大きさだらけでも不思議とそこそこうまく行くことも多い
XLでもあえてMax resolution 512,512でやってもOK
背景切り取りは最初の頃はやってたけど、だんだん面倒くさくなってそのままやるようになった
逆に残せば世界観出せたり、モブも入るようにしとけば学習してモブがみんなそのキャラ自身になるのも抑止できたりも
文字は邪魔なら抜いたほうがいいかも、これは本当にいちいち出てくるので
まぁXLは1.5よりプロンプト制御しやすいのでそんな細かいこと気にしなくてもいいような
openposeで元の画像が膝までしか無い場合editで足首の点を増やすにはどうしたら良いの?
>>398 編集画面の左下にある「Person1」の「>」をクリックすると、パーツの一覧が出る。
left knee,right knee,の右側にある目玉アイコンに斜線が入って非表示になっているので
それをクリック。
すると、画面の左上へと、対応するバーがびにょーんと伸びるので、その頂点を正しい位置に移動させる。
>>399 ぉぉすごい、できた。
実際にconrolNetをする時は右左の概念まであるの?
裏表まではわからず、顔の向きである程度判断しているという感じ?
>>400 試してはいないけど、OpenPoseだけだと裏表は伝わらないので、Depthを併用する必要がある、
とどこかのサイトにあった。
後はプロンプトに、出したい絵に表示されるパーツのものは入れて、出ないものはネガティブに
入れるとか(例:後ろ姿を出したい場合は、目の色や表情のプロンプトは外しておく)
>>401 確かに裏表分かってないだろうなぁと思って、ネガやポジで追い込んでいったわ
openposeだけで側面からねじった感じだと意外と難しいもので期待通りは出にくいガチャ感があった
正面や後ろはほぼ確実に出るんだけどね
>>402 横からもそうだけど、肩鼻首耳の位置関係でどこ向いてるかある程度は指定できるよ。
ガチャは必要なことに変わりはないが。
>>397 有難うございます、参考になります
アニメは許容範囲なのが出てくるんですが、実写だと妙に気持ちの悪い顔立ちになってでてくるのが悩みのタネですね
素材を多く学習させた結果、多様性いれたのが悪いのかなあ
生成した画像をextrasでアップスケールするとプロンプト消えるの防ぐ方法ある?
生成もアップスケールもjpg使ってます。
いつまでも小さい画像を保存しておく必要があるのよね
プロンプト再埋め込みしてくれる拡張とかあればいいのにな
>>30 comfyとかせっかくノードつかってんだから、
そういうコントラストとか、彩度だけ使えるノード
ありそうなんだけど、どうなんだろ?
blenderのアドオンあるけど、それだと実現できるかなあ?
うわあ、一ヶ月前にレスしてしまいました。三ヶ月ROMります。
Extrasタブでの拡大では元画像のメタデータを引き継ぐことはできないはず
img2imgのscript内にあるSD upscalerを使えばimg2img時のプロンプトは埋め込まれるし、Hires.fixで最初から大きく生成してもよい
プロンプトの再埋め込みは面倒な方法があるよ
メタデータを残して保存できる画像編集ソフト(ペイントやAffinity Photoなど)で小さい画像を開き、キャンバスサイズを大きい画像に合わせた上で大きい画像を重ね「名前を付けて保存」する。面倒!
回答がないから回答したけど次は本スレで質問してね
http://2chb.net/r/cg/1711170980/ こっちは通常スレ
あっちはワッチョイスレ
どっちも本スレ
誘導するのは頭がおかしい
先とか後とか関係ない
通常スレとワッチョイスレは全くの別物
重複削除依頼出しても相手にされない
突然起動時に パッケージ.py が見つからない
というエラーで起動出来なくなった
チェックディスクと入れ直ししてもダメです
突然ってことはないだろう
直前にアプデしたとかPCに変調なかったとか
拡張機能入れたとか
あとエラーコード貼るとか
情報くれよ
あー、プロンプト埋め込みツールとか作るか
プロンプト埋め込みしたままjpeg化とかpngの圧縮率変えたりとか
Extrasタブのコード修正してプロンプト引き継ぐようにした方がいいかもしれんが。
>>419 > プロンプト埋め込みしたままjpeg化とかpngの圧縮率変えたりとか
メタデータを残したままpngをjpgに変換するツールなら
https://github.com/Takenoko3333/png2jpg-for-a1111-and-NAI >>420 中々いいものですな。
やはり、pythonはexifいじれるライブラリあっていいな。
SDXLでマージしてる人ってメモリどれぐらいですか?
16GBでかろうじてマージできてるけど32GBか64GBのどっちに買い替えようか迷ってます
lora学習もするかもしれません
CPUとGPUも分からないと答えようが無い
メインメモリの話であれば32GB(16GB*2)で足りるんじゃね?
他だし今ある16GB(たぶん8GB*2だろ)とは入れ替えで
8GB*4とかは止めた方がいい
CPUはcore i7-10700
GPUはRTX2070superですけどこれも3060 12GBあたりに替えようと思ってます
メモリはその通りで8GB×2から入れ替えます
forge使って何とかSDXL動かせてるけどマージや画像生成で時々ブルースクリーンになるんで安定して動かしたいです
0からなら最低ラインで3060 12GBは探してありかもしれんが
載せ替える最低ラインは4060ti 16GBだろ
生成時にブルスクって、メモリかGPUがそろそろいっちゃってんじゃない?
あるいはドライバが合ってないか。
エラー停止するかもしれんけど、ブルスクはない。
10700 ならまだ戦えるかー
3060 12GB が約4.5万
4060Ti 16GB が約7.2万
4070S が約9.6万
4070TiS が約13万
(メインメモリは32GBで約1万)
3060でお茶を濁すもアリっちゃアリ
(予算が厳しければ最悪中古も視野)
ただ症状的にOSのクリーンインストールは必要かなー
ただなー
2070S からだと3060は生成速度はほとんど変わらないし4060Tiでも少し早くなる程度
ところが4070S以上となると一気に2倍以上速くなるから考えもの (4070S ≒ 3090)
>>429 まとめると金がないって言うだけだろ
さっさとRTX 4090をかえ
コスパがいいんだから
自分もブルスクでてたな。
赤のグラボてやってて緑に変えてもブルスク
でてたんで、クリーンインストールしたけど、
win11ならリセットというのがあって、
それでいまだとクリーンインストールっぽく
てきるですね。
ブルスクはいまのとこない。
GeForce RTX 5090が現行のRTX 4090より最大70%高速に
16枚のGDDR7を高密度に搭載
容量は32GBに向上へ
RTX 4090より$400価格上昇
大して高くならんな
仕事用のメーカーのワークステーション電源500wだから
今、3060 12GBだから、4070SあたりをPLで80%ぐらいで使うのが
変化を実感できてマシンにも無理しない感じかな
5090出回ったらNAIとかの定額サービスの生成も早くなったりするの?
自作PC板でも「生成AIで一番コスパの良いGPUは何ですか?」と聞くと4090っていう答えしか返ってこないのは事実だけどな
5090出たらマウント取られるから買い換える金用意しとけw
何目的か知らんが
クラウドソーシングで元とれるから4090がいい
必死にならなくても三ヶ月でとれる
Stable Diffusion WebUI 起動時に確定的に以下のエラーが出て
起動できなくなりました。システム復元で動作時までまきもどしてもだめでした。
------------------------------------------------------------------------
__init__.py 1 <module>
from . import augmentation, config, evaluation, external, gns, layers, models, sampling, utils
evaluation.py 6 <module>
import clip
__init__.py 1 <module>
from .clip import *
clip.py 6 <module>
from pkg_resources import packaging
ImportError:
cannot import name 'packaging' from 'pkg_resources' (c:\SD\Data\Packages\Stable Diffusion WebUI\venv\lib\site-packages\pkg_resources\__init__.py)
------------------------------------------------------------------------
以下のソフトは現状、普通に使えています。よろしくお願いします。
Stable Diffusion WebUI Forge
Fooocus
環境 i7 64G Rtx3060-12G win10最新更新
最近始めたんだけど、XでAI画像投稿してる人のモデルとかが何なのかが知りたいけど見当がつかない
なんとなくStableじゃない気がするけど、ここにURL貼って聞いてもいいかな
そういうのは大体NAIだよ
知っても真似できるかどうかはまた別問題だけどね
アニメキャラでもこれすげぇ再現度だなってのはNAIなんだよな
SDじゃ限界がある
>>445 NAIってごく一部の有名キャラしか出せないのに?
ちょっとエロいお絵描き目的に10万以上のグラボ買えないよな
その人jpgしかあげてないので、版権も上げてるけど再現とかじゃなく基本オリジナル
似た絵を上げてる人がいるので多分にじジャーニーかなんかだと思うけど、そっちは使ってないから全くわかんなくて
@sagawa gawa さがわとか、@eatsleep1111 えーあいって人
NAIも全く使ってないけど、それでもこういうのできるの?
最近Xにやたら流れてくるヤツらだな
SDも使ってるってプロフに書かれてるし一部はSDやろ
>>449 10万円以下のグラボを買えばいい
俺は4060Ti/16GBを6.9万円で買った
ちょっとやるならこの程度で十分
俺はAIイラストで金稼いでるのに3060だわ
放置でいいから速さはそこまでいらんだろ
既存PCに入れようと何も考えず買うと筐体に入らないとか電源が足りないとかあるからな
VRAM12GBの早いGPUは考えなくていいだろ
3060 12GB/ 4060ti16GB/ 4070ris/ 4090
予算に対するこの4種以外を選ぶなら相当明確な理由付けがいる
気に入った絵が作成できたら
ポーズとアングルはそのままで服だけ変えるにはどうすれば良いでしょうか?
>>437 本当だ・・・chatgptでも同じ回答してるわw
2024年時点で生成AI(特にディープラーニングや機械学習)においてコストパフォーマンスの良いGPUとして多くの専門家が推奨するのは、NVIDIA RTX 4090です。以下に理由を挙げます:
性能:RTX 4090は強力な計算能力を持ち、多数のCUDAコアと高いメモリ帯域幅を備えています。これにより、大規模なAIモデルのトレーニングや推論において優れたパフォーマンスを発揮します。
メモリ容量:24GBのGDDR6Xメモリを搭載しており、大規模なデータセットや複雑なモデルを扱う際にも十分なメモリを提供します。
価格:RTX 4090はハイエンドGPUとしては比較的手頃な価格帯に位置しており、同等の性能を持つ他のGPUと比べてコストパフォーマンスが高いと評価されています。
ソフトウェアサポート:NVIDIAのGPUはCUDAやcuDNNなどの広範なソフトウェアエコシステムを持っており、生成AIの開発において非常に便利です。
汎用性:RTX 4090は、ゲーム用途だけでなく、クリエイティブなワークフローやAI開発にも適しているため、多目的に使用できます。
もちろん、特定のニーズや予算に応じて他のGPUも検討する価値がありますが、現在の市場においてはRTX 4090がバランスの取れた選択肢として多くのユーザーに支持されています。
生成AIはトライ&エラーの繰り返しだからね
4090はGPUパワーが突き抜けてるから他とは時間効率が違いすぎる
だから次点が4080Sでその次が4070TiSになる
でも4060Tiと4070Sの比較はちょっと違う
大サイズの画像を一発生成するならVRAMが多い方が有利だけど
アップスケーリング込みだとGPUパワーも重要
4060Ti-16GBと4070Sではパワー差が有りすぎるから困るのよ
>>456 あいまにクラウドソーシングの
生成AI案件うけたら10万くらいなら
副業としてのんびりでも三ヶ月あればいける
利益出るなら高いの買ってもいいけど趣味だと飽きるわな
利益出す気本当にあるなら
4090でも3ヶ月あればペイできないことはない
手頃な値段とか言われても
風俗1回分とか言われても
具体的な数字を出してくれよ
風俗 だって1000円から3000万ぐらいまであるわけだし
大衆ソープなら1万くらいとしても、
一生ヌけるんだから4090でいい
SDXLのLoRA学習と生成を同時並行する場合、4090を一枚でwebuiを二重起動するか、4080を2台でやるかどっちか効率いいでしょうか?
x/y/zを使って
loraの効き具合を0.2, 0.4, 0.6,0.8, 1で 出したい場合
xにどう入力すれば良いの?
>>473 文字列の重複がなければ「0.2, 0.4, 0.6, 0.8, 1」とか省略してもOKです
フルネームで「lora名:0.2, lora名:0.4, lora名:0.6, lora名:0.8, lora名:1」と書いた方が間違いがない
これからStable Diffusionを始めたいと思っているんですが、今からならどのバージョンやプラットフォームの組み合わせがメジャーでしょう?
SDXLが高画質が生成できるとこまではわかったんですが、教えていただけるとありがたいです
手持ちのPCスペックはwin11pro、Ryzen 9 3900X、RAM64GB、NVIDIA GeForceRTX2080Ti(VRAM12GB)です
>>474-475 お二方サンクス、S/Rも使えるのか
search&Replaceね、なるほど
3060 12GB最近中古で出てくるようになった。
26000円で買えたけど、綺麗なのきてびびった。
>>476 2080ti持ちか・・4090PC買っちゃいなよ
まぁ普通にforgeでしょうか
「stable-diffusion-webui-forge」(github url貼れない)
インストールも超簡単
StabilityMatrixやEasySdxlWebui(あれこれ全部入りのやつ)は個人的にお勧めしない
エラーが出たときの切り分けしにくいので・・
>>476 VRAM 24GB~
PC RAM 128GB~
SD専用SSD 512GB~
保存用HDD 4TB~
あとはどうでもよい
>>481 生成するジャンル、方法で要求VRAMが違うから自分が何を生成するかで要求スペックが変わる
だから低VRAMで動くforgeが薦められる
>>479,480
回答ありがとうございます!
目的はある程度はっきりしてるけど、まずはそれに応じたSDやツールの機能を把握して、
それぞれが生成画像へどう影響するか全体像を掴みたいので、forgeというのが切り分けしやすいのは有り難いかもです
しかしやはりスペックが全体的にちょいアレなんですねえ
そういや「SD専用SSD 512GB〜」ということは、やはりNVMeとかのほうがレスポンスいいのかな
高負荷ぽいのでCドラに入れるのは避けたほうが良さそうと言うのはなんとなく察せられますが…
あ、481は自分の質問じゃないですけどauto1111ってのも上のテンプレやネット情報などによく出てたので、forgeとの違いが聞けたのは良かったです
今の自分の環境的にはforgeのほうが合ってそうですね
今後全体的な流れを掴んできて、高クオリティ画像大量に生成したいということになったら、
マシンの刷新とともにプラットホームも再考の余地ありって感じでしょうかね
パソコンのスペックについては
【StableDiffusion】AIパソコンスレ 質問・雑談2
http://2chb.net/r/pc/1698406162/ 過疎ってるようでも、書き込みがあれば人がわらわら来るから大丈夫
>>483 そのPCスペックならForgeなら当面は困らないと思うよ
ただSSDは100GBは余裕欲しいので足りなそうなら入れ替えなり差し替えは必要かと
このスレを少しさかのほれば分かると思うけど生成AIやるとコスパ最良は4090としかならないので真に受けないように
>>480 いやいや
VRAM24GBのRadeon買わせちゃいかんでしょ
>>485,
ありがとうございます
まぁ理想だけは果てしないので、ゆくゆくは自分で自分の絵柄専用のLoRAなり構築して活用できたらとか考えてますけど、
その時はその時として、まずは当面、練習や趣味の範囲なら今の環境で行けそうってことなら助かりますね…
確かPC買った時にDドラにするつもりで買ってた1TBのM.2が一本、付け忘れたままどっかに放置されてた気が…まだ動くかなぁアレ
>>486 3DCGやってたので、グラボは一応安全のためにGeForce一択ってことにしてます。
ただ今ポンと4090に30万はちょいキツイですねぇ…
>>487 2080Ti-12GB ならLoRA生成もほとんどの場合は問題ないよ
というか生成AIを機にGPUを買い換えた人も予算的に大半は 3060-12GB なのでGPUパワー的にも2080Tiの方が上
>>488 ありがとです!それは心強いレスで助かりますね☺
今4090買うくらいなら5090待つわ
あと半年くらいだろ
秋まで待てばモンスタースペックらしい5090が出るけど30万どころの騒ぎじゃないしなぁw
それより60と70を標準16GBにしてくれればいいのだが…
16GB以上の4000シリーズは低価格帯の選択肢として4060ti16GBのみ
高中価格帯4070tisuperで後は全部高いみたいな感じを受ける
4070が16GBならなぁ…と何度思ったことか
ROCm使えばRadeonでも普通に生成できるから、Windowsにこだわらなければ有りだろ
入門なら8ギガ積んでれば普通に動くよ
量産には向かないが
ぶったぎって申し訳ないんですが
レトロアニメの色トレス乳首とか黒いドットだけの乳首とか
出力したいんですがどなたか方法ご存じないですか?
ドラゴンボールとかポケモンとかその他2000年代アニメ物のローラも試したんですが
どのモデルでも普通の乳首出ちゃうんですよね。ジットQとかデフォルメ系のモデルでもだめだったので。
インペイントでこの部分だけcolored skin , pink skinだ!って塗りつぶそうとしても
乳首があるべき場所には乳首が出てきてしまって
内容的にこっちがいいような
【StableDiffusion】AIエロ画像情報交換41
何故かリンク貼れん
でもまぁこだわりあるみたいなんで回答は得られないと思う
結局自分でlora作れってことになる
ちょっと話ズレちゃうかもだけど、
自作LoRAって例えば自分の描きたいキャラのいろんな角度や身体のパーツの線画を描くとか線画の設定資料を読み込んで作ったとして、
その線画LORAをアニメ調の基礎モデルに掛け合わせる事で、好みの線画で塗りまで完成した生成画像ができますかね?
あとすいません、アニメ調から2.5次元ぐらいの基礎モデルで今アツい人気のあるオススメがあれば知りたいです
まず再現ってんのは素材の精度と学習量で同じものは出る
描写できないものをCheck Pointで補うから妙に小綺麗にカバーされてるのは
学習が足りてないというだけだ。そしてCheck Pointにないものは濃い学習はできない
StabilityMatrixはComfyUIだけ入れて付属のInference使うと軽くて良いよ
checkpointにTurboとかLightning版使うとi7 7700 16GB GTX1050でも
動いてビックリした
>>500 たまに質問であるけど、線画がレイヤーのごとくカッチリそのままで色だけ塗られるみたいなのは
厳密には無理、ほぼほぼなら普通にできる、特に1.5のNAI派生モデルが得意とするところ
白黒原作漫画がそのままアニメ絵(アニメのキャラデザではない)や2.5D絵になったりする
1年前の古いloraだけど、原作絵学習させてる(チェンソーマン2部はまだアニメ化してない)
https://civitai.com/models/18425/chainsaw-man-mitaka-asa 作例が面白い
>>504 なるほど、原作絵を学習させて出力がそれって言うことは、確かに「かっちり線画を再現してる」ってわけじゃないみたいですね。
「LoRAの線画を参照しつつ、ベースモデルの絵柄で再解釈して描き直す」ようなイメージでしょうかね
そしておそらく参照度合いの重みぐらいは数値入力で変えられる、と。
作例の最初二枚がモノクロなのはLoRAの重みが強くしてるとかかな
しかし、LLMの方にもLoRA次作について質問を投げていたんですが、CGアニメモデリングのモーフセットの作成に似てるところあるみたいですね
深い深い沼が待っている気配がする…
>>497 もはや自分で上から塗ってしまったほうが早いかもしれないw
AIが普及することで人間に求められるのは専用LoRAのように一芸特化の技術になってくるのかもしれない
乳首絵師応援しています
AI生成を鍛錬するにつれレタッチソフトの技術も上がったわ
1日30枚修正して数ヶ月、目とか乳なんて完全に綺麗で魅力的な絵に修正できるようになった
既に生成してある画像のメタデータを一括で削除できる方法って何かありませんか?
SNS等にアップロードする際に今は1枚1枚画像編集ソフトで編集やってて中々手間がかかってしまうのですが
>>510 Photoshopで自動アクション組めば全自動だよ
誘導すみません
こっちは画像生成AI本体の技術のスレだったようで
プロンプトの質問や共有などは情報交換スレですね
SD1.5なら乳首消しローラの強度を弱めて使うと乳頭無し乳輪になるんですけど
XLとかponyだとどうもうまくいかなくて。
目をできるだけ同じようにするプロンプトってどうしたら良い?
プロンプトで形を指定するのももちろんだけど、ネガティブの方でなって欲しくない形を入れて行けば大体同じようになると思うよ。
>>518 目の形状は気にならないけど、どちらかと言えば虹彩が揃った方がいいかなと
>>519 虹彩も同じ要領で指定できるよ。
虹彩というか目の中に関するプロンプトを集めて試すのじゃ。
まぁ特殊なもんだったらLORA作った方がいいかもね
>>520 おけ、虹彩に関する色々やってみてダメだったら相談するわ
色々増やすと75トークン以内に収まらないけど
SDXLの1024ならあまり気にせず超えてもいいの?
WebUIの拡張機能更新して再起動したらインペイントでAdetailer使うとマスク範囲外まで修正されるようになっちゃったんだけど元に戻す方法ないでしょうか……v1.9.3でADtailerはv24.5です
うつ伏せで膝から下をぷらぷらしてるようなのってどういう呪文が適切でしょうか?
raise one legとかone leg upだと反応しなかったり骨折してることが多くて
>>521 ネガティブプロンプトもBREAK使えばいくらでも書けるよ
noteで詳しく触れてるのがあるんだけど、文章も画像もきつすぎて読む気にならん・・
要らん事ばかり水増してるわりに日本語が下手すぎて全く内容が頭に入ってこない
ああいうのもほんと才能だな
BREAKをほぼ改行記号として大量に使ってるけどあんまり悪影響ない気はしてる
大文字というのは知ってるけど、小文字のbreakでも意外と効いている感じがするんだよな、トークンも1つしか増えないし
AnimagineでやってるんですがAIが光の当たり方を判断しているのか
from belowの様な角度だと顔がいつも陰で暗くなってしまいます
影なしで明るく描写出来る方法ってありますか?
小文字のは普通に英文としてのbreakになると思うよ。
ANDとandも同じ動作だと思われ。
github.com/AUTOMATIC1111/stable-diffusion-webui/blob/master/modules/prompt_parser.py
↑
このコードを調べると、大文字と小文字の判定はちゃんとやってると思われる
素人で申し訳ないのですがforge版では1.5用、XL用とされているmodelは正常に動作しないんでしょうか?
>>526 1年前見たワイ「noteの記事すげぇ」
いまのワイ「嘘ばっかり書いてるやないか」
forgeのone click packageを使用して導入しているのですが、
機能拡張機能のアップデートを行ってからjax,jaxlibのバージョン不一致が発生して起動出来なくなりました。
バージョンアップを行いたいのですが、venvファイルがどこにあるか分かりません
無印版A1111使ってた時はホームディレクトリにあったと思うのですが、venvはどこに作成されていますでしょうか
ADetailerに要する時間が画像本体を生成する時間と同等なんですがこんなもんなんでしょうか?
faceのみなんですが
設定を変更すれば時間短縮できるとかないですかね
ADに使ってる使用モデルや
自分の余力メモリにもよる
>>541 venvはpythonの仮想環境だからforgeは多分wevuiとは別にあるsystemてフォルダにあるpythonフォルダかと
>>541 forgeで全く同じことになったけど、
>>354読んでeverythingでjax探したら、
D:\webui_forge_cu121_torch21\system\python\Lib\site-packages
にjaxとjaxlibがあったので、真似してとりあえずjaxフォルダだけ消してforge起動してみたら
なにやらDLしだして一発で動いた
で、jaxはそこからは消えちゃって
C:\Users\***\AppData\Local\Programs\Python\Python310\Lib\site-packages
の中のが新しく更新されたみたい?jaxlibもかな?
ここら挙動が全く分からんけど、動いたからなんかヨシw
>>544 >>545 system/pythonが代わりしてるんですね…
ありがとうございます、解決しました!
SDで連続生成開始してしばらくすると
有線ネットワークが繋がってませんと出るようになったが
流石におまかんか
Pv再起動したら治るんだけど
forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけどならないようにする方法ないですかね
Forge+XLなんだけど
black eyesがADetailer通すと色指定が無効になって色々な色が出るんだけど何か良い方法無い?
Adetailerのプロンプトにblack eyesを入れると目が少し崩れて誰?みたいになるし、Adetailerは使わないとそれなりになるし悩む
>>547 聞いたこともない症状
ネットワーク切れてからPC再起動しなかったらそのままずっと切れたままなの?
その状態で他のPC用途は普通に使えるの?
少な目メモリ+forgeあたりのメモリリークがガッチャンしてPC不安定になってるとか?
断線しかけのLANケーブル踏んでない?
>>548 変な拡張入れてない?
その手の質問の9割はKohakuBlueleafってやつのいい加減消せって糞拡張
lycoris使おうとした人が1年以上前の解説サイト見て入れて対応済みのデフォとバッティングしてぶっ壊れる
ちょうどワッチョイスレの質問者(491)がまんまこれ
>>549 なったことないなぁ
adetailer側に黒目だけいれたらそれだけで部分生成しようとするのでそりゃそうなる
基本何も入れないか、ネガ含めて全部入れてちょっとだけ変えるのが筋
>>550 sd_forge_kohya_hrfix
なら内蔵で入ってるけどそれと同じ名前のものはないです…
ローカル版です
いろいろ調べてインストールが終わり、1度目は起動成功したのですが、2回目から起動しようとしてwebui-usea.batを叩くと以下のエラーが出て起動できなくなりました。
対策等知ってる方いたら教えていただきたい
AttributeError: 'NoneType' object has no attribute '_id'
>>551 試しに拡張を一時的に停止して動かしたらどうだろう?
extensionsのDisable all extensionsをallにすると全部停止する
これで連続生成で同じようになるなら、拡張のどれかが悪さをしてるという切り分け
>>552 できればエラーの前後も貼ってください
そこで「続行するには何かキーを押してください」で終わっちゃうの?
あと、2回目の前にsetting内の設定とかあれこれ触った?
参考サイトとか見てると結構一気に設定変えてどれかわからない場合があるので・・
>>553 おっしゃるとおりこのあとは何かキーを押してくださいで終わりです
設定は変えてないけど、強いて言うなら画像を食わせようとしてた→そういえばコマンドプロンプト開きっぱなしだなー閉じていいのかなー→☓押したら落ちちゃったー
からの2回目起動失敗ですね
画像貼れないのですが
いめーじゃー
の
X0jZO5G
です
>>553 とりあえずはやってみますが…
AnimateDiffを有効にして生成しても前の1枚絵から変わらないですがそこから何か分かったりします?生成時間はしっかりとAnimateDiffの時間取られてます
>>554 https://github.com/Mikubill/sd-webui-controlnet/issues/2136 ・ui-config.jsonとconfig.jsonを一旦消して起動してみる
・全く別のフォルダに新規にもう一度入れなおす
くらいかな、controlnetとかsettingsのタブあたりは触ってないだろうし
>>555 animatediffの話か・・触ったことないのでわからないw
そこらさすがにちゃんと書かないと
> forgeだけど同じく連続生成してると途中から画像が変わらなくなって焼き付くみたいになるんだけど
普通のt2iのバッチ生成の話かと
>>550 基本的にAdetailerには何も入れないんだけど
ポジプロンプトの目の色がadetailerで消えるのは、他のモデルでは発生しないかもしれないので、
そこ検証してみます。
x/y/zを使うと思うけど
例えばなら、smilingプロンプトがあると無いを出したい場合どうしたら良い?
置き換えならS/Rなんだろうけど、有る無しってやり方わからんです
>>547 自分は学習の最中に何度か発生したけど原因不明だわ
Windows11のせいにしてるけど
>>559 なるほど、指定して無指定なのですね
ありがとうやってみます
>>547 今のマザボNICの制御はメインCPU使ってるからじゃね
>>563 いい学習素材を用意できればLoRAを作れると思いますよ
>>563 civitaiに丁度良いのがあるからsaitoで検索してみな
ワイの時代は同級生のアイコラなんて作れたら神だから今の子はオナ猿神と化すやろ
>>567 好きな子のツイやインスタ漁って数十枚用意すれば脱がし放題、仮想でやりたい放題やぞ
最近のチー牛キッズは凄いな、犯罪一直線やん
>>568 SNSで集めるんだろうな
こんな場所でキモいこと言ってる学生が直接撮影なんて無理無理w
謎のマウントおじさん
何に対してマウント取ってるのかすらよく分からん
>>547 だが
ルーターの場所を変えてLANケーブルがPC裏の排熱をあまり被らないようにしたら治った
治ったが
それなら連続生成終了したら冷えるだろと思ったので釈然としない
笑った
ケーブルじゃなくLANボードの口が熱の跳ね返りで高温になってデバイス自体がハングするとかだろうか
ハングなので冷えても再起動しないと戻らない
Q このイラストのモデルわかりますか?
A わかりません、本人が本当のことを教えてくれるか画像にメタデータが残っている場合だけわかります
これテンプレに置きたいレベル
>>577 すみません、本人に聞いても教えて貰えなかったので…自分で試行錯誤します
スレ汚し失礼しました
上手い人は基本隠すと思っていい、見せた時点で誰でも作れちゃうようになるので努力が水泡
下手はほいほいバラす
>>578 キャラものかどうか知らないけど
まぁそんなに大したものでは無いと思うよ
本当に想像もつかないようなプロンプトで作る人もいるし
たまにキャラ名だけ入れると似たような顔で似たような色合いの画像出てくることあるから
それに耳だとか尻尾生やすと結構再現できる場合もあるよね。
モデルに入ってる場合は名前だけで固有の特徴やアクセサリーも完備した
キャラそのものが出てくるけど
Animagineぽいけれどね
VTuberキャラは中身がいる以上、変な画像やLoRAは公開しづらい
プロンプトのキャラ名指定で出せるモデルを使ったと考えるのが妥当
本人にしか見えない顔が(Adetailer使用ではあるが)安定して出力される有名人Lora作りの名人みたいなのがcivitaiに居るけど
何が違うんだろうなぁ
俺の自作有名人Loraは何度も生成してやっと1枚似てるかな?ぐらいなのが出るようなのしか作れない
名人にどっかで講座みたいなの開いてほしい
似通った構図5枚くらいでadamw使って過学習
汎用性はなくなるけどね
汎用性があって似ているLoRAは凄いよな
学習画像が厳選されているのか枚数勝負なのか…
前使ってたグラボは排熱がイマイチだったんで水冷化したんだけど最近のはちゃんと冷えるしね
ケースの排熱に難があるなら効果はあるかも
何万円もするスピーカーケーブルと鉄ハンガーで
音に違いがわからなかったとかあるもんな
やっぱり高圧受電でH100だと繊細さと力強さを兼ね備えたいい絵が出てくる
やっぱ家の前に電柱とバケツ(柱上変圧器)用意して
ダイレクトに引き込むと良い絵が出るんやろうなぁ
もちろんコンセントやタップはホスピタルグレードなのは鉄板
でもPCの消費電力が増えると200Vは必要になるかもね
>>576 3枚目pony系な気がする
T-ponynai3 v4.1〜v5
ベースモデル探求してるけど
ebaraのエロに対する応答性能に誰も勝てない
SDXLでturbo loraとかlightning loraとかの低ステップ系loraを使うと1girlにしても大量の人間が生成されるんだけど
私以外にもこういう症状の人いますか?
こういうもの?
そういうものではないからプロンプトの問題じゃないかな
だからなんでサンプルを出さないんだよおかしなプロンプトがあるとか
解像度がやたらでかいとか見れば一発な原因かもしれないだろ
ちょっと触ってみたいんだけどryzen 7 8845Hsじゃやっぱり無理かねぇ。VRAMの最低値をクリア出来てない希ガス
画像もあげずに質問してすまんかった
でも自己解決したありがとう
pony系のクオリティータグ(score_9とか)に含まれてる数字が人間の数として認識されてるみたいだ
CFGスケール下げないといけない弊害っぽい
>>612 ちょっと触るくらいならfastsdcpuっていうのがあるけど
>>615 調べてみたけど、高速化するツールってことか?
ちなVRAM4Gだった
pony系のスコアって説明にあるアンダーバーの_要らないよね
…要らないよね?
>>617 VRAM未使用で動かせたはず
CPUだけでOpenVINO+TAESDで数秒で生成できた時はびっくりしたが品質はあまり良くない
さすがにもう3060 12GBを買取りに出して新しいのを買ったほうが良い?
最近のGPU事情がよく分からん
>>612 >>617 ちょっと調べたら内臓GPUやんか
VRAMの最低値というか4GBはメインメモリ共有の予約メモリでここでいうVRAMではない
メインメモリがDDR5-5600Hzだからそこそこ処理が速いみたいだけどVRAMと比較にはならんです
ちなみにちちぷいってとこで一日に何回か無料で生成できるからAI画像生成がどういうものかのお試し程度ならそこでいいと思う
環境構築って意味ならpipでインストールくらいやって一日放置して生成するのもいいかも
>>617 ありがとう。今色々読んで勉強してる。お手数お掛けしました。
>>622 わしは論外だったのか(´・ω・`)
わざわざ調べてくれてありがとう。ネットで調べたvramの確認の仕方で見たんだけど勘違いしたんだな(システムとかで確認するやつ)
言われてみれば基礎スペックに予約メモリって記載があった気がする。そこに疑問を持つべきだった…。下手すればパソコン壊すところだったよ本当にありがとう。ちちぷい試してる
出来れば追加で聞きたいんだけど
>>615の方法はやっても大丈夫そ?パソコン壊れない?
スペック不足でエラー出て動ないはあっても
PC壊れるは流石に無いやろ
やってみなはれ
>>618 「説明」だからやっぱいるんじゃね?外してる人みたことない
score_9,
ponyでキャラ学習しても上手いことキャラが学習されないんやけど設定どんな感じがええんやろか?
VRAM勘違い野郎です。
皆さんありがとうございました。そろそろ場違いなので離れます。次は挑戦できるスペックのパソコンを手に入れたら質問に来ます、お世話になりましたノシ
>>628 質問が曖昧過ぎる、lora自作はどのくらいやってきたの?
初めて?or XLでは初めて?
>>618 本家ponyで気づかずに_なしで何枚か生成してたことあって
有りと比較すると効果半減て感じだた
アラフォー爺なのに毎日しこっちまうSDの破壊力ぇ…
>>630 1.5では出来てたけどponyだと全く再現出来ない感じ
>>632 ponyとはいってもstart this oneはピーキーなんでやめた方がいい
有名なebara、chacoleあたりがいいかと、score_とかsource_furryとかは理解してる?
あとは、optimizerとかの設定になるけど、1.5とXLでは細かいチェックとかが全然違うので
civitaiにそのまま貼られてるの利用してみる、prodigyって爆速の自動系ならこれが有名
https://civitai.com/models/351583/sdxl-pony-fast-training-guide show moreにある、
kohya_ss preset(zunko_pony_prodigy_v1.json)をDLしてそのままkohya_ssに読み込んで使ってみる
あとは自分に合わせてカスタマイズ
非ponyのanimagineも使って原因切り分けてみるのもいいかも
お金がないなら RTX 4090
お金があるなら H100
>>627>>631
うーむ、マージモデルによっては_がメタデータに入れられてないように見えなくも無いし無くても普通にいいの出る気がするんだけどまあ入れた方がいいか
ebaraはebaraでなんかクセがあるので
eponaMIXをRefier0.8で入れて
さらに
全身ADerailerかけてクリンナップしてるな
本日ADetailerを導入したのですが、
今まで問題なく生成できていたキャラの顔がADetailerをオフにしても妙に崩れた感じになってしまいました。
PNGinfoからtxt2imgで適応しても同じ顔にならなくなってしまいました。
エクステンションからADetailerを無効にしても直りません。
チェックポイントを変更しても顔だけ直りません。
色々試したのですが、原因が分からず困っています。
>>636 マージモデルならscoreの影響減って当然
途中で送ってしまいました。
環境はSD WEBUI Forge
バージョンは f0.0.17v1.8.0rc-latest-276-g29be1da7となってます。
ローカル環境でRTX3080、RAM32G、RYZAN5800X
顔だけ変になってしまったのですが、
具体的には以前より顔だけ明らかに掠れている。
顔以外はADetailerを導入する前と変わらない。
色々試したのですが、
キャラを片目だけ閉じさせると問題ないですが、両眼を開けると顔が掠れてしまうようです。
>>640 (forgeフォルダ)\webui\extensionsのAdetailerフォルダを削除して起動してどうなるか
これでも掠れるというのなら勘違いで、別に原因がある可能性が高い
(お化けじゃないんだから存在しない物が動くわけがない)
>>612 8600Gで、xlはしんどいけど1.5なら遅いけどいけたからいけそう。
forge開発終わりだって
ここから先は完全な実験になるから間違ってもアプデするなよ
>>641 ありがとうございます。
上記フォルダを削除して見ましたが状況は変わりませんでした。
掠れてるのは勘違いではないです。(左:掠れ・右:掠れる前)
catboxに上げておきました。
掠れた状態
正常な状態
>>644 PNG見ると
Face restoration?を設定してるみたい
ライセンスRun on services that generate images for moneyがいまいちよくわからない
意味調べてもサイトによって解釈ちがったり深く解説してないから困る
どうしても自力で再現できない構図のLoRAがこれ系しかなくて悩んでるんだけどSDをローカルでやる分には気にしなくていいやつ?
>>646 Google翻訳「お金を払って画像を生成するサービスを実行する」
ぐぐって上位5個の説明を見た限りでは、
1) 有料画像生成サービスに使用できるか
2) 生成した画像を有料サービスに使用できるか
※有料は広告による収入を含む。
に分かれていそうだけど、2)なら「generated images」になりそうだし、
1)じゃないかね? それであればローカル生成なら問題ないかと。
※法律の専門家でない者の意見です。
>>645 ありがとうございます。
settingのFace restorationのチェックを外したら正常に顔が生成されました。
まだ数枚しか試してないですが解決した感じです。
何回か試してみて様子を見ておきます。
皆さんありがとうございました。
さっそく意見が分かれてるなあ
>>649 それならSell image they generateがあるから尚更なんのこっちゃかわからなくなるんだよね
>>650 そっちは生成した画像を売ることがNG
Run on services that generate images for moneyは該当ファイル使っての商用利用がNG
生成云々に関わらず該当ファイル使った商材利用等で金銭を得る行為がNG
>>652 ややこしいな〜残念だけど使わない方がいいってことね
ありがとう
>>654 現状は個人的な利用だけど将来的には商用も視野に入れてるからなるべく商用不可なものは取り入れないよう厳選してる
最初からマネタイズ目的って書けば早く結論えられると思うよ
Run on services that generate images for money
画像を生成するサービス上で利用して収益を得ること
だからpixaiとかmageみたいな、有料プランがある画像生成サービスで利用していいかの話であって、
個人での利用は「Sell image they generate」とか別の話だと思うんだけどどうなの?
NovelAIのWEBサイトが3周年更新から異常に重くなった気がするのは俺だけ?
不具合情報とか見ても特段言及されていないのだが…
別にここでもいいかと
> Stable Diffusionをはじめとする
NAI使ってないけど、3周年のなんか+日曜でみんなが覗いて鯖が耐えられなくなってる感じかな
こういう時はX検索するとだいたいわかる
https://search.yahoo.co.jp/realtime/search?p=NovelAI >>660 解決しました
旧twitterで公式が紙フブキオフを案内してました
RTX4070 12GBでWEBUIで13GBのSDXLモデルを使ってみたんですが
別の6GBモデル使用中からの該当の13GBモデル読み込みは正常に可能、生成も普通にできるのですが
一旦終了して再起動すると、WEBUIブラウザ立ち上がりからのモデル読み込みに26GB要求されてメモリエラーが起こるんですが
起動時に読み込まれるってモデルは容量が2倍要求されるものなんですか?
settingsのstable diffusionの
> Maximum number of checkpoints loaded at the same time 1
> Only keep one model on device
> (will keep models other than the currently used one in RAM rather than VRAM)
> Checkpoints to cache in RAM (obsolete; set to 0 and use the two settings above instead) 0
あたりを変な設定にしてない?
レスありです
モデルをいくつGPUに保持するかって設定ですよね
Maximum number of checkpoints loaded at the same timeは1
Only keep one model on deviceは〆済み
にしてあるので1つしか読み込まないはずなんですよね
終了するとき別の6GBモデルに切り替えておけば平気なんですけど
今までこんなこと無かったんだけどなー我慢するしかないか
>>664 13GBってあんま見たことないけど、SDXL Turboの大きい奴?
https://huggingface.co/stabilityai/sdxl-turbo/tree/main (そうなら小さい方でよくね?)
エラーメッセージも(少し前まで含めて)貼ってもらえるとなんかわかるかも
ADetailerを使ってる時に、2ndタブにhand_yolov8nを設定すると稀に手ではなく胸をhandと検出してしまうことがあるのですが、
なにか解決策をご存じの方おりませんか?
>>665 ちょっとごちゃっとしてしまいますが
File "C:\stable-diffusion-webui\venv\Lib\site-packages\torch\nn\modules\module.py", line 1527, in _call_impl
return forward_call(*args, **kwargs)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\stable-diffusion-webui\extensions-builtin\Lora\networks.py", line 503, in network_Linear_forward
return originals.Linear_forward(self, input)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
File "C:\stable-diffusion-webui\venv\Lib\site-packages\torch\nn\modules\linear.py", line 114, in forward
return F.linear(input, self.weight, self.bias)
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
RuntimeError: CUDA error: CUBLAS_STATUS_ALLOC_FAILED when calling `cublasCreate(handle)`
と出てきたあとに、最終的に
torch.cuda.OutOfMemoryError: CUDA out of memory.
Tried to allocate 26.00 MiB. GPU 0 has a total capacty of 11.99 GiB of which 0 bytes is free.
Of the allocated memory 10.84 GiB is allocated by PyTorch, and 365.11 MiB is reserved by PyTorch but unallocated.
If reserved but unallocated memory is large try setting max_split_size_mb to avoid fragmentation.
というのがcmdに出てきてブラウザは立ち上がりはするものの、生成等が機能しなくなってる、って感じですね。
使ってるモデルは、Civitaiで拾った、Combina8XL 12.75GBの新しいやつで、COmbinaXL10 12.92GBです。
copilotに丸投げして聞いてみたんですが、メモリ不足で割り当てに失敗してる的な事しかわからなくて。
まあどうしてもこのモデルじゃなきゃ出来ない!って訳でもないので我慢します。
終了前に別モデルに切り替えておけば正常に起動できるので。
>>666 Detectionのthresholdを上げて出し直せばいいと思う
マジか
そしたらうちのチンコを手と誤認識するのも治るかな
ADetailerについて質問があります
ベースのcheckpointをmajicmix、顔のみrealisticなど異なるmodelを使用するといちいちロードし直すため生成時間が伸びるんですが何かいい方法はないでしょうか?
>>620 3060 12GBだったけど、そのレス見てポチった4070に今交換したわ
めちゃ早くなったわ、forge+SDXL 毎回35秒ぐらいかかってたものが15秒ぐらい
2.5倍ぐらい高速化した感じ、ありがとサンクスやで
3060 12GB はとにかく安価にSD環境を構築したいユーザー向けだから
ある程度の予算を捻出できるのであれば
最初から 4070(S) できれば 4070TiS が望ましい
低予算4060ti16gb、中予算4070(S)、高寄り4070Tis、超ハイエンド4090、モンスター(噂)5090
4070Tis(128,000)
4080S(164,000)
差額36,000円
4080S(164,000)
4090(280,000)
差額116,000円
この差額を見ると4090の差額はキツイなーって見えるんだけど
ちゃんと差額分の性能上がってる感じなのかな?
>>673 671やが、本当は4070 SUPERが欲しかったんやが
メーカー製のPCで500W電源なので1系統8ピンしかなかったのよ
なので4070しか選択肢が無かったのよね
新しいCopilot +PCというNPUのパソコンは、既存GPUのどの程度の性能なんだろうな?
NPUはAI専用らしいけど、それならAI画像生成はでいるんだろうか?
>>675 残念な子だった4080と違って4080 SUPERはまともだけど、
ガンガン使うのであれば4090の代わりにはならない。
そもそもケースに入らないので値段と考慮すると自然に絞れる
>>679 そして兼用でなくsd専用でケースも新しくしたほうがいいのか?と悩み始める
>>681 排熱でエアコンが効かなくなるからもうワンランク上のエアコンが欲しくなるかも
4090を25.5万で売ったわ
売った秋葉の店でも夏には5090発売日決まるだろうからそれ以降落ちるかもしれんって
5090が39万前後って言われてるから差額十数万なら欲しいし
ゲーム目的で高いグラボ買った人がついでに生成AIも触ってみるか!からのどハマりしてる人そこそこいるだろうけどグラボ選ぶ基準がもう生成AIよりになっちゃうよな
高くはない方だけどまさしく生成AI触ってなかったら4070で良かったと思う
触ってたから60ti16GBの方選んでしまったが後悔はしてない
>>675 以前調べたときは4090未満は価格と性能が比例してる感じだけど4090だけはプレミアが乗ってる感じだった
今の身の丈に合うものを買えばいい
nvidiaは金持ち相手にぶんどる商売だから割高なのは知ってるはず
一般人が背伸びして手に入れるものじゃない
夏になったらエアコンの電気代も購入後のコストアップになることを忘れてはならない
ハイスペックPCはエアコンをガンガンを効かせておかないとすぐに80度を超える
そして毎月の電気代8000円前後アップを払い続ける収入があるのかもポイントの一つ
年間で96,000円は毎年ミドルクラスのグラボを買い換えるのに等しい
もちろんパワーセーブして使うことも可能だがF1マシンを買って制限速度60キロの道路を走り続けるのは賢い選択なのか?
答えは国産カーで十分である
そういう人はスポーツカーを買って自分は古アパートに住んで雨ざらしの駐車場でマシンを痛める人だ
タバコのヤニまみれ
掃除しないホコリまみれ
家の電気ブレーカーが低アンペア契約で瞬停を繰り返し精密機器の寿命が縮む
よく聞く話だ
プロンプトオールインワンを使っていて、お気に入りリストの単語を消すにはどうしたらいい?
>>674 H100と比べたら5090も安物に感じるだろうな
Hires2 1024×1536 5t
RTX-4090
27.9s
RTX-5090
8.4s
これは買うしかないわ
4090は23万の時があったんだよね・・中国需要で変なことに
価格comの一番安い奴だけど
7月〜10月のわりと長い期間、24万で買えた
というかこの頃はこの価格が続くんだろうってみんな思ってたという
3倍以上はやくなるんか
こりゃ争奪戦で血の雨が降るぞ
RTX 5090が RTX 4090の2倍のスピードだったとしても
2倍の値段だったら安い
既出の質問だったらすまない
Forgeの件でA1111に戻ってみたんだが
省メモリ化はうまくいったんだけどTiled VAEの最後の「Executing Decoder Task Queue」という処理でメモリが11GBまで膨れ上がって激重なんだけど、これは回避しようがないですか
forgeの方もメモリ見てると同じような処理してて画像が出る時にメモリ使用量上がるけど実際のところ何が違うんだろうね
>>697 23万で買えた時ここに書いた事があるな
>>701 --no-half-vae付けてたりしない?
>>705 女はどんなに頭良くても美人でも
おっぱいデカいだけで
ただの巨乳扱いになる
うちの学校にも居たわ
頭良くて部活スポーツもやってるのに巨乳症わずらってた女
京大医学部に進学して医者になったみたいだけど
検索しても無かったw
良かった
c.txt chromeのクレカ情報やログインパスワード
f.txt firefoxのクレカ情報やログインパスワード
それc.txtはいっぱいあるので一瞬ビビる
あらゆるやつの\gradio\test_data\flagged_no_log内に、abcが3つある
ブラウザにクレジットカード情報保管するもんじゃないな
>>704 ついてます でも外すと黒い生成画像が出てきちゃうやつでしたよね
どっちを選ぶかって感じでしょうか
kohya_ssの学習 モデルはpony系
画像枚数20枚
Train batch size 3
Epoch 30
繰り返し回数10
これで中々キャラの学習上手くいかないんだけどキャラ学習する場合STEP数どれくらい目安にしたらいいかな?
Learning Rateも色々試してるけどどれくらいが最適か分からん
>>716 学習素材とかOptimizerとかその他諸々で変わるので試行錯誤して自分なりの設定煮詰めるしかないと思うけど
自分は細かい設定するのが面倒なのでMax train stepsで1000~2000位でやってるかな
PONY系はCaptionの付け方で結構変わるイメージなので
色々試してみるしかないと思うけど
因みにその設定で学習どれ位時間かかってるの?上の設定では30分~1時間位で終わる感じにしてるけど
>>717 OptimizerはAdamW
学習自体は30分くらいで終わってる
>>718 時間的にはそんなもんで済んでるなら環境なら数こなすしか
上手くいかないってのがどのレベルかにも依るしな
元絵に忠実な絵が出なきゃ失敗レベルだとかなり詰めなきゃいけないだろうし
ぱっと見そのキャラに見えるレベルならそれ位の学習でも問題ないとは思うけど
出来をどこまで追及するかも人それぞれだしね・・
1.5の頃、全く似てないのを山ほどcivitaiに上げてランキングあげてドヤ顔してる外人とかいたし
自分はAdamWでSTEP数は1.5の頃の4倍目安にやってる
XLでこれだとグラボによっては時間がとんでもないことになると思う
なおprodigyは合わないのでやめた
学習画像によって破綻することが多々あって、それを試行錯誤する時間がむしろ無駄すぎるので
>>715 Decoder Tile Sizeを64か48あたりまで下げてみたら?
stable diffusionを最新版に更新したらi2iで通知音(notification.mp3)が鳴らなくなっちゃったんですが……解決法ってありますか?(t2iは鳴る)
ForgeはA1111より画像生成が早くて使いやすいけど、逆にA1111が優れてる点はありますか?
Forgeが開発終了したらしいですが、正直生成早いからこれからもForgeを使いたいけど・・・・
少なくともForgeは今日公開されるSD3に対応しないよね
>>723 サポートの切れたOSみたいなものだから
問題がおきないうちは使いつづけていいと思うよ
forge はこれからゴリゴリ機能追加入れるからプラグインも壊れるし、ライトユーザーは出てってくれということかと。
4080も結構電力使うね。750W電源で粘ってたけど画像生成回すと落ちるんよね。10年前のANTECの電源やが1000Wぐらい積んだ方がええんかね。
>>728 俺550Wに4080S載せる愚行やっとるけど落ちたりしたことないぞ
まぁ80%に抑えて使ってるけど
>>725 誰も使ってみたと言わないのがさみしいよね
ぼくも使ってないけど
>>730 SD3のことならまだモデルが公開されていないから…
>>716 Train batch size 3→1
ちゃんと1枚1枚丁寧に学習しろ
Automatic1111はまだ未対応か
なんか複数ファイル必要っぽいな
全然追いついて行けず1.5のまま
3 は互換性どうなってるの?
アニメ調は1.5がいいと聞くけど3はどうなんだろ?
ここは本スレではないので本スレのほうでお願いします。
現にこっちは過疎ってるでしょ。
本スレでどうぞ
http://2chb.net/r/cg/1711170980/ ここはルールに反して勝手に立てられたスレの末裔です
経緯は
>>282 限定的でも良いから後方互換性はほしいよね……
バッサリ切り捨てていかないと新しいことはできないのかもしれないけど
WEBUI1.9.4でADetailer24.5.1の状態で使っているのですが
img2img inpaintで人物の顔の一部を修正をしようとすると
以前まではマスク範囲内、例えば目だけなら目だけを描きなおしてくれていたものが
何故か今では、顔の検出された範囲全体を描きかえるようになってしまって
突然顎の下からペニスが生えたり眼球の隅にペニスが生えたりして困っています。
瞳が割れてしまっている場合などに瞳だけ塗りつぶせば修正できていたのでとても不便です。
自分で何か変な事をしたかもしれないという可能性に関しては
先月拡張機能更新を行った結果、jaxとjaxlibのバージョンに互換性がない
という内容のエラーが出て起動しなくなっため、そのバージョン合わせを
pipコマンドで実行、protobuf 3.20.3とprotobuf 4.25.3のバージョンに互換性が無いと言われ
バージョンを合わせたり戻したりしたくらいです。
そのせいか、起動時にcmdに
Installing collected packages: protobuf
Attempting uninstall: protobuf
Found existing installation: protobuf 3.20.3
Uninstalling protobuf-3.20.3:
Successfully uninstalled protobuf-3.20.3
Successfully installed protobuf-4.25.3
などと長々と出てくる状態になっています。
大変不便なんですが、設定でどうにか以前のような仕様に戻せないでしょうか
inpaintでマスクした範囲内だけを再描画できるようにしたいです。
使用モデルはポニーマージのリアル系のXL、
ADetailerの修正モデルはface_yolov8n.ptまたはface_yolov8s.ptを選択しています。
Eyes.ptは非常に精度が悪く、眼球に人物やペニスが生えるので使っていません。
paperspaceを使ってる人に聞きたいんですが、左ペインのFilesでファイルを削除しても
ストレージ使用量が全然減らないんですがなぜなんでしょうか
客引きすると何かいいことあんの?
お金もらえるの?
このスレ
2024/06/05(水) 2
2024/06/06(木) 10
2024/06/07(金) 9
2024/06/08(土) 28
2024/06/09(日) 40
2024/06/10(月) 23
2024/06/11(火) 24
2024/06/12(水) 15
2024/06/13(木) 15
客引きスレ
2024/06/05(水) 8
2024/06/06(木) 7
2024/06/07(金) 4
2024/06/08(土) 3
2024/06/09(日) 3
2024/06/10(月) 2
2024/06/11(火) 13
2024/06/12(水) 35
2024/06/13(木) 16
土日過疎で自演分かりやすい
>>746 パソコン一つとっても消えた規格なんていくらでもあるんだしこういう新しい技術の出初めはお祭り気分で何でものっかればええんよ
civitaiの使い方の質問は、このスレでいいですか?スレ違い?
Lora上げてる者なんですが、なんかへんな所さわっちゃったらしく、Hidden by your tag preferences:FEMALE SWIMWEAR OR UNDERWEAR って表示が出て、幾つかの画像が表示されなくなったんです。もとに戻したいんですが、どうすりゃいいのか教えて下さい。
ありゃSAGEてない。久方ぶりに書き込んだんで失礼しました。
そのまんま答え書いてあるじゃろ…設定画面くらい見なさいよ
>>758 英語はグーグルだよりでして…設定画面の味方がいまいち不自由なんですよ。お手数かけてすいません。
Adetailer関連の質問。
例えば兄魔人モデルを使用していて、きちんと兄魔人対応Loraを使用しているのに、Adetailerを使用すると顔面が乱れるのはどうして?
Adetailerを使用しないと顔面は乱れない。中には乱れないLoraもある。
Denoising Strengthは色々いじくったけどどうも関係ないみたい。どなたかわかる方教えて下さい。m_ _m
>>758 やっとわかった。自力解決しました。お騒がせしました。
>>760 LoRAとMODELで効きが違う
だから原因はかけ過ぎまたはかけなさ過ぎ
1から引いたり足したりしてみ
-1にするのもあり
>>762 ご返信ありがとうございます。
Impaintingのところですよね。違ったら失礼します。
とりあえずデフォルト設定で使っていたので、もう少し調べたり試行錯誤して見ようかと思います。感謝いたします。
>>760 Adetailerのプロンプトかネガプロに余計なこと書いてるとか
まず空欄(つまり生成時と同じ)だとどうなる?
>>764 本当にありがとうございます!
試しに掠れていた画像をPNG infoで取り込んでみたところ、Adetailerのポジプロに書かれていましたね、ブランクにしているつもりでしたが・・・
原因特定できたので大変助かりました。本当にありがとうございます!
Dynamic Promptで複数キャラで出力してるのでもしかしたらそれが原因かもしれないですね・・・
いままでsdはハードウェア要求レベルが高いので放置してたけど
sd3 mediumリリースってニュースみた。
ローカル環境で無修正エロ作れるの?
できるならやってみたい
>>765 良かったね
ちなみに[PROMPT]と書いても元のプロンプトと同じだけど、[PROMPT], smileのように元のプロンプトに書き足すことができるのでAdetailer使うなら覚えておくといいかと思う
これと[SEP](Adetailerの検出順に別のプロンプトを割り当てる)も組み合わせて複数キャラの表情を指定ってこともできる([PROMPT], smile[SEP][PROMPT], ungly)
https://github.com/Bing-su/adetailer/wiki/Advanced あれこれプロンプトいじりに疲れたときは
マスピだけ入れて回したランダム画像に癒されている
本当に初歩的な質問なんですけど
例えば新しいパソコンを買ってきたとします。
そこでpinokioというAIツールをインストールしたら
Stable Diffusionもインストールされたことになるんでしょうか?
それともStable Diffusionをインストールしてからpinokioというツールを
インストールしなきゃいけないんでしょうか?
何言ってんだこいつってレベルの質問ですがご容赦ください
>>768 タグまで丸投げ出来るRuined Fooocusも面白いよ
Stability Matrixで色々入れて遊んでます
Pinokio知らなかったけど画像生成以外のツールも入れられるんだな
楽しそうだけど英語か〜
>>762 亀ですいません。Denoising Strengthをデフォルトの0.4から0.1に調整したら、
キャラ名だけでいけるキャラはもちろん、Lora要るキャラも(特に後者)ワイルドカードにいれて顔面崩れないようになりました。ありがとうございます。
----------------------------------------------------------------------------------------------------------------------------------------
その代わり、まつげブーストがそこまでなくなったので、"hyper detailed eyelashes"ってプロを入れたら、
Denoising Strength 0.4のまつげに限りなく近くなりました。(Ultra, extremely, superあたりは試行錯誤)
恐らく修正度合いが少なくなったせいか、出力も早くなっていいことづくめです。お礼がてら他の方に情報共有。(Animagine V3.1)
手持ちのPCがSurface Pro9しかなくて外付けのGPD考えてるんだけどこれ付けとけばAIの画像生成は問題なくいける?
AI生成できるかできないかが知りたい
出費は気にしないけど今あるsurfaceはできれば活かしたい
できる(かかる時間を無視すれば)
グラボもそうだけどメインメモリも足りないから省エネで生成できる環境を自分で整えないといけない
それならオンラインの生成サービスに課金した方がマシ
いつ飽きてやめるかもわからんのにいきなり大金ぶっこんだらアカン
あーやっぱスペック足りてないのか・・・
ちょっと考え直すわ、教えてくれてありがとう
>>780 メインメモリ16GBは足りないな
64GBは欲しいね
GPU 4090 24GB
PC Mem 128GB
これだと非常に快適です😉
メモリは最低32で64とか積めばなお良し
GPUは最低3060 12GB
sd用にSSDを最低でも512GB、出力用に適当なHDDとか
これで安く専用機を組んだほうがsurfaceで下手にお金を出してどうのこうのより快適だと思う
SD1.5ならメインメモリ16GBでも余裕だけどSDXLだとかつかつ
Windowsでやるならグラボはnvidia一択
マネタイズじゃないなら安いので十分だよ
実写がゴミだから飽きるだろ
SDでの限界が分かってきたから飽きるのはあるな
面白そうなLora出たら使うくらいか
そもそも自分でLora作らないなら
糞スペックでいいだろ
今月電気代が上がるんで
AIイラストのみで先月15000としたら
今月は22000円近くなるのか
関西電力
>>787 職場でAIに詳しいの俺しか居ないから
「AIでこんなことできる?」
って気軽に挑戦をさせられてるけど
やっぱ個人用エロ画像作ってるのとはわけが違う要求を満たすので、勉強になる
>>791 元ネタが無いと無理なんすよなんでも出来る訳じゃないんすよジジイって言えよ
>>793 言ったらタスクが終わるなら苦労しないんだよ坊や
なんでもデータがあれば機械学習やらAIで何か出来ると勘違いしている人はいる
ゴミを入れてもゴミしか出てきませんよ、データのフォーマットくらいは揃えましょうよと言った事はある
ForgeでしかXL生成できなかった環境だったけど最新1111ならXL生成できるようになったのありがたい
>>794 じゃあ愚痴書いてないで馬車馬のように働け社畜
AIイラスト職場で使うんか
何に使うんだ
そんなもん他の奴にも教えりゃいいだけだろ
馬鹿でも出来るんだし
>>796 ん?A1111のVRAM効率forge並みに良くなったの?そんな感じしないけど…
Forge作者の投稿見る限りは本家WebUIのdevブランチに性能に関わる更新の多くを取り込んだ
でもメモリ管理周りはコスト掛かりすぎるんで無理っす宣言してたけど
真実は如何に?
本当なら朗報なんだけどね
実際にforge利用続けるって人が多いのが真実だよ
ただ今後の開発で必須になるような拡張やらがa1111にでたら
また乗り換えるしかないだろうね
いまでもリージョナルプロンプト使う場面ならa1111
ForgeはSD3に対応しない一方、1111は1週間くらいでSD3に対応する予定とも聞くから、SD3でいいモデルが出てきたら1111を使う人が増えるかもね
元々A1111でもTiledVAEとKohya HRFix使えばXLの生成はVRAM8GBでも出来てた
ただ遅かったのとそれでもForgeに比べればVRAM消費多くて、遅いのは今dev版で改善されたという状態
あとfp8だとnegpipでエラーが出る
>>805 >同条件ではないものの
というのが怪しいかもしれん
ぼくのGeForce RTX 4060 Ti 16GBだと1枚平均4秒かからないし
pixiv巡回してると、ここ半年くらいでAIエロのクオリティが爆上がりしているんですが、技術的に何かブレイクスルーってあったんですか?
pony使っとるんやろ
XL使えねえなってところからこいつでほぼ全て終わるエロモデルが出た
>>808 知らぬ間にこんなの出てたんかー
ありがとうございます!
civitai にあるパラメータってまったく同じのを入力してるつもりなのに違う絵になるのはなぜなのでしょうか?例えばですが
https://civitai.com/images/15844350 とまったく同じ絵を再現したいのですが実際は
https://ibb.co/m4XzSzS こうなってしまいます。
画像サイズはいちおう元絵のサイズを調べて同じのにしました。
他はなにを調整すべきなのでしょうか?
まあ似た感じになってるんじゃない?
このサンプル出した人とPC環境同じにしたり
このデータに書かれていないような所まで一緒の環境にできたらさらに近づけると思う
単純にすべてのパラメーターを公開してるかわからないだけ
control netとかipadapterとか使ってたらわからんし
もしかするとLoraを使っているけど載せていないかもしれない
要するにアテにならない
A1111のXLでEXTRASでバッチ処理で複数ファイルを処理していたが、ここ数日、ファイルドロップ欄に複数ファイルを入れても無視される事象が起きている。
1つや2つだと正常に動く。
どうも4つ以上のファイルが貼り付けられると無視するようだが、何が原因だろうか?
>>799 GPU:4070Ti(VRAM:12GB)
version: v1.9.4
python: 3.10.11
torch: 2.1.2+cu121
xformers: 0.0.23.post1
この環境でSDXLのponyで生成できてるよ
>>818 同じく4070Tiだけどマジ?
それならa1111に移行しようかな
12GBグラボはマジでforgeのありがたみヤバかった
>>813 settingのstable diffusionのRandom number generator source.
をNV(NVIDIA)にしとけばNVIDIAのグラボならみんな同じなるとかなんとか、真偽不明
相手さんがデフォのGPUのままだと、GPU種で変わっちゃうとか聞いた
>>817 特に報告もなさげなんで、おま環(ブラウザ側の何か)臭いけど・・
D&Dじゃなくクリックして選択アップロードで4つ以上だとどうなるかな?
VRAM12Gあれば少し前からXL出力可能なのに何をいまさら…
VRAM12Gあれば少し前からXL学習可能なのに何をいまさら…
VRAM12Gあれば少し前からXL学習可能なのに何をいまさら…
VRMA12Gあばれ少し前らかXL出可力能なにの何いをさらま…
紹介してないとこの値段にならないから、普通に行っても無駄
以下の画像を見てほしいです。※エロです
こういうのってどうやって作っているんでしょうか?
自分は全くこんなレベルに到達できていません
こういう2人が絡み合う複雑なポーズがそもそも作れないですし、体も、指、性器も奇形になるものばかりです
上記の絵はもちろん、どうやって作ったかは作った人でないと分からないとは思うのですが、皆さんの推測で教えてほしいです
まず、これはStable Diffusionで作ってるんでしょうか
そうだとして、そこからどうしてるんでしょうか?loraで作っているんでしょうか
自分は色々既存のloraを使い、loraの強度も変えて試してるんですが、思い通りのがでないか、画質が劣化するかで、だいたいうまくいきません。
>>828 何時間かクーポンやら駆使してiPhoneやらグラボやら色々格安になってた
4060届いた奴
>>831 pony系だとこのくらいloraなしで普通に出せるかなぁ
上はAIで出した後に手を加えてる感じがするけど正確にはわからない
>>833 これはいいmicrosoft 基本ディスプレイアダプターですね・・
>>831 pony派生のモデルならLoRAいらんレベルだと思うしYouがどんな環境とモデルで作ってるか分からん
1枚目なら体位とhug、kiss、side view調整するだけで普通に出るだろうし2枚目も同様
まあmotion lineやdrool、モンスなんかのデティールは指定してるだろうけど
>>834 >>835 なんと、まず、ponyというのがなにか分からなかったのですが、もう、Stable Diffusionの後継?のXLというのが出ているのですが。そのXLというのにしてpony系のモデルを入れればよいのですね。
やってみます。
知らない間にStable Diffusionも色々進化しているのですね。
ありがとうございます!
>>820 Edgeの履歴クリアと設定をいじったら直ったっぽい。
しばらく様子見るわ。
3X。
>>819 1.6.0から生成自体は出来てたけど時間かかったからForge使ってた
1.9.4で生成速度がかなり改善されたからForgeから卒業できた
>>831 奇形ばかりの中から選抜された画像かもしれんぞ
XLの実行自体はGPUメモリ8GBでも出来る。
問題はメインメモリと合わせた共有GPUメモリ。これが足りないと最後の出力部分でこける。
XLで最近Loraを作り始めたのだけど出力されるファイル容量が指定値の大体八倍になっちゃう
1.5系ならRank32と指定したらそのままのファイル容量なのだけど、XLはこういう仕様なの?
落ちてるXL用Lora見る限りなんとなく何かの設定間違えた気がして
>>831 二枚目のはonArmorのLoRAで作りやすいと思う
>>839 その可能性もあるんですが、高クオリティなのを大量生産してる人なので、根本が違うのかな、と
>>842 え、そのローラ使ってみます
ありがとうございます。
さっそくSDXLというのを導入してみました。
しかし、全くうまくいきません
生成時間は今までの3倍くらいかかるのに、クオリティは低いのです
いろんなモデルを入れて、設定も色々変えたのですが、きれいな仕上がりがひとつもないです
例えば試しにと、AAM XL (Anime Mix)というモデルでやってみたのですが、以下のような低クオリティの画像しかできません
他のモデルだとこんなのが出たり
なぜなのでしょうか
設定は以下です
Steps: 13,
Sampler: DPM2 Karras,
CFG scale: 7,
Size: 1024x1024,
Model: aamXLAnimeMix_v10,
VAE: sdxl_vae.safetensors,
Clip skip: 2,
Refiner: sd_xl_refiner_1.0 [7440042bbd],
Refiner switch at: 0.8,
version: v1.8.0
python: 3.10.10
torch: 2.1.2+cu121
xformers: 0.0.23.post1
gradio: 3.41.2
グラボのメモリは12G 本体メモリ32G
>>844 ステップ数低い
リファイナーいらない
VAEも変えたほうがいい
モデルもできれば安定した画像が生成しやすいpony系(ebaraとか)で試したほうがいい
低クオリティというかもはやグロじゃないか
ビビったぞw
>>844 2枚目はvaeがあってない
sdxlはsdxlのvaeじゃないとダメだよ
指定のvaeか内蔵の場合があるのでちゃんと読んでステップも上げれ
>>844 起動オプションでmedvramいれてる?
12Gなら入ってるかな
ebara2.1の塗りとか絵柄がだめなんだけど、そうなってくるとモデルを変えるべき?
抜きゲーみたいな塗りが欲しい
皆様、ありがとうございます。非常に助かります。
アドバイスいただき色々分かってきました。
リファイナーを外し、ステップを上げ、vaeも変えました。
pony系(ebaraとか)というのは多分これのことでしょうか
https://civitai.com/models/466637/ebaramfcgponymix プロンプトも何だか見慣れないのがたくさん出てくるのですね。
ちょっと頑張ってみます。
>>833にドライバ入れた
これが99円ならいいわな
>>831 こんなレベルって程のもんじゃ無いだろw
nai使ってるんだけどリアルフィギュア系の画像出すときにいつも髪だけ絵の塗りっぽくなるんだよなぁ
プラスチックの良い感じの質感出すパワーワード無いものか
プラスチックといっても艶やかなものもつや消しもあるからなぁ
glossy hairとかどう?知らんけど
どっちかと言うとつや消し系かな
matte hair試してもずっとツヤツヤして絵の質感になってるんだよなぁ
立体系のワードで攻めたらフィギュアの髪質になるかな
黒髪以外は結構良い感じの質感になるんよ
黒髪だけが絵のままだわ
ハッサクは独自の絵が強すぎてLoRA乗らん事がある
a1111今や12GBでいいぞって今朝聞いたから改めて導入したけどvaeで止まるじゃん…
SD3がNew Branchで来てるのにまだそんなこといってんのか
>>864 自分の環境だとno-half-vae入れないと真っ黒になることが多いので入れてるけどvae処理でかなり遅くなるね
止まりはしないけど
tiled vae使わないと糞遅いぞ
no-half-vaeの場合はdecoder tile sizeさらに半分位にする必要あり
現状1111の精度と手間が悪いからNovelAIv3に移行した人爆増したんだろうけど、1111は精度の上方は暫く起こらないと見ていいのかな?
SD3はもう来てるけど、どこまで変わるか分からない&諸々の機能の対応に時間かかるんだよね
良くある話Novelだと理想の絵柄に離れるよね
AOMモデルの絵柄が好きなんだけどNovelだとどうしても再現できそうに無いね…。いいとこ取りはまだ先かなぁ
XLのvaeには一番普及してるバージョンにバグが有るとか最近見かけたね
>>867 最近のpony系は知ってる?あれ以降はNAI3の絵でスゲーって思ったことないなぁ
今時AOMなんかの話してる時点で生成から相当離れてない?
そもそもNAIは自分でlora作れないからマイナーキャラは出せないし
まぁdalle3には完敗、でもあれはエロほぼ出せんしね
なお1.5限定のスペックならすまん
pixivでも大抵凄いのはNAIだけどな
SDのLoraなんてろくなの無いじゃん
再現度が段違い
マイナーキャラは確かに弱いがそのLoraも大したもん無いしな
>>862だけど激遅になるって意味で流石に止まりはしなかったが
>>869のvae入れるだけで解決したわありがとう
-xformers -medvram使ってまぁforgeと同等だが一枚当たり1秒以上違うからforgeはまだ消せそうにないな
pony信者ってよく湧くけど扱い切れてなくてAnimagineでやった方がましってのが多い
ponyってキャラもんは向いてないだろ
エロ用モデル
キャラもの強いモデルはポーズにパターン少ない感じがしてponyて好みを練ってる
>>875 んなこたーないw
適切に作ればちゃんと出るよ
ただpony派生モデルでも顔つきが体が勝手に低年齢に寄っちゃうのはあるので
原作通りにしたいなら選択は慎重に
arms up behind以外で「手を後ろに」回して手が動かせないように見えるシチュエーションに使えそうなプロンプトはありますか?
restrainedとshacklesのセット、shibari、手枷などは拘束されてるけど不安定な手の位置や手の自由が残ってるときがあって使いにくいというか
arms behind backが効果ないのが解せない
>>877 例えばなんのキャラが忠実に出せるの?
見せて欲しい
>>878 【StableDiffusion】AIエロ画像情報交換43
https://mercury.bbspink.com/test/read.cgi/erocg/1718256907/ プロンプトの内容はこっちがいいかも
こっちでもいいけど盛んなんで、自分もいるがw
>>879 とりあえずワッチョイの方で語ろうか
自分の絵柄Loraで一次創作しかしない俺高みの見物
そりゃStable Diffusionはローカル内だけでの情報のみなんで膨大なサーバー通して処理するのとは全然違うよ
GPTで数GBのローカルで使えるアプリとサーバー通すのとでは訳が違うように
1つのモデルやLoraくらいじゃ表現広げるには足らんって事?
A1111 1.9.4で起動時に毎回以下のメッセージが出ます
D:\stable-diffusion-webui\venv\lib\site-packages\huggingface_hub\file_download.py:1132: FutureWarning: `resume_download` is deprecated and will be removed in version 1.0.0. Downloads always resume when possible. If you want to force a new download, use `force_download=True`.
warnings.warn(
Issue見てもいまいち解決方法がわからなかったんですが、解決方法わかる方いらっしゃいますか?
>>888 近い将来に起こる問題だから無視していい
和訳すれば分ける内容だなw
将来的にresume_downloadがversion1.0.0で削除され、常に可能ならレジュームが効くようになる
どうしても新しくダウンロードしたい場合はforce_download=Trueとしろと
日本語訳でトンチンカンになってる気もするが
まずそのメッセージそのものは警告だから今すぐ動作に不具合なければ無視していい
※ログにはただのメッセージ、警告、エラー、致命などのレベルがあって警告は動くけど(将来含め)不具合の原因かもという情報だから普段は無視していい
以下は興味あれば
警告の内容はそのうち削除する予定の関数使ってるから早めに直してねというもの
さらに補足として何かをダウンロードするためのresume_download関数にしかなかったレジューム機能はdownloadのデフォルト機能として統合されたから不用になったのと、もしレジューム機能使いたくなかったらそれもできるよと書いてあるだけ
>>890‐891
メッセージに出ているファイルの内容を書き換えましたがメッセージは出続けます
どのファイルを修正すればいいのでしょうか?
>>892 コードにそれほど詳しくない一般ピーポーであるならば修正は諦めてください。
A1111の開発者が修正するのを待ってください。
↑で言われてる通りただの警告であってエラーではないので無視して大丈夫です。
こういうメッセージは大抵の言語で以下のようになってて、error以外は一応動く。
error (動かない)
warning (警告)
notice (お知らせ)
debug (デバッグメッセージ)
>>894 詳しそうなので質問させてください
メッセージに出てくるバージョン1.0.0というのはどのモジュール(機能?)のバージョンでしょうか?
ここにいる人たちはGUIで操作する範囲のことしかわからないから、そんな高度なこと聞いちゃ駄目だよ
これは今バージョンではこういうことですよって開発からのメッセージだから
修正したら消えるってもんじゃないだろう
それでも消したいとなるとプログラム弄るような話になりそうだし
この板じゃなくてもっと専門的なことがわかる人がいるところに行かんとキツイと思う
その労力を掛けて消す意味があるのかどうか
そんな潔癖だとハゲるぞ
Copilot +PCが発売されたようだけど、搭載してるNPUでStableDiffusionがそこそこ動くなら欲しいな
>>895 > メッセージに出ているファイルの内容を書き換えましたがメッセージは出続けます
> どのファイルを修正すればいいのでしょうか?
なら「メッセージに出てないファイルを修正すればいい」と考るべきでは?
なお具体的にどのファイルなのか知らんから俺に質問しないでよね!
>>895 (前提として私はpythonに詳しいわけではない)
ちょっとそのメッセージからだけだと分からんな。
file_download.pyの1132行目でこのresume_downloadなる機能を使ってるから出ている警告で「ver1.0.0で resume_dowonlad削除するよ」って意味だから、おそらくダウンロード関連のpythonライブラリなんじゃないかな。
このメッセージはA1111の開発者からのメッセージではなく、python側からのメッセージ。
このメッセージを出ないようにする人はA1111の開発者であって、あなたや私たちユーザではない。
↑書いてからちょっと調べてみた。
>>895 https://github.com/huggingface/huggingface_hub/blob/main/src/huggingface_hub/file_download.py#L685-L691 バージョン違いがあるから、行数はちょっと変わる。
python本体じゃなくて、huggingface_hubってパッケージが出してるメッセージでした。
A1111はこのパッケージを使用してるようで、その中でresume_dowonload機能(オプション?)を使った際にhuggingface_hub側が「このオプション将来的に(ver1.0.0になったら)消すからね」ってメッセージを出しているものです。
重ねて言うけど、ユーザ側は何もしなくていい。
もしメッセージ出なくなっても「ネガティブで強調しても何故しつこく出てくるの?」とか言い始めるとエスパー
>>901 Lunar LakeはStable Diffusionで画像を生成するというAIタスクでSnapdragon X Eliteの1.4倍の性能を示した
コア性能もSnapdragon X EliteやRyzen 7 8840Uと比べて高速
>>904 こういったものに初めて遭遇したので興味がわいて、折角なので少しでも知識が蓄えれればと思って聞いてみました
ありがとうございました
webui-tagcompleteがtaggerとdatabase tag editerで効かないんだが、何かチェックする方法ある?
設定でサードパーティの拡張で使用するってとこにはチェックが入ってるんだが。
Forge では効いてたんだけど、A1111で使おうとしたら効かなくて不便してる。
もう半年くらい離れてて最近の情報知らないんだけど、VRAMは少なくても大丈夫になったの?
一応A2000 12GB使ってるんだけど、グラボも新製品が出てるようだし、予備PCにRTX3050 6GB載せようかなと思案中
>>911 省VRAMはForgeが道を開いた。6GBでもSDXLで画像生成できるはずだけど、Forgeは今後実験的な開発に向かうそうなので未来はない
SD3 mediumはa1111では今のところ最低16GB必要みたい(まだ正式リリースはされていない)。ComfyUIなら12GBでも大丈夫、6GBではさすがに無理じゃなかったかな
ただしSD3 mediumは人体の表現が苦手なほか、ライセンスが不明瞭という理由でCivitaiが扱いを一時停止したりして将来性に不安がある
無理だと思ってたが4070TiとA1111でSDXLが吐き出せるようになってびっくりした(1.9.4)
いいか起動オプションにno-halfは使うな(黒画面対策に入れてたがこれが原因で遅かった)
速度に目を瞑ればGPUメモリが6GBだろうとSDXLは行ける。メインメモリとGPUメモリ間での転送処理が遅いだけで、メインメモリをたくさん積めば動くことは動く。
最終出力がFullHDとかなら64GBくらいあれば行けるよ。多分。
1070TiでもComfyでSDXL出るんだから、30以降なら余裕じゃね?
革ジャン氏 遂に時価総額世界一の企業のボスになったよ
人それぞれ「できる」のラインが違うんだよな
設定にもよるけど4070Tiではやっぱまだforgeが強い
大体のことがvramで足りてるけどA1111はramどころかストレージまで使い始める時ある
4090買うような連中はほとんどの奴が買い替えるだろうし、言うほど争いは起きない気がする
SDXD揃えたんだけど魔神さんの身体の描写、アップだとすげえと感動したのに引くと
胸板薄くね?足、ほそっ!となってしまった
単にアイマスか直近のキャラ造形にになってるようだ
もう少し現実的に肩幅もあり足もしっかりひたようなプロンプト、モデルはない?
SFWなんだけど
サンプルがアップの画像ばっかで比較しようもなくて困ってる
XLで生成した画像をping infoに持っていってその情報を確認しようとしたら、waitingがけっこう長くて(20秒くらい?)、情報の表示までに時間がかかります。
1.5系統の画像ではこんなことなかったんですが、なぜでしょうか?
>>923 殆どは言い過ぎ
この円安続くと5090は40万超えるだろう
4090は24~26万で買った奴多いだろ
今なら25万で売れて手数料で228000
販売前とか殺到したら値崩れする前に売っとけ
ちゃんと対応した技術で必要性が確立されてから購入は検討するよ
出る前に皮算用してもしょうがないし、4090発火みたいな問題がないとも限らんし
一番高い時に人柱は多いほどいいから
こういう言い訳するのもやはりいるからみんな買い換えとか無いよ
値段で躊躇する
25万ならまだな
5090なんて値段は上がってそれでも激戦で手に入らないに決まってるから、
4090を使い続ける。
一番の心配はPCケースに収まるかどうかではなかろうか
他に競合できるメーカーがないから、革ジャンぼったくるんだろうなぁ
円安も拍車をかけるだろうから余計に手が出ない
AMD・Intelはもっと頑張って欲しいよな
アーキテクチャやチップの性能もあるだろうが、コードの最適化も課題だと思うんだよね。
AMD・Intel側が積極的に今のAI関連のソフトに自社のGPU最適化コードとか広めていかないとNvidiaには勝てんだろうな。
seaart関連が見当たらなかったのでこちらで失礼します
seaartの月間プランを解除する方法をご存知の方いらっしゃれば教えていただきたいです
「購読管理」から解除できるらしいのですが、それを押しても「カスタマーサポートに」と出て進みません…
どなたかご教授いただけないでしょうか。
automatic1111をv1.9.4に更新したら
Loraとかcheckpointsが全部表示されてフォルダ分けしたソートが効かない感じなんですが
おま環ですかね?
Forgeが使えないとなると少なめのVRAMでも快適な生成をしたかったらComfyUI使うしかないのかな?
RTX 4070SP 12GじゃRTX3060とあんまり変わらんですか?
>>943 全然違うけど、そもそもVRAM溢れたら4070spの性能が無駄になって目糞鼻くそになる可能性がある
12GBで収まる処理なら断然早い
>>940 全然知らんのだけど
https://tinypc.jp/seaart-v1-3-5/ > SeaArt – V1.3.5 アップデート
> 2023年12月4日 20:04:30
> システムの更新により、VIPサブスクリプションは有効期限満了時に自動更新されなくなりました。
> サブスクリプションを更新するには、手動で再アクティブ化してください。
元々買い切りなんで、払い戻しはないんだよね
更新されないんだから解除も何もないってことじゃないのかな?
放置しとけば引き落としもなくなって使えなくなって終わるだけでは
ことAIに関しちゃチップというかcudaなんだよなあ
ん?
ComfyUI の開発に SwarmUI の開発が合流したって事!?
Nforumで見て更新したらマジだった
SDXLでも速い
大きくなって消費電力増えて「処理性能が上がりました!」じゃ
進歩とは言えんし
>>950 4070Tiでも5〜8秒速くなった
PhyXシステムなんちゃらのアップデートが効いてるのかな
今使ってるCPUが3600なんだけどこれにRTX4090組み合わせたらCPUがボトルネックになる?
4090ってAM4環境とAM5環境で生成の時間変わるんだろうか?
長い目で見ればAM5にしていくほうがいいんだろうけどAM4でも十分なら価格落ち着くまではそれで頑張りたいんだけどそのあたり知ってる人いたら教えてください
多分ストレージが1番のボトルネックになる。
SSDでもSATAだとアップスケールかけてる時にここでつっかかってるなって実感する
何で読んだ文章を理解できないのに、
見当違いの質問したがるの?
今どきSATAなんて10年前の話してるなあって思ったから
話の流れも見ないで直近1レスに脊髄反射してるからそうなる
CPUボトルネックになったとしても下位グレードのグラボの性能まで落ちるわけじゃないんだから買えるなら買えばいいのよ
アプスケ時にストレージアクセスするってメモリあふれてるんじゃ?
AIやるならボトルネックは常にGPU側だろ
Aシリーズx2積んだAIワークステーションでもふつうにインテル14世代で売ってるし一般人レベルがボトルネックでCPUの事考える方がおかしい
いきなり話し変えてすみませんが
PonyやAnimagine以外でSDXLでLora学習におすすめなチェックポイントはありますか
やっぱりAnyLoraあたりですかね
ストレージが影響してるのは、メモリ溢れてるんだろうな
ワイの場合仮想メモリ少ないからメインメモリ溢れた時点でエラー起こすけど
SATAのSSDの利点は圧倒的な低消費電力、設置場所がある程度自由。そんだけ。
>>965 無いよ今流行ってるのは全部どっちかの派生
口悪いかもだけど今どきブルーペンシルとか勧めてもどうせ満足出来なくて他に~って言い出すだけだから素直に参考例の多い皆と同じもの使っときなよ
すまんよく読んでなかったけどlora作成でも同じ
作成したモデル系統じゃなきゃ満足に効かないから元モデルで作るのが知見も多いから手っ取り早い
魔神あたりはSDbaseやらで作っても効いたりするけどそれで良くなる訳じゃないしな
次スレ
【StableDiffusion】画像生成AI質問スレ24
http://2chb.net/r/cg/1718933546/ ストレージが効いてくるのはcheckpointの読み込み時くらいかと
なんのことかと辿ったら
>>957か、まぁかなりトンチンカンだな・・
VRAM溢れをメインメモリで受ける設定→めちゃくちゃメモリ少ない→仮想メモリに足突っ込んでる
くらいか、こんな環境だとそもそも普段まともに生成できてないはず
>>973 質問でなくグラボ談義がしたいなら↓のスレへどうぞ
【StableDiffusion】AIパソコンスレ 質問・雑談2
http://2chb.net/r/pc/1698406162/ 4090持ちなのにWindowsで生成してるアタオカな人ばっかりだし
その理屈だと3060だろうが4070だろうがwindowsで生成してる奴はみんなアタオカになるが
Stable Diffusionのだいぶ前のバージョンだと、生成の途中でinterruptボタンで中断すると、とりあえずその段階まででできている画像を出力してくれてた
最近それがなくなって、画像が生成されないんですが、前みたいに途中でもいいから画像を出す方法ってないでしょうか
普通に途中出力してくれるけど、もしかしてワイのver古いんかな…
>>970 乙
忘れてた
>>981 forgeは
> Save incomplete images
> (save images that has been interrupted in mid-generation; even if not saved, they will still show up in webui output.)
のチェックがデフォで外れてるのでsaveされない
1111にもあったっけ?
>>983 ありがとうございます。
その項目が1111にもありました、そして、チェックが外れていました。
Stable Diffusionのバージョンが上がって新しくこういう選択肢ができて、かつデフォでは外れる仕様になったのかもしれません。
助かりました
ありがとうございました!
>>980 マジで!?
WSLのUbuntuで1111のサーバーを動かしてWindowsのブラウザからアクセスしに行く感じ?
出力ディレクトリがWSL内になるんか
使うオプションが変更されないように
uiのjsonは保存しとくといい
そうでないとupdateで初期値になるはずだ
>>985 WSL2ではそんな早くならんよ
ぶっちゃけ誤差レベルなんで意味ない
ハッサクのXL版があると聞いて、大喜びで落としてみました
しかし、絵柄が全然ハッサクじゃないんですけど、自分なんか間違ってますでしょうか?
それとも設定値にコツとかあるんですか?
1.5の時は↓のハッサクを使ってて
hassakuHentaiModel_v13
XLでは↓を使っています
hassakuXLHentai_v13
生成は1〜2割ぐらいだけど学習が2倍速いという話があったね
そらそうよ
作者が同じってだけでベースから全く異なるモデルだもの
絵柄すら全く同じに寄せるように作りましたなんてどこにも書いてないと思うし
>>990 そういうことですか!
勝手に思い込んでましたが元のハッサク要素は入ってないのですね、残念です
ハッサクの絵柄に近いXLがあればなあ
ありがとうございました
>>989 それたまに言ってる人みるけど、ちゃんとしたソースあるんかね
データとして
生成AIではないけどディープラーニングの学習でWinとWSL2で比較したことある
そのときは速度まったく同じだった
処理によって違いはでるとは思う
WSL2ってオーバーヘッドが無いかのような速さで時代は変わったよな
元がLinux向けでWindowsに最適化出来てないと逆転する事すらあるからな
昔はvmwareだったのに……
ponyで使える書き込み増やすflat的なloraって何があるか教えてください
civitaiをponyでフィルタして、detailとかsliderで検索するんだ・・
デュアルブートでUbuntuでA1111環境構築してみたら生成速度10秒ぐらい速くなったけどナニコレ
「10秒早くなった」
1000秒かかるのが10秒早くなって990秒になった=誤差
11秒かかるのが10秒早くなって1秒になった=めっちゃすごいね
数字ってすごいだろ?
>>998 0.01秒かかるところが10倍速くなって0.001秒で描画できるようになった=誤差
-curl
lud20241203195426caこのスレへの固定リンク: http://5chb.net/r/cg/1713237430/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像
↓「【StableDiffusion】画像生成AI質問スレ23 ->画像>20枚 」を見た人も見ています:
・【絵柄割れ厨】画像生成AI信者ヲチスレ_59【AI○○】
・【Nore more 生成AI】画像生成AI信者ヲチスレ_130【AI○○】
・【悲報】絵師さん、あと数日で全員失職へ 超高性能画像生成AIが無料公開予定
・【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★]
・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ
・クリスタ、画像生成AIパレット実装を中止 - ユーザーの懸念を受け方針転換 [朝一から閉店までφ★]
・ラブライブ!質問スレ part9
・【まずは】Nintendo Wi-Fi質問スレ 23【テンプレ読め】
・【ガルパ】BanG Dream! ガールズバンドパーティ!質問スレ★4【バンドリ】
・【ガルパ】BanG Dream! ガールズバンドパーティ!質問スレ★10【バンドリ】
・介護職の雑談・質問スレ213
・介護職の雑談・質問スレ203
・【WiiU/NS】ゼルダの伝説 ブレス オブ ザ ワイルド 質問スレ23
・仮想通貨なんでも質問スレ2
・介護職の雑談・質問スレ206
・介護職の雑談・質問スレ209
・ハウリングソード 質問スレ2
・香水・香りについての総合質問スレ25
・艦これアーケード 新任提督質問スレ21隻目
・サマナーズウォー: Sky Arena 質問スレ26
・【乞食速報】Windows10へのアップグレード質問スレ2
・スノーボードなんでも質問スレ2【2019-2020】
・ギルドウォーズ 質問スレ28 【Guild Wars】
・【facebook】フェイスブック初心者質問スレ28
・本当に凄い勢いでマジレスが返って来る質問スレ287
・【新エスパー】超初心者の質問スレ25【世界樹出禁】
・【統合】ディズニー現地報告&質問スレ2 TDL/TDS
・【PS4】Fallout4 フォールアウト4 質問スレ28 [無断転載禁止]
・【入門】ヴェポライザー初心者質問スレ2【喫煙】 [無断転載禁止]
・【PS4】Fallout4 フォールアウト4 質問スレ22 [無断転載禁止]
・【PS4】Fallout4 フォールアウト4 質問スレ27 [無断転載禁止]
・【パワプロ】実況パワフルプロ野球 質問スレ28人目 [無断転載禁止]
・【3DS】カスタムファームウェア質問スレ2【CFW】 [無断転載禁止]
・【PS4】Fallout4 フォールアウト4 質問スレ2【FO4】 [無断転載禁止]
・【詐欺運営】BLEACH Brave Souls 初心者質問スレ2【ブレソル】 [無断転載禁止]
・【ダビスタ】ダービースタリオンマスターズ初心者&質問スレ29頭目【ダビマス】
・【ダビスタ】ダービースタリオンマスターズ初心者&質問スレ20頭目【ダビマス】
・糖尿病初心者質問スレ53
・バス釣り質問スレ Part.3
・ポケモンGO質問スレ83
・ポケモンGO質問スレ73
・Mac初心者質問スレッド283
・〓SoftBank 質問スレッド・3
・Fallout 3 質問スレPart32
・ラグナロクマスターズ 質問スレ3
・MTB初心者質問スレ part103
・Stardew Valley 質問スレ 3
・ロード初心者質問スレ part443
・【PS4】Fallout76 質問スレ3
・【入門】FX初心者質問スレPart93
・【居合】初心者 質問スレ【剣術】3
・初心者質問スレ その123 [無断転載禁止]
・ピグライフ 質問スレ Part3
・初心者のための優しい質問スレ その3
・Windows 10 質問スレッド Part73
・初心者のための優しい質問スレ その13
・【MNO】 楽天モバイル質問スレ・3
・香水・香りについての総合質問スレ 23
・Panasonic DIGA質問スレ Part83
・au Xperia Z1 SOL23 質問スレ part3
・ヤフオク初心者質問スレッド #833
・【FF14】FINAL FANTASY XIV 質問スレ103
・高校物理質問スレpart33 [無断転載禁止]
・クルセイダークエスト 質問スレ☆13
・サマナーズウォー: Sky Arena 質問スレ33
02:30:46 up 23 days, 3:34, 2 users, load average: 10.58, 9.31, 10.22
in 0.039819955825806 sec
@0.039819955825806@0b7 on 020516
|