◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ9 YouTube動画>1本 ->画像>78枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1682213108/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
質問する人は忘れずに
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>2以降に
前スレ
【StableDiffusion】画像生成AI質問スレ8【NovelAI】
http://2chb.net/r/cg/1681531755/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
■AUTOMATIC1111/Stable Diffusion WebUI
https://github.com/AUTOMATIC1111/stable-diffusion-webui パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1 導入方法2
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop
https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin クリスタ
https://github.com/mika-f/nekodraw blender
https://platform.stability.ai/docs/integrations/blender https://github.com/carson-katri/dream-textures Krita
https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能)
■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 2023年5月15日以降はエロ画像の投稿禁止。手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:
https://www.cweb-pix.com/ メタデータが削除されないアップローダー。画像のファイル名がそのままURLに使われる
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
エロ用
なんJNVA部★191
http://2chb.net/r/liveuranus/1682089700/ 【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/ 雑談用。質問以外はこちらへ
AIイラスト 愚痴、アンチ、賛美スレ part46
http://2chb.net/r/illustrator/1682169232/ 【Midjourney】AI関連総合18【StableDiffusion】
http://2chb.net/r/cg/1668016418/ その他
【StableDiffusion】AI画像生成技術19【NovelAI】(事実上の雑談スレ)
http://2chb.net/r/cg/1681973770/ AI絵師のマネタイズ関連スレ ★20
http://2chb.net/r/doujin/1681755125/ NovelAI,Holara,TrinArt等画像生成AIサービス総合
http://2chb.net/r/esite/1679527005/ なんJnovelAI部ウェブ専★68
http://2chb.net/r/liveuranus/1679488956/ ■FAQ Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい? A:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像(特に幼児)の生成でBANされる可能性がある Q:ローカル環境でパソコンの性能はどのくらいがいい? A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい Q:NMKDと1111、どちらをインストールしたらいい? A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ Q:出力画像がこれこれこうなっちゃう。どうしたらいい? A:症状がわかりやすい画像を見せてくれると解決が早いかもしれない Q:画像を出力したら色が薄い、または彩度が低い A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q:自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat Q:起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。止めるには生成ボタンを再度右クリックして止める
Q:アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q:設定を変更したのに反映されない
A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q:消去したプロンプトがまだ効いている気がする
A:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や、まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている
【CLIPskip設定ってどうしたらいい?】 イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる 【そもそもCLIPって何?】 ざっくり簡単に言うと『プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成する』というStablediffusionが採用してる処理方式のこと CLIPskip1なら『最後から1番目の層まで処理(※ようはskipせずに最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最後の層を省略して)画像を生成』という特殊な追加学習方法を実施 これは最終層で処理されるノイズなどの情報を省略することでイラスト絵の再現度を上げるためであり、これによってNovelAIモデルはCLIP2のほうがプロンプトの反映が正確になるという仕様になった その後NovelAIが作ったモデルはネットに流出し、ほぼ全ての2Dモデルへと派生 よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2が推奨となっている 実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている もちろんだがどのモデルもCLIPskip設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い と思われる ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である
ローカルのSDなんですが
ネガティブにtext:1.4とusernameを入れてるのに
時々出てくる画像の下の文字ってロゴ的な何か?
あと日光的な光を消したいんだけどポジティブな方に(sunlight:0.2)と入れるのと
ネガティブに(sunlight:1.4)と入れるのではどちらが効果が高いんでしょうか?
>>9 text usernameに加えてsignature watermarkも入れてる
sunlightのほうはぜひ試して結果の印象を教えてください
前スレ869です 872で教えていただいたモデルを試してみたけど溶けました 過学習が原因ではないかと考えているのですが ステップ数や学習率はどの程度が適切な値なのでしょうか
具体的な質問せいよ わざわざ前スレで君が何を言ったのか確認せんとあかんのか?仕事じゃあるまいし勘弁してくれよ 大体ステップ数だの学習率だのは一概に語れる話なんか?
>>9 soft lightをプロンプトに追加するのもいいかもしれない
PNG Infoが削除されないアップローダー
https://www.cweb-pix.com/ に上げてくれたらみんな寄ってたかってプロンプトを見つけてくれるんじゃないかな
>>13 絵柄Loraの適切なステップ数と学習率の値を教えてください
これでいいですか?
>>15 使用モデルがどんなパラメータを内包してるかわからんのに、どうやって答えろと?
そんなん自己責任で試行錯誤するしかないじゃんよ
一応入れ知恵しておくけど・・・
>>15 AI絵の溶ける(繰り返し型の破綻の)原因は、AI計算中のオーバーフロー一択なのね
だから、LoRAとモデルの合算結果が高域の値を示せば、seedが与えたノイズの上積みだけであっさり破綻するわけ
三角関数を多用するAIは、その破綻がノイズになって絵全体に繰り返しとなってばらまかれる
で、AIの内部計算は絵の画素そのものを取り扱ってないから、内部でどう計算されてるかなんて誰にも分らない
だから、指示する側が破綻するような限界越えの値を示せば、指示を与えた者が一意に悪いとなるわけ
だから、答えれるのはただ一つ
君の与えたパラメータが何らかの理由で限界超えてるから、適切な値になるように君自身で試行錯誤せよ
だけになる
そもそもの話、こいつ上手やなって思ったLoraの設定を参考にすればいい話ちゃうんか
んなもん!マークから確認できるやろ
まあ最終的には
>>16 のいう通りだと思うね
>>16 使用モデルの内包してるパラメータを可視化する方法ってあったりします?
この単語だと出ないのに、ちょっと言い回しを変えれば出るとかあったりするんで
余談になるけど・・・ だったら弱めればいいのかって言うと、実は必ずしもそうではないんですよね 全体の強度が強くなって、突出していたパラメータが相対的に弱められ、破綻が解消するということもある だから、関連するパラメータを弱くするという手法だけでなく、関連外のパラメータを強くするというのも試行錯誤の範囲になる 実は後者が正解という事例がある以上、誰も答えられないんですわ、この手の質問は
SSDの容量がやばくなってきたんだけど、WebUIってフォルダごとまるっと別ドライブに移動しちゃって大丈夫?
>>21 動く場合と動かない場合がある
extensionなどにもよる
もしも容量がヤバいのがモデル類だけなら、モデルフォルダのみをシンボリックリンクで別ドライブにすることも可能
わかんないならスルーすればいいのに 質問者の質問の仕方が悪いからわかんなくても仕方がないってことのしたくて必死なの笑える プライド高すぎだろwww
>>21 venv\Scripts\activate.bat の中に venv フォルダのフルパスが書いてあるので、少なくともそこを書き換える必要がある
>>19 ない
SDの場合は言語解析を伴ったモデルらしいから、細切れプロンプト学習ものを違う言い回しの細切れプロンプトで指示しても相違ではじかれる
だから、言うことを訊かないプロンプトは文章英語で指示した方が結果が良い場合が多い
一応、
This is a (blue pen:1.2) 1girl's (both hand gripping:1.6) on her (stomach or head:1.3). She is (crying:1.7) because pen is broken.
のような強調方法もできるにはできるよ
細切れの方が影響ははるかに強いけどね
>>22 >>24
サンキュー
一回コピーしてしばらく動かしてみるわ
昔起動用に買った500GBのSSDしか無かったけどAI用に1T買い足した
>>24 自己レス
>>26 すまん。嘘書いた。自分で別ドライブに移してみたら動いた。
ただ avtivate.bat でvenvの仮想環境を実行したい場合は書き換える必要がある。
>>21 >2の
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases からインストール(zipを解凍→update.batを実行→run.batを実行)すれば「一度起動したら別のマシンに移動しても大丈夫」だそうよ
>>28 >>29 おお、そのままいけるんか
あらゆるものが昔と比べて便利になっとるな、わざわざありがとう
>>11 https://www.cweb-pix.com/image/4ZI6 ポジティブもネガティブも正直どっちでも変わらない感じ
しいていえばネガティブの方が暗い感じが多いかもしれない気がする程度
soft lightも1.8まで強調しても変わらない感じなので入れる意味が無い気がします
>>31 おっ、プロンプトが出てきた
日光が当たる表現をなくせるか、ちょっとやってみますね
選別済みの画像をimg2imgで1枚づつ手動でスケールアップするのめんどいのだが、まとめて自動でスケールアップする方法ってありますか?
>Q:消去したプロンプトがまだ効いている気がする よくmajinaiの絵を再現できないという質問上がるけどこれも一つの要因になってるよね
>>35 img2imgのbatchに気付いたのかな?
質問したことが解決したらどう解決したのか教えてね
>>31 >32ですが難しいですね
cloudy day, 1girlだけにすると薄暗くなって日光が当たらなくなるのですが
1girl (cloudy sky:1.6)でもうこういうダイナミックな空になってしまい服に影が落ちる
1girl (cloudy sky:1.6) before dawnで夜明け前にしても明るすぎる
雨を降らせて空を暗くしても謎の光が人物を照らしてしまいます
1girl (cloudy sky:1.6)からプロンプトを少しずつ元へ戻すのをやってみたところ、parasolや(gothic_dress:1.8)のあたりでこういう光が出てくる印象でした
明日またやってみるつもりですが、影ができない柔らかい光にするのは難しいのかもしれません
こういうポータブルSSDにインストールして
別のPCでも出来るようにしようと思ってるやけど
どうやろ?
SSD-PUT500U3-B/N [ブラック]
https://kakaku.com/item/K0001340546/ >>38 ちょっと試してみた感じ、(blurry lighting:1.5) とかで和らぐ感じもするが、ムズいな。
>>39 そのままだと無理
システムドライブにも色々インストールされているから
ただ、スタンドアローン方式のインストールなら可能かもしれない、が未検証
スタンドアローン AUTOMATIC1111 で検索すると出てくると思うので試してみては?
なんか真っ暗な空間て出ないんよな、洞窟とか必ず天井に穴あくし
どこかに光源がないと陰影つかないし、真っ暗は真っ暗なわけで…真っ暗を描かせるとこんな感じになるし
暗い洞窟描かせるとこんな感じか、モデルとオフセット組み合わせないとプリセットだけじゃ難しいけど
>>43 の黒い方をフォトショでレベル補正するとノイズだらけではある(笑)
colabで急loraが反映されなくなったんですけど同じような人いますか?特に変わったことしてなくてワンクリックで起動して使ってたんですけど、、
>>39 やって出来ないことは無いと思うけど、そもそもハードウェア (GPU) に依存するところが大きいので
なんでポータブルな環境に入れたいのかが分からん。
>>39 >29のような移動可能になるインストーラーを使えばどのマシンでも生成はできるでしょう
430MB/sはモデルの読み込みや切り替えがちょっと大変そう
http://2chb.net/r/cg/1682230322/65 そちらかどこからどんな1111をダウンロードしたのかわからないから、古いとか間違っているとかはわからない
>2の
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases にある「sd-webui.zip」なら解凍するとき「sd-webui」フォルダが作られることがある(解凍ソフトによる)し、update.batも入ってる
http://2chb.net/r/cg/1682230322/69 「NVA」はNovelAIの略で、なんJなので適当な関西弁や「ニキ」などのジャーゴンが多用されている
NovelAIは登場当時Pixivに載るようなイラストを出力できる唯一の環境だったため、NovelAIの情報交換(どうやってエロい画像を出させるか)のためにスレが立った
その後さまざまな学習モデルが出て、ローカルに1111の環境を作ってエロ画像を出力する話題や追加学習の話題がほとんどになった
現在はNovelAIの話題はそこから分かれた専用スレで続けられている
なんJnovelAI部ウェブ専★68
http://2chb.net/r/liveuranus/1679488956/ ローカル環境でStable Diffusion WebUIを使っているのですが、急に昨日から同じモデル、同じVAEなどを使っているのに、明らかにそのモデルではありえないクオリティが生成されて困ってるのですが、何か対処法ないでしょうか(他のモデルも同じようになってます…)… 一応更新して最新バージョンにしてみたり、バージョンをダウングレードしたり、全部入れなおしたりしたんですが治らず…後は何をどうしたらいいのやら…何かこうした方がいい、ここを見せてほしいなど、なにか知っている方がいましたらご教授お願いしたいです。
>>28 自分の環境でもドライブ移動は動いた。venv書き換えの必要無し。
起動時に表示されるvenvのパスも変わってた。
インストーラーの内容を本家にも導入してるんだろうか?
>>53 以前作成していた画像と
現在問題になってる画像を出してくれないと
エスパーではないので
>>55 https://imepic.jp/GskrpYBd すいません!こんな感じです…同じモデルでやってるんですが、何が原因なのか…
>>56 ザラザラバキバキしたタッチでもないし
人体崩壊してる絵でもないし、
上げた絵の何がどう問題なのか分からなかった。
みなさん、試行回数を大きくしたい時ってhighres fixを解除して大量ガチャして理想に近い画像だけアップスケールする方法なんですかね? 寝る時に放置しておくならhigeres fixも同時にやっておくぐらい?
>>60 これ俺も気になる
後からやる場合はextrasのupscalerじゃなくてmulti diffusionってのをやらないといけないんだよね?
https://imepic.jp/tCPqmCUo ちょっと比較が分かりにくいせいでみんな結構気のせい言ってくるので、もう3枚づつ比較おきます!
全部同じモデル、同じ呪文で生成しています…!
VAEも同じはずなんですが、色合いとか、タッチが全然違うように…
>>62 そこまでやってるならシードも同じにして出力再現できるか確認した方が速いと思うよ・・・
>>62 誰か試してくれるかもってとこに期待するなら、ポン出しのやつ1枚だけmajinaiにアップしてURL貼ってみたら?
それが一番早い。
>>63 確かに!と思って、全部同じ設定で同じシードにしたんですが、違う結果でした…!
これって何が問題なんですかね…?
いまもう一回Stable Diffusion再起動かけたら、なぜか治りました…全部入れなおしたりしたのに、ほんと謎のままなんですが…お騒がせしました…
>>66 どっとはらい
解決してよかったです
imepicはスマホだと死ぬほど見づらくて死んでしまうので、次回は>3のアップローダーをご検討ください
マンガのLoRAを作ろうとした場合 例えば鳥山明の画風再現(マンガ再現)でドラゴンボールの単行本を使うとする この場合、コミックの1ページを1枚の学習元としてtaggerに掛けるのか、更に1コマ1コマ切り出してtaggerに掛けるのか、どっちがいいんですかね? やっぱり1コマ1コマ切り出し?
>>69 ページのコマ割りまで学習させたい場合以外は1コマずつだな
生成出力がページ丸々コピーが出てきて知らずに使ったらアウトやしな
昔のエロゲーのキャラLoRA作りたいんですけど イベントCGはキャラだけ切り取って白色化する方が良いと言うのは分かったんですが 128とかの解像度の低い立ち絵は何かアプコン512にしてからが良いんでしょうか?それともそのまま突っ込んだ方が良いのでしょうか? あと表情差分を合成する何か良いソフトありましたら合わせてご教授よろしくお願い
画像が小さいと学習はうまく行かないんでアプコンしたほうがいいと思う
>>72 大きさの目安ってある?
最低でもこれくらいは必要みたいな基準とか
キャラだけ切り取るのも経験上あまり良くない 多少背景はあった方が安定する。2キャラとか写ってる場合は切り取ったり指先ツールで学習しないようにしてるけど
横だけど
>>69 みたいに白黒のマンガの画風Loraやる場合ってどのモデルがいいんだろ
画風Loraって近い絵柄のモデルがいいって意見と離れたモデルがいいって意見があってどっちを信じればいいのかわからない
>>66 みたいな例、経験あるんだけど
LORAとかプロンプトの食い合わせが悪くて一度破綻した絵がでると
以降もその破綻画風に引っ張られてしまうってのはあったよ
プロンプトを一度削除して「1girlのみ」みたいなシンプルなプロンプトで
何枚か出力したあとに、再度削除したプロンプトで出力したら治った
キスLoraで良い感じのキス画像ができたから そこから既存キャラに似せようとLoraとプロンプト入れたら なんで途端にキスしなくなるの…
i2iでControlNetで線画ぼんやり抜き出してプロンプト込みで混ぜるか
>>77 キャラLoRA自体も少なからず画風や構図を学習してるからね
LoRAのウェイトを落して調整すると上手く行く事ある
>>79 キス要素をcannyで確定させてキャラ要素はプロンプトって感じか
なんかうまくいきそうだな!やってみる!!
>>80 自作Loraなんだけど学習元画像はキス顔なんてないから
そこがよくないんだろうな・・・横顔の画像すら少ないし
いまのとこ数値とプロンプト調整じゃ全然キスしてくれなかったので
キスLoraだけで生成した画像をi2i+キャラLoraで何とか1枚作れた
就寝中にt2iで様々なパターンのキスを大量に作ってくれてるのが理想だが簡単じゃないなー
好みの女性に色んな衣装で着せかえしたりしてドはまりする程楽しんでたのですが具体的に何かさせようとすると全く言うこと聞いてくれず壁にぶちあたった感です 皆さんよくモデルの切り替え速度や容量の事を言ってますが大体いつも決まったモデルを使っててあまり気にしてませんでしたが、一つの絵を求めてなるべく色々なモデルで出して見るのが良いのでしょうか それともある程度決まったモデルを使い分けてる感じですか?
open mouthとclose eyesがかち合ってしまってそれぞれ半空きになるんですがなんか対策方法ってありますか。。?
>>72 やってみるわ
>>74 多少はってのは半分くらいかな
切り抜くの面倒やし助かる
今更ながらControlNetのdepth使った部分修正をやってみたんだけど、 手の修正がぜ〜んぜん上手くいかんくて沈んでる 明日またチャレンジするけど手順が悪いのか?解説サイトのおすすめとかあったら教えてくれ
>>83 根本的解決じゃないかもだが
目はclose eyesのままで口はroughとかscaredみたいな
表情のプロンプトでやってみるとか
TextualInversionとHypernetworkのタブはあるのですが、loraのタブが出て来ません。 modelsにloraフォルダとloraファイルを入れているのですが、表示されない理由はあるでしょうか
>>83 (closed eyes:1.3),
(open mouth:0.5),
みたいに強弱で調整もできますね。
※モデルによって効きやすさは異なる
実写lora学習させてるんだけど 大して似てないままsample画像がガビガビに… 全然学習しきらないうちに過学習ぽくなることってある? dim128alpha64lr1e-5でやってます
>>89 俺もそんな状態だからあるかないかで言えばある
どうすれば改善できるのかは俺も知りたい
>>66 再起動して治ったなら、原因はxformersでは?
>>86 >>88 ありがとうございます!試してみます!
Controlnetのプリプロセッサである画像からdepthの深度マップを生成する際、画像の特定の部分(例えば手だけ)を指定してそこの部分だけの深度マップを生成することってできないんでしょうか? 欲しいのは手の部分で背景は逆に使いたくないんですよね。
>>83 (上段NostalgiaClear、中段chillout、下段AOM3a1b)
こんな感じでうまく再現できなかったので推測ですが
プロンプトには効果範囲があるので、その2つのプロンプトを離してあげるといいかも
あとはBREAKを使ってopen mouth BREAK close eyesと書くとそれぞれの指定が反映されやすくなります
>83
ごめん
>>94 の画像はこっちで
>83 たびたびすいません、>95のプロンプトは「1girl open mouth close eyes」のみです 1girl open mouth close eyes Steps: 30, Sampler: DPM++ SDE Karras, CFG scale: 7, Seed: -1, Size: 512x512, Model hash: 80b64299af, Model: nostalgiaClear_nostalgiaClear, Clip skip: 2
loraの商用利用できるかどうかってどこ見ればわかります?
>>93 抜き出したい部分のマスク画像を用意してinpaintで重ねて抜いてやるか元画像の不要な部分をあらかじめ塗りつぶしておくか?
今検証できないからわからんけどw
>>97 作者のうんちくを全部読むのが大前提で、リンク先やライセンス項目もチェックして魚拓取っておく感じだな
チルアウトやバジルみたいに後からしれっと商用利用禁止にして
リアル系はほぼ全部交じってるよね!規約違反だ!って冤罪やストーカーされるリスクは常にある
NAIは怒らせたところで損害賠償で訴えられても放火はしないだろうけど
この世界は俺のもの勝手に使うなって京アニ放火みたいなのはわんさかいる
防弾の為には基本的に自分で出力したものでLoRA作るのが一番安全
よっぽど金儲け邪魔されてキレてんだなとしか思えんコメント
作者殴ってたら児ポリスクまで浮上して逆ギレしてるんだろ
最近は静止画だけじゃなく動画も 作り始めているからね 動画の質毎日 良くなっている
こんな単純作業でマネタイズ出来るとか思ってるのはバブル脳だと思うけどね 最初は出来ても参入者が増えれば破綻する。グレーだからよいこはやっちゃダメだよとか言いながら自分等だけ金儲けするしか生き残れないと思うな
今も何十、何百売上出してるのは手が早いクリエイターだけだしな 一般人にゃマネタイズはほぼ不可能でしょ
>>96 ありがとうございます!breakも試してみます。
>>82 気に入った写真からタグを解析してt2iするのが手っ取り早い。
プロンプトの勉強にもなる。
Stable Diffusion Web UI アップデートしたら画像が生成されなくなりました コンソールは To create a public link, set `share=True` in `launch()`. Startup time: 15.0s (import torch: 2.0s, import gradio: 1.2s, import ldm: 0.5s, other imports: 1.2s, load scripts: 1.8s, load SD checkpoint: 5.0s, create ui: 3.0s, gradio launch: 0.1s). 100%|???????????????????????????????????????????| 20/20 [00:05<00:00, 3.59it/s] Total progress: 100%|???????????????????????????| 20/20 [00:03<00:00, 6.21it/s] なのに、UI上は 95% ETA: 2s で固まりました 直し方ありますか?
直りました たぶん、起動してたゲームとメモリ食い合ってたんだと思います
>>106 BREAKは大文字限定らしいからお気をつけてー
別のスレで質問したらこっちに誘導されたので。詳しい人いたら教えて欲しいです。 ControlNet のopenpose使って複雑な体位真似しようとしてるけど画面外の男を上手く認識してくれない、、。いい解決策とかあります?
>112 ありがとうございます。いい画角の写真探してきます
>>111 openposeはそこまで精度高くないんだよね
手足が見切れてる構図は結構な確率で間違えたりするし
controlnetって設定で同時使用数を変更すると他の機能も併用できるから、carryやdepthなんかを一緒に使うと目的の構図を作りやすいかも
あと、openposeのボーンはopenpose editorで修正できるのでそれで微調整するか
Colabに規制がかかって現在無料でLoRAを読み込んで出力できるのは draw thingsぐらいって認識でよろしいか?
仮にお互い完全に無干渉なプロンプトの場合75番目より 76番目のトークンの方が効きが強くなるのは理解したけど トークンの「強い」「弱い」というのは絶対数値化されてますか? 1ループ目のX番目以降が2ループ目のY番目より弱くなるのなら BREAKで切った方がいいと思うけど何処に切目を入れればいいのか分かりません
>>98 レスありがとうございます。windowsのペイントツールで元の画像のいらない部分を黒く塗りつぶした後、
cannyで前処理(試し忘れました...)
depthで前処理→黒く塗った部分も変に処理される
のようになってしまいます。
先にcannyで前処理した後、線画のいらない領域を黒くしてControlnetすると比較的上手くいくんですが、なんか画像が荒くなります。
depthで前処理した後、深度マップのいらない領域を黒くしてControlnetすると、黒く塗った部分も変に反映されて全体がぼやっとしてしまいます。
ペイントツールで前処理するのはやっぱり良くないんでしょうか?
>>116 一応どこにどれだけ効果を与えてるかを色で視覚化出来るextensionはあるが、結局モデルごとに違うし記述の順番でも変わるしで、プログラムのようにキッチリカッチリと完璧なプロンプトを書くってのは実質不可能かな
ただ、自分の型みたいなのを持っておくと使いまわしがしやすく、生成結果からプロンプトの修正もしやすいかもしれない
「だれが、どんなふうに、なにをする、これこれこんな場所で」みたいにブロックごとに改行して整理しておいたり、時にはブロックごとに入れ替えてみたり
>>117 depthは深度情報なので前後の関係があって、適用時に深さの適用範囲を決められる
うまくやれば前からどのぐらいまでか、後のほうの背景部分だけ、とか出来ないこともない
あと、元画像を修正するのではなく、cannyならcannyで書き出した線情報そのものを修正したほうがいいかも
で、手の情報だけをdepthなりcannyなりでやって、ポーズはopenposeを使ったり
>>115 規制がかかったのはあくまで「web UI」の起動。web UIって要はwebサーバを立ち上げてるんだけど
「Colabはそういう使い方する場所じゃねーから」と制限がかかった。
パラメータ弄るのが面倒だけどコマンドからであれば無料版でも引き続き画像出力は出来るだろうし、
「エッチな画像出力はBANに気をつけろ」もスタンスは変わらず。
CNでポーズ素材作ってるんだけど、採取方法変えるたびにプリプロセッサとモデルをいちいち両方指定するのめんどくなってきた 片方openposeなら一方もopenposeって感じで、オートで一致指定してくれる機能とかないのかい?俺が知らないだけ?
水星の魔女のミオリネみたいな髪型って何てプロンプト入れれば出るだろう?
ロングヘアなんだけど、全体が長いわけじゃなくて、イカみたいに中央だけ長いやつ
>>9 遅レスだが、コピーライト表記がプロンプトで指定している衣装名のタグの一部として学習されている。衣装系LoRAを使うとありがち。
衣装系LoRAはどうしても出典が偏りがちになる訳だけど、コピーライトを入れている単一出典の画像だと、全画像にコピーライト表記があることになり、当該衣装のタグとして学習する中にコピーライトも入ることになる。
(AIは同じタグが付いている画像の共通点を見つけてそのタグの要素として学習するから、当然、コピーライトも共通点になる。結果、衣装の一部扱いになる。)
自作LoRAならコピーライト表記を削った画像で再学習させることでどうにかなるけど、他作だと衣装の一部として学習していて打ち消しは不可能なので、生成後の画像を削るしかない。
>>124 そういう特殊な髪型はほぼ間違いなくモデルが学習していないからプロンプトではどうにもならない。
画像生成AIは、モデル学習時に指定されたタグを元に学習をしていて、その通りのタグが指定されたことを受けてそれに似たものを生成しているので、要素として学習していない状況では生成が出来ない。
例えば黒髪ストレートしか学習していないモデルに、short hairとプロンプトを入れても全く効果がない。それと同じで、その髪型はどのモデルも知らないので、描けない。
生成したければLoRA自作して組み込むのが最適。
数枚なら誤差のうちかもしれないけど、コピーライトなんかは決まった位置に表示されるから それがパターンとして覚えられてしまうんじゃないかね。
>>119 ありがとうございます。生成後の画像を修正して頑張ってみます!
>>121 そのことは知ってるコマンド出力も随分前に触ったことはあったけど
LoRAを適応して出力できたかは覚えてないんだよねDBはできたのは覚えてるけど
服装LoRA作ろうとキャプションから服装に関しての単語だけ省いて学習させても 実際使用した時には背景・顔・ポーズ・体型どれも含まれてしまう(トリガーワードを入れても入れなくても)のですが そういうものなのでしょうか? キャプションでなく画像の時点で服のみ切り出してから学習させる他ないですか?
>>131 >>125 で書いた通り、共通点を見つけてそのタグと学習するから、例えば単一の写真集から持ってきたら、背景・顔・ポーズ・体型の全てが共通点となり、タグの要素として学習される。
複数の出典で学習させて、背景・顔・ポーズ・体型を共通点でないようにするしかない。
服だけを学習させようとするのは全く意味がない。人間が着ているもの、という点が学習されないので、それで作ったLoRAでは、人の隣に置き物としてその服が着衣形状で置かれるだけになる。
AIの頭脳は人間とは異なるアプローチで画像を見ているので、人間と同じ考え方を持ってはいけない。
ControlNetのdepthで背景は変更したい時はどうしたらいいんだ? オープンポーズだと違うのになるし。人物切り抜いて、背景白にした画像を用意しても駄目だ。リアル系だけど、デプス以外で背景は変えれるのあるのか?
花札からLoRAを選ぶ時にサブフォルダで分けてるんだけど、最初のallを非表示にすることはできますか? 全部のサムネが表示されるとRAMが大量に喰われるのでフォルダごとにしたい 全部サブフォルダに入れても駄目でした
実写用の衣装loraってどう作ればいいですか? 試しに作ってみたんですが、服装だけ欲しかったんですが顔のloraとぶつかって奇形になりました。
実写用の衣装loraってどう作ればいいですか? 試しに作ってみたんですが、服装だけ欲しかったんですが顔のloraとぶつかって奇形になりました。
kohya_ss GUIのかなり初歩的な所で躓いてるんですけど、 Dreambooth LoRAで解析しても ValueError: SchedulerType.CONSTANT does not require `num_warmup_steps`. Set None or 0. で止まっちゃうんですよね 最初の二回は特に問題なく解析出来たんですが、後は全滅 原因が分かる方、いらっしゃるでしょうか?
Stable Diffusion WebUI は OpenVINOに対応してないの?
>>132 ありがとうございます、色々腑に落ちました。
ベストは「色んな人間が別の場所同じ衣装を着てる画像を多く用意する」ことなんですね。
512x768の画像をっと大きく、もっとディテールアップしたいのでhiresで2倍にしようとすると色が変になります。ついでにいうとセキュリティソフト+windows+python+ブラウザだけで16GBのメモリーの内40%が消費されてしまいます。他の人もそう?
webui A11111 VRAM8GB, counterfeit2.5
メモリ16GB+仮想メモリ160GB
hiresなし
hiresあり
最期の最期で劣化する時もあります。なんでこーなるの。ぼすけてください。
別の画像だけどなぜか最期でべちゃってなる
Sampling method Euler a
Sampling steps 150
cfg 30
512x768
Batch count 1
Batch size 1
Hires.fixをチェック
Hires steps 10
upscale 2
Upscaler R-ESRGAN 4x+ Anime6B
Denoising strength 0.7
>>140 Hires steps 10
10だと少なくないか?って気がするがあれってどの辺が適正だったかな
>>135 少し前くらい読め。
>>132 と同じ理由。
対処は正則化ファイル。
例えば「hashimotokanna, sentochihiro_wear」と「kamishiraishimone, sentochihiro_wear」を学習させて、
その時に正則化ファイルで「hashimotokanna」と「kamishiraishimone」を入れれば、sentochihiro_wearが独立する。
>>140 拡大時のhires stepが少なすぎ
hires step 0 ※ゼロは拡大前と同じstepにする
にしてみたら
あと拡大前と似た絵にしたいならdnoise strength0.5未満に、変化付けるなら0.7でもいいけど
euler a にしては元のstepも多すぎじゃないの
30~40でそれなりにならない?
cfg も6~15でいいんじゃない?30だと奇形多くならん?
まとめると
step 35
cfg 12
hires step 0
denoise strength 0.4
>>137 今使ってるスケジューラーは--num_warmup_steps=0
付けろと言ってる
>>140 色が変になるのはcfgが大きすぎるからで、それ用の
https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/7448 こういうのもあるけど、普通はcfg小さくする
他の人も描いてるけどdenoising 0.7はやや大きいかな
最後に崩れるのではなく、縮小画像の途中がたまたま綺麗に見えてるだけ
Control neetのOpenposeを使っているのですが、棒人間のポーズを正しく反映してくれません。プロンプトを入れすぎたらOpenposeの効きが悪くなったりしますか?
LoHa始めてみようと思うんですけど最初のおすすめ設定とかってどこかにまとめてありますか?検索してもLoRaのやつしか出てこなくて
loraが反映されない原因ってなにがありますか? loraタブにはしっかりと反映されていてクリックで追加しても出力には反映されません。
>>140 何でステップとcfgそんなに大きくなっちゃったのか
デフォルトは20と7だよね
自分は14と6とかが普通だな
>>150 LoRaはプロンプトに特定のキーワードが要求されるものも有るから説明をよく読む
>>148 画像を出してくれるとわかりやすいかも
あとControlNeetじゃなくてControlNetです…
>>142 >144>147>146
どうもありがとう
step、cfg、hires step denoiseを下げて、ついでにxformerとmid mem入れたらhi resが安定してきました
hi res3倍にして、さらに4X sharpで数倍に引き延ばせて楽しいな
>>146 う、うん・・・・・・
>>154 WindowsDefenderで充分って意味ではいらんぞ
セキュリティソフトがいるかいらないかは別に聞いてないから「う、うん…」って反応されるんだぞ君
>>148 control netの部分のスクショ出してみ
>>150 生成開始ごとに本体(コマンドプロンプト側)にloraのエラー吐かれてない?
>>145 ありがとう
LR warmup (% of steps) :0
で、前に一度試して駄目だったけど、もう一度やったら上手くいきました
まあここが0で良いのか謎ですが…
>>158 Couldn't find loraって出てました、、
ありがとうございます。
エラー出てなかったら反映されてるってことなんですかね?colabで回してるんですけどv10は反映されてv20は全くみたいな症状もあるんですけど。トリガーなどは確認してます
スクリプト作成したいのですが、参考になるサイトはありますでしょうか?
>>160 指定したloraが本体から見えてないな
プロンプトの〈lora:ファイル名:n〉の記述と実ファイル名比べてみて
例えば
〈lora:ramReZero_v10:0.5〉に対しramReZero_v10.safetensors
_v1.0でなくて_v10の表記みたいなの
あとそのlora、loraの様でloraじゃない扱い(lyCORISだっけ?)とか
エラーが出なくなった上で効きが悪いならトリガーワードの出番
500ステップくらいである程度反映されるloraの作り方なんて流石にありませんよね? 色々試行錯誤しているんですが、gpuが弱いため1000ステップ1時間以上かかってしまいます。 lohaだと300ステップである程度反映されるとwikiに書いてあったんですが、実際に試してみても上手く行きませんでした。
枚数減らしてダメなら時間の無駄だから、それなりのGPU買った方がいいよ 楽をするために努力するのも趣味の世界では無駄ではないけど 教科書半分も読まないで全部読んだ人と並ぼうと思うにはまだ世界は優しくない 下手らしたら目次や見出しだけさらっと読み込んだだけでほとんど内容に触れないうちに止めて知ったかするようなもんだから…
>>164 ありがとうございます。仰る通り、現在のgpuでは明らかに力不足ですので、gpuを新調出来たらまたloraの学習に挑戦してみたいと思います。
「DDR4-2666」32GB×2枚組が5,303円安の12,980円(Crucial)で特売。一部ショップの突出した安値ではあるが、調査時点で在庫があったもとしては、32GB×2枚組の過去最安を記録した。
一方、「DDR4-3200」32GB×2枚組は500円安の特価16,980円(ADATA)。最安値の動きだけを見ると小幅なようだが、平均価格は1,922円(9.5%)安の18,229円と、2万円を大きく割り込んでいる。中心価格帯は19,000円前後だ。
16GB×2枚組は、前回調査時に確認した「DDR4-2400」の特価6,980円(ARK/SK-HYNIX)が継続中。こちらも過去最安だ。「DDR4-3200」は1,994円安の特価7,780円(CFD STANDARD)で、8,000~9,000円台が多い。
なお、16GB単体品(1枚売り)なら、「DDR4-2666」が特価3,190円(ARK/SK-HYNIX)で入手可能。2枚では6,380円となり、上記の2枚組6,980円より600円安くなる計算だ。
8GB×2枚組は「DDR4-2666」が1,000円安の特価2,980円(PANRAM)を付け、これもまた在庫ありの過去最安を記録。「DDR4-3200」は900円安の3,980円(CorsairおよびG.SKILL)で、中心は4,000~5,000円台となっている。
(以下略)
https://akiba-pc.watch.impress.co.jp/docs/price/monthly_repo/1496872.html ※Crucial = 旧エルピーダメモリ = 日本製
アマゾンでアウトレットのSSDを9500円くらいで買った数日後に新品が8500円くらいに下がった思い出
>>148 です
自決しました。
Controlnetアップデートしないまま、プリプロセッサとモデルは最新のものをダウンロードして入れてたのが原因でした!
CNをv1.1にしたら普通に動きました。お騒がせしました!
>>163 そんな遅いんだったらcolab使って学習したら良くない?
>>163 同じ質問者側でまだまだ素人ですがネットで参考になるかもしれない情報をみたので置いていきたいと思います
https://note.com/te_ftef/n/n096ef64cb6c1 >◆自分の GPU を使って学習を行いました。
>条件はそろえたかったのですが、 batch_size 1 , 50000 Step とかなりの量を学習してもかかった時間は 5 時間ほどでした。
>・GPU : RTX2070 SUPER , VRAM : 8 GB
>・学習済みモデル : Waifu Diffusion 1.4 wd-1-4-anime_e1.ckpt full (5.16 GB)
>・追加学習用画像 : 2200 枚
>・Step : 50000
>・batch_size : 1
>・learning_rate : 1e-4
>◆google colab
> Google Colab のGPU使用上限に達したため 、5000 Step の学習となっています。かかった時間は batch_size 4 , 5000 Step で 2.5 時間ほど。
>・GPU : Tesla T4, VRAM : 16GB
>・学習済みモデル : Waifu Diffusion 1.3 full wd-v1-3-full.ckpt (7.7 GB)
>・追加学習用画像 : 2200 枚
>・Step : 5000
>・batch_size : 4
>・learning_rate : 5e-6
メモリー消費を減らすあれやこれを入れて、仕事行く前や寝る前にセットして置いたら、起きるころには終わるも八卦フリーズするも八卦っぽい気がします
また一度じゃなくて段階を踏んで学習もできるような情報も前みました
一緒にちょっとずつがんばりませんか
自決は「違うそれじゃない」だけど、「自己解決しました」の二文字形」って何がいいんだろうな。 「自解」?いやこれはなにか違うな……。 単に「解決」でいいじゃんって言われるとそうだけど。
自決でいいだろ いまどき自殺の意味で使うやつなんていないし、用途がニッチすぎる 自殺の意味の方を誤用としよう
マージモデルがどのモデルをマージして作られたのか、解析する方法はありますか?
>>175 ない(ブルートフォースアタックで一致するモデルが排出されるまで調べるしかない)
>>173 昔からのネタだから真面目に考える必要ないよ
本人も冗談で使ってるんだから
PNG Dateからtxt2imageに画像を落とすと、overdrive settingに使用モデルが固定された状態になりますが、 ユーザー側からこれと同じようにoverdrive settingに使用モデルを固定するにはどうすればよいでしょうか。
>>176 なら、既存のモデルを色々マージして作ったモデルで生成した画像からそのマージ元を判別する術も事実上無いという事?
>>179 マージの比率の詳細を分析するのはできないと思うけど
モデルの製作者が、ネット上にない写真を独自に学習させた場合
背景とか小物類の状況で、自分のモデルが使われているかどうかは判断できる
学習していないものは出て来ないので
animelike25dというモデルを使用させていただいているのですが、トーンが出力される際とても暗くなってしまいます。これはデフォでこういうものなのでしょうか?
>>175 ないけど、このマージモデルいいなーと思って作者にメールすると
事細かにレシピ教えてくれる
プロンプトガチャしてたらいい感じのが出来たんだけどどうにも画面がボヤけてるというかパキっとしてない感じ SEED固定してここから画面のボヤけを解消する方法ありますか?
最近Loraを追加し過ぎて180GBとかになっているのですが、webui起動時にrequests.exceptions.ReadTimeout: HTTPConnectionPool (host='127.0.0.1', port-7860): Read timed out. (read timeout=3)が出て起動しないようになってしまいました。 Loraの一部を退避させて容量を減らすと起動出来てその後戻して再読み込みで起動は出来るのですが毎回この作業をするのは面倒です。 退避させるファイルに関わらずLoraフォルダ内の容量を減らすと起動できるようになるのでファイルに問題があるという線もなさそうですが、起動時に一体なんのチェックをしてるんでしょう? ちなみにモデルファイルもかなりの容量ですがこちらは退避させても改善せずLoraフォルダ内だけで影響が出ているようです。 なんとか回避出来そうな方法があればアドバイス頂きたいです。 環境はローカル環境でGTX1080 8GB、メモリ32GB、COMMANDLINE_ARGS=--xformers --no-half-vae --disable-nan-checkです。
Loraだけで180Gって・・そりゃさすがにタイムアウト起こりそう 何個くらい入ってるの?
>>183 ネガティブ指定はどんな感じ?blurryとか入れてる?
upscaleした後の話ならupscalerは?
i2iのloopback scalerってscriptならsharpness指定とかある
AI生成って意味では邪道だけど画像編集ソフトのsharpness被せてもいいような
>>179 ないでしょうね
例えば「HiroMajima」というプロンプトで『ワンピース』の絵のみを学習させたとして、
そのCPでHiroMajimaと打ち込んで出てきた「似た絵」を「尾田」絵のみを学習したと
看破できる人がどれだけいると思う?
普通に「真島と尾田の絵をミックスして学習した?」って誤認するでしょ
fairytailとonepieceの2者間ですらこれほど困難なのに、数千の素材の解離した
AI絵から特定の画像特徴を抽出して特定するなんてできないでしょ
誰かが言ったように唯一無二の素材がズバリ出たとかの例外がない限り特定は無理
そして、少なくともCPはCP作者が恣意的に素材抽出していない限り平均化がなされるから
「プロンプトによって偶然できました」
の言い逃れに権利主張者が再対抗する術はない
>>184 > 起動時に一体なんのチェックをしてるんでしょう?
(追記)
たぶんだけど、花札マーク押したLolaタブの整列処理かな
タイムアウトはメモリ不足とかではなく、まさかそこまで長いのを想定してなくて勝手に打ち切ってるんだと思う
解決策はこれかなぁ?全然詳しくないんだけど
https://github.com/gradio-app/gradio/issues/3794 > websocket.receive_json(), timeout=1
venv\Lib\site-packages\gradioのroutes.pyのこの値を例えば1から5にしたらいい?
詳しい人頼む
自決するのはいいんだが どういう風に自決したのかを書いてくれないと 参考にならん
就職活動の面接で「社員に質問したいことはありますか?」と聞かれて「辞世の句は何ですか?」って聞いちゃった話なら知ってる。 座右の銘と言いたかったのか、それとも本気だったのか。
>>181 ぼけた感じや彩度が低い感じはVAEが入ってないだけのこと多いけどVAE入れてる?
そのモデル使ってないから知らんけど、もしモデルに指定がないなら適当なVAE入れてみればいい。
Dynamic Promptの記述 {hoge|piyo} とかも画像に残したいのですが方法はありますか?
これ使ってる人いる?
https://github.com/vladmandic/automatic うちGTX1060だからよくわからんけどRTXの人は早くなった?
RTXも30x0以下と40x0以上では世界が違うからくくられると困る感じになってきてる torch2+cu118以降で目に見えて効果が出るのは、キャッシュ増し盛の40x0以降だし それ以前は微妙な環境によっては遅くなる報告もあるくらいだしね 今の所フロントエンドが変わっても劇的に変わるようなことはないよ
バス幅削ったんでVRの性能は落ちましたけどね ただ、VRブーム自体が完全に終了していますけど(-_-;)
>>195 それは無理なんじゃないかなあ
{a|b}のプロンプトで「生成」ボタンが押されたとき、まずDynamic Promptがaかbかを選んでSDにはどちらかを渡すしくみで(たぶん)
SDはそれがダイナミックプロンプトから来たものかは知らないと思う
>>195 設定で変更できるよ
日本語化してるので英語での記述はちょっとわからんけど
Dynamic Prompts項目の二番目のチェックボックス「テンプレートをメタデータに保存:PNGメタデータにプロンプトテンプレートを書き込む」に
チェック入れると
選択後のプロンプトとは別に元のプロンプトも保存される
>195 >199の続き とするとこれは「プロンプトにコメントを入れたい」と同じ話になるのか 生成結果に影響しないプロンプトを入れる方法として、存在しないLoRAを指定するというのを以前考えた 「<lora:{a|b}:0>」 などとプロンプトに入れるというもの コマンドブロンプトには「そういうLoRAはない」というエラーが出るけど画像は出力される 実際に試したことはないので気付かない問題があるかも
>>200 横からだけどそうなのか、知らなかったありがとう
>199と>201は忘れてくれ
>>196 3060のtorch2.0.0+cu118で入れてみたけどほとんど変わらなかった
なぜかデフォでSTEPが10になってるので勘違いする人がたまにいる模様
見た目がいいので使おうかなって思ったけど、今から1111に合わせるのがしんどいのと
Process Image(PNG Infoの名前が違う)から渡すときに
t2iは「KeyError: 335」(i2iは953)みたいなエラーが出てハングするのでとりあえずそっ閉じ
>>185 2500以上ありそうです、CivitAIを毎日のようにチェックしていたらいつの間にやら…
>>188 そっかサイズそのものが問題なのかなー、とか思ってたけど単純に時間がかかり過ぎてタイムアウトしてたのか
ちょっとタイムアウト周りで調べてみます!ありがとうございます!
しかしLoraの整列処理となると今後どんどん長くなっていくのか…
確かにめちゃくちゃ減らして起動するとかなり速くなるし起動できるギリギリだとかなりかかってたな
キャッシュファイルに保存して差分だけ読んでくれるとかになってくれればいいんだが…
>>188 エラーの出所を追ってvenv\Lib\site-packages\gradio/networking.pyの179行目 r = requests.head(url, timeout=3, verify=False)をtimeout=5に変更したところ全てLoraを入れた状態でも起動成功しました!
起動時間は結構かかるけどこれは現状仕方ないかな…
アドバイスありがとうございました!
>>194 181です。ほんとでした…今まで使っていたチェックポイントにVAEが同封されていたので、こっちでできてるからVAEは違うなと考えもせず違う問題だと思ってしまいました。お騒がせしました…ありがとうございます。
どうもこんな感じで太ももあたりで描写が切れるんだが頭からつま先まで全部描写させるプロンプトって何?
試したのはfull shotとかfluu bodyとかfrom head to toeとかwhole bodyとかその辺の単語 どうしても全体描写にならない
>>207 基本的には full body で全身像になる
だめな場合は 頭とつま先に関するプロンプトを入れるとそれを無視できないので結果的に全身が出やすくなる
例えば、high heels, hair ornament, など
そうかーと思ってプロンプトに強調つけてみたら全身かいてくれた ありがとう
特にエラーは出てないんですけど顔loraが急に反映されてないですけど気のせい?colabなんですけど数日前からそんな気がして。
>>211 コラム 版のログの見方はよくわからないんだけど
どす窓みたいなところにエラーメッセージ 出てない?
>>212 なにも出てないんですよ
0%
10%
20%
で100%のログしか出てないです。
色んなノートブック試してみたんですけどどれも効いてないがして、、
>>213 ステーブル ディフュージョンの場合は
ロラが適用されていないとログのところに
ローラが適用してないのがわかるけど
コラブはわかんないの?
pc買い替えてまだCUDA入れてないのに1111で画像生成出来た もしかしてCPUでもそこそこ速い?それともCUDAなくてもpytorchはGPU使えるの?そんなことないよね
>>215 >2のインストーラーを使うまでもなく、自分でgitやPythonを入れてgit cloneするインストールでも、今はCUDAを明示的にインストールする必要はないんじゃないかな
>>215 そもそもこれだった
> 質問する人は忘れずに
> ・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
> ・状況やエラーメッセージを示すキャプチャ画像
> ・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
>>211 編集ミスで「<」を片方削っちゃってエラーもなし、適用もなしってのになったことがある
>>215 タスクマネージャー開いてパフォーマンスタブでGPUを開く。
GPU使ってるなら、専用GPUメモリの消費量が生成の時に上がる。
>>215 ですけどちょっと聞いてみたかっただけです
結果GPU使ってました
なぜCUDAを明示的にインストールしてないのに動いたのかは謎ですけどstable difussionと関係ないので忘れます
タスクマネージャのGPUのどれかの▽を押してCUDAに変えて動かしてみたらどうなるかでわかるよ たぶん最近のGPUのドライバが勝手に自動的に入れるようになっただけかと
生成完了まで待つと塗がクドくなっちゃうので生成途中(例えば70%)で自動で切り上げる方法ありませんか? hiresは使っていません
LoRA_Easy_Training_ScriptsdでLyCORISを作成する時のパラメータの入力はどこに書いたらいいんでしょうか? wikiには python3 sd-scripts/train_network.py --network_module lycoris.kohya --network_dim ○○ --network_alpha ○○ --network_args "conv_dim=○○" "conv_alpha=○○" "dropout=○○" "algo=lora" 注:1行で入力する事 と書いてあるんですがArgsListのself.network_module: str = 'sd_scripts.networks.lora' の部分のことでいいのでしょうか 最終的にどういう表示になっていればいいのかがわかりません…
>>222 拡散モデルの生成はノイズ減少過程なので徐々に濃く塗っていく訳ではないよ。
塗が濃いならVAEを変えれば調整できる。
やったことないけど、もしVAEも焼きこまれているモデルなら焼かれてるVAEを入れ替えたら雰囲気変えられるんじゃない?たぶん。
>>223 なんかよくわからないけど、一行にしろってのが改行なくせって意味だってのはOK?
python3 sd-scripts/train_network.py --network_module lycoris.kohya --network_dim ○○ --network_alpha ○○ --network_args "conv_dim=○○" "conv_alpha=○○" "dropout=○○" "algo=lora"
これをvenv上でcmdだのpowershellだので実行するんでしょ?
>>222 あれは別に最後にガラっと変わってるわけではないはずだけど・・
settingsのlive previewの数値の関係でそう見えるだけでは
70%にしたいなら例えば30STEPなら21STEPにしたらいい
>>208 full_bodyが全体のプロンプト強度に比べて弱すぎるから無視されてる
(full_body:1.5)とかやってもダメ?
あまり強すぎると全体破綻するので強すぎるのもダメだけど
なお、頭と両足先にプロンプトを置いても似たようなことはできる
けど、それをやると強引に描画するためにわざわざ骨格を壊すので、あまりお勧めはしない
(ひどいと、solo指定をしていても、両方を実現するために「頭だけ人間」と「足先だけ人間」の2人に分割しようとまでする)
横からすまん full body や whole body が効いたことは一度もない
自分は全身立ちはstanding, shoesが覿面に効くな、縦長サイズは当然として 裸足なら(no shoes:1.4)とかしとくと間違いない
ありがとうございます
>>224 濃く塗っていっている訳ではないというのはわかりますが、生成過程を見ていると明らかに濃くなっていっているので自動で途中保存する方法があればなぁと思いまして
そうすれば薄め濃いめの2枚獲得できますしね
VAE…確かにそれで色味は解決できますね
>>225 Step数を減らすとイラストの崩壊確率上がっちゃうのと、最終の塗りの濃さは変わらなかったです
見てた感じ最後2割あたりで書き込みの陰影が油絵みたいな傾向に寄る(実際はそこまで油絵じゃないけど)ので生成過程の指定%達成で途中経過を保存する拡張があればなぁって感じですね
>>210 他にもアングルや距離の指定、プロンプトに含める背景の表現でもある程度制御できるよ
プロンプトにレンズの焦点距離と絞り値入れてる人いるけど、それも全く効かない 効いたと思ってる人はたまたま偶然にそれっぽいのに当たっただけだろう
あれはその設定がそのまま効くんじゃなくて、そういう設定値をバッチ決めてるようないい写真ぽくするというだけでは
>>231 settingsのLive previewsの
Show live previews of the created imageにチェック入れて
Show new live preview image every N sampling steps. を「1」にして
Image creation progress preview modeを「Full」で生成過程見てみて
めっちゃ遅くなるけど全過程が見れる、本当に最後の方に画像がガラっと変わってるか確認してみて
以下の話はただの予想だから違ってたらすまんけど、 拡散モデルによる生成過程の後で最後に再現しきれない差分をVAEで補正しているから最後にガラっと印象が変わるのではないかな?
あー、わかりました… プロンプトに入れてるHDRがこのモデルだと効きすぎだったみたいです プロンプト後方に配置していたので終盤に効果がかかってたのかもしれません
自分も気になってるので
https://github.com/AlUlkesh/sd_save_intermediate_images これで経過を保存してみたけど、画像がちっちゃい・・128x128になっちゃうのはなんでだろ
ffmpegないから動画にできないのは分かるけど
>>233-234 カメラ機材に関するプロンプトは、基本的にただの偶然と思った方がいい。
画像生成AIのプロンプトは、ChatGPT等のLLMと違って、言葉を理解しておらず、学習時に指定されたプロンプトに対応する特徴という理解をしている。
従って、カメラ機材に関するプロンプトを有効にしたい、ってモデル作成者の意向があることが大前提。
にもかかわらず、カメラメーカー、カメラ機種、焦点、絞り、で75要素制限があるのに4要素も使われてしまう。かなり無駄が多いプロンプトで、しかも効果がかなり限定される。
ということで、モデルリリース元が使えると明言しているのでなければ、使えないものと考えた方がいい。
プロンプトでこれが効くこれが効かないってよく言われるのは、SDモデルのプロンプトがDanbooruってサイトのタグ互換で指定される不文律があるからで、 Danbooruタグの範囲であれば概ねどのモデルでも効く。が、それ以外のタグはモデルによって採用されているかどうかで効くか効かないかが決まる。 画像生成AIは「知っていることしか知らない」ので、モデル作成時に指定されていない単語が指定されてもそこから何かを連想することはない。 なので、より汎用性が高そうでモデル作成者が使ってそうなものを想像して指定してやる必要がある。
>>225 どうやら盛大に勘違いしていたようです
意味が理解できました
ちなみに学習に使うloraやloconを切り替える場合は都度この入力をするってことでいいんでしょうか?
レンズのプロンプトはミッドジャーニーがめちゃくちゃ効くんだよ その流れでSDも多少効果ありとされてる
>>240 実写系はDanbooruタグで学習されてないと思うよ
だからイラスト系と実写系では効くプロンプト効かないプロンプトがだいぶ違う
>>241 再入力するかバッチファイルに書くか
バッチファイルをググってみて
>>240 文章解析は行うので、知らないことでも実現してくることはある
現在の主流が細切れタグの羅列で文章解析には向かないから再現できていないだけ
1boy gives chocolate for 1girl.
ってやると男の子と女の子がチョコを受け渡ししている状況が描かれる
(渡す前だったり渡した後だったりと、まだ粗いが)
だが
1boy, 1girl ,gives, chocolateってやると、男やチョコレートが出なくなることがある
これは、渡すという動詞と対象であるチョコに因果がないためで
・チョコを色ととらえる
・男を渡すってどういうこと?となって男を書き忘れる
(女は学習量が多いから、除外されにくいため、女の動作として理解されやすい)
といった理由でプロンプトが無視されたようになりやすくなる
拡張機能「sd-webui-train-tools」を導入しようとしたのですが
画像のようなエラーが出ており、タブにtraintoolsが表示されませんでした。
https://imepic.jp/20230429/672940 git submoduleのupdateが必要なのかと推察しますが・・・。
どのように対処したらいいのかご教示お願いします。
使用しているアプリケーション:1111 ローカル版
導入の際に参考にしたHP
https://yuuyuublog.org/sdwebuitraintools/ danbooruタグってあくまでwaifu diffusion(とその派生)とNovelAIであって
普通のstable diffusionのモデルには混ざってないんだよね
https://michyo.net/sempetit/stable-diffusion-compare-versions/ まぁこんな女の子しか出ないの今時誰も使ってないと思うけど
>>199 >>200 めっちゃ遅くなってしまいましたけどありがとうございます
>>243 主要なものはおおむね同等よ。
>>245 文章解析をしている訳ではなく、前後のプロンプトが相互影響する仕様があるだけよ。
動詞であるか名詞であるかといった観点も見ていない。というか判定が出来ない。
>>247 ごめんね正確じゃなくて。
素のSDの話なんてここでは誰もしてないと思って省いているけど、ローカル1111で使われるモデルの話ね。
>>246 246です。
無事解決いたしました。
お騒がせいたしました!
>>245 マジかい
以前ソフトウェア板の方に書いたんだけど、a cat eats a mouse. は理解できなかったよ
関係を逆にしても同じだし、eatsの関連で食い物の画像が添えられただけ
しかも猫とネズミのハーフになっちゃう
>>251 マジじゃない。
>>249 で書いたように、前後のプロンプトが相互影響する仕様があるだけ。
文章として記述しても、SDはそれを文章として理解しない。
>>249 そりゃ一般的な用語は共通だけど、実写とイラストじゃ実際やってみると全然感覚違うでしょ
「Danbooruってサイトのタグ互換で指定される不文律」と表現するのはさすがに雑
>>253 Danbooru以外の表現はない、なんて話はしていないんだが、そんな粘着される程の話か?
1girlとか1boyはDanbooru由来で、実写でも使われるでしょ。フォロー出来る範囲は概ねDanbooru由来でどのモデルでもほぼ統一されている。
だから一般的な単語であればどのモデルでも呪文として通用する。
>>252 オレもそこまで詳しい訳じゃないけど、SDの仕様上で言えばSDのテキストエンコーダーで自然言語解析可能なんじゃないかな?
Danbooruとかで小間切れの単語を学習しすぎて、自然言語理解力が落ちただけなんじゃないかと思えるんだが。。。
SDのテキストエンコーダーが実装として何を積んでるか知らないけど、今さら前後1つ2つのワード(トークン)しか見れないテキストエンコーダーなんて積まない気がするけどなぁ
stable diffusionって自然言語処理モデルじゃないの
猫がネズミを食ってる画像が学習されて無ければ出てこんよ 猫が何か食べてる画像をそもそも出せるのかっていう話だね 英語って書かずに自然言語って書いてあるように、英単語や英語文法が全部理解できるわけではないので eatやめて捕まえたとか咥えてる方が出やすいと思うわ 期待してXLになってChatGPT搭載されるようになるまでまつか、考えを今のモデル制作者のレベルに合わせるしかない クリップバグもあるし、TVみてAIが何でもできると思ってる文系にはまだ早い世界だ
>>252 ,255
一応、主語と目的語の把握はできていると思われる
それと、修飾語が遠く離れたトークンに対して生きてるように見受けられる
なお、現実的には文章を完全に読解しているとは思わない
SDで使われているLAION系の評価がプロンプト個々(≒単語・ワード)ではなくテキストとなっている
したがって、CLIPの際にLAIONで既に評価(≒文章解析)された数値との一致をみているものと思われる
したがって、文章レベルでの理解は間接的にできていると思われる
間接的ゆえに、間違った因果でもOK出してしまうのでしょうけどね
CLIPがテキストで評価ゐている以上、それより短いワードとの強マッチングはほぼ不可能
弱マッチングが繰り返されるため、プロンプトではあいまいに解釈されている
以上が自分の所感です
SD製作者陣自身が言語をどのように理解してるのかわからんというのも道理です
食べてるところはグロそうなので、SD1.5でカピバラみたいなネズミ咥えてるところで許してください
>>251 ・LAION系に「猫が鼠を食う」にずばりgoodを出したCLIPが少ないと予想される
・「猫が鼠を食う」をCLIPが分割して学習したすべてでgoodを出す学習結果がほとんどない
(猫や鼠単体にだけgoodを出してしまい、食うには至らない)
以上2点から、猫が鼠を食う画像は生成されないものと思われます
おそらく内部では「猫が鼠を食う」という解析自体は成立しているものと思われます
AI自身は「猫が食ってる」、「ネズミを食ってる」、「猫と鼠がいる」、「猫が鼠を食ってる」のパsターンをすべて頭に入れてると思います
しかし、「猫が食う」「ネズミを食う」「猫が鼠を食う」に対するclipがCP学習状況により存在できないため、無視されている(再現できないでいる)と考えます
となると、残りは「猫と鼠」ですから、それを1素体に押し込もうとしてfused・・・
仮にCPが「猫が食う」を学習していればネズミといわなくとも猫が何か食べるでしょうし、「ネズミを食う」を学習していれば(猫コスプレした・猫と融合した)人間(女)が食ってくれるでしょう
以上が個人的な見解です
>>258 別に論破しようとかいう訳ではないんだが、学習した画像しか出ないとなったらそもそも生成系のDLに意味がなくなってしまう。
生成系DLの利点は潜在空間上で連続的に潜在ベクトルが変化できること(そうなる仕組み)によって学習してないものを生成できることにあるはずだから。。
死んだ鼠ってやればもうすこし・・・
>>260 なお、割けた皮膚とか血だらけとかやっちゃうと、それが鼠であると強く指示しても猫まで血だらけになると思われます
ネズミの~という修飾よりも「皮膚」「血だらけ」が再現できるフィールドに先に内部でgoodが出ちゃうからだと思われます
描くには耐え難いグロシーン何かをAI任せで作画したい
乳首を生成しない方法はありますでしょうか nsfwをネガに入れても出るんです
loraのtgirls_V3bてどこにあるんですか?
縦長比率(3:4or2:3)だと胴長になる率が高いですがこれを抑えるネガティブプロンプトなどありますでしょうか
>>269 NPではなく、PPにshort_torsoかなぁ・・・しかし・・・
胴長の時はseed(乱数画像)自体が胴長を助長してるから、そのseedをプロンプトで補正せずにあきらめた方がいい気がするけどね
(プロンプトで胴を短くしようとしても、胸の好位置と尻の好位置がもともと離れてれば破綻しやすい)
画像生成続けてると崩れてくるんだけど、 (特に歯がスカスカになったり、乳首が赤っぽく・白っぽくなったり) 再起動しても治らなくなって途方に暮れてる。 なんか設定変えたらならなくなるのか、俺だけなのか。 環境そのものを再構築してもやっぱまたなるんだよなぁ・・・ 過学習されてる?のを削除して良くなるとしてもそのファイルもわからんし、困ってる人他にいない?
>>269 3:4や2:3くらいなら縦長にしても全身が出やすくなるだけで、胴長になる印象はないなあ
モデルはなにを使っているのかな
シードリサイズを使うと胴長にならない比率のまま縦長の画像を出せるから、これで希望通りになるかも
https://note.com/baron_marmarade/n/n5f79e1f89ffa >>272 環境を再構築してもなるのは重症やね
自分だったら別のモデルでも試してみる、ちゃんとした画像をPNG Infoから再生成する(前のプロンプトが残ってる気がするときに効果がありそうな対処法)、入れてる拡張機能を見直すとかかな
おかしくなってる画像をメタデータつきで載せてくれたらなにかわかるかも
メタデータが削除されないアップローダー↓
https://catbox.moe/ 逆に固まって良い感じの画像が出ることがあるが 同じ設定にしても再現はされなかったりする
https://majinai.art/ja/i/5fo9IXL ロリ巨乳を作りたくて、
等身とバストをXY plotsしてみたんですけど、
もっと正確に反映させる方法や、反映するモデルってありますかね?
ちなみに、うpしているlolidiffusionがモデルの中では一番マシでしたね、
今まで、7th_anime_v3,AOM2,camelliamix25,dorayakimix_v20,meihahetai,mixprov45をためしてみました
>>271 全体的に良い感じの絵に限って、でも胴だけちょっと長いんだよなぁってのがやたら多い気がして
あきらめてガチャ回す方が健康的かもですかね
>>273 チルアウトのNiってやつです
教えて頂いて今回初めて Resize seed 使ってみました
顔や衣装は変わってしまいますが構図は大体維持されるのでちょっと面白いですね
>>274 サンクス。
乳頭が真っ白になったり真っ赤になったりして、プロンプトはこんな感じ。
parameters
best quality, masterpiece, (photorealistic:1.4),(1/2 sec shutter,field of depth,bokeh:1.3),perfect light,side shot,
(solo:1.5),medium hair,messy hair,bangs,brown dark eyes,(nude:1.4),light pink small nipples,(small breast,breasts squeeze,clevage:1.2),Upward-facing breasts,18yo,sweat,
(buttoned white business shirt,front of shirt is open:1.3),(shy big smile:1.1),looking at viewer,city station,shirtlift,
<lora:shirtliftALORAFor_shirtliftv1:0.5><lora:koreanDollLikeness_v15:0.1> <lora:Liyuu:0.4>
Negative prompt
paintings, sketches, (worst quality:2), (low quality:1), (normal quality:1), ((monochrome)), ((grayscale)),
skin spots, acnes, skin blemishes, age spot, glans, lowres,bad anatomy,bad hands, text, error, missing fingers,extra digit, fewer digits, cropped,jpegartifacts,signature, watermark, username,blurry,bad feet,cropped,poorly drawn hands,poorly drawn face,mutation,deformed,jpeg artifacts,signature,extra fingers,fewer digits,extra limbs,extra arms,extra legs,extra breasts,extra nipples,malformed limbs,fused fingers,too many fingers,long neck,cross-eyed,mutated hands,polar lowres,bad body,bad proportions,gross proportions,missing arms,missing legs,(ornaments on hair:2)
meinamix9でHires. fix有効にしてアップスケール掛けると無駄に足だけが長くなって
9~10頭身になるんで足の長さを調整しようとしたんだけど上手くいきません
ネガティブに(long legs:1.6)
https://www.cweb-pix.com/image/43re ポジティブ側に(long legs:0.2)
https://www.cweb-pix.com/image/43rj Denoising strengthを0.7から0.55に変えてみたけど変わらないから
ガチャしないで済む方法は無いでしょうか
years old→yoなんかな? そいや見た事ある
>>281 元の人のLoraの作例見ても、誰もfullbodyでは出してないね
https://civitai.com/models/10942/violet-evergarden 実験してみたけどネガに(tall:1.4)でちょっとマシになるくらいか
モデルをAOM3A3の方がいいかも?
meinaとかいうモデルだとやたら長くなる気が・・
>>279 ネガプロめっちゃ長いな
みんなこんなもんなんだろうか
>>280 >>282 正解にはy.o
bad anatomy,bad handsとかなんとなく入れてるけど効果あるのか分かんないな
リアルモデルやLoRA焼き付けて混ぜるようになって そのあたりのDanbooruタグ使ってなければどんどん影響薄くなるってだけかな 階層マージで潰されたりNAIが薄くなったって事でもある
>>286 ワイドナショーでTASUKUが
20 y.o.
って書いてた
実際4~50歳くらいまでは概ね効いてる感じ
yoで個人的にはばっちり効いてるよ。 自己解決だけど、たぶんliyuuLoraと干渉したっぽいので、FACEパラメータを付けたら謎の髪飾りがなくなったのも含めてよくなったっぽいです。 ネガティブプロンプト、なんかどっかから適当に持ってきたやつ貼り付けて使ってて、ある時長すぎると思って削ったら画像の質自体が変になったので惰性で続けてる。 皆どんなんつかってんの?
1つの動画素材を元に、i2iとcontrolnetを両方適用したいんだけどそれって現状できない? i2iのbatchに対してcontrolnetを掛けたい感じ。 静止画i2iに対してcontrolnet m2mを適用まではできたが、 あくまで静止画に対してムービーcontrolnetできるってだけだった。 1111ローカル環境です
>>288 自分の中では、だけど・・・
それらが副次的に学習しているプロンプトの意味ではないほかの効果の
相乗も加わって、NPのbad系は強すぎないなら並べ立て捲った方がいい
という結論になってる、
bad系の呪文の登録はほかの人も全体的にbadだと思う絵が登録されやすい
(単項目のbad要素をわざわざ目くじら立てて探す人は少ない)
だから、それらを雑多に多く含んだプロンプトを並べると、副次bad効果ごと
bad要素を排除するから、マスピ指定とかしなくても絵がきれいになりやすい
こんな認識
逆にgoodは散漫になりやすい
breastsの大きさの認識を考えればわかる
スイカサイズ胸をlarge_breastにするかhuge_breastにするかgigantic_breastにするか
人によりけりで統一性がない
ちなみに、俺が登録者ならbad_anatomyに突っ込む(・・・冗談ですが)
>>293 ネガティブプロンプトはどれかひっかかればいいから適当に並べとけ、でいいけど、ポジティブはピンポイントで爆撃するよね?ってことか。
Kohya版で自作したLoRAを1111ローカル環境で画像生成するとエラーになります 教師画像30、正則化なし、リピート=5、epoch=10、network_dim=128、network_alpha=64、resolution=512,512、optimizer=AdamW エラーログ NansException: A tensor with all NaNs was produced in Unet. This could be either because there's not enough precision to represent the picture, or because your video card does not support half type. Try setting the "Upcast cross attention layer to float32" option in Settings > Stable Diffusion or using the --no-half commandline argument to fix this. Use --disable-nan-check commandline argument to disable this check. Upcast cross attention layer to float32はチェック済みですが、生成エラーは変わらず LoRA設定を一部変えて、optimizer=Lionにした場合か、合計ステップ数を90にした場合(画像30、リピート1、epoch3)はエラーにならずに画像生成できました AdamWでステップ数1500くらいで動かせるようにしたいのですが、このエラーはどんな原因で発生するものでしょうか?
>>285 AOM3A3に限らずAOM3系って指定した以上におっぱい大きくするのは良いとしても
ムチムチのレザーっぽいのが多くて好きじゃないんですよね
novel 使っとるんやけど、一度に複数枚生成出来るサードパーティーのアプリなりサイトってある??
>>294 >ネガティブプロンプトはどれかひっかかればいいから適当に並べとけ、でいいけど
NPは要素が消えることで成立するので、PPとの兼ね合いを気にしながら、かな
>ポジティブはピンポイントで爆撃するよね?ってことか。
glassが好例になる
glassは「ガラス製品」と「眼鏡」の両方に効果が出る不便で強いプロンプト
だから、PPに(ガラス製品:1.2)・NPにglass、PPに(眼鏡on顔:1.2)・NPにglassってやると
glass移りを防げる確率が高くなる
で、この時のNPのglassがNPで副次効果を覚えているという究極例にもなるかな
>>277 ありがとうございます~
https://majinai.art/i/aENhcD3 一応できました。
しかし、AIイラストは
バストサイズか等身、バラバラに指定するのは難しいですね…
特にロリ巨乳とか、らんまみたいな体型を作り出すのは難しそう・・・
こうなると、自分で体型loraでも作った方が良いのでしょうかね?
>>299 説明不足で申し訳ない
oppai loliは等身を縮めたまま巨乳にしやすくするpromptだからloliやtoddlerと併用する方が効果的だと思う
これ探してます lora:SORA_v01 lora:onOffLora_v128
>>298 細かい話で申し訳ないんだけど、眼鏡はglassesなのでそれで区別できそうな気がする
>>302 もっと細かい話で申し訳ないんだけど、単語じゃなくてトークンに分割されると思うので
glassesはglassと##esに分けられるかesは消されるか、一般的にはそんな感じじゃなかったっけ?
1111のローカルですが、 デフォルトでステップ数を30にするにはどうすればいいですか
>>304 SDのフォルダにあるui-config.json内の
"txt2img/Sampling steps/value": ○○
の値を変えてください
他も色々できます
>>304 >5
> Q:起動時の初期値や数値の増減量を変えたい
> A:1111をインストールしたフォルダにある「ui-config.json」を編集
>>303 あーそうかなるほど、と思ってプロンプト入力欄で確かめてみたところ、glassesは1トークンのようでした
pixivやTwitterに投稿されてるイラストで気に入って自分も同じモデルで試してみたって場合がよくあるんだけど そのイラストが何のモデルを使っているのか調べる方法ってある? 今自分が使っているのとは違いそうくらいにしか分からない
よくある絵柄のを言い当てるのはほぼ不可能じゃないかな、独自にmergeで混ぜてるかもしれないし
https://civitai.com/models/44329/nigi3d このくらい個性的なのはわかるだろうけど
>>308 PNG がそのまま上がってるんだったら
png インフォに入れてみるとか
>>308 PNGでタグが埋め込まれたまま掲載しているか
Twitterとか別のSNSで明言してるかぐらいじゃないかな
ビックリするほど初歩的な質問なんですけど Stable-diffusionフォルダとかLoraフォルダとかってstable-diffusion-webuiフォルダより上の階層に置くことってできますか?
>>312 できるけど設定変更するとめんどいだろうし各フォルダのハードリンクはればいい
>>313 ハードリンク機能自体を知らなんだ…
これむしろ仕事に使えそうだなあ
>>309-310 やっぱり基本は難しいか…
同じモデルでも特に光源の設定で印象全然変わるしな
ダメ元で聞いてみるかな
>>307 (
>>302 )
glassの三人称単数現在がglasses
だから、LAIONがglasses(眼鏡の三人称単数現在?)をglass(眼鏡の単数形)と誤認している可能性がある
解析力の強いChatGPTとかなら文脈で誤用の可能性を判断できるのでしょうけどね
指示側と辞書側の双方向からの内部変数(≒中間言語)で一致判断するLAIONではこの判断はできない可能性が高いです
(プロンプト側がガラスで指示した中間言語と、辞書側が眼鏡から変換した中間言語が、glassesとして一致してしまう可能性、およびその逆パターン)
推測の域を抜けず申しわけない
>>312 1フォルダなら起動オプションのコマンドラインに --ckpt-dir="パス" を使うとか
Windowsの機能の mklink を組み合わせてサブフォルダに割り当てれば分類込みで自由に管理することもできるよ
どのモデルでも「たれ目」がでなくて困ってる tareme,turimeの数値調整しても焼け石に水だし i2iでそれっぽいたれ目がでるときはあるがそれも運が良ければといった感じ 同じ様に試行錯誤してる人がいたら知恵を借りたい
>>318 自分でやった範囲だとどのモデルでもEasynegativeを外すと
クオリティと引き換えに多少たれ目は出やすくなる
あとtaremeよりdrooping eyesの方がマシな気がする
>>318 呪文で効くかは分からんが、英語表現では "downturned eyes"
>>299 https://majinai.art/ja/i/loQ6Opx こんなのとはまた違うのかな
(plump, chubby:0.6)入れると巨乳化しやすい幼女も巨乳に成るよ
夏っぽくしようとサーフボードもたせたらグニャグニャになるんだがどうすればまっすぐなるんだ…
テニスウェア指定しただけなのにひん曲がったしゃもじ持ってきたからなぁ 手持ちの長物はなんか辛そう
まだまだ実用段階じゃ無いなこれ、VRAMをテラバイト積んで、世の中の常識を徹底的に学習させなきや使い物にならん
--ckpt-dir="パス" を使ってモデルだけm.2 ssdの別ドライブに移してそこを参照してますが重いモデルだと読み込みに5分とか掛かるのはスペックの問題ですかね?
頻繁に切り替えるならNVMeのGen3~ぐらいの速度が欲しいね 最近急激に安くなってるし買いやすいと思うよ すでに速度確保してて遅いなら要因は別だろうけどw
めっちゃ身体テカテカにする呪文ってありますか?リアル系です
>>328 (extremely awesome detailed deep-silky-healthy-lackwarm-foundational-soft-skin:1.1),
extremely awesome detailed gleaming wet white skin,
これで調節したらどうっすか。
頭のサイズを小さくする呪文ってないですかね。 (small head:1.3)とかで調節しようとしてるけど、まったく変わらないし他に呪文あるのかねぇ。
rtx3090導入して爆速生成できるようになったのは良かったんだけど、 ファンが小型掃除機並のクソ爆音で回って困ってます。 グラボメーカー純正のファンコントロールソフトでコントロールしようにも、GPU温度が80度超えだすと強制的に爆音回転し始めます。 本末転倒な話なんだけどGPUの80%くらいでSDを使い方法とかってないですか
>>330 petite faceぐらいしか効いた記憶がないな
いろいろ入れてもあんま影響しなかったからモデルの影響が大きいんじゃない
>>331 できる手段は電力リミット調整して温度下げるぐらいじゃないか
ファン速度が可変なほど気になりやすいからあえて70とか80%で速度固定するのもいいと思うけどね
>>331 ケースの冷却(ファン数とエアフロー)が十分じゃない可能性があるので見直す
あとはグラボの下にケース内補助ファンをつける
ただし例えば長尾のグラボ用補助ファンのトレーはカードスロットにつけるタイプのグラボのステーと干渉することがあるので要注意(長尾がダメって意味じゃないよ)
>>331 今更3090とか知らんがな
4090に買い換えろ
>>331 去年の夏は3070とAfterburnerで乗り切った
80%とかにしてるので爆熱だったので3090は相当ヤバそう
3090は知らないけど4090でも爆音でもない状態でほぼ60度台か、いって70度ちょいよ 冷やし方次第だと思う、あとファンは数増やしてフル回転させないようにする方が静かなこともある
controlNetで、光源の位置を指定する方法ってありますか? 3Dで作成した画像をコントロールネットに投入して画像生成してるのですが、 構図や立体感は指定した通りになるのですが、光源だけは大まかにしか指定出来ないのがどうにももどかしくて・・ 画像でこの位置から光を当てる、と指定出来ないかと
3090だけど水冷で組んでもらたBTOだから無音だな〜 熱は今度見てみよう
>>330 自分は(tall:1.2)とか使う
加えてネガにloli
>>341 control_v1u_sd15_illumination
badhand作者が作ってるbadv5お手軽でよさそうなんだけどどう?
>>345 一つではダメなときは何やってもダメっていう時があるので、複数使ったりinpaintモデル使って描き直した方が早い
>>331 3080,3090はGDDR6Xが爆熱になる
これは仕様だから当然やね
>>344 情報サンクスです、こういうのを作ってる人もいるんですね。
huggingfaceのページと作者の人の中国語のサイトは見つかったんですが、どうやったら使えるのか自分には全く分かりませんでしたorz
まだテスト中って書いてあったのでたまにチェックに行ってみようと思います。
他のコントロールネットと併用出来ると、とても便利そうですね、これ
謎技研っていうサイトに、コントロールネットで構図を指定して、img2imgで光だけの画像を入れて実行すると
うまい事合わさるような技が書いてあったので、しばらくはこれでやってみようかなと思います。
SSDの消耗を抑えるためにモデルフォルダはCドライブから移したけど、その目的ならLoraも移すべきですか?
格安SSDでも増設して突っ込んどけば?1TBで6千円の時代だぞ
衣装のトップスとボトムスそれぞれのLora作ってトップスはこのLora ボトムスはこのLoraって出来ますか?
>>352 移動先のドライブも一応SSDなのですが、読み込み速度が天と地ほど違うのでLoraを移すのを迷ってました。ひとまずLoraはそのまま、CドライブにはなるべくSD関連以外は置かないようにしてみます
>>300 ,321
ありがとうございます~
呪文をみてみましたがバスト呪文が入っている所をみると
(plump, chubby:0.6)はロリ体型呪文かな?
(oppai loli)はバスト呪文だったので…
ちょっと合成してきますw
xformersを導入しようとしているのですが batファイルに-xformersを記載すると、プロンプトが「賽度formers」みたいなのが出てきてエラーになります。 どこを直せばいいのでしょうか
webuiのpythonは3.11にした方が良いですか?速くなったりとか? どっちもインストールされてるのですが、勝手に3.10を指定して起動していますが
356です あの後、画像を生成してうpしようと思ったのに上手く行かなかったので文章だけで説明を… バスト:flat chest,small,meduim,large,huge,oppai loli, 等身:toddler,child,loli,oppai loli,teenage,young,mature, と試していったのですが、どうもバストサイズに等身が引っ張られるようで 低等身+巨乳は作りにくいですね しかしながら、oppai loliは等身、バスト共によく効くようです またテストに使ったmodelは低等身と普通等身の二種類しか持ってないようなきがします あと、おまけに等身呪文と10ydなどの年齢呪文をxyplotしてみたのですが、効きが悪いようなきがします 等身呪文としてchildやloliとか使っていますが、やはり年齢様子がつよいようですね、 等身としてちゃんと機能するのはoppai loliとpetiteぐらいで、それもlarge以上になると等身があがりますね 以上の事を coppermix,dorayakimix,lolidiffusion,meniahentai,で試してみましたが 他のmodelならちゃんと効くかもしれませんね 効きやすいmodelがあれば情報のご提供お願いします
10ydは10ヤードの略だからそりゃ効くわきゃない 10y 10yr 10yo 10y.o 10y.o. 10y/o 10y-o 10years old と色々あるから好きなの選べ
10yoはDanbooruタグの効きやすいNAI系 10 years oldは実写系効きやすい 半分ずつ混ぜたモデルだと、10yoの方が2Dロリ顔に寄る感じ モデルによるけど、基本的に学習タグのつけ方が違うので効果が違うってだけ頭に入れておくとバリエーションやコントロールが楽になるよ
>>358 笑った、みんな一度はやるよね
>>360 3.11では動かなくなります・・
カーテシーが好きなんだけどどういうので行ける? ポーズはCN使った方が良いのだろうけどVRAMがね…
AOM2のマージでレシピにあるAdd Difference @ 1.0ってどういう意味ですか? ABCモデルを1.0でadd diffすると画像が全て破壊されてしまいます
>>367 差分を足すって事なんだけど、AにBからCを引いたものを1.0の割合で足すわけだ
BにCの要素が無い場合、マイナスになるので、Bがそのまま足されてAからC要素が引かれるのでほぼ間違いなくめちゃくちゃになる
マージはモデルの学習データだけではなくその他の細かい制御情報もあるので
よくある「B:NAIFULL-C:NAISFW」はNAIのNSFW成分のみ足したい場合に使う。
当時はANYの潰れたエロ部分を強化するとか、Gape入れて偏ったエロ情報をNAI寄りに戻すって時に使われた
ざっくりいうと、LoRAのない時代にB:学習モデルからC:基本モデルを引いて差分のLoRA的部分のみをAに足すやり方なので
Cに追加学習やマージしたモデル入れると大抵めちゃくちゃになるよ(学習が少なければ影響少ないという感じ)
今は階層マージもあるし、LoRAをモデルに焼き付けられるし、基本モデル分からないものが多いのでAdd Differenceは出番があまりないと思う
NAIリークモデルや商用利用不可モデルを使わない、NAI&バジル&チルアウトフリーモデル望む人も多いしね
>>368 なるほど、詳しくありがとうございます
BCは成り立つ条件がいるんですね
AOM2の特定の箇所が好きだったので
秘密を知ろうと気軽に始めたけどマージ沼恐ろしい
>>364 マジっすか
ならアプデしなくて良いんですねサンクス
質問
controlnetのopenposeがうまくいきません。訂正やアドバイスお願いします
状況説明
webui1111でcontrolnetのopenposeを使ってポーズを取らせたいのですが初歩で躓いています。
4-5サイトくらい読み比べてやってみたけど、
うまくいく時もあれば、全然反応しない時、グロっぽいバグ画像になるのが多い。プロンプトやi2iの方が直接反応があります
棒人形制作
openpose editorで簡単に弄ったのをPNGで出力後、画像編集ソフトでサイズやポーズを再編集し、512x512び透明ありのpngにして棒人形として使用
結果
https://majinai.art/i/6VWvnTo 手順
webui1111、ControlNet v1.1.116、上の棒人形を入れて
Enableチェック、Low VRAMチェック、
Preprocessor 無し
Model controlpose-fp16
Control Weight
t2iで1 girlで出力
その他設定は画像にて(weightは基本1 ControlNet Control Modeは基本balanceだけど、2にしたりControlNet is more importantにしたり数通り試したけど全部だめ)
10回くらい出力しても1つもポーズが反映されません
試しにプロンプトを沿えてみたら成功率があがり、
何のためにopenpose抜きでプロンプトを入れたら、pose入れても入れなくても結果は同じみたいです
何が間違ってますか?
allow previewチェックして💥押してる?
>>371 人間は脳内で3D化して認識できるから手と足が別々だってわかるけど、こいつは2Dでしか認識できないから無理
>>371 とりま公式で新しいOpenPoseのモデル拾ってきて差し替えて
>>371 結局ステーブル ディフュージョン
オープンポーズだと こういうのできないから
3D モデル やり始めたよ
>>321 動くようになったらだけど
添付のopenpose画像で作成したやつ
似たポーズで作ったやつ
腰・足・手の位置指定むずいよな
openposeでやれないならフリーのポーズモデル写真探して
openposeプリプロセッサあててどんな絵になるか見てみた方が良い
夜中の薄暗い部屋を生成したいのだけど呪文あります? non-lit入れても間接照明が入ってしまう。
>>377 黒み掛け
(transfluent black_filter:1.6)
倍率はお好みで
プロンプトは、出来れば冒頭で
当然ながら、白みがけることもできるしほかの色味にもできる
このプロンプトの場合、画像全体がその色に引っ張られやすくなるのが弊害
CLIP1とかどこで設定するの? それらしい項目が出て来ないんやけど…。
Clip skip 設定方法でぐぐれば一番上に出るやろ
controlnetアプデしたら(Sun Apr 30 14:04:41 2023)、detectmapが保存されなくなったんだけど俺だけですか?
みなさまご指導ありがとうございます。
チェック入れて、module入れて、ついでにAUTOMATIC1111をwin pullしてみました。さっきよりは若干進歩しました
https://majinai.art/ja/i/8ji__81 https://majinai.art/i/ZXBf-KX >>372 いいえ。押してなかったです。押してみましたが正直違いはよくわからないです
>>373 むむ・・・そうですか
肌理や着物の素材感を残しつつ、ノイズが出にくいアップスケーラってどれでしょうか?R-ESRGAN系は詳細がつぶれてしまうし、ESRGANx4はノイズがひどいです。 あと、アップスケーラを二重にかける意味ってありますか?
顔に影が当たってる画像が多いんだけど明るくする呪文あります?
しかし棒人間作った奴どうして首から脚 生やしたんだろうな おかしいしポーズつけにくい
>>386 ありがとう
けどあんまり変わらないかも
>>388 ネガにshadowとかshadeとか追加したら少しはマシになった気がする
逆光で生成すること多すぎるんだよね
>>385 参考画像上げた方がもっと適切な呪文教えてくれるんじゃないの
アップスケールやレストアフェイス以外で全身像の顔が崩れない方法って何かあります?
>>392 ・画像解像度や縦横比率を学習モデルに合わせて最適化する
・Latentの影響範囲を区切る、複数の拡張がMultiDiffusion理論を実装してるのでこれを使って前項を疑似的に行う
・全身像用の追加学習をする、ちからわざ
色々考えられるけど目的に合うかどうかは判らない
>>389 肌が色白になるね
これいいな
>>390 確かに少し明るくなったよ
ありがとう
>>393 ありがとうございます
真ん中のちょっとわからないので勉強します
モデルによっては直立してるポーズすらまともに描いてくれないし、いきなり裸体になるし、いきなり下着になるし なんだか一定の基準とか無いのかよって思うわ
温泉(onsen)書かせると深さが10cmくらいしかないんですが 60cmくらいにする方法教えてください
>>396 立っている というタグにも背格好様々な条件が混ざるからなー
どういう人がどんなふうにどう立っているんだって指定しまくらないとそら自由に出しちゃうよね
>>318 なんだけどタレ目キャラの目だけ切り抜いて
画像15枚くらいで自作ROLA作ったらかなり改善した
たれ目まではいかなくとも目じりが上に向かう目は出なかったよ
パーツ単体の学習は避けた方がいいって耳に挟んでやってなかったけど結構いけるもんだな
easynegative使うとまたつり目になるけど
海外のオタクや海外の絵描きはたれめ、特にみかんやまつぼっくりみたいなまるみのあるたれ目に対して興味ないのでしょうか
それっぽい単語もあまりでてこない気がします
一応単語はあるみたいですけど、AIは理解できなさそう
https://www.eyeko.com/blog/life/eyeliner-for-diff-eye-shapes/ https://superoxy.life/product_details/586378361.html tareme mod、すごくいいアイディアだと思います
需要ありますね
>>396 CP(AI)にXi-Jinping(習近平)というタグは黄色蜂蜜くまであると学習させれば、
そのCPのデフォルトは「Xi-Jinping≠中華のお偉いさん」になる
CPにXi-Jinpingというタグは現行犯のロシアのウクライナ人殺人鬼であると学習させれば、
そのCPのデフォルトは「Xi-Jinping=裏地見るぷちん」になる
CPにとってのでフィルとは人間が平均的に思い描くデフォルトではない
だから、人間が思い描くデフォルトであっても、プロンプトは事細かに説明しなければならない
(AIがそれをすべて網羅できるかは別の問題だが)
>>397 A young girl soaking in a hot spring, submerged about deep.
A hot spring about deep.
自分の環境では両方ともそこそこの深さにはなった
ご参考までに
>>402 なるほどdeep指定ですか
ありがとうっす
初歩的な質問で申し訳ないんですが、open poseで作ったポーズのデータはどこに保存したらいいですか? jsonっていう拡張子で吐き出されてるからどっかに保存できるんじゃないかと思うんですが。
サイドパネル解放してサーキュレーター回せばええやん
BTOと自作で値段比較してたんだけどやっぱこれ自作した方がワンランク上とまでは行かないけど、同じコストでいいもんが組めそう何だけどそういうもの? もちろん手間賃とか動作保証を加味しない場合の話
colab proはwebuiを開いてるだけで、生成しなくてもコンピューティングユニット消費しますか?
そういうものか BTOは使ってるパーツがはっきりしないものが多いから自分で組むかな ありがとう
>>410 ほぼAI専用でいいなら自作の方が必要なものだけ高いパーツを使えるから結果的に安く組める
CPUをそこそこので抑えれば空冷でもいけるし
CPUは12700kあたりを考えてるけど空冷厳しい? 普通のゲームもするから4070tiのボトルネックにならない程度のCPUが欲しいとは思ってる
>>412 11700K使ってるけど空冷余裕
ただ12世代からはかなり発熱するらしいから12700Kは水冷がまあ無難だとは思うけどどうだろう?
割とギリなラインだと思うから実際に使ってるやつに聞くのがいいな
簡易水冷は3年で交換するくらいでないと クーラントが減少し冷却性能が低下する なおクーラント補充可能な簡易水冷もあるけどよ
エンコード、動画編集しないなら電力制限少ししてあげれば発熱だいぶ抑えられるよゲーミング性能はほぼ落ちずにね
>>418 ありがとうございます
だとすると結構高くつくんですね
>>407 BTO は一つのお店で全部買わなくちゃいけないので
例えば自作の場合は CPU はここが一番安い
マザーボードが ここが一番安い
ケースがが一番安い
グラボはココ一番安い
やっぱり1割 2割は安くなる
おまけに 組み立て手数料 う BTO は
取らないといけないから
結局は自作が安い
自作で一度失敗して数万損してみたほうが今後のためにもいい
アイ 画像の作成できるし ゲームもできるし 仕事もできるし何が不満なんだ
誰かこれ試した人いる?loraのフォルダの中にあるlycorisを探してるれるやつ =の右側にフォルダの場所コピペすればいいのかと思ってたけど、それだと動かなかった わかる人いたら教えてください 971 今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6732-n0om) [sage] 2023/04/21(金) 23:00:03.52 ID:9nVgFJ+a0 技術部より伝言 https://huggingface.co/Default38693/_________/tree/main/LyCORIS_mover リコリス自動移動プログラムできました。 <<<実行前にバックアップは必ず取ってね!>>> pythonインストール必須。LyCORIS_mover下にあるライセンス.mdを除いた全ファイルを同一のフォルダに保存。 mover.batを事前に編集して保存、ダブルクリックで実行。 具体的には echo "lora_dir_path にはloraディレクトリを指定" set lora_dir_path="H:\WEBUI_Last\models\Lora" echo "extractorはlora_json_extractorの場所を" set extractor=%~dp0\lora_json_extractor.py echo "lycoris_dir_pathには移動先となるリコリスのパスを指定" set lycoris_dir_path="H:\WEBUI_Last\models\LyCORIS" のset 変数名に入れてある値を適切なものに変更してください。 なお、実行後LoRAディレクトリにはメタデータ.jsonが大量に撒き散らされる上、後片付けはされないので、手動で片付けお願いします。 多分ディレクトリは再帰的に探索しないのでフォルダ分けしてあるものはチェックされません。 本スレは多分書き込めないので、いい感じに意訳して伝書鳩してくれる人募集中です・・・ >>420 自分という手間賃が入ってないな、あんなもんは一度やれば十分、色々リスクあるし
BTOはリスクは全部店側なんで精神衛生もよい
初めてはBTOおすすめだけど 一度でも触ったら自作が安いって思うよ
起動しない時の絶望感を味わいたくないならBTOの方が良い 最低でも何が悪いか判断するための代替パーツを一揃い持ってないとオススメ出来ない
起動しないなんて9821の下駄がしっかり挟まってなかった時以外ないな まさかペンチで押し込んだら動くとわ(ジジイだよ
BTOのメリットって保証とサポートよな 俺は自分で組んじゃうけど
自作でもサポートちゃんとしてるとこで買えば初期不良も対応してくれるし交換保証があるとこもある それなりに知識は必要だけど難しい話じゃないし、ある程度なれればお手上げなんてことはまずないと思うな
BTOはパーツケチってるから危ないってよく言われてるけど 普通に考えて数年後の買い替えでリピーター客逃がすのは愚策だと思うんだが 安いパーツで壊れても知らん的な売り方をいまだにしてるのかね?
今はなんでも高いので初心者の自作はリスクが高い 10万円超えのGPUを一発で壊したらもう目も当てられん AI生成学習どうのではなく知識欲としての自作が目的なら、不要なボロPCを一度バラしてみたらいいかも CPUだのグラボだのメモリだの外してふーんって眺めて戻してみよう それぞれ外した状態で起動してどうなるか?を観察したり
Celeron300Aとかで3万円くらいで初めて自作したような気がする
パソコンの自作はしたことないし知識もないけど、パチンパチンはめたりつないだりするだけじゃん オーディオコンポ組み合わせるのと大差ねえ 自作といえるようなもんじゃない
組み立て式のラジコンと比較したらお話にならんくらい簡単だよ自作PCは ギアボックスとかオイルダンパーとかサーボモータとか組み立てる手間を10としたら自作PCは2くらい オーディオの繋ぎはもっと簡単だけどまあ似たようなもん 出来上がってるパーツを箱にねじ止めするのは趣味とは言わんわ
PCの自作は物理的な組立よりBIOSやらファームウェアバージョンやらが初心者には鬼門 パーツの相性もあるし
24年ぶりにデスクトップいじったけど確かに簡単過ぎて拍子抜けした 全部のパーツ入れ替えてケースしか残ってないけど、どのパーツ入れ替えても何もせずとも動くのに感動したよ
1回自作経験するとBTO買う気にはならん 子供の頃工作好きだったなら自作も趣味として楽しめる 逆に機械弄りが苦手だったり心配性な人は無理してやる必要も無い
すんなり動けばいいけど、動かなかった時にどうすれば解決するのかが初心者には厳しい
電源入れる→スン… 使ってる→急にリセット 自作はこれに対応できるかが全て 最近は持ち込みで見てくれるサービスもあるけどそういうのを利用できる環境かも含め
プロンプトも各種設定も変更せずforeverやってるとだんだんと絵が崩れていって元に戻らなくなって いったんストップして設定少し変更したりモデル変更しても崩れる流れが止まらなくなることがあるんだけどこれってなんなの?
俺は気づかないうちにプロンプトの文法が破綻してるケースが多いな カッコが閉じられてなかったり
パソコンパーツ 買ってきて自作して 万が一 動かなければパソコン工房持っていけば 500円で見てくれるよ
>>445 スマホで検索出来るし1から組上げる動画やトラブル対処法も見られるので何の心配もいらない
寧ろ今時に初期設定にすら躓く奴なら本人に問題があるんじゃね
【構成】 OS:Windows11 Home GPU:RTX4070ti Python 3.10.6 Stable Diffusion Web uiでRolaがうまく動きません。 CivitAIで学習済みデータを使いたいと思いテストしましたが、Generateを押すとエラーを吐きます。 以下エラーメッセージです。 Error completing request Arguments: ('task(jfow1rod8i8x52i)', 0, ' <lora:gunAimingAtYouV1:0.75>', '', [], None, None, None, None, None, None, None, 20, 0, 4, 0, 1, False, False, 1, 1, 7, 1.5, 0.75, -1.0, -1.0, 0, 0, 0, False, 0, 512, 512, 1, 0, 0, 32, 0, '', '', '', [], 0, '<ul>\n<li><code>CFG Scale</code> should be 2 or lower.</li>\n</ul>\n', True, True, '', '', True, 50, True, 1, 0, False, 4, 0.5, 'Linear', 'None', '<p style="margin-bottom:0.75em">Recommended settings: Sampling Steps: 80-100, Sampler: Euler a, Denoising strength: 0.8</p>', 128, 8, ['left', 'right', 'up', 'down'], 1, 0.05, 128, 4, 0, ['left', 'right', 'up', 'down'], False, False, 'positive', 'comma', 0, False, False, '', '<p style="margin-bottom:0.75em">Will upscale the image by the selected scale factor; use width and height sliders to set tile size</p>', 64, 0, 2, 1, '', [], 0, '', [], 0, '', [], True, False, False, False, 0) {} Traceback (most recent call last): File "C:\Users\nitiy\Pictures\stable-diffusion-webui\modules\call_queue.py", line 57, in f res = list(func(*args, **kwargs)) File "C:\Users\nitiy\Pictures\stable-diffusion-webui\modules\call_queue.py", line 37, in f res = func(*args, **kwargs) File "C:\Users\nitiy\Pictures\stable-diffusion-webui\modules\img2img.py", line 90, in img2img image = init_img.convert("RGB") AttributeError: 'NoneType' object has no attribute 'convert' 解決策わかる人いますか? ChatGPTにも聞いてみましたが、原因がわかりません。
img2imgの画像が設定されてないとか? 風呂行くから確かめられないけど
>>410 メモリーの規格とか、マザボのソケットとか、
グラボのランクによって、電源の必要なワット数が違うとか
実際ファンってどのくらいの空冷力が必要なんだ?とか
BIOSセットアップとか
ケースの大きさやスロット数
色々あってめんどくせーでごぜーますが大丈夫ですか?ひとりで調べれますか?
まずは自分でメモリーかえたり、グラボをかえたりしてからステップアップした方がよさそうに思います
AIやLoRA作りも最初から大本命を作ろうとするより、試作するのが大切かと存じます
個人的に勢いでミニタワー買って、ゲーム用に秋葉で買ったハイエンドくそでかグラボが刺さらなくて泣いた記憶がございます
パーツの知識は十分にあるんだけど自分で組み立てるのだけがメンドイ 出回ってるパーツとケースを自由に選べて価格も高くなく保証も充実してるBTOサイトってある?
>>457 すいません、自己解決しました。
花札ボタンを押してLoraを選んだ後に、もう一度花札ボタンをおしてからGenerateする必要があるんですね。
これに気付かず、半日解決方法を探してしまった。
>>456 > \img2img.py", line 90, in img2img
やってるのは本当にi2iでいいの?
画像入ってないぞ系のエラーらしいけど
ド初心者です「sd-webui-train-tools」をurlからインストールしたのですが、再起動してもタブが出ません 再インストールしようとすると既に入ってますとエラーが出ます 対策として考えられる事を教授お願いします
batファイルから再起動しても、拡張機能のsd-webui-train-toolsにチェック入れた状態で「適用してUIを再起動」を押して再起動しても駄目ですね
webui.batから起動してるあるある説 webui-user.batから起動した?
バグ酷くて使い物にならないからアホでも簡単に使えるようになってるkohya_ss使った方がいいよ
>>467 やってませんでした!
からの
やっぱり駄目でしたぁ!
>>470 さんおすすめのkohya_ss使ってみます
自分も入れてみたけど同じでタブ出ないな diffusersないよみたいなエラーでてるので、diffusersっての要るんじゃないの?知らんけど
sd-webui-train-toolsは画像クロップ機能だけ使ってる pipのモジュール周りでエラー出るからインストールしないとだめだったはず
>>32 解決済みだったらすまんだけど、CFGScaleを下げると直射日光→やわらかい光になるよ。
大体3前後がいいかな。
>>474 下げすぎてもプロンプトに従わなくなりやすいとか呼んだ記憶あるから6~8の間でしか
やってなかったけど影響少ないなら7前後に固定するの止めてみるか
ダイナミックプロンプトでサンプラーをランダムに変えるって出来るんですかね?
http://2chb.net/r/cg/1682857003/271 みたいな大群衆じゃなくても(60+persons:1.5)みたいな記述って入れた方が良い?
祭りとか大都市の駅中や駅前の中に居る感じで数人から数百人くらいのモブを
大サイズじゃなく512*768くらいのサイズで背景に出したいんだけど
RTX3050でも1024×768、50STEPでも書き出せたりするけど、時折760×760でも書き出しができないことがある。 何なんだろうねこれは。
>>477 crowd 使いなさい
群衆って意味や
モブ的な人混みは全てこれで解決
学習Loraやりたくてkohya_ssのDocker入れて立ち上がってるはずなんだけど
ポート開放もしててなぜか開かない。
Ubuntu serverでやってるけどなんでなんや
> Running on local URL:
http://0.0.0.0:7860 https://github.com/bmaltais/kohya_ss#docker >>479 頭の方に(crowd:1.5)と入れてもぼっちです
>>463 webui-user.batだぞ
他のじゃないぞ
>>481 crowdedどこどこで1.2くらいやれば出るぞ
>>481 1girl, outdoor, crowd, だけ入れてネガティブは必要最低限(イージーネガティブだけとか)にして生成してみて
こういうのが出るはず
出るなら、今までのプロンプトが何かしら群衆を除外してるから見直して
出ないならモデルの問題、群衆が欲しかったら別のモデルを試すべし
おかず用 承認欲求用 金もうけ用 いろいろあるなぁ
>>484 出ましたね
ネガティブが多すぎたとかかなぁ
これからプロンプト見直す旅に出かけてきますわ
おしゃれな感じの雰囲気や、健康的お色気ぐらいを作ろうとするんだけど、大体10分ぐらいするとドエロを作り始めてるんですがどうしたらいいでしょう。
LORAの学習wikiや解説サイト見ると、どこも学習用ファイルには キャラ1人の画像を用意してって書いてあるけど これって特定のキャラを覚えさせるキャラLORAを作る場合の話でいいのかな? 複数の女の子が並べられてるみたいなシチュのROLAを作ってみたいんだが
すいません
【StableDiffusion】画像生成AI質問スレ9【NovelAI】
http://2chb.net/r/cg/1682230322/ 【StableDiffusion】画像生成AI質問スレ9
http://2chb.net/r/cg/1682213108/ の違いってなんですか?
>>478 >時折760×760でも書き出しができないことがある。
知っていましたらすいません。万が一忘れてた時や備忘録の意味で書いてみます
画像の解像度(x,y)はxもyも両方とも64の倍数じゃないといけないらしいです
だから512x:512の次は513x513じゃなくて576x576で、たぶん700番台だと768x768になるかと思います
https://golabo.net/stable-diffusion-command/ gpt 従って、xとyが等しい64の倍数である条件を満たし、かつxが512以上1300以下の範囲にある場合、xとyの値は以下のいずれかになります。
x,y=512
x,y=576
x,y=640
x,y=704
x,y=768
x,y=832
x,y=896
x,y=960
x,y=1024
x,y=1088
x,y=1152
x,y=1216
x,y=1280
x,y=1344
以上がx:y=1:1、かつxが512以上1300以下である場合のxとyの値の範囲となります。
なので2:3画像や16:9画像は若干難しいです
普通のloraの比重を5.0などにすると画像が真っ暗になったり崩壊すると思うんですが、自作loraの比重を10などにしてもほとんど影響がありません。 これって学習率が低すぎるのでしょうか?
seedとプロンプトが違う複数のPNG画像を 一括でt2iに送ってhires fixする方法はありますか?
プログラムに疎い初心者です よくわからないままにs.d.webuiを使えていたのですが PCを再起動したのち、webui起動中に 「AssertionError: Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variable to disable this check」 というエラーが出てしまいお手上げ状態です... 質問内容が重複していたら申し訳ありません 原因と対処法などご教授いただければ幸いです
その文言そのまんまググってみなよ 検索ふたつめに答え書いてあるじゃん
今だとchatGTPにエラーメッセージそのまま突っ込んで これどういう意味って聞くと結構答えてくれるよ 俺も最初やろうとしたらエラー出まくってAIに聞きながらエラー内容調べていったら CUDAがインストールされてなかった
>>496 質問が悪かったかもです
対処法のwebui.bat内に追記するというサイトは確認したんですが
webui.bat内に該当する文言が見つからず、webui-user.batの方には存在する..
仮にそちらだとして、追記したプログラムを反映させる術を知りません
情けないです
>>497 ありがとうございます
それは当方と同じエラーですかね?
chatGTP...使ったことないっす
いや俺のは別のエラー
古いグラボなんで最近の仕様に対応してなくて
GitHubのコメントとかブラウザで翻訳しながら調べまくるハメになったよ
何のエラーなのかAIくんが翻訳してくれなかったら調べようがなくってお手上げだった
496の言う通り、ググったらすぐに出てきたから
取り敢えずエラー出たらそのままググる癖つけるといいよ
“AssertionError: Torch is not able to use GPU;”というエラーの解決策【stable-diffusion-webui】
https://www.met-sp.jp/assertionerror-torch-is-not-able-to-use-gpu/ >>498 編集するとこはそこであってる
「webui-user.bat」を編集する でググって
set COMMANDLINE_ARGS=--skip-torch-cuda-test って追記するだけ
CUDAって仕組みが使えないパソコンだからスキップするでってコマンドや
>>480 外してるかもしれませんが参考になればと思い私見を書きます
docker-compose.yaml内の
> - 127.0.0.1:7860:7860
って表記の仕方よく知らんのだけど127.0.0.1を指定してるってことはそのUbuntuServer内からでしかアクセスできないのかもしれません
例えばLAN内の別PCからではアクセスできないのかも
そこにIPアドレスを指定する書き方は知らないので具体的にどう書き換えればいいかはわからないです
>>500 >取り敢えずエラー出たらそのままググる癖つけるといいよ
ですよね
ググっても全く解決しなかったので〜と入れるべきでした
このサイト内にある、追記して保存する方法をご存知の方がいたらご教授いただきたく..
>>480 kohya_ssもDockerも使ったことないからわからんけど、0.0.0.0 なんてIPアドレスはそもそも存在しないアドレスだからIPアドレス関係の設定間違ってるのでは?
>>501 ありがとうございます
とにかくググるにつきますね...お恥ずかしいかぎりです
やってみます
>>503 ご教授じゃなくてご教示ね
>>506 専門的だから間違ってはいないんじゃね
>「教授」は、専門的な知識や技能など、学問の教えを授(さず)ける意味の言葉です。
>ビジネスシーンでは、たとえば製品に関連する技術やノウハウなど、専門知識に関連する内容を相手に教えを請う際に使います。「ご教示」は一般的な質問にも用います>が、より深い内容を問いたいときは「ご教授」を用いると良いでしょう。
>>506 ,508
師と仰ぐ人からなら教授:(授けてもらう)
他の人からなら教示:(示してもらう)
正しさという意味で明確な差はないらしいが、自分はこう使い分けてる
>>501 tsakさんのところでは右クリックで編集とあるんですが
ここで編集できない場合は、取り出してエディターで上書きしたwebui.batを
直接ドロップする力技しかないんですかね?
>>508 >>510 言い訳はいいんだよ
ご教示が正しい使い方なの
>>512 お前が無知なだけなのに恥ずかしい奴
今こそ、ご教授ありがとうございますと言えよw
>>509 媚びへつらってご教授下さいとか馬鹿が
誤用してる方が気持ち悪くて無理
試してみましたが解決しなかったので再インストールしてみようと思います ご教授ご教示いただいた方々には感謝です ありがとうございました
>>514 俺はお前のその一行開ける書き方が無理
5chに金払えるのにまともにレス書けないの草生えるわ
>>504 0.0.0.0:<port>は自分が受け取れるあらゆるIPアドレスで<port>をバインドして待つって意味になるはず
例えばsatable-diffusin-webuiでも"--listen"オプション付ければ0.0.0.0で待ち受けされてLAN内の他のPCからも見に行けるようになるはず
今回の場合はコンテナ内での話になると思うのでちょっと勝手が違うと思いますが
縦長のイラストにしたいのですが 横512縦1024にすると、どうしても不自然に胴長すぎる化け物が出てきます long bodyをnegativeにいれてかなり強調しているのですが、それでも胴長になるのですが、縦幅を小さくするしかないでしょうか
>>516 書き方は自由で
いいと思うぜw
誤用は恥だよ
適用と適応とか、ずつとづつとか、日本語はいろいろめんどくさいですね しかも時代が流れたら自然と「そっちでも間違いではありません」という展開もある感じ 誤用一切なしって人はいないのかもしれない
ちょっとLoRA学習についてお尋ねしたいのですが、 一応学習環境はつべのてるろびさんの動画で構築出来て、 実際に作り上げる事が出来たのですが、 自作キャラを学習させたい場合には どれぐらいの画像が必要なのでしょうか? 低ステップ学習などされている方がおられましたら、 参考方法や、ウェブ、動画を教えて頂けるとたすかります。
>>491 64倍数縛りとかあるんですね。参考になります。
それを徹底したら、仕上がりにも多少影響あるかなあ。
まだ透明野郎とレスバするやつ居るのか… もうテンプレに入れとけよ
https://majinai.art/i/BbL9Pv3 こんな感じに自作LORAを作れるようにはなったのですが、
似ているものの、クオリティがイマイチだったり、
また、プロンプトを見て貰えば分かりますが、
ちゃんと、体型や服を指定してやらないと、変な服装を着たり、
ナイスバディーのお姉さんになったりするんですよね…
後らかプロンプトで指示するような設定をする方法はないのでしょうか?
直接、又は解説している動画、ウェブを教えて頂ければ幸いです
>>519 胴長制限はNPに long_torso
あと、PPに full_body も併用がいいと思う
胴長は、2人の胴のフュージョンということがよくある
このパターンの胴長だとlong_torso/long_body/bad_anatomyなどのNPは全く効かない
(AIは初手では「正常な胴」2つを描いてる認識で、後から計算過程で境界がわからなくなって融合しちゃってるから)
これは、腕や脚などでも同じ
bad anatomy, bad proportions, をNPに入れてるが胴長殆ど起きないな
>>502 >>504 さんくす
127.0.0.1と0.0.0.0はlocalhostアクセスだからローカルPCのIPに変更すればだいたい入れるんだよね。
Lora学習したかったぜ…
>>532 アドバイスありがとうございます
ためしてみたら良い感じになりました
二人の胴がフュージョン、確かにそんな感じもありそうでしたからNPに2girlsとか入れた方が良いんでしょうか
>>535 無知で申し訳ないですが、シードリサイズとはなんでしょうか
>>537 長文になります
・・・正しいかどうかのついても保証がありませんが、結論を先に書くと・・・
2girlsだけでなく、3girlsやmultiple_girls、extra_girlも入れておくといいい
しかし、全部おまじない程度の効果しか見込めない
それよりもPP側の矛盾の徹底排除の方が効果が高い
特に、レゾリューションは、適正より大きい画像を求めて大きくすれば繰り返し破綻の原因になる
(のちの例示の後者に該当する)
エクストラな素体は、プロンプトの効果を1つの素体に押し込めなかった時に埋め合わせる素体として出る
(なんだかここのノイズは腕がありそうじゃん→腕だけここにあるから体もここにあるよね→体2つ(でも同じ個体と認識))
または、エクストラな素体は、学習範囲外の描画の穴埋めに使う
(真っ黒で埋めるのは計算コスト高い→繰り返し計算ではここにも体ありそう→体2つ(でも同じ個体と認識))
したがって、これらは2体目を出してるという認識がAIにはない
(AIの計算が大量の三角関数での畳みかけ演算を多用としていることに由来し、えくすとらな素体はくりかえされた1体という認識になっていることがある)
(これの証明は、プロンプトに極端なな破綻倍率を与えて計算をオーバーフローさせた結果の絵を見ればわかる)
途中で2体目だと認識しなおしてAI自身が消す作業を行うこともあるので、NPのおまじないが効果なしだとは思わない
しかし、万能ではないのは確か
>>537 > 無知で申し訳ないですが、シードリサイズとはなんでしょうか
検索一発、ここで説明されています
https://note.com/baron_marmarade/n/n5f79e1f89ffa 正方形に近い縦横サイズでシードガチャして構図を決めたあと、それを縦や横に伸ばしても構図があまり変わらない画像を出す方法です
ソシムのSD本にも解説があります
control netでbatchで書き出すとcontrolNetの素材まで保存されるんだが このon offオプションってどこにあるんだ?
アングル系のプロンプトの効きがすごく悪く感じるんだけどそういうもん? 強調しすぎると崩れるし、強調しないと無視される
Lora作ってみたけど、700未満ステップでもそれなりにできるな。たまたまかな。 キャラクタの造形は大体の特徴掴んでるし。すごい。 それよりすごいと思ったのが、服の柄とかをすごく近い雰囲気再現してくれるなあ。
>>543 おめでとう!最初の一回はなぜか皆そこそこのできる怪奇現象
それを越えようとあれこれ設定凝りだして劣化させていこう
そういうのあるのね。 実際、細かい設定あるから一概には言えないと思うんだけど、一定のクオリティを保とうと思ったら、何ステップぐらいが目安なのかな? グラボがそんないい奴じゃないのでバッチは1固定でぐるぐる回していく感じ。
つか、マジで二つ目作ってみたら微妙に「あんた誰?」みたいなのが連発。2500ステップで作ってみたんだが、700未満の方が出来がいいわ…。
LoRa学習やってみようとおもったんだけどcivitaiに投稿してる人みたくうまくできない。なんかコツとかありますか?
本当にね… LoRaに関しては正解がないからみんな手探りで試行錯誤してて 自分はどうすれば良いのかさっぱり分からん 過学習があるから多ければ良いって訳じゃないのが難しい 総ステップ1500くらいが目安って聞いたけどこれもあってるのかな
lora、学習した結果を言葉で説明してくれるようになるといいんだけどな 現状は作った後に試して結果を見るしかない
civitai見てると毎日コンスタントに2個も3個もあげてる人いたから何かあるのかと思ってたけどそう簡単にはいかないか。 ありがとうございます、調整がんばってみます。
中には学習素材も配布してる人もいるからそういうのから感覚掴むしかなさそう
タグ付で学習範囲に入れてない服とかアクセサリーとかは反映はされてるのかどうかよくわからない。
>>538 別人だけど
PP側の矛盾の徹底排除
てどうすればいいんですか?
黒髪黒目キャラだと薄目の色合いで描かれてるとブラウンタグ付いてる事が多いけど 消して良いのか迷う
質問させてください。
こういった感じのハッキリとした黒主線+アニメ塗りのような画像はどうやったら出せるんでしょうか。
https://imgur.com/a/fXWnkpt どうしても同じようにくっきりとした画像になってくれません。
自分はローカルの1111でモデルは7th_Bを使っています。
プロンプトにanimeやblack outlineとかを強調したり、ネガティブにColor boldlineを入れたり工夫をしてみたのですがどうにもうまくいきません。
上記の画像を再現しようとしたらこんな感じに書いています。
↓
masterpiece ,best quality, ultra-detailed, illustration, 2020s anime, (black outline:1.4),
view from front, knee out of frame,
classroom, desks, window background, mid day,
a girl , flat chest, (child:1.1), blue long hair, blue eyes, beautiful detailed white skin,
eyebrows visible through hair, (light blue hair:1.1) half up pigtails, black ribbon, dark blue pinafore dress, white long sleeves, red bow tie, white thighhighs, pleated miniskirt,
looking at viewer, sitting on desk, closed legs, head tilt, both hands on side waist, full-face blush,
>>555 プロンプトではなくモデルかloraだと思うよ
その画像の元pngがあれば話が早いんだけど
モデルはnostalgia系統で、そこにアニメ系のモデルをマージしてるんじゃないか
なんJスレに出てたnostalyaki animeというのが手に入れば一発で似たような画風のものが出せると思う
一度に9枚生成してるけど、だんだん白黒画像の割合が増えてくる。 ネガティブに(monochrome)強めに入れてもダメだ。カラーだけが欲しい時はどうしたらいいんだ?
お二方ともありがとうございます。
>>556 検索してみたけど、そのモデルはしびたいとかにもないっぽいですね。
それ系統なものが見つかりましたけど、塗りがアニメ塗りは無いですし。
似たようなモデルを総当たりでマージしていくしかないのでしょうか。
>>557 アウトラインだけではなく影塗りまで黒くなっちゃうので違うっぽいです。
>>559 あったでー
NostalYakiMix - NostalYakiMix-Water v1.0 | Stable Diffusion Checkpoint | Civitai
https://civitai.com/models/48590/nostalyakimix >>559 nostalyaki自体はcivitにまだあるから、適当にアニメ塗りモデルをマージするかアニメ塗りloraを使えば似たようなものが出るはず
anime screencap style loraあたりでいける気がする
>>555 nostalgiaのモデルがそんな出力だったような気がする
何にせよ言われてるようにプロンプトじゃなくてモデルかloraだろうね
学習でキャラの特徴のタグは消すってあるけど消すと色が再現されなくなるんだけど何か間違ってるんだろうか まあ大人しくそのままにしてプロンプトに突っ込めばいいんだけどそうすると長くなるんだよなぁ
学習させたい要素を消すっての未だに意味がちゃんとわかってないや
>>564 例えば初音ミクを学習させる場合、
タグ消さない場合
🤖「よっしゃワイの1girl, hatsunemikuと教師画像の1girl, hatsunemikuの違いを見つけるで!ん…?大して変わらへんな?こりゃ楽でええわ」
タグ消す場合
🤖「よっしゃワイの1girlと教師画像の1girlの違いを見つけるで!全然違うやんけ!ツインテールに緑髪に服装に、頑張って学習するで」
ってことだと理解している
>>564 「こういう要素は学習しなくていいからね」を教えてる(ということのはず)
2つのキャラLoRAを1枚に出力するのが中々上手くいきません Latent CoupleやRegional Prompter、Composable LoRAやCutoffを有効にしたり、併用してみたりと模索しているのですが、 やはり片方の要素がもう片方に影響してしまうことが殆どです 特に、教師画像40枚3500stepsのLoRAの要素が、25枚2000stepsのLoRAの方に影響を与える頻度が高いのですが(逆ももちろんあります)、 この場合学習度の差異に原因があると考えて良いのでしょうか?
>>564 △
○
□
│
こういうおでん学習するときに
三角のこんにゃく、丸のがんも、四角のちくわ、串が貫いている
ってタグより
そいつら消して
おでん
ってタグのだけのがいいべっつーだけの話よ
>>567 Regional PrompterでGeneration modeをLatentにすれば描き分けいけるはず
強度は低めにした方がいいと思う
それとは別に質問
xyzプロットでLoRA適用なし・LoRA_A・LoRA_B・LoRA_Cと比較したい場合
AddNetでは無しが指定出来ないし、どうすれば出力できますか?
prompt SRで<lora:sonnanonaiyo>,<lora:tarou>,<lora:jirou> とやればないやつは適応してないのと同じになる
>>571 無い奴指定してもエラーにならないのか
ありがとです
image browserが最近使えないんですが、最新コミットだとみんなそうですかね? 無いと不便なので、解決策や似たようなExtensionありますか?
>>569-570 latentに指定するとこまでは試していたのですが、弱めに設定かつ共通プロンプトを減らした(品質,2girlsのみ)にしたら上手くいきました
ただ、要素は混在しないながらもそれぞれ単独で生成した時よりも大幅に描画クオリティが低くなってしまうという別問題が発生してしまいました
いずれにせよありがとうございました
もう少し色々研究してみます
>>572 ないやつを指定すれば エラーになるよ
窓を見ればわかる
今さらなら SD 始めたいと考えているのですが (PCのパワー不足なので colab) colab pro ならそこそこ遊べますか?? GPU設定を最低にすれば行けそうな気配ですが
生成したPNG画像をt2iなどに転送する際、1111のずっと前のVerでは 自動で画像に使用されたモデルがロードされていたのですが 現在その機能は無くなったのでしょうか?
>>572 もし、ないやつ指定して動かなかったら
,,ってすりゃ空っぽになってloraなしになるよ
>>577 現在は送っただけだとモデル変わらない
作成しようとした時点で使用中のモデルとオーバーライドモデルが違うなら読み込まれる
SeedやRestore face等の項目と拡張の間にOverride settingsって項目が出る
2つ目の習作LoRAを作成中です
何十とエロゲのLoRAを作ってる鬼作kkkが言うには
画像は15-20あればokでdimは20-128といっているんですが
どうやって画像を絞り込めるか四苦八苦してます
https://www.pixiv.net/users/86166786 https://www.pixiv.net/artworks/107299229 個人的にキャラLoRAに必要そうだと想像するもの
・そのキャラのメインの服装(わかりやすい立ち絵を色々なアングルから)
仮に8枚
・メイン服装でアクションポーズ
仮に8枚
・裸や水着の立ち絵、SDで指定しそうなポーズ
仮に10枚
・顔のドアップと表情集
仮に6枚
・ギャグポーズ、ギャグ顔
仮に5枚
合計するとこれだけで37枚、本当に好きなキャラだとキャプしまくって数百枚~数千枚になっちゃいそうで混乱しています
アドバイスや指摘などお願いします
>>576 単純計算で毎日2時間使えるし
ライトに触るにはいい環境だと思うよ
画像を作るだけなら1時間で200枚ぐらいはできるしね
エロ系をドライブに保存するのは注意した方がいいけど
>>577 設定の「ユーザーインターフェース」にこういう設定項目があります。(上から7番目)
When reading generation parameters from text into UI (from PNG info or pasted text), do not change the selected model/checkpoint.
テキストからUIに生成パラメータを読み込む場合(PNG情報または貼り付けられたテキストから)、選択されたmodel/checkpointは変更しない。
これをオフにすると、PNG Infoから「txt2imgへ転送」「img2imgへ転送」したときや「↙」ボタンを使ったとき、パラメータが転記されると同時にモデルも切り替わるようになります。
>>560-562 ありがとうございます。
nostalyakiは構図がロングになりがちなのと、絵柄が思ったのと違っていました。
anime screencap style loraはかなり理想に近い線になってくれました。
これのウェイトをいじりつつ他のアニメ塗りも試行錯誤していきたいと思います。
>>579 >>582 ありがとうございます
When...がオフの時にOverrideにモデルが出て裏でロードするんですね
一番上のcheckpointが切り替わらないとは
https://note.com/pochi937/n/n777d07764930 手の修正方法について、こんな記事があったけれども。もうちょい簡単確実に修正できる方法ないですか?
StableDiffusionでエロに全力を注いでいるスレありませんか
>>585 このレベルで良いなら最初っからガチャするんで十分だわ
>>585 これで出来たことになった上に紹介までしちゃうのすげぇな
>>585 大草原
馬鹿じゃねえのこいつ
いつまで経っても良くならねえなーって思いながら読んでたらそのまま記事が終わるとは思わんかったわ
AIであれこれ触れる技術があるのと美的感覚は完全に別物ってのがよくわかる例 ある程度絵心みたいなのある人の方が向いてるんだろうね
まぁAIの発展に貢献してるんだから悪いこたぁない まだまだ黎明期だし
>>576 借金してでも PC を買った方がいい
Google アカウント停止されたり
FBI のお世話になることになる
例えばhires fix無しで数十枚生成→良さげなものを10枚選別 この選別した10枚をhires fixする楽な方法や拡張機能ないですか?
>>599 i2iは標準でbatchあるけど、t2iのhires.fixならこのあたりだろうか
https://github.com/thundaga/SD-webui-txt2img-script > img2img upscale の代わりに、hires fix upscale を簡単に使用して、より良い画像を取得できます。
>>585 noteで初めて笑ったわw
controlnetも普通に使える人間なのに、これでヨシ!となるのは何なんだよww
>>576 colab使うには時期が良い
GPU選べるようになって嬉しい
設定とかあれこれ時間がかかる時はT4にして、ガチで回す時はA100とか出来る
T4で生成するのは待ってられないよ
とはいえリソースがどんどん減っていくのは心臓に悪い
>>600 使ってみました。欲しかったのはまさにこれです ありがとうございます。
>>592 左手もおっさんの手にすればバランスは取れてたな
ただ指の太さと短さが身体に合ってないので違和感は残るw
学術論文でもあるまいしええやん 読む立場としてはクォリティ上げてほしいってはその通りだが
stable diffusionで複数枚生成した時、最後に生成される生成した画像一覧みたいな画像を生成しないようにする設定ってありますか?
あれ要らないよね・・grid出力の有無関係なしでまとめた画像作るので大量だと数秒固まるし 個々はoutputフォルダの出した奴を表示してるだけだけど 勝手にくっつけて疑似グリッド化した画像は例の増殖するtempフォルダを使ってるという罠 昔誰かがどれかの.py弄ってそこだけ消すみたいなやり方議論してたの見たことあるけど忘れた 1111氏は頑張って作り込んだからなのか無効設定を設けない方針くさい?
やっぱ簡単な設定では無さそうですかね あの数秒固まるのがストレス
むしろ複数生成するときは一覧見て1枚1枚詳しく見ない事多いから無いと面倒になる オンオフ出来るならそれは知っておきたいけど
設定>ユーザーインターフェース>WebUI上でグリッド表示 のチェックを外せば多分希望の動作になるとおも
>>609 過去ログ検索したら
User InterfaceのDo not show any images in results for web
にチェックで切れる!
今度は生成後に全く何も表示されないけど、自分はこれでいいや
ああ違うや、2つあるのか、すまぬ
>>611 は質問の動作
>>612 は何もかも表示なし
たまに、バグだか知らんが、何もかも表示されなくなるしなぁ
>>581 >>602 コメントありがとう
まとまった時間ができたらチャレンジしてみます
GPUがT4だと画像生成に時間がかかるのですね
準備中はT4で生成時は速いGPUが良さそうですね
>>612 >>611 ありがとうございます 大分ストレス減りそうです
ただout putフォルダには変わりなく出力されてるんですね 個人的にはこれも容量食うから要らなかったんですが これくらいは手動で消すとします。
>>617 グリッド画像そのものがいらないなら、設定の一番上「画像/グリッド画像の保存(Saving images/grids)」の3番目のチェックボックス「グリッド画像を常に保存する(Always save all generated image grids)」をオフにすればよさそう
Loraを作成するときの学習用のモデルって、要するにそのモデルに対して最適化するってことだよね。 極力、元の教師データに近いレベルで出力させることを考えるとどのモデルを使うのがいいですかね…。 今のところchilloutmixかhenmix real使ってるけど、なにかもう一つ。 Perfect worldはクセが強すぎな感じ。
>>618 普通にあったんですね 読み込みが甘かったです めちゃ助かりましたありがとう
生成する時のプロンプトの管理にprompt formatterとかbetter promptを導入してみたんだけどプロンプトの改行も整理されちゃうのか…残念 見た目の情報とかシチュエーションのプロンプトを改行で区切ってる人いない?
自分もやってますね。 品質、人物、衣装小物、ポーズ、背景環境天候という感じで改行して編集してます。 本当は改行とかなしにひとまとめにすべきなんでしたっけ? テンプレートが溜まってくるとコメントアウトとかも入れられるといいのになと思います。
簡単インストーラLoRA(ポップアップ版)で一度生成したLoRAに追加学習させることはできますか。 例えば10epochsで作成したLoRAファイルに、生成後もう数epochs追加で回させるなど。
色の細かい指定をコントロールできるやり方ないかな pinkででる色よりもう少し赤みを加えたいけど carmineもpoppyredもdarkpinkも違うし darkpinkに至ってはdark部分が作用して白シャツが黒シャツになるし カラーコードでプロンプト打てたら楽なのにな・・・
キャプション式Loraで、何回か試しても服を分けることができなかったんだけどプロの方々はどうやって分けてる? 明らかに違う服(制服と私服)とかは綺麗に分けれたんだけど、似た服(夏制服と冬制服)はちゃんとキャプション付けしてプロンプトに入れてもごちゃまぜになってしまう。 あと関係あるのかわからないけど、私服の柄に花とか入ってると私服トリガー呼んだ時に一部のモデルでは何も指定してないのに背景花まみれになったりするのも上手く分けれてないのかな?
簡単インストーラLoRA(ポップアップ版)で一度生成したLoRAに追加学習させることはできますか。 例えば10epochsで作成したLoRAファイルに、生成後もう数epochs追加で回させるなど。
SDで出力する際、プロンプト情報を一般ビューアなどで見ることができるよう画像プロパティなどに埋め込む設定とかないですか? いちいちPNG info に突っ込むの面倒で… 調べたところPNGのチャンクというデータにプロンプト情報は保存されてるようなので、これを見ながら閲覧できる画像ビューアでもいいですがそれもなく…
>>629 生成情報をテキストデータにも出力する設定はあるから、画像のファイル名と同じテキストファイルの内容を画像とともに表示するビューワを作るとか?
>>629 普通のViewerはexif情報をメタ情報として表示すると思うけど
PNGはもともとexif情報を保存できなかったのでViewer側が対応してないことが多い
よくしらないけど、今はPNGもチャンクにexif保存できるみたなのは見かけたことあるから
PNGでexif表示できるViewerさがせば、PNG INFOも一緒に表示しれくれるかもね、わからんが
>>631 PNGファイルをテキストエディタで開けばAI生成関連の文字列がすぐ読めるしコピペも可能
JPEGのに埋め込まれたAI生成関連の文字列は一文字ごとにNull文字が挟まれてるので
テキストエディタで開いても見づらいしコピペもひと手間かけないとできないから
WebUIのPNG Infoで開いて利用する方が現実的
皆さんありがとうございます 既存の機能やビューアじゃ難しそうですね EXIF情報をPNGチャンクに保存はできるようなのですが 逆ができるビューアやソフトは探した範囲ではないので難しいです ビューアで画像整理したり過去のイラストから再生成したりするときに 何のプロンプトやLora使ってたか一発でわかれば楽なんですが… PNGinfoに突っ込むしかないか
自分はテキストエディタで開いてるな 右クリック→プログラムから開くで見るか テキストエディタが開いてたらそこにドロップしてる
>>628 おお、これもハッキリしていていいですね。
これをもとにお気に入りの絵柄のとマージを試してみます。
ありがとう!
>>633 SageThumbsとかフリーウェアでPNGファイルのサムネイルをエクスローラで表示できるようにして
あとはプロンプトとかを見たいPNGファイルをテキストエディタで直接開いて見なさいってば
画像ビューアのXnView MPでPNGに埋まってるプロンプト情報の確認できるよ
>>633 自分はStirlingでそのまま開いてるな
windowsのファイル右クリックに「Stirlingから開く」みたいなの作って
適当に普通のXnView入れて全然つかってなかったわ MPのほうがよかったんだな
>>565 ,566,568
離れてて気づかんかったが教えてくれてありがとう
何となくイメージが掴めつつある気はするけどまだよくわからない
・loraは元modelとの差分学習
・教師画像に忠実にtagをつけると元modelとの差分が小さくなり学習度合いが弱まる
→学習させたくない要素はtagを残すといい
・元modelではつくはずのtagが教師画像についてない場合「学ぶべき差分」として認定され学習度合いが強まる
→学習させたい要素はtagを消すといい
↑こんな感じの理解でいいんかな
tachi-eというプロンプトがあまりうまく機能していないような気がするのですが、どれくらい強調すればいいでしょうか?
>>640 自分も全く一緒だわ >Stirling
さっさと開いてヘッダ直後の呪文全部テキストにコピぺして対処できる
あ、でもimgurにPNGでうpされてる場合はなぜかヘッダ直後のプロンプト群が全部消されちゃうんよねえ
EasyNegative が使えない… ちゃんと embedding のフォルダに入れているし、 花札のアイコン押せば、出るんだよね。それなのに、EasyNegative の文字の下に 赤い波線が出て、反映されないんだ。 昨日までは使えた。で使えなくなって、一から環境を組み直してもダメ… 原因分かる方いたら、教えて下さい。
あ、昨日出した絵を Ping Info から Text2img へ送ったら、EasyNegative 使えた。 でも、そこにカーソルを合わせると、また赤い波線が出て、反映されなくなってしまう…
赤い波線てただのスペルチェックでしょ?反映されないってのは勘違いじゃね?
うん、いろいろ試してみたら、反映されていたみたい… レスありがとう、お騒がせしましたー。3〜4時間無駄にしたぜw
>>652 もうこの話題も何百回も出てきてるんだから
テンプレに入れてくれよ
1111ローカルでi2iで生成に使用した画像のファイル名を、生成した画像のファイル名に入れるやり方を教えてください Images filename patternの設定でできると思ったのですが、できない?ですよね?
使われてるかどうかは生成画像の下に出てるからそっち見れば良い
>>655 ありがとうございます。
私の環境ではプロンプトと生成時間とメモリ使用量しか書かれていないのですが、出すにはどうすればいいですか?
少し説明不足でしたがPNG Infoをt2iの履歴のように思っているので、i2iの履歴もほしいと思って質問させていただきました
カフェに女の子と他のお客さんや定員を出力してほしいのですが女の子ソロになってしまいます。 背景にモブを出すプロンプトなどありますか?
SDにLatent Couple使って複数キャラ持つLORAで複数人に挑戦してるんだがキャラが混ざる(-_-;) 特に髪型が似てると混ざるね(-_-;) 2人はこの程度で済むけど3人出すとカオスだし 同じ症状の人います? ※まだ複数LORAの複数人やってない
>>656 今見れないからちょっとあやふやだけどその上辺りかなプロンプトとか書いてある後に改行されて出てると思う
そこら辺の設定も弄って無いからデフォで出てると思うよ
>>658 Latent Coupleは普通に混ざるほうが多いで
少なくとも猫とネズミ出そうとするとかなりの頻度で混ざる
Regional Prompter使った方がええ
Latent CoupleもRegional Prompterも、どうして範囲指定があんな糞めんどくさい方法なんだ? マウスでちょいちょいとできるようにできないのかな
>>657 crowd in background とかかな
プロンプトの効き具合はモデルによって違うから参考程度で
ちょっと、興味本気で聞きたいんだけど SLIとか使ってやっている人いる? あと、Loraで二度焼き三度焼きとかあるみたいだけど、 画像出力だけではなく、LORAの製造過程でも似たようなことできるの?
【中止しろ】 コロナより、ワクチンで、死者でてる
://2chb.net/r/cafe60/1671073993/l50
>>662 それ系の呪文入れて強調めっちゃしたら自然な感じで行けた
ありがとう
皆さん色々アドバイスありがとうございました いただいた回答をヒントに調べまくった結果、Eagleという画像管理ソフトでやりたいことができました
すみません、皆さんのお力を貸してください。 どうしてもROLAが作りたくて、Web ui版で説明通りやりましたが学習ボタン押すとボタンの上にエラーと出て、諦め、次はポップアップ版で試していますがサイトにある説明以外のポップアップが出てきてサッパリ分かりません。。 詳しく分かりやすく解説してるサイトなんかあれば教えて欲しいですm(_ _)m スペックは11世代i5 3060ti VRAM8GBです。
1660SUPERで出来てるみたいなので大丈夫と思うんです。。
本気で解決してほしいならせめてエラーメッセージくらいは…
1070Ti VRAM8GBで動いてるからスペックは問題ない
>>629 Tiatという画像管理ソフトがプロンプト情報が見られる
使い勝手はイマイチだけど・・・
>>674 ありがとうございます
I matching it titon it not stealtable, fore got imizations will not be enabled.
Train Tools: train.train error CUDA error: out of memory
CUDA kernel errors might be asynchronously reported at some other API call, so the stackt race below might be incorrect.
For debuggins consider passing CUDA JLAUNCH_BLOCKING=1.
Compile with
"TORCH JUSE CUDA OSA to enable device-side assertions.
エラーコードはこんな感じですm(_ _)m
宜しくお願い致します。。
ネットで調べた時、3050が性能的にボロクソとまではいかんけど上位のやつと比べてこき下ろされてたイメージがあったから不安だったけど、全然動くな。
4060Ti16GBかぁ これ本当なら秋ごろまで現環境でがんばるんだけどな
>>676 web uiでってのはtrain tool 使ってだったか
俺が使ってるのはbmaltaisのkohya_ssなんでちょっと分からないな
out of memoryが出ているからメモリ不足だけど、最低限動作する容量はあるから
設定とか指定するファイルが間違っていてメモリが足りなくなってるんだろうけど
You Tubeで解説動画あったからそれとブログやら見ながらどうにか動かすとこまで漕ぎ着けたんだけど
1070Tiで一応動いているからスペック的には問題ないはず
使ってないから今はどうか分からないけど、train toolは結構不具合あるみたいな話聞いたんで
使えるなら別のツールも動くか試すのもありじゃないかな
ファイル名[datetime]で複数バッチ処理すると同じ秒に出力された同名ファイルが上書きされてしまうので後ろにバッチNoつけたいのですが[batch_number]が効かずそのまま文字列が出力されてしまいます またはデフォルトのシード値除いた頭の連番でも良いのですがどなたか御存知でしょうか
>>680 ありがとうございますm(_ _)m
であればこちらもkyoha使って試してみます!
GTX4070ti 12GBに換装を考えているのですが、 AIイラスト生成において CPU i7-3770K CPU メモリ 8GB はボトルネックになり得ますか? としあきwikiではCPUの画像生成への影響は少ないとありますが、 グラフィックボードとの兼ね合いとしてはどうなんでしょう? 生成のみで学習は行いません
>>638 >>639
横からサンクス。マンガミーヤCE卒業するわ
>>683 メモリ8ギガは多分厳しいんじゃないかな
WebUIは推奨16ギガだし
自分の環境ではWebUIの立ち上げだけで5,6ギガは喰ってる
CPUは性能的には大丈夫かもだけど
その世代のCPUだとマザーボードがレガシBIOSの可能性もあると思うけど
だとするとグラボを認識しないんじゃないかな
マザーボードのBIOSはUEFIになってる?
>>683 2012年のCPUか・・マザボの型番わかる?
普通の思考の持ち主なら買い替えでしょ、4070tiが泣く
>>683 メモリ増やそう
今DDR3も安いし
システム全体が軽くなるよ
>>683 i7-6700kだったけど、思いっきりボトルネックになったよ
マザボとセットで変えたら30%近く速くなった
今すぐ投げ捨てろマジ
>>683 グラボだけ4070tiにしようにも電源が対応してなかったりケースに入らなかったり、
マザーが古すぎてグラボが動かなかったりでダメそうな予感…
メモリーだけ買い足して安く済ませて、溜めておくか、
グラボを3060にして余った分を他に回した方が良さそう
みんなグラボの話しかしてないけど、SD入れるのにM.2のPCIe接続のドライブに入れた方がいいよ、
今まで普通のHDに入れている時は、modelを変える度に5分ほど掛かったけど、M.2にいれたら
1分も掛からずmodelを変えれるようになった
4000MB/sと100MB/sで比較すればそりゃ読み込み時間も40倍になるよ
stablediffusionの付加機能込みで楽しみたいならグラボけちるのはタイパロス半端ないぞ 1ヶ月バイトすりゃ買えるグラボをバイトせずにポンコツグラボで延々タイムロス。人生の無駄遣いだわ
稼いだ金全部趣味に使える実家の学生か? 家にも金入れてやれよ
X060系の大容量メモリくらいで運用するのがベストだと思うけどな 趣味で遊ぶならタイパなんか気にするような遅さにはならないし 仕事で使うにしても15万のミドルレンジPC2台運用の方がコスパもタイパも良いのでは
運用的には外付けGPUとかが熱対策にもなって良さそうに思えるんだけど 5万くらいの安価なThanderミニPC
途中送信してしまったすまぬ 運用的には外付けGPUとかが熱対策にもなって良さそうに思えるんだけどな 5万くらいの安価なThunderBolt4対応ミニPCとかあるからそれ+外付けGPUボックス5万、グラボ5万くらいで運用できんじゃね?って目論んでる
外付けGPUはタイムロスが半端ないって過去ログでレポートしていた人が居ましたよ。
性能ロスはある程度覚悟の上になるね。サブPCとして運用したいから熱対策で分離させてできるだけ長持ちしてくれれば良い
ケチろうとすればどこまでもケチれるから、遅いと何の参考にもならん。 コンパクトならMac miniの方がよほどいい。 M1とM2 Proでどれくらいweb UIの速度に差があるのかとか気になる。
>>629 sd prompt viewerってのがGitHubにある
civitaiがインストール求めてきて怖いんだが 許可すると何が起こるの?
>>683 メモリは最低16GBほしい、できれば32GB
皆さん回答ありがとうございます 軽く聞いてしまって情報不足でも申し訳ないです マザーボードはP8H77-V UEFIに関しては今ちょっとすぐ調べた範囲ではどういうことかわかりませんでした 現在のグラボは3060 12GB 認識して動いてます とりあえずメモリは安いので増やしたいと思います CPUとマザボはさらに出費がかさむので悩みどころですね… もちろん4090tiがまともに動かなければ意味ないんですが
メモリ8GBじゃそもそもWeb UI起動しない(経験済) まあ仮想メモリ使えば動いたけど
>>708 一応今は8GBで何もしてないですけど動いてますね
立ち上げ時に重くなる程度です。なんにしてもメモリは増設します
安いし
>>706 そのスペックならそのままでメモリだけ足せばいい
3060 12GBなら十分でそこまで差は出ないよ
せいぜい時短になるだけ
>>709 そりゃ失礼
自分のPCが他にメモリ取られてるんだろうか
通常画質800以上にしても絵が崩れるしhiresfixする時2倍以上にしても絵が崩れるんだけど4k画像とか基本むり?
>>712 少しずつ大きくする
例えばi2i 512を hires 2倍 で1024
それをi2i で Tiled Diffusion を2倍で 2048
それを更にi2iで Tiled Diffusion を2倍で 4096
2倍でダメなら1.5倍を繰り返すなど
Denoising strength は 0.3〜0.5 にすれば暴れない
>>715 すご
これTiled Diffusion?
>>702 シビタイにアップロードした時promptが細かく解析されてbanされやすくなる
xxxx.png→(テキスト部分)→xxxx.txt
pngからプロンプトなんかが入ってるtEXtチャンクをぶっこ抜くスクリプト
https://2dat.net/5ch/ai/pnginfo/ そういやシビタイのpngはjpg用のも入るようになってたな隙間あいてるやつ
>>715 どういうGPUつかってるの?w 100万クラスのGPU?? >>713 t2iで4倍拡大で生成するより小さく生成してからi2iで2倍2倍ってやったほうが奇形になりにくい?
Legion pro 5i Gen 8のノートPCで そこそこ人物画像生成していきたいんだけど GeForce RTX 4070 VRAM 8GBで問題ないですか?
さっきlenovoのサポートに聞いたら このスペックがありました
>>725 VRAMは12GB欲しい
あらゆるサイトのhow toが最低VRAM12GB以上を基本に説明してるので
へーモバイル版8GBなのな まあ熱で死にそうだけど
>>717 メリットないやんか
インストールするのやめとこ
>>724 分けた方が奇形になりにくい
あと途中でやり直しもしやすい
>>728 ありがとう!やっぱ12GB以上かー
ちょっと30万以上になると高いんですよね
ノートだとモバイル性があるし 色んなところでSD回したいんだ デスクトップが良いのは分かってるんだけど...
LORA使うと乳のサイズとかも影響受けるんだけど どうにかならない?
今使用しているのがGTX1070Tiなんだけど 古いグラボを3060に交換した場合、画像やLoRaの生成が早くなる以外にもメリットある? 早くなる・メモリエラーになりにくくなって処理が重い作業も可能になるっていうのは分かったんだけど 成果物の質や出来栄えにも影響するもの? 自作LoRaが配布のような出来栄えにどうしてもならずに悩んでるんだけど グラボ古いのもネックになってるのかな
>>733 ちもろぐの検証によると生成速度だけならメモリ量はそんなに関係ないみたいだよ
単純に高い40系ほど生成速度が速いみたい
モバイル用4070は本来のデスクトップ版より弱いだろうけど単純にメモリの多い3060に乗り換えるとかは失敗になるのでは
ただ学習に関してはメモリ量が重要そうだけど
>>737 30xx以降とそれ以前は違うって言われてる
同プロンプトで条件書いて皆で比較し合ってるページがあったんだけど、URL失念した
>>734 RTX3060/12GBのデスクトップを母艦にして、TeamViewerでリモート操作するってのはどうでしょう?
かなりデータ食うだろうから楽天モバイルとかでないと厳しいかもしれないけれど。
4070tiから4090に換装したら今まで生成できた解像度でエラーでるようになってひとつも生成できない SDの設定は何も変えてない GPUドライバーはDDUでセーフモードでけしてから換装後最新入れた 原因は何考えられますか?
>>742 studioドライバを入れてるとか?
Game-Readyの最新版を入れましょう。
colabで運用しているのですが、今日、Stable Diffusionを実行すると、 「Googleドライブでエラーが発生しました」というメッセージが出て起動出来なくなってしまいました。 ググったら、「そのエラーが出たら、このスクリプトで共有ドライブのゴミを削除すれば動くようになるよ」って言う GASのスクリプトを見つけたんですが、このスクリプトの一行目に記入するように書かれている const driveId = "<共有ドライブのID>"; というのがあるんですが、どこのIDを記入すればいいのか分からなくて途方に暮れております。 フォルダやファイルのリンクIDはGoogleドライブで見られるのですが・・ どこの情報を参照して記入すればいいのでしょうか?ひとつご助言いただけましたら助かります
>>730 せやでシビタイに投稿する人専用だと思う
多分ローカルの情報も吸い上げてそうな気がするからやめとくのが正解
>>744 ですが調べてみたら共有ドライブというのはGoogleドライブの共有アイテムとかとは関係なくて
有料でチーム間でデータを共有するサービスなんですね
共有とかドライブとかいうから通常のGoogleドライブの一部かと思いましたが
自分はそのサービス使ってないからこのスクリプトは関係ないのかな・・
>>739 影響あるって意見が定説、もしくはある程度の支持を得てはいるのか
高速化は間違いないんだし、購入検討してみるかな
ありがと
>>743 Readyのいれてます
512のhiresfixでメモリエラーでるのでおかしすぎますね
電源かなあ
CivitAIの画像こないだまでpngがほとんどだったのにいつの間にか全部jpegになったのね で、それはいいんだけど拡張子が全部"jpeg"でそのままLoraフォルダに突っ込んでも表示されないから一々"jpg"に変更しないとなのが面倒で 拡張子"jpg"で落とすかSDで"jpeg"でも表示できる設定とか無いですかね
>>741 さっきネットでお手頃なの探してたら
RTX3080 VRAM16GBのノートパソコン
あったのでコスパ的に良くポチッとしました
在庫なかったらウケるがw
Stable diffusionで40系から30系にするとか本気かね
ノートPCで40系のVRAM16GBだと 50万弱ぐらいするんでキツいです
inpaint機能で身体の一部分だけ修正すると変えたところだけ肌の色が違ってて違和感が出るんですけど何かいい解決策ありますか?
ワイは2060 6Gでやってるで 今はTiled VAEあるから時間気にしなければこれくらいでもどうにかなるで 同じ環境でLora作ってるニキもおるよ 要は何処を妥協して我慢するかの話やないかな そりゃ一番いいのにした方が良いに決まっとるもん
なんJじゃないのに猛虎弁使ってんなよ しかも向こうのスレではレスしてねえし
まとめキッズが増えて猛虎弁が5chの標準語だと思ってる奴増えたよな
>>752 詳しく解説されてるサイトあるんだ
ありがと
ああ、昔見たのはそこの私も3090で参加してますって書いてる「現場検証」って先だった ついでに見といてね
最新環境はGW前のまとめは通じないから注意が必要だわな
Stable Diffusionのスレが多すぎて、あっち見たあとこっち見てとやってるうちにうっかり方言で書きそうになることはある
>>754 inpaintスケッチで欲しい色でマスクを塗るのはどう
>>754 その画像をDenoising strength低めのi2iで出すってやってる
>>762 欲しい色でマスク塗るのはやってないですね
ありがとうございます
>>764 それ思いついてまさに昨日試してました
楽で良いですねこれ
>>683 2600k+intel Z68+メモリ12G+4070tiです。2600kがボトルネックになり生成速度は25%遅くなるとの記事がありました。生成条件までは覚えてませんが、最大この程度ロスすると認識しておけばよいかも
>>766 ボトルネックはメモリだね
32GB~64GB が快適域
あとは専用SSDで最低500GB必要
>>742 だけどもしかして4090の性能発揮されないのってCPUがryzen5 3500なのでボトルネックになってる可能性あります?
メモリは32gbでストレージはM2 SSDです
何レスにも渡って猛虎弁し続けるならともかく単レスなら一々文句言う方が間違ってると言う結論は出ているのにまたネチネチと
>>749 ファイルの中身は変わってないはずだから勝手に拡張子変えればいいよ
中には.txtで落とされるやつもあるし、ダウンロードマネージャ噛ませると拡張子変わるやつもある
ポジティブプロンプトのマイナス設定とネガティブプロンプトのプラス設定は同じ意味なんだっけ? 作用が微妙に違うから結果も変わるのか?
huge breastsをプロンプトに入れると、服を指定しても高確率で谷間を露出する画像になるんですけど、着衣爆乳はどうしたらうまく出ますかね? ネガティブプロンプトでcleavagやexposedなど色々試しても中々確率が低くて……
VAEの定番って840000け? 他なんか違うの使ってる人いる?
呪文についてなんですが、単語に+を使うとどういう挙動になるんでしょうか? 一応検証もしてみたのですが、仕組みが理解できませんでした 例 1boy+(penis:1.0)+(veins:1.0)+(urethra:0.4)+(glans:0.8)+(foreskin:1.0)+(testicles:0.1)+(pubic hair:0.9), erection, (ejaculation:1.5)
>774
「+」の記号に機能はないよ
ないよね?
カンマとか+とかを入れると生成結果が微妙に変わるから、「いい感じだからこのバリエーションを出してほしい」というときに、それ自体に意味はない記号を入れているのかも?
そういうのはバリエーション機能を使うのが本来だろうけど、ちょっと文字を足すのは手軽だもんね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#variations 意味ないの? 少なくともトークンの数調整に使えたりしないの
複数カンマやアンダーバーほどの意味はないな トークン数の調整には使えるだろうけど、今はあんまり意味がない気もする 75以下か300オーバーの超ロングプロンプトのどちらかだろ?
>>775 意味のない記号とはそういうことだったんですね
カンマなどは自動で区切り文字として認識されているものだと勘違いしてました・・・
リンクも参考にさせていただきます
レスありがとうございました
>>771 ポジティブでマイナスにしたら「反対のもの」が出てくるのでは
試してないけど
人物のLoraで、メインのトリガー以外に服装やアクセサリーのトリガーを調べる方法はありますか?
ここで質問して良いもんか迷ったが、SDで生成した画像だけ一部サムネイルが表示されなくなった これって俺だけ? OSはWin11でやってんだけど、なぜかSDの画像だけ表示されない 縮小表示のキャッシュ消したりしてみたが、なおる気配なし 他のは問題なく表示されるのになんでSD生成の画像だけ表示されないのかわからん
kohya guiで自分で作ったloraを適用した場合のみ、真っ黒の画像が出力されてしまいます。おそらく設定するパラメータを間違えていると思うんですが、こういう場合はどこを変更すべきなのでしょうか?
TwitterでAI川AI子ってアカウントがアップしてる画像が凄いんだけど、こんなん作れるのか
controlnetのtileっぽいな。探したらほぼ一致する元画像が見つかりそう
control net使ってるかも モデルはbrav5ではなさそう、質感が素晴らしい
>>785 本人宣伝乙。普通に氏媚態で転がってたBBAモデルに蝋つけた作品やろ
tileでリアルさをコントロールできるの? 使い方がよくわからん
AI川AI子 とにかく爆乳好きなのはわかった笑 こんなのばっか
あの程度でBANはないだろ 現実のマ○コの具見えてる写真まで上げてるのに数十万フォロワーの台湾人とか居るのに
>>783 ここの住人より技術も知識もありそうやね
レベルが全然違うw
ローカルで今まで普通にautomatic1111使えてたんだけど、さっき急にPythonが落ちて以降、何度起動トライしても「Installing requirements for Web UI」のコマンドから進まなくなっちゃったんだけど、原因分かる人いますか、、?!涙
別々の要素をしっかり区別して出力したいのですがうまくいきません
呪文の改善やアドバイスをいただけると嬉しいです…
例:猫と犬の2ショットの画像を出力したい
結果:犬と猫の要素が合体した動物になる
呪文:realistic, no humans, (1 cats) AND (1 dogs)
呪文:realistic, no humans, (1 cats), (1 dogs)
しばらくぶりなんですけど、civitaiの検索窓機能しなくなってます?
4060Tiの16GBなんてのが出ると噂されてますが 学習・生成に膨大な時間がかかってうんざりしませんかね? 将来SDがどうなるかはおいておいて とりあえず今は速い4070Tiの方がいいと思うんですがどう思われますか?
>>798 ブラウザによって検索窓機能が使えなくなったね
別のブラウザを試してみるといいよ
>>800 俺なら16GBを優先する
ControlNetを使うと12GBでも足らなくなることが増えてきたから
>>797 全く関係ないと思うよ
俺の経験ではaもoneも1もonlyもsもsomeもmanyも全く効かない
ついでにandも効かない
文章にするだけ無駄
名詞動詞の羅列と同じ
>>800 俺もvram量優先だな
今後の進展で最低必要vram量が増えるかもしれない
多少遅いのは待てばいいけど、vram足りなくて出来ませんはどうにもならない
automatic1111はssdに入れた方がええんか?
CFGスケールを3ぐらいにしたときの光が柔らかい感じが好きなんですが プロンプトを重視してほしいのでもっと数値を上げたいです 標準の7でも強い光を当てて濃い影が付くのが嫌なんですがどんなプロンプトを入れればいいでしょうか? リアル系です
>>798 火狐は検索候補からじゃないと機能しないね
アドレスバーに直接打ち込むといいよ
colabの、Kohya LoRA Dreamboothで学習させているんだけど、昨日か一昨日くらいから全く学習されなくなった。 同じ症状の人いる? 学習のログはエラーもないし、画像の数や正則化画像の数も認識して、問題なく進行してるんだけど エポックごとに出力されるサンプルが、学習元を1mmも反映してないのね。色・デザイン・年齢・背景、すべてで。 「LoRA無しでサンプルのプロンプトどおりに普通に画像生成したらこうなるよな」、って言うようなバラバラな特徴のサンプルが出てくるのよ 今までの経験だと、学習してるけど、学習の仕方が悪くて 出力される画像が変になったり、画像が壊れてるって言うならあったし、それなら分かるのよ でもなんだかんだで学習もとが全く反映されてないと言う事は無かったんよね
>>809 エラーが出てないって事はこれは違うのかな?
VIDEO 同じくkohyaでGWくらいにcolabのデフォルトのpythonのバージョンが変わったみたいなのにスクリプト書き換えて対応したけど、そん時はちゃんとエラーになったな‥
>>805 SSDに入れられるならそのほうがいいけれど、本体はHDDでもいい
学習モデルはSSDに入れる方がいい。HDDだと切り替えに時間がかかりすぎる
>>810 この動画は見てたけど、どうもそれとは違うっぽい
ログのどこを見てもエラーとかは出てないし、学習は進んでるんだよね
その動画みたいに巻き戻せればいいんだけど、使ってるcolabノートブックでは
いろいろダウンロードしてる構文が多くて俺にはどこでやるのかさっぱりわからんかった
>>811 自分もGW中くらいから何か変わっててエラー出てた
でも昨日くらいからはノートブック更新したらデフォで動くようになって安心してたんだよね
そしたらまともなのはログだけで学習が全然進んでない状態になってたというw
>>799 早速試してみたところほしかった結果ができました!
こんな素晴らしい拡張機能があったんですね・・・
レスありがとうございました
Hires.fix Tiled Diffusion ControlNet tile 解像度アップ系?のこれらの使い分けがよくわかんないや いろいろ解説サイト読んでも、イマイチぴんとこないから、若干生成が早い気のするHires.fix使ってるんだけど、みなさんどう?
>>815 VRAMに余裕がある範囲で2倍くらいならHires.fix
VRAM足りないサイズはTiled Diffusionやアップスケーラー
ControlNet tile はUltimateは、うちでは今のところこれと言って使う需要が無いかな
Stable Diffsion できることがありすぎて時間足りないな その上Stable Animationとか どんだけ追いAIしてくるんだよ
Stable Diffusion使ってる日本人ユーザー数って 何人ぐらいいるんだろう?
>>815 tiled diffusionとcontrolnet tileを併用すると、それぞれの方法の短所を補いながら良い感じになる、ということがgitのtiled diffusionページに書いてあります
Stable Animationってエロでも使えるのかね
パソコンを変えたのですが、PNGinfoからtxt2imgに送り生成すると違う子がでるようになってしまいました モデルもlolaも各設定も全く同じなのですが、こんなことあります?
CPUやGPUが変わると絵が変わる チップが同じベンダーの同じ世代なら変わらないかもだけど
layer dividerをインストールしてextensionsに表示できたけど、UIやSD本体を再起動してもタブに表示されないな みんなは使えてますか?
簡単なキャラLoRAを作ったけど、教師画像の背景がぐいぐい自己主張してきます。どうすれば背景が干渉しないようになりますか 教師画像を作りました。背景の無い画像は1枚を除いて背景をつけました その中の3.pngの和風の家が 生成した画像の中に入ってきます 3.TXT LoRA_chan, 1girl, solo, outdoors, sky, building, looking away, parted lips, day, blue sky, open mouth, blush, looking to the side, upper body sd webui A1111のtaggerでタグを作り、それを軽く編集しました。背景のbuildingを残したので、背景は学習しないはずなのですが、実際は↑↑↑↑。プロンプトがtempleでも(urban city)でもぐいぐい入ってきます。 どうしたらいいですか 画像20枚 x epoch40 x learn 7 = 5600steps "num_epochs": 40, "repeats": 7 "net_dim": 8, "alpha": 1.0, "train_resolution": 512x512 "clip_skip": 2, "test_seed": 23, "text_encoder_lr":1.5e-4 "unet_lr":1.5e-3 キャラLoraなら背景は消すものでは? なんでわざわざ付けるんだろう
a1111とかいうとんでもない地雷原が発見されたな
タグから学習させたいものを消すので正しいはず 40エポックって多すぎる気がする 生成途中の記録とか重み0.2とか0.3くらいで試してみては
3080のVRAM16GBにxformer 入れた後 サイズ512*512からHiresで2倍アップスケールしたら 1分50秒ぐらいかかったけど アップスケールなしなら50秒 昨日アップスケールなしでやったら 10秒ぐらいだったんだけど ネットの通信速度に影響あったりするかな? ちなみに無線で今日は雨降ってます
いやステップ数は20から動かしてないよ アップスケールなし ステップ数20 サイズ512*512 でさっきやったら13秒ぐらいに高速した なんで生成時間にバラつきあるんだろう?わからん
>>832 高温になったらパフォーマンス下がるとかはあるがそういうのじゃなくて?
GPU温度とか見れるソフトがあればチェックしてみるといいかもしれんが
腰の周りにシワがたくさんできるの何とかならない? 服とか下着とかシワをネガに入れても出るんだよな
>>826 もっと背景について書いてやればいいんじゃないかな
house, sky, window, outdoors, scenery, night, building, star (sky), night sky, town, door, starry sky, balcony, rooftop, light, lantern, east_asian_architecture
タガーで適当に拾ってみたけど
>>833 今ソフトは持ってないからチェックできないけど
教えてくれてありがとう!
今度試してみるよ
>>826 5600stepは多いんじゃない?
自分がキャラlora作った時は1200とかだったけどキャラ再現は十分出来たし背景も服装も自由に変えられたよ
ちなみにresolution768,768,dim128,alpha64,オプティマイザはAdamWを使用した
もちろん素材が違えば結果も違うからこれで上手く行くかわからんけど一応参考にどうぞ
>>829 40って多いの?
どこで見たかは忘れたけど、逆にrepeatsが多いと良くないみたいなの読んだ気がするんだけど。
合計数が同じくらいになってもかける数字の割合が違うと性質も変わるものる
下向きに目を閉じる表情ってないでしょうか closed eyesでは「^^」こんな目になりますが、 「uu」こんな目をさせたいです。
夏まで待てば4060ti16GBだけど8万円とかになるかもしれんのかこれ
5月発表の7月発売のリーク情報だったね 5月中に発表されなきゃお流れかな
>>840 こんなの?
(close eyes:1.5)てこうなった
>>842 そこはAMDが16GBGPUをいくらまで下げれる勝手い戦いでもあるしな
ゲーム用途の方が桁違いに需要があるわけだし、おこぼれで価格が下がるならAMD応援する!(買わんけど)
4070Ti-16GBを15万くらいで出してほしいのが本音だな。16GBの魅力はあるけど3060-12GBより少し速くなる程度で8万はちょっと手が出しにくい
4060-12GBに夢見てる人多いけど速さは3070相当だからね なんか4000番になれば別次元に速くなると思ってる人いるからちょっと怖いよ 別次元に速いのは4090と4080までで 4070tiだって3090ti相当だから、よく比較して購入決めてほしい
>>842 3060tiが生産終了するそうだから入れ替わりに見合う値段になってほしいけど、4000番台は高い傾向だし最初はご祝儀価格だろうし難しいだろうな
遅くなりました。お返事ありがとうございます
>>827 LoRA作り解説サイトを5つくらい読んだ結果、
背景透明PNGメソッド、暗闇生首メソッドもみたのですが、
一部のサイトでデメリットがあるかもしれないと書いてあったのと
一番説明をかみ砕いたサイトが背景合った方がいいメソッドでやってたので
今回は2回目なのもあって512x512で背景を作って、後付けしました
背景なしメソッドもやってみたいと思います
(高野-ssについても業界標準と書いてあるサイトもあれば、めんどくさいバグがあると書いてあるサイトもあり、情報の錯綜に混乱してます)
>
>>829 〉40エポックって多すぎる気がする
次回エポックを減らしてみようかと思います
>生成途中の記録とか重み0.2とか0.3くらいで試してみては
すいませんよく意味がわかりません
過学習対策として途中でセーブしたtensorsを使ったり、(lora:)の数字を下げると言う事でしょうか
(Lora:0.5)とかを試した結果、自由になるメリットもあれば似なくなるというデメリットもありました。0.6~0.68くらいが一番マシな気もしますが、それでも服のパーツが何かしら抜けるので無限ガチャ編になりますし、背景に例の家がでてきます
>>835 次回はタグを増やしててみたいと思います。画像のタグを出していただきありがとうございます
>>837 khanon/ lora-training set upスタイルに似てますね
768x768 dim128はVRAM8Gで走るのか不安だったので今回パスしましたが、いずれ試してみたいと思います。
ありがとうございました
Lora実際にやって見るとネットの推奨とは動きが違う感じ 学習率は大分下げたほうが過学習せずに済むしdimはかなり高い方がいい loconやlohaは部分的な再現性は高いけど全体のバランスは悪くなりがち 必ずしも圧倒的に優れてるわけじゃない
controlnetって複数指定することできるとおもうけど、例えばlineart、openpose、tileとか指定したらどういう動作してるかわかります? ひとつしか使ってくれない、順番に使う、まとめて反映させる、のどの動作しているのか今一わからなくて
LoRAの学習用画像サイズは512x512統一が推奨ってどこかで見かけたけど 768x768でやってる人もいるのか 自分も次からはそうしようかなー
途中まで生成していた画像が50%を過ぎると、生成していた画像が崩れGPU負荷や生成時間もそれまでの数倍になり、完成した画像はキメラ化します cmdを見ていたらちょうどアップスケールをするタイミング辺りで崩れます 試しにアップスケール1で生成するとキメラ化しないで生成されます これの解決方法をご教授下さい 以前はアップスケールを使用しても生成れていました 二ヶ月ぶりに起動しgit pullをしたらこうなりました 新規にSDのファイルを作成してそこから起動しても上記と同じ症状が出ます
生成した画像が保存される時に00000-xxxxxxxや00001-xxxxxxと番号振られるのを 最初から0514-xxxxxみたいに左側は日付で保存されるようにするには どこを書き換えればいいでしょうか?
安くなった3060買うのが無難か~ 4万切りそうだもんな
>>854 ご教授じゃなくてご教示って言うんだよ
不思議に思ってたんだけど controlnetのモデルや他の拡張機能って 一度ダウンロードしたら 自前のPCで自動的にバージョンアップするもんなの?
>>859 変な漫画の作者ですら知ってる常識なんだがwww
マジレスするとご教授くださいって別に間違ってないよ
教えてくださいでいいのに、ご教示とかご教授とかバカみたいにへりくだった言葉を使う奴がアホっていう話なんだよコレは
lora学習。 最低限の呪文でだしてもガビガビしちゃってるのは過学習なのかな? 皆さん、どれくらいでまわしてるの?
最終的に1000~2000stepぐらいになるようにかな リピートはあまり増やさずエポック増やして数合わせようとしているけど それがあっているのか間違っているのかはさっぱりわからない とりあえず使えてるからいいやって感じ
そんな少ないんだ? おいらは5000~6000でやってるわ
個人使用でキャラLORA作成してるけど、キャラの雰囲気は何となく出てる気はするが顔の安定度が低い気がする 顔の安定度を上げるには、顔のアップ素材とかもたくさん入れた方が良いのかな?
>>855 設定の一番上(画像/グリッド画像の保存/Saving images/grids)の上から2つめのチェックボックス
「保存時にファイル名に番号を付加する(Add number to filename when saving)」をオフにすればファイル名冒頭の連番はつかなくなる
でも生成でファイル名が重複したらエラーもなく上書きされるから気をつけて
ファイル名のパターンをたとえば
[datetime<%Y-%m-%d %H-%M-%S.%f>]
にすれば年月日、日時秒.ミリ秒に置き換えられるから、1枚1秒未満で出力されるときでも重複しなくなると思う
StableDffusion使い始めて2週間だけど、朝一番だったりSD自体を新規で入れ直しすると設定が同じでもしばらくはクリーチャーばかり出るんだよな 何度もGenerateすると好みの絵に集束するんだけど、ローカルのSDって成長要素あるの?
知り合いとか芸能人で自作ロラ作ってやってる人いる?
>>871 やってるが中々難しいし表にお出しできないから完全に自己満足
LyCORIS使わずにdim=128で学習率下げて2000-4000回まわすのが一番安定する LyCORISはファイルサイズ減らせる代わりに過学習しやすくて扱いにくい その上学習も重いっていうね
>>871 昔好きだった人でやったら特徴を保ったまま更に可愛い子が生成されてオリジナルがブサく見えてしまうようになった
リアル顔の自作loraをcheckpointにマージしてさらに0.5くらい追いloraかけたらよくわからんがいい感じになった。
ちょっと、自作LoRaについて尋ねたいのですが、 nudeにしても、ちゃんと脱がない場合は過学習といいますが、 逆にトリガーワードだけで何枚か出して見ても キャラの服装をちゃんと再現してくれない場合は学習不足と考えてよろしいでしょうか? あと、loraを作る時に使うmodelは、似せたい絵柄のmodelを選ぶって判断でよろしいでしょうか? よろしくお願いします。
>>876 ちなみに何epochくらい?どういう設定で作った?
>>877 22枚を10回、10エポックですね
バッチは2で1100ステップぐらいです
顔は似てますが、それっぽい服装ばかりだったり、半裸になったりですね
>>860 854がすれ民を師事してる気でいるなら誤用じゃないけどね~
>>868 SDでは、ない
君の脳が見分けることに疲れて妥協に走っただけだと思われる
最初のうちは細部を気にしてても、あとになるにつれ「ま~いいか」となってるだけじゃないかと
エポック数を5,10,15で三種類作って見ましたが、
エポック10(ステップ数1000前後)が一番良い感じがしますね…
衣装の再現率を上げようと思うと、教師画像を厳選しないとダメかもしれませんね
ちなみに22枚中10枚ほどが同じ服装の画像を使いましたが
それっぽいのはあったものの完全に同じものはでませんでしたね・・・
ちなみに作ろうとしたのはサクラ大戦のアイリスです
epochs5(550step)
https://majinai.art/i/IVE6ygH epochs10(1100step)
https://majinai.art/i/oNiH2_2 epochs15(1650step)
https://majinai.art/i/P-vzQrd >>881 それが片桐はいりから石原さとみ位の落差があるんだよなw
成長要素がないって事が分かったので良かった
webui1111で最新にアップデートしてからライブプレビューは表示されても最終結果表示がこんなのになるんですがコンフィグがおかしいとかエクステンションが衝突しておかしいんですかね?
>>879 アニメ絵で作ったことないから分からんけど、それで過学習はないのでは。
>>867 ありがとうございます
ファイル番号はあっても構わなかったのですが当面はそれでやってみます
>>885 アップデートで画像保存関連の設定がリセットかかってる場合があるから
設定を見直して保存&リスタート
プロンプト少なめのシンプルな奴なら、やや過学習気味のやつの方が良い結果が出るような気がしてきた。 プロンプト増えてくると作画崩壊しやすくなるのもこっちだけど。
衣装Loraに挑戦してみようと思うのですが学習用画像は何枚くらい必要ですか? タグは呼び出し用以外消したほうがいいですか?
モデルによるけど肋骨の描写が大袈裟すぎてキモイことが多いんだけどネガにribsとか入れれても改善の様子がない なんか解決法ない?
さっき手の修正でdepth使ったんだけど 指先が床に並行で 手の甲がちょっと上に反ってる斜めの手の修正となると depthの白い手が厚みを持ったまま奥行きに倒れないから 修正した手の厚みがない 上手く手が修正できる方法ってありますか?
手の位置はそれらしくなったけど 手首から手の甲ついてる照明の影のつき方が 不自然に切れてる 修正した手の色もちょっと血色悪い 多分これ以上となるとフォトショで調整かな 位置は良いけど全体的に40点ぐらいでイマイチ
>>892 3d openposeで望みの手の形を作ってdepthに読み込ませると言うのはどう?
ランダムに表情がつくといいなぁと思って 効くのかわからんOR構文でプロンプト打って数か月 Dynamic Prompts拡張機能を知って秒で解決して泣いた
>>858 普通はcheck for update を押して確認するんじゃないか
なんかあれこれいじって思ったけど単純に画像を拡大するだけなら 気に入った画像のプロンプト、サンプラー、シードをセットしてHiresFixで拡大するのが一番無難な気がしてきた webUIの拡張機能で拡大するタイプはたいてい絵がけっこう変わっちゃうんだよな。絵が変わらない設定を探すのに無駄な時間がかなりかかる HiresFixでも足りない、それより拡大したかったらwaifu2x-caffeとかUpscayl使った方がメモリの制限とか設定の面倒が無く大量に処理出来る どうせすべての設定は画像に保存されてるし
プレビューはいいんだけど、生成完了時にイメージが変わるのどうにか出来ませんか? 顔とか結構変わる
ならない そもそもライブプレビューは生成遅くなるから切った方がいい
そうか、、ありがとう 因みに、ROLAみたいに数字で部位事に細かくpronptやってる人いるけど特殊なやり方なんだろうか? 後、何か生成するのでおすすめオプションなんかあれば教えて欲しい
>>900 俺もそれ最近悩んでるんだよね
完成直前、って言うか、もうそれ出来てるだろ、っていう状態のライブプレビュー時は良い出来なのに
終了したら、おいさっきまでと違うぞ!ってなるんだよな
俺の場合、たぶんwebUIのどっかが現在トラブってる。同じシードと設定で生成しても以前の絵より色がぎつく線が太めになるから。
調べたけど原因全然わからん
ライブプレビューはもうオフ推奨でいいと思う 見えるから気になるんだよ 見えなければ気にならない
がちゃ演出と同じで射幸心を煽られてる感 ほら、こんな絵もあるんですよ→残念でした
自分の環境ではライブプレビューは別に遅くならないな
SettingのLivePreviewのところをApprox NNにしてるからかな?
>>900 ,903
もうさんざん同じ質問があって、何度も答えられてるんだけど、最後に突然変わるってのは勘違い
上の値をFullにしてでブラウザをctrl+ホイールでめっちゃ拡大して過程見てたらわかる
簡略版はめっちゃボカしてるので綺麗に見えて、最後に正規の結果表示してるからそう見える
>>903 それDenoising strengthが高いとそうなる
試しに0.1からちょっとずつ上げることをお勧めする
むしろプレビューはオン、プレビューの画質も最高にして、途中の良さそうな状態のスクリーンショットを取ってプレビュー部分を切り取って拡大したらいい
画像が荒いほうがよく見えるんだよ サムネイルとかそうじゃん
プレビューに騙されるのは誰もが通る道 最終的にOFFになる
百枚出して使える画像が数枚しか無い時の脱力感 修正すれば使える…って無駄に時間が費やされる もう嫌だ
最近目が肥えてきたので千枚に一枚くらいしか通過しない…毎日2千枚くらい鑑別してる…
kohya使ってLora学習するときに--network_weightsで前回のLoraファイルを設定しても Loadに成功したメッセージが出てるのにまたゼロから学習が始まってしまう もしかして対応してない?前回の結果からの再開に成功した人っている?
>>798 自レスだけどこれ右上の表示切替したら何故か検索できるようになった
>>914 いやそれ多分続きから学習してるんだと思う。俺も同じの使って学習させてるけど。
だけど、本来、深層学習って学習率をどんどん落としていかないとまともに学習出来ないはずなんだよ。
なのに、続きからだと初期値の高い学習率で学習してしまうから過学習でぶっ壊れてはじめからに見えてるんだと思う
スケジューラをコンスタントにして低い学習率に設定してるなら、たぶんまともにレジューム出来ると思うけど
俺もその辺よく分かってないから、ツッコミあったらよろしく
だもんで事実上、レジューム機能はすごく詳しい人以外あまり意味ないからはじめの一回で学習させるもんだと思った方がいい
だからはじめから学習回数は多めにしておき、
サンプルプロンプトオンにすると、1エポックごとにサンプル画像出てくるからそれ見て、充分学習出来たと思ったら止める、それしかないんじゃね?
もしどんな設定でもまともにレジュームさせる方法見つけたらここで教えてくれw
civiの検索はヒットしないと動いてないかのように振る舞うからクソ しかもヒットするワードが微妙だし
>>916 初期値がどうだろうと学習率は内部で可変になってるけど
そっちがレジュームに自動的に対応してるわけじゃないってことか。。。
ありそうだな、再開機能は気休めみたいなもんか
ワイのときは adafactorのときは追加学習うまく行ったけど adamwのときはミリも学習せずに読み込ませたステートのままだった リジュームはウォームアップとか学習率曲線とかも引き継ぐのかよくわからんし 足りないから追加~~は諦めたほうがいい気がする エポック細かくして過学習上等でめちゃくちゃオーバーさせたあとに途中を拾うのがよい
ここも900を過ぎてそろそろ終了ですが、ワッチョイありの次スレは立てずにワッチョイなしの以下に合流してはどうかと思うのですがいかがでしょうか
8スレは質問以外が多く投稿され荒れ気味だったため9は試験的にワッチョイをつけましたが、現在は落ち着いていてワッチョイは不要と思います
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://2chb.net/r/cg/1683421154/ 合流で良いと思うけど質問スレだけワッチョイあると困る奴らが巣くってるのが不思議
既存があるのならばそれを消費すべきだけど次立てる時は普通にワッチョイにして欲しいね
消費すべきとかいうから 作っちまえばこっちのものでこのスレも立てられたんだよ
hirez fixでバッチサイズ6以上にしたらこんなエラーが出たのですが、これってハードウェア的な限界でこれ以上無理させないほうが良いですかね? OutOfMemoryError: CUDA out of memory. Tried to allocate 4.43 GiB (GPU 0; 23.99 GiB total capacity; 18.01 GiB already allocated; 0 bytes free; 22.62 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
書いてあるとおりでVRAM不足 いいグラボ使ってんね
>>926 レスありがとうございます。
やはり限界でしたか。
その「いいグラボ」にせっかく買い替えたのにエラーが出まくっていたので、何か設定が悪いのかと悩んでいました。。。
24GB…おやおや4090ですか、たいしたものですね
俺もそのエラーよく見るわ ウチの1060とおソロじゃん
train toolsを使ったら、昔のTVの砂嵐みたいなloraファイルが出来上がったんですが、これは何か間違えてるんでしょうか? 時間かけてこれは泣きそうなんやが。 助けてくだされ。
4090でも--medは有効なのかな 処理を分割してメモリを稼ぐオプションだから有効そうではあるけど
拡張入れまくって画面が縦長になりすぎてGenerateボタンまでが遠い・・・ GenerateボタンをControlNetの横あたりに増設できないものが
グラボを画像生成 以外の用途に使ってないか? 他のプログラムを全て停止しないと 24gb でも足りないよ? あとオプションで節約しないと
自作マージモデルのテストをxyzPlotでやりたいのですが不可解な現象で困ってます。
ダウンロードしてきたモデルは切り替わるのですが、自作マージのものが切り替わらず同じ絵が出ます。
個別に実行すればちゃんと違う絵が出ます。
自作モデル部だけどれか一つが選ばれて全部そのモデルになってるっぽいんですが
どれが選ばれるかの法則すら不明です。先頭でも末尾でもないです。
モデルファイル名変更、保存場所変更、XY逆転、順番並べ替え、ダウンロードモデルと交互に
あたりは試したんですが効果なしです。
この現象に知見のある方いましたらご教授願います。
>>932 ctrl+enterでgenerate起動するからそれでなんとか
サンプル画像の時はハッシュ dd57c5c8b8 のモデルが使われてるっぽいですね 自作モデルの部分だけ全部このモデルの絵になってます
AIで出した画像をトレスして、自分なりの絵にして商用利用ってのはありなのかな?
>>937 それAIをプリンタやスキャナに置き換えたとして
やってない絵描きなんておらんやろ
でもあいつらAIには文句を付ける
>>925 4090でHiresでバッチ6が無理なのは普通のことです
バッチサイズ減らしましょう
>>934 ご教授じゃなくてご教示って言うんだよ
「教授」は、学問、技芸などを身につけさせること。継続的、組織的に行う場合にいう。 「教示」は、具体的にどうしたらよいのかを教え示すこと。 「指導」は、特定の目的が達成されるように導くこと。学問研究について用いられることが多い。 「指南」は、多く、日本の伝統芸能、武術について用いられる。 「訓示」は、どうすべきであるか心得を説くこと。また、その言葉。 「助言」は、かたわらから有益な言葉をかけて相手を助けること。また、その言葉。 「手ほどき」は、初心者に学問や技術の基礎をわかりやすく知らせること。
>>941 それを知らずにへりくだってる馬鹿が多いからねw
きょうじをきょうじゅと聞き間違えてるんよw
ローカル環境でLORAを使うと RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! というエラーが出るんだけど、同じ状況になった人いる? いくつかの拡張機能をいくつか入れたからこうなったんだけど、その拡張機能を外しても同じエラーが出る……
ご教授さんは画像生成AIを使って水野由結ちゃんの画像で非常にけしからんものを作りたいと思っているのに理解が追いつかず、スレを見ていても自分がからめるのが「ご教授」への指摘しかないかわいそうな人だからそっとしておいてあげてください
>>944 試験的にワッチョイ付けた結果はどうだったんだよw
逃げんなよw
教授・教示問題もういい加減やめんか 何回やっとんのよ
ああ、そうか…SD系はワッチョイ有に統一してくれた方がワッチョイなしのNG指定が捗っていいんだな
最初に人物が椅子に座ってるところを 正面から撮影したプロンプトで画像生成した 今度は座ってるところをやめて 敬礼のポーズを下から撮影したプロンプトで画像生成すると すぐには生成しないよね 何度もそのプロンプトでGenerateさせるとだんだんそれっぽいのが生成されていくけど 勝手に学習していく認識で良いの?馴染んでいくっていうか
>>946 だって
>>934 の馬鹿が誤用するから
もうさご教授とか書いた馬鹿の質問には回答しなくていいよ テンプレに書いといて
ご教授とか言語学者かよレベルのネタ振りレス乞食だろ
いや言葉の意味そのものとしては「どうか教えてください」の意味で「ご教授下さい」っていうのは間違いではないぞ。「 「教授」には「大学の先生の役職名」の意味しかないわけじゃyないんだから。
reference-onlyのパラメータ増えとるやないか
>>952 そもそもだけど、ご教示って知ってればご教授なんて誤用はしないんだよ
ごきょうじをごきょうじゅって聞き間違っちゃってるだけの話
聞き間違った上でへりくだるからご教授って書いちゃうわけ
ボクは単純に間違ってるよって教えてあげてるだけなの
もう指摘するのが楽しくて楽しくて仕方ない
ボクの生きがいだよw
なんならボクが毎回スレ立てようかw
むしろ専用スレ立てて 指摘せずにコピペしていくのはどうだ?
このスレの場合どちらでも間違ってないけどね。
https://s.weddingpark.net/magazine/6548/#item245766 >>「ご教授ください」とは、学問や専門的な技術を身につけるために教えてもらいたい場合に使います。そして「ご教示ください」は、自分が知らない方法や情報を、相手に教え示してもらいたい場合に使います。
まぁどっちにしてもこんなスレで教授と教示の違いでいちいち噛み付くようなケツの穴の小さいコドオジごときにかける時間がもったいない事は間違いないね。
>>958 少なくともわざわざ検索してるところをみると
君もご教示って言葉そのものを知らなかったようだね
語彙力付いたから良かったのでは?
>>959 オナニーは終わった?
包茎チンポをしまったらもう寝ようね🎵
>>960 態度が変わって行く様がわかりやすくて好きw
次からこれテンプレに入れた方がいいかもしれん ■2chmateでワッチョイ隠し、ID隠しをNGにする方法(どちらか片方を消していてもNG可能) NG編集→Name→有効、非表示、正規表現にチェックをいれて対象板をスマホゲーム板にする NGの部分に(?<!\))$を入れて完了 ■JaneStyleでワッチョイ隠し、ID隠しをNGにする方法(どちらか片方を消していてもNG可能) ツール→設定→機能のあぼーん→NGEx 空白欄に好きな名前をいれる(ワッチョイ隠しNGなど) ・対象URI/タイトル タイプ=「含む」キーワード=スレタイに固有な文字列(ここでは原神といれる) ・NGname タイプ=「正規(含まない)」、キーワード=(.*\-.*)$ 左下のリストボックスを「透明あぼ~ん」に設定 ■twinkle (?<!\))$を正規表現でNGNameに登録
> 次スレは>950が立ててください。 さて、IDなし君が立てるか見もの
次スレはこちら
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://2chb.net/r/cg/1683421154/ このくらい荒れていれば質問したい人は↑へ行くからちょうどいいよ
バイトすらしたことの無い無職ニートをコトオジと呼んでる
>>958 みたいなやつ最近増えすぎだろ
ここからは適当な画像を適当に上げていきます
次スレはこちら
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://2chb.net/r/cg/1683421154/ -curl lud20250118222204caこのスレへの固定リンク: http://5chb.net/r/cg/1682213108/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ9 YouTube動画>1本 ->画像>78枚 」 を見た人も見ています:・【StableDiffusion】画像生成AI質問スレ3【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ27 ・NHK総合を常に実況し続けるスレ 221749 片山美紀ちゃんの生成AI画像を作成して楽しんでる ・AI画像生成マネタイズスレ ★142 ・AI画像生成マネタイズスレ ★111 ・AIイラスト、画像生成AI総合 ★3枚目 ・AIで画像生成してる人のマネタイズ関連スレ ★41 ・AIで画像生成してる人のマネタイズ関連スレ ★22 ・AIで画像生成してる人のマネタイズ関連スレ ★26 ・AIで画像生成してる人のマネタイズ関連スレ ★27 ・AIで画像生成してる人のマネタイズ関連スレ ★34 ・AIで画像生成してる人のマネタイズ関連スレ ★30 ・AI画像生成雑談スレ ★80 マネタイズスレ ・【StableDiffusion】AI画像生成技術13【NovelAI】 ・【StableDiffusion】AI画像生成技術10【NovelAI】 ・【StableDiffusion】AI画像生成技術22【NovelAI】 ・AI画像生成雑談スレ ★57 愚痴・マネタイズ・ヲチスレ ・【AIポスター】画像生成AI信者ヲチスレ_121【AI○○】 ・【絵師への憎しみ】画像生成AI信者ヲチスレ_97【AI○○】 ・【AIポスター】画像生成AI信者ヲチスレ_124【AI○○】 ・【AIポスター】画像生成AI信者ヲチスレ_120【AI○○】 ・【猫の日】絵を描くとネコに変換してくれる画像生成AIが話題[02/22] ・【絵師への憎しみ】画像生成AI信者ヲチスレ_100【AI○○】 ・【Nore more 生成AI】画像生成AI信者ヲチスレ_135【AI○○】 ・【Nore more 生成AI】画像生成AI信者ヲチスレ_140【AI○○】 ・【朗報】話題の画像生成AIに作画させた漫画、ワンピースより面白いwwww ・【画像】ぼく「ラーメン食べてる真姫ちゃんの画像を生成しろ!」AI「は、はい…」 ・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ ・画像生成AI用のタグ自動生成ツール《魔術百科辞典》が中国で公開され話題に ・【IT】生成AI 児童ポルノ画像を学習か 専門家「被害者の人権侵害恐れ」 [雑用縞工作★] ・Microsoft、検索しても出てこない画像を代わりにAIで生成する技術を「Bing」に実装 [香味焙煎★] ・アニメ監督「画像生成AIでイラスト描いてみた」 反AI連合軍「警告…。AIイラスト問題を知らない人へ…」 ・【画像】AIが生成したお前らの似顔絵がこちらwwwwwwwwwwwwwwwwwwwwwwwwwwww ・【ソフトウェア】画像生成AI「Midjourney V5」登場、超高画質&AIが苦手な「手」もキレイで実写との区別はほぼ不可能 [すらいむ★] ・【pixiv】著しく写実的な画像を“一律禁止”規約改定に「混乱を招いた」として再度説明、生成AIも念頭に置いた対応か [Ailuropoda melanoleuca★] ・【高画質画像生成AI】「Stable Diffusion 3」発表、画像生成AIが苦手とする「指定した文字の描写」「複数の被写体の描写」などを実現可能 [Ikhtiandr★] ・【画像あり】免許撮ったけど質問ある? ・知らない水草、魚を画像で質問するスレッド ・【画像】美女とドライブしてるけど質問ある? ・■ エロ画像やエロ動画の質問スレ 2 ■©bbspink.com ・■ エロ画像やエロ動画の質問スレ 1 ■ ©bbspink.com ・【画像禁止】 エロ漫画の作者・作品名 質問スレ 51 ©bbspink.com ・大学の同級生の女の全裸画像がネットにあったんだけど質問ある? ・【画像】使用済みナプキンをちチンポに巻き付けてシコってるけど質問ある? ・【いつもの】刺青入った中卒ド底辺のおっさんだけど質問ある?【画像なし】 ・【画像】 安倍首相、頭を下げて謝罪 民主・辻元議員への「早く質問しろよ」ヤジ問題で ・マイクロソフトが6/4に天安門事件の画像を検閲した件でGoogleが公開質問状 全面対決へ ・ネットにおっぱいやらまんこやらの画像が流出した女だけど質問ある?何でも答えるよ [無断転載禁止] ・日々エロコラは作るべく不純でピュアな精神性で画像編集ソフトをいじってる者だが質問ある? ・【質問】 このハロプロダンス学園課外活動の画像に映っている美少女は誰ですか???? ・画像生成AIの台頭でイラストレイターの求人7割減、報酬1/10にwwwwwwwwwwwwwwwwww ・複数写真から自由視点画像を生成 Googleなど「NeRF」開発 3D処理を機械学習で行い、実用に足る視点移動が可能。 [ひよこ★] ・誰かがどんなくだらない質問にもマジレスするスレ899 ・誰かがどんなくだらない質問にもマジレスするスレ839 ・誰かがどんなくだらない質問にもマジレスするスレ719 ・誰かがどんなくだらない質問にもマジレスするスレ829 ・もの凄くタイプな女の子の画像をUPするスレ Part149 ・既婚男性/既婚女性の雑談(双方質問)スレ419 ・【完璧様式美】AIエロ画像が案外好きな人 9 ・超超くだらねぇ質問に物凄いスピードで答えるスレ★129 ・思わず吹いたスレ・画像・AA・HP・FLASH等 その189 ・思わず吹いたスレ・画像・AA・HP・FLASH等 その139 ・思わず吹いたスレ・画像・AA・HP・FLASH等 その159
22:56:41 up 13 days, 0 min, 1 user, load average: 10.13, 9.65, 9.22
in 1.5912809371948 sec
@1.5912809371948@0b7 on 012612