◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ11【NovelAI】 YouTube動画>2本 ->画像>35枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1684577410/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://2chb.net/r/cg/1683421154/ ■AUTOMATIC1111/Stable Diffusion WebUI
https://github.com/AUTOMATIC1111/stable-diffusion-webui パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1 導入方法2
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで
■FAQ Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい? A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像(特に幼児)の生成でBANされる可能性がある Q2:ローカル環境でパソコンの性能はどのくらいがいい? A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMe SSDのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい Q3:NMKDと1111、どちらをインストールしたらいい? A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ Q4:画像を出力したら色が薄い、または彩度が低い A4:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい
A4:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。止めるには生成ボタンを再度右クリックして止める
Q5:アニメ顔を出力したら目鼻がなんか気持ち悪い
A5:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q6:設定を変更したのに反映されない
A6:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q7:消去したプロンプトがまだ効いている気がする
A7:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や、まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている
【CLIP設定ってどうしたらいい?】 イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる 【そもそもCLIPって何?】 ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施 これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている 実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い と思われる ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である
>>1 いい加減きちんと正しいアンカー打とうや
>次スレは
>>950 が立ててください。
>>8 他にも有るから訂正したテンプレをスれ終わる頃に書いてよ
後関連スレの更新も頼むわ
関連スレは要らんと思ってる これを確認しなきゃならんからスレ立てメンドイ
少なくともこんなに要らんでしょ 付け足し付け足しで誰も消さないから増殖する一方
実際テンプレ自体も多過ぎる気がする、コピペもミスったし というか自分よりも早くワッチョイスレ立てた人居たんだな気付かなかったわ どっち使うんだ?同時進行?
X/Y/Z plotのCheckpoint nameの件だけど、なんか決まったモデルだけ違うモデルを読み込ん出るみたいです。 単独で読み込む分には大丈夫なんだけど・・・ プロンプトはPNGinfoから読み込んでなく、自分で書いてるので「設定を上書き」ってのは出てきてないです。
立て乙 ControlNetとかTiled Diffusionみたいな拡張機能ってUI読み込むたびに手動設定必要なのかな Config Presetsで切り替えられると最高なんだが
extensionsフォルダに有る設定ファイルとか開いて弄れば変えられるんじゃないの 拡張機能のstateとかにCNの状態を保存出来るのがあった気がする
おばあちゃんの似顔絵作りたいんですけど何かいいモデルとかプロンプトなどありませんか?どなたかお力貸してください
対面座位Lora作ってみたいけどハニセレとかで3Dモデルに体位のポーズ撮らせて学習素材にできるのかな キャラLoraと使う場合って女Loraと男Lora用意して対面座位Lora使えば再現できそう? やっぱ難しいのかな
controlnetとadetailerって共存できないんだね 切り替えればいいだけと言われればそれまでだけど
前スレ
>>983 名無しさん@お腹いっぱい。2023/05/20(土) 17:34:59.12ID:pzIRZOKO
>>
>>979 >>俺も1650 superだわ、192px x 256pxじゃないと安定して動かない、顔も崩れるし
え?Lora学習の話じゃないよね?
もっとスペック低い 1050 ti の自分がtileなしで普通に 640px * 960pxくらい出力してるんだけど。
バッチ4とかでやってるの?
>>23 それ俺w
GTX 1650 superだと縦横どちらかが384ぐらいになると最後の処理でメモリが足りないと出る
それがVRAMなのか、24GBあるメインメモリかわからないけど前者だろうな
webui-user.bat の @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=--opt-sdp-attention --opt-sdp-no-mem-attentiont --opt-channelslas call webui.bat の記述から --opt-channelslas を削除して上書き保存すると起動しなくなりました 記述を元に戻しても起動しません 何が原因なのでしょう?
>>25 --opt-sdp-attention と --opt-sdp-no-mem-attention ってそもそもどっちか片方でいいと思うんだけど
それ以前に最後のtは打ち間違いだね
>>26 起動しないのは「t」のせいでしたwww
併用してるのはどっかのサイトでそう書かれてたから
実際自分でベンチ回しても僅かだけど速くなってた
ネイティブなubuntuに入れてみたら少しだけ早くなった ただ鯖で実行中にプログレスバーに空白が入って改行もしてしまうんだけど これってbashの設定?直せるもの?
teratermなら改行コードの受信を自動にするとか?
前スレ
>>930 ありがとう
ウィキを見てたら背景は無くしたほうが良いと書いてあったから削除してたけど
背景有りでとにかく枚数増やして学習させて
タグで背景部分をマイナスさせる感じで作るのが良いのかな?
>>27 ワロタw
プロンプトでもスペルミスってるのに上手くいってる時とかあるよなw
あとスレタイから【NovelAI】はなくしていいのでは 質問がないし質問されても詳しい人はここにいないでしょ 専用スレもあるし
webui-user.batを編集して、 --ckpt-dir "ディレクトリ" ↑これでcheckpointのディレクトリを増やせるのはわかったんだけど 1つじゃなくて複数のフォルダを追加する方法ってある? 同じ文章をもう一つ加えても機能してくれない
>>35 シンボリックリンクを張れば行ける
ただ今の1.2.1はバグがあってシンボリックリンクを正しく認識してくれない不具合がある(dev版では修正済)
過去スレにあった質問だから見てるかわからんがインテーク消したい人は
Civitaiに行って「No More Hair Intakes」ってLoRAを落としてこい
https://civitai.com/models/60479/no-more-hair-intakes >>24 --medvram とか --lowvram などのロースペック用オプション入れても?
多分エラー吐いてるのはVRAMの方だろうし、うちはメインも20Gだから
それはちょっと設定を見直した方がいいと思う。
うちのPCでも多少時間はかかるけどTiled diffusionとか使えば1000px以上出せるよ
>>36 それって別のmodelを別のディレクトリに移してそっちを参照できる機能であって
参照するディレクトリを複数に増やせるわけじゃないんじゃないの?
>>39 C:\ModelA
D:\ModelB
これを E:\Model にシンボリックリンクを張れば、参照先は
E:\Model\ModelA (実体は C:\ModelA)
E:\Model\ModelB (実体は D:\ModelB)
となるので、chpt-dir にE:\Modelを指定すればいい
マイナーな構図だと男とセットで出してくれないな出ても人体が崩壊してたりする やっぱ漫画みたいに2人以上が絡み合った構図はまだ厳しい感じ?
1つのLoraの中に入っていれば複数人は出しやすい印象 男が入るとどうなるか知らんが女の子同士ならキスもしてくれる
男の特徴が女に移ったりしてうまくいかないi2iで量産して素材増やせばいいのかね がっつり抱き合うような密着構図はまだ安定しないのかな
体感だと、男女がはっきり描かれてる絡み構図は50枚に1枚ぐらいはまあまあ不自然でないのが出る ほとんどの場合は人体が崩壊するか指示が無視される
Loraでもがっつり2人が絡む構図は難しいのね 女同士だったり軽い密着程度なら出してくれるのに
>>38 4GBの1650 superでlora無しのfp16のモデルと標準的なVAEだけ
set COMMANDLINE_ARGS=--autolaunch --medvram --no-half --no-half-vae --disable-nan-check
だったんだけど、 --lowvramを入れると256x384は安定して出るようになって、
afterDetailerを有効にすると
RuntimeError: Expected all tensors to be on the same device, but found at least two devices,
cpu and cuda:0! (when checking argument for argument mat1 in method wrapper_CUDA_addmm)
とか
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data.
DefaultCPUAllocator: not enough memory: you tried to allocate 2457600 bytes.
が出る
懲りずに生成ボタンを押すと色々なプログラムがエラーが出て落ちるようになるからVRAMがカツカツなんだろうね
フルHD 3画面使っているというのは関係あるかわからないけど・・・
afterDetailer使わないとさすがに目が崩壊するから使いたいけど、エラーを誘発する
>>27 両方書いても片方しか有効じゃないよ
差が出たのは気のせいだ
(no-mem優先)
>>35 ,区切りで複数指定dirなんじゃない
超初心者ですいません。 先月からAI画像に興味持ち、昨日お試しでできるくらいの環境推奨PCきたので、インストールしようとしたのですが、インストール途中で止まり先が進まなくなりました。1時間くらいはかかるとあったのですが6時間立っても先に進んでいませんでした。 先に入れておかないといけない2つのソフトウェアはインストールできています。 エラーらしい文字はないように思えるのでが、何かインストールのやり方自体間違っているのでしょうか?
止まってるときにEnterとか押すと何事もなかったかのように処理が進むことがあるな このケースに当てはまるかはしらんけど
ここで聞いても良いのか分かりませんが一昨日StableDiffusionを起動出来る様にしてシャットダウン次の日に起動したらデスクトップ画面のタスクバーのみが表示した状態で画面全体が点滅して起動しなくなりました、最初からではなくデスクトップが表示されてから点滅します その後復元で直ったのですが今日また起動すると同じ現象になりました、StableDiffusionインストール後に再起動は問題無かったです 今はまた復元している最中なのですがこれは何が原因でしょうか? ちなみに復元ポイントにはwindowsモジュールインストールと書いて有ります 時間は23時頃でその時は特にパソコン触って無かったのですが
追記です 今復元が終わりwebui-user.batを実行すると Couldn't launch python exit code: 9020 stderr: 指定されたプログラムは実行できません。 と出ます そこでwebui-user.batを編集すると1度開けませんとエラーが出ます(エラー名良く見てませんでした)けれどもう一度編集すると普通に開けます。また実行すればStableDiffusionを起動する事も出来ます 昨日も確か同じ事が有ったのでこれが原因に関係有るでしょうか?
>>48 1111だよね? どこからダウンロードしてどうやってインストールしようとしたのか覚えてる?
あとマシンのスペック(CPU、GPU)も知りたい
>>52 1111を一度起動できたのにPythonが見つからないのはおかしいな
Pythonを再インストールすると何か変わるかも?
耳タコかもしれないけど、Pythonのインストーラの最初の画面で「Add python.exe to PATH」を忘れずに
>>48 今はそのやり方じゃなくてもっと簡単な方法があるよ
>>54 ,56
返信ありがとうございます
Pythonを再インストールしてみました
その後再起動してみましたが問題有りませんでした
また次回に再発しないことを祈るばかりです
ありがとうございました
手の崩れ防止に特化したネガティブエンベッドってありますか?
sdweb-easy-prompt-selectorって服装とかは無いの?
棒人形抽出メモリ足りなくて困ったけど。256x256でやったらあっさり作れて拍子抜け
>>40 詳細にありがとう
試してみたいけど1.2.1じゃ不安定らしいので安定したらやってみる
>>47 ,試してみたけどダメそうでした
>>58 バッドハンド、ネガティブハンド、ベターハンドとかはあるけれど確実に防ぐのは無理だね
>>59 自分でYAMLを作れば良いんだ
>>35-36 その話は前スレに
【StableDiffusion】画像生成AI質問スレ10【NovelAI】
http://2chb.net/r/cg/1683421154/747 https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/582 >> 549-550
v1.2.0や最新のv1.2.1だとmodel内にサブフォルダやシンボリックリンクを置いても認識されないバグがあるのでお気をつけて
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/10346 devブランチのcb3f8ffに修正があるそうで、ここを直すといいそうだ(あとでやってみる)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/cb3f8ff59fe8f142c3ca074b8cbaaf83357f9dc1 https://mercury.bbspink.com/test/read.cgi/erocg/1683741610/598 >> 582
やってみた。サブフォルダやシンボリックリンクはちゃんと認識された
ただ、
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/cb3f8ff59fe8f142c3ca074b8cbaaf83357f9dc1 とは当該行の記述がちょっと違っていた
自分が直したのは
shared.pyは751行目を「for root, dirs, files in os.walk(path, followlinks=True):」に
ui_extra_network.pyは94行目を「for root, dirs, files in os.walk(parentdir, followlinks=True):」にした
(いずれも、「files」の部分がgithubのページでは「_」になっている)
でもうまくいった
WebUIのモデルファイルを選ぶプルダウンメニューでの表示方法が変更されてる
今まではモデルファイルがサブフォルダにあるかどうかにかかわらずファイル名でソートされていたが
今回の処置の結果、「サブフォルダなどの名前/モデルファイル名」でソートされるようになっている
どのフォルダに入っているのかがわかりやすくなった
被写体の顔に影が落ちることが多いから避けたいんだけど 光源を撮影者の背後に置いたり、レフ板を置いたりするようなプロンプトってある? frontlightingとかBounce Lightingは試したけど効いてない気がする
>>57 何もしていないのに、ファイルが壊れたと判定されるなら、chkdskの出番かも。
>>64 soft light on faceとか
質問よろしいでしょうか? スマホアプリでStable Diffusionをやろうとかんがえているのですが、だめですかね?
イメージで浮かび上がるのはあるけど 結局プロンプトの言語化できるかどうかだよな どんな言葉があるんだっけ?って ググってばかりいる
>>29 鯖にモニタ繋げてもスクロールしてしまうんで
StableDiffusionの仕様なのかbash.rcとかで解決できるのかわからなくて聞いてみたんよ
>>66 ありがと、でもあんまり上手くいかないかな
そりゃあ、お天道様に顔向けできない絵を作ろうとはしてるんだが
もうちょいお天道様の方を向いて欲しいもんだ
ほんと逆光になるのはなんでだろうな? 自分も順光にしたいと思っているのに、逆光率が高すぎて困る。 いろんな人のイラスト作例見ても同じような感じなので今はもう諦めたけど。
forward lightingがカメラ用語での順光で あと確かそのままレフ板の光みたいなプロンプトもあったような 誰か黄色の光から赤・紫を通って青の暗闇につながるグラデの色使いが出やすいプロンプト知ってたら教えて complementary colorとか効いてる気がせん
モデル作成時に教えてない言葉には引っ掛かりようがない
今試して見たけど俺の使ってるモデルだとbacklightingが効いたからネガティブに入れる事で逆光は回避出来たよ
ついに世界的な規制へ日本も足並みを揃えることが決まったな おまえらゲームエンドおめでとう
朝パソコンが起動しないと質問した者ですが再起動したらまた起こりました
復帰ポイントは16:41のWindowsモジュールインストーラーでした、またその頃は特にパソコンには触れてません
Python以外の原因としたらこれっぽいのですが勝手に何かモジュールをインストールしているのでしょうか?
>>65 返信ありがとうございます
壊れているのかよくわからないですが復帰終わったら試してみます
>>77 backlightingに加えてsidelightingもネガティブに入れたら
前面が明るくなる率が上がった気がする
ありがとう
TiledDiffusionにあるFREE GPUってどういう効果があるのかさっぱり分からないけど、有効活用してるニキはいるんかいな
webui-user.batを編集すると出るエラーですが このアプリの詳細オプションに移動して、[修復] を選択する必要があります。問題が解決しない場合は、このアプリを再インストールするか、管理者にお問い合わせください。 と出ます そして詳細をクリックするとwebui-user.batが開けませんでしたとエラーが出ます、OKしかないのでOKをクリック そしたらその後は普通に編集も起動も出来ます chkdskも試しましたが問題は見つかりませんでしたとなってました
生成でちょっと笑ってしまったんだが トップスにセーター着せてたんだけど ズボンまで生成された時に素材がセーターだったw なのでプロンプトにジーパンを入れたら 今度はジーパンまで写す変な体勢になる これってさりげなくジーパンを反映する方法あります? プロンプトの強調でマイナス入れれば良いのかな?
>>83 もうそれstablediffusionがどうのこうのというよりPCの問題じゃないか?
(ジーパン:0.5)とかでいいんじゃない? 許容するけどあまり出すな指定
いつのまにかワイルドカードとかランダムコマンド入れてても効いてない事になってるんだけどおまかん?
ID:99EeJeiP HDD(SSD?)がヤバいのでは・・ イベントビューアでdisk0なんたらみたいなログがないか確認
>>85 ,88
返信ありがとうございます
イベントビューアを調べて見た所disk絡みの警告は
ディスク 3 のディスク識別子が、システムに接続されている 1 つ以上のディスクと同じです。Microsoft サポート Web サイト (
http://support.microsoft.com ) にアクセスし、KB2983588 を検索して問題を解決してください。
と出ています
また復帰ポイントの時間で出ているエラーだとWindowsUpdateClientで
インストールの失敗: エラー 0x80073D02 で次の更新プログラムのインストールに失敗しました: 9NMPJ99VJBWV-Microsoft.YourPhone。と
: 9NFTCH6J7FHV-Microsoft.PowerAutomateDesktop。
という二つのエラーが出てました
これはこのアップデートが問題なのでしょうか?
>>88 これ自分へのレスかな?
ssdが保存先だけど余裕は十分ある
いままできちんと動作してたから構文は間違ってないはずなんだけど
__color__ とか {dog | cat} という感じ
生成された後にプレビュー画面の下にプロンプトが表示されると思うけど今まではそこにランダム選択された単語が表示されてたけど、いまは__color__ とか {dog | cat} がそのまま表示されてて効いてないっぽい
>>89 もしかしてUSBのHDD使ってる?なんかそんな症例があるとかないとか・・
> windows10のUSB-HDDでおなじUSB-HDDアダプタ製品を使ったらダメらしい
> USB接続でのディスクの複数接続でシリアル番号がすべて同じになってしまうとwindowsのクライアントはディスクを判別できないらしい。KB2983588
> USB HDDをASMediaのUSBホストコントローラーにつないだ場合等にも起きてるようなので
> 刺すポートを買える(チップセットから直接出てるやつ)にかえるとか、
> ドライバーをWindows10標準からベンダー最新版に変えてみるのはいかが
ID:qe/em78L
なんかすまん・・Dynamic Prompts使ったことないのでわからない
>>92 効いたなら何より
これ見てる人が共有してよりえっちな画像が世に出てくる事を願う
>>93 返信ありがとうございます
先程の回答で書くべきでしたがSSDを使っていてWindowsは11です、申し訳有りませんでした
ただUSBでHDDは4つ繋いでいますがこれは影響有るのでしょうか
それならば別のハブを買ってくるのですが
>>94 > ただUSBでHDDは4つ繋いでいますがこれは影響有るのでしょうか
SDはSSD上だけで動かしてるのに、全然関係ないUSB HDDが関係あるんか?って言われても、わからん、としか言いようがないw
別のUSBハブで治るか?なんて見当もつかない
USB HDD外してSD動かせる?とにかく原因切り分けないと
なお上のKBなんたらの修正プログラムはwindows server用のもので適用無理とのこと
・・さすがにそろそろこのスレの範疇超えてきてるような
>>96 返信ありがとうございます
そうですよね、ただHDDは外しても問題無くStableDiffusionは使えます
なのでHDDは関係無いっぽいですね
自動的にインストールされるWindowsUpdate絡みの問題という感じだと流石にスレチですよね、この更新を止めて様子を見てみようと思います
ありがとうございました
またスレ汚し大変失礼致しました
>>67 もはやStable Diffusionのスレというより、Automatic1111 WebUIのスレだもんなw
スマホ版もある事はあるけど、開発者・技術者向けと思った方がいいでしょ。
PixAI.art あたりのサービスを利用する方がいいと思う。
>>90 ワイルドカードの管理で一覧は表示される?ちょこちょこワイルドカード読み込め無い不具合は有るよ
読み込めるなら設定の所で構文解析の文字列が変えちゃった可能性も有る
後は有効のチェック外れてるとかかな
1111を自宅PCで立ち上げてDDNSとか使ってSSHかVPNで外部からアクセス 1111のshareする機能は何かセキュリティ的に怖い
>>100 カードは読み込める
1度エクステンションから削除したり、本体更新してみたりしたけど状況は同じだなー
あと有効チェックは入ってる
構文解析の文字列が変えちゃったっていうのがどういう事か分からないので教えてほcです
なん色々いじってたら直った どこ弄ったのが効いたのか分からないから なんも情報価値がない質問になってしまってすまない
>>102 更新してるなら関係無いと思うけれど一応
設定に構文解析で使用する文字列があって{}とか__とかいうの何かの拍子で変えちゃって効いてないのかなって思った
>>105 ありがちで気が付かないやつですね
気をつけておきます
ありがとうございます
>>101 金で解決するならVPNルータ買ってちゃんと設定すればインターネットの入口(出口)でセキュリティかけるからほぼ絶対安全とは言えるかな
それ破られたら拠点間VPN張ってる企業全部やばいってことになるからね
いまって拠点間VPNは狙われまくっててやばいからまともな企業はVPNからIAPに替えてるところだと聞いてる VPNだと一か所穴が開いたら全部やられるからかな
>>82 やっていることをみると、PyTorch の torch.cuda.empty_cache() と、torch.cuda.ipc_collect() を呼んでいるみたいなので、無駄でないかな。
出力しているメモリ量とかが、上記コマンドの実行後なので、実行前と実行後を出すように改造すると、効果がわかる・・・。かも。
tileddiffusion.py の 598~611行目
グラボ2枚挿ししてるニキおらんかな そもそもローカルSDが対応してるかしらんけど
似たような質問かもしれないしズレてるかもしれないけど、私も気になります たとえば、 内蔵GPU + RTX 3060 で構成して、画面出力を内蔵GPUに任せるとグラボ側のエラー落ちが軽減されたりしますでしょうか?
こんな画像作ってるんですが、
このスレでよかったでしょうか?
>>113 こういう画像は好き
だけどここは質問スレだから、できた画像を貼るのはここの前に書き込んでいた総合スレ19がちょうどいいと思うよ
マルチポストはしないでね
>>111 GPU複数対応は知らないけど、内臓GPUに仕事させてグラボ空けるのは可能
だけど、どこまで効果あるかはその人の環境次第だと思う
内臓GPUにモニター繋ぐのは当然だけど、それとは別にWindowsの設定のグラフィックの設定で
必要なアプリを省電力設定にすれば、指定したアプリが内臓GPU使ってくれるはず(省電力時にどうなるか表示されるので要確認)
どのアプリがVRAM食ってるかはProcessExplorerってゆうツール使えば見れたばず
Stable Diffusionで一番上のcheckpoint選択するところが消えたんですが原因は何だと思いますか?
dynamic promptの{ | | }構文をよく使うんだけど webui再起動した時に「↙︎」にて前回のprompt読む時に反映されないため いちいちメモ帳とかにコピペして貼り直さなきゃならんの糞面倒 dynamic prompt込みの前回promptをそのまま「↙︎」で引っ張って来れる方法ない?
>>117 あそこって設定で好きなもの出せるから、何かの理由でその設定が消えたんじゃない?
設定の項目名わすれたけど、設定画面行けば分かると思う
loading Loraでエラー吐くようになって AttributeError: 'str' object has no attribute 'filename'とか出てくるけどバグか? テスト版とstable版で分けてほしい・・・
>>119 User interfaceのQuicksettings listだと思うんだが、sd_model_checkpoint sd_vaeになってて問題ないようには見えるんだがどうなんだろう、、、再起動しても改善されない
>>118 希望の回答とは違うだろうけどスタイル使えば希望の保存して何時でも呼び出せるぞ
「partially submerged」と打つと、腰とか足が水に浸かった画像を出せるんだけど、「首から下」みたいに特定の部位以下を浸からせるプロンプトがわからん 「submerged below neck」とかやってもうまくいかない(それどころか首に謎の装飾品がつく) ソフトはA1111ローカル、モデルはWD 1.5 Beta3 Illusion
>>122 すまん色々調べてたら直った、ありがとう
>>123 ネガティブはあまりいじらないのでスタイルでいいんだけど
ポジティブは頻繁に組み替えるので一々スタイル使ってられない
>>129 何と書けばいいかわからん
その直訳通り「sink shoulders」でもダメ
>>128 そんな設定あったんだね
3060で少し不満があったけどさすがに20万のグラボを買おうとは思わんから
10万のグラボを買い足してタスク振り分け試してみる
最近、1111の中断、スキップボタンが全然効かない気がする 押しても無視して完走w
>>109 ありがとう
なるほどわからん
無駄ではないということがわかった(白目)
ローカルでやりたいからPC買うんだけどスペックこれで大丈夫? CPU Core i5-13400F グラフィックス GeForce RTX 3060 12GB メモリ 16GB (8GBx2) (DDR4-3200) ストレージ 500GB NVMe SSD/追加ストレージ 無し それともメモリとストレージこれに上げたほうがよかったりする? メモリ 32GB (16GBx2) (DDR4-3200) SAMSUNG ストレージ 1TB SSD (NVMe Gen3)
>>134 メモリ32GB、ストレージは1TBのSSDに追加で2TB以上のSSDかHDD
内蔵1TBだとすぐ容量が埋まる
なんならOSとSDでSSDを分けて、更に貯まってきた時用にHDDがあっても良いくらい 最近は安いし
>>135 まだ容量増やしたほうがいいのかCPUとグラボはこれでいいのかな
>>130 soak up to shoulder でやってみたけど、
肩がちょっと出る感じで完全には沈まないね
>>137 予算厳しいならCPUのランクは下げてもいい
i5 12400Fか生成中に動画見たり他の作業したいならiGPU使えるi5 12400でも
グラボは上狙うと倍かかるから3060でいいのでは
SSDはシステムそのままで専用にSATAの安いの追加でもいい
>>139 >>140 ありがとう
モニターとか込みでギリ20万超えないくらいの値段になりそうで助かった
webUI起動時のデフォルトで表示されるモデルを変更したいのですが、ui-config.jsonを書き換えるだけでは反映されません 他に何の設定をすればいいのでしょうか 何度やってもモデルリストの一番上にあるモデルが居座っています
こんにちは 欲しい画像を依頼したら制作を手伝ってくれるスレはありませんか? ちなみに女の子の絵ではありません
webUIにはtorch: 2.0.1+cu118 なんだけど nvidia-smiすると NVIDIA-SMI 526.98 Driver Version: 526.98 CUDA Version: 12.0 とCUDAバージョンが異なるのは問題無い? 下位互換性はある? VRAM 4GBなのでメモリ不足以外のエラーはよく出てるけど誰かアドバイスお願いします
>>142 ウチは最後に選んでたのがそのまま起動時に選択されてるけど・・なんでだろ
絶対一番上になるのならABC順なので、選びたいモデルの名前の一番前に「_」つけるとか
>>144 https://zenn.dev/takeshita/articles/a02402e59d72a7 らしい
>>145-146 対応している最大のバージョンということで安心しました
>>145 どうもです
正確にはPC再起動などbatからやり直した場合のことでした
cmdを閉じずにwebUIの再起動だと最後に使っていたモデルが採用されてます
>>148 どうもです
こんなやり方が(汗)
以前config.jsonの書き換えでうまく行ってたからそればかりにとらわれてました
昨日まではなんでうまく行ってんだろう・・・
cmdを終わらしても前回の最後を読み込んでくるよ 調べたらwebui上でモデルを切り替え完了した時点で「config.json」に書き込まれてる ("sd_model_checkpoint": ) 次の起動時にはそれを見て読み込んでる模様 環境がなんか壊れてるんじゃないかな?
>>138 それをneckやchinにしたらどうだろう
>>82 タスクマネージャーでGPU使用率見ながら押せば分かるよ
>>120-121 調べてみたけどこのcommitは2日前のautomatic1111のdevブランチのLoraのAPI
(extensions-builtin/Lora/lora.py)の変更対応したものらしい
https://github.com/AUTOMATIC1111/stable-diffusion-webui/commit/39ec4f06ffb2c26e1298b2c5d80874dc3fd693ac a1111-sd-webui-locon側がちゃんとブランチ切るべきだね
>>138 もしかしてStable Diffusion自体こういう細かいプロンプトに対応してない?
>154 昨日自分も最初は焦りましたが、Extensionsのレストア機能使ってLoconのみを update前の状態に出来たので、大きな巻き戻しせずに助かった。 Extensionsのバックアップ・レストア機能って最近導入されたのかな。
生成する画像が、どれも彩度とコントラストがギラギラと強すぎて困っているんですが原因分かる方いませんか?colabでSD使ってます。
下のサンプルは、どれもvaeを「none」にしています。それなのにギラギラと彩度とコントラストが強くて明るいところが色飛びしてしまっているんです。
モデルはperfectWorld 「girl, bow tie,school uniform」
以下三つはv1.5標準モデル
冬の街 (彩度が低めの風景になるだろうという題材)
チェコ
室内・宮殿
saturationを下げるようなプロンプトをいくら入れても焼け石に水で、色飛び・白飛び・黒つぶれしてしまうのです。
モデルによって症状に差はありますがveeなしでも彩度とコントラストが強すぎる状態になる傾向は同じです
1111のローカル版を使用、としあきdiffusion様を参考にAI環境を導入した者です。 webui-user.batが立ちあがらなくなってしまい、お力をお借りできないでしょうか。 先日webui-user.batをテキストファイルとして開き、「set COMMANDLINE_ARGS=」の後に 「--no-half-vae --disable-nan-check --autolaunch」 を追加して保存したのですが、スペースを入れずに一続きに書いてしまったせいで、 batファイルを実行した際にエラーが出て正常に動かなくなってしまいました。 (ファイル実行時にプロンプトの画面に長い文字列が出たのですが、何かキーを押して下さい、 の画面のあと消えてしまい文字列は記録せずに閉じてしまいました...ログがなくすみません) その後、batファイルをテキストファイルで開いたところ、別の文字列に代わっていたので wikiを参考に初期設定の文字列に直して保存したのですが 今度はbatファイル起動時にプロンプトの画面が一瞬立ちあがって、消えるようになってしまいました。 エラー文字の記録を取っておらず申し訳ないのですが... ネットでも同様のエラーの事例が見つけられず困っております。 何かご存じの方いらっしゃいましたら教えていただけるとありがたいです。 (batファイルをいじる前は問題なく使えておりました。)
>>124 の水面から首っての、wd-beta3-base-fp16で
1girl,front,face,head,(neck:1.2),water surface
ネガ:(shoulders:1.4)
で
こんな感じ、neck強調増やしても結構水没する
しかしwd系ってなんか怖い・・
>>158 webui-user.bat
を編集して、一番後ろに
pause
ってだけの行を入れて保存して、起動してみて、消えずに止まるのでエラーメッセージが読めるはず
凄いしょーもない編集ミスの何かだと思うけど
>>160 ありがとうございます。
解決が難しそうな場合は別のページ参考にインストールし直ししたいと思います。
またログの方も常に残しておくようにします。
>>161 早速ありがとうございます。
一番下に入力したところ消えてしまったので上の行に入れてみましたが
「キーを押してください」という文言のみ出て、その後消えてしまいます。
念のため、webui-userのテキスト添付します。(webui.batの方も同じ文字列になっています。)
===
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=
call webui.bat
===
webui.batとwebui-user.batは中身全然別物だけど同じ内容なの?
>>163 ありがとうございます。
今「webui.bat」更新日時を調べてみたのですが
誤って内容を上記のものに上書きしてしまってみたいです...初歩的なミスでした...
こちらは再インストール等で内容を更新するしかないでしょうか?
>>163 呼ぶ方と呼ばれる方だから違ってもいいんだよ
webui-user.batのオプションをスペースなしにしてエラー
慌ててwebui.batを編集してwebui-user.batにしたのか・・
> 別の文字列に代わっていたので
この先も色々苦労しそうだ・・
https://www.gigafree.net/system/install/A1111-WebUI-Easy-Installer-and-Launcher.html これの方がいいかも
>>165 まぁ一度
webui.batを上のgithubのページの内容に変えて保存してやってみよう
Rawってボタンで文字だけになるからそれをコピペして保存
駄目なら再インストールで
>>157 Loraを強度1で適用してるみたいな見た目だな
>>167 無事、起動できました。
大変たすかりました...!ありがとうございます。
コードもわからずwikiに頼りきりの身でしたので、
以後不明点が出てくる場合にはそちらのフリーソフトに乗り換えも検討してみます。
>>170 よかった!
>>157 アップローダーに上げて設定全部開示した方が早いかと
https://majinai.art/ こことかchunkが消えない
>>169 うーん、LoRA不使用でもこの状態なんですよね・・・
>>171 確かにcfgを高くすると似たような現象が起きますが、この例ではcfgは7のまま動かしてないんです。他の設定もデフォですね
webUIを全部削除して再インストールまでしてみましたが改善せず
この現象、以前からちょくちょく起きたり起きなかったりしていて、ある日起動すると起きるけど、
翌日には起きなくなってたりでわけが分らず困っている次第で・・
>>173 良いからプロンプト全部わかるようにして画像上げろ
>>173 生成した画像のメタデータを知りたいから
https://catbox.moe にアップロードしてよ
当面の対応としてはsaturationやflat2のLoRAを使うことかな
saturationはマイナス、flat2はプラスの値にする
https://huggingface.co/2vXpSwA7/iroiro-lora/tree/main/release >>174-175 https://imgur.com/a/gVkdusd 先ほどの画像は保存してなかったので(Googleドライブに保存しない設定だと消えてしまうので) やり直した画像をアップしました
割と一般的モデルとしてChilloutMixを選択、vaeなし、LoRAなし、プロンプトは以下の通り。メタデータは画像の方にも残っていますので表示出来る方法を持っていれば確認出来ます
ポジ:100layers, best quality, photo realistic, 1girl, (face focus),(shot diagonally), school uniform
ネガ:easynegative,ugly,watermark,(low quality),(worst quality),(normal quality),(monochrome),(grayscale)
パラメータ: Steps: 20, Sampler: Euler a, CFG scale: 7, Model hash: 59ffe2243a, Model: chilloutmix_NiPrunedFp16Fix, Clip skip: 2, Version: v1.2.1
各画像のシード値です
Seed: 1472044527, Seed: 1472044530, Seed: 1472044531, Seed: 1472044533, Seed: 1725404743, Seed: 1725404748, Seed: 709137217,
Seed: 709137223, Seed: 2228029034, Seed: 2228029036, Seed: 2228029040, Seed: 2228029041,
ネガのこれでは (monochrome),(grayscale)
100layersを削って、DPM++SDE Karrasを選択かな?
>>177 あ、改善しました、ありがとうございます!このプロンプト、こんな効果があったんですね・・反省。お騒がせしました。けっこう考え無しに使ってましたこのプロンプト
ただ、検証のために以前に生成した画像と同じプロンプト、同じシードで生成してみたんですが、それほど極端ではないにしても、彩度とコントラストが強い状態になっているので
↓どこかおかしいところはあるみたいです。
blob:
https://imgur.com/e2661bf9-0109-42ae-80ad-b6cbe31347a4 失礼しました、アドレスコピーミスってたみたいです。
>>179 の下のリンクはこれですorz
>>178 ありがとうございます。確かに100layersも無い方がいいみたいです!
以前はクオリティアップ系のプロンプトに強調カッコつけてたんですが、それでおかしくなってきたんでやめたんですけど裸状態でも副作用けっこうありますね・・
クオリティアップ系プロンプトは最近効果の薄いものは削ってそれなりに最小限にしてたつもりでしたが、検証が足りませんでした。
colab上でvlad版動かしてimg2imgのinpaintすると 元画像が512Pixel以上だと何も生成されない 512以下だと正常に生成される なんでだろう
100layersって初めて見た。どういう効果があるの? リアル系では普通に使うプロンプトなんだろうか?
>>183 100layersは初めて見た。重ねる事で線や色が強調するのかな?
定番のmasterpieceも無いし、不思議な呪文やね
>>183 NAIちゃんの頃からあったプロンプトだね
ディテールが増える
でも独自の効果じゃなくultraとかで代用が利くから今じゃ誰も使ってない
数字って一文字で1トークン消費だから余計に使いづらい
10は2トークン、100は3トークン、1000は4トークン食う
数字を使いたい場合hundredとかSixtyを使えば1トークンで済む
>>185 なるほど勉強になるね。数学とトークンの関係も知らなかったよ。
でも、今は74トークン制限が無いから気にしなくて良いのかな。
Loraで学習するときに無闇に元素材を増やすより品質の高い素材を選んで それを色々切り出し加工とかして枚数水増ししたほうが良い結果になる気がする 極論画像1枚から学習してる人もいるみたいだし でもそれでやってる人が極端に少ないみたいで良く分からない
生成した画像で、明らかに失敗作の場合 その場で、画像削除する拡張とかないですか
>>186 長さ制限がないだけで区切りとしては75だからコンパクトさは重要よ?
最近のモデルは短い呪文の方が望ましいことが多いし
NAIちゃんの頃は225トークンいっぱいまで詰め込んでたけど今は多くても150以内で大抵75までに収まるようにしてる
majinaiとかcivitaiにある絵の呪文を見ても驚くほどあっさりした呪文ばかりだし
>>188 自分は生成した画像全部を自動保存はせず気に入ったやつだけ保存してる
いにしえの呪文だったのね、ありがと 最近のモデルだとmasterpiece必要無いとか言われつつ、自分も脳死で使ってる 情報の更新頻度についてけないってのはあるよね
男もがっつり写ってるエロ絵ってLoraで学習する時どうすればいいの? 画像は何枚か用意できたけど体位だけ学習させたいから似たような構図の素材でいいんだろうか 除外するタグとか男女一緒だと1boy and 1girlとか体位名だけ消せばいいのかな
現在torch2.0.1でxformerをアップデートしたいんだけどtrorchvisionの要求バージョンは2.0.0だというエラーが出る torchのバージョンを2.0.0にすると今度は新しいxformerの要求バージョンは2.0.1だとエラーが出る どうしろと…
>>187 画像少ない時って繰り返し回数は普通より多くしないとだめ?なんかお試しで5枚、繰り返し20回で学習させたけど適用してもせんでも何も変わらん。
paperspaceの事か? あそこはアフィカスが大挙して押し寄せてパンクしたんでしょ
>>190 同じく、オートセーブ外して お気に入りだけ別のフォルダ(HDD)にホカン。
初心者で恥ずかしいのですが、lora適用するとガビガビになってしまいます loraの効き具合(層別?)を調整するにはどの拡張が良いでしょうか あとモデルを代えないとloraが効かない可能性もありますか?
>>199 拡張じゃなくてLoRAの〈~:1〉の1を0.5とかにするだけでいい
VRAM 4GBだと2GBのモデルデータと、loraを使った画像生成は難しい?
>>201 512*512でもかなりギリギリじゃないかな?
やってみろとしか言えない
>>200 はい、薄まったりはできてます(花札のアイコン使用)
推奨層別:NC:1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,0,0
こういう場合はどうでしょうか?
>>203 ああ、推奨あるときは「LoRA Block Weight」って拡張使うといいよ
>>204 ありがとうございます。拡張して色々いじってみます
civitに上がってるような人様のloraを512,512で出力した時は倍率1でも綺麗に出力されるのに、全く同じ条件で自作lora出力すると画質めっちゃ汚くなるのは何故なんでしょうか? 細かいパラメータ色々弄って試してみても何一つ改善されなかったのでアドバイスいただきたいです
お疲れ様です。 質問ですがloraで顔じゃなくて衣装のみを学習させることは可能でしょうか?
>>208 ありがとうございます。
その場合は顔なしの衣装部分だけの画像を学習素材に使えば良いんですかね?
>>201 >>202 とんでもない。
うちも4GBだけど、Tile使って1536*1024 Loraで
画像生成やってるよ。
>>211 も、もし良かったら
webui-user.batの引数何しているか教えてくれたらありがたいです。
half-vaeとか入れると256pxまではいけるけど、384pxになると気に不安定になるわ
数十MB足りないというエラーが一気に出てくるのよね
×:384pxになると気に不安定になるわ
○:384pxになると一気に不安定になるわ
>>211 今は「set COMMANDLINE_ARGS=--autolaunch --xformers --medvram --no-half」で
他の行には手を入れずです。
webui-user.batの内容をシェアしてくれたらありがたいです
>>213 さすがに上のサイズだと5分位かかるので、普段は512*768ばっかりだけど
set COMMANDLINE_ARGS=--lowvram --always-batch-cond-uncond --opt-split-attention --xformers --no-half-vae --disable-nan-check
LoRAが一切使えなくなった… WebUIで変なアップデート入れちゃったかな 安定している環境を安易に変化させちゃ駄目だね
なるほど。 --always〜 と --opt〜 はAutomaticの低VRAM向け設定に書いてあったから これは入れといた方がいいと思う。
>>216 うちもだわ
根本的な解決策ではないけど、
lycorisのフォルダの方にloraを退避させて<loraじゃなく<lycoで呼び出すとそっちで代わりに処理してくれるから
しばらくはそれで凌げるかと
4GBでx2+LORA適用まで行けるのか 1660sの方にも導入したくなってくるな
VRAM8GBなんだが6GBとか7GBのmodelすら読み込めずに落ちる
>>215 こっちでは真っ黒画像しか生成されないようになっちゃった
256px以下でも同じ
step20, CFG7, モデルanything, VAEとlora無し、aDetailerも無しの無し無し仕様
色々抜いてみよう
>>221 おれも8Gだけど、自分でマージしたモデル8G超普通に使えてるよ。
>>223 DRAMの関係もあるのかもね
自分は32GBでブラウザの占有率が高かったりしてカツカツだから
>>225 あら、うちも32G だいたい高くてロラ学習で20Gくらい
ローカルでやりたいので10年ぶりにPCを買い換えたいんですが、参考として
https://www.pc-koubou.jp/products/detail.php?product_id=970595&ref=geforce_rtx3060_level_desk CPU Core i5-13400
メモリ 16GB(8GB×2) DDR4-3200 DIMM (PC4-25600)
グラボ GeForce RTX 3060 12GB GDDR6
ストレージ 500GB NVMe対応 M.2 SSD
これに何か追加した方が良いものありますか?
これまでにcolabpro1ヶ月加入してたぐらいで、無料colabの生成速度で満足しているレベルです。
学習とかも今のところするつもりが無いので、
メモリ32gbやSSD1tbに増量する必要は無いと感じています。(hddは後々追加すると思いますが)
>>225 ちなみに
win 10 i79700 DIMM 2400 32G RTX 2060 super 2年前のSSD 筐体は2019年物
version: v1.2.1 ??? python: 3.10.6 ??? torch: 2.0.0+cu118 ??? xformers: 0.0.17 ??? gradio: 3.29.0 ??? checkpoint: ac68270450
>>216 >>121 にあるが、今エクステが壊れてる
lycorisで<lyco:>使うか、a1111-sd-webui-locon のチェック外して本体内蔵で動かすか、でなんとかなる
>>228 自分のは1080だし全体的な年式ももうちょい古いよ
VRAM以外の性能面で何か足りてないのがあるんだろうね
>>216 Extensionsのupdateの関係だと思うから、
Backup/Restoreのタグで個々のextensionのupdate前まで
戻せる。update時に自動セーブされてると思う。
普通に< lora : *** : * >でlora使えてるんですが拡張機能のadditional networksって 入れるメリットあるんですか? 他の人のxyz plot見てると結構addnetって見かけるんで
>>232 追記
loconとdynamic-promptsのupdateかな。
Magic promptも楽しいんだけどねえ。
>>227 試しにそれでやってみたら良いと思う
あの時こうしとけばよかったは皆が通る道だしメモリもSSDも後から足せるよ
グラボもそれより上を狙うつもりもないでしょ?
>>224 chilloutmix
1girl, water surface
あとは真横からか・・
half underwater shot, by gopro
とかで海だけは出るけど、人間を腰部分で半分はなかなか
kohya ss guiで学習はじめようと思ったらエラー出てしまった Pythonファイルが壊れてるように読めるんだけど、 どなたか問題わかりそうだったら教えてください [Dataset 0] loading image sizes. 100%|████████████████████████████████████████████████████████████████████████████████████████████████| 31/31 [00:00<00:00, 6200.15it/s] prepare dataset prepare accelerator Using accelerator 0.15.0 or above. loading model for process 0/1 load StableDiffusion checkpoint: C:/Users/katud/OneDrive/ドキュメント/sd/stable-diffusion-webui/models/Stable-diffusion/chill_mix_03.safetensors Traceback (most recent call last): File "C:\Users\katud\OneDrive\ドキュメント\kohya\kohya_ss\train_network.py", line 783, in <module> train(args) File "C:\Users\katud\OneDrive\ドキュメント\kohya\kohya_ss\train_network.py", line 146, in train text_encoder, vae, unet, _ = train_util.load_target_model(args, weight_dtype, accelerator)
その”ドキュメント”を半角英数字スペース無しへ置き換えてみて 2バイト文字とスペースはダメだったハズ
>>238 ありがとう。
素のSDモデル指定したら動いた!
>>227 メモリ 増やしたら SSD 増やしたりしたいところだけど
店に頼むとぼってこられるんで後から自分で買い足せばいいよ
試行錯誤が楽しいというのならそれで構わんけれども げっちゅとかから画像買った方が早い気がしてきた
イリュージョン系の3DモデルってLoraの学習に使える? やっぱ学習画像が3Dモデルだけだと厳しいのかな
>>243 イリュージョンじゃないが、3Dソフトの画像で学習やったよ。
写真や画像よりもいろんな角度の画像を揃えやすい。
ベースモデルに混じると割とCGの硬さも自然に馴染んで行くし。
>>244 馴染むならイリュージョンの何か買おうかな
スタジオ機能で複数人並んだスクショ学習素材にしてもやっぱ複数だと人体破綻するんだろうか
拡張アプデしたらワイルドカードが効かなくなったんだけど原因分かる方いらっしゃいますか
ControlNetのopenposeで1コ1コ画像生成すると、某人形画像は 下記に上に入ってます Windowsの C:\Users\<アカウント名>\AppData\Local\Temp ところがダンス動画から踊りのポースをVLCプレーヤーで連続コマ画像として取り出せるのですが、 ControlNetのBatchでopenposeで取り込んで、人間の画像は生成できても 某人形が上記に保存されません どうやったら連続の棒人形画像取り出せますかね Poseを使った方法でもいいです
初歩的ですみません ローカルでlora使おうと思ってますがVRAM4gbはキツイでしょうか? 多少時間かかるくらいならいいのですが、、
>>247 Settings → ControlNet → Allow detectmap auto saving
上記設定しとけばoutputsフォルダ下に保存されるよ
3060でコントロールネットメモリ不足にならないですか? 1660ti使ってるのですがメモリ不足で動かない
>>251 使い方は人それぞれ なんで
RTX 3060 で不足になったら RTX 4090を買う
webuiで複数枚生成時に自動(ランダム、順番どちらでも)で縦横比を変更する方法って無い? 今は入れ替えボタンで512x768を逆にしてるんだけどforeverモードで放置出来たらバリエーション増えるなって。
1.2.1になって何か変わっちゃった?… 数週間前の画像を再現しようとしたら微妙に違うものが出力されてしまう… 画像に入力されてる生成情報を見ると「Version: v1.2.1」が付記されてるかどうか… 昔の生成方法に戻すにはバージョン戻すしかないのかな?…
同じく3060の6Gだ。楽しくてゲームしている暇が無い。
>>256 それなw
すべて画像生成に持って行かれる勢い
openpose editorからcontrolnet unit1に持って行く方法ってどうやりますか?
>>254 設定の「互換性(Compatibility)」にある「古いKarras SchedulerのSigmaを使う(0.1~10)」
とか「Lora: use old mechod that takes longer when you have multiple Loras…」
のあたりをオンオフしてみたらどう
一番上の「古い強調の実装を使う」は確かかなり古い話なのでたぶん関係ないと思う
1111でdanbooru由来ではない認識するプロンプトと認識しないプロンプトがありますが、どういう仕組なのですか?教えてください 例えば illustration,masterpiece,best quality,nsfw,dark background とか。これらはTaggerでも出てこないような
すみません、LORA学習にてYouTubeを参考に学習させようとしているのですが、動画の中で、 datasetconfig.txtと言うファイル名をdatasetconfig.tomlに変えて PowerShellで実行しても、何故かファイルがありませんと出て実行されません、、 何度見てもそこにあるんですが、認識せずと言う感じで学習してくれない感じです。 お力を貸してprepare tokenizer Load dataset config from C: \TrainingData\datasetconfig.toml Traceback (most recent call last): File "C:\Kohyass230401|sd- scripts|train_network.py", line 783, in <module> train(args) File "C: Kohyass230401\sd- scripts|train_network.py", line 84, in train user_config = config_util.load _user_config(args.dataset_config) File "C:|Kohyass230401|sd- scripts|library\config_util.py", line 485, in load_user_config raise ValueError (f"file not found/ファイルが見つかり &th: {file}") Value Error: file not found/ファイルが見つかりません:C: \TrainingData\datasetconfig.toml Traceback (most recent call last):
web uiで操作してて、いじっては止めて、100枚生成して、またいじってと繰り返してるんだけど、 ブラウザ重くなって生成ボタン押せなくなるの俺だけ?
>>263 クラウドなら数枚で押せなくなったりします
SDのバージョン下げたり、グラディオのバージョン下げると絵が変ることあると思いますか? 自分は同じpromptやシード値でも代わりました
>>264 まじかー
ブラウザ側の処理が重くなってとまってしまうわ
>>261 動画って言われてもわからんけど
エラーログに|と\が混雑してるのは何で?
パスなら全部\になるべきでは?
>>251 >>263 【使っているOSのバージョン】
【DRAM(メモリ)容量】
【グラボの型番・VRAM容量】
【使いたい拡張機能の名前】
【出力したいサイズ】
最低でもこの4つは明記して共有すると知識のある人が助言しやすいかもしれないぞ
(他人のPC環境を遠隔透視できるエスパーではないので)
>>269 そうだよね
それとパソコン自作すれじゃないんで
そのことに関しては自作すれて聞いてくれとしか言えない
>>269 ありがとう
【使っているOSのバージョン】windows10
【DRAM(メモリ)容量】16G
【グラボの型番・VRAM容量】 GTX 1660Ti(6G)
【使いたい拡張機能の名前】
>>267 ControlNetのDepth map library and poser
【出力したいサイズ】512x512 Hires. fix
>>268 この方の動画になります
VIDEO ファイル名をtxt→tomlに変える作業で、この方の動画内ではtxtとtomlでファイルのアイコンが変わりますが、自分のPCではアイコンが変わらないのも何か引っかかります。
混雑については良く分かりません、、そのパスは自動で指定されているので、、
>>272 もしかしてPCの設定で拡張子表示してない?
>>269 ありがとう
web uiでブラウザから生成ボタン押せなくなる現象、
誰かいたら教えて欲しい
【使っているOSのバージョン】 Windows 11
【DRAM(メモリ)容量】 80GB
【グラボの型番・VRAM容量】4090
【使いたい拡張機能の名前】LoRA Doll4つと自作顔LoRA
【出力したいサイズ】 Hires 768x1152
>>272 commandline.txtとdatasetconfog.tomlを圧縮してky+jUj8J.zipに(あなたのIDね)
https://litterbox.catbox.moe へいって1day選択して
大きな水色部分に圧縮ファイルをドラックアンドドロップ
URLをコピーしてスレへ報告
多分誰か教えてくれると思う(丸投げ)
自分もその動画でLoRA作成できたので、動画をゆっくり見る→一時停止→理解する→動画をゆっくり見る を繰り返す。
仕事でやってるならともかく、結果を早く求めすぎなんじゃないかな。
>>274 肝心のブラウザは何?
別タブでcivitai開いたりはしてない?
>>273 おおおおおおお、、detasetconfig.toml.txtと表示されtxtを消したらtoml扱いになりました😱
そして無事に学習は始まりました😭😭😭
もう、1ヶ月くらい挑戦していたのでようやく出来て感動しております😭
しかし今度0STEPから進まずエラー、、この問題orz
すみません、、
File "C: \Kohyass230401\sd-scripts\venv\lib\site-packages\torch\nn\modules\conv-py",line453,in
_ CO
return F.conv2d(input, weight, bias, self.stride,
RuntimeError: Unable to find a valid cUDNN algorithm to run convolution
>>275 ありがとうございます😭
何とか学習スタートまで来ましたが、0から進まずエラー orz
>>271 とりあえずGTX系なら前提としてLowVRAMチェック入れてるだろうけどそれでも無理なのかな
だとするとGTX1660ではハイレゾ入れてコントロールネット使うの無理なんだろなぁ
3060ならそのくらいのサイズは特に問題感じてないかな
そもそもVRAM量以前にRTXとGTXではSDでは大きな性能差があるよね
お疲れ様です。 質問ですがloraで顔じゃなくて衣装のみを学習させることは可能でしょうか?
>>277 気になったんで最後の行だけ検索したら性能が足りない的なあれを見つけたけどグラボは何を使ってるんでしょう
動画説明にVRAM8GB推奨と書いてあるからそんなにシビアじゃないとは思うけど
例題のずん子のやつで同じ繰り返し数とエポック数なら性能低くてもいけるよなぁ
コマンドライン間違えてるとかもありえるのかな
>>280 はい
civitaiにも衣装LoRAたくさんあると思います
いちいちLoRA作りするのが面倒なら最近だとcontrolnetのreferenceを利用したりもするらしい
>>259 全部試してみたけどだめですた…
顔は全く変わってなくて服や体が微妙に変わるからLoraの効く量が変わったとかなんかなぁ?…
これおま環なんかなぁ…
>>276 ブラウザはChromeとSafariでタブ開きまくってた
いろいろ試したけど素のFirefoxでやると軽い
>>283 それ例のLoraを読み込めないエラーでは?
loraが読み込めないエラーってどうしたら治るの?
>>285 それに対してはmain.pyの記述を変更するという対策で解決しますた!
全く効いてなかったら全然違う画像になってるので効いてないということはないと思います…
「Version: v1.2.1」で一体何がどう変わったのか……
もうわかりません…
>>286 自分はこれでLora読み込み不可問題を解決しましたが、
違うエラー「AttributeError: 'LatentDiffusion' object has no attribute 'lora_layer_mapping'」
が出る人も中にはいるようで全て解決したわけではないっぽいです
https://github.com/KohakuBlueleaf/a1111-sd-webui-locon/issues/40 extensions\a1111-sd-webui-locon\scripts
main.py
line 371: lora.mtime = os.path.getmtime(lora_on_disk)
line 373: sd = sd_models.read_state_dict(lora_on_disk)
>>281 3060ti使っています。。ダメっぽいかああ
>>274 1.2.1だとこんな問題があるという話が別スレで出ていた。関係あるかな?
【StableDiffusion】AIエロ画像情報交換25
https://mercury.bbspink.com/test/read.cgi/erocg/1684654352/78-80 78 名前:...φ(・ω・`c⌒っ (ワッチョイ 9702-FIIW)[sage] 投稿日:2023/05/22(月) 08:36:20.29 ID:9KEYdIiF0
>> 75
1.2.1はUIにどんな問題があったっけ
・PNG Infoタブで読み込んだ画像をクリックしても拡大されない
・Hires.fixをオンにしてもパラメータが表示されない、オフにしてもパラメータが非表示にならない
まあいいかでページをリロードしたりしてそのまま使っちゃうのがよくないのか?
80 名前:...φ(・ω・`c⌒っ (ワッチョイ a6ff-o7Mo)[sage] 投稿日:2023/05/22(月) 08:42:10.17 ID:0vnj4eUc0
>> 78
ボタンがちょいちょい無反応になるのよね
たとえば花札マークが反応しなくなってLoRA一覧が閉じれなくなるとか、生成ボタンが効かなくなるとか
「Hires.fixをオンにしても~」ってのももちろんあった
ほんの数分使うだけでガタガタになってUI再起動させられるから使えたもんじゃなかったよ
やれることが多過ぎて覚えきらない 使えないものは切って絞っていく方が良いか
>>282 ありがとうございます。
その場合は顔なしの衣装部分だけの画像を学習素材に使えば良いんですかね?
YouTubeやらとしあきwikiとかで勉強してるけど導入方法とか理解できたけど エラーの直し方だったりPCの知識無いから端折られてる部分がわからない画像生成やってみたいけど難しいですか? PC知識皆無で高いPC買ったら後悔しますかね?
飽きたらPCゲーやれば無駄にならないから問題ないよ
誰でも最初は知識ゼロ 使ってるうちに慣れるから気にするな
>>295 PCないのに動画とWikiで理解できたなら飲み込みが早いから大丈夫じゃないの
PC知識皆無な人ならターミナルや拡張子すらろくに理解できてないはずだから
>>295 2週間で飽きると思うよ
所詮モデルデータでガチャやってるだけだからね
導入方法が理解できた程度で専門用語とかは全然です 基礎的な事はググりながら地道に覚えていけばいいんですかね とりあえず10万ちょいくらいのPC買ってみようかと思います
細いキャラが好きなのですが、細いキャラの裸を出すと、どうやっても、肋骨が描かれてしまう その肋骨の描き方がきれいならいいんだけど、不気味になるときが多いので、肋骨描写をやめさせたい。 ネガティブに rib を入れてみたけどだめだった。 何かいい方法ないでしょうか? 今はオレンジミックス2を使っています。
質問させてください。 Civitalで<lora:xxxx-000008:1>みたいなプロンプトってどういう意味になるんでしょうか。 lora-block-weightの記述とは違うように見えるのですが
Stable Diffusionの質問なんだけど Latent CoupleとLoRAって併用できないのかな? LoRA無しならちゃんと2人描かれるけど LoRA入れると1人しか描かれない
ドライバが去年の11月だったから今上げたけど これって再起動の要請は無いけど再起動しなくても大丈夫? 作業中のあれこれがいっぱい有って再起動は来週になりそう
ORで指示するにはどうしたら良い? 黒髪と茶髪なら (black hair | brown hair)とか black | brown hair みたいな感じ?
>>305 なるほど
ただのLoraファイル名称でありウェイトを指定するものではないということですね
ポーズLoraで絵柄が大きく変わってしまったので勘違いしました。
>>309 誘導っていうかそのLoRAを勧めているんだと思うよ
>>277 この動画の自分の環境にあわせて試してみたけど動いたよ
引っ掛かりそうなのはvenvのアクティベート
sd-scripts内で venv\Scripts\activate 実行
と、コピペの改行を取っておくこと、ぐらいかな
>>275 の言うようにtomlファイルとコマンドコピペどっかにUPしてみたら?
pastebinとかだと楽に上げられるかも
ポーズなんでもいいから見下されてるような下から覗くアングルにしたいけどプロンプトわからないー
そろそろ人間と認識したら手足の指等の整合性チェックするプログラムが欲しいな
from below やlooking downじゃないかな 構図や服装、表情はまとめブログがたくさんあるので そっち見たほうが早い
もしエラーが出た場合 チャット GPT に聞けば99割は解決できる
>>306 Latent CoupleでLoRA使う時は Composable LoRA とセットで
>>308 括弧はこっちの奴。 {black hair | brown hair}
拡張の機能だから、その他の使い方や詳細はDynamic Promptsのページに。
>>295 ソシムから解説本が出ているから読んでみては
>>300 10万円位のPCではまともなグラボ載ってないんじゃない?
こいつは高性能なグラボが必須だから最低16万円出してRTX3060の12GB版が載っているPCにしたほうがいいよ。
そうでないのならばGoogle colabなどのオンラインサービスにしておいたほうがずっと良い。
手元にないなら最初は1000円安払ってcolabから入った方がいい
NAIちゃんなどのサブスクから触り始めたほうがいいんじゃ
3060 12GB後は適当 ショップならまぁそこそこの乗っとるだろ 10万ならこれやな あるか知らんが
サブスクなら
https://www.mage.space/ もいいよ
Stable Diffusion向けに公開されてる学習モデルをいろいろ使えるから、ローカルに移行したあとも同じモデルを継続利用できる
Stable Diffusionをローカルで使用しているんだけど、男の子がコマ(独楽)で遊ぶっていう感じの呪文って難しいかな? 色々調べて試してるけどコマが出てこない
コマは海外(アメリカ?)にはないし日本だとギリベイブレードじゃないかね 独楽で遊んでる子は最近見ないし描かれることもないと思うよ
kohya's guiで150枚くらいの画像を学習させるときの設定なんだが、フォルダ名に記載するくりかえし回数?なんだけど、何回くらいが最適なんでしょうか? いくつかのサイトで手順見てきたけど2だったり20だったり100だったり??? epochもそれに合わせるん?? いろいろ試してはいるが最適値にたどり着けないっす
独楽を英語で表現すると、"spinning top" です。だって
独楽は別に日本独自のものではないよ・・紐まいて投げるって回し方はたぶん日本流だけど
日本にもある手回しとか、棒のついた鞭みたいなのでで叩く奴とか世界中にある
戦前のアメリカにすでにあるベイブレードみたいなやつ
http://www.ta0.com/forum/index.php?topic=5039.0 2560×1440を出力するとめっちゃコピペめいた背景になっちまうぜてやんでぃ
いやまぁアメリカのは自分も検索して知ったんだがw パシパシ叩く奴は見たことあるので知ってたけど
>>325 だけど、ありがとう。
Spinning top試してみるよ。
俺もコマは日本だけだと思ってたしこれで生成出来ると嬉しいなぁ
a0の350dpi 11,589 x 16,384 ひえ~w
最近 AI のせいでパソコン屋が ぼったくり始めてるな そんなのパーツで買えば2/3ぐらいで買えるのに rgx 3060が16万 なんか ボりすぎだろ
>>327 そんなものはない
キャラ、シチュ、背景、衣装何を学習させるかで全然違うし学習パラメータや教師画像の選び方でも変わってくる
そんなこと聞いてる暇があったら1回でも多く学習して自分なりの知見を蓄えていった方がよほど有意義だ
高価なのを買わず8GB辺りのグラボで我慢しとけばむしろ下がってるくらいだけどな
初歩的な質問なんですが512x512で生成した画像サイズの絵柄や構図などをなるだけ変えずにアスペクト比?を変えたい場合何が1番おすすめでしょうか? プロンプトとシード値固定のi2iがいいのかなぁ。できれば生成時間が短く済む方法だとなおありがたいです。
デスクトップ背景にしたいが512×768で困っているみたいな?w
>>338 シードリサイズ(詳細はAutomaticのショーケース参照)、
もしくはi2iのスクリプトのアウトペインティングで左右か上下延長する。
アスペクト変えたらシード同じでも絵も変わる i2iのタブで絵の外側書き足す機能無かったっけ 最近のcontrolのreference onlyも使えるかな
>>339 まさにそんな感じです。512x512出力が一般的な感じの内容をみて、あまり考えずに出力してたんですが、ふとスマホやタブレット用の壁紙にできないものかと思いました。
>>341 >>342 ありがとうございます。聞き慣なれない言葉もありますので、まずはググってみます!
ControlNetのinpaintも含めて自分も画像の一部だけを変更あるいは加筆する方法が良くわかっていないので 情報集めてる人に知見共有してもらえるといいなあ
チャットGPTに呪文作ってくれー言ったら シーンや状況を自由にアイデアを教えてくださいって言ってくるんだがなんだこいつ? あと性的表現全部ガイドライン違反なんだが
『Stable Diffusion webUI AUTOMATIC1111』(ローカル版)を利用していて、LORAファイルを読み込んで画像生成を初めて行いましたが、添付の画像のように顔がおかしくなっています。
モデルはanything-v4.0-pruned.safetensors、
利用しているLORAは以下で、プロンプトも記載されているものを利用しています。
https://civitai.com/models/28783/higuchi-madoka-yen-the-idolmster-shinycolors Restore facesにチェックをいれてもあまり変わりませんでした。
ほかに変更したほうがいい設定等ないでしょうか?
出力画像:
>>327 自分の経験だがキャラloraなら合計1000から2000ステップくらいが良かった
画像150枚なら繰り返し1のエポック10で合計1500くらいで充分だと思うよ
新しいSSDにStable Diffusionの環境移動する時って元の方は名前変えたりした方がいいんでしょうか?
>>346 勿論、チェックポイントも同じの使ってるんですよね?
>>346 こうなるときは大体ステップ数が少ないかサンプラーが合ってない
このスレで質問しても返信が貰えないです なにか理由ありますか?
>>352 質問の仕方が悪いか皆がやってないことをやろうとして誰も情報を持っていないか
>>345 チャットGPTにお前の心を読む機能はない
あと性的表現NGは当たり前
>>350 >>351 ありがとうございます。
チェックポイントを異なるものを利用していて、合わせて利用したところ顔がおかしくならずに表示されるようになりました。
実際にB2サイズのポスター作りたいんだけど 300dpiで推奨ピクセル数が 6083x8598なんだが このサイズで出力した強者いますか? 各スペックでどれくらいかかるかな?
>>357 その程度でよければ連日出してるけど
グラボは306012GBだけど16kx16kも出来た
24GBのグラボなら30kとか行けるんちゃう
>>358 そんなんどうやって出すん?
12GBだけど400万ドットが限度
>>347 具体的にあざます。
くりかえし、エポック数そのあたりの数値でいろいろ試してみます!
>>357 4090で10分かからん
8Kサイズは別に普通だよ
>>358 印刷どこでしてます?
キンコーズとか?
>>361 40番台で10分か
それなら30番のVRAM 16GBで
20分ぐらいですかね?
>>358 3060の12GBで16000 x 16000って出力できるの?
どれくらいかかりますか?
今日から始めたんやがcivitaiのサンプル画像と同じ画像にならないんだけどそういうもんなの?
png infoに画像入れてsend to txt2img使ってるんやが
構図や雰囲気は似てるけど別物になる
https://imgur.com/a/oBc80s0 元
https://imgur.com/a/h6IU1Vk 生成した奴
モデルはCounterfeit-V3.0
>>365 画像に影響与える設定は他にも色々あるからなんとも
>>363 30番台といっても3060の12GBと3090で2.5倍処理速度違うんでね
ちなみに4090と3060 12GBは生成速度5倍違う
4090で10分なら3060 12GBは50分かかる
ただし処理が軽い設定にすれば8Kでもだいぶ速くはなる、画質は落ちる傾向だけど
>>365 俺もそんなもんだと割り切ってる
パロメーター多すぎて
>>318 遅くなってしまったけど回答ありがとう
帰ったら試してみる
>>367 マジですか
やっぱ4090早いですね
詳しく教えてくれてありがとう!
>>352 >>307 かな?
地獄のミサワ思い出してちょっと吹いたので黙ってたよ
RTX2070から4070Tiに買い替えたらいろいろ捗ってこれからが楽しみ
素朴な疑問なんだけどみんなプロンプトってどう保存してるの? Styleに入れまくりなのか外部ツール使ってるのか わしはもう管理しきれん
実写系で眼鏡のプロンプト入れてるが でかい眼鏡ばかりでまったく似合っていない 細かく眼鏡の指示入れてもダメだな
>>375 1111なら画像の中に生成情報のメタデータが入っているので、確認したくなったらPNG Infoに画像をドラッグ&ドロップする
>>318 寝る前に質問してお礼が遅くなってすいません
ふにゃ括弧を使うのね
ダイナミックプロンプトというのですね、勉強してきます
>>375 別に対して管理してないね
生成した画像を適当に残してるくらい
>>365 clip skipの値は設定あってる?
>>376 メガネって難しいよね
俺もどうやるといいのか知りたい
>>381 実写モデル使用してると思うけど
多分モデルで眼鏡が学習されてないよね
最近のトレンド眼鏡に特化したLoRAもないし
眼鏡フェチには辛いですー
>>365 なんでマルチなんだ・・答えてのにあれ?ってなった
【StableDiffusion】AI画像生成技術20【NovelAI】
http://2chb.net/r/cg/1682857488/677 >>377 >>379 さんくす
画像からたどってるのか
アップスケールの種類とかVAEとか拡張機能とかはcivitaiの生成情報には乗らない?から、呪文ステップCFG同じにしても全く同じ絵にはならないんじゃないの?
>>382 実写モデルです
なるほど、学習されていないからなんだね
メガネLoRAって思ったよりないよね
>>369 パロメーター:×(そんな言葉はない)
パラメーター:○
バロメーター:△(言葉は合っているが今回は意味が違う)
もうphotoshopのAI使ってる人いる? どんな感じですか
>>375 最初はstyle使ってたけど管理しきれなくてすぐやめた
後から使いそうなプロンプトはカテゴリ分けた素材フォルダに突っ込んでpng infoだな
俺は使ったことないし有料だけどeagleってアプリが便利そう
web uiをアップデートしてからrolaを使用しロードする時に loading Lora〜loraの場所〜AttributeError Traceback (most recent call last): と出て反映されなくなってしまいました バージョンを戻した方が良さそうでしょうか?
>>375 ここでは不評かもしれないが拡張機能のImageBrowser使ってる
ァイルを読み込ませたいフォルダを別にすれば使い勝手がよくて重宝してる
>>391 これとても便利そう!早速使ってみる、ありがとう
アップデートしたらdeforumのタブ消えました どうすればなおりますか
https://redhairgirl.seesaa.net/article/499379996.html ↑前スレのSageMakerを使ってWebUIを動かす方法について
ERR_NGROK_3200のエラー回避でgit pullでWebUI更新まではなんとなく解かったんですが
更新してもmyWebUIフォルダを毎回削除しないと途中で止まってしまうので意味がありません
git pullの使い方が間違っているとは思うんですが解決策はありますでしょうか
追加学習?と言われているtrain toolsやdream boothは独自のモデルやLoraを作成する認識で合ってますでしょうか?? またグラボ4070tiでtrain tools、dream boothを使う事は可能でしょうか?
Loraがキャラの瞳の色を学習してくれません 他の要素の色に引っ張られてるような感じがします 色に関するtextを付けても消しても結果は同じだったのですが解決法はありますか?
初歩的な話だけど webui-user.bat のコメント行って行頭は何の記号? パラメータをあれこれ変えたいけどコメント行にしたい時が多々ある
Windowsの話なら REM ここはコメントです
>>399 MS-DOS触っていたときになんか見覚えが・・
ありがとうやってみます
>>365 だけど答えてくれてありがとう
後から質問スレって見つけたからこっちのほうがいいかと思って結果的に2重になった
どうもcivitaiのサムネが別のモデル使った画像だったみたいだ
別のモデルではちゃんとサンプルとそっくりになったからCounterfeit-V3.0のモデルページのサムネがおかしかった見たい
教師画像150枚用意とか集めるのもそうだけどキャンプション剪定だけで死にそうなのにようやるわ
キャラLora作り出すと自然とプロンプトガチ勢になるよな
すいません初心者で申し訳ありません。 アスカベンチで試したら55秒ほどかかるのですが、 Core i5 12400F + RTX3060 12GB --xformersなしで61秒ほど、ありで55秒。 もしきちんと設定できていれば、コマンドラインに--xformersが流れSDも起動すると思うので、入力誤りはないように思えるのですが。。もしかしてcpuが12世代でオーバークロックできない、内蔵グラフィック機能ない廉価モデルだからとかでしょう?
>>375 {|}でor条件使いまくるからpnginfoだと消えるんでstyleだわ
問題は「開脚完成版」「開脚完成版2」「開脚完成版2-最高版」とか訳わかんなくなる
>>404 12世代って最新の一個前だし内蔵グラボとかつかわんしCPUほぼ関係ないしで
平均どの程度でるんよ3060
手足の崩壊はそれをLoRA学習してマイナス値で効かせばいいと思うんだけど、どう?
やってみなければどうなるかはわからんけど成功したら自分含めてみんながあなたを神と崇めるに違いない ぜひ挑戦してみてほしい
>>405 Dynamic promptsの指定もメタデータに書き込む設定があるとこないだ教えてもらった
設定タブの「Dynamic prompts」のところにあるこれ
テンプレートをメタデータに保存: PNGメタデータにプロンプトテンプレートを書き込む
Save template to metadata: Write prompt template into the PNG metadata
>>414 おお、ありがたい
家帰ったらためしてみる
一口に手と言ってもめちゃくちゃ多様な形を取る上に角度によって全く見え方が変わるからな もっと細かく指定して学習すればいいんだろうけど一体手だけでいくつラベルが作れるやら
360度の手に 各指の動き 手の甲の返し 握る系 他 確かにこれ全部網羅するには不可能だねw
>>414 ありがてえ!
めっちゃ助かりましたありがとうございます!
on backで女性を仰向けにさせようとすると、顔や体を無理やり逆に変形させたような化け物が量産されます 目にすると気が滅入るレベルなのでなるべくこういう化け物は生成されないようにしたいのですが、on back以外に何か良い呪文はないでしょうか?
>>421 仰向けにした状態で頭が手前になるような姿勢だとしたら壊れない方が難しいので諦めた方が良い。
頭が上になるような姿勢ならばあまり壊れないし、openposeを使って細かく姿勢を設定してやればまず大丈夫。
AIが絵を描くのに3Dを理解すれば手も描けるけど 現状でもかなりまともな絵が描けるから3Dを理解させるための開発は進まないんだろうね
道具系全部苦手だよ 傘でさえまともなのでないし、いつも手で直すw
>>16 ありがとうございます
色々試してみて PNG内の情報を表示 -> img2imgに転送 でも拡張機能には設定値が反映されないみたいなので
webUIの仕様として標準では設定の保存はできないみたいですね
現在2070でやってるんだが、3060は比べてメリットがないとして、 4060tiがへぼそうなことがわかった今、予算都合で4070っていう選択肢はありかな?
>>421 同様の被害者だが、結局モデルとLoraにそうしたポーズの学習履歴が無いか少ないのが原因と思ってる。
まずはシンプルなプロンプトで、Loraはずしてモデルを変えてテスト、そのあとLora。
>>427 電源や筐体サイズが許すなら4070tiがいいと思う
俺は仕方なく4070にしたけど
>>431 電源850
ミドルタワー
3ファンは微妙か・・・
3060のために電源を買い替えたのに4070Tiにしようとするとまた買い替えになってコストがさらに上がるので4070にしようかな 4070Ti+電源か4070単体か 3060→4070で速度1.7倍だっけ?
コンパクトPC以外電源850以下はもはや買う意味ないだろう
>>416 写真見れば分かるよ
顔はほぼ100%写ってる、が手足は殆ど写って無い
いつも自分の手足見てるから勘違いしてるだけ
AIにとって手足は圧倒的なデータ不足でしか無い
人間の指は普通5本だけど5本全部が写ってるとは限らないしそもそも人間側が描写を間違えてたりする事もある 崩れるのも当然というか
>>436 なるほど
元データの写真に写ってる指の数が4本以下に見えたら
AIがそれ学習してしまうのか
腑に落ちた
人はそれ見ても5本あるって自然に思うもんな
>>433 3060→4070で約2倍、4070tiで2.5倍
コスパやワッパは関係なしに、成果物の生産性でいうと4080はアリですかね
上下さかさ(ブリッジみたいなポーズ)にすると頭側に口が、顎側に目が、顔だけ逆さにならずに化け物が生まれる
>>432 俺の場合も3ファンが無理そうだったから2ファンで探して4070に行き着いたよ
そういえばアニメ系のLoraで手の部分を数少ない学習画像からちゃんと抜かなかったのかぐちゃぐちゃの生姜みたいになるのがある
>>421 backとon backに表裏両方の意味があるのがよくない
しかもbackがかなり強い
英語圏では手は4 fingers + 1 thumb らしい 日本や中国は 5 fingers だと思ってるんじゃないか そういうのが指の崩壊に関係していそう
>>421 試しに縦長横長じゃなくて512x512ベースの正方形で生成してみて
たぶん奇形率減ると思う
>>438 ありがとう。4070と4070Tiの差がそのくらいなら4070にしようかなあ
512×512のstep20なら3060でも5秒くらいで出るけど、最近は高解像度化することが多いから1枚2分とかかかることもある
お金をかけるほど早くなる、じゃあどこまでお金をかけるかだなー
手がまともに描けるようになるまでは金をかける価値はないと思ってる
>>448 4070は3080と性能ほぼ同じだから
3080の中古なら4070より3万安く買えるよ
>>450 同世代の買い替えはしたくないというわがままと、電源交換+冷却強化の作業が費用以上にめんどくて…すまんの
別に今でもcontrolnetである程度対応できるぞ 呪文唱える以外のことは絶対にしたくないなら知らんが
寝っ転がってる構図はもともとAIが苦手なんだろ 手が苦手なのといっしょでAIの限界や
ポーズも手もdepthの活用が一番いいと思うけど現実問題ある程度整って生成されたのを自分でペイントソフトで修正する方が早いからな なんとか一発で細部も上手くでてくるように進化してくれんもんかね
>>454 やっぱりそうなのか
ちょっと試しただけだど、たまたま酷かったわけじゃないんだな
最終的にはタグを付けたオブジェクトを3d空間に配置して構図を決めるようになるんじゃないか?
別スレの話題だっけか AIは顔の回転とかできなくて、その向きの素材が無ければ描けない
上から 髪 目 鼻 口 首 乳 まん 足 これを急に右から左に並べろっていっても無理な話や そういうことだと思って納得してる
>>460 やっぱりこれから先の進化方向としてはcontrolnetのような形だろうな
そしたらどんな方向でもある程度自由になる
Twitterで指の奇形を指摘されると発狂する奴らは口を揃えて「もうすぐ手は完璧に生成できるようになるから修正にこだわるやつはアホ」って言ってるけど見通しあるのかな? それより世間一般にAI画像の存在が浸透してきて、AI画像かどうかの判定でまず奇形チェックする人が増えてると思うんだけど 手の完璧な生成より先に、知識やローカル環境がなくても誰でも簡単にAI画像作れるプラットフォームが整う方が早いだろうし、 奇形画像程度なら自前で作れるから修正できない奴は需要なくなるんだろうなと
棒人間色分けしてあるじゃん あれって左右識別のためだと思ってたら違ったけど、将来的に左右識別させるつもりで色分けしてあるのかな
画像生成自体があれだから、controlnet使っても変わらんよ
>>463 素人考えだけど
現状ではAI側は手を手として認識していないから奇形になる場合が多いんでしょ
じゃあ手を手と認識して描くようになったら破綻して奇形になる可能性は減るのでは?
人間の手じゃなくてもロボの手でも奇形になるの面白いよね
stable diffusionは統計だから者に対する概念は持って無いよ
>>466 現状、隣り合う線のパターン?傾向?を学習データ群から予測して描写してるから本数がおかしくなったり、右手左手間違いところか脚から手が生えたりする らしい
まあ
>>419 に書いてる通りにパターンを網羅するのは無理じゃないかと思うわ
>>466 それをしているのは3Dモデル。
あれは急に指が6本になったりしないよね。AI学習じゃなくて、定義。
>>469 > まあ
>>419 に書いてる通りにパターンを網羅するのは無理じゃないかと思うわ
どうなんだろ?
パターン自体はそんなに大したこと無いような気がする
ただ色んな画法やそれ以外のオブジェクトの関係性で破綻してそう
となるともっとプロンプトの単位?を細かくしてそれぞれ描画したら上手くいきそうだけどなあ
ってそんなことはとっくに考えられて試されてるかな・・・スマン
>>470 なので3Dでプロンプトに相当するオブジェクトを配置して
そこから描画する形にすれば精度よく書けないかな?
なんか気になったんでテストしてみた hand,white background で手だけを描画してみても手はあまり安定しない やっぱり本数が多かったりなんか違和感がある感じになる face,white background これは全然破綻しない ちゃんと顔が表現される
初カキコ失礼します。 SeaArt.AIが商用利用可能かどうか、ご存じの方はいらっしゃいますか。
AIは何かに遮られた直線が書けなかったりするよね 人物に遮られたビルの天井がズレてたりとか、騙し絵みたいになってる事が結構ある印象 あれも意味分からんよね
>>474 ベンチに座ってると左右違うものになっちゃうよね・・・
aiの進化と規制のお陰で1.5止まりで、出てくる絵のリアリティを上げる事が出来なくなったから、人が減っていきそうね。
>>472 数を数えることが必須な構図はこの演算モデルでは不得手
奥行きが事実上ないから、前のオブジェクトで隠れて減算されている状態を適切に判断できない
だから、隠れていることに気づかず描いたり、隠れてないのに隠されたり
ほぼ同じ理由で、獣人に人間の耳が追加される現象
>>474 この演算モデルは、画像領域全体に対するバッファを持っていない
直近の画素群から得られる特徴が近似すると、そこにオブジェクトがあると判断してしまう
逆に、直近の画素群からオブジェクトの特徴が得られないと、そこにオブジェクトはないと判断される
ぼて腹のへそが乳首になってしまうことがあるのはこれが原因
AI自らが描いたシーツのしわを途中で腕と誤認して腕を追加することも・・・
>>477 エロがダメだから誰も2.1は触ってない
>>480 「画像領域全体に対するバッファ」か、なるほど
そのあたりまで計算するモデルはまだないのかな? あってもVRAM100GB必要ですとか言われそうだけど
某サイトでxformers・Pytorchを新しいのにすると4000番台は高性能になるって書いてるけど、4番辺りからやり方わからんくなった。
みんなxformeraリビルドしてるの?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/2449#issuecomment-1404540735 4070tiに買い換えたんだけどxformersって入れた方が無難?
LoRAの作り方をパラメータの設定から教えてください sd-webui-train-toolsを使ってみましたがうまくいきません GPUのVRAMは6GBです 目標はcivitaiにあるエアリスのLoRAみたいなクオリティのものです
560tiに買い換えたんだけどxformersって入れた方が無難?
CPUだけで生成は出来るんだけど アップスケーラー使う設定にすると 物理メモリ96GBとページングファイル100GB くらい喰い尽くしてOSごと反応しなくなるんだけど
初心者質問で失礼します。 高画質チェックして生成するのと、普通に生成からその他タブからのアップスケール?は時間的な面では後者が早いのですが、同じプロンプトやシード値でも前者と後者で変わります。後者のやり方での高画質は綺麗?に出力できるものなのでしょうか?
>>487 そのエアリスってやつが何なのかわかんないのに誰がご親切に答えてくれると思うんだよ
上手くいかない内容も示さず全部教えてくれ言われてもねw 検索すれば情報はある程度出てくるだろうし
>>494 単純にスペック不足だろ
VRAMいくつ?
>>495 ほぼ無理
何百枚に一枚ぐらいは成功するかも
>>495 regional prompter
とかそういうのじゃないっけ?
まだ試したことはないが...
>>498 latent couple extension
てのもそうらしい
こちらも使ったことはないが
lora作成ってRTX3060の12GBぐらいで可能ってラインやろ 6GBじゃかなり限定されるし、大したもん作れないんじゃねーの
ぐぐってみたらVRAM6GBのGTX1660シリーズでもLoRA学習できるみたいやね
個人的にはこだわりまくりたいならキャラグッズ買うくらいのつもりで4070ti以上で一台PC増やしてもいいんじゃないかと思うんだけど
(今使ってるPCもtile拡大用に別途使えるし)
>>494 エアリスは俺の母親になってくれるかもしれない人だったんだ…!
LoRAに関しては数回小規模なものを作っているだけなので的外れかもしれませんが
①LoRAのモデルをこれまでいくつ作成してきたかを共有
②どのURLのものをDLし導入したかを共有
③GPUのVRAMだけでなく型番も共有
④stable defusion webUIやブラウザも含めて他のアプリケーションを““すべて””終了させ
windowsバー田マーク右クリック→タスクマネージャ→パフォーマンス「専用GPUメモリ」の使用量を確認し共有
⑤学習ファイルの画像解像度(px)・学習ファイルの枚数・バッチサイズ・繰り返し回数・epoch数を共有
このあたりを共有しておくと経験者の人が何かに気付いて助言をもらえやすいかもしれません
>>502 学習画像12枚, 解像度 512, バッチサイズ 1, 繰り返し数 10, 正則化画像なし
残りは
https://github.com/kohya-ss/sd-scripts/blob/main/docs/train_db_README-ja.md ここに書いてある accelerate の設定と同じです
これで実行すると epoch数 14, 学習ステップ数 1600 など表示されて
epoch 1/14 で
torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 22.00 MiB (GPU 0; 6.00 GiB total capacity; 5.19 GiB already allocated; 0 bytes free; 5.29 GiB reserved in total by PyTorch)
のエラーが出て終了します
どうにかして LoRAを作成したいです
>>504 LoRAはまだ作成できたことがありません
GPUは GeForce RTX 2060 です
LoRA作成時の設定は
>>505 です
1.5と2.1のエ◯って何が違うの? 2.1でも何でもできると思うが
>>483 VRAM100GBのグラボが100万で手に入るなら本気で考えるけどな
現実は200オーバーやろうな
結局何やったらLora使えなくなるの? ぎっぷるだけ?
>>490 extrasタブ のUpscaleは基本的にUpscalerが拡大してるだけでAI関係ないよ
region気になってるけど試してない 良さそうなら教えてくれ
Lora使えなくなったってたまに見るけどYouTubeで紹介してる導入方法でやってもLora学習や配布Lora使えなくなってるの? PC買おうと思ってるからLora作れなかったらかなりショックなんだけど
>>512 多少の環境、例えばPython 1.1が1.2だと動かないとか普通にあるから、プログラム慣れしてない一般人はバグったら根気と勉強で乗り越えるか、諦めになる
生成自体は出来なくなっても何とかなる事多い
>>513 1ヶ月前投稿のYouTubeにあるLora学習や導入は今じゃ使えなくなってるってこと?
としあきwikiとか見ても知ってる前提の専門知識とかでわからない事あるけど
どうやって勉強したらいいんだろ
>>514 使えるよ、ただバージョンのズレやバグで使えなくなる事はある、俺はLORAいくらやってもダメ、他は大丈夫。
ローカル
Web uiならワンボタンインストーラあるから初期段階のそのバージョン使ってれば問題無いよ
としあきさんは分からなければdiscordで質問受け付けてるから念の為入っておいてみては、大変だし気分で閉めるとも言ってるけど
勉強方法はわからん
LoRAが使えないっちゅうのは修正したら大丈夫なやつじゃないの stable-diffusion-webui\extensions\a1111-sd-webui-locon\scripts\main.py 371 行目: lora.mtime = os.path.getmtime(lora_on_disk) 373 行目: sd = sd_models.read_state_dict(lora_on_disk)
LoconアプデでLoRA使えなくなった件のことかな? Locon作者としてはLoconはあまり良くない仕様だと気づいたらしいので修正する気はないみたい(自動翻訳だから間違ってるかも) 作者としてはLyCORISをインスコしてLyCORISフォルダにLoRA移動するのを推奨してるみたい ちなみにLoconキャンセルすればLoRAは使えるよ、LyCORISやLoHaは使えなくなるけど 俺はcolabで使ってるからdevブランチをcloneしてそのまま使えてる
>>515 よかった使えるんだ
本当どうやって勉強したらいいのかわからんのよね
PC知識あるとわかるものなのかなぁ
>>517 こないだバッチ勝手に書き換えてて、ギャーッってわめいてるのいなかったっけ?
知らん奴が口出すな、とかさ。
正直こんなの使って周りの人に当たり散らす位なら、最初からGitとCUDAぐらい入れてくれよと思う。
>>506 他に言及が無いようなので
?まず総ステップ数を500以内に収める実験からはじめてみてほしい
おそらく現状の総ステップ数が
image12*epoch14*repeat10=1680 だと思われるので、
エポック数を8回、繰り返し回数を5回に下げて
image12*epoch8*repeat5=480stepsに収めて作ってみて欲しい
そしてLoRA生成ステータスかタスクマネージャにあるVRAM使用量を見てエポックか学習素材を追加していく形がいいんじゃないかなと
それでもっとマシンパワー掛けたい!と思うのだったら7月に発売される予定のRTX4060tiを買い増すのもアリだと思う
?検索してみると6GBのVRAMグラボでもLoRAを作っている人の書き込みが出てくるので
https://www.google.com/search?q=LoRA 学習+VRAM6GB
で検索してみて欲しい
Loraの効果的な枚数って何枚なのかな? 150枚位用意して作ったけど 設定が悪かったのかモデルが悪かったのか枚数のせいか、実写のはずが絵画みたいな絵になってしまって困ってる
素材は多いに越した事はないけど画質が悪いのは外したほうがいいと思う 素材がかなり重要みたいだから あとは学習に使用するチェックポイントを実写なら実写に強いやつにしないと駄目だと思う
>>522 枚数はそんなに重要じゃないね
キャラを再現する場合、角度の違う画像が7~8枚あれば十分じゃないの
画像の質とかその他パラメータのが重要だと思う
まあでも大量にあればダメな画像のダメな部分が薄まるね
>>522 学習率の次元数下げた方がいい
それはたぶん過学習になってる
画質は一応気にして調整したから大丈夫だと思う 過学習って言うのも有るのか エポック数を下げて試してみるよ それでも駄目なら、枚数をがっつり減らして作ってみる みんな、ありがとう
コントロールネット1.1を入れてみたんだけどIp2p変換が全然綺麗にいかない 目を赤くするって単純な指示でも目の周りまで赤くなるのはなんでやねん…
>>529 DirectMLの高速化はほぼ10割の人が使ってるCUDA環境には関係ない定期
Tile deffusionのRenoise strengthだけ0.33/0.67/1/1.25/1.5/1.75/2みたいな感じで 一気にバッチ処理できるといいんだけど i2iってみんなも一枚ずつ手作業でやってるのかな フォルダ一括処理みたいなプラグインも無いよねきっと
Stable Diffusion XL ってローカルで使えるの? モデルとか流用できないの?
生成するのは良いけど どうやってお金に変えたらいいか迷うわ やっぱりKindleが基本か?
レオナルドを使ったけど、日本人女性の顔が気持ち悪い。 カエルみたいな顔だったり、目が異様に細くて、あまり見かけない顔。 Midjourneyだとそこまで違和感がわかない。 みんな、日本人女性の顔写真のような画質、表情を生成する際に どこのサービスを使っているわけ?
>>533 X/Y/Z Plotかな?
自己解決でもどう解決したのか書いておいてくれると参考になります
>>534 そういう話はここがよさそう
AIで画像生成してる人のマネタイズ関連スレ ★33
http://2chb.net/r/doujin/1685085460/ >>535 Stable Diffusionを自分のパソコン上で(ローカルで)動かして、学習モデルはBRAとかChillOutMix系列とかだと思う
つよつよグラボを持ってない人は
https://www.mage.space/ で課金すればBRAを使えるよ
>>538 サンクス。レオナルドは日本人顔は向いていないみたい。
つうか男にしてもやはり変。香港とかの雰囲気の男性で生成される。
ちなみにイギリス人のきれいな女性と指定すると、おれには
ちょいおばさんに見えるけど、見慣れたような顔が出てくる。
ミッドジャーニーが素人がぱっと生成させるには最適かな。。。
課金体制は嫌だけど
>>532 VRAMが要るので3090か4090しか駄目とか
768x768なんでモデルは無理じゃね?
というわけで誰もやらないスパイラル、普及に壁がありすぎる
>>540 XLは別物と考えてしばらく様子見が良さそうですね
ありがとうございます
>>154 lora.pyの修正だけでいいんですか?
赤のラインのコマンド消して
緑のラインをコマンド足す
でいいんですか?うちのには、import torchの前に
import glob
import os
import re
import torch
import torchが四行目になっています。
(import glob ・ import os 。 import re)で不要なものがあれば教えてください
>>513 Python1.xとか30年くらい前のバージョン
モデルをワイルドカードとかでランダムって出来ないのかな?
>>513 まだ日本語ドキュメントも無く、翻訳プロジェクトすら立ち上がってるか怪しい
無限指修正が地獄すぎる…イラストは書き直せるからいいけど実写はdepthガチャに頼らざるおえないなのツレェ…
手指とか欠損部位なんかはジェネレーティブ塗りつぶしで一発修正してるね。
civitai他からckptダウンロードしまくってたらCドライブも外付けSSDも埋まってしまった… なのでもう使わないだろうなと思うやつは削除し始めたけど… 実写系イラスト系、これらがあれば他はいらない、的な厳選10個あげるとしたらどれれすか??
質問ですが 3090(24G)のほうが4080(16G)よりツヨいんでしょうか?
さすがにGPU売れなくて早速 4060ti 値下げか、そりゃあDLSS無しだと前世代比16%upじゃゲーマーは、見向きせんな、DLSSは何だかんだ画質悪くなるから切ってるガチ勢のが多いわ Ai向けは16GBが生きるね
>>546 Bing使って色んな手指だけひたすら描かせて、いいのが来たら切り抜いて貼り付け
そういう用途のパーツのストックを大量に持っておくのもいいかも
もしくは気に入った構図をCNのLineartで出してその線を修正してから再出力すれば実写の絵を苦労して修正するよりよっぽどラクにやれる
白黒でやれるから絵心なくてもなんとかなる
絵描き用のソフトがなくてもぶっちゃけWindowsのペイントでなんとでもなる
自分で好きなように弄りまくれるからLineartすこすこ
アニメ絵だけでなく実写でもバリバリやれるし修正し放題のコピー機になる
>>551 手と指をどうするか悩んでたが
そのやり方が良いかもね
使ったことないけど指の修正にdepth map library and poserってどうかな?
>>552 3Dツールでレンダリングしたものをi2iのマイナスプロンプトで画質調整すれば思い通りの角度やしぐさができるで
スケール調整とか多少手で修正は必要とはいえ、慣れればインペイントでガチャするよりは遥かに速くなる
3dソフトだって手のモデルデータだってサンプル集だってずっと前からいくらでもあった それでも結局は自分で描くことになっていた理由に気付くことになるw
>>554 詳しくありがとう!
ちなみに3Dツールはblenderですか?
新しく入れ変えたらLORAのタグが出ないですが。どうしたらいいですか?
>>559 えー
やっぱりそうなんけ
うすうす気付いてはいたけど
>>559 >>560 演算能力自体は4080の方が高いからちょっとした画像生成なら4080の方が早いと思うが
速度は4080が3割増しか・・3割ってかなりデカいよね 大きな画像にこだわらないなら
プロンプトジェネレーターを作ってみたので
よかったら使ってみてくだせえ
https://d3uatsppidr3bo.cloudfront. ネット
書き込み規制避けのため.netの部分は直してクレメンス…
フィードバックなど貰えたら対応するかも。
>>563 ちょっと弄ってみたけど便利だな
因みに多重で中括弧{}使ってるけど()じゃなくていいんだっけ?
>>564 画面の下の方に{ }を( )に変えるってのがあるからローカル勢はそれをOnにしてくだせえ
PC買い換えられなくてNovelAIしか使ってない…
>>565 すまねぇ、あんなに見やすいのに見落としてた
自動でクリップボード更新してくれるし気が利いてるね
>>554 pixaiはBRA風モデル使えてバッチリ
今更だけどadditional Networkめちゃくちゃ強烈に効くけど顔が終わるな。どうやっても崩れるけどモデルとの兼ね合いなの?
むしろadditional networksは最新がエラー吐いて死んでる… devブランチも試したけどダメだったわ… ローカル環境じゃないから諦めた
複数の呪文を一つにまとめる、みたいなツールなかったっけ? 思い出せない
知識が2月で止まってるんやけど 今すぐみんなに追いつきたい どこ読み込んだらいい? 助けてくれ
git pullしてcnetの最新ブチ込めそれで終わりだ
ControlNetガイド通り入れたけど殆どエラーで読み込めないのは何故だろう プロセッサーとモデルちゃんと落としてるんだが
>>570 ツールというか、標準機能の「スタイル」でできるんじゃ
windows11 rtx360 12GBでローカル構築して使ってます。 Cドライブ直下では普通に使えるのですが、外付けのHDDにインストールすると、 その後SDを終了させると、次回起動時以降プロンプト入力時にエラーが出ます。 インストールした直後は普通に何度でも画像生成出来ます。 エラーはプロンプト入力欄の右上の○○/75とか書いてる数字の所にアカ文字でERRORって表示されます。 CドライブのSSDの容量が少ないので外付けHDDで使いたいのですが、どうすればいいですか? 毎回SDをインストールしなおしてMODELやLORAを設定すれば出来るのですが、時間もかかるし面倒です。 それか、Cドライブで起動した時にOUTPUTを外付けのHDDに変更する方法が有れば教えて欲しいです。
ブラウザでUI開いたままwebuiを再起動してそのまま使おうとするとそんな感じになる ブラウザでリロードすると大抵上手くいく というか出力先はwebuiの設定画面で変えられるし…
「Paths for saving」の例えば「outputs/txt2img-images」を
「e:/outputs/txt2img-images」とかにするだけだね
>>573 その「エラーで」ってやめはなれ、誰もわかんないよ・・
エラー内容をちゃんと書く!
マザーボードにnvmeのスロットが無いならPCIEの変換ボードがあるし USB3.2のポートがあるならSSDを外付けケースに入れて繋げばいいじゃないか
>>577 ,578
やってみました。OUTPUT変更できました。
ありがとうございました。
SuperMergerでloraをマージしたときにチェックポイントの拡張子がckptになっちゃうけれどsafetensorsのままにする方法は有る?
貼っていいのかわからないけど
h
https://huggingface.co/spaces/camenduru/webui こちらを使って気に入ったので昨日自分のpc上にローカル環境を構築したのですが同じanything-v3.0を使ってみたところ生成されるものにとてもさがあるように感じます
見えている設定は同じにしましたが公開されているものはlora等他にも追加されているのでしょうか?
現状で使えないらしいってのは聞いたことあるんだけど、Intel GPUって将来的にもControlnetとかの機能って使えないのかな? 対AI性能コスパでGPU考えてて、年末くらいに1台組みたいなと思ってるんだけども 4060Tiの16GB版を待つのが無難なのかな?
>>568 モデル次第の事もあるし、強さの設定の事もあるし、lolaの出来によってはどうやっても画風が引っ張られることもあるし
そもそも崩れてるのなら設定が強すぎるか弱すぎる可能性大
additional Networkの設定の右下の方からメタ情報が見れて、使ってるタグが見れることがあるからそれを足すといいこともある。
実写の女の子を生成すると、へそピアスがあったりへその中が白っぽくなっている事が結構あるのですが、どういう風に記述すればこれが無くなるでしょうか?
少し前から有名人のLoRAは規制入ってない ちょっと前のLoRAなんか全部つかいものにならん 不気味な絵や風景がでるよ
肛門ありの画像を作ると高確率で肛門が2つになってしまうのをどうにかしたい 特に肛門を強調する画像や、Hires fix を使うとさらにひどい うまい方法ないものでしょうか ネガティブに extra ass を入れたりしてるけど、効果なしです モデルはオレンジミックス2です
>>563 分類、誤字など気になるところはあるけど凄く助かる!
StableDiffusionが無ければpantyhoseという単語を知ることも無かっただろう……
なんか色々不具合出てて訳分からん…まずほとんどのLoRAがNot foundエラーが出る。一応使える。LoRA使用不使用に関わらず画質が明らかにおかしい。Hiresfixすると更に色調や構図もぶっ壊れてしまう。どなたか原因と思われるものを教えて下さい…
環境はRTX3060 12GB
>>591 braidとかdungareesとか個人的性癖ワードはSDに触れてなかったら一生知らなかったわ
>>578 ごめんなさいエラーが長くてどうしようかと
画像撮ってきました
https://imgur.com/a/pwa5yOX う~んa1111-sd-webui-loconは導入してないから原因が違うかも…?
再現できないのって、設定のClip skipが1になってるからじゃない? どこかで見たけど以前は2がデフォルトだったらしい
>>598 コマンドプロンプトで何かエラーが出て無いか確認するとか
そんな所(プロンプト欄の下)に「Not found Lora~」とか出るの初めて見た
追加のネットワークの When adding to prompt, refer to lora byが Alias from fileになってんじゃね?
>>597 エラーメッセージ通りなら、 ZoeD_M12_N.pt が壊れてる。
ZoeD_M12_N.pt を コピーして ZoeD_M12_N.pt.zip とかにして、解凍できるかどうかで切り分けできる。自分の環境ではできた。
よく分からなかったら、ControlNetを再取得かなぁ。
>>601 なってました。Filenameに変えてたところNotFoundは改善されたようです。謎の低画質やぐちゃぐちゃが治らないので別の問題でした。
648 名前:名無しさん@お腹いっぱい。 2023/05/27(土) 19:49:59.13 ID:se6++vTo 100%イラストレーター関係ないし質問スレ乗っ取るかCG板にスレ立てるべきだと思うんだが
ロリコン嫌いなのにロリ画像のリンクを貼っている汚言症おじさんや猛虎弁のアフィカス共がここへ来るかもしれないので注意してください
>>603 Lora配布先のページは読んでる?
低画質の原因も色々あってLoraによっては適切なweight値があったり使用モデルとの相性やVAEが悪さしてる場合もあるからね
>>606 色々試行錯誤してる中、低画質ぐちゃぐちゃはLoRA不使用でも発生するので現在も調査中です…
ドライバー更新したらくそ早くなってワロタ 特にhires
>>607 うちでもたまになるが、PCを再起動すると治る
メモリ関係のバグじゃねーかな
あとうちではloraを外したつもりで外れてないことが最近稀にある。原因不明。
それでもダメなら電源を切って、電源ケーブルも抜いて少し待って起動。
静電気的なノイズが載ってるかも。ま、おまじない程度に試してみて。
あとありそうなのはグラボの過熱。最近気温の変化が激しいからな。
アップスケーラーでLDSRを選ぶと以下のようなエラーが出てしまうPCがあるんですが、原因が分かりません。 urllib.error. URLError: <urlopen error [ssl: CERTIFICATE_VERIFY_FAILED] certificate verify failed: self signed certificate in certicate chain (_ssl. c:997)> エラーが出てないPCからLDSRのmodel.ckptファイルをコピペすると一応使えるようになったんですが、こんな力技で問題ないでしょうか?
>>610 なるほど、色々試してみますありがとうございます。
変なCUDAエラー出てたときに set PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128 を入れてやったらエラーでなくなった VRAMをきちんと解放するオプションらしい
StableDiffusionって二重起動、同時生成とかできます? グラボ性能は4070レベルあるとして
>>589 使ってくれてありがとうやで
分類とか誤字はコツコツ修正していくつもり
AIイラストに手出して2週間くらいの初心者です 今使ってるグラボがGTX1080Ti(VRAM11GB)なんだけど1111で768*1024くらいの 大きさの画像出そうとするとちょいちょいOutOfMemoryErrorが出てストレスがたまる あくまで趣味用なのでそんなに高速回転は求めてない できれば1500*1000くらいまでの画像を出したい Lora学習の効率を上げたい ってことで3060の12GBに買い替えも考えてるけど、現在使ってるのがVRAM11GBということで あんまり効率変わらなかったら悲しいなと思ってアドバイスが欲しい 具体的には、3060なら1500*1000くらいの画像はストレスなく吐き出すようになる? 一応、CPUはCore i7-8700、RAMは32GBなので最低限の他のスペックは満たしてるはず
>>617 基本は512x512で学習されてるので768x768みたいなのは意味がないというか人体は破綻しやすい
まず512x768で作って、それをHires.Fixってのでx2.0倍するみたいなのが今どきの主流
512x768→1024x1536とかだと11GBもあればOOMにならないはず
>>617 4060ti16GBが7月発売なので
+5GBを視野に入れてみては
>>618 すまん、言葉足らずだった
現時点で512x768をHires.Fixでx1.5でやってるけどOOMなるんだわ
でも512*512の倍数が基本ってのは知らなかったわ、結構適当な数字でやってたありがとう
>>619 16GBでるのは確定なんですかね
まあ、少なくとも現時点では収益化とかも考えてないし、ちょいオーバースペックかなーという気持ちがある
> 現時点で512x768をHires.Fixでx1.5でやってるけどOOMなるんだわ うちは3060の12GBでx2.0大丈夫だし、512x896、512x1024のx2.0もOKだわ --medvramは入れてる?たった1GBでそこまで変わらないと思うんだけど
>>621 --medvram調べてやってみたらOOMでなくなったわ…めっちゃありがとう
>>622 確定なのね
10ウンマンすると思ってたけど9マンで買えるならワンチャンあるな
少なくとも今3060買うよりはちょっと考えてみる価値あるね
なんか--medvramといい4060Tiといい俺のアンテナが低いな、ありがとう
LoRA直ったわ。Twitterはなんでも教えてくれるね
>>592 だけど、--xformers無くしたらかなりクオリティ改善したかもしれん
色々教えて下さった方ありがとうございました。またなんかあったらお願いします
モデルを入れ替えたりしてどれがどっちのモデルを使っているかを振り分けるために pnginfoの文字列で振り分ける方法とかある?
>>628 画像ビューワソフトでなんか出来るやつがあった気がする
今後なら生成先をmodelにすれば勝手にmodel別でフォルダ分けして保存してくれるで
>>629 なんとまぁ生成先のパスにモデル名を含めるとは思ってなかったわ
今後はそれを利用しよう。既存の画像の絞込はビューアソフトでいいのがあればいいのになぁ
グラボのドライバ更新したら絵が変わった気がするんだけど気のせいですか
NVドライバを最新にしたらhires.fixが少し速くなったのと引き換えに絵が変わったな ノイズやらステップを調整したらなぜか時間同じで元に戻った
>>602 解凍しても再取得してもダメでした...
Canny以外全部似たようなエラーが出てお手上げ状態です...
LoRA学習はノートブック拾ってきてColabでやればいいだろ タダで1日数時間VRAM15GBも貸してくれるんだから 毎日2,3個作って後は出力でちょうどいい
Line Artで線画だして反転して手をクリスタで描き直して反転して着色させたのに手が変形してクソオブクソ。パーしか判定してねーんじゃねーのかバカがよぉ~
>>635 細かく描きすぎてるか色が周囲と違ってない?
特に黒部分
人の目には一緒に見えてもAIには違う色と認識されてるってことは多い
細かさに関しては線がキレイすぎるとAIが誤認しやすかったりする
装飾品を増やしたりするときは記号的に好き勝手に異物の配置やれるんだけど、人体パーツは他の部分との一体感に相当敏感なんで慣れが必要
「ハードウェアアクセラレーションによるGPUスケジューリング」をオフにするとVRAM使用率減少+高速化になるとのことで試してみたところ 画像生成をすると確かに高速化されているのですが、アップスケーリングが終わる直前でCUDAとVRAM使用率が100%になったまま進行しなくなります PC自体も非常に重たくなり他の操作も全てカクカクになります エラーは出ていません Hires.fixをオフにするか、GPUスケジューリングをオンにすれば問題なく生成できるのですが何が原因でしょうか? win11 i9 10900KF RTX3080 10GB メモリ32GB Automatic1111 ローカル Python: 3.10.9 torch: 1.13.1+cu117 xformers: 0.0.16rc425 gradio: 3.23.0 生成画像の設定 width 512 Height 600 Hires.fix Upscale by 2 Batch count 1 Batch size 1
>>637 ブラウザ変えるのが手っ取り早いかも
それか今すぐやれる方法ならt2iでのhiresを諦めてi2iに送ってTiled DiffusionかSD upscale(Ultimate SD upscale)で拡大する
seedの-1って実行するたびにランダムで値が決まるの?
>>638 ブラウザを変えるというのは現在使っているchromeの代わりにFireFox等を試してみるということで合ってますか?
>>640 そう
以前Chromeで不具合出たって人がほかにもいたから、普段使いのアドオン入れまくりのメインブラウザにwebUI入れるのはあまりよくないのかも
言うてワイはEdgeがメインブラウザでwebUIもEdgeだけどアドオンほとんど入れてないから安定してる
タブも開きすぎないように気を付けてる
あと、それ以前に基本的なこととして、
webUIの再読み込み
webui-user.batからやり直す
PCの再起動
は試したんだよね?
これらはあまりに基本的すぎるから言う必要もないんだけど念のため
大きな不具合がなくても画像生成を続けているとデータのゴミが大量に出るのでPCの再起動は定期的に必要だしな
>>641 ありがとうございます
chromeを閉じてバニラのFirefoxとEdgeで1111のみ開いた状態で試してみたけどダメでした
各再起動は全て試してあります
Hires.fixを2→1.5に下げたら生成できるようになったのでVRAMか何かが不足しているのでしょうか?
VRAM削減が出来るということなので別の要因な気もしますが……
>>642 じゃあGPU周りだとしてアフターパーナーでパワーリミットを80%、70%と下げていくとか
グラボのドライバ更新はしてるよね?
webUI関連だと使っていない拡張をExtensionsから削除するとか
最近更新した拡張が原因かもしれないと心あたりがある場合にはそれを一旦別の場所に移動させてみるとか
git pullしてしまうのも一つの手段
今しがた最新verが公開された
ただし早期に導入するなら人柱になる覚悟は必要
ワイはあと何日かはgit pullしない
>>643 全部試してみましたが改善せず……
諦めてGPUスケジューリングをオンに戻すことにします
ありがとうございました
流れからの質問で申し訳ありません。 使用ブラウザで生成時間なり変わるという事でしょうか? あと基本はVivaldi、閲覧はchromeなのですが、同時起動だと生成時間なり変わるのでしょうか?
閲覧にもVRAM使うんなら多少なりの影響はあるんじゃね
>>615 automatic1111ならローカル環境でもクラサバ構成になってるから
クライアント側のブラウザ画面は複数タブ開いて別々のプロンプトを打ち込んでも問題ない
Generateボタンを押す度にジョブがキューに追加されて順番に処理される。
プロンプト変えながら調整するのは複数タブ開いておくと便利。
キューを並列処理するマルチGPU対応はまだ決定版は無さそう。
automatic1111の入ったPCを2台用意して、
片側のPCからブラウザ画面をそれぞれ開いて擬似的に並列処理するのが今できる簡単なやり方。
機能誤ったスレで聞いてしまいました。 なんかブラウザをFirefoxに変えたら、たまにアクティブにしてないと生成が進行しないという謎現象が起きるのですが、こんなことってありますか? もしくはDOS窓がアクティブ(最前面)にないとかもしれません。
>>651 ありがとうございます!
ブラウザ画面の複数は初めて知りました
それだけでも目的に叶いそうです
要は寝てる間とか出かけてる間に条件変えて連続生成できればいいので…
(ワイルドカードやxyzじゃできないこともあるので)
完全な同時生成はPC2台必要ってことですね
VRAM6GBでLoRAの作り方を教えてほしいと言っていたものですがやっとLoRAが完成しました!
色々とアドバイスしてくれてありがとうございました
無料のColabでLoRAを作成してからローカル環境のwebUIで画像生成する方法にしました
自作のエアリスのLoRAで画像生成したものがこれで
civitaiにあるエアリスのLoRAで画像生成したものがこれです
civitaiのほうは9回とも同じ服装で安定しているんですが、自作のほうは服装にバラつきがあり後頭部の赤いリボンが髪の毛でできたものになっていたりします
civitaiのほうみたいに安定して正しい見た目が生成されるようにするにはどうしたらいいんですか?
学習画像はほぼ同じ服装・髪型の18枚で作成しました。stable diffusionを始めて4日目の初心者です
詳しい状況わからんけど 学習素材が悪い 学習回数が足りてない キャプションが悪い のどれかじゃない?
>>656 学習回数は400回、epoch数23です
キャプションとタグは sd-scripts にある finetune/make_captions.py と tag_images_by_wd14_tagger.py を実行してできたもので
そこから修正していません
たぶん枚数が少ないのが効いてそう 50枚くらい用意すると安定したLoraができる印象 10枚くらいだとプロンプトで指示しても思い通りにならない運任せな感じ
>>657 1度txtのタグを見直してみたら?
wd自動で出しただけだと変なのが混じってたり逆に要素を含んでなかったりするから
あと生成する時のプロンプトはどうしてる?生成時のプロンプトとその画像貼ってみるとアドバイスしやすいかも
顔にフォーカスすると目はちゃんと描かれてるけど 全身描いたりすると目がおかしくなるのはなんとかならないの?
>> 660 生成時のプロンプトは (best quality, masterpiece), 1girl, solo, long_hair, breasts, bangs, brown_hair, dress, ribbon, holding, jewelry, green_eyes, jacket, hair_ribbon, upper_body, weapon, braid, short_sleeves, sidelocks, choker, bracelet, parted_bangs, wavy_hair, staff, pink_dress, red_jacket, cropped_jacket, pink_ribbon, holding_staff, long_dress, aerith_gainsborough, <lora:aerith_my:1> Negative prompt: EasyNegative, badhandv4, ng_deepnegative_v1_75t, (worst quality, low quality) で <lora:〜> の部分だけ自作のとcivitaiのと変えて生成しました (best quality, masterpiece)以外の部分は1つ目のtxtのタグをそのまま使いました txtのタグはどういうのが足りていない・要素を含んでいないの判断が難しいです
としあきwikiのLora batでLoconで生成したときにcmd画面に Deprecated: use prepare_optimizer_params(text_encoder_lr, unet_lr, learning_rate) instead of prepare_optimizer_params(text_encoder_lr, unet_lr) って出るんですけどバグでしょうか?一応出力できて、生成したLoraファイル覗くと "ss_learning_rate": "0.0001", "ss_optimizer": "bitsandbytes.optim.adamw.AdamW8bit", "ss_text_encoder_lr": "5e-05", "ss_unet_lr": "0.0001" と書いてあるので問題はなさそうだけど私気になります
>>661 アップスケーラーで画像大きくしたらいい
>>662 プロンプトに入力したタグで学習されてるか1度照らし合わせてしてみたら?
リボンがおかしいならtxtのribbonのタグ消してpink ribbonに統一するとかね
AIが髪の一部をribbonと誤解して学習してるんじゃねえかなと俺は思うけど
すみません 実写系のおすすめのフェラの呪文教えてくれませんか 生成途中までいい感じですが、完成するといつも濃い顔になって変になります。。
すまんけど俺はもう消えるわ
>>667 majinaiで公開してる画像のタグモデルその他諸々参考にするのが手っ取り早い
微エロ失礼します
こういうリアルな背景ってどうやったら出ますか?
city,streetなどを指定してもこういう感じで出ないです
モデルの違い?
リアル背景専用モデルを使って出力し人物とレイヤー合成が一番確実
お疲れ様です。 rolaを自作したのですが、そのrolaを使って生成した画像が破綻しまくってるのですが何が原因でしょうか?
>>671 ありがとうございます。
こういうのは合成じゃ難しいと思うんですが、どう生成していると予想しますか?
>>670 ・複数LoRA使ってたりLoRAのweightを重めで使ってる、もしくはプロンプトを手当たり次第大半をweight重く使ってる
・本家のChilloutみたいな古いモデル使ってる
のどっちかだと思う
あ、通じるとは思うけど、一応補足すると上に挙げたのは詳細な背景出ない原因ね
Tiled diffusion入れてみましたが、アップスケールする項目が出ないです。 私のSDのバージョンが少し古いせいでしょうか?
>>676 t2iじゃなくi2iやで
まあt2iでもできなくはないんやけど
SDアップスケールもi2i専用
>>678 ありがとうございます!
t2iでTiled diffusionのアップスケールする方法あるんでしょうか?
>>679 形だけなんで期待できないよ
画像のサイズ指定ができるから無理矢理デカい画像にするってだけ
hires1倍併用でアップスケーラーだけ借りる
こんなめんどくさいことやるんならとっととi2iに放り込めって話
仕上がりが段違い
こういう質感のloraを作りたくて色々錯誤してるんだけどどう設定してもベタ塗りというか画質悪めのものしかできない…
この質感でlora学習できてる人、素材枚数とかその他どういう設定でやってるか教えてくだせえ…
https://civitai.com/models/18490/merlin-fateprototype-or-character-lora-940 lycoris使う時ってlycoで使うの? 人のプロンプト見てたら<lyco:〇〇:1.0>って有ったけれどloraで使ってるんだけど
lineArt使いこなせねぇ…🥺 加筆して着色すると夜か淡い夢の世界になるんだ😭
>>683 出来た画像を再度Lineartして構図を取り出すんやで
それを何度か繰り返してカチッとハマるのを選別する
>>680 Tiled diffusionでi2iしてみたんですが
元画像よりボヤけるだけで
画像サイズも大きくなりません
何が悪いでしょうか?
SDバージョンが古いと動かないですかね
>>682 色々紛らわしいからフルで書くと
a1111-sd-webui-lycorisに移行してる人はLoRAもLyCORISも全部LyCORISフォルダにいれるので、LoRAでもLyCORISでも<lyco:〇〇:1.0>になる
純正内蔵やa1111-sd-webui-loconを使ってる人はLoRAもLyCORISもLoraフォルダにいれるので、LoRAでもLyCORISでも<lora:〇〇:1>になる
>>687 ありがとう、そういう事なのね
loraで効いてるのに何でだろうと思ったわ
移行したら変えないといけないのまあまあ面倒ね
そういやlycorisに移行した方が良いんだっけ?
>>686 Enable Tiled Diffusionにチェックが入っていない
Denoising strengthは0.35前後にする(初期値は0.7)
UpscalerはESRGAN_4xかSwinIR_4xにする
あとは余計なことをしてなければデフォルトのままでボヤけず2倍になるはず
Noise Inversionは慣れてから、今は使わなくていい
それでもボヤかるならプロンプトを画質系のみに、LoRAもflat2のマイナス適用だけにする
(realistic, high resolution, 8k wallpaperなど)
ネガも空欄にする
ただし後半は後から、まずは最初の3つを確認
>>684 なにをどうやっても淡い色しか出ない🥺
お手て描いたほうが楽に修整できるのに色がうんこじゃデプスDepthガチャに頼らざるおえないんだ😭
>>690 あまりに文化が違い過ぎてビビるが
何だか和気あいあいと楽しそうにやってるというのは伝わって来た
>>692 a1111-sd-webui-loconは非推奨になって、将来的に削除する予定らしいね
>>695 女は自分の気に入らないものが目に入るとブチ切れるから絶対荒れるで
同担拒否とかいう男からしたら理解できない文化まであるし
>>694 ん?
ラインアートってプリプロセッサもモデルも複数種類あるけどちゃんと絵柄に合わせてるんだよね?
じゃあCN複数適用してtileやDepthと重ねてみればどうだろう
色の問題はそもそもラインアートというかCNとは無関係な気もするが・・・
念のためプロンプトで色指定をしっかりやってCNのMy prompt is more importantにチェックかな
controlnetのopenposeを使おうとしてるんだけど、openposeが適用されてないみたいで 普通に生成された画像の右に真っ黒い画像が出てくるんだけど、解決策わかりませんか?
>>699 openposeの使い方調べてみた?
調べたとしてそのサイトの手順とパラメータ同じにしてみた?
>>699 使い方を理解してないだけだった
棒人間を入れたときは左側はnoneだけでいいのね失礼しました。
>>700 調べたけど何となくでやっちゃってたみたいレスありがとうございます。
1111でのcontrolnetのinpaintのマスク枠が小さすぎて狙ったところにマスクできないんだけど拡大できる方法ないかな?ブラウザの標準の拡大を毎回するがしんどいんだ
>>694 線画の加筆した後にちゃんと真っ黒背景に白い線の状態にもどしてcontrolにぶち込んでる?
加筆後の線画はプリプロセッサ(左のドロップダウン)をnoneでやるんでぜ
>>704 一瞬で解決した
ありがとう
連投ごめん
1111で、ついさっきまで普通に画像生成できてたのが 再起動して再度生成したら、DOS窓の方だとTotal progres100%になってるのにブラウザのタイトルバーだと95%で止まって ちゃんと生成されなくなったのですが 原因・解決方法等わかりますでしょうか? 元々、グラボはしょぼくてlowvram等入れていて 生成が遅いのは仕方ないんですが (今までは遅いなりに生成はできていた) 特段設定はいじってないのに止まるようになり、困っています…
LoRAを使った学習だと GeForceRTX3060Ti 8GBと GeForceRTX3060 12GBどちらが良いと思います?
>>708 VRAMが多い方がいいよ 12GB
処理速度は早いか遅いかだけど
VRAMは足りないと動くかか全く動かないかだから
1111WebUIローカル Temporal-Kitにて動画を変換しようとしたところ下記のエラー Error: [WinError 2] 指定されたファイルが見つかりません。. Please ensure that ffmpeg is installed and available in your system's PATH. ffmpegについてはインストール済みでpathが通ってるのもCMDで確認済み SNSやらwikiでいろいろ調べたけどわからずで…考え得る可能性を教えてください…
>>709 ありがとうございます、やっぱaiはVRAMの方が大事なんですな3060 12GBにします
StableDiffusionのローカル版でGTX1050tiでやってるのですが ハローアスカをやろうとしても色合いだけアスカっぽい実写風の溶けたフィギュアが出てきます。 1050tiは人によって結果がばらつくみたいな記事がちらほらあるんですが 大人しくグラボ変えたほうがいいんでしょうか? 最終的には変える予定なんですが、1050ti環境で最低限やれるようになってからと、思ってたので。
path設定してる何処かの行でpath追加じゃなくてpath上書きされて消えてるんじゃないかな
>>704 ごめん、うごかなかった
webuiも最新版だしターミナルにもエラーはない
すみません、自己解決しました。 modelsとmodulesを間違えてmodulesのほうにNAIの流出モデル入れてて チェックポイントから選べなかっただけでした。
>>712 1050tiでアスカテンプレと完全一致したのは出力不可能
似たものは出力できるんだけどね
初AIで、学習させながら頭にある理想の1枚に近づけていくみたいなことをやってみたいです。 4070 12gか4060ti 16gで迷ってますが、前者だと絶対出来なくて後者だと出来ることってあるんでしょうか。
loraって例えば<sakura>ってloraがあったとしてプロンプトにも自分でsakura,って入れないとlora発動しない?
そのLoraをどうタグ付けして作ったか次第でしょ sakuraというタグと関連つけていればYESだしそんなタグ無しならNOだし
>>712 Clip skipが1になってない?
もしくはモデルが間違ってないかな
ほぼ覚えてないけど俺も溶けたアスカ色の何かを出した事がある
本当にnovelAIのリークモデルか確かめてみて
>>681 上手くいかないのは画質や画風まで学習してるから
こちらはキャラの特徴だけ覚えて欲しくても
似たような画質、画風ばかりの教師画像で学習させると
AIは画質や画風も覚えてしまう
例えば色々な画質や画風の教師画像を100枚以上用意すれば
AIは「汚い○○、綺麗な○○、上手な○○、下手な○○があるな…
つまり○○ってトリガーワードは画質や画風は関係無いんだな」ってなって
画質、画風を覚えないLoraが出来る
ちなみにそのリンク先のLoraは教師画像940枚使ったって書いてある
差分学習っていう少ない教師画像でやる方法もあるけど
解説ページほぼ無いから難しいよ
分かりやすく説明すると RTX 4090 冬のボーナス払いで買って 12月まで 作ってクレジットの支払いが始まる前に RTX 4090を売る これが一番効率がいい
CPU以外は同一の条件で GPUが同じ場合、生成までの時間は誤差の範囲? 6th intel i5 + 3060 12GB 12th intel i5 + 3060 12GB メモリは32GB、NVMeを使うと言う前提で
やっぱり世代的にバランス良く無いとボトルネックになる可能性があるのね
インテルCPUは第8世代以降で劇的に性能向上するんだっけ?
12世代でも飛躍的に上がるね 逆にその前の世代はワットあたりのコスパが悪いとも言える
>>727 投資に見合うほどではない
RTX3060ぐらいなら何でも良い
>>725 なるほど
ちなみに正則化画像っていうのは覚えさせたい要素があって、その要素だけを含まないでそれ以外の要素が同じ画像を入れてやるイメージでいいのかな
loraの学習画像のタグ編集について質問なんですけど、 その人を表すタグは全部消して、新たにその人を示すためのタグAを作りそれを先頭に持ってきて学習させても、あまり効果が感じられないんですよね。 (先頭のタグAをpromptに入力してもしなくても効果が変わらず) これって何かタグ編集でミスをしてるってことなんですかね?
固定オプションをONにしてないか1単語に要素詰め込み過ぎなんじゃね
>>735 固定オプション…?
すみません、そんなものがあるなんて知らなかったです。
ちょっと調べてやってみます。ありがとうございます。
海外で有名人そっくりなフェイク画像とか有るけど Stable Diffusionで有名人そっくりな画像って作れる? Lora作って試してみたけど、何となく似てなくもないなってのしか出来ないんだが 今、フと思ったが同じ画像を何百枚か使ってLora作ると同じ画像が作れるかな? でも、影響が強すぎて服とかを変えるのも無理になるか
>>737 公式学習モデルの1.5は有名人の名前をプロンプトに書くとわりとそのまま出やすくて、エマ・ワトソンなんかはよく使われていた
emma watson by greg rutkowskiと書いてドラマチックな塗りにしてもらったりね
10か月ほど前のことだけど懐かしすぎる
>>727 誤差どころか20%~ぐらい早くなると思う
i7-6700kからryzen 5 5500(1.4万)でMAX30%早くなった
今使ってるのが3070Tiですが、 別に1060が余っているのですが、 売る以外に何かいい使い道ないですかね
Automaticが1.3にアプデされたけど 問題が1.8kも報告されてるから まだアプデしない方がいいかな?
環境整ったのでこれからSD webuiを試そうとしてるのですが、最初からlycoris?をダウンロードすれば良いのでしょうか?
>>741 モニターを1060につないで3070tiはSD専任
>>741 miniPC買ってサブ機にするとか
2台体制は夢があるし一方が不調な時のフォローも効く
当然グラボは裸族になるけどそれもまた一興
>>744 1800個ですねー
ちょっと躊躇しちゃいます
>>741 1060をモニター用にするのは普通にいいと思う
あとは試してないので全く責任もてないが
2つwebuiインストールして、それぞれのwebui-user.batに
export CUDA_VISIBLE_DEVICES="0" と export CUDA_VISIBLE_DEVICES="1"
を書いたら、それぞれのGPUで動いてくれたりしないかな?
>>752 windowsはexportじゃなくてsetか、そのへんよくわからんが
最近始めた者です。 低ステップでガチャして気に入った画像だけ再生成させると、 高ステップでは別画像になる×アップスケールでさらに別、の二重苦 初めから高ステップ+アップスケールでガチャろうとすると生成時間が だから4090買えっつっただろ、の状態なんですが、こんなものなんでしょうか。 何か対策とかありますか?
>>742 issueは全部が全部不具合じゃないしこのバージョンに限った話でもないぞ
>>754 stepでどんだけ時間変わるか試してないからしらないけど30以上の高stepにしても大差ない気がする
30くらいで回すならそんな時間かからないんじゃない?
んで、アップスケールでは画像は(ほぼ)変わらないです。
変わるとしたらxformaer使ってるとかとか、変わる理由があります。
今更な質問かもしれないけど、AIで画像生成するのにハマってるって、周囲に言わない方が良いのかな? 彼氏彼女嫁、家族、職場、、どこまで言っていいのか、言わない方が良いのかが気になる 画像生成してます=エロ画像作ってます になっちゃうのかな? 世間体を気にするような青い年齢でもないけど、純粋に気になった
>>754 ステップなんか20固定で良いよ
上げても遅くなるだけ
>>740 え?なんか勘違いしてない?
CPUはほとんど関係ないと思うが
>>759 その知識はどこから仕入れた?何となく初期に掲示板で言われてただけでしょ
実際には明確に変わるよ
CPUで変わる説は新しいな 技術的にはどういう仕組みで変わるんだろう
>>754 controlnetという拡張機能の中のひとつにtile resampleってのがある
元画像をなるべく変えずにアップスケール出来るツール
ググって導入してみて
>>757 そんなの気にせず、スマホをVPNで自宅LANにつないで
生成する様子見せてる、もちろんエロ画像ではないが
>>754 Stepは15とか20程度に固定でいい
DPM.++ SDE Karrasは15で使ってる人多いと思う
Stepは上げてもそこまで画質に寄与してくれない(影響なくはないけどコスパ悪い)
変えるとしたらScaleの方
デフォルトの7を基本に、AIに自由度を与える6以下、輪郭がシャープになる10以上と使い分ける感じ
これはアップスケール時でも同様
絵をできるだけ維持したアップスケールはt2iのhiresでもi2iでもDenoising strengthを0.35前後に留める(デフォルトの0.7は高すぎる)
アップスケーラーをLatent系以外にする
こうすればかなり改善されて納得できるものに近づけると思う
あといきなり4倍とか6倍にせず、まずは2-3倍にしてからまた2-3倍って段階を経た方がいい
画像拡大させる拡張機能についてはまた別の話になるので置いとくけど、Tiled Diffusionだけはさっさと導入した方がいい
あとhiresのstepは10くらいで十分だと思う
>>761 詳しくは忘れたが何かのデータの処理とか受け渡しにCPUとメモリを食うらしい
RTX4090だとCPU差でアスカベンチ10秒~15秒くらい変わる
ハローアスカ 10枚連続 で9.83秒だった 34~35it/sくらい SDのバージョン上がってまた少しだけど速くなってる
>>767 version: v1.3.0 にしてるよ
>>766 なるほどなぁ
バス転送速度とかには効いてきそうだな確かに
そうなるとライザーケーブルだの外付けBOXだのはやっぱ地雷でデカい箱が大正義か
ありがとうございます ステップ数少なくてもいいのか 20でガチャった後40から10刻みで150までやってどれが一番いいか見てたり とかしてました(個人的に60から120までのどこかに一番がある印象) 拡張機能のアップスケーラーについても調べてみます
>>760 証拠を見せてもらわないとなぁ
CPUだけ変更なんて簡単にできないから環境変わっての勘違いだろ
>>767 してるよ~。2つフォルダ作って交互に更新してる
RTX3070のアスカベンチで更新前の Python 3.10.10 & torch2.0.1 & cu118 で 32秒前後なのは変わらんけど
Python 3.10.10 & torch 1.13 & cu117 と比べると1,2秒早くなってるよ
>>775 >>776 おーありがとう!
ちょっとは速度上がってるんだね
>>771 サンプラーによってStepを上げた時の挙動が違ったりするから沼なのよね、泥沼
そんなことに時間かけてられないからみんな低Stepで収束するサンプラーにしてとっとと好きな絵作りに走ってる
すでにこういうサイトもあるわけだし(urlは貼らないので検索して確認して)
webUI(1111)の全サンプラーの収束具合をstepsごとに比較検証してみた おすすめsamplerはどれ?
ステップ数って謎だよな 20より40の方がクオリティ高い時あるんだけど ちなみにステップ数以外のパラメータいじってない プロンプトの長さによって違うのかな
質問させてください。 google colabでweb UIの環境構築を行なっているのですが ドライブをマウントしモデルを入れるため !cp /コピペしたパス/を行なったのですが no such file or directoryとエラーが起きてしまいます。 以前まではエラーが起きていませんでした。 どなたか原因を推測できる方、ご教授いただけないでしょうか。
>>779 海外勢わりと情弱なのかな?
ハイスペックグラボで生成する際のCPUボトルネックって常識だと思ってたよ
CPU ⇔ GPUのやり取りがどれくらい発生するかだから、 ソフトウェアの作りに依存するからなんとも言えないな ゲームとかだとCPUがボトルネックになってGPUの性能を活かせないとかはよくあるけど、 1111はGPUにぶん投げて結果待つだけだからCPUのボトルネックかなり少ない部類だと思う
でも生成中ってCPU使ってんだな・・ 4090くらいの上位では糞早いから案外影響するのか 3060じゃ気付けもしない?
>>725 回答くると思ってなかった、ありがとう
上手いイラストしか素材にしてなかったんだけど、下手でもとにかく数増やした方がいい…って感じなのね
でもマイナーキャラだとそもそも素材が無さすぎるんだよなあ…10枚くらいしか集まらない
同じ画像複製して水増ししても意味ないよね
> 同じ画像複製して水増ししても意味ないよね
これで爆笑した
287 :名無しさん@お腹いっぱい。[sage] 投稿日:2023/04/17(月) 23:55:14.13 ID:BdnmL0DL [7/7]
生首 トリミングの際に肩の輪郭が残ってた事に後から気付いて若干失敗
学習した物から生成
中途半端な角度一枚でも、その角度に固定されると言う事もなくわりと柔軟に出る
>>788 草
キャラloraでこれやって大丈夫なの?
絵柄学習しちゃって質感べちゃべちゃになりそうだけど
>>789 全く笑えないし気持ち悪いのでその画像アップするの本当にやめてください
>>754 その気に入ったものを img2imgすりゃええやん デノイジング比率を低くして
デノイズ50%以下なら同じ構図で細部しか変わらない
LORAって設定保存みたいなことできないの? confファイルみたいなので、アニメやら実写やらその他仕事とかで手軽に使い分けることはできないのか
>>792 ここに来なければ良いと思うよ?
技術的凄さを的確に示した良い画像
絶対元々存在していなかったような画像を生成するというのは重要
Twitterに上げたらヤバそうな画像って皆んなどこに上げてるんだろ 抜きたいとかではなく呪文勉強のために知りたい ディスコ?
コマンドプロンプトでディレクトリの移動ってどうやればいいの?
C:\Users\username\Desktop\Stable_Diffusion\webui
これコピペして貼り付けたんだけどパスが見つからんとか言われる
https://yuuyuublog.org/localwebui_update/ プロンプト追加したりして生成し続けてると台詞やモノローグ系の文字が入ってきてネガティプで対処しても消えてくれない そもそも文字の発生を防ぐことって出来ない?
>>795 故人をバカにしないってのは技術云々の前に人としての最低限のマナーだよ
LoRAの強度を強くしたら出てくる絵が明るくなってきて、白飛びしちゃったりするんですが、 明るさを暗くするプロンプトって無いですかね? underexposed(露出不足) とか入れると暗くなるんですが、衣装も替わっちゃうんですよね。布地が増えるというか。もしかして肌の露出も減らすんでしょうかね
早速アドバイス通りに画像枚数500でキャラlora学習させてみてる 結果が楽しみ
>>802 画風が気に入ってるなら外部ツールで完成後レタッチするのが早いんじゃない?
白飛びするぐらいの強度なら明るさ云々の前に画質も粗くなってそうな気もするけど
なんか適当にやってUP出来たんですが Commit hash: 20ae71はバグとか大丈夫ですかね?
プロンプトにsmileがあるかないかだけで まるっきり画風変わるのやめてくれw それとDPM++2M SDE Karrasの違いがわからん
dpmとかddimのプロセッサってどう選べばいいんだ というかステップあたりの速度以外に何がどう違うんだ
>>798 usernameじゃダメだよ
そこは自分のユーザー名を入れなきゃ
エクスプローラ開いて「○○のドキュメント」とか書いてあるだろ
その○○を入れるんだよ
>>704 これSキーが効かないことがあるんだけど原因がわからんなー
webuiつかっててたまに特定の呪文を消しても残るような気がするんですけどこれってなんなのかわかる方います?
>>802 明るい部分にほとんど階調が残ってないんですよね。光の当たってる部分がほぼ真っ白に近くになってしまうので。
けっこうググりましたけどやっぱり明るさを簡単に変更する方法って無いみたいですねぇ、LoRAの強度下げるしか無いかな
redditの記事で明るさを変えられるLoRAとかあるっぽいことが書いてありましたけどどこの何というLoRAなのかは分かりませんでしたわ
あ、自分にレスしてしまった。
>>813 は
>>804 さんへのレスです
>>815 おお!すごい!ありがとう!
今回の事以外でもけっこうちょっと明るくしたい、暗くしたいという事はしょっちゅう有ったので
この情報はすごくありがたいっす、マジthanks!
ローラなんだけど画質まで覚えてしまうのは どうやれば防げるの?教師画像がアニメ調だけど 生成はリアル調にしたいんだけど。
ガチャで当てたファイルの詰まったフォルダ内のpng情報を自動で読みとって、バッチでhiresしてくれる方法無いものでしょうか、、、
モデルが実写系のBRAの場合だけど明るさ調整は ISO 400 とか ISO 800とかでできる カメラのISO感度のことだけど昼夜の時間帯指定みたいになるようだ
キャラLoRAで出力したあと lineArtで線画にして手直し→黒反転までしたんだけど どうにもキャラLoRAの色に着色が戻らないんだけどプロンプトイジるしかないの?
集英社がAIグラビアを電子書籍で販売し始めたよ 大手企業がファーストペンギンで 販売するのはありがたいね ちょっと試し読みしたけど やっぱ手が逆になったりしてて ダブルチェックできてない
ステップ数って150とかにすれば繊細で綺麗になる訳じゃないのですか? 15でも150でも綺麗さは一緒ですか?
>>822 一緒と感じるかどうかは主観の問題だから、やってみて意味があると感じるならそうすればいいんじゃね
オレは不要と思うからそんな高い数字にはしない
>>822 ステップ数は、ノイズを除去する回数だから
ある程度から先は効果が薄くなるよ
自分は150ステップとか試したこともないからやってみて結果教えてくれ
新photoshopみたいな、枠で囲ってアウトペインティング出来るExtension無いかな? openOutpaintってExtension入れてみたけど無反応で生成出来ない
CPUとGPUは左脳と右脳って考えるとしっくりくる 知らんけど
>>825 機能自体はOpenOutpaintと変わらないけど Hua ってのもある。
https://github.com/BlinkDL/Hua ・・・あ、その前にOpenOutpaint使うのに、ちゃんとwebui-user.bat編集した?
反応ないって、何だかそれっぽい気がするんだが。
>>827 おおおっ、エスパーありがとうございます
まさにbat編集してませんでした
そっちのツールも見てみますありがとう
写実で手直すのクソ難易度高くて草。line artで線画出して漫画描きで指書くと指だけお相撲さんみたいになるやんけ
素人でも環境さえ整えればかわいい女の子生成できんの?
インストールさえきちんと出来てれば1girlでも出てくるぜ
>>830 「素人」や「かわいい」の基準がわからんが、環境さえ整えれば同じスタート地点には立てるよ
入れた言葉が絵になるのは楽しいから、かわいい女の子にこだわらず画像生成AIを試してみるといいよ
>>821 みてきた。
すごいなあこれ。
顔も体も一定で出せてこのクオリティってどうやってんだろう?
素人予想するとこんな感じかな。
1.イチから商用セーフな素材でモデル作る
2.ランダムシードで奇跡の一枚を作る
3.i2iで増殖
4.LoRAつくる
背景はフォトショで合成か
グラビア界隈だと元々フォトショ修正のテクニックは持ってるからな……
loraについて質問なんですけど、 例えば、キスをさせてるloraを作る場合、ベースとなるmodelがキス画像を学習してないものなら、 どれだけ学習させてもキスはしてくれない感じですか?
>>833 どこかの施設に人の目に触れさせない状態で育ててきた
撮影してモデルデータを作成してからお星様に
そしてAIモデルとして生きていくことに
という星新一みたいなことになってたら怖い
集英社なんてプレイボーイもあるしジャンプもあるし それ以上は言えない…
グラビアに後から修正ファイルが上がったりするようになるのかな なんか面白い
国会図書館で歴代のえろえろな雑誌をスキャンできれば…… 機械学習のためなら……
質問というか雑談よりの話なんだけど イラスト生成やら学習やらどハマりして最近pcフル稼働なんだけどもしかして電気代ヤバい?w
>>837 自分なりにマネて、偏ったモデル作ってやってみようかと思ったが、そんな手法だとしたら無理だわww
フォトショレタッチなんて夢のない方法じゃなく、sdでできないものか。。
某グラビアはLoRAの強度強すぎてガッキー要素が漏れてるわ 自前だとしてもヤバいよなーとこっちが心配になるレベル
エロ漫画のネタ出しとしてchatGTP使えなくなっちゃったんだけどエロOKのAIってどっかない?
実在のグラビアモデル本人が了承したらAI化もありかもな 歳取らないし太らない整形だってできちゃう
>>845 実際そうなって ライセンス料もらい続けることができれば
喜んで AI 化する人もいるだろうね
逆にサンプルが少ないかもしれないけど 昔美人だった さつきみどり とか かがまりことか そういうのを現代の技術で復刻 できるかもね
>>845 スキャンダル写真もAIだで済ませてしまえる、最強
pcド初心者です 普段はデスクトップpcで生成してるんですけど、ノートpcでもAUTOMATIC1111を使いたくなりました。 ただダウンロードするなら 以前やった事なのでできるとは思うんですけど、自宅で使ってるstable diffusionの設定(Loraやワイルドカード control net etc...)をそのまま引き継ごうとした場合の手順はどうなるんでしょう ①Pytonのダウンロード ②GItのダウンロード ③AUTOMATIC1111のダウンロード この ②か③辺りの手順は自宅のpcの Stabre diffusion のフォルダをコピー ペーストするだけではダメですか?
Loraを作って学習させて特定キャラクターそっくりの画像を制作できていたのですが、 そのLoraを使っても突然そっくりレベルの画像しか制作できなくなりました。 モデルデータも合っていて、原因がわからないのですがこんなことになった方みえますか? また、直し方が分かるようでしたらご教授ください
>>847 Vocaloid登場時の騒ぎの絵版だよね
>>851 cmdにエラーが出てると思うからGoogleかTwitterで検索してみな
最近、Dynamic promptsの仕様変わりました? 再インストールしたら、前まで使えてた組み合わせで 連続で出力してくれなくなってしまったんですけど
>>839 データ流出して緊急移籍とかもありそうだw
AIグラビアとか周りが勝手に全裸画像作ってばら撒くのとどうやって差別化するのか見ものだな
おまいらなななとNovelAIちゃんがアンラス繰り越しになったぞ!!!……w もう存在忘れてたかもしれんがたまには思い出してやれよ? 一応スレタイにもあるんだしww
学習時のバッチサイズについて 質向上のためになるべく数字あげた方がいいと思ってるものの4だとメモリ不足だから3で行きたいんだけど、その場合はエポック数か繰り返し回数が3で割り切れる数字じゃないとダメって認識で合ってる?
理屈の上ではLora学習に使う画像の枚数が多いとき(100枚以上⤴)は 学習率を下げる必要がある筈なんだけど何故かデフォの学習率でぶん回して成功してる人とかいるんだよな Loraのパラメータ設定マジでブラックボックス過ぎて分からん あのデフォの学習率ってせいぜい20-30枚程度の画像しか使わない時用の筈なのに
自分も1e-4からの下げ方が分からない 1e-5で試したら1ミリも学習しなかったからずっと1e-4でやってる
生成画像からの背景透過でこういったグラデーションの部分も保持できる透過方法ってないかな
Photoshopなんかだとできたりするんだろうか
>>859 全然知らんかったわ
1e-4?の100枚でキャラLoRA普通に成功してる
モデルマージ中エラーでて失敗したんでWebui終了して起動しなおしたらそのモデル見つからないからと出て起動出来なくなってしまいました。別のモデルで起動とか出来ませんか?
>>858 俺も割りきれない数でやってたけどいける
>>864 いけるのか…
どっかで割り切れる数字なら何でもいいとは見たけどもはや割り切れなくても何でもいいのね
>>863 >>148 かな?
やったことないけどsafetensorも行けるんだろうか
>>863 Webui-user.batで
--ckpt <path:model.filename>
とかで直接指定でいけるんじゃないかな?
>>867 xformers と入っているところを消してモデル名.ckpt にしたけど出来ませんでした。やり方違いますか?
>>868 xformersを消す意味は分からんけど上に書いた引数の<>のとこが指定したいファイルネームだよ
ちょっと飽きてきたなぁー 手持ちの画像から生成できるExtension無いの?
>>861 白バックで作ってフォトショやらで乗算にすれば?
画像生成やってみたいのですがpixivで上ってるような高画質でクオリティ高いr18絵ってどうやって出してるんでしょうか? 画質悪くてクオリティ低い絵も多いから簡単に出せるとは思えませんがどうやって出力しているのか気になります
初心者向けの解説ブログとか動画がいくらでもあるからその通りにやれば簡単よ
>>874 まずやってみてから質問しようか
やってないのに技術的な事言われても理解出来る訳ないだろ
>>870 controlnetのrefarenceとかshuffleとか
>>859 勾配の状況とかによる運要素もあるから、一見同じように思える状況でも実際にうまくいく学習率が場合により違ったりすることはあると思うよ
>>874 RTX 3060 12GB以上のまともなグラボを買えば誰でも似たような絵は出せるけど、デスクトップ持ってなさそうだからそこのハードルあるかもね
>>876 >>879 すみません
PCは買おうかと思っているのですが高いPC買って汚い絵しか出力できなかったら後悔すると思って先に色々調べようかと思っていたのですがやはり買ってから手探りで実践するべきですかね
解像度高い綺麗な絵はRTX 3060 12GBでも出せますかね?
>>874 自力である程度l調べられない人には無理だと思う
AI生成は世間で思われているより難しい
>>880 自分がそれだけど
解像度を高くするには時間がかかるのでVRAMは多いほどいい
自分は待ってる間にスレ読んだり動画見たり他のことしてるから気にならないけど
>>880 そんな気持ちならやめておいたほうがいいんじゃない
>>880 12GBあるなら出せるけど
アニメ系ならwebのNovelAIで試した方が良い
リアル系の方が難しい
理想がどのくらいかに寄るだろうね
>>880 RTX 3060 12GBであれば解像度の高い画像を生成できるよ
3060 12GBでどのくらい時間がかかるか目安を書くと まず気にいる絵を探すために8枚出すのに数秒 気に入った絵1枚をhiresで大きくするのに30秒 それを4K以上にするのに3分ぐらいかな 正確には測ったことないし設定によっても変わるかと
公開されてるのであればプロンプトコピーしてモデルやら合わせればほぼ同じものが出るので・・ 汚いのしか出力できないなんてことは100%ありえない
時間はかかるんですね一応出せるなら安心しました YouTubeの解説動画見て導入方法とかは理解できたと思うのでやってみようかと思います
便乗して質問 4070 12GBに換装したんだけどあまり高速になった気がしない 何かやっておいた方がいい設定とかありますか?
>>889 もうちょっと情報書かないと・・
何から換装したのか、torchとcudaのバージョン、set COMMANDLINE_ARGS=の値は?
ハローアスカ10枚の秒数は?某所では18-22秒って報告だけど
GTXで192x256のサイズを出したら「こんなものかー」と思ってたけど 色々調整して1000px以上出せるようになったら、同じモデルとプロンプトでここまで変わるのかとびっくりしたわ エロの探究力があると色々頑張れるよね
3060の12G ドライバ最新、COMMANDLINE_ARGS=--opt-channelslast --xformers DPM++2Mkarras15ステップ、512×512、3カウント×3バッチ これで26秒くらいやな
>>890 3060 12GBから換装
一発インストールなのでtorchやcudaのバージョンは不明
set COMMANDLINE_ARGS= --autolaunch --xformers
とりあえず「これやっとけ」程度の話でいいんだけど
>>874 少なくともここの住人のレベルじゃ
高クオリティ画像など作れないよ
PCがハイエンドでも無意味になる
>>893 まあとりあえずアスカベンチ回しとけ、それか上の設定でやってみそ
10-15秒前後になるんじゃないかな
>>893 > 一発インストールなのでtorchやcudaのバージョンは不明
webuiの下に出てない?
あとはアスカ10枚結果待ち
extensionでloraの強さとかをシークバー動かして決めれるのがあったんだけどあれなんだっけ?環境再構築したんだけど思いだなくて入れれてない
>>880 最低スペックさえ満たしてればクオリティに影響するのは時間だけ
大量に作るならハイスペが良いというだけだから安心しなよ
4070Ti 5900X 64GB_RAM studio driver531.61 100枚チャレンジ Steps: 27, Sampler: DPM++ 2S a Karras, CFG scale: 7, Seed: 3941010527, Face restoration: CodeFormer, Size: 512x512, Model hash: 1d1e459f9f, Model: anything-v4.5, Clip skip: 2, ControlNet: "preprocessor: lineart_standard (from white bg & black line), model: None, weight: 1, starting/ending: (0, 1), resize mode: Resize and Fill, pixel perfect: True, control mode: ControlNet is more important, preprocessor params: (512, 64, 64)", Version: v1.3.0 Used embeddings: EasyNegative [119b], bad-hands-5 [10ca], bad_prompt_version2 [afea], EasyNegativeV2 [5685], verybadimagenegative_v1.3 [89de] 経過時間 Time taken: 5m 53.94sTorch active/reserved: 3186/3632 MiB, Sys VRAM: 6032/12282 MiB (49.11%)
8GBの3060tiでも4k 画質出せるしぶっちゃけなんでもええわ。拡張作ってくれる人様々だわ
NovelAIのプランて上級(25ドル)に入った方がいい? 最初はそうでもなかったけどはまりすぎてすぐ使いきってしまう 基本+3ドルを二、三回は追加課金してる
>>853 ありがとうございます!おかげで解決できました。
原因は壊れていると知らずにインストールした
a1111-sd-webui-loconが原因でした。
集英社が微妙クオリティでAI写真集出すのは草 まだ同人ゴロの方がプロ意識高いぞ
質問です。 昨日までloraや日本語化を行い作業できていたんですが、 起動したらloraも読み込まない(tabにすら出てこない) 日本語も英語表記になり、ユーザーインターフェースもNoneになってしまいました。(インストールはされているようです。) エラー等は一切出ていません。 \stable-diffusion-webui\extensions\a1111-sd-webui-locon\ のfilnameを削除すればいいとwikiにはあるんですが、そのフォルダも見当たらない状態です。 controlnetをインストールして再起動した瞬間からなったんですが、そのようなバグはあるんでしょうか。 これが原因? 解決策ありましたらご教授お願い致します。
>>904 追記になりますが、controlnetのタブも出てきません。
>>904 追記になりますが、controlnetのタブも出てきません。
>>901 上級はいれば低解像度なら無限にできる、ポイントが余るようになれば下のプランに変えてもよい
>>904 ご教授じゃなくてご教示なw
いい加減覚えろよガイジがw
>>907 調べて二日前のコミットにしたら治りました!
勉強になりました。
ありがとうございました。
衣装loraについて教えてください。 brav5のグラマーボディーに衣装を着せようと、範囲を広めにとってインペイントしてみたんですが、デノイズ0.5ぐらいまでは衣装が反映されず、0.5を越えたあたりから急に反映されるんですが肩幅が頭より狭くなったりして困っています。衣装に頭をつけても貧弱ボディーなので、それはそれで困っています。いい方法を教えていただけないでしょうか。
1.3.0にしたら初回に生成ボタンを押してバッチ回数分の生成が終了後 二回目以降生成ボタンが効かなくなったのですが そのような現象が出ている人はいませんか? UIの再読み込みしないと再生成出来ないのは辛いです
ここのスレ住人温度問題どうしてる? hot spotが94度とか行くからなんとかして遅くなってもいいから温度下げて動かせる方法ないかな
>>914 afterburner使うとか
https://forest.watch.impress.co.jp/docs/serial/sspcgame/1432583.html リミット制限できる
あと温度に対するファン回転数の設定もグラフで変えられる
デフォだと静音に見せるためにあんま回さない設定のが多いので
3090で初めての夏だけど、エアコンでも無理ならダクトホースを伸ばして冷風当てようかな プラダン200円で簡単に作れる
>>916 あー
アフターバーナー他社製もいけるんだったけか
ありがとういれるわ
>>832 一日掛けて入れてみたよ
いくつかモデル入れてみて試したけどすごいね
ただプロンプトの触り方がイマイチわからない
とりあえず追加学習というのを試してみる
ふと賢者タイムで気になったんだけど 目の前にいる人間の顔は、モデルデータの顔全部が1個人のオリジナルなのか、 stepごとに「色々な人のパーツをかき集めた」顔なの? 後者ならたまたま確率的に大半が1個人の顔パーツで構成されるということもありえるよね
プロンプトもわからんのに追加学習試すって何を言ってるんだ? と思ったら、LoRAを使うって話か。 それ、別の意味になるから。ここは自分で学習させてる人も多いから。 俺の知人にもいたわ。「学習させるの難しいな」って言うから見てみたら 単純にi2iしてただけだったという。
おーありがてえ アフターバーナーで調整してHOT SPOTで85度行かないくらいで10枚くらい生成できるようになった これでガンガン回せるわ もっとやるとしたらライザーケーブル余ってるからライザーケーブルで伸ばして冷やしたほうがいいかもなあ
エラーでutf8が出てstable diffusionが起動しないのですが解決策わかる人いますか?
教えてくれたお返しに生成したもん貼ったほうがええか?
かわいい子のなら見たい LoRAやってみようと思ったのにエラー出てなんもできんわ、今日は諦めた subprocess.CalledProcessErrorてなに
あるリアル系モデルを使っているんですが、顔のアップが出ません face,face only,face focus,close up などを入れますがうまく機能せずバストアップがせいぜいです これはモデルがそういうものだとしてあきらめるしかないんでしょうか? 何か他にプロンプト等で工夫できることはありますか?
わいもでけた
画質が上げられんのはなんでやろ 4kとかでやりたいのに
sd1.5と2.1のloraを同時に使う方法ってありますか?・・・・・
>>931 もしかしてだけどそれ以外のプロンプトのweightもかなり強くしてない?
手当たり次第1.5とかやってると一部プロンプトが反映されないとかよくある
便乗
このエラー出てstable diffusion開かんくなった
わかる人います?
>>900 こっち1080ti 11GBだけど出せないんだけど
700×1000すら出せない、どうゆうことだ
>>942 モデルデータいじった?
モデル読み込めないとき同じ様なエラー吐いた気がする
>>944 いじってない
特に何かをいじった覚えはないんだけど誤操作でなんか触ったのかな
>>943 VRAMじゃない普通のメモリはいくつ有るん
>>946 RAMは32GBで12GB余ってる
RAMで処理してるの?
xformers設定すると出力結果が一貫しないと聞いたが、どのくらい一貫しないものなの?
>>947 そのサイズだとxformersだけでもいけそうだけど
拡張機能のtiled diffussion入れてtiled vaeの方だけ有効化、エンコード512デコード64にすると
出力結果に影響与えずちょっとだけ無理が効くようになるはず
>>900 は拡張作ってくれる人様々だわって言ってるし単に何らかの拡張アップスケーラー使ってるだけじゃないかね
それだと時間かかるけど低スペックでも4Kの大きさにはできるのでは
3次元、2.5次元、2次元モデルの中で一番人気あるのってやっぱ3次元なんかな
>>951 顔が二つになったり胴体が3つねじれたりと駄目だった…
Loraはうまくいってポージングは学習させれたけど顔は変わらん…顔変えたかったのに
lora使ったら質感や日本人顔っぽさが増した、これすごいね
そうそう、次スレのテンプレ簡略化しないか? あまりに肥大化してる
>>754 自分も初めて少ししか経ってないけど
i2iに送って同じ呪文で変異量へらしてステップ数増やしたら良いんじゃない?
ステップ数上げると崩壊してるところ治ったり陰影増えて見た目良くなるよ
オシッコとか必ず肛門から出るからしゃがんだ絵出してから追加で描いたほうが確実にクオリティ上がる
てか外人どんなけアナル好きやねん
何でもケツの穴から出てきよるw
ステップ数はモデルと呪文でかなり変わると思う
ワイ「いいなvaginal sexだぞ。anal sexはNegativeだ」 🤖「おかのした」 🤖「女性には統計的に前後2つの穴があります。おそらく前はpussy、後ろはvaginaです。」 🤖「さて、vaginal sexとおっしゃいましたね?」
>>955 自分はインパクトのある風景画を出したいから2次元
3次元は構図もつまらないし特殊効果とかも無い
>>923 AIの画像の学習自体が画像の特徴を学習しているのであってピクセルパターンをそのまま記憶している訳ではないので
「パーツをかき集めた」という考え方がそもそも違う。
>>914 PLの調整はもちろんアリだけど、ちゃんとしたケースでちゃんとしたエアフローならhot spotが94度なんて行かないから
まずケースとファンとエアフローを見直すべきかと
>>957 1枚目の人の顔しょっちゅう見る気がする
>>964 すまん自分で性能突破BIOS焼きしたモデルやからゲームだと常に高負荷ではないからいいんだけど、代わりに性能は伸びるけどStable diffusion みたいな常に使用率100%だとアチアチになりすぎるんよね
流石にヒートシンクは追加しようと思ってる
>>942 それなる前に何かを手動でエディタで編集しなかった?
それをUTF-8で保存しなかった可能性がある
>>956 ControlNetのtile使用で元絵の維持はかなりのサイズまで可能
Adetailer使用で顔だけ変えることは可能
アップスケール前の小さいサイズの全身像でも顔だけマシにできる
もちろん限界はある、顔部分の縦横が64ピクセル以上ないと修正しきれないし64ピクセルは最低値だからこれだと美顔にならない
筐体裏に廃棄ダクト付けた miniITXに3060でサイズのチョウテンつけてるから廃棄こもってたんよね
テンプレを整理して次スレを立てようと思うんだけど、次のスレタイから「【NovelAI】」を省略したい
NovelAIの質問はないし、もし来ても詳しい人はここにはいない
専用のスレもあるし
なんJnovelAI部ウェブ専★68
http://2chb.net/r/liveuranus/1679488956/ 225の制限をどうやってやりくりするか… どうしても呪文が長くなる 詳細詰めたら足らなくならないか??
立てました
【StableDiffusion】画像生成AI質問スレ12
http://2chb.net/r/cg/1685519479/ >>965 有名なモデルが3-4つしかないみたいやもんね、そりゃそうなるか
>>969 うおお、ありがとう、今日はもう力尽きたから次試してみる
それにしてもLoRAは相変わらずやねー、30分無駄になるからエラー吐くなよ
Twitter始めたら俺と同じ顔めちゃくちゃおってワロタ オリジナリティ出して差別化してやるぜ
1枚の画像からLoRaを作る方法はありますか? 奇跡的に出現した1枚の絵で、毎回同じキャラが出るようにしたいです
NAIがスレタイから消えるか いや全然賛成だけど時代だな
>>981 一枚でLoRAは多分求めるようなことにはならんから
とりあえずcontrolnetのreference使った方がええんじゃないの
色々な高解像度方法がありますが、 出力済み画像を一括で高解像度化指示することなどできますか?
Batchというのを使うと出来るけどメタデータは消える
プロンプトが75超えることはないな それ以上は無駄だと思ってるし、構図詰めたいならCNやら使ったほうがいいと思ってる
色々素晴らしい生成物を出している人ってLoRAって何種類ぐらい適用させてるんだろう フェチ的なもの組み合わせたら4~5つあってもおかしくないよね
75以下じゃ物足りないというか、SEED違っても同じポーズが増えたりするし シーン設定そのままぶち込むこともあるしケースバイケースだな いいなと思う他人のプロンプトに足したら75なんてすぐ超えるしな 75前後の時だけちょっと気を付けるけど
クオリティタグで75トークン超えてるやつはアホだと思う 今の美麗系モデルならクオリティ系全部消しても大して変わらんのに
>>990 俺ももうクオリティ系一切入れてないわ
ネガティブにeasynegativeとか入れとけばそれで十分よな
呪文が多いほどクリーチャーが出て来る確率上がるきしない?
クオリティ指定なんて意味あるわけない AIはそんな判断できない
いつからかSD開始すると下のextensionsの▼が全部開いた状態で始まるようになったんだけど 設定ってどこでするんだっけ?
モデルにもよるけど、クオリティ、マジでメッチャクチャ変わるよ 俺も最初の頃はちょっと品質系のタグをちょっと足したり引いたりして、大してかわらねーじゃんとか思って、最初の方に覚えたやつを適当に付けてた時期あったけど。 あとクオリティタグに限らず指定強度が過剰だと画質が悪化したり、異常な絵が生成されたり、色やコントラストがおかしくもなる。
>>995 enable-checker入れてない?バージョン古いとそんなふうになった気がする
>>850 ③はコピーでいけるかも。
それよりも、デスクトップのwebuiを別のpcからもアクセス出来るようにして、ノートのブラウザからアクセスする方が楽じゃないかな?
外出先から使いたいならVPNとか必要になるけど、自宅内なら簡単。
自分はそうやってノートで作業してる。
>>997 まさに入れてて治った、ありがとう!
たまにはextensionsのupdate checkしないと駄目ね
次スレ
【StableDiffusion】画像生成AI質問スレ12
http://2chb.net/r/cg/1685519479/ このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 11日 4時間 3分 20秒
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/ ▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250112175325ncaこのスレへの固定リンク: http://5chb.net/r/cg/1684577410/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ11【NovelAI】 YouTube動画>2本 ->画像>35枚 」 を見た人も見ています:・ライノセラスでつくりたい! Degree4 ・【Painter】 Substance総合スレ Part2 【Designer】 ・CG用補助入力総合part12 【G13 n52te スマスク】 ・絵描きのTwitterスレ5 ・■■■こんな画像探してます■■■ ・XP-PEN液晶ペンタブレット5【Artist/Star/Deco】 ・【pixiv】VRoid Studio Part2 ・チミの初めての3DCGソフト原体験は? ・【Midjourney】AI関連総合16【StableDiffusion】 ・【プロ】ノートPCで2DCGやってる人【アマ】 ・【pixiv】もらって困った感想・コメント9【絵板】 ・Daz Studioスレッド Part45 ・YafRayをメジャーにするスレ ・【Midjourney】AI関連総合17【StableDiffusion】 ・CGを趣味だけでやってる奴の本職と生態 ・海外でCG学ぶのと日本で学ぶのってどっちがいい? ・原色ベースでいい感じの壁紙の作り方 ・Daz Studioスレッド Part26 ・老舗3Dソフト「Bryce 5」が期間限定で無償公開 ・Blender Part80 ・効率よく絵が上達する方法 筆32 ・3DCGソフトを比較するスレ 其の39 ・Blender Part83 ・Riosってどうよ? ・水杜学園の人々総合 Part8 ・AFFINITY Part 4【Adobe代替】 ・絵のうまい塗り方教えてくれ ・【Cintiq】WACOM 液晶ペンタブレット Part76【DT】 ・オープンパスでタッチのついた線が描けるソフトって ・3DCGソフトを比較するスレ 其の38 ・【Cintiq】WACOM 液晶ペンタブレット Part101【DT】 ・3DCG作製するのにオススメのノートPCってある? ・ペイントツールSAI 125色目 ・【Cintiq】WACOM 液晶ペンタブレット Part93【DT】 ・■CGトレース■超高画質画像拡大■CGモデリング■ ・トミーウォーカー アトリエ★134個目 ・Hexagon 2.5 ・【Painter】 Substance総合スレ Part4 【Designer】 ・榊正宗 part.4 ・Live Animation ライブアニメーション ・pixiv 底辺卒業スレ Part86 ・Blender Part75 ・そろそろLinuxでCGやろうぜ ・Blender 初心者質問スレッド Part35 ・絵描きのtwitterスレ ・Cintiq】WACOM 液晶ペンタブレットPart105【DT】 ・Blender Part59 ・【Midjourney】 AI画像生成 【DALLE】 ・Terragen ・ナムコの鉄拳CG>>スクウェアFFのCG ・6角大王って最強だよな ・【在宅】女性誌漫画アシスタント交流スレ【通い】1 ・【3Dデッサン人形】 デザインドール 9体目 ・【StableDiffusion】AI画像生成技術8【Midjourney】 ・MOTIONBUILDER 総合スレッド Part2 ・3DCG屋による雑談スレ Part27 ・CG作成依頼スレ ・pixiv奈落底辺スレ Part77 ・タブレットで絵を描きたい人のスレ ・PBWイラスト総合スレ Part2 ・絵のうまいサイトについて!38 ・絵描きさん愚痴スレ ・【実践】AA+α アニメ製作スタッフフ募集スレ【修行】 ・pixiv 底辺卒業スレ part124 ・【Scratchpad】 暇なら絵チャット 4 【lunch】
03:53:25 up 31 days, 14:17, 0 users, load average: 8.47, 8.01, 8.04
in 1.9565141201019 sec
@0.029844045639038@0b7 on 011217