◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ21 YouTube動画>3本 ->画像>38枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1703243927/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
↑スレ立て時にはこれを3行に増やしてください
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは
>>970 が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは
https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ20
http://2chb.net/r/cg/1700315721/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
>>1 おつです。口調が荒い人が減るならこっちが良いですね。
聞く人もワッチョイ特定されるの嫌がるんだよなぁ、初心者ならなおさら ワッチョイなしの低きに流れるのは目に見えてるけど、 あの荒らしにはもう我慢できないのでとりあえず抵抗してみるか ・ここに来た質問には普通に答える ・ワッチョイなしスレにされた質問には「知ってるよワッチョイありで答えるよ」ってレスして誘導する 但しこっちに来て質問しなおさない限り答えないこと(勝手に答えちゃうと結局見るだけ見て来ないので) 回答する側はワッチョイ好むだろうってのが唯一の突破口
匿名性高い掲示板はとにかくお口悪い人が好んで居座るんだよなあ
よっぽどやましいことがなきゃIP無しのワッチョイに書けないとかないはずだがワッチョイ自体よく分かってないと無駄に警戒するんだろう 上記のことから俺も低きに流れると見ているけどとりあえずこっちからにするわ
>>5 > 但しこっちに来て質問しなおさない限り答えないこと(勝手に答えちゃうと結局見るだけ見て来ないので)
うーん、あまり厳しくしなくてもいい気がするなあ
質問者は甘やかす方向でどうでしょう
前スレのHires. fixのLatent系はいつのまにか全部ジャギるようになってるっぽい 1.6初期はそんなことなかった気がするけど個人的にはLatentは使わないから気づかんかったしスルーだな Hires前の絵と全然別物になっている時点でプロンプトそのものも悪くてグロいのが出来るのはLatentとは別の問題だね
元々そんな人いないのに自演で延々伸ばしてる、わかりやすくてほんと笑う
あいつ回線2つ持ちなんだよな
>>9 hiresの瞬間にブワって変わるのがホラーみたいで怖かった
そもそもhiresって小サイズで半分stepまで生成してお化け出ないようにノイズ固定してから残りstepをi2iで拡大だっけ
>>5 両スレずっと見て質問あっちに来たら無しに毎回書込むの?
>>5 両スレずっと見て質問あっちに来たら無しに毎回書込むの?
質問です。
この様な感じの輪郭のモノクロ画像を作りたいのですがプロンプトの呪文だけで出来ますか?
または輪郭用のLoraとか他の方法等あるのですかね。ツールはComfyUIで生成しています。
用途はゲーム(Path of the Abyss)のカスタムアバター用画像です。
>>13 lineart風になるLoRAが色々あるからそれ使って色合いだけプロンプトで抑えれば
それっぽいのは作れるけどお好みにあうかどうかはわからぬ
>>13 白い縁取り?みたいなのだよね?
https://civitai.com/models/81340 これを使って、sketch系loraも併用したら行けそう
monochrome, greyscaleも指定しつつ
>>14 ありがとうございます。lineart風や色合い調整も試してみます。
>>15 それです白い縁取りです。教えて頂いたLoraを使ってみましたが良いですね。
いろいろ試行錯誤してみます。ありがとうございます。
お忙しいところお手数をお掛けいたします。
1111をローカルで使用しています。
https://civitai.com/models/227059/fullyrealxl のような6GBを超えるモデルを読み込もうとすると
以下のエラーで読み込めません。
Failed to load checkpoint, restoring previous
Loading weights [6a5798187d] from C:\stb\stable-diffusion-webui\models\Stable-diffusion\kisaragiMix_v22.safetensors
Applying cross attention optimization (Doggettx).
changing setting sd_model_checkpoint to fullyREALXL_v30ForREAL.safetensors: RuntimeError
Traceback (most recent call last):
File "C:\stb\stable-diffusion-webui\modules\shared.py", line 483, in set
self.data_labels[key].onchange()
何か設定が必要なのでしょうか。
ご教示いただければ幸いです。
試しにそのモデル読み込んでみたら普通に使えたんでよく分からんけど他の重いモデルでもそうなるならグラボのメモリ不足とかかね もしファイルサイズ依存でないならCheck Pointのファイル名変えるだけでも動くかもしれない
>>0018 さんへ お返事ありがとうございます。 6GB超えるのでも使えた事もあったのですが、XLモデルがダメなのかもしれません。 ファイル名変えてみましたがダメでした。 現状PCはこんな感じです。 GPU 1 NVIDIA GeForce RTX 3080 Laptop GPU ドライバーのバージョン: 30.0.15.1165 ドライバーの日付: 2022/01/28 DirectX バージョン: 12 (FL 12.1) 物理的な場所: PCI バス 1, デバイス 0, 機能 0 使用率 0% 専用 GPU メモリ 3.8/8.0 GB 共有 GPU メモリ 0.1/15.9 GB GPU メモリ 3.8/23.9 GB ノートだと厳しいですね。
>>17 それはSDXLのモデルだからビデオカードのVRAMが12GBくらいは無いと厳しいよ
SDなら起動オプションに
--medvram-sdxl
を追加すれば動くかも
>>20 さん
お返事ありがとうございます。
性能の問題のようですので動かなかったら削除して別のモデルでという風にします。
ご教示いただいて大変助かりました。
また何かありましたらよろしくお願いします。
>>17 DoggettxってことはCOMMANDLINE_ARGSが--opt-split-attentionになってるのかな?
--opt-sdp-attention
にしたらどうだろう?
一応COMMANDLINE_ARGSも見せてほしい、あとグラボその他の環境、webuiが最新か否かも
ここ最近LCM-LoRAの設定ひたすら詰めてたんだがこのクオリティが出るようになってきた
SamplerはEuler aにするのが一番伸び代があるような気がする
プロンプトは下のやつにLCM-LoRAとmore_detailsの2個追加しただけでCheck PointとVAEは同じ
https://majinai.art/i/ggac9yr というわけで上程度のクオリティはLCMでも出せるって結論になった
LCM-LoRAは下絵時短よりHiresのステップ数短くかつ質感上げられるのが最大のメリットかもしれんね
>>17 GPUドライバが511.65で古すぎるのでアップデートしてみてはどうかな。
536.40以降なら共有GPUメモリを使うようになるので改善するかも。
>>23 凄い詳細な感じで良いですね。
>>24 改善しねーぞ
お返事ありがとうございます。
6GB超えるのでも使えた事もあったのですが、XLモデルがダメなのかもしれません。
ファイル名変えてみましたがダメでした。
現状PCはこんな感じです。
GPU 1
NVIDIA GeForce RTX 3080 Laptop GPU
ドライバーのバージョン: 30.0.15.1165
ドライバーの日付: 2022/01/28
DirectX バージョン: 12 (FL 12.1)
物理的な場所: PCI バス 1, デバイス 0, 機能 0
使用率 0%
専用 GPU メモリ 3.8/8.0 GB
共有 GPU メモリ 0.1/15.9 GB
GPU メモリ 3.8/23.9 GB
ノートだと厳しいですね。
>>23 ここは質問スレだろうが
質問じゃないので却下
ここ最近LCM-LoRAの設定ひたすら詰めてたんだがこのクオリティが出るようになってきた
SamplerはEuler aにするのが一番伸び代があるような気がする
プロンプトは下のやつにLCM-LoRAとmore_detailsの2個追加しただけでCheck PointとVAEは同じ
https://majinai.art/i/ggac9yr というわけで上程度のクオリティはLCMでも出せるって結論になった
LCM-LoRAは下絵時短よりHiresのステップ数短くかつ質感上げられるのが最大のメリットかもしれんね
>>23 ここは質問スレだろうが
質問じゃないので却下
ここ最近LCM-LoRAの設定ひたすら詰めてたんだがこのクオリティが出るようになってきた
SamplerはEuler aにするのが一番伸び代があるような気がする
プロンプトは下のやつにLCM-LoRAとmore_detailsの2個追加しただけでCheck PointとVAEは同じ
https://majinai.art/i/ggac9yr というわけで上程度のクオリティはLCMでも出せるって結論になった
LCM-LoRAは下絵時短よりHiresのステップ数短くかつ質感上げられるのが最大のメリットかもしれんね
>>23 質問じゃない話は技術スレか、なんJNVA部あたりでしてほしいかな…
LCMの話題は荒れがちだから十分注意してね
ワッチョイありは口調の荒い人をNGNameに出来るからいいね。
>>31 =(ワッチョイ cfbb-whC3)
そしてワッチョイ有りは自演質問もバレるからいいよね
抽出すると回答者にもなってる
最初の方の奴らだけで回してるのがよく分かる
16 名無しさん@お腹いっぱい。 (ワッチョイ cfbb-whC3) sage 2023/12/23(土) 01:03:34.95 ID:0DtREn2O0
>>14 ありがとうございます。lineart風や色合い調整も試してみます。
>>15 それです白い縁取りです。教えて頂いたLoraを使ってみましたが良いですね。
いろいろ試行錯誤してみます。ありがとうございます。
>>32 それは私が質問して他のお二人の回答に対しての返信ですね。
ご存じだと思いますがレスを参照する場合はコピペしなくても
>>16 の様に記載すると良いですよ。荒らしでないのなら。
最初の質問が身内とか 無理すんなよ あっちに書いて誘導してる奴が荒らしてるがそれは注意しないのか? こっちは指摘だけどな 仲間の荒らし止めないのならお前も荒らしに加担してると見なす 5 名無しさん@お腹いっぱい。 (ワッチョイ 161d-3PPy) sage 2023/12/22(金) 22:47:17.45 ID:nkHTfkuM0 聞く人もワッチョイ特定されるの嫌がるんだよなぁ、初心者ならなおさら ワッチョイなしの低きに流れるのは目に見えてるけど、 あの荒らしにはもう我慢できないのでとりあえず抵抗してみるか ・ここに来た質問には普通に答える ・ワッチョイなしスレにされた質問には「知ってるよワッチョイありで答えるよ」ってレスして誘導する 但しこっちに来て質問しなおさない限り答えないこと(勝手に答えちゃうと結局見るだけ見て来ないので) 回答する側はワッチョイ好むだろうってのが唯一の突破口
>>31 特にここは住民が少ないので捗る
人口多いところだと下手にNGすると普通の人まで巻き込んで読めなくなるので
>>34 向こうのスレ見てみたが目的がわからんが褒め殺し誘導みたいな荒らしがいて大変そうだけど
結果的に両方のスレに対して荒らしている輩はレスコピペやURLをNGワードで対処するしかないかも。
自分はここにしかレスしないので双方のスレ住民で個々にNG対応ですかね。
>>35 ここに限らずだけどモバイル回線系はNGNameで良い気がします。
昨日の17です。
なんか私のせいでご迷惑おかけしておりますでしょうか・・・
申し訳ありません。
>>22 さん
もし何か工夫できそうなことがあるなら挑戦したいです。
コマンドラインというのはどうやればよいでしょうか。
>>34 「最初の質問が身内」っていうけどその根拠がわからないし、そもそも誰が「身内」とかないから意味不明なんだよね
質問した人がほかの質問に回答するのは普通のことだし
だから「仲間」もなにもないし、荒らしてると思うならまず自分で注意しなよ
ただ正しいスレはこちらなのだから、こちらに誘導するのは間違ってないよね
正しいスレへの誘導を「荒らし」というなら、向こうは荒らしが立てた不適切なスレだと認めることになるよ
それにレスをアンカーせずいちいちコピペするのも荒らしと見なすからよろしく
あっちのスレに書き込みは止めた方がいいんじゃない それを理由にこっち荒らされると嫌だし ここの住人が同類と思われるのも
>>37 webui-user.batに記述する起動オプションなんだけど、編集したことない?
webui-user.batでgoogle検索すると一番上に出てくるサイトが分かりやすい
省メモリや高速化設定やらができる
3080ならとりあえず
COMMANDLINE_ARGS=--xformers --no-half-vae --medvram
あたりがいいんだろうか?
>>40 さん
教えていただいてありがとうございます!
先ずグラフィックボードのドライバ更新して2023.12.12の物になりました。
その後編集して起動しました。
@echo off
set PYTHON=
set GIT=
set VENV_DIR=
set COMMANDLINE_ARGS=--xformers --no-half-vae --medvram
call webui.bat
起動の際以下の状態で立ち上がりました。
Launching Web UI with arguments: --xformers --no-half-vae --medvram
Additional Network extension not installed, Only hijack built-in lora
LoCon Extension hijack built-in lora successfully
[-] ADetailer initialized. version: 23.9.1, num models: 9
ControlNet v1.1.201
その後昨日の物を読み込みましたがまた同じランタイムエラーとなりました。
>>23 真似てみたけど、ちょっとマシになる感じかな
どうしてもLCM特有のボヤッとしたのは変わらない
でも実用性は上がったからサンクス
>>41 うーんわかんない
safetensorsファイルが破損してるってことはない?再DLするとか
ファイル名変更したってことだけど、先頭に「_」つけてみたらどうなる?
あとまだ聞けてないんだけどまさかwebuiのバージョンが1.5未満ってことないよね?
やっぱVRAM8GBでSDXLはきついのかな、ComfyUIなら行けるらしいけど
でもモデル選ぶことくらいはできそうだが・・・
>>43 結局答えられねーじゃーんw
ここで遊ばせてもらうわ
お前が無しスレ荒らしてるし迷惑でここに来るしかないわ〜w
43 名無しさん@お腹いっぱい。 (ワッチョイ cf1d-y73S) 2023/12/25(月) 20:07:47.45 ID:RecO/8Ju0
>>41 うーんわかんない
safetensorsファイルが破損してるってことはない?再DLするとか
ファイル名変更したってことだけど、先頭に「_」つけてみたらどうなる?
あとまだ聞けてないんだけどまさかwebuiのバージョンが1.5未満ってことないよね?
やっぱVRAM8GBでSDXLはきついのかな、ComfyUIなら行けるらしいけど
でもモデル選ぶことくらいはできそうだが・・・
>>43 さん
あの・・・衝撃の事実が判明したんですが・・・
バージョンが1.1と書いてありました・・・
調べて1.7にアップデートしたら読み込めました。
あぁ・・・恥ずかしい・・・
親身になって教えてくださった方に申し訳ありません。
本当にありがとうございました。
みなさんへ バージョンアップしたらXLもサクサク読み込めて、 今まで小さな画像しか出力できなかったのが 今2Kサイズ指定してもちゃんと作成されます。 自分の阿保さ加減にうんざりです。
レスコピペのIDコロコロ君がいるのかな…以後NGで。
>>46 解決して良かったですね。43のエスパーレスナイス。
何言ってんだか分からんぞ?
頭大丈夫か?
あっちに荒らしが来たからここに来るしか〜無いわ〜
説明しろよこの駄文
「最初の質問が身内」っていうけどその根拠がわからないし、そもそも誰が「身内」とかないから意味不明なんだよね
質問した人がほかの質問に回答するのは普通のことだし
だから「仲間」もなにもないし、荒らしてると思うならまず自分で注意しなよ
ただ正しいスレはこちらなのだから、こちらに誘導するのは間違ってないよね
正しいスレへの誘導を「荒らし」というなら、向こうは荒らしが立てた不適切なスレだと認めることになるよ
それにレスをアンカーせずいちいちコピペするのも荒らしと見なすからよろしく
>>34 向こうのスレ見てみたが目的がわからんが褒め殺し誘導みたいな荒らしがいて大変そうだけど
結果的に両方のスレに対して荒らしている輩はレスコピペやURLをNGワードで対処するしかないかも。
自分はここにしかレスしないので双方のスレ住民で個々にNG対応ですかね。
>>35 ここに限らずだけどモバイル回線系はNGNameで良い気がします。
1111でhiresからextraに勝手に流してくれる方法ない? 生成画面でextraと同じく拡大出来るExtensionとか?
>>49 ねーよ
自分で作れ
LCMも使いこなせん奴には必要ねーよ
さっさと説明しろよ
「最初の質問が身内」っていうけどその根拠がわからないし、そもそも誰が「身内」とかないから意味不明なんだよね
質問した人がほかの質問に回答するのは普通のことだし
だから「仲間」もなにもないし、荒らしてると思うならまず自分で注意しなよ
ただ正しいスレはこちらなのだから、こちらに誘導するのは間違ってないよね
正しいスレへの誘導を「荒らし」というなら、向こうは荒らしが立てた不適切なスレだと認めることになるよ
それにレスをアンカーせずいちいちコピペするのも荒らしと見なすからよろしく
>>46 よかった
そういえばXLっていつからデフォでいきなり使えたっけ?ってふと思ったので
>>49 batchでまとめてくらいしか思いつかない、t2i→i2i自動なんかもないよね
ちょっと検索したら
https://github.com/nefudev/sd-webui-auto-operation こんなのがあった、自動化ツールで拡張ではないとのこと
6ヶ月前に止まってるし、なんか難しそうだ・・
> オリジナルの自動化処理を作成するためには、javaScript の知識がある程度必要です。
あと普通にやるとしたらComfyUIで組むくらいか
あとは鉄板のautohotkeyかな extraタブクリックみたいなかなり泥臭いの組むことになるけど 512x768で回して、いいのが出た瞬間に ・seed固定 ・hires ・seedランダムに戻す とか昔やってた
>>47 さん
>>52 さん
半ば諦めていましたが、聞いてみてよかった・・・
本当にありがとうございました!
>>55 解決したようでよかったよ
ここは伸び悪いと思うがなんかあったらまた来てくれな
>>28 >>30 前スレ124の
> LCMのアニメ絵
> ベタっとした塗りは行けるけど、精密なのは再現無理だな
>
https://civitai.com/images/175093 > こういう感じの
というv/HOzmWwが
https://majinai.art/i/ggac9yr を出しては再現出来んのか?って問うてきただろ
>>23 はそれに対する回答なんだよ
ちなみに上の元絵はAbyssOrangeMix3モデル作者のサンプル画像で同じシード値では再現出来ないと書いてある(雰囲気は再現可)
https://civitai.com/models/9942/abyssorangemix3-aom3?modelVersionId=17233 だからシード変えれば元絵にある程度近い構図も出てくる
これでもLCMはベタッとした塗りしかいけないとかぬかすようならもう相手にする気はない
>>55 CPU内蔵GPUがある場合はメインをCPU内蔵GPUにして、グラボはSD 専用にするとGPUメモリ稼げるよ😁
他のスレで回答がなかったのでこちらで質問させてください WebUIのADitailerって顔のサイズが200pxくらいでも綺麗に描画するじゃないですか でもComfyUIのFaceDetailerだと小さい顔は綺麗にならなくて 良い設定とかカスタムノード知ってる方いますか?
ほかのどのスレで質問したのかな? ここは見てる人が少なめでComfyUIのカスタムノードのなると詳しい人に当たりにくそうだから、なんJNVA部みたいな人の多いところで聞くといいかも 画像つきで質問すると答えを得やすそう
>>59 facedetailerの設定はどんな感じ?
>>59 https://github.com/daxthin/DZ-FaceDetailer たぶんこれだよね
設定できるパラメータにはどのくらいのサイズまで検出するかはないみたいだよね
https://github.com/ltdrdata/ComfyUI-Impact-Pack こちらはどうかしら
作例の画像をざっと見ただけだけど、同じようなことができそうな気がする
検出する顔のサイズを調整できるかはわからないけど
>>60 >> 61
>>62 DetailerはダブルクリックからSearchで"FaceDetailer"と表示されたものを使っています
おそらくImpact-Packのものかと
どうも顔LoRAを適用したときにうまくいかないみたいです
比較画像を上げましたが、顔LoRA適用時の生成で左から
Detailer無し | Detailer有り | Detailer時のみLoRAを適用しない | WebUIでADitailer有り
WebUIは同Seedでも違う画像が出るので(Wasなんちゃら入れていません)
小さな顔の画像を比較として出しています
LoRA使ってこのくらい綺麗に出てくれると良いのですが
https://imgur.com/a/EG0jwXQ https://imgur.com/a/Dym0MnP BingImageCreatorのことで質問なのですが、棒状のモノ(剣、釣り竿など)を持たせると 「手以外の部分から棒状のモノが複数現れる」「まっすぐな棒ではなく曲がったり歪んだりしている」 このように描画されるんですが何か対策はありますか?
>>64 カスタマイズ不可のBingでは無理
現在のAIは元々そういう物体を正しく認識できない
>>64 まあ、対策としては「正しい形状」とか「正しい構え」とか入れるとちょっとマシになる
あとは物体の形状はフォトリアルの方が強い
イラスト系はデフォルメやらパースやら入ってるの学習したりしてるんで、そもそも論として歪みやすい
これは弓も同じ
>>63 サンプルを見る限りキチンと効いているようにみえるが…LoRAありの方は目の間隔小さくなってるし
Detailer は 顔を個人の好みの顔に変える事ができるツールではなくて、生成画像に対して顔が小さい時にぐちゃっとなってしまって顔に見えないものをそのモデルでもっと大きなサイズで出したときの画像に差し替える機能だからそんなものでは?
できることといえば、大きめの顔でもなるべく Detailer で修正してもらうように guide_size を512とかにしたりするくらいか
自分のフローはこれだが まぁ 結果はあんまり変わらんと思う
https://comfyworkflows.com/workflows/2b0434a6-9e2d-4417-a5b8-d93bbe777530 >>67 ワークフローありがとうございます
好みかどうかではなく、LoRAを適用するとDetailerの効きが悪くなるという話です
色々試した結果、LoRAを弱めれば綺麗にできますが
LoRAの効き目がなくなるので意味がないというジレンマ
最近Stable diffusionを1111で使いはじめた初心者です。 女キャラのエロ絵を作ってそれを使った同人エロゲを作成しようとしていて、同一キャラの絵をいろんなシチュエーションで量産するためにはControlnetを使うのだと思うのですが、 例えば白背景や透過pngみたいなので女キャラの絵を作ってそれをreferenceやip-adapterで合成しようとしても、白背景にひっぱられてのっぺりとした背景になってしまったり、 女キャラの姿勢なども元画像に引っ張られて同じような体勢の絵になるか壊れてグロ絵になるかなどしてしまいます。 何かいい方法を教授していただけるか、それを学べるWebサイトあるいは本などを紹介していただくことはできませんでしょうか。「
>>69 その元画像に引っ張られてのっぺりした背景のって、キャラだけは理想的に作られてるんだよね?
保存して画像を右クリックして3Dペイントで開いてなんちゃらマジックで人物だけ切りぬける
>>65 >>66
レスありがとうございます
現状ではまだ不得意な部類なんですね
>>70 レスありがとうございます。
例えば教室で授業を受けている女の子の画像が欲しいとして、素材としては授業を受けている女の子の透過画像があるときに、
Controlnetに透過画像をいれてclassroomなどのワードをいれて生成してる感じですが、これだと教室がうまく出てこないという感じです。
現在の生成AIの技術だと、女の子が本を読んでいるくらいの画像なら作れそうだからそれをうまく別にだした背景と合成するみたいな方法しかないんですかね?
絵の編集技術が弱いのでその辺をうまくできる方法があれば理想だったのですけど・・・・。
>>69 これは?
たった90分で初心者でもstable diffusionをマスター!!使い方&マネタイズの方法もOK!
VIDEO 1,棒人間でポーズだけ変えた同一キャラ作成 2,背景は別で出力する 3, 1,2を合成 4, 3をimf2imgにいれて出力。合成の際にできた不自然な部分や色合いが自然になる(までガチャる) >69 で透過png作れてるみたいだし背景と重ねるのもできるでしょ
>>72 こういうのでいいの?
当然パース合わないけど・・
あるいは
こう?
>>76 これは右の画像をi2iして左の画像を出力したのかな
denoising strengthを上げればパースも整えてくれるんだね
こうなってくると、どのくらいきちんとした構図の画像が欲しいかのイメージをしっかり持つ必要がありそうね
>>75 1枚目の雑コラでも2,3枚目が出る
キャラの同一性が怪しいが、これimg2imgには女性のプロント情報入れてないから、そこにそれっぽい呪文入れればほぼ同一になるのでは?
>>72 controlnetは複数枚の画像セットできるから、
controlnet1に教室、controlnet2に女の子を
セットすればいい
後にセットした方が強くでる
あとはcontrol weight調整して効き具合を加減して
元絵に引っ張られるのは避けれないから、
同じ顔で色んなポーズを出したいなら
その顔のLora作るしかない
>>71 コントロール ネットとローラと Photoshop を組み合わせる
みなさんレスありがとうございます。参考にしてがんばってみます。
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703250505/148 聞いたことない
最新(v22.4.0)入れても普通に5_xxx girlで中身は学習画像20枚の5回リピートで動くよ
あと具体的なエラー文言も書かないと意味がない、同じ症状って人のblogもできれば貼って
すごく基本的なことなんですが、Loraを適用するとモデルによっては絵柄が変わったり、画像が崩れてしまったりします。 これはLora情報に引っ張られてしまってるんだと思うんですが、これはどうしようもないんでしょうか? 「気に入ったLoraを見つけてもモデルとの相性?によっては使えないこともある」というのが普通なんでしょうか?
すいません、Stable Diffusion1.5の話です。
引っ張るのがLoraだから気に入らない要素があるなら 自作Loraか他のを探す
>>85 ありがとうございます。
やはりそういうものなのですね。
気に入ったモデル見つけても作りたいloraと相性が悪いとなかなか大変だ…
>>83 lora の適用を 0.5 とかに下げるとか
>>83 最初ガビガビになってうーんってなるんだよね
lora block weightってのを使うと、完璧まではいかないけどかなり制御できる
>>86 それが仕方がないので
ローラの強度を下げるとかしないといけない
>>64 今月くらいから剣は回せばすぐまともなのが出てくるようになったが、釣り竿はまだ難しそう
A1111を1.7にしたらエラーでるから1.6に下げたいんだけど エクステンションとか消さないでできますか? 設定のバックアップってどうやるの?
>>91 git cloneからインストールしたのならgit checkoutコマンドでバージョンを戻すことはできると思うけど、設定ファイルの整合性が怪しくなることを考えると、別のフォルダに1.6をインストールし直すのが確実じゃないかなあ
1.6はここ↓からダウンロードしてzipを解凍、webui-user.batの内容を今までのと同じにして実行すればインストールされる
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.6.0 拡張機能はextensionsフォルダを移動するだけでOK
同様にmodels、embeddings、log、outputsの各フォルダと、styles.csvを上書き移動すればよい
いずれも1111がインストールされたフォルダのルートにある
設定はconfig.jsonとui-config.jsonに書かれているけど、バージョン違いの設定ファイルだから1.7のフォルダから1.6のフォルダにそのまま移動するとよくないことが起きそう
WinMergeのようなテキスト比較ソフトを使って、1.7の設定値のうち必要な部分だけを1.6に転記する方法がいいと思う
ところで1.7でどんなエラーが出るの? いつまでも1.6を使い続けるわけにもいかないだろうから、1.7でのエラーを解消することも考えたい
>92 丁寧にありがとうございます。やってみます! 1.7でのエラーはエラー内容消しちゃったので正しいのはわからないんですが、 loraのフォルダをちゃんと読み込んでないようで、一部しか出なかったです。
>>93 LoRAが一部しか認識されないのは原因がいくつかあった気がする
自分もその症状に当たったことがある。どうやって解消したんだったかな…
実は一覧に出てこないLoRAでもプロンプトに書けばちゃんと反映されるのよね
いったんcheckpointを別のに切り替えて元に戻すとちゃんと表示されるようになることがあるとか、1111を再起動すると直ることもあると思った
試してみてください
>94 書けば反映される!知りませんでした。いろいろ試してみます。 ありがとうございました!
>>87 >>89
ありがとうございます!
強度下げると今度はloraで適用したいポーズとかキャラとかから離れちゃうんですよねぇ…うまくいかないもんです。
>>88 ちょっと調べてみましたが敷居が高そうです。
もう少し技術を身に付けたら挑戦してみます。
ありがとうございます。
もうひとつの質問スレの158です 誘導されて来ました 原因が分かったとのことですが教えていただけますか
>>96 いや簡単簡単
とりあえず「顔だけ似せてモデルの特性を出したい」として
@lora block weight入れる
https://github.com/hako-mikan/sd-webui-lora-block-weight Aaaa,<lora:aaa_v10:1>を
aaa,<lora:aaa_v10:1:lbw=1,0,0,0,0,0,1,0.3,1,1,1,0.8,0,0.4,0,0,0>にする
(Loraの顔部分だけ取り出して他の部分の影響を削るか減らす)
これだけだよ
https://sorenuts.jp/751/ ごちゃごちゃ書いてるけど、
この1,0,0,0...みたいな値をテンプレにして、あれこれ調節して使う説明がされてるだけ
実際は顔だけって綺麗に分かれてるわけじゃないのでちょっとした沼があるけど・・
>>97 あってるかわからないけど
https://github.com/bmaltais/kohya_ss/blob/master/docs/config_README-ja.md > まず注意点として、 image_dir には画像ファイルが直下に置かれているパスを指定する必要があります。
> 従来の DreamBooth の手法ではサブディレクトリに画像を置く必要がありましたが、そちらとは仕様に互換性がありません。
> また、5_cat のようなフォルダ名にしても、画像の繰り返し回数とクラス名は反映されません。
> これらを個別に設定したい場合、num_repeats と class_tokens で明示的に指定する必要があることに注意してください。
ようは「10_am」じゃなく、「10_am girl」とかにしないと
貼ってくれたcmdの画像内で、普通は
「class_tokens: aaa girl」とかなのが
「class_tokens: None」になっちゃってるので、反応しなくなってるのではないかと
>>99 ありがとうございます
Kohyaサンプルのカエルで試したときは「20_usu frog」としてやりましたが
同じように無反応でした
>>100 captionのtxtが一切用意されないなんてことはないよね?
同じフォルダに1.jpgに対しての1.txtで中につらつらとtagワードが並んでるファイル
>>101 10_am のときはtxt形式で用意していましたが
カエルのときは用意しませんでした
後で 10_am girl としてもう一度試してみます!
プロンプトで \( xxx \) という記載をたまに見るのですが バックスラッシュ( は何を意味するのでしょうか?
>>103 (abc:1.2)の括弧に対して、単に文字としての「(」や「)」を区別する記号
akagi_\(kancolle\)とか
danbooruタグが「akagi_(kancolle)」とかで被っちゃったので苦肉なのかな?
>>101 駄目だ、「10_am girl」でも変わらずでした……
>>105 もしよかったらLoraフォルダにあるjsonファイル(学習開始時に生成される設定)を
どこかのアップローダーにでもあげてみて
一度どういう設定でやってるのか確認したい、さっきみたいなcmd画面の画像だと細かいところ分からないので
学習画像は別になくてもいいので
>>104 ありがとうございます
カッコのエスケープ文字としてつかってる訳ですね
>>107 むむ、場所が分からない
jsonファイルはどこに生成されますか?
>>109 https://note.com/hcanadli12345/n/nacbb6dd31de6#cf5aa29f-5a79-48b9-a05d-a8d724953140 > 保存場所は、\Packages\kohya_ss\presets\lora\user_presets をお勧めします。
「Configuration file」ってところ開いて一度save押すんだったかな・・
以降ずっと作られるので最初どうやったか忘れたw
自分はプリセットとかあんま考えないのでわかりやすいように勝手にLoraの場所にしてたんだった、ごめん
>>110 自分はGUIではないので設定が出来るものなのかも分かっていません
というかPaperspaceでもGUI使えたりするんですか
いや普通にGUIのkohya_ssをローカルでやってると思ってたよ・・
paperspaceとかcolabのCUIベースは知らないのでどこまで答えられるかわからないけど
--dataset_configで指定してる
dataset_config.tomlってのはちゃんと設定してる?としたら中身を貼ってみてください
https://github.com/kohya-ss/sd-scripts/blob/main/docs/config_README-ja.md の一番上のやつね
paperspaceでって書いてたね・・マジでごめん
まともに分かりもしない読みもしないのに誘導してまで無理に答えようとするからだよ 馬鹿じゃねーの
>>113 いえ、色々問題になりそうなところを指摘していただいただけでも
問題点を絞れるのでありがたいです
で、先ほどやり直したら無事にLoRAとして機能するものが出来ました
原因は参考にしたサイトの情報が古く、わざわざ古いバージョンの
torchやxformersをインストールし直していたことでした
試しにWebUIと同じ環境で実行してみたら出来ました
本当に助かりました。ありがとうございます
いえいえ、直接役に立てなくてすいません・・ 結果オーライでよかったです・・はい
kimonoとか和装系のプロンプト入れると背景もアジア系になるの回避したいんだけどいい案ありますか? ネガに(japanese, east_asian_architecture, shouji, tatami:1.5) とか入れまくったら多少回避できたけど安定感がいまいち
>>117 negpipはどうかな?
https://github.com/hako-mikan/sd-webui-negpip 1girl,kimono,(asian, shouji, tatami:-1),
あと使ったことないんだけどLECOってのもあるらしい
https://github.com/p1atdev/LECO >>118 すご!完全にクリアしてる!これはいいものだ
教えてくれて本当にありがとう
SDローカル環境で画像を100枚精製してその間に前に精製した100枚を確認を繰り返してるんだけど、再精製始めたら前の画像のseed値は確認できないよね?
>>120 確認する前にとりあえず全部ログに保存したら?
>>120 「確認」の意味がいまいちわからないけど、デフォならファイル名にseedが入ってない?
> 00000-1098224275-1girl,black hair,blue eyes,.png
この1098224275がseed
(settingsで独自に変えてたら出ないけど)
あと画像内のchunkにも情報記憶されてるので、PNG Infoに画像突っ込んだら出てくるよ
あるいは前の100枚全部一覧で残して、同じこともう一度繰り返したいって意味?
http://2chb.net/r/cg/1703250505/174 >上着の指定,下の服の指定, と書いても、あるいは長文で「彼女はコートの下にピンクのブラウスを着ている」を英字でやっても、どちらでも上着が無視されやすい
>下の服をしたいしなければ上着は着るけど下がランダム(というかポイ服)になる
>なんか適切な文章の入れ方ありませんか?
こんな感じでいいの?
>>123 はい。コートの色も指定したいです(同じ色で出てるので指定されてるとは思いますが)
>>124 特に変なことはしてなくて、ネガはごく普通のでやって
ポジは
1girl,blonde hair,brown coat,(pink blouse:1.2),blue eyes,thigh gap,cowboy shot,(hat,bow,collarbone,turtleneck:-1),
上のレスで紹介したnegpipで
bow,collarbone,turtleneck
とすることで、タートルネックやキャミソール風だったり、大きなリボンを抑止してブラウスに寄せる
(hatはcowbow shotでのcowboy hat抑止)
・・ここまでだとなぜか逃げ?で横向き構図にしてくることが多いのでthigh gapで無理矢理正面向ける
あとcutoffで
blonde,brown,pink,blue
と色指定してます
モデルはmixtapeSalsa_v10FusOBakedVAE.safetensorだけどどれでも同じかと
ローカルSD1.5です
プロンプトで (long pleated skirt:1.3), Middle School,ネガに(thighs:1.3)を入れても
制服が100%ミニスカになっちゃいます
私はただ記憶の中の同級生を再現したい関西人なので長いスカートを出す呪文を教えてください
スケバン刑事まで長いと怖いので
こんな感じです
https://jocr.jp/raditopi/2022/05/30/430220/?disp=photo&item=2 >>128 「ローカルSD1.5」だと使っているアプリケーションやcheckpointがよくわかりません
ミニスカになっちゃう画像を
https://catbox.moe/ に上げてもらえるとダウンロードしてPNG Infoを見られるので回答しやすいです
>>129 つづき
たとえばこんな感じでどうでしょう。画像をPNG Infoにドラッグ&ドロップすると生成情報を確認できます
といってもプロンプトは「1girl, school uniform, long skirt, 」だけです。ネガティブプロンプトにmini skirtなどは入れていません
使用モデルはnostalgiaClear V2です
>>128 経験則だけど、修飾を2つ並べると先頭があんま効かないことが多い
ここら解説してるサイトがあったんだけど失念
×long pleated skirt
○pleated long skirt
△long skirt,pleated skirt
分けると成績が悪いのでpleated skirtにミニスカート成分が含まれてる?
○のでもたまにミニになるのでnegpipで駄目押しするなら
pleated long skirt,(mini skirt:-1)
とかだろうか
皆様ありがとうございます
まず私の情報があまりにも少なすぎましたことをお詫びします
>>130 立ち絵だとほぼほぼ問題ないのですが椅子や机に座った途端にミニになるようです
>>132 pleated は諦めて negpipも動員してみました
モデルはいくつかの組み合わせで試行錯誤している状態です
(あと 12yo や loli は決してロリを出したいのではなく純粋に見た目中学一年生が欲しいだけです汗)
>>133 うーん、このくらいだろうか・・色もいまいち、強めの指定は悪さしそうなので外した
classroomとかblazerにmini要素が含まれちゃってるのかもしれない
あとモデル合わせたつもりなんだけど、なんか違うw
>>134 凄い!
ちょっと座るのは諦めて立たせたりしてたのですがやっと長くなったと思ったら八尺様だったり
ミニじゃない!と思ったらGパンだったり
と少々煮詰まっていたのですが
プロンプトをそのまま使わせていただいたら無事百発百中で出るようになりました
mini要素が入り込むとかがあり得るのですね
今から自分とどう違うのかとか他のシチュでもいけるのかとか精進していきます
ありがとうございましたm(_ _)m
long pleated skirtではなくて、(long skirt, pleated_skirt:1.3) としてみな long pleated skirt では、longの指示が曖昧になるんじゃないかと まぁLoRA探してぶちこむのが確実だが・・・
>>136 実際やってみたらわかる
自分も普段は分ける派なんだけど、勝手が違った
> 経験則だけど、修飾を2つ並べると先頭があんま効かないことが多い
そもそもskirt with pleatsがlongの状態、あるいはpleats and longのskirtっていう意味 pleats long skirt
ローカルで画像を作る PC を持っておらず 有料画像生成 AI に誘導するのは法律違反なので 通報にご協力お願いします
N◯◯画像生成AIサービスが あらゆるところで広告活動しています 通称ステマ法違反のため 警察に通報協力をお願いします
画像の顔を検出して切り抜きたいので、
1111の1.6.1で、TrainのPreprocess imageで、
auto focal point cropをオンにして、Preprocessを行いましたが切り抜けませんでした。
エラーメッセージは、
cv2.error: OpenCV(4.8.0) D:\a\opencv-python\opencv-python\opencv\modules\dnn\src\net_impl.cpp:279: error: (-204:Requested object was not found) Layer with requested id=-1 not found in function 'cv::dnn::dnn4_v20230620::Net::Impl::getLayerData'
分かる人がいれば教えてほしいです。
>>142 1.6だとなるね
1.7で修正されたとかなんとか
https://github.com/AUTOMATIC1111/stable-diffusion-webui/pull/14121 1.7にあげたくなかったらここらかな?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/11727 > If you are running the extension ControlNet, it will uninstall OpenCV-Python 4.7 and install 4.8. I fixed this issue by:
> Turn off ControlNet extension in Webui
> Uninstall OpenCV-Python 4.8
> Install OpenCV-Python 4.7.0.72
> Then I ran launch.py and training with face focal point is running.
>>143 ありがとうございます。1.7に上げたらできました。
Auto focal point cropは顔を中心に切り取るわけではないんですね。体を中心に切り取る感じでした。
3D脱衣に関してはここが一番リアルだった
脱がせるしAIで画像改変も可能だし
いろんなサイト試してみたが
ここは金払って使っても良いレベルだ
https://generateimage.app?reff=7dfe6a84-94eb-43c2-9bef-e87c97a98a83 ComfyUIとwebUIでlbwで階層ごとの効き具合が違ってるんだけど何が原因か分かる人居たら教えてほしい 一応cliploaderとksamplerはA1111指定してる
loraの顔がとにかく似ないで髪型や服だけは似るのなんでですかね?? 顔、髪型を維持したいのでそれに関係するキャプションは抜いて学習してるのに。
リアル系なら顔だけ学習させたloraから作っていかないと無理じゃね? アニメ絵系のキャラloraだと髪型と服装だけ似せてあとはモデルに依存させる感じが主流だと思うけど
東洋人をasian、brown_eyesで学習しても、青い瞳の外人顔になったりするよね あれ不思議
>149 リアル系です。顔だけ学習かぁ。やってみます。
欧米系モデルでアジア系を学習させるとたまに「欧米か?」って突っ込みたいのが出やすい気がする
>>151 リアル系はかなり熟練度上げないと解像度違うコラ画像になったり、顔が浮いたり、体とスケールが合わないヘンテコ学習になるから注意だな
アニメ系なら多少バランスが悪くても気にしない人が多いけど
版権キャラloraに表情系lora足しても 殆ど表情制御できない感じなんですけど、 キャラloraによって変わってきますか? それとも基本的にキャラloraに表情loraって難しいのでしょうか?
表情重視ならキャラLoRAの強度を弱めるかLoraBlockWeightで調整するかだね
キャラの顔再現する時点で、表情がキャラLoraに確実に引っ張られるよね
>>147 lbwはInspire-Packのlora loader(block weight)でいいの?
comfyUIもうやってないけど自分はlbwに関しては普通にうまく行ってたような記憶
Lora は同じ版権キャラでも個々でかなりデキが違う そういうのちゃんとコメント評価してくれるといいのに、★4でも 背景が森になる(アニメでそういうシーン多かったんで背景切り抜かずに学習させたんだろう)みたいな粗悪品多くて苛つく アニメキャラだと着せ替えできずどういつ服装というのは利点だけど、背景まで固定させるなよ
>>154 できないloraはできない。できるloraはできる
いろんな人間が好き勝手に作っているものだから統一された品質にはならん
だけど知る限りでは普通に制御できることの方が圧倒手に多いと感じるけどな
プロンプトの書き方とか間違えてないかな
自分でやれることなのに他人の成果に便乗した上で文句言うやつってどんなハゲ方してんの?
リアル系の顔loraほんとに似なくて困ってる・・・これっていう設定あればいいのにね
>>160 もちろん他人の成果物のクソな点を反面教師にしながら自作してるよ
汚言はいちいち相手にせず、ワッチョイスレであることを最大限利用しましょう
>>157 動く動かないの話じゃなくて使用ツールで階層への効き方が全然違うのがなぜなのかを知っていたら教えてほしいんだ
ひとつ具体例あげてみると使用lroaはmicrowaistV05
A1111だとOUT4が一番効きが強い
ComfyUIだとOUT11が一番効きが強い
154 ありがとうございます やり方もみなおしてみます
>>165 2023/6頃にスクショ保存してて、この画像がなんなのか全くソースがわからなくないんだけど
OUT逆転説?
webuiとcomfyUIのどっかでOUTが逆になってたらちょうどそんな感じになりそうじゃない?
なんとなくlbw出てたつもりだったんだけど、全体にwebuiに比べて出来が悪くて
自分がまだ未熟なのかなんかおかしいのか切り分けがはっきりしなかった
controlnet の hand refinerってどうですかね アニメは弱いみたいですけど
>>167 この説ありそう
issueとしてあがってないなら
inspire pack の作者に伝えてみても良いんじゃないでしょうか
ちょっと教えてほしいんだけど、モデル作るときにキャラの体型を変えるにはどうするのがベストなの? モデルにサイズ系のloraを焼き込んじゃってるんだけどいいんかな ちょうどいいサイズのやつとマージすることも考えたんだけど塗りとかに影響が出ちゃって良くなかったんで困ってる
ChatGPTに聞けばなんでも教えてくれる世の中になるよ
>>167 ちゃんと画像見てもらえばわかるけどBASEやINも効きが違うから少なくともOUT逆転だけってことはないと思う
LBWの作者さんに聞くのが早いのかもしれないけどとりあえずComfyUIもちっと使えるようにするよ
ある画像生成AIサービスがあらゆるところで PRをつけず広告活動をしている 通称ステマ法違反なので警察に通報をお願いします その画像生成サービス良くないです 綺麗じゃない どこの画像の画像生成サービスかはネットで調べてください
プロンプトAで10枚 続けてプロンプトBで10枚 続けてプロンプトCで10枚 とプロンプトを変えて複数枚ずつ 自動実行させていくのは可能でしょうか? どのようにしたらよいでしょうか? prompt from file or textboxで 1枚ずつプロンプトかえられるようですが、 同じプロンプトで10枚ずつというのはどうしたらよいでしょうか? 単純に繰り返すとABCABCと生成させてしまうと選別するときに大変でしたので、同プロンプトずつにしたいです
>>179 バッチ回数を10にして、prompt from file or textboxに各プロンプトを入れるのではダメ?
>>182 つづき
バッチ回数=Batch countのほうね
これならA10枚、B10枚、C10枚と生成されたよ
179です レスありがとうございます!! 助かります!!
LoRAで学習させるときのPromptとNegative Promptは入れたほうがいい? 標準ではbest quality,Amazing,〜みたいなのが入っているけど
>>185 https://github.com/liasece/sd-webui-train-tools これのことか・・さすがにわからない
ローカルでのLora学習はkohya_ssあたりが一番使われるので
目の色も髪の色もほぼ同じキャラ、しかも同一作風という「いかにもそれっぽく出やすい」代表格で作例(説明無し)を出すセンス……
>>190 これ凄いな
真面目にAI絵やってくならこれくらい使いこなさないといけないのかな
>>191 せめて髪色違いのキャラにしてほしかったよね
デフォだと色を別けるの運ゲーだし
いやなんでもよかったんだけどw civitaiみたらなんとなく目に入ったんで同じ人がつくったのがいいだろうと 作り方描かないのはそのまま転載されるからだよ
>>193 お前だけだぞ
つまらん事でしつこく意地張ってみっともない事してるのは
Comfy UI で、githubから頂戴した他の方のWorkfloweのjpg画像をComfyにD&Dすると、 「When loading the graph, the following node types wer not found . と表示されます。 そのノードに対応した拡張機能をInstallしてないからだと思うのですが、 足りてない拡張機能を自動で一括でInstallしてくれる拡張機能はありませんか? 1つ1つ検索してInstallしてとなるとちと手間でして
comfy managerで見つかるnodeならinstall missing custom nodesで足りないものが分かるしそのまま入れられる
NovelAIなんですが、キャラを公式の絵柄で再現したいのですが、official artとofficial styleってどう違うんでしょうか?
StableDiffusionでキャラをスマホの中に写した画像ってどうやれば出やすいのでしょうか。 同人誌でよくある「お前の裸とったからな、言うこときけよ」みたいなシチュエーションに使われそうな 「キャラ本体」と「キャラを写しているスマホ」が生成画像の中に画像です。 「キャラを写しているスマホ」単体でも、撮られる側が持っている画像が出たりして難しいです。
AIで知り合い脱がせたほうが
もえるんでねーの?
https://undress.app/ref/ >>200 あれはそういうLoRAを使っているんじゃないかな
civitaiで探してみては
>>196 他の部分を全く読んでいませんでした・・・助かりました
楽にインストールできました ありがとうございます!
プロンプトの間は,だけで区切っていたのですが、「, 」と,の後ろはスペースで空けないといけないんでしょうか?
単に人間にとって区切りが分かりやすくなるってだけで空ける必要はないよ
空けた方がいいというのは古いバージョンでの話だったんですか? あとキャラ名の苗字と名前の間は半角スペースで開けると2人と認識されるんでしょうか?
すまんが俺は古い話は知らんので他の人にまかせる 無駄なスペース削除する拡張機能があるくらいだから気にしなくて良いのは間違いない スペース開けて名前連ねた場合別々の人物として処理されることもあるし、それぞれの要素が入り混じった人物になることもあるし、片方の要素だけのこともある
>>200 スマホの画面以外成功した画像を作ったら、i2iのinpaint でスマホ画面塗りつぶして ヒロインちゃんの裸 とか書きたいプロンプト入れて出力
漫画なんかだと必然的に小さな画像になるし別コマの画像を切り貼りしてると思う
名前は、苗字名前の間は_で区切る方がいいんですか?
出力した結果見ればわかんだろ わかんねぇならさなんかねぇんだよ
>>206 かなり古いバージョンでは「1girl,smile」と「1girl, smile」で結果が変わっていたけど今は同じ結果になる、だったはず
名前の空白が必要かどうかや「_」区切りが必要かはモデルによる
どちらも自分で試してみては
SDのベースがdanbooru使ってると認めてるって話だから完全オリジナルじゃない限りアンダーバーに反応する可能性はある タグが統一されてなくてどっちでも効く可能性もある 学習データのタグ見れないなら実践してみるしかない
名前って言ってるから何かのキャラなんでしょ? キャラの場合は固有名詞として学習されてるから アンダーバーが合った方が良いと聞いた記憶があるけど 多少違ってても柔軟に対応してくれるんじゃないかな 最近のキャラやマイナーキャラはそもそも学習されていないならどっちみち出ない 使ってるモデル次第やね
tagauto completeの設定いじらずデフォで使ってるけど sports uniform → sportswear みたいなdanbooru訂正?はどっちも効いてる気がする
反応のあるタグを取り出せたら良いんだけど。 ランダムシード固定の総当たりで辞書から英単語入れて、ステップ数と解像度低くして、色が違えば当たりとか、反応を調べるのできないのかな。 stream diffusion の秒100枚とはいかないだろうけど。
>>215 英単語ってどれだけ単語あるとおもってるんだ…
>>216 何個あるんだ?
常用単語だけの辞書にどれだけ専門用語を加えるかで変わるだろうけどキャラ名は必要か。
1日86400秒だから反応する1秒1個自動判定するなら
864万調べるなら100日かかる。
でもトークンの反応を調べるだけの生成ならステップ数と解像度を減らせば1秒かからないはずで
秒100チェックできるなら1日回せばOKになる。
全ては単語数とチェック速度に依存する。
ただ、外れトークンにも影響されて出力が変わるなら機械的なチェックは不可能になるけど
>>218 それで864万単語の一覧があって役に立つのか? 単語の一覧に反応する とあったら 嬉しいのか? 個人の頭の中にしか無い「期待」通りの反応するかしないのかをどう判断するんだ?
生成する人は辞書を引きながら一単語ずつから生成パラメーター作ってないのに辞書より(固有名詞もあって)大きい一覧から調べて使うのか?
インターネットで役に立ちそうな表現に役立ちそうなタグを引っ張ってきて自分の目の前のAIで生成するか 画像と呪文を公開しているサイトをみて呪文作るんじゃないのか?
サンイチ
キュアピースのXL用LoRA無いやんけ
仕方ないんでネットで拾った低画質11枚で作ったわ
教師画像小さいのに無意味に1024で学習させたもんやから45分もかかったで
まあ、適当に衣装出ればええし顔も別LoRAで変えてあるんやがな
RedRayz氏のGUIでLoRA学習をやってて、 keep_tokens_separatorを使うときは、 詳細設定のページのトークンのセパレータで、セパレータ|||を指定して、 トークン保持数の値は、0で良いでしょうか。
セーブデータみたいなイメージで、PNG Infoからt2tやらi2iに送ってプロンプト書き換えてるんだけど、 転送する度にseedと設定(override setting)も送られてウザったいんだけど、この辺の転送するもの選ぶ設定ってどっかにありますか?
>>226 それはないと思うなあ
txt2imgからimg2imgなどへ送るときにシード値やサイズも送信するかは設定の「User interface」にあったけど、この設定はPNG Infoからの送信では関係なかった
kohya_ssで学習させようとしたんですが RuntimeError: NaN detected in latents: C:\SD\kohya_ss\02-input\1_sd\sd (1).jpg (教師用の画像) というエラーが出て止まります 原因はなんでしょうか
>>227 そうですよねー。
言われてる、シード値送るかみたい設定あってこれか!と思ったらPNGInfoは関係ないようで。
Override Settingのせいで新しいモデル試してたつもりなのに古いままで、しばらく気付かなかったって人結構いるんじゃないですかね?
>>225 ありがとうございます。そっちで聞いてみます。
>>229 --no_half_vae をどこに記述すればよろしいのでしょうか?
AdvancedのAdditional parametersかな?
>>229 >>233 ありがとございます 学習が開始できました
すみませんガチ初心者です Stabledifusionをローカルで導入した素の状態で使っているのですが、何日も生成していると、過去に生成した画像に似たものが多くなってきた気がするのですが、これは正常なんですか? (R18系のイラストを最初に生成しようとしたときは何度やっても出なかったのが、今では何もそういう呪文を入れてなくてもR18系の画像が生成される…みたいな) LoRAみたいなのは導入していません。リセットする方法があれば教えてほしいです。
>>235 原理的にはこれまでのプロンプトに引きずられることはないんだけど、A1111はバグなのかそう感じられる画像が出ることがあるとよく言われるよね
モデルをいったん切り替えるだけでリセットされるというのは初耳
A1111を再起動しなければいけないと思ってた
マスピ顔の話か? masterpieceとか指定したらそんな顔しか出なくなる クオリティを高める弊害だ
>>235 基本的にずっと生成してたらそれが染みつく、みたいなのはない
R18がなかなか出なかった時代の画像が残ってるのであれば
png infoに突っ込んで今現在とプロンプトの違いを精査してみるといいかも
ある単語に気付いた試行錯誤を覚えてないとかだと思うよ
キャッシュデータがあるからね 削除したはずのLoraの効果が残ってたり 同じようなな顔が連続するようなことはある 基本ランダムだから、永久には続かない
Lora学習でaaaa_v1-000010みたいに作りながら確認してる時に<lora:aaaa_v1:1>だけで効いちゃう (この時png infoは000010になってる) そのまま作り続けて000015、000020、最終的にaaaa_v1が完成しても Loraタブでrefreshしないとaaaa_v1指定で000010が選ばれ続ける この状態で00010削除すると、掴んだままなのかありませんエラーになる(aaaa_v1あるのに) この謎仕様のせいでかなり頭抱えた時期があった、1.7現在も修正されてない ほんと混乱するのでなんかあるたびにrefreshしてる
LoRAは何かが変わるまでキャッシュしているけど、ファイル名ではなくてエイリアス名かもね
そもそも同じモデルで生成してれば似たような物が出るのは当たり前 構図とかポーズもそのモデルで出やすい物が出る そこを代えてくプロンプトはあるけど、特定絵柄に特化してるタイプのモデルは効きにくい 汎用性があるモデルでも、指定すれば何でも出るというほどではない
http://2chb.net/r/cg/1703250505/518 > 最初optimizerの設定をadamW8bitにしていたのですがError no kernel image is available for execution on the deviceとなったのでadamWに変更したところのエラーです
1070tiなんでadamW8bitは動かないんだろうね
> CUDA out of memoryとあったので色々参考にSBwebui-user-batに--xformers --medvramを加えてみたりwebui.batのほうにset PYTORCH_CUDA_ALLOC_CONF=garbage_collection_threshold:0.6, max_split_size_mb:128
> を入れてみたりしたのですがあまり改善しませんでした
> そもそも何か根本的に間違っているのでしょうか?
これは勘違い、それはwebui側であってkohya_ssとは関係ない
って、247の元レスよく見たら笑った・・貼ってもらうまでもない、なるほどね みんなよくやるらしい
SDXLでリアル系でLoRAの効きのいいモデルって何があるでしょうか?
fudukiMix_v20 をいま試しているのですが LoRA JP2 を追加しても全然変わらないのです
できればAnimagineベースでRefinerとして使いたいのです
SD1.5ではアニメモデルをベースにxxmix9realistic_v40でRefinerかけてADetailerという感じがお気に入りでした
理想 →
>>247 >>250
やっぱりwebuiとkohyaは別々なんですね…
kohyaを含めてCUDA out of memoryエラー?を調べてもSBの解決方法しか出なかったのでwebui側の問題かなと考えてしまいました
書き方からすると初歩的なミスなのでしょうがプログラミングなどの知識はないので何が間違っているのか何度見返してもわかりません
できれば噛み砕いて教えてくただけると助かります
>>252 Kohya_ss起動した時の一番上Running on local URL:
http://127.0.0.1:7860 より上の
メッセージが見えるSSが見たいな
Kohya_ssのセットアップミスだと思うけど
後、CUDA out of memoryは単純にVRAMが足りないから処理続行出来ないってエラーだから
8GBしかVRAMが無い1070じゃそれなりにやりくりしないと厳しいよ
一応共有メモリを使うことで多少ならカバー出来るけど
メモリ搭載量が16GBしかないので共有メモリが8GB(メインメモリの半分)しか確保出来ないので
処理によっては8GB+8GBでは足りない感じなんじゃないかな(よっぽど無茶しなきゃ普通は12GB前後でおさまる筈)
>>251 fuduki 2.0はlora無しでも使えるようにしたモデル。loraを適用すると過学習になる可能性があるとのこと。対してfuduki1.5はloraの使用を前提としているので、目的によってはこちらがオススメ。
>>252 細かい事はわからんのだけどメモリ32GBと3060ti(8MB)でKohya_ss回してて、OutOfMemory対策で設定してるところ。もし参考になれば。
・LoRAtype:Standard(他は無理?)
・Trainbatchsize:1か2(Max resolutionと相談)
・Mixed precision、Save precision:fp16固定
・Max resolution:512ならTrainbatchsize2でも可能かも、752なら1固定
・Network Rank、Network Alpha:上げすぎは無理(128、1で問題ないと思ってる)
>>254 ありがとうございます v1.5 で試してみますと確かに LoRA が乗ってきているのが分かりました
(同じ seed でこんなに違うのは初めてですが)
さらに 1.5 の方は素でも 2.0 より好み寄りでしたのでこれでいろいろ試していきたいと思います
初めて2週間ぐらいの初心者です グラボはgtx1660です kohya_ssを使用して33枚の画像を繰り返し20回×15回=9900ステップで自作のloraを作成しました 教育用の画像は1024×1024の正方形で背景を白く加工しもので全画像でキャラクターが同じ服装をしています stable-diffusionで自作のloraを使って画像を生成しましたが、微塵も反映されません 見た限りでは学習時と画像生成時にエラーもないようです 学習結果が反映されない理由として何が考えられるでしょうか?
kohyassの最初のタブでDreambooth選択していませんか
>>259 >>260 学習時にloraを選択しタグもいれています
プロンプトも試しましたが自作loraありとなしで同じ結果でした
>>258 添付してるテキストの書き方が間違っている可能性
>>262 自作loraのメタデータを見たときに設定したタグが全てあるので
たぶん間違ってないと思います
実はキャプションtxt一切なしでも一応学習はするし、トリガーワードなしでもLora入れてると反応する
>>258 エスパーじゃないので細かい設定見ないとなんとも・・jsonファイルをアップローダー等に上げて貼って
> 見た限りでは学習時と画像生成時にエラーもないようです
LossがずっとNaNとかになってない
>>266 ありがとうございます
設定を変えて学習してみます
遅くなってすみません。
>>256 >>260 うわああああああああああ、その通りです
出来ました…
指摘されるまでタブがあったことすら気づきませんでした
本当にありがとうございます
>>253 >>255 丁寧にありがとうございます。スペック的にやはり最低限という感じなんですね…
今回は私のミスでしたが今後の参考にさせていただきます
ありがとうございました
kohya_ssの最大の欠点があのタブだと思う あれは今でも油断してると変更忘れる
自分も一回間違えた後、kohya_gui.pyにパッチあててDreamboithとLoRAのタグの順番入れ替えるようにした
ドリームブースとLoRAのタブの中身が レイアウトもパラメータがほとんど一緒というのが罠度高い しかもデータの読み込みもLoRAのコンフィグを ドリームブースのタブで読み込みしてもエラーにならなかったりトラップが複数あるw
いやほんとにタブの中身ほぼ同じなんですね… 私も順番入れ替えるようにします、お騒がせしました
入れ替えって簡単にできるん? kohya_gui.pyをエディタで開いて、それっぽいところを入れ替えてみたがエラー出て動かん
kohya_gui.pyの以下の2行をDreamboothの上に移動しました。 with gr.Tab("LoRA"): lora_tab(headless=headless)
ちょいと質問 今PCIE3.0×16のPCで1650使ってるんだか、流石に時間がかかってしかたがないのでグラボ買い換えるつもりなんだ ただ、PCIE3.0のマザボに本来PCIE4.0用の3060とか4070とか挿したときの生成スピードの低下がどの程度かわからなくてさ グラボ内で計算するので大差ないのか 本体とのやりとり発生するので大幅に低下するか知ってる人いたら教えて欲しい PCの買い換えまでとなると流石に貯蓄の切り崩しがでかいので避けたいんだかどうやろ
>>278 ゲーム関係だと誤差みたいなもんとされてる
>>278 俺PCI3.0に4060さしてるよ
計測してないけど、乗り換えたほうがいい
久しぶりにSD触ってるんだけども、LCM loraをa1111で使うには 1)lcmのloraを落としてくる(1.5用,XL用) 2)animatediff入れてサンプラーをLCM選択 3)プロンプトに<lora:対応LCMlora:1>追加 モデルや他loraは任意 4)CFG scaleを2くらい、step8くらいで生成 という感じで合ってますかね 他なんか足りない設定とかあるかな
>278 うちはPCIe3に3090刺したけど1600系より次元が違うくらい早いわ。SDではグラボの速度が一番影響でかいで 俺の場合、現在金もそんなに無いしCPUがSandhiBridge-EPなんてクッソ骨董品だし、スロットはPCIe3だし、マザーやCPUの新調するべきか悩んだけど 一応メモリだけは百ギガ以上積んでるしCPUコアも16コアあるから、半分賭けで NVMe SSD + 3090でSD環境整えた。結果、費用対効果で正解だったわ 起動も生成も学習も以前の数倍早くなったし一度に大画像を複数生成できるようになった CPU速くしたかわりに、余裕の無いSSDにwebui入れて安いグラボにしてたらメチャクチャ効率悪かっただろうな
ありがと、どうやら3.0であることはそこまで気にしなくてもよさそうやね 早速グラボの方、週末にでも見てくるわ
古いPCだと電源がヤバいかもしれないから 3060Ti12GBか4060Ti16GBにしといたほうがいいよ 安いのはVRAMが少なかったりするからよく見るんだよ お母さんとの約束だよ
4060Tiとかだとx8接続だから更に若干パフォーマンス低下はあるかもね ゲームとかだと誤差と言えなくもない位だけどAI利用だとどうなんだろうね
グラボ買い替えは予算が許すならVRAM16以上欲しいね 電源とセットで考えるのも大事
>>276 やっぱそこだよね。うまくいかないんだが
と思ってたら今なぜか成功した
何が間違っていたのかよくわからんな
.pyはTABと半角全角スペースでめちゃくちゃになりがち 揃ってないとエラーになる 編集するときはメモ帳でなくコードエディタがいい
Pythonはインデントの数がC言語のカッコに相当するからな 他の言語はインデントなんて単なる可読性のためだけど Pythonだと実行内容に影響する タブとスペースの混在もトラブルの元になりがち なぜかというと大半のPythonプロジェクトはタブ一個をスペース4個と解釈するが、メモ帳だとタブ一個でスペース8個分インデントするから
さすがにメモ帳はどうよ、VS Codeでいいじゃん
いや俺はメモ帳使ってないけど別にプログラマだけがSDいじってるわけじゃ無いだろ・・
最近は少し規模が大きいのはvscodeに移行しだしたが テキストエディターとしてはちょっとマイナーなK2editorってのをずっと使ってる
サクラエディタを30年近く使ってる コード書いたのは10年ぶりくらいだけどちゃんとやるなら統合環境とか使うんでない PythonはSD始めてから触ってみた感じVSCodeかColabでいいと思うけど
マジレスするけど専用のソフトを使わない限りWindowsではBOMがつくだろ python使えないじゃないか
>>300 いまはメモ帳もデフォルトbom無しUTF-8だよ
289だけどサクラエディタを使ってますよ 半角スペースの有無で動かなくなるのはなんとなく知ってたけど、予想以上に厳密さが求められるんだな
質問失礼します
Kohya_LoRA_GUIで
>>228 と同じエラーが出るので--no_half_vaeを設定に加えたいのですが該当する項目が設定に見当たりません
Kohya_LoRA_GUIでは--no_half_vaeの設定はできないのでしょうか?
グラボをSD用に購入しようと思うんですが 少し調べたら最近のドライバだとVRAM溢れてもメモリである程度代用できるらしいので SDXLも8GB+RAMでもいけるんでしょうか?強烈に遅くなるなら16GBのを買おうかと迷ってます
>>305 VRAMとメモリは速度が全然違います
8GBでもSDXL生成は可能ですが新規に買うなら12~16GB以上をおすすめします
>>305 予算の許す限りでVRAM一番大きくてなるべく新しいものから選ぶといいぞ
XLメインなら16↑かな
12は予算の関係とか今使ってるから妥協するって感じ
>>305 速度がいきなり2~5%とかに落ちるぞ、マジで。VRAMでやれば1分かからないくらいの生成が、VRAMからあふれると予想時間が15-30分とかになる
VRAM24ギガあって2~3ギガあふれただけなのにそれくらい速度が落ちるからな
GPUはメインメモリに直接アクセスできるわけじゃ無いから
CPUに頼んでデータを転送してもらわないとならないわけでそのオーバーヘッドがとてつもないんじゃね
帯域幅がボトルネックだったかな? 例えばRTX4090が1,008GB/sでメインメモリDDR5-7000(PC5-56000)なら56GB/s その差18倍
メインメモリの帯域より低いPCIe経由でアクセスするわけだからそこが上限だな
>>308 すみません
>>232-233 はKohya_LoRA_GUIでは出来ないみたいです
AdvancedのAdditional parametersが見当たらないので
>>311 PCIe3.0 16GB/s
PCIe4.0 32GB/s
PCIe5.0 64GB/s ---対応クラボが無い
レスありがとうございます 想像以上に遅くなるようなので4060Tiぐらいを検討してみます
>>313 ああごめん、Kohya_LoRA_GUIってのがあるのか・・
なんJNVAの過去レスにある
http://2chb.net/r/liveuranus/1696248064/389 これではないのかな・・?
>>316 上げられている画像のものとバージョンが違うのかパフォーマンスというタブではなかったのですが
SDXLというタブにVAEを32ビットで使用(--no_half_vae)がありました
ちゃんと探したつもりで見落としていたんですね…ハズカシイ
でもこれで学習が進められそうです
回答ありがとうございました!
StableDiffusionを使ってみたくて、4060TI 16GBを買おうと思っているのですが、 CPUがceleron G6900でも使えそうでしょうか。 ベンチを見るとG6900はシングルでcore10世代、マルチで7世代程度の性能のようです。 CPUはあまり影響しないと見たのですが、celeronでも行けそうなのでしょうか。
>>321 そこまで低いと厳しそうだが
とりあえず使ってみればいいのではないか
不足するなら交換すれば
>>321 メインメモリさえ32ギガ積んでいればとりあえず使えるとは思うが
普通に起動してるだけの状態でPythonが7ギガくらい食ってるしSD使ってるブラウザのタブもメモリ食うし今はWindowsもメモリ食いになってるから。
メインメモリ16ギガだとツラいと思う。絶対無理ってほどじゃないが
強いて言えばCPUが2コアだと画像生成中に他の事するのは無理。動画見たりとか
>>318 それはWindows Notepadだ。
メモ帳(単独で動くnotepad.exe)ではない。
windows10以降でメモ帳かnotepad起動してみりゃ一発でわかるんだがアウアウウー Sa21-on57は何を見てるんだ
>>324 メモ帳
メモ帳ではいくつかの変更がありました。
UTF-8エンコーディング
バイトオーダーマークなしでファイルを UTF-8 で保存するオプションが追加され、これが新しいファイルの既定となりました。
cpuは11世代以上のi7,メモリは32GB。 これが最適ライン。メモリは64GBをオススメ。 2万くらいだし投資の割に効果か高い。
メモ帳 = Windows Notepad = notepad.exe 単独とかどうとかじゃなくて古いWindowsシステムのパス用とそれ以降デフォルトで使う物が置いてあるので2つある ずいぶん前に互換性は失われないとかなんとか記事出てた記憶あるわ
すみません StableDiffusionを使えるようRTX4070Tiに換装しようと思うんですが他のスペックは以下でも大丈夫でしょうか? CPU:AMD Ryzen™7 3700X(3.6GHz-4.4GHz, L3 キャッシュ32MB , 8 コア/16 スレッド) メモリ:DDR4 16G×2(8G×2から換装予定) 電源:500w 電源がちょっと不安ですが これで普通に使える程度にはなりますでしょうか?
電源やばくね? PCの組み合わせについてなら自作PC板で聞いたほうが良い。 それか必要電源計算してくれるサイトあるから確認しといたら
4070Tiの推奨電源容量は750Wだからやめといたほうがいい それなら4060Ti/16GBにしとくのが無難(550W推奨だけど) ついでにいえば4070Ti SUPERが出たばかりで これから値下がりすると思うから待った方がいい
>>330 電源以外はいい感じ
欲を言えばメインメモリは64GB欲しいが上を見たらきりがないし
>>331-333 有難う
結論としてはやっぱ電源も750wに替えつつちょっと待って買えば良いんだな
因みにメインメモリはマザボの上限が32Gだから64Gには上げられんのです><
>>334 その上限はきっと1枚32GBであって最大じゃないと思う
32GB2枚差しで64GBが上限で4枚差しなら32GB×4で128GBが上限
だけどcore i3 とかCPUの性能で64GB上限の物が存在する 3700X はおそらく128GBが上限
もしマザーボードで上限32GBならやばいメーカーのマザーボードでPCIeも3.0でしかもx16じゃなくてx8の可能性ある
変なのじゃなかったとしてもB450系ならPCIe3.0だからGPUの性能は生かしきれないよ
質問です AIで自然風景の360度VR動画を生成出来ますか?
>>337 hpのBTO品でマザボはmoria2ってのです
ちなメモリアップグレード情報
デュアル チャネル(1 チャネルあたり 1 DIMM)メモリ アーキテクチャ
DDR4 UDIMM(288 ピン)ソケット 2 基
PC4-21300 (DDR4-2666) をサポート
8 GB および 16 GB の DDR4 UDIMM をサポート
32 ビットシステムは最大 4 GB をサポート
補足: 32 ビットシステムは 4.0 GB のメモリをフルに使用できません。
64 ビットのコンピューターで、16 GB DIMM で最大 32 GB(バッファなし)をサポートします。
補足: 記載されている最大メモリはハードウェアの機能を示すもので、オペレーティング システムではさらに制限されることがあります。
※持ってるのは64ビットマシンでっす
>>337 追加情報っす
これだと多分大丈夫かと思います
現グラボ情報
AMD Radeon RX 5700 8 GB FH PCIe x16
フォーム ファクター:ATX(25.4 cm(10.0 インチ)フルハイト)
背面 I/O コネクタ:(1) HDMI および (3) ディスプレイポート
ディスプレイポート バージョン:1.4a
HDMI/HDCP サポート:HDMI 2.0b/HDCP 2.2
最大解像度:
HDMI 解像度:4096 x 2160 (60 Hz)
ディスプレイポート解像度:7680 x 4320(60 Hz、8 ビット)
補足: 最大解像度をサポートしないポートもあります。
メモリ サイズ:8 GB(256 ビット)
メモリの種類:256M x 32 GDDR6/14 Gbps(8 個)
総消費電力:180 W
PCIe:PCIe x16 (Gen4)
同時に最大 4 画面をサポートできます。
電源コネクタ:6 ピンおよび 8 ピン
AMD Surround マルチモニター テクノロジ、Blu-ray および DirectX 12 をサポート
>>338 やればできるのかもしれませんが、現在1つのアプリケーションで生成できる手法は公開されていないと思います
Google Colabでsd-webui-train-toolsを使ってLora作ってるんだけど AssertionError: <class 'gradio.layouts.Box'> Component with id 1764 not a valid output component. が出て先に進みません。 原因がわかる方いらっしゃいますか?
>>339 専用ケースにMicroATXマザーか
ケースの中に何mmまでのグラボが入るか確認したほうがいい
あと、電源のサイズ
専用の電源だと交換できない可能性があるぞ
>>343 4070tiは今のグラボよりちょっとだけ大きいから気にはなってた
でも電源が交換できない可能性までは気にしてなかったな…………
>>342 答えじゃないけど
https://github.com/liasece/sd-webui-train-tools/issues/49 と同じ症状だね・・
webui、gradio、sd-webui-train-toolsそれぞれは全部最新?
>>345 常に最新をダウンロードして動くので最新です
一度Lora生成に成功したけど
そのLoraを使って画像生成したら、エラーで動かないので
再度Lora生成しなおしたら、Lora生成がエラーになってしまいました
>>322-323 ありがとう、メモリ増やしてやってみようかな
colabはいつも最新ダウンロードするから逆に不安定 ほとんど毎日何かのモジュールが更新されてるので環境が安定しない 俺も最初の頃はcolabでやってたけどどこも変更していないのにしょっちゅう違うエラーが出て起動しなくなってウンザリしたので 自動ダウンロードしないように設定してた
>>346 VIDEO 去年5月のwebui1.1で動かなくなったパターン
forkが紹介されてるけど、どっちも更新が8ヶ月前なんで、別のなんかにした方がいいのでは
>>348 > colabはいつも最新ダウンロードするから逆に不安定
結局これよね
一回成功してるのがよくわからないけど
>>339-340 これか
https://www.gdm.or.jp/review/2020/0215/337233/3 2枚差しだから最大64GBまででBiosのアップデートがなかったらメインメモリはDDR4-3200MHzの動作が無理かもしれない
GPUはGen4がのってるからPCIe4.0だと思うけどサイズが多分3ファンどころか2ファンのも無理だ長さがきっちりしすぎてるw
Radeon RX 5700 XT 230 x 111 x 41 mm
RTX 4070 Ti VENTUS 2X 12G OC 242 x 125 x 51 mm
電源は普通にATXBOX型っぽいけどGPUに近すぎるしATX電源コネクタが邪魔してて厚み差の10mmが入りきるかは不明
電源の右横にあるのが電源スイッチ基盤だとしたらマザーボード側についてる可能性がないんで詰んでるけどフロントパネル系ならフロントパネルが使えないだけだから問題はないかも
https://www.gdm.or.jp/omen-obelisk_34_1024x768 まぁストレージをカバーしてる金属板をどうにかしないとグラボが乗っからないからマザボとPCBOXも買い替えた方がいい
完全にスレチなんでこれ以上は専用板へ
>>350 書き忘れていた
111mm と 125mm で4070TIの幅が方が大きいからどのみち蓋はできないぞ
自分はあけっぱで細かい網目のあるシートを被せてるけどそういう覚悟がない人は買い替えをお勧めする
>>350-351 そうそれ
詳しくありがとう
グラボの右側はコードの横にあるカバー外せばもう少し隙間があるのと
最悪ストレージカバーぶった切れば何とかなると思う
問題は下部のコネクタだな
これがダメなら大人しく4060tiにする…………
爆笑顔の日本人爺が真剣な顔のローティーン女子小学生の胸に手をのせる ↑で生成したらエロ画像になってしまった・・・
>>353 むしろそのシチュでエロくないのってどういう状況だよ
>>354 え?
そういうコメント返って来ると思って
逆の事書いたんだが?
何同意しての? お前
>>356 お前2レスしかしてないよな?
質問もしてない
質問じゃないとか言う以前にどう考えても頭がおかしいのでNG推奨だなこれは
初心者質問ですみません アニメ調のイラストを生成するのにプロンプトをどう弄っても顔がリアル系寄りになってしまうときはモデルを変えるしかないのでしょうか? 数をこなしていると偶に好みの顔が出てくるのでプロンプトや設定でそれに寄せることができるのならその方法を知りたいのですが
>>361 生成に使っているツールとモデルとプロンプトと生成結果の画像例がないとアドバイスできない
画像をみて好みに合う合わないは個人の感性だから
昨日からローカルステブル始めました
自分はリアル系は捨てて、アニメ専門でいこうと思います
モデルで向き不向きがあるとの事なので先にアニメから攻略したいと思ってます
アニメならこのモデルと拡張機能入れとけ みたいなものあれば教えて欲しいです
YouTuberさんが紹介してくれたモデルを入れたのですが皆さんのようなクオリティーの高い絵が生成できません
皆さんの絵が100点だとしたら、自分の絵は43点ぐらいです
不細工とか奇形ではないですし、可愛いっちゃ可愛いんですが、クオリティーは低いです
原因は、モデルが悪いのか、拡張機能が悪いのか、設定が悪いのか、さえも分かりません
プロンプトも重要なので「easy-prompt-selector」を入れたら快適度が増しました
ですが、教えてもらったeasy-prompt-selectorと実際に導入したeasy-prompt-selectorが違うような気がします
こちらが教えてもらったeasy-prompt-selectorです
https://imgur.com/a/YVja1J0 こちらが導入したeasy-prompt-selectorです
https://imgur.com/a/5IxJIIY 導入してみるとすでに1000個以上のプロンプトが用意されていてカスタムせずとも今後は十分に使っていけるのでしょうか?
(〇〇:2)などは手入力します
あと自分は
>>23 みたいな絵を作りたいです
まだYouTubeで10時間ほどしか勉強してませんがLCMは聞いた事があります
コントロールネット→ポーズ等
LCM→高画質拡張
他にも高画質になる拡張は紹介されたのですが、みんなが勧めてるものだけを入れてみました
そして繰り返しローラとモデルとプロンプトを試行錯誤する という認識ですが合ってますでしょうか?
だとしても
>>23 みたいな絵は一度も出せませんしカスりもしません
デビュー2日目なので当然ですが、AIだからと言って簡単には価値のある絵は出せない事が理解できました
まず何からすればよろしいでしょうか?
>>363 逆に1000以上プロンプトがあっても全部出すわけじゃなければ惑わされるだけ
動画とかで見たならまずは動画と全く同じようにやってみてから
23のような画像が良ければプロンプトもモデルもサンプラー他パラメーターも公開してくれているんだからまずはそのまま入力してみては?
あとLCMは高画質拡張じゃない
>>363 すぐ前で他の人宛で返信したが生成に使っているツールとモデルとプロンプトと生成結果の画像例がないとアドバイスできない
https://imgur.com/a/ysptWuJ モデル
ドリームシェイパー
プロンプト
高解像度、女の子、美少女、パーカー、いたずらっこの笑顔
ネガティブ
イージーネガティブ
どこを直せばいいでしょうか?
>>23 に似てる画風になりたいです
今からローラを勉強するのですが sd-scriptsを利用した方法がいいんでしょうか? CIVITAIからそのままローラをダウンロードしてステブルのフォルダーに入れるのは危ないんでしょうか?
>>366 23のモデル使っているモデルを使え
ここに意見を聞きたいならプロンプトは変換後の英語のものを書く
モデル名もきちんと元の英語名でバージョンも書く(分からなければファイル名)
23のように 生成結果を MajinAI
https://majinai.art/ja/ に貼ればどういう設定で生成しているかわかるから助言できる
>>367 勉強するまえにわかりませんは当たり前だろ
勉強してから質問しろ
24時間前にAI画像の事を調べて今ここまでの知識を得てるレベルです
何卒、ご無礼をお許しください
命令文は英語です
日本語だと精度が落ちますよね
それで結果は分かりますか?
>>23 との違いです
24時間前にAI画像の事を調べて今ここまでの知識を得てるレベルです
何卒、ご無礼をお許しください
命令文は英語です
日本語だと精度が落ちますよね
それで結果は分かりますか?
>>23 との違いです
あとローラ学習がAI画像生成のエンドコンテンツだと予想してます ローラで全てが決まる そのローラ学習はこーやさんのキャプション方式でいいんでしょうか? 最新の勉強方法などあれば教えてください 何度も言いますが 自分は24時間前にAI画像の事を知り数ある編集ツールの中でステブルを選び YouTubeで10時間勉強し 今ここで質問しています どうぞよろしくお願いします
ゴミの擦り付けあい これは、言いたいことだけ言って、そのくせ勝手に思いこんで人の言うこと聞かないタイプだな…… とりあえず「モデル使え」って言われてるのにスルーとか草
あの・・・ 分析できないならせめておすすめ動画などを教えていただければ・・・ 皆さんも何かの動画で勉強してるから今があるわけで・・・ よろしくお願いします 自分からはこれ以上の情報はありません PCは25万円のものですが関係でしょうし
ID:Ufrj+BNm0
>>23 みたいにしたいってことだけど
まさに
>>23 のmajinaiってサイトに何もかも全部載ってるので、まずそれを参考にしよう
PNG Infoってのに画像突っ込んでsend to txt2imgってしたら全部それになる
あとはモデル「abyssorangemix3AOM3_aom3a3」とVAE「orangemix.vae.pt」を用意する
>>376 ならローラ学習のおすすめ動画教えてくださいよ
スルーしてるのどっちですか?
>>379 「なら」って、何が「なら」なんだ
勝手に巻き込まんでくれ
>>378 そう言ってくれたら助かります
なんか冷めた目で情報もっとよこせだの言われてもねぇ
そりゃこっちも冷たい態度や舐め腐った態度で返しますわ
自業自得なんすわ
どっちが先に失礼始めたって話ですわ
顔が見えないからって
目の前にいたらそんな失礼な態度取れないくせに
悪い癖でっせ?
ネット民のw
質問スレなんだからさっさと教えてくれたら済む話
それをあーだこーだ言うて
めんどwwwwwwwwwwwwwwwwwww
お前合コン行ったら持ち帰りできんで?w
そんなコミュ症じゃw
さっさと話し済ませろ
エンジニアかなんか知らんけど
うちの会社でも発注したらエンジニアはおたく臭半端ない喋り方するんよ
だらだらだらだらとw
質問スレなんやからさっさと答えたらええんよ
>>378 さんは優秀やわ
仕事絶対できる
必要なものだけ書いてるから
お前らの気持ちとか誘導とかこうせえああせえとか感情はいらんのよ
必要なものだけ書いとけ
ネット民の悪い癖その2なw
あ、普段日の目を浴びない地底人かw
なんやこのまじないってサイト!!!!!!!!!!! 神やんけ!!!!!!!!!!!!!!!!!!!! はよ教えとけ屋wwwwwwwwwwwwwwwwwwwwww これ真似たらええんやろ?wwwwwwwwwwwwwwwwwww なんやねんほんまw 魔法みたいなもん使いやがってwwwwww 初見へつらって低姿勢で様子見て損したわwwwwwwww こんなもん使いやがって 大した事あらへんやないか 大口叩きやがって でも教えてくれた人はありがとうな ほんま神様やわ 困ってるおれを助けてくれたらこれで徳を積んだはず それにしても文句言ってる奴はいつまでネットでぐちぐち言うとるんや もっと情報出せえとか ググれとか いつの時代やねん 老害が さくっと必要な情報だけ出せばええんよ お前らも情報得て育った口やろ? 初心に戻れ 右も左も分からなかった頃に 人には優しくせえよ んじゃ教えてくれた人ありがとうな!!! あとは誘導してくれたスレでローラの勉強してくるわ!!!!
ワッチョイ有ろうが荒れるのがこれで分かっただろ? 勘違いしちゃいかんよ
>>362 なんかすみません、また別の日に出直します…
>>385 「ワッチョイがあれば荒れない」と言ってた人なんていないでしょ
家に鍵をかけても泥棒に入られることがあるから鍵をかけないほうがいいと思ってるの?
最低限の防犯としてのワッチョイがあって困ることはないでしょ
>>361 ネガティブプロンプトに「realistic」を入れるとかかなあ
いずれにしても使っているモデルがわかった方が答えやすい
量産したい画像と、でもこうなっちゃうという画像をcatboxに上げてみてよ
ワッチョイでモバイル系と口調がキツイレスは荒れるのでNGで良いと思う。 ワッチョイ無しスレと分離したとこなので次スレをどうするかの議論は900以降で良いのでは。
IPありにすると慈善で回答する層が減るだけなので、 質問だけ回答はないスレというのが爆誕するのが常だろ
なんでワッチョイは良くてIPは駄目なんだろ? なんか後ろめたい事があんの IPスレなんて珍しくもない
IPは逆引きでプロバイダまで特定できるので、人の少ないスレだとコテハンに近くなる ワッチョイは結構頻繁に○○-部分が変わるからね
IPスレは書き込むのにVPNや串を用意する必要があって全員の手間が増える 荒らしも手間なのでやめる可能性もあるが、用意して続ける奴もいるので効果は薄いわりに、 普通の人がVPN面倒くさくてカキコミやめる率のほうが高いだけでしょう
たまに気になったレス主のIP検索して変なところで出てくると楽しい
プロバイダ特定されたりコテハンになって困る事があんの? 悪さとかしなけりゃなんの問題も無いと思うけど 専ブラだと395も396もワッチョイ木曜リセット以前の書き込みしてるの分かるし 395は1/30から6レスしてるとかも なんの問題があんの?
画像生成AI質問スレッドってワッチョイとワッチョイなしって どっちがレス多いの? そして上のほうにあるよくわからん荒らしなのかなぁあれって防げた? これが問題の答えよ
結局IDのみを荒らしてるのはここの質問客引きだけだしな ワッチョイスレ立てといて他スレ荒らすとか頭おかしいわ
IPは粘着するやつが悪用してくるから開示しないほうが絶対にいい。 詳しくない人に対してマウント取るために お前○○でも書き込んでたよなwとか言ってくるよ。 こっちはやましい事なくても気持ち悪いよ。
某所でIP書き込みした時、ルーターにping攻撃をされたな
すみません別の質問スレにも書きましたがワッチョイありの方がMacは分かるかもと教えてもらいましてこちらで質問させていただきます
MacにStability Matrixをインストールしようとしても画像のエラーが出て失敗してしまいます
エラー画面にステータスバーがありますがエラーの内容は画像に載っているのが全てです
エラーはPortableモードにしても同様でした
どなたかお分かりになる方、解決策をご教示いただけませんでしょうか
OSはSonoma14.3 CPUはM1 インストールしようとしているStability Matrixのバージョンは2.8.0です
画像でわかるのは、Gitのインストールがキャンセルされたということくらいですね Macにログインしているアカウントが管理者権限を持っていないとか? エラーメッセージを下の方まで見せてもらえたらもう少しわかるかもしれません
それが全てとのこと
> エラー画面にステータスバーがありますがエラーの内容は画像に載っているのが全てです
4日前にMAC対応されたばかりのやつか・・
https://github.com/LykosAI/StabilityMatrix/releases > system.operationcanceledexception
実質タイムアウトでのキャンセル?通信関係だろうか
外部になんか拾いに行って無反応
>>408 > それが全てとのこと
あら本当だ、失礼しました
アカウントがGitをインストールする権限を持っていない可能性はどうなんだろうか
Stability Matrixをmacにインストールしようとした全員がこの状態ならすぐに修正されると思うけど、もし騒ぎになっていないならこちらの問題の可能性が高そう
>>409 お返事ありがとうございます
Macには管理者でログインしています
通常のアプリをインストールする際にはOSからパス入力を求められますが、今回はどの段階でも求められませんでした
今回のエラーと関係ありますでしょうか…
>>410 2.8.0 Mac インストールにはいくつか不具合があったようでアップデートが出てる
質問失礼します。探しているプロンプトジェネレーターがあります。右上のボタンで全年齢R-15R-18を切り替える機能がありました。ご存知の方おられますか?
(消したようなので)
>>412 これ?
https://github.com/Fumiya0719/novelai_spell_generator > 画面上部中央「全年齢」ボタンを押すと、「全年齢」「R-15」「R-18」の順にトグル切り替えが可能です。
NAIかつもうサポート終了したみたいなこと書いてるけど
ご対応ありがとうございます。 これで間違いありません。 サービス終了してたんですね。 そりゃ見つからないわけだ…
新しく出てきたVRAM軽量化できるっていう Stable Diffusion Forgeを入れてみたのですが タスクマネージャーで見ると結局SDXLでも7GB以上に達してアウトメモリーになってしまいました 本当は4GB程度で動いてくれるらしいんだけど他に使ってうまく動作してる人いますかね
学習データにbad anatomyやbad handsのキャプションのついたデータは存在しないはずなのに ネガティブプロンプトに入れるとマシになる気がするのはなぜですか? ノイズから生成する都合上、指や身体の部位ごとに似たものを当てはめていって破綻するのは避けられないと思ってたんですが どんな仕組みなんですか?
>>417 このあたり教えてほしい
・使っているGPU(VRAM量も)はなんですか?
・Forgeはどうやってインストールしましたか? ワンクリックパッケージ(7zを解凍)を使った場合、update.batは実行しましたか?
>>418 > 指や身体の部位ごとに似たものを当てはめていって破綻するのは避けられないと思ってた
ここがよくわからない。別の言葉でもう少し詳しく説明してみてもらえますか?
>>417 「webui」フォルダ内にある「webui-user.bat」の「set COMMANDLINE_ARGS=」に「--always-offload-from-vram」をolwciといけるかも
「set COMMANDLINE_ARGS=--always-offload-from-vram」にするということね
>>421 の「olwciと」は「追加すると」だった
forge, 使ってみた。ちょっと書き込み量が少ないかな。特に背景に緻密さがない。モデルの顔は余り変わらない気がする。少VRAM環境以外は積極的に使う気にはなれないなあ
>>421 追加したら読み込めました ありがとうございます
>>419 1070GTXという今や化石で細々とやってるんですけど、これまでFooocusではなんとかXLを試してきましたが、SDでもやりたいと思ってちょうどForgeなるものが現れたので試した次第ですわ。インストールはGitからですね。とりあえず起動batのコマンドライン追加で省モードが動作しましたわ
forgeは条件をそろえると誤差程度でほぼ同じ絵が出せる 起動時に自動でもろもろが設定されちゃうんで場合によっては意図せずに何かずれるようだ
>>423 の書き込みはネタだと思って笑っちゃったんだけどマジで言ってるのかね?
A1111と絵が変わらないのに早くなる&VRAM消費量が少ないってのが売りなのに
個人の感想なんだしええでしょ 別に喧伝して広めようとしてるわけでもないのに敏感すぎるんよ
綺麗or汚いはそれぞれの主観および作ってる画像のレベルによっても左右される
>>423 はmajinaiにでも「これ緻密にしてみろ」って上げて、
>>426 が緻密にしてmajinaiに上げ返したらいい
LCMで論争した流れもそれで一発だったし
同じ設定で同じ絵が出てくるものに綺麗も汚いも無いだろ・・
俺はちもろぐの方を信じる。 違うのはバグなのか仕様なのか知らんが。
>>426 twitter見ると、やっぱり特に背景に差が出るとの意見があります。私もそうですが、rola使わないときは差が余り出ないので、rolaの感度が違うのかもしれません。
loraの感度が違うのだとしたらFP8になってんじゃね うちではlora使ってもほぼ同じ絵出る
質問です LyCORISを間違えてLORAのフォルダに入れて使ってたんですが、 おっとっと…とLyCORISフォルダに移動させて再度使ったら、ほぼ同じ画像が生成されました 再度呼び出したのでプロンプトに記述する<lyco:hogehoge:1><lora:hogehoge:1>はちゃんと変えてあります LyCORISのファイルを全部LORAに突っ込んでも問題ないですかね? 管理しやすくしたいので1つのフォルダにまとめたいんですが… 1個1個確認するのも膨大な量で大変なもので
ADetailerをオンをデフォルトでONにする方法ってありますか? 自分の環境的にADetailerを使わないことが非常に稀で、ONに切り変えを忘れて大量生産した時がかなり虚無なので…
>>436 ui-config.json
"customscript/!adetailer.py/txt2img/Enable ADetailer/value": true,
>>435 昨年夏のwebui1.5ですでに対応済み
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.5.0 > Lora extension rework to include other types of networks (all that were previously handled by LyCORIS extension)
> Lora 拡張機能を再加工して、他のタイプのネットワーク (以前は LyCORIS 拡張機能によって処理されていたものすべて) を含めるようにしました。
Loraフォルダに全部ブチこんであげてください
>>439 そうだったんですね、回答ありがとうございます!
安心してLORAフォルダの一番奥にたっぷりブチ込みます
NAIで"pussyline"が全く出ません。 SDなら簡単に出るのに。 他に適したプロンプトがあるのでしょうか?
>>442 あっ、こっちのスレ知りませんでした、ありがとうございます。
sd-webui-train-toolsをURLからインストールしようとしてもエラー出るんですが何が原因かわかりますか?
>>446 エラーの内容がわかればわかる人がいるかも
NegPiPの一部が反応しないときがあって困っています。 以下のような表示の時に反応していないような気がしています。 NegPiP enable, Positive:[75, 2],Negative:None 以下のような表示の時に反応しているような気がしています。 NegPiP enable, Positive:[75],Negative:None おそらくNegPiPのプロンプトを一度に使いすぎると一部反応しないといった状態だと思うのですが、NegPiPのプロンプトを減らす以外に方法はありますか?
http://2chb.net/r/cg/1703250505/717 「幅」や「高さ」を大きくしすぎるとそのような症状が出やすいです
特にAnimagineは出力できる解像度が決まっています。横長の画像の場合1344×768、1536×640などです
それ以上に大きな画像にしたい場合、これらの解像度で出力しつつHires.fixやimg2imgで拡大するといいでしょう
http://2chb.net/r/cg/1703250505/720 [datetime<%Y-%m-%d-%H%M>]で2024-02-12-1200のようにはなります
ただし通し番号は必ずファイル名の先頭につきますので、「年-月-日-時刻-通し番号」のようなファイル名をつけることはできません
代替案としては、「保存時にファイル名に番号を付加する(Add number to filename when saving)」をオフにした上で、その下の「Saving the image to an existing file」を「Add number suffix」にすれば、ファイル名が重複したときファイル名の末尾に番号が追加されます
参考:利用できるカスタムファイル名の一覧
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Custom-Images-Filename-Name-and-Subdirectory >>449 番号を後回しには出来ないようで残念です
>>448 > なんJNVA部★241
> 748 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 277b-rRCM):2023/07/28(金) 00:47:09.93 ID:LIB9XePS0.net
> negpipはプロンプトが74トークンまではOKで、75になると途端に効果がなくなるっぽい
> 752 :今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (アウアウウー Sa2b-3fi9):2023/07/28(金) 01:22:23.03 ID:SY/DLQGta.net
>
>>748 > 更新きとるよ
古いけどここらかなぁ、752のレスの真意は不明
しかしNegPIPで75token超えって凄いな・・30個くらい連ねてるの?
作者さんに聞いてみたらどうだろう
>>451 情報ありがとうございます
邪魔な背景や衣服のパーツなどを入力していたら到達してしまいました
Prompts from file or textboxを活用しているため、各行に個別でネガティブプロンプトを適用している状況なので…
去年の12頭頃にインストールしたAUTOMATIC 1111を一昨日アップデートしたら、画像生成速度が半分程に落ちたのですが、原因わかる方いらっしゃいますか? アプデ方法はターミナルにgit pullを入力して行いました。 初めてアップデートしたので、方法をミスっている可能性はあるんですが、、、
git cloneで作り直してmodels・outputs・extensionsなんかはLink shell extensionでサクッとシンボリックリンク貼り直した方が早いと思う
>>453 よくある一番しょーもない例としてサンプラーの選択ミス
DPM++ 2M KarrasだったのがDPM++ SDE Karrasになってるとか?
>>453 >>454 git cloneで作り直したら直りました、お騒がせしました。。
初歩的な質問で申し訳ありません
導入で躓いてます
どうすれば良いですか?
>>457 pythonの3.10.6じゃなくて3.13が入ってるからエラーになってて
それを入れなおせって言ってるように見えるな
>>457 https://github.com/AUTOMATIC1111/stable-diffusion-webui > Install Python 3.10.6 (Newer version of Python does not support torch), checking "Add Python to PATH".
「ローカル版導入」でgoogle検索して一番上に出てくるサイトを見ながら慎重にやりましょう
SD1.5の画像生成で顔がドアップで表示されるパターンを回避したいのですが、そういった生成を回避するような設定もしくはネガティブプロンプトってありますか? ※ControlNetは無しでお願いします(様々な構図を出力したいため)
生成サイズデカくして身体のどの部分まで描くか指定したらいいよ fullbodyとかcowboy shotとかね それでもダメならネガにportrait入れたらいい
ネガで対処するならclose-up、face focusあたりも必要な気もする 生成サイズ大きく、かつ縦横比変えれば顔ドアップは減るよね 逆に384x384とかにすると顔だけとか出やすい気がする あとは体のどこを強調するかでも表示範囲変わる 頭だけポジティブ羅列してたらフォーカスされやすい 更に股間付近に強調が多ければそのへんまで含まれやすいとか あるいは尻強調追加したら尻見せようと後ろ向くとかもかる
forge入れてeagleのextensionsも追加して設定もしたつもりなんだけど、eagleに画像が送られて来ない。 forgeはまだeagleに対応してないんでしょうか?
>>462 >>463 情報ありがとうございます。
(fullbody:1.5)などを入れても申し訳程度の身体要素+顔面(腕立て伏せ体勢の顔面などの)ドアップが出て途方に暮れていましたが、
顔に関するプロンプトを強めに入れてるのでその影響が大きそうです。
一応サイズは768x512もしくは768x768です。
>>464 どっちも知らんのだけど
そもそもA1111対応のextensionな時点でforgeでそのまま動かないのでは?
>>458 ,460
ご指摘の通り再設定したら出来ました
ありがとうございます
助かりました
>>466 FolderID設定してなかった…。なんで気付かなかったのか謎。ありがとうございます。
質問させて下さい ADetailerで1st,2nd,3rdのタブが標準でありますが、4th以降を追加するにはどうしたらいいんでしょうか 他人のプロンプトを参照した際に、Adeteiler 4thに関する記述があったので可能だと思われるのですが…
>>470 設定のADetailerにmax modelsってのがあるからそこで変更できるよ
>>471 おっっっふ 一番分かりやすい所にありましたね
ありがとうございます!
Forgeのpull欄でも指摘されてたけど Loraが一部表示されなかったりするバグがあるっぽい?
forgeのcontrolnetが効かないと思ったらプリプロセッサはあるけどモデルが空っぽ? 拡張からcontrolnetインストールしても有効のチェック外されちゃうし。 webui\extensions-builtinにsd_forge_controlnetとやらがあるけどほとんど空っぽ まだ使えないのかな?
>>473 一部のLoRAが表示されないことありますねー
モデルを切り替えて元に戻すと表示されるようになることがありますが確実ではありません
たぶん表示されない原因が一つではないんだと思う
表示されなくてもプロンプトで指定しちゃえば機能はします
>>474 ForgeにはControlNetが最初から入っています
controlnet用のモデルは、最初は自分で入れるんじゃなかったかな。はるか昔なので忘れた
models/ControlNetに入れてもよいです
SDXL用
https://huggingface.co/lllyasviel/sd_control_collection/tree/main 1.5用
https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main git cloneコマンドを使えばいっぺんに落とせます
>>475 gitとpython 3.10.6(最新のpythonは不可)がMacに入っていれば、ターミナルから
git clone
https://github.com/lllyasviel/stable-diffusion-webui-forge.git でインストールはできるはず
>>478 ありがとうございます
帰ったら試してみます
CivitAIで公開されているLoRAファイルから、チューニングに使われた画像を見ることってできますか?
>>480 無理です
学習方法・枚数・画像サイズ・captionの統計くらいはわかるけどね(わざと消してない場合)
>>477 できました。
そういけば初期だったから理由もわからずモデルをダウンロードして置いた記憶がありました。
ありがとうございました。
>>481 そうなんですね…ありがとうございます!
ControlNetから眉毛だけ部分修正してみたんですけど 普通に画像1枚生成するのと同じぐらい時間がかかる…これはそういうもんなのかやり方が間違ってるのか…
sdのコントロールネットって眉毛ラインを認識してくれないだろ 眉毛を描くとその位置にヘアバンドとか謎デザインのヘッドギアとか描いてくる
ケースバイケースだな 少数で高品質な単発イラストが欲しいなら手修正で仕上がりまで追い込んでもいいが たとえば漫画みたいにストーリー仕立てで大量に画像を使うとかだと 学習の手間をかけてもLoRAとかで制御できた方が長い目で見て効率が圧倒的にいいし
AI絵を修正するような絵描きの仕事があったら需要ありそうだな
みんなフェラ画像ってどうやって作ってるの? ほとんどの場合で竿役が出ないし宙に浮いたチンポ咥えたりフタナリ化する ネガティブプロンプトにfutanariとか入れてもあまり効果が感じられない
近年Instagramで見かけるような やたら画質の良いリアル系サイバーパンク調のAIアニメーションありますよね あれって何で作ってるかわかりますか? stablediffusion/ainmatediffでああいう領域までもっていけますかね
背景がちらついてるのならSDで楽に作れる SORAだっけ?あれは背景ブレずに凄いと思った
>>498 どういった手順がありますか?
自分の現時点の知識では、ハイクオリティな静止画を生成するところまで来れたのですが
そのクオリティを保ったまま、Instagramで見かけるようなクオリティの画の質のアニメーションにするというのが出来ず悩んでます
いま一番理想なのは既に生成済の静止画を2秒でも質を保ったまま動かせたらいいなと思ってます
>>499 ググって試した結果の失敗なら答えたいと思うけど、あると解ったんだからまずググれば?
「ハイクオリティな静止画」というのも主観的でどの程度か不明だし
特に2秒ならwebUIでも格別の工夫なくできるんでまずは試して
>>499 どういう動画が理想かわからないけど、このあたりからやってみるとか
Zuntan03/EasyPromptAnime: ローカル PC でプロンプトから簡単に動画を生成します。
https://github.com/Zuntan03/EasyPromptAnime >>500 苛つかせてすみません
うまくググって辿り着けば
masterpieceでrealisticな静止画と同じプロンプトで同等のmasterpieceでrealisticなアニメーションをanimatediffでも生成できるということでよろしいですか?
あれこれ面倒くさそう>(超えられない壁)>アニメやってみたい欲、、、のまま、結局触れずじまい そもそも静止画ですら誇れるような創造力ないのに、しんどいだけで絶望する未来が見える・・
面倒ならRunwayに生成した静止画を投げ込むだけでも楽しいよ 細部に凝り始めるとお手軽にいかなくなるのはどの分野でも一緒ね…
AIじゃなくてサイバーパンク2077の録画というオチだったりして
なんかこの1年、ポーズはある程度自由に変えれるようになったくらいで、あまり進化しているような気がしないの俺だけか?
指の精度が変わらん限り画質向上してもしょうがないというか 絵描きなら手が顔並みに表情を持つこと知ってるからそこが残念よな
期待が大きすぎたんだよ 去年と今と比べて進化してないとは口が裂けても言えないって自分は思ってる
指はマジで無能すぎる ガチャ引く気にもならんから指は隠す構図にする
pony使ってみたが構図も指もマシになった印象だな
XLでLora作成してて、LBWがいまいちうまく行かん(階層が12しかなくて、画質と顔が分離できない)ので
初めてLyCORIS(階層が20ある)に手を出そうとしてるんだけど、kohya_ssの選択が
で、なにがなんやら、てっきりLyCORISってのが一つあるのかと
これどれがよく使われてる奴なの?
追記
https://ai-joyful.com/lycoris/ こういうサイトは検索で出てくるけど、どのみち説明わからない
一般的にLyCORIS作ってる人によく使われてるのがどれか知りたい
適当にDLしたsafetensorバイナリで開けたけどどれかわからんかった
automatic1111でアップデートするたび素直に出力されなくなってきた 半年前くらいに出力したほうが全然綺麗で同じモデルとプロンプトでも構図が凄い変わって破綻してる git pullでv1.4-1.5にロールバックしても変わらず エスパー助けてくれー!
>>515 yahoo知恵袋並み感
せめてシンプルな1girlだけでloraも無しで有名モデルデータを使ったpnginfo有り画像を公開したら、そこから何か分かるかもしれんぞ?
すまんな しかも入れたコマンドgit checkoutだったし クリーンインストールし直したら変わるかもしれんから直ったら報告するわ
信じられるのはクリーンインストールのみや アプデは大体事故る
案外clipskip1に変わってたとか、そういうオチの可能性
自分も構図とかは合ってるんだけどなんかクオリティが低い絵しか出力されなくて困ってたけどembeddingsに入ってたEasyNegativeなどのファイルがいつの間にか消えてて入れ直したら元に戻った
Lora学習せずにそこそこ数枚の画像からキャラを再現できる IP-AdapterやらPhotomakerのようなイメージプロンプト的な機能でおすすめなのありませんか
>>515 それって昔作った画像をpngInfoから読み込んでt2iに送ったのか?
その場合なんか変化があるとclipskip1とかVAEとかが追加された欄が出てくるぞ
515だけどモデルとloraだけ退避して再インストールしたら多分治ったわ モデルのハッシュは前と同じだから破損は無い あと関係ないと思うけど起動引数をmedvramやめてxformersだけにしたら最新版でも古いバージョンとほぼ同じ画像再現できた ENSDはデフォclipskipは元と同じ2で 今の環境はこうなってる version:v1.7.0 python:3.10.8 torch:2.0.1+cu118 xformers:0.0.2.0 拡張機能入れてエラーで起動しなくなった時手動で消したり長いことアプデだけで使ってたからどっかのファイル壊れてたっぽい レスありがと!
nvidiaのお陰で日本株過去最高値更新とか もうnvidiaで無いものは人に非ず的な
エロパワーが世界経済動かしてるのを目の当たりにした
映画のワンシーンにエロを入れたら、 そのワンシーンを見るためだけに金を払う輩は大勢いるからね
ここ見てdreamboothタブloraに変更したらはじめて成功したついでにタブの順序も入れ替えた
Forgeが相当軽いらしいから久しぶりにpaperspaceの無料枠を動かしてみるか・・・ 無料枠でもそこそこの速度なら修正作業はこっちでやりたいわ
http://2chb.net/r/cg/1703250505/886 Settingsの「画像/グリッド画像の保存」(Saving images/grids)にある
「inpaintingで、マスクされた合成箇所を保存する」(For inpainting, save a masked composite)をオフにします
Stability Matrixで、ComfyUI Managerをインストールしたんだけど、 Managerのボタンが表示されません custom nodesのフォルダにはちゃんとインストールされてるんだけど どうすればよいですか
すみません自決しました。普通にインストールした時のComfyフォルダに入れてました…。
ComfyUIに手を出そうと思ってるんですが 使いやすいワークフローを配布してる場とかはありますか
あ、ComfyUIマネージャーで探せるみたいですね どれがいいやら全くですがとりあえずなんか探してみます
こっち誘導されたのですが、1枚のオリキャラ立ち絵から服装とか髪型とか学習させて色んなポーズとか3面図とか全身図とか作れますか?
画像生成AIサービスでおすすめが知りたいです。 ローカルはM1Macだから多分無理。
エロならNAIだけど最近生成サービス増えてきてよくわからぬ
全年齢で商用利用可能なやつ。 エロは個人で楽しむだろうからNovelAI辺りだろうけど。
>>538 > 1枚のオリキャラ立ち絵から服装とか髪型とか学習させて色んなポーズ
これはできる(LoRA作成やControlNetのReference、NovelAIのVibesTransfer)
> 3面図とか全身図とか作れますか?
ちゃんとした3面図はどうかなあ、だけどrerefence sheetなどのプロンプトで正面図から後ろ姿を出力することはできる
>>541 エロなし商用利用可能だとMidjourney
ChatGPTやDALL・Eも商用利用できたはず
forgeでブラウザ起動時にcontrolnetを折りたたみされていない状態にすることは可能でしょうか? 画像生成AI質問スレ19で以下の質問をした者ですが、forgeは同様の手順で折りたたみの解除が適用されませんでした。 --------------------------------------------------------------- 質問 749 ブラウザ起動時にControlNetの折りたたみがされていない状態にすることって可能でしょうか? ControlNetの折りたたみを解除するために毎回マウスに手を伸ばすのが結構手間で… 回答 754 >> 749 ソースをいじれるなら以下のような感じでopen属性の変更とSD再起動で可能だけど #stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet.py with gr.Accordion(f"ControlNet {controlnet_version.version_flag}", open = False, elem_id="controlnet"): #↓ with gr.Accordion(f"ControlNet {controlnet_version.version_flag}", open = True, elem_id="controlnet"): ---------------------------------------------------------------
>>543 ありがとうございます。
ついでに聞くとエロはNAIが大人気ですか?
このMeinaHentaiのinpaintバージョンって何に使うんです? メインモデルより画質劣ってるように見えるけど
>>548 inpaintのときに使うと品質がよくなるモデルじゃないかな
>>539 MAC知らないけど、M1MACってローカル(webui)いけるんじゃないの?
検索したらいっぱい出てくるけど、homebrewがなんたら
>>551 マジ? 遅くて話にならんとか言われたからローカルは諦めかけてた。
元々a1111使っててComfyUIを試してみた所、画質が劣るんだがそういうもの? Checkpoint, VAE, LoRA, embedding, controlnetとか諸々合わせてsmZNodesも使ってparserをA1111にしてる。
CLIP set last layerを2(-2)にしてないとか?
>>552 出来る出来ないではなくて、遅いって話かゴメン
M1maxとかいうのもあるのか
> M1 Max搭載MacBook Proだと、起動が驚くほど速く、512×512の画像なら数秒で作成できますね。
とかあって混乱した
ただのM1は確かに肝心の生成時間を書いてないサイトが多いね・・実用にならないのか
>>553 自分はそこらで断念したなぁ
webuiより先が見れると思ってたら、まずスタート地点に立てないという
webuiって結構裏であれこれやってくれてんだなって再認識
速い軽いの利点はもちろん凄いんだけど
>>555 でも方法あるんなら試してみようかな
ダメぽだったらMidjourneyかLeonardo
forge、軽いからガチャするには良いな A1111で作ったものと同じ材料で調理して同じ様な料理が出てくるならアリだったけどやっぱ材料同じでも道具違うと違う料理出てくるな
もう一個聞いておきたいんだけどMacでローカル生成してる人ってどれくらい居ます?
>>550 手始めに無料で遊ぶぶんにはかなり良い、無料クレジットも毎日わりと貰えるし
モデルもある程度揃ってるし、
一般人が作った大量のモデルも検索でできて使える(出来はそれこそ天と地だが)
ただ、大抵次のステップ段階にいこうとするとControlNet機能が不十分だった記憶。
あと版権絵系、エロ系は当然無理(だいたいキメラな感じ)
>>560 さすがにそれはわからんですね
TwitterやなんJNVA部に画像を上げてる人でも生成環境を書く人はほぼいないし
実はすごく多くの人がMacローカルで生成していたとしてもわからない
Macがあるならインストールはできるから、試しにForgeかFooocusあたりを入れてみては
>>560 iPhone/iPadのDraw Thingsの公式Discord読んでるとM1Macで動かしてる人もそこそこいるみたいだよ
公式対応だからアプリと一緒にリリースされるし
>>560 MacにWindowsインストールしてやればおk
>>561 エロは流石に無理か。
版権が出ないのはそう調整されてるんかな。
>>562 >>563 あ、すみません、このスレ内でって言おうとしてた。
>>564 それよっぽどスペック高くないとダメなやつ!
軽く検索した限りではM1で生成してる人はいるようだから、それなりには動くはずだ グラボではなくてCPU内蔵っぽいから、それほど大した性能ではないと思うが とりあえず試せや
>>566 CPUでもできるだろうけど
遅すぎて手で描いたほうが早い
宗教戦争は置いといて、こういう時Windowsで良かったって思うよマジで Linuxで普及するものはほぼ間違いなくWindowsに移植されるしWindowsにしか無いものも多い アプリの自由度が一番高い
>>554 元々a1111でCLIPの設定してなかったからComfyでもしてなかったんだけど、2にしたら大分改善したわありがとう。
それでもまだa1111のが綺麗なのが残念だけど。
>>555 同じような人いて安心した。
a1111は裏で何やってるかわかりづらいとも、いい感じにやってくれてるとも言えるわけね
>>571 ずーーーーっと口開けてROCm待ってるwindowsラデ使いへの愚弄はやめたれ
>>560 MacBookAir M2 16GBでA1111とKohya_ss走らせてるよ
背面騎乗位とか背面側位とかで女の頭つかんで後ろ向かせて無理やりキスするみたいなのあるじゃないですか あれ再現したいんですが何か良いプロンプト案ないですか? 演者が入り組んでるからControlNetは理解できないみたいなんですよね
何気なく1.7にアプデしたら生成時間3倍くらいかかるようになった グラボが全然本気出さずにファンもうならずそーっと動いてるみたいな感じになる せっかくグラボ買って600x800 36枚で2分くらいで出せてたのに今6分超えてる i2iでCN shuffleつけて生成してる 何か設定の問題かな、調べてもそんなこと言ってる人おらぬ
>>568 あ、やっぱ無理か。
>>574 と思ったら居たわ。でもM2か。M1とM2結構違うから難しそう。
色々ありがとうございます。
embeddingsにファイルを入れても反映されないんだけどなんで?
>>576 1.7でそんな症状あったら大騒ぎになってとっくに対応終わってるだろうから、設定含めたおま環としか・・
nvidiaのドライバアップデートでVRAMをメインメモリで代用してめっちゃ遅くなるアレではないよね?同じことしてるんだろうし
各種extensionも全部アップデートした?sampling methodとstepは全く同じ?
>>579 なんてファイル?
反映とは?TIに出てこないのか画像が変わらないのか、XLや1.5はあってる?
webui起動したままだとtextual inversionをrefleshしないと動かないことがある
いきなり使える時もあって条件不明
>>580 TIに出てこない、1.5じゃないと使えないの?
>>583 いやだから・・
> なんてファイル?
拡張子まで
そこら書いてくれないとエスパーしようがない
>>584 どんなファイル入れても使えない、拡張子は.pt
>>578 Mac StudioだけどM1でa1111をローカルで動かしてた
やはり速度が気になってWindows環境がメインには
なってるけど動くことは動くよ
>>576 あえて思いっきり症状の前後関係をぶっとばしてエスパーしてみる
『lycoris』の拡張機能を無効にすると治る
って思ったけど、
>>576 の症状の感じ単にvRAM溢れてるだけか...
>>576 あー
わいもなったわ
アプグレじゃなく新規で入れ直したら治ったわ
>>586 ああ・・
上のモデルでXL選んでるならXL用のTIだけ表示される、1.5もまたしかり
Loraもそうだったりする
さっきワッチョイとIDがいきなり変わった、なんでだろ
いや、答え方が悪いな > Embeddingである「bad hands 5」「negative hand」「better hands」 これらはどれも1.5用なのでモデル選択がXLではTI欄に表示されないし プロンプトに入れてもほぼ無反応(エラーも出ない、文字分の違いは出るかも)
>>592 とてもわかりやすい、ありがとう
通常のやつ使ってるつもりだったけどXLだったのか
>>588 すまん、これだった;;爆速に戻ったありがとう!
既知の問題だったんか、答えてくれた人もサンキュー!!
>>587 流石に速度がネックかあ。素直にサービス探します。
ありがとうございます。
>>594 ヤマが当たったか
もう使ってない拡張機能だろうから、そのバグ知名度メッチャ低い
去年末から今年の2月始めの更新で挙動おかしくなってるはず
大体の人は原因不明のバグ扱いで環境1から作り直してると思う
>>570 CPUといってもたぶんグラボ内蔵の奴だから単なるCPUよりは速い
あとCPUオンリーがどんだけ遅いと言っても手で描くよりは速い
>>598 >手で描くよりは速い
一発で思い通りの絵が出るならそうだけど
試行錯誤した上に結局細部は要修正とかだと
ケースによってはたしかに遅い
>>597 それだったらマックのユニックス上でやった方が早いじゃねえか
>>600 あとついでになんでユニックスwwwwwwwwwwwwwwww
もっと考えてから書いて
普通のネガティブプロンプトでクォリティ上昇系 Worst quality:1.4 とかでやってるんですが Negpip導入したら1.4だと効果オーバーになるとかあります? 多少下げた方が良いんですかね?
fogeワンクリックパッケージってこれ単体で起動するんです?update.batが動かなくて…
>>604 クオリティ系は、クリップスキップの値や単語によっても違うから固定値やデフォで強い効果で使うのはやめた方がいい
上限1.4~1.5あたりではあるが、クオリティ上昇系はプラスの効果だけで無くむしろ悪化させるケースもある。
良く有る構図で単純な絵なら問題ないが、ものによっては、クオリティ系を付けなければ普通に描画できるものが
つけるとほとんど描けなくなり、かえって劣悪な結果になる経験が過去に幾度もあった
俺も最初は脳死1.5や1.4でつけてたけど何度もそういう経験したので、最近はむしろ最低限(ベストクオリティ1.1とか)にしておいて徐々に追加してる
でないとどこが悪いのか分からないで、袋小路に迷いこむぜ
>>605 DL・解凍して直でrun.batでもとりあえずは動くはず
但し一部必要ファイルのDLが入るのでネット接続してないスタンドアロンでは動かないかも
updateが動かないってのもよくわからんけど起動すると暫くネットへのアクセスで止まってるみたいになるけど
数十秒から数分で終わる筈だけど、こっちもネット接続は必須かな
とりあえずアップデートとかforge移行とかしたら同じプロンプトや設定で 同じような絵が出るとか思うな、そもそもモデル変えただけでなにもかもかわるんやから
>>0607 ありがとうございます。ネットは接続してます、update.batは何かキーを押してくださいでキーを押したらコマンドプロントの ウィンドウが消えてタスクマネージャーを見てもちっとも動いていない 直でrun.batを起動させると runtimeerror: torch is not able to use GPU; add--skip-torch-cuda-test to commandline_ARGS variable to disable this check と出てさてどうしたものかと悩んでおります
a1111とforge比較したけどforgeはa1111の劣化版という印象しかなかった はなからforge使っていればこんなものかと思うんだろうけどa1111と同一設定で生成しても完成クオリティが低かった
>>609 今まで1111とか使ってた?
ハードウェア構成はnVidiaのGPU積んでる?
PyTorchからGPUが見えてないってエラーだからCUDA非対応とかならエラーに出てる様に別のスイッチで設定しないと動かないね
>>0611 まったくの初めてです、GPUはnvidia GeForce RTX 3070です
>>612 3070なら特に問題ない筈なんだけどね
解凍したフォルダをデスクトップに置いたりしてないよね?
フォルダ名はそのままで中の構成も変えずに
c:\とかd:\とかに移動してみたりファイルを再DLして解凍ソフトを別の物に変えて解凍しなおしたり
その辺試してみる感じかな
>>612 d:\の1TSSDに展開してます、解凍ソフトなども試してみます
>>614 一応デスクトップに解凍しても動作するのは確認出来たから場所はあんまり気にしなくてもいいかもだけど
webui_forge_cu121_torch21.7zを解凍して中のフォルダ(systemとwebui)とbatファイル(3つ)が
フォルダに入ってる状態でざっくり6GB位かな(初回起動時にモデルファイルのDLが終わってたら8GB位)
ui-config.jsonでUIを変更してるんですが、 生成画面でのRefinerの項目が消えなくて困ってます "txt2img/Refiner/visible": false, ここらへん全部falseにしても、なんか残るんですよね
ui-config.jsonでUIを変更してるんですが、 生成画面でのRefinerの項目が消えなくて困ってます "txt2img/Refiner/visible": false, ここらへん全部falseにしても、なんか残るんですよね
forgeに移行したけど別に劣化したと思うことはないなあ refiner併用で絵柄もかなり理想通りにできるしクオリティを上げる要素はあっても下げる要素はないよ
forgeは背景とか細部がダメかもってどっかで見たけど別に気にならないなVRAM8にはとてもありがたい。 shuffleだけ以前と違う感じなんだけど、微妙なところだから仕方ないと思ってるけどどうなのかな? 具体的にはA1111は黒っぽい画像を元にすると人物にも影がしっかり入ってたのに、forgeは背景は暗いけど人物はしっかりライトアップされちゃう。
>>609 update.batはwebuiフォルダ内を最新にするだけだから初回でも数秒で
続行するには何かキーを押してください . . .
で終わるの自体は正常
その前の方に明らかなエラーの表示がなければ問題ない
もしかしたらグラフィックドライバが古いのかもしれない
ツールの比較をするときは「こういうプロンプトでこういう拡張機能を使って、こういう設定で生成した結果~」ぐらい書いたうえで生成画像比較添付してくれないと、全く当てにならないのはある
最近気づいたのだが、a1111とforgeで同一条件で絵柄が変わってしまい悩んでいたが、loraを無効にしたところ、全く同一になった。つまり、loraのウェイトの感度が違うようだ。
>>623 ご指摘の通り、恥ずかしながらグラフィックドライバの更新のことがすっぽ抜けていました
更新後はちゃんと動作しており、日本語化とタグコンプリートをインストールできています
相談に乗っていただいてありがとうございました
>>625 forgeは自分の環境だと微妙になると思ってたらそういうことか
情報thx
lora付きでもほぼ同じ絵になるけどな 背景の家具の形がちょっと違うとか、指の位置が違うとかそんな程度の誤差はあるが
とりあえずここから出張してくる荒らしを報告しておいた
対象区分:[URL表記・リンク・荒らし依頼]優先削除あり
削除対象アドレス:
http://2chb.net/r/cg/1708834240/4 http://2chb.net/r/cg/1708834240/22 http://2chb.net/r/cg/1708834240/34 削除理由・詳細・その他:
前スレから誘導を施すレスを何度も繰り返し荒らされています。
よろしくお願いします。
今1年くらい前の絵を何枚か出してみたが、複数のlolaが使われているときに全部のlolaが無効になったような絵が出ることがあるな
みなの衆、例えば昨日生成した種絵を今日アップスケールしたり仕上げるとしたらどういう手順でやってるの?? 自分は、極めてシンプルに生成した種絵なら、t2iに呼び戻してそこからhires~必要に応じてi2iに送ってSDupscale~って感じでやるのだが それが種絵生成の時点でLoraやらAdetailerやらDynamic promptやらちょこまか変えたりで複数枚生成したやつを後日仕上げようとなると前述のやり方だと呼び戻すまでに1枚ごとに設定確認したりなかなか骨が折れるぞ... みんなもそんな感じでやってるのかな?と (種絵っていう表現がキモかったらすまん)
> (種絵っていう表現がキモかったらすまん) 書こうとしたら機先を制された・・汁男優みたいでなんかヤだ
Hire.fixで高解像度化・拡大すると顔はいい感じに補正してくれるのに体の方がめちゃくちゃになるんで困ってます。 良い解決方法はないでしょうか。
>>634 Denoising strengthが高すぎるとかではなく?
0.4〜0.55くらいならそんな崩れないような
>>635 有難うございます
Denoising strengthは0.7にしていました
数値を下げて試してみます
t2tで640×768→良さそうなのをi2iのJust resideでdenois調整しながらResize toで2倍くらい。 さらにやりたければそれをtileでって感じでやってるんだけど、まずJust resideでやってる事が合ってるのか疑問だったんだよね。 VRAM弱者だから最初からhiresとか無理だし、でも↑でやってる事って結局hiresと等しいのかな?
t2iだっけ。t2tってテキスト作ってどーすんだw
animatediffのforge板を使うと、パラパラ画像しか生成しないんですが どうすれば良いですかね 同じ人が居ないようで困ってる
>>639 forgeだとパラパラになって
バラバラにならないのは何を使っているの?
>>641 >>640 は「パラパラ画像がどういうものかわからん、どういう画像になるのか具体的に説明してほしい」という意味でしょ
出てきた画像をcatboxあたりに上げてみてよ
AnimagineXLについて質問です Animagineに限らないかもしれないですが•••個性的な顔を作るコツはありますか? 版権キャラをプロンプトで指定したLOLAで指令しない限りかなり画一的な顔しか作れないように思うのですがこんなもんですか? ある意味では再現性があって色々捗るとも言えるのです
お前さんのお気に入りの画像フォルダがあるやろ? 何も考えずにそのフォルダをトリガーワード一つ付けてLoRA作るんや それで解決やで
>>640-642 1111だと当然動画になるけど、forgeだとフレーム数分の画像が生成されるだけなんです
なので生成後のプレビューでその画像が高速で表示されます
1111で何らかの設定をミスった時にもそうなっていたんですが
どうしても原因が分からず
forgeのxformerあたりが怪しい気もするのですが、xformer外すと起動しなくもなってしまい
すいません Lora適用すると極端に遅くなっちゃうんですけど そういうものなんですか?
>>645 AnimateDiffのほうはわからんな
Forge版だけのなにかがあるのかねえ?
そしてForgeはxformersを入れても早くならない上に、一度入れると「--disable-xformers」をつけないと起動しなくなるらしい
>>646 どんな環境でなにを使っているのかわからんけど、ひょっとすると>> 588だったりして
あれ? スペースを入れちゃった
>>648 は
>>588 ね
すいません 1111をアップデートしたらブラウザが自動的に立ち上がるようになったんですけども これの設定変更ってどこでできるんですか?
>>647 その設定知りませんでしたサンクス
オフ起動でも動画は変わらなかったしおま環かなぁ
>>651 Settings(設定)-System(システム設定)-Automatically open webui in browser on startup
で設定変更できます
Disableにすると自動起動しなくなります
>>650 マルチポスト先には解決したことと、どうやって解決したかを書いておくといいですよ
forge入れて各種アップデートされた その後以前のAutomatic1111起動したらpytorchバージョン違いとか言われて止まる まあforge使うからいいけど
forge早いけど これ背景適当にしてるだけじゃね? 本格的なアプスケまだしてないけど
1年ぶりくらいに生成AI再開しました SD1.5使ってたんですが、XLにアップデートするべきですか?モデルとか使えなくなるって聞いて迷ってます。 あとモザイクを手軽にかけれる便利なツールあれば教えて下さい
やけにPaparSpaceのガチャが空かねえなと思ったら 不具合の影響で取り合いになってるのか
>>657 webuiなら左上のcheckpointでXLを選ぶだけなんで、1.5モデルも引き続き使えます
webuiそのもののバージョンは1年前だとたぶん未対応だから最新に上げてね
さすがにガラっと変わるだろうから新たに別インストールがいいかも
>>656 XLはForgeという軽いものができたので試してみたら
モザイクは としあき モザイク でググって出てくるツールが便利だよ
ここの人に聞きたいけれど、情報ってどこで集めている? やっぱりGoogleで根こそぎ見ていくのか
これを言う日が来ると思わなかったけど何もしてないのに以下のエラーが出るようになりました… > ControlNet - ERROR - OpenAIWrapper.forward() missing 3 required positional arguments: 'x', 't', and 'c' IP-Adapter FaceID plus V2 使用のt2iであらゆる画像(写真もアニメ系も)に対してエラー モデルも各種パラメータも関係なく同じエラー prompt空欄でもエラー ちょうど今日の日付変更ぐらいから発生 Windowsアプデとか含めて自動更新系無し もちろん手動更新も設定変更も何もしてない PCをシャットダウンまで行ってから起動し直してもだめ WebUIの環境丸ごと作り直してもだめ エスパー召喚に賭けて聞きに来たけどヒントくれる人いませんか Windows10 WebUI 1.7.0 (1.8.0も試した) SDXL1.0 CUDA11.8.0 (12.3.0も試した) cuDNN9.0.0 TensorRT8.6.0 Torch2.2.1 (2.0.1も試した) Python3.10.6
>>661 5ch内ならやっぱりなんJNVA部じゃないの
進みが異常に早い一方、最新の情報が集まるし新技術を試してみる人も多い
なんJNVA部★348
http://2chb.net/r/liveuranus/1709254709/ エロもののイラストの話題に偏りがちではあるけどね
>>663 ありがとう
みんな何事もなく使えてそうってのだけでもいいヒントになりました
結論としてはエラーが表示されるだけで生成画像自体には問題無し
昔作った画像とSeedとか諸々一致させたら普通に同じ画像が出た
プログレスバーが進むたびにコンソールにはドバドバエラー吐きまくるけど正常に動いてる
つまり無視して処理を進めるべき内部エラーの情報をログに出力しちゃうように開発者がやらかしてる
ここの678〜680行目の修正が影響してるから自分と同じくエラーが気になる人は旧実装に戻して使ってください
https://github.com/Mikubill/sd-webui-controlnet/commit/44e08759563e6eb1cec15025ac6a1075621cb555#diff-8c8d004eed5a3078434f6fbde15c178e472565ebfcb3119f308f9292c8eb7514 >>666 今はControlNetを最新にするとエラーがコンソールに出まくるようになるということ?
>>667 いろいろ付帯条件はあるけどそう
その条件については深掘りしてないからわからないけど
IP-Adapter以外でも出るかも知れない
あと --medvram つけてるときだけ通る処理な気がする とかそんな感じ
質問させてください GPUはrtx4090でcomfyui使ってます AnimateAnyone-Evolvedを使いたいのですがインポートができなく原因がわからず困っています; 0.0 seconds (IMPORT FAILED): C:\CU20240302\ComfyUI_windows_portable_nvidia_cu121_or_cpu\ComfyUI_windows_portable\ComfyUI\custom_nodes\ComfyUI-AnimateAnyone-Evolved インポートできないのでこれらが機能しません; |-- denoising_unet.pth |-- motion_module.pth |-- pose_guider.pth |-- reference_unet.pth どなたかご教授いただけないでしょうか? よろしくお願いいたします。
乳首が胸に一つの胸に複数出てしまうのをさける何か良い方法はないでしょうか 結構な頻度で起こって、せっかく顔やポーズはよいのに没にしてしまうことが多いです インペイントなどでの二度処理は手間ですし
>>670 hiresでdenoising strength高いとなりがち
単に乳首だけならlama cleanerで消すのが一番早いかと
>>671 lama cleanerというのがあるんですね
有難うございます
denoising strengthを下げつつ、そちらで修正したいと思います
>>664 色々情報手に入って楽しい。
ありがとうございます。
事後にありがちなガニ股鳥瞰みたいなのを作りたいんですが、鳥瞰アングルで効きが良いプロンプトはありますか? あとガニ股のプロンプトって見たことがないんですが何かいいのありますか?
人が複数人いる状況で立ってる人としゃがんでる人を混在させたいんだけどいい呪文なですか? どうしても全員同じポーズになる
4070Tiの補助電源って8ピン使うのと6+2を二本使うのどっちが正解?
>>677 4070Tiクラスで補助電源が8pin 1本は考え難いから言ってる意味がイマイチ不明だが
GPU側の補助電源実装が8pin x2だった場合は全部埋めれればケーブル側が8pinでも6+2pinでも問題ない(EPS8pinと間違えないように)
GPU側が12VHpwrの場合で付属の8pin-12VHpwr変換コネクタを利用する場合も変換元の8pinコネクタが全部埋まるなら
8pinでも6+2pinでも問題ない
>>675 俯瞰はfrom above、鳥瞰はaerialとか、どっちも入れるとよく効くかも
さらにwooden floorとか入れると効果が高まる感じ
ガニ股はたぶんなさそう
検索すると出るcrab-crotchは直訳なんで勝手に言ってるだけで効かない(蟹さんが出る)
squatting, spread legsが近くなるくらい?
>>676 経験則だけどそういうランダム系の指示はないだろうね、群集はどうやっても無理だし
Regional Prompterみたいなので分けるくらいしか思いつかない
さすがにこれは面倒で誰もやらなさそう
質問失礼致します。 色々とモデル等を変更して画像生成しても画像が全体的に灰色っぽいフィルターがかかったような感じになってしまうのですが解決策を知ってる方がいましたら教えていただけると嬉しいです。
>>657 今話題のPonyがプロンプトのみでいろんなシチュエーションでてLoRa無しでも可愛い子出て凄いよ
ネガ側も1.5時代みたいなズラズラ書かなくても元のponyがすでに対応してて余分な乳首、グニャグニャな指、余分な手足、欠損した体が出にくくなってるので書く必要がない。出てしまったときに入れればいい程度
1.5にはもう戻れないな
ponyもebaraponyがオススメかな
何の情報も書いてないからエスパーするしかないけど 怪しいのはVAE
>>682 自分もVAEがおかしいかなと思ってオートを切ってvae-ft-Mae-840000-ema-prunedにしたり他のにしたりしてもモヤモヤした現象は治りませんでした…
>>684 そもそも使ってるモデルはなに?
症状的にはほぼVAE絡みと思うけど
>>685 モデルはCounterfeit-v2.5ですが、他のモデルに試しても同様の現象が起こってしまいます…
>>686 どのモデルでもおかしいとなると環境とかの問題の可能性もあるな
使ってるハードウェア構成とか生成の環境(1111とかForgeとかバージョンとか)は?
Counterfeit-V2.5_pruned.safetensors + VAEなし
Counterfeit-V2.5_pruned.safetensors + vae-ft-mse-840000-ema-pruned.safetensors
灰色っぽいってのはこんな感じ?
そもそもVAEて再起動必要だったから そこらへんじゃないの? 上部に出せるようになったのいつからだろ
>>686 灰色になった画像をmajinaiに上げてくれてたらなんかわかるかも
https://majinai.art/ja/index.php 右上の投稿ね
>>683 同じ名前のファイルがあると自動で読み込むという程度の意味じゃなかったっけ>automatic
>>687 まさに灰色になってるというのがこの現象になってます…
使ってるPCの情報は以下になります。
OS: Windows 10 Home 64-bit
Processor: AMD Ryzen 7 3700X 8-Core Processor (16 CPUs), ~3.6GHz
Memory: 81920MB RAM
Card name: NVIDIA GeForce RTX 4060 Ti
生成の環境に関しては知識があまりないのですが、実行環境はローカルPCで拡張機能はa1111-sd-webui-lycorisになっております。
補足としましてPC含めて再起動しましたが改善はしませんでした…
生成中は色もしっかりついてるんですが100%になった瞬間に灰色のフィルターがかかったようになってしまいます…
4060tiっていうだけなら8GB版? vRAM足りないとvae効果切られるとかあったっけ?
>>692 いえ!4060tiは16GBになります!
案外cmdの窓のログ追ったら、どこかでvae関連のエラーとか出てきてないもんかな 本来動くべきものが動かないときって、まぁ大体logで何か出てる印象だし
> 拡張機能はa1111-sd-webui-lycoris
これかな?
https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris > a1111-sd-webui-lycoris [sd-webui-forge, sd-webui<1.5.0]
> NOTICE
> This extension is for stable-diffusion-webui < 1.5.0.
> And stable-diffusion-webui-forge, if you want to use some legacy features.
ようはwebui1.5以前でしか使えないけど、versionいくつ?
遅くなるってのも最近何度か見たけど、作者が書いてるだろ!って逆切れしてた
https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris/issues/67 >>439 の通り、lycorisはwebui v1.5でa1111がデフォで対応済みなので拡張は不要
webui v1.5未満をずっと愛してる人用に作者さんが善意で残してあるみたい
>>679 ありがとうございます
体勢と構図だけじゃなくて状況的に映るだろうモノを描写するわけですね
勉強になります
ガニ股はダメそうですね
今後の科学の進歩に期待します
>>696 バージョンはv1.7.0でした!
lycoris が悪さしてVAEが上手く反映されなかったということなんでしょうか…?
>>698 lycoris を無効化してやってみましたが変わらず灰色っぽくなってるままでした…
無効だけじゃなくstable-diffusion-webuiのextensions内にある a1111-sd-webui-lycorisのフォルダごと削除してwebui再起動したらどう? 昔同じような感じで有名だったloconってやつも削除しないといつまでも悪さしてきたので ・・って検索したら同じ作者だね
>>699 一回別フォルダに新規でクローンし直して環境作り直してみたら
現環境が色々おかしい気もするしvenv削除で再構成でもいいけど
どのみち作り直すなら最新版でやり直す方がいいと思うし
>>700 フォルダーごと削除してみたのですが結果は変わらずでした…
あとcmdのログを見てみても生成した時にVEA含めたエラーはなさそうでした…
そうすか・・
で、さっきも書いたんだけど、一応本当に絶対におま環なのか確認しない?
>>689 のサイトに灰色になる画像を上げてみて、恥ずかしかったら1girlだけでもいいし
他人の環境で本当に灰色にならないか、画像がどのくらい違うのか、変な設定やプロンプト入ってないか
>>703 遅くなってしまいましたがこちらが自分で画像生成したものになります…
https://majinai.art/ja/i/eFiyxNu 別フォルダーに新しくStableDiffusionをインストールして試してもダメでした…
>>704 一応整えて真似したけど、VAEなしだとやはり灰色、ありだと灰色じゃなくなる
一番右がVAEなし、あとはなんかそれぞれ(84000、orangemix、counterfeit用の)
(微妙に絵が違うのは何かわからない)
ただ、majinaiのファイルをpng infoに入れた時にVAEの情報が出てない
settingsの検索欄にvaeって入れて出る
Add VAE name to infotext
Add VAE hash to infotext
の両方にチェック入ってる?入れてないなら入れて生成したやつを
png infoに突っ込んだ時にVAE名とhashが何かちゃんと表示はされてる?
VAEのファイルが壊れてるのかなぁ、でも他のも試したってことだし
>>704 の情報で生成したけど
VAEなしでやってもここまでは淡くならなかったな
ためしにclip skip1〜4でやってみたら3と4では思っていたより生成中→完成で淡い感じにはなった
>>705 一応両方ともチェックを入れて生成しているんですが、png infoに入れた時にはVAEとhashの記載は何もなかったです…
なぜ VAEがちゃんと反映されないのかが色々と調べてもわかりません…
cmdのログを見てみたら、生成中にVEAが見つからず、代わりにNoneを使用しましたという文があったのですがこれが原因でしょうか…? 下記がその文を翻訳化したものになります。 VAE ウェイトがロードされました。 合計進行状況: 100%|███████| 60/60 [00:41<00:00、1.43it/s] ベースVAE0%を回復中|█████████| 60/60 [00:41<00:00、2.25秒/it] アテンションの最適化を適用しています: Doggettx... 完了しました。 VAE ウェイトがロードされました。 vae-ft-mse-840000-ema-pruned.ckpt という名前の VAE が見つかりませんでした。代わりに None を使用する 100%|
なんでsafetensorsじゃなくてckptのVAE使ってるんや?
とりあえずの対応なら vae焼いてあるモデル使ったら大丈夫なのでは?
>>708 日本語化の拡張とか入れてる?
ホントに新規で入れなおしてその直後に(拡張とか入れずにモデルだけ入れて)テスト生成とかしてる?
>>708 上の「SD VAE」の右の更新ボタン押してちゃんと選び直せる?
>>709 VAEのフォルダーに入れてるのはsafetensorsのはずなんですけど何故かcmdにはckptって書いてますね…
>>711 新しく入れ直したものに関しては特に拡張機能は入れてません…
モデルとVAEだけ入れて作成しましたが治りませんでした…
>>712 読み込んでいるような描写もあったので選び直せてると思ったのですが、
cmdの方には先ほどと同じように今回使用しなかったはずの別のVAEが見つからなかったことが記載されてました
(今回はmastervae_v1Safetensors.safetensorsというVAEを使用してみました)
VAEmastervae_v1Safetensors.safetensors
アテンション最適化の適用: Doggettx...完成です。
VAEウェイトがロードされました。
vae-ft-mse-840000-ema-pruned.ckptという名前のVAEが見つかりませんでした。代わりに None を使用します
基本VAEの復元
アテンション最適化の適用: Doggettx...完成です。
VAEウェイトがロードされました。
>>715 stable-diffusion-webui\models\VAE
フォルダにちゃんとそれぞれある?サイズが0KBとかになってない?
mastervae_v1Safetensors.safetensors 326,798KB
vae-ft-mse-840000-ema-pruned.ckpt 326,851KB
>>716 ちゃんと指定のフォルダーに入ってサイズも特に問題ないです…
唯一サイズが0KBなのはPut VAE hereという名前のテキストドキュメントのみです…
>>714 やりました
だめでした
じゃ、状況が全く分からないので
どうやって入れなおしたのか(1クリック系とかgitとか)
入れたもののバージョンとか(webuiだけじゃなくPytorchとかも、分からないなら起動後のブラウザ画面の一番下に出るので)
設定とかほんとに弄ってない?
>>715 弄ってないとデフォじゃDoggettxなんて指定されてない筈だけど
それが原因かわからんけどSPDAかxformersで試してみては?(一応うちの環境ではDoggettxでも正常に出力はされてるけど)
VAEの格納パスは間違っていませんか?(デフォは<installDIR>\stable-diffusion-webui\models\VAE)
>>718 どうしても駄目なら
easysdxlwebuiかstabiltymatrixはどうか?
アンカ先を間違えたわ とにかく上にあげたやつは簡単インストール系なので、それなら環境は間違いないはず
わからん・・・ Doggettxって--opt-split-attentionだっけ COMMANDLINE_ARGSどうなってるんだろ まさか二重拡張子やるPC初心者さんではないだろうし 拡張子表示してなくて勝手にaaaa.txt.txtみたいにして「aaaa.txtが見つかりません」みたいな
とりあえず見つからね言われてんだから コピってckptに拡張子リネームしたの 置けばいいやん、それを読まなきゃ そのフォルダから参照してないの確定
>>718 自己レス
新規にクローンしてセッティングしたところDoggettxになってました
すいません、これは自分の確認不足でした
ただ、setting-VAEでvae-ft-mse-840000-ema-pruned.safetensorsを指定して
Apply settingsを押せばVAEが変更されて上記環境でも正常な生成は確認されたので
Cross attention optimizationの設定の問題かは微妙なところです
cmdのログであったvae-ft-mse-840000-ema-pruned.ckptを実際にVAEのフォルダーに格納してみたら灰色っぽい現象が解消されました! (何故clot形式しか読み込まないのかはわからないのですが…) PNG infoの詳細にもちゃんとVAE の情報が記載されてました。 この度は素人の自分の為に皆さんに色々とご協力をしていただき本当にありがとうございました!
forge と A1111 を使っています Model + Refiner + Adetailer の Model を使用した時 全部メインメモリに読み込んで 30GB 前後くわえ込んでしまうのはどうにもならないでしょうか? 64GB に増やせば解決するのでしょうけれど現在の 32GB では生成中はカクカクで何も出来ない状態です 拡張無しのポン出しならあまり問題ないです(20GB 弱) Maximum number of checkpoints loaded at the same time で読み込みを増やすことは出来ますが その逆の使い終わった度に Release する設定があれば(生成時間は増えるかも知れませんが)ありがたいのですが
正直、大容量のモデルデータを毎回リリースして読み込むような使い方は、速度は遅いしハードウェア寿命は縮めるしで良いこと何も無いよ 無難にメモリ増設をお勧めする
stable diffusionの画像生成が急におそくなりました。 4080のグラボでは1枚生成するのに38秒 現在新しくPCを買ってメモリ128G、4090にしたところ 1枚生成するのに1分20秒となり、おかしいと思い再インストールしなおした所 1枚生成するのにxformers無しで23秒になったんですが数十枚生成し10分位たったら 再び1枚生成するのに1分20秒になりました。。 わかるかたお願いします。
>>729 a1111-sd-webui-lycoris
これいれてました
もしかしてこれのせいですか??
おそらく
チェック外してからフォルダも削除してください
>>700 >>439 なのでLyCORISも普通にloraフォルダに入れて使えます
>>731 フォルダ削除して生成してみたら
1分20秒かかってたのが14秒で生成できました
めちゃくちゃ奮闘してなんでだろうってさぐりまくってたので
感謝です、本当にありがとうございました!!
ちなみになのですが、v1.8.0なんですがopenpose editorインストールしてもタグで出てこないんですが これはつかえなくなったんでしょうか?質問ばかりですみません
>>733 1.8はまだ入れてないのでわからないけど
起動時にコンソールにはなんかエラーとか出てない?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/15094 これかな?
> Axelleromar commented yesterday
> Open cmd in the webui root folder, then enter the following commands:
> venv\scripts\activate.bat
> pip install basicsr
> venv\scripts\deactivate.bat
>>733 https://github.com/fkunn1326/openpose-editor のことだったらgithubのページにこう書かれていたよ
This repository has been archived by the owner on Dec 10, 2023. It is now read-only.
このリポジトリは2023年12月10日に作者によってアーカイブ化されました。今は読み出しのみです
作者がもうメンテナンスしていないから、最近のa1111では動かないのかも
なるほどやっぱりそうだったんですね汗ありがとうございます
いまさらforge触ってみて、軽くて早くて使い勝手がいいからできれば移行したいんだけど Loraを2つ以上重複させようとするとおかしくなるという不具合が… 追加した拡張機能のどれかが悪さしてるとかで、入れ直せば普通に重複させられるという事であってくれ…と思っているのですが、 何かわかる方おられたら質問させてください。 キャラLora単体だと問題なく機能するけど、 ポーズ変化やフィルタのLoraを重複させようとすると、キャラLoraも効かなくなるわ、重複させようとしたLoraは効果皆無だわでうまくいかない。 同じLora、プロンプトを前の1111環境で使うと普通に重複して使えるんだけど、自分のforge環境がおかしいだけ?
>>737 LoRA関係のトラブルはとりあえず
>>588 をすすめてみる
>>738 >『lycoris』の拡張機能を無効
ありがとうございます!
確認してみます…!
>>738 色々無知過ぎるが故にお手数かけて申し訳ないのですが、「『lycoris』の拡張機能を無効」ってどこを弄ればよいのでしょうか?
Settingsの項目にそれらしいのが無いか探しているのですが、見当たらず…
というか、拡張機能でlycorisがインスト―ルされている場合、無効にするって事か… さっき探してみたところ、入ってない(入れてないっぽかった)気もしますが、もっかい探してみます…
Loraの作成のベテランに聞きたいんだけど やはりいろんな角度からいろんなポーズ 表情等 できるだけ沢山ぶち込んだ方がいいのかな? ◯◯枚程度でも充分っていう指標みたいなのがあれば教えて欲しい 今作ってるけど待ってる時間が長過ぎてやり直したくなってきた…
拡張機能の「a1111-sd-webui-lycoris」は、やっぱり入っていないようです。 ただ拡張機能が悪さをする事もあるとは思えるので、色々入れた拡張機能を外してみて、 それでもダメなら最初から入れ直してみます。 とりあえず、まともな環境ならばLoraも普通に効くっぽいと分かっただけでも朗報でした。ありがとうございました。
>>743 >>738 は違っていたみたいで申し訳ない
>>744 いえいえめっそうもない
環境に問題が無ければ、前環境で重複できていたLORAは普通にできるっぽい…
という情報を頂けただけでも非常にありがたかったです
適当にいれた拡張環境外してみたらなんか変な絵が出るようになったので、もう最初から入れ直す事にしますw
Stability MatrixにForgeパッケージが入ったようですね 面倒だけどそっちで入れ直してまとめるかな
>>744 ゼロから再構築し直したら、Forgeで普通にLORA重複できました!よかった…
やっぱり拡張機能のどれかが悪さしてたっぽいので、重ね重ねヒントありがとうございました
stablediffusion使いはそうかもなぁ イラスト系女の子系強いから それ以外の系統だと、civitaiでみんなが上げた画像見てても 最初はおぉ~凄え~と思ってたけど見慣れてくるとなんかパッとしないかも、と思ってきた今日この頃
一応だけど…ダメ元でForgeで「TensorRT」を使えないか試そうと拡張機能追加 ↓ 起動すらしなくなる ↓ 「TensorRT」のフォルダ削除すると、起動するようになる ここら辺からLORAに不具合が出たっぽい。 あとControlNETのモデルを自動でDLするやり方を参考HP見ながらやろうとして途中で失敗して、 結局手動で落とし直したミスもやらかしてるので、そのどっちかでエラーが出たっぽい 万一同じようなエラーが出た人用に、一応の情報提供です
>>742 1.5は厳選した20〜25枚くらいの学習画像でいい
「3Dとして認識しててデータがあるほど精度が上がる」みたいなものではないので、大量に入れても意味がない
正面、斜め顔、左右の横顔、服覚えさせたいなら全身も入れて、後ろは出さないなら入れなくてもOK
表情は2D系ならデザインによる、リアルに近いなら素の顔だけでも大体出してくれる
デフォルメ系は要注意(taggerが認識しにくい)、最悪キャプションを自分でいじる必要まである
複雑なポーズは1.5ではどのみち上手く出ないので、ないほうがいいかも
強度1で使うとガビガビ、減らすと顔が似なくなる、って壁にぶち当たったらlora block weightを使う
XLはわからない・・1.5のやり方が全く通用しない、lbwも適用しにくい
しかも時間もかかるので試行錯誤が辛い
>>753 なるほど
1.5だす
そしてまだ終わらん
次からは後ろ画像は使わないようにしようと思う
あざますm(__)m
1.8だけどOpenpose Editor使えてはいるのとタグもある、エラーは出ていない ただ、これほぼほぼ未使用だったんで元からかは知らないけど、設定>左の縦リストにOpenpose Editorは無い。 3D Openpose Editorはある そう言えばdepthはforkがあるからそれに切り替えてある
Tensor.artという外部サービスの話なんで恐縮なんですが下記のようなエラーが出て生成できませんでした model file ponyDiffusionV6XL_v6StartWithThisOne.safetensors is deploying deploying? これってまだサービス側がponyのv6に対応できてないってことですかね?
cuda stream activated : fales Forgeの立ち上げのときに表示されるのですが、修正したほうが良いものでしょうか? 画像は生成されているのですが
>>757 顔つきや塗りはLoRAでも変わるから、出力結果を見てモデルを推測するのは無理じゃないかな
>>758 https://github.com/lllyasviel/stable-diffusion-webui-forge?tab=readme-ov-file#forge-backend > --cuda-stream (This flag will make things faster but more risky).
このオプションを有効にしてませんよって意味なんで別に気にしなくていいんじゃね
>>756 "tensor.art" "is deploying"
で検索すると困ってる人いくつかヒットするけど、どれも答えはないね・・準備中?
そのサービス業者に聞くしかないのでは?英語かも知れないけど
https://tensor.art/posts/634569138947475773 スマホだと出るけどPCだとそのメッセージで駄目って言ってる人
しかし不親切だねぇ
>>760 小さいグラフィックメモリのやつを高速化するようなコードですね
気にせずやろうとおもいます ありがとうございました
ローカルSD1.5でログに「TF_ENABLE_ONEDNN_OPTS=0」が出てるから0に設定してみた 同じく出てるor変えた人いる?これでグラボに振る分が増したのだろうか? もう一つあるWARNING:tensorflowはそのまま出てる
>>761 親切にありがとうございます
多分サービス側が追いついてないんだと思います
XL自体割と最近対応し始めたところなので•••
自前の環境を用意できない以上Animagineいじりながら気長に待ちます
お手数おかけしました
いきなりすまんがAutomatic1111て「オートマティックイレブンイレブン」て名前なんか?
one for allじゃなかったっけ? 知らんけど
英語の動画ではみんなそれだね、ネイティブは4桁数字は砕けた場では2桁+2桁で言うのが普通とか 頭の中ではイチイチイチイチだったわw
forgeくんがおまえNORMAL_RAMなって判定するんですけど もっと低いVRAMにしたいときってどうしたらいいでしょうか 確かwebuiのコマンドは用意されてないようですね
>>769 environment.batやRun.batに書き込んでもエラー吐く
Webuiってフォルダにwebui-user.batがあると思うからそれにコマンドライン書き込むだけだと思うけど
--xformersや--opt-split-attentionが有効なのかは未確認
適用フォルダ変更はできたからコマンド自体は有効なはずだけどPCがどうなっても責任はとれん
>>769 fp8のオプション使えばいんでね
a1111と違って設定じゃなくて.batに書く必要あるがデフォルトよりかなり低vramになる
loraの効きが悪くなるのでfp16にするオプション併用オススメ
どこぞのwikiに全部書いてある
後はさらに遅くなってもいいなら
--always-offload-from-vram
モデルをvramにロードしない、使ったことないがすげー遅そうてかramないと仮想メモリ使ってとんでもないことになりそう
連投すまん、xformersは効くんだけどvenv汚染してオプション外してもxformers適用状態になっちゃう(逆に無効化オプション付ければいいけど、ホントにいらない場合はvenv再作成が必要、forgeのvenvは venvじゃなくてsystem)
ソースから消されてんのか… そんじゃそれらのコマンドは動作しないなw すまん適当いって
animagineのアーティスト指定って作品、一般、クオリティのどれ扱い? 前に置いたほうが効き強いし作品?
最初に書いた低VRAMにしたいマンですけど ForgeのUIを見てたら「Never OOM Integrated」って項目がありました なんとなくOut of Memory関連のものっぽいので全部オンにしてみたら魔法かってくらい低VRAMで稼働しています。 どういう仕組なんでしょうか調べても出てこないです 「Enabled for UNet (always maximize offload)」 「Enabled for VAE (always tiled)」 この2つが設定できるようです
質問です。 txr2imgでHires.fixにCheckを入れて画像を生成すると なぜか全く同じ画像が2枚ずつ作成されます。 これはいったいなぜなんでしょうか。 こちらの設定が悪い場合、どのように設定を治せばよいのでしょうか。
>>777 settingsの
> Save copy of large images as JPG
> (if the file size is above the limit, or either width or height are above the limit)
デフォで4Mだけどこれを超えるとPNGだけじゃなくJPGも保存されるやつかな?
>>776 詳しいことは知らないけど、VRAMからとことんoffload(荷下ろし)してメモリ節約してる?
A1111webuiがVRAM上にあれもこれも抱え込む仕様なのを
要らないタイミングで逐一メインメモリ(共有GPUメモリ)に追い出してるんじゃないかな?
その分遅くなるはずだけど、遅くならないいいタイミングでやってたり、別の高速化で凌駕してるとか?
詳しいことは知らないけど(2回目)
こういういい加減なこと書いとけば詳しい人が突っ込んでくれるだろう・・
ワッチョイ無の方に書いちゃって流れたのでこちらで聞かせてください automatic1111からforgeに移行してみたんですが、 image browserの機能のsend to controlnetが上手く動きません(txt2img、img2img共に) forgeでは未対応機能だったりするのでしょうか (send to txt2img等はちゃんと動きます。) バージョンはforge、拡張機能共に最新版です 環境はwin11 23h2です
>>779 ありがとうございます。
調べてみます。
>>783 あら、こんな記事あったんですね…検索能力の無さが悲しいぜ
情報ありがとうございます
windowsのdirectmll版使って生成するとvram上限一杯まで使用して、その後も開放されず占有状態になって、vram開放させるにはプログラムkillしないとだった。 先日、ubuntuにROCm環境つくってa1111通常版で生成したら、vram占有することなく生成後はちゃんと開放された。 使用gpuはradeon rx7900xt
forgeとa1111で同じ環境構築したらストレージ容量がヤバくなったので a1111のモデルフォルダをシンボリックリンクで指定したら、それで共有できたわ コントロールネットのモデルフォルダや、LoRA、スタイルの設定ファイルも共有でオッケーだったから これなら両立簡単、どっち側で新しいモデルやLoRAを入れても両方に反映される 知ってる人には 情弱乙そんなもんアタリメーだろレベルの話だと思うが今まで知らなかった俺はこれでとても助かった
でもそれ後で外そうとした時に面倒なんよ どこをどうリンクさせてたかもう覚えてねぇ…ってなるから
実行したmklinkのコマンドをメモ帳等に保存しておくといいかもね
>>787 シンボリックリンクはショートカットみたいな印が表示されるからそれで分かるんじゃね?
ハードリンクにするとどっかに覚え書きしておかないとわからなくなりそうだけど
forgeはシンボ使わなくても --LORA_dirとかのオプションで指定できるでしょ もともとweb user.batにREMってある
>>790 うぉ、ほんとだ
果てしなく情弱乙だな ○| ̄|_
forgeとA1111を使い分けるのってできるのでしょうか?試してみたいだけなんですが。
ファイル管理したいならファイラー使えばいいんじゃないの? 普通にフォルダとシンボフォルダは区別表示される機能くらいついてんぞ? 忘れるくらい気にしないなら それでもええやないんか?たいして困らんやろ
>>792 両方入れてるけど自分環境では問題ないよ
>>795 Forgeとa1111は別のアプリケーションで、別のフォルダにセットアップするのよ
だから起動用のバッチファイルもそれぞれ別
初心者はStabilityMatrix使えばいいのに、 a1111,forge,comfyui使えるよ
手動でa1111とforge入れてるけどStabilityMatrixに変えるか悩む
Stability Matrixはほんと便利ですわ Forgeの対応もしたからいまんとこ無敵 ComUIを専用インタフェースで簡単出力できるInterenceって機能もある
ComfyUIいらないなら Easysdxlwebuiがおすすめ a1111とforgeに対応してる
少なくとも簡単インストール系つかえば pytorchでブーブーいわなくて済むからな pytorchのver管理、しくじったときの再インストールわかるなら手動でもいい っていうかググれば別に書いてあることだからな
ド素人の質問ですがご教示ください 室内で撮影した飼い猫の写真を改変したいです 背景を差し替えて人間臭いポーズをとらせたいのです 例えば 露天風呂に浸かってくつろぐ猫 ゲレンデをスキーで滑り降りてきて転倒する猫 自然感がある写真風の仕上がりにするのに フォトショップと生成AIのどちらを学ぶのが良いでしょうか?
>>802 その用途だとフォトショがいいんじゃないかな
猫を画像を切り取って、手とか足とか変形させて背景と合成すればいいから
AI生成はその後でいいと思うよ
別に難しくないし
とはいえForgeでおかしくなる拡張もあるにはあるから 既存のA1111もそのまま使えるようにしとくのがいいね
ブレイバーンのメカイラストが増えなかったり腐女子がブレイバーンにハマったけどロボイラストが描けない・増えないって嘆いていたけど、これと同じ流れをアーマードコアの時も見たな 結局ロボコンテンツって絵師が少ないから拡散力で他のコンテンツに負けて新規はすぐに下火になるを何年も繰り返してるし、ロボアニメファンはコンテンツ守りたいなら積極的にAI使って生産性上げるべきだと思うんだが ガンダムもそれに気づいて若い層にアプローチするためにMS要素を減らした水星の魔女を発表して成功したわけで、この分野はファンの期待に応えられるのは圧倒的に絵師が有利だからヤキモキする
forge、XLモデル、ブラウザChromeでgenerate foreverやると時々処理が止まるのっておま環かな 動けばそのバッチカウント1セット分は止まらない 1セット終わって次の1セット入るまでで待機ループしてる感じ 1セットだったり5セットだったりランダム コンソールにエラーは出てない リロードすると生成可に戻る foreverじゃなくて単発生成は毎回ちゃんと生成できる 1111のv1.6.0、SD1.5モデルだと発生しない
すみません質問です。 ベースモデルを60種類ほどダウンロードして 1024ピクセル四方で同一プロンプトと同一の元画像で img2imgで画像出力して出力結果を比較しています。 普通のベースモデルで画像生成すると 高クオリティの画像が出力されるのですが ◯◯XLという名前のついたモデルで画像生成すると、 絵が潰れたりチグハグだったり畸形だらけの おかしな画像ばかり出力されます。 これは一種類のモデルだけでなく◯◯XLというモデル共通の現象のようです。 こうした◯◯XLモデルで綺麗にimg2img画像を出力するには 何か特殊な手法が必要なのでしょうか。
SDXLを最初に起動した時は 通常のLoraは表示されずsdxl対応のLoraのみが表示されていたんですが 昨日起動した時はSD1.7と同様に 通常のLoraのみが表示されてXL対応のLoraは 一切表示されないようになっていました。 何も設定変更をしていないのに、なぜこんな事になったのでしょうか。 元に戻す方法はありますでしょうか。
>>811 モデルをSDXLにしたらXLのlora表示されんじゃないの
>>811 お前は設定を変更していない元からそういうし様なだけ
つまり適応ボタンを押してないで動かし続けただけ再起動したら正しく動いた
戻す方法はないがすべてを一緒に表示できるようにするオプションは設定の中にある
>>810 XLに1.5のVAE使うとそうなる
>>811 左上のモデルでXL選んでるときはXLのLoraだけ表示される、TIも同じ
そもそも互換性ない(?)ので親切でそういう仕様になってるのかと
どっちも常に表示する設定があるのは知らなかったなぁ
> Always show all networks on the Lora page
> (otherwise, those detected as for incompatible version of Stable Diffusion will be hidden)
なんに使うんだろ
色々探し回っても解決しなかったのでこちらで質問させて頂きます。 webui ver1.8.0です 1月末ぶりに起動したら、生成速度が倍以上かかるようになってしまいました 設定は前から何もいじっておらず、webuiとグラボのアプデだけしました。 hires.fixを使っても使わなくても、画像1つの生成に2分ほどかかってしまいます。 VRAMは12GBで、以前は生成に数秒、hiresで1分程度しかかかりませんでした。 起動設定は--opt-sdp-no-mem-attentionのみです。 VRAM使用量を確認すると、アイドル時が4GBに対して、Hires.fixで1024x1536の画像生成時が4.5GBと、ほとんど使用されていません。 venvフォルダを再インストールしてみましたが、変化はありませんでした。 cudnnを最新版に手動で変えてみましたが、効果はありませんでした。 異常に遅くなったのは何が原因なのでしょうか?
>>814 XL系のベースモデルはvaeを使うと出来上がりの画像が真っ青になってしまうので
他のベースモデルと異なりvaeは無しで生成していました。
それでも畸形だらけで使い物になりません。
上アンカーミスしてたゴメン
810じゃなく809
>>816 >>576 ,588,594
の可能性
>>817 うーん文章だけでエスパー無理
t2iでは普通に出るの?
> 1024ピクセル四方で同一プロンプトと同一の元画像で
> img2imgで画像出力して出力結果を比較しています。
これはi2i「前」が1024x1024でOK?XLは最低が1024x1024推奨
>>816 拡張機能のLycorisを削除
これで改善したという報告が複数あり
>>816 Lycorisを無効化したら正常に稼働しました。
>>819 ありがとう
設定は前から何もいじっておらず、 ふむふむ webuiとグラボのアプデだけしました。 やっとるやんけ
>>813 ありがとうございます。
帰ったら試してみます。
ネコ耳とかウサ耳とかよくありますが、あの名前を呼んではいけないネズミの付け耳が出せるプロンプトはありますか?
そもそもディズニーは版権に関してはそこまでうるさくはない きちんと線引きしてセーフなら好きにしてヨシってなってる
金儲けたり名誉毀損にあたるもの以外は大丈夫なんでしょ? さんざん他所の名作自分の作品にしまくってんだからそれくらい当たり前だけどな
ディティールアップ系のLORAを足すことで生成できるジャンル(たとえば同性愛モノが理解できなくなるとか)が狭まることはありますか?
>>829 LoRAとジャンルの組み合わせによってはそういうこともあるかもしれない
でもディテールアップのLoRAによってBLや百合が出にくくなるとは思えないなあ
どういうことをやってそういう疑問にたどり着いたのかな
lora学習でマイナーキャラ作る時 白黒とカラーの教師画像があるんだけど こういう場合白黒とかは使わない方がいいですかね? カラーだけだと8枚くらいしかないんだけど 同じような画像を2重に学習するのは逆効果? クオリティ高いloraとかすごいと思う本当
>>831 白黒素材を使っても問題はないと以前聞いたことはある
SDXLならカラー素材が8枚でも大丈夫じゃないかなあ
悩む前に一度作ってみては
こればかりはほんと自分で試行錯誤していくしかないんよね
同じ設定・同じやり方・同じ生成物でも
Aさん「スゲー」
Bさん「ひでぇ!」
みたいな、言葉だけだと本当にわかり合えない絵の鑑賞の世界なんで
>>831 個人的な白黒画像多い場合のLora作成経験では
1.5はわりかし容易〜むしろ綺麗に出る、XLはあれこれ困難が多い
forgeでunpromptedからcontrolnetの操作をする方法を教えてくれ integrated版でない通常の拡張機能のcontrolnetを操作しに行って失敗してる?くさい
1.5なら白黒のみでも作れる。 さすがに色はいい加減になるが、そこにカラーが混じっていれば問題ない ただ白黒が多い場合は、ちゃんとプロンプトで指定しないと白黒が出やすい物にはなる。 きっちり指定出来ればほぼ問題ない ただし雑誌からのコピーみたいな画質だと、その画質が影響したりはする。
初心者質問ですまん よく言うSD1.5とSDXLの違いが自分の中で整理がついてないんだけど、 単純にチェックポイントがSDXLに対応しているかどうか、ということ? それに付随して、SDXLに対応してるコントロールネットのモデルやLoraのモデルがある、という理解であってる?
少し違う 対応ではなくてどの規格で作られているかの違いで互換性はない だからLoRAも基本的に互換しないしCN使うときのモデルも1.5用とXL用は別物
animatediffがエラーで使えなくなりました EinopsError: Error while processing rearrange-reduction pattern "(b f) d c -> (b d) f c". Input tensor shape: torch.Size([2, 4096, 320]). Additional info: {'f': 16}. Shape mismatch, can't divide axis of length 2 in chunks of 16 こんな感じのエラーです 1週間ほど前までは使えてました アップデートとかも試したり、1girlのみで試してもエラーがでます 何が原因かわかるでしょうか?
forgeって生成alt+enterで出来たっけ?
a1111のwebuiでctrl+enterでもalt+enterでも出来るんだけど
comfyUIに合わせてなんかいじったのかなんだったか忘れた
>>839 以前と違ってwebuiのバージョンを上げたりしてない?
>>840 webuiのバージョンはそのままで1.7です 通常のt2t、i2i等は普通に使えてます 他のソフトでffmpegもちゃんと動作してます
>>841 これかなぁ
https://github.com/continue-revolution/sd-webui-animatediff/issues/449 > continue-revolution commented Mar 6, 2024
> wow, these are so old. update everything and retry. WebUI, ControlNet, AnimateDiff
1.6で「so old」扱い
https://github.com/continue-revolution/sd-webui-animatediff/issues/454 > continue-revolution commented Mar 7, 2024
> Update your webui to 1.8.0
別に1.8にしろってのもある
あと、forgeなのに普通の入れてたりしないよね?
質問です。 複数のバージョンのStable Diffusionを使っていて、 Models、Lora、VAE、embeddingsは 全て共通のディレクトリのものを共有しています。 対して画像出力フォルダについても インストールディレクトリ下ではない 別の場所を指定して共有する事はできないでしょうか。
>>845 ありがとうございます。うっかりしてました。
ちなみに出力画像は指定ディレクトリ下に
本日の日付のフォルダが自動作成されて、その下に作成されるのですが
この日付フォルダ自動作成機能を無くして
指定ディレクトリ下に直接出力できるよう
設定変更する事は可能でしょうか。
>>840 > forgeって生成alt+enterで出来たっけ?
Forgeだとできなかった
プロンプト欄が空っぽのとき「Alt+Enter to skip」とあって、生成には使えないキーアサインになっているみたいね
>>846 設定にあるはずだけど…あった
「ディレクトリへの保存(Saving to a directry)」にある「画像をディレクトリに保存する(Save images to a subdirectory)」ね
>>848 「画像をディレクトリに保存する」じゃなくて
「画像をサブディレクトリに保存する」だった、意味が正反対だった
>>849 試してみます。
ありがとうございました。
>>842 1.8にアップデートすると解決しました
ありがとうございました
追記として、1.7で出ていた不具合はanimatediffでエラーが出る事、
そのエラーが出るとt2i、i2iでの画像生成においても同じエラーが出て再起動(webui)しないと画像生成出来なくなる事で、
エラーが出た後でもSADTALKERは使えました
loraのこと教えてくれた人達ありがとう 自作loraはどうしてものっぺりした塗りになるから 顔だけの適用の奴とかコントロールネットとかlora強度とかvae変えたりとかでイメージ変換で頑張ってます 大体みんな機能はこんな所を使ってるの? モデルも今色々試してるけど
>>847 ありがとう
> プロンプト欄が空っぽのとき「Alt+Enter to skip」とあって
ほんとだ、書いてある・・空にすることなんてないので気づかなかった
webuiは空にするとどっちもgenerateだわ
comyUIをいじってた時に、あれがalt+enterだったからそっちに頭を統一してしまって
forgeやってるとあれ?あれ?ってなっちゃって
キー変えるソフトかなんかで変えます
>>852 1.5ならlbwは極めるには必須かと
https://github.com/hako-mikan/sd-webui-lora-block-weight 丁寧に説明してるサイトもあるので使ってみて、世界が変わる
わざと過学習させて、ガビガビになった絵柄だけ除去して顔の雰囲気そのままに2.5Dっぽく綺麗にしたりできる
>>851 よかった
3/2に出たばかりの1.8必須とか、作者さんが最新に常に合わせるタイプの真面目な人なんだろうね・
つつかれるまで数か月放置する人とかいるので、いろいろだなぁ
チェックポイントとキャラLoraをプロンプトに入れ生成 チャックポイントとキャラLoraマージして生成 この2つって同じ結果になる? それともマージの方がいい結果、ポーズとか柔軟に反映されるようになったりするのかな?
めちゃくちゃ初歩的なことですみません誰か助けてください
habanerostudio.net/【stable-diffusion】lora作成ツール-kohya_ss-guiのインストール/
ってサイトを参考にkohya_ssインストしようとしてるんですが
git clone
https://github.com/bmaltais/kohya_ss.git 入力した後にsetup.batクリックしてもエラーでて進みません・・・以下エラーの内容です
D:\kohya\kohya_ss\setup\setup_windows.py:223: SyntaxWarning: invalid escape sequence '\g'
"start cmd /k .\gui.bat --inbrowser", shell=True
Traceback (most recent call last):
File "D:\kohya\kohya_ss\setup\setup_windows.py", line 7, in <module>
import setup_common
File "D:\kohya\kohya_ss\setup\setup_common.py", line 8, in <module>
import pkg_resources
ModuleNotFoundError: No module named 'pkg_resources'
(venv) D:\kohya\kohya_ss>
LayerDiffuseが1.5に来たって見たんだけど、これはA1111ではなく Forgeを導入してそこからLayerDiffuseを使用なんですかね?
痔穴しました。やっぱり4爺からだった A1111にも欲しいな
Forge使ってて起動後初回生成で躓いたり初回Lora使用時にやたら時間かかったりすることってない? nVidiaのアプデのせいなのかForgeのアプデなのか拡張が悪さしてるのか
loraがやたらデカいってことはない? XLで自作しててNetwork Rank128のalpha64で作ったら916Mとかになって笑った
>>858 自決した人はどうやって解決したかを辞世の句として残してほしい
>>860 だね、今のところforge用しか作られてないっぽい
もう基本forgeで最新機能 未対応の拡張だけA1111の流れでしょ
4090使ってるけど、forgeに変えて嬉しいことある? 使用するするメモリが少し減って、少し速くなっても特に嬉しくない… LORA作ったりしないし。
Forgeは自分みたいなノート派の味方 2048*2048はアップスケーリング通るけど格子ノイズがひどくて見るに耐えなくなる 何かがおかしいんだろうけれど設定詰めるのも面倒なので今では1024のままでオカズ作りに励んでる
>>868 作者がやる気勢なのか更新が頻繁なのをメリットと取るかどうか
現時点では一部拡張だけだが、 今後おいていかれてしまう可能性がある点だな どうなるかは拡張作者次第だろう 両対応されるようなら乗り換える必要もないかもね
4090でも大きな画像作りたいなら入れた方がいい t2iで1024x1024のhires x4とかめちゃくちゃやると勝手にtileに変えて完遂してくれて感動した > Ran out of memory when regular VAE decoding, retrying with tiled VAE decoding. とにかくOOMは絶対出さない感すごい
何かしらの最新機能が盛り込まれるペースは当分はforgeの方が早いだろうなあ
ミッドジャーニーに新しくきたキャラクターリファレンスが強力ですげえってなってるんだけど、これに匹敵するか類似のControlNetの機能ってあるかな
正直、エロ 美女 ローカル環境で調整できる 以外でSDってmidjourneyに結構差を離されてきてないか?
ローカル環境で好き勝手遊べるという点だけで個人的にはSDが永久に一人勝ちだわ
>>874 サイバーパンク桃太郎の人の苦労がついに解消されたのか
VIDEO mj昔やってたけど画面全然変わってないんだね
>>877 Midjourneyの話してくる奴は100%SDサゲがしたいだけ、というのがこの板の法則だから相手すんな
a1111でkohyaで作成したLoRA使ってる Promptに入れる時、<lora:xxxx:1>xxxxと表示される「xxxxはlora名」 自前loraだと<>の後のlora名が表示されるのは仕様? ちなみにcivitaiで拾ってきたloraでは<>の後ろは表示されない 消す方法あったら教えて 環境は再構築したての環境
>>880 正確にどのツールかわからんけどうちではそんな挙動はしてないので(kohya_ss)仕様かどうかはわかんないけど
LoRAの設定(LoRAのサムネイルの右上のハンマーアイコン)で
中ほどのActivation textにテキストが入ってるとカード選択時に自動入力される
不要なら全部削除してsaveすればいい
よく使うトリガーとかプロンプトを登録しておくと便利って機能だね
forgeで生成の前に毎回modelロードがされているみたいで パフォーマンスがあがりません。 1111はモデルを変更しないかぎり、ロードしないんですが 原因わかりますでしょうか Moving model(s) has taken 0.67 seconds Model loaded in 19.7s (unload existing model: 3.3s, load weights from disk: 0.2s, forge load real models: 14.7s, load VAE: 0.7s, calculate empty prompt: 0.8s).
>>883 情報ありがとうございます
当方も 4060 Tiなので
VRAM多めのグラボ限定の問題のようですね
>>884 俺4060 16だけどならないけどなあ?
>>881 Activation text削除でイケた
ありがと
>>882 これを見ると毎回20秒かかっているということなのか?
>>885 そうなんですね
発動条件がわからないですね
>>887 >>887 そうなんです
毎回20秒ロードがかかるので
1111のほうが早いです
Forgeは内部で自動的に良い感じにしてくれるから何も起動オプションは書かずに起動 VRAMの容量で自動的に動作が変わるから他のソフトを終了させる (Windows起動直後にやってみる) 少し前のやつだと毎回アンロードされた時があったからgit pullで最新にしてみる とりあえずこんなもんかね 4060Tiの8GBなのか16GBなのかわからないけど 16GBなら自分が使ってて問題ないよ
>>890 >少し前のやつだと毎回アンロードされた時があったからgit pullで最新にしてみる
おっと、Forgeのアップデートはupdate.batですね
1660ti VRAM 6GBだけど毎回モデルの再ロードしますね 多分低VRAM用の機能が有効になってしまってるんじゃないかと
リアル系もおkなうpろだって無い感じかな、無いなら作りたいとか思ってみたり
上の毎回unload/loadの人の調べてたんだけど、
t2iの下の方にあるNever OOM Integratedって凄いね
https://github.com/lllyasviel/stable-diffusion-webui-forge/discussions/395 M.2 SSDでもload分で4秒くらい余計にかかるけど、全然VRAM使わない
共有GPUメモリの使用すら増えない、どうなってるんだろ
COMMANDLINE_ARGSに--always-offload-from-vramと同じ動きかな?
SDXL学習しながら途中のをちょっとチェックみたいなの出来る
kohyaに入ってるsamplesは使いにくそうだし・・
そう考えたらオンにしない手はないんだけど オンにした場合のデメリットはあるんだろうか 速度低下や品質低下?
ああ書き忘れてた、loadだけじゃなく生成時間も普通に遅い 品質はほぼ同じ(xformersくらいの差)で、時間が3倍くらい掛かる感じ でも学習中みたいにメモリカツカツだとめちゃくちゃ嬉しい チェックに別PC使ったりしてたので
最新forgeにしたら毎回ロードされるようになったw
自分のRTX3060環境だと、初めて共有メモリを使うgeforceドライバに更新した時にmodelのunload/loadが発生しましたが、git pullでちゃんとreuseするようになりました。
LoRA作成時のタグについて質問です よく解説サイトではDataset Tag Editor等で抽出して「特徴を捉えているタグ」を選択して削除しろってあります。 すると残るのは例えばキャラものだったら背景や構図、ポーズのタグになるわけですよね。 で、先頭にオリジナルのタグを登録させてそれにキャラ特徴を集約させて、残ってる背景等の不要なタグはLoRA使用時にそれのタグを使わない事で不要な部分を呼び出さない役目を果たすとあります。 それとは別に 必要なキャラの髪型や体系、服装のタグだけをテキストに残して、背景タグ等を残さないパターンもあるようですが、結局どちらが良いのかいまいち分かりません。意見があったらください
結局キャラと特徴羅列すりゃ出てくる挙動は同じが 背景タグ消すのはゴミ紛れ込むからオススメしない
そこら最初考えてたけど、だんだん気にしなくなったなぁ、tagger任せで充分というか 例えば学習画像が全部服着てると、ちゃんと服のタグが入ってないと 水着にしても首の周りに襟が残り続けたりする > 「特徴を捉えているタグ」を選択して削除 三つ編みキャラで三つ編みタグ削除しちゃうと、そういうキャラって覚えられるので、ポニテにしても三つ編みついたり 背景タグ外すと、どんな場所でもその背景がついてきてしまう(そのキャラに付随したオーラみたいな扱い)
てかタグ削除って効果ある?なんかおまじないレベルの違いしか無いような気がするんだけど。 覚えて欲しい特徴を消すってのやっても、やっぱりプロンプトで指定しないとしっかり再現されない事が多い 逆に、タグを削除してなくてもLoRAの強度上げればプロンプトで指定しなくても特徴が再現されたりするし 同じデータセットや学習条件で比べたことがないから断言は出来ないけどそこまでたいした違いがない気がする
>>903 一般的に言われれてる手法では削除したタグの要素をトリガーワードに集約するって形だから
綺麗に集約された場合LoRA適用だけではその要素がほぼ出てこないけど
トリガーを使うと要素が強く出る
結局人が認識してる部分とAI側が認識して学習する部分に結構差異があるのでそんなに綺麗に分けれないみたいなところはある
キャプションをトリガーワードのみ、トリガーワードと覚えさせたいタグ削除、トリガーワード追加でタグ無削除辺りで比べると
結構違いが出ると思うけどまあ、結構なんとなくでも上手くいく事も多いし色々考えたやつほど失敗したりもあるから
自分に合う方法で納得いくならそれでいいんじゃない
>>904 なるほど、そういう仕組みなのか
知らずに書いてあるままやってたから勉強になったありがとう
残したい特徴を全部消すって聞いて衣服の特徴まで消すと絶対に脱ぎたくない強情な女の子が出来上がったりするよね 髪と目の色とおっぱいのサイズぐらい消しとけば概ね十分
Animagineからpony系モデルに移行してるのですがあのdanbooruタグをまとめてくれてるサイトみたいなpony系タグのまとめサイトはありませんか?
状況によって可変しないものを消す メガネっ娘のメガネを消すと体の一部になるぞ 目の色や髪が変わる人は少ない
最近ハマったものです
色々と生成した後に行う選別・移動・削除が面倒になってきました
↑のPhotoScapeXというアプリが割と使いやすいけど、移動のときにいちいち聞いてくるのが難点
いい感じのおススメ画像整理アプリがあったら教えてください
Windowsのエクスプローラーだと特大アイコンでもまだ小さいんすわ
俺もそういうの皆がどうしてるのか気になるわ 今ははじめて1ヶ月で毎日300枚くらい生成したフォルダが30で把握は出来てるけど このままではそのうちわけわからなくなる状態が必ずきそう
やり始めてから10万枚は余裕で生成してるけどほぼ管理してないぞw 投稿サイトにアップするために選別したのは別にしてあるけど後は全部そのまんまにしてる
ビューアですら自由回転一つ満足についてないやつ多いし サムネがかなりデカくできるタブファイラーでも導入するのが早いんかね
XnViewでサムネ短辺1000までは出来るね A1111の拡張でXnViewで読めるコメント欄にプロンプト自動で入力するのとかもあるからプロンプトで検索も出来る ファイラーだとDirectoryOpusがExiftool使って直接プロンプト検索出来るけどまぁお高い
NAI3で画像出してるんだけど 管理ってどうやるんだ? 今はリロードすると出した画像消えちゃうから前の画像から派生させるときは 毎回画像読み込んでプロンプトとか抽出してコピペしてる A1111のimage browserのように簡単に管理する方法あるんですかね?
画像管理ソフトは何度か書かれてるけど
有料でもいいならEagle
https://jp.eagle.cool/ 非公式のSD拡張入れればプロンプトで検索もできるようになる
https://github.com/bbc-mc/sdweb-eagle-pnginfo/blob/master/README.ja.md 無料ならXnView MP
https://www.xnview.com/en/ こっちも非公式のSD拡張使えばプロンプトで検索もできるようになる…らしい(未確認)
https://github.com/Takenoko3333/sd-webui-xnview-pnginfo XnView MPは初期設定だとごちゃごちゃしてるから
評価機能とか切っちゃったほうが個人的には使いやすい
XnViewで教師画像とキャプション置いてるフォルダ表示したままFastStoneImageViewerでoutputsフォルダ表示したままにしてる
dynamic promptsのchunkが生成ファイルに残らないのって何とかならないかな? ,{A|B}, ってやったら、,A,か,B,だけになるよね settingsの Save template to metadata: Write prompt template into the PNG metadata にチェック入れてもダメだった Write prompts to file: Create a new .txt file for every batch containing the prompt template as well as the generated prompts. のtxtも中見たら{}がなくて意味なかった
>>907 e621 tagでググりなされ
>>918 前に試したときは普通にプロンプトに書いたものが保存されたけどな
>>918 gridの方に残るから最初に2以上のbatchで生成しておくか
原始的にメモにコピペしておくか
かなぁ
>>918 Regional Prompter有効だとtemplateから{}無くなる
v1.8にしたらSADTALKERのタブが消えたんだけど、皆さんはどんな感じですか? extentionの中には入っていて表示されます v1.7に戻したら復活したのですが。。。 v1.8では使えないのでしょうか?
>>918 定期的に Dynamic Prompt をオフにした画像を生成して参照用に残してますね。
>>918 ソースコードを弄って素のプロンプトも画像ファイルにメタ情報として保存する
>>918 チェック入れれば残るはずだよ
自分のはメタデータにもtxtにも残ってるよ
Write prompts to file〜
はtxtというかcsvファイルだけどね
なんかみんなありがとう
>>920 が現状の自分と同じ、
>>923 がなるほどって感じだった
>>919 ,921,925はえ?って感じだけど、後で確認してみるね
forgeも1111も
>>924 自分には無理w
いけました・・あれ?ReloadUIしてなかった? PNGInfoに突っ込むと{AAA|BBB|CCC}表記 sendするとその時出たのに対応するもの(例えばAAA)になってる、これ何度出してもseedで固定だったのか ファイルには「Template:」で別に格納されてる お騒がせすんませんでした
画像整理アプリについて質問したものです いろいろと紹介してくれてありがとう 個人的にはXnView MPが良かった 無料ですばらしい 最初はClassic版を入手してしまい、ちょっと古臭いな、とか思ってたらMP版というモダンなやつあったのね 結構気に入ったので、jpgをダブルクリックしたときもXnView MPに変えたw
質問ばっかりですみません、こんどはTensorRTで質問が XLモデルが3倍早くなると聞いて挑戦してみたけどExporterを実行中にエラーが出てうまくいかない TensorRTタブが出てるので、TensorRTのインストールはうまくいったはず でTensorRT用モデルを作ろうと「Export Default Engine」を押してログを見てみると ERROR:root:Exporting to ONNX failed. Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument mat1 in method wrapper_CUDA_addmm) というエラーが出てるのがわかった この回避方法が分かる人がいたら教えてほしいです 環境はこんなかんじ Stability MatrixのSD Forge 試したモデルはebara_pony、ChacolEbaraMixXL、Animagine XL V3 Windows11、Core i9 14900K、メインメモリ64GB GeForce4070Ti Super 16GB
issue見る限り公式含めて具体的な解決策がまだないよって話では? 機械翻訳でこんなこと書いてあったし TensorRT は UI-Forge ではまったく機能しません。これに関する問題がリポジトリに存在し、NVIDIA 開発者は ここで別のバックエンドを実装するまで Forge は TRT をサポートできないと述べています。
>>929 です
レスありがとう
Forgeは未対応の可能性があったとは
てことは素直にノーマルのWebUIでやってみるべきか
個人的にはForgeの作者さんのがんばりを期待したいところ
今はLCMやLightning(やTurbo)が主流だから 宗教上の理由がなければそっち使ったほうがいいよ 同時に使用したい!ってなら自分でがんばるしかないけどw
>>931 意味不明、質問スレで何言ってるの?
ここは全知全能の神々の集合体か?
>>931 yahoo知恵袋みたいに、本当は解決策の無い問題に嘘の解答(本人自覚無し)されてそれで解決したと勘違いしてベストアンサー、みたいな地獄絵図でも見たいと申すか
生成とは別の話なんですけど 出した絵がネット上の既存の絵と類似してないか確認するサイトってどれくらいありますかね Google画像検索とSauseNaoを使ってたんですけど他にもあるのかな もろパクリみたいのはなるべく避けたいし
生成の質問スレで堂々と生成の話じゃないんですけどって言える面の皮の厚さがあるんだから類似画像なんか気にすんな
pony系で目の描写のクオリティをあげるプロンプトはありますか?
便乗だがおれも知りたい。 特に全身 full body のときに、全体は詳細な線で迫力あるのに顔がへのへのもへじみたいになるので間抜けな感じになってしまう。 画像サイズを広げると身体が破綻しだすし、今は手書きで目だけ手を入れてる
ネガティブにぐるぐる目を指定すると良いと見かけたな
stablediffusionに手を出すと座学的な時間が猛烈に増えるよな 楽しいから良いけど 他が猛烈な勢いで発展してるのと比べると いまだに手指や破綻やらに悩まなきゃいけないのはそろそろ
みなさんありがとう。 ADetailer は前にいちど試したんだけど、これは使い物にはならんと判断してしまった。 たぶん使い方がわるかったとは思うし、もう一度トライしてみます。 @_@ はなんか可愛いねw(それに対して計算機に反応があることが)
ADなしは顔歪みやすいっていうか アレあるとある程度の表情差分を簡単に作れるから重宝するんや
ショタ召喚できるモデル知ってたら教えてほしいです! モデル依存してるらしく 自作するしかないですかね
Adetailerって高解像度の時はオフのほうがいいかな 512x768くらいだと顔面をやり直しで描画してくれるから便利だけど
高解像度ってよりLoRAによっては被写体の顔が近いほどおかしくなるイメージ Hires.fixも然り
おねショタってやっぱりマージさせてるのかな?みんな Loraとかモデルあればそれで生成したいけど
ADetailerそのまま使えば失敗はほぼ無いと思うけどなぁ 肌や髪の色が少し変わって境目が目立つことがあるくらいか 初期設定から自分で変えてるのかね? 設定の「Save images before ADetailer」にチェック入れればADetailer未使用画像も保存してくれる 生成時間を気にしないなら入れっぱなしでもいいんじゃないかな 「X/Y/Z plot」でも使えるようになってるから 全モデルを使って何枚か生成してみるのもいいかもね
顔LoRAだとAdetailerのプロンプトにも入れないとソースモデルの顔に近付いてしまう感じ でも入れると濃い顔になるんだよなあ。ウェイトを下げてみるか
Adetailerの出来とか気にしたことないな・・face_yolov8n.ptで勝手に上手く出るので プロンプトも空欄のまま、detectionレベルを変えるくらい > 特に全身 full body のときに、全体は詳細な線で迫力あるのに顔がへのへのもへじみたいになる そもそもfullbodyのちっちゃい顔ってそんなもんじゃないのかな 一番いいのはmetadata付きのサンプルをmajinaiあたりに上げて皆に見てもらう 本気モードを他人に見せたくないなら適当なへのへのもへじ状態でいい そんなもんだよorもっと綺麗にできる、が確定できる
2次元でAdetailerの手の方って有効に使える?
ちょっと使ってこれはないわって思ってADの手は使わなくなった XLになって綺麗な手が少しは出やすくなったし指多いだけなのは消せば済むからとても楽
他者が作成した絵のプロンプトによく見かけるんですが、 「:d, 」というプロンプトは一体何なんですか?
Forge・RTX3060 12GB・ponyでの画像生成の速度を上げたいです。 生成中にタスクマネージャを見ると、GPUもPC本体もメモリにはまだ空きがあるのですが GPU・Cudaの値が100%なので、これ以上は無理という事なのでしょうか?
エロ漫画の参考に使いたいのですが、 キモいオタクやおっさんを上手に描ける アニメ系モデルってなにかありませんか?(汗 普段はHIMAWARIMixつかってます
>>962 はい
a1111 webuiより一般に言われてるくらい早いのならそれが全て
SDはVRAMとCUDAを集中的に使うので他の部分は結構アイドルなんだとか
使う部分はもういっぱいいっぱいってことかと
>>963 こっちがいいかな
【StableDiffusion】AIエロ画像情報交換38
https://mercury.bbspink.com/test/read.cgi/erocg/1710319910/ 今はなんか変な話題で盛り上がってて流れ的に聞き辛そうだけど、普段はそっちの話が中心
すみません質問です もし濃い青色でお願いする時はdark-blue hairとかハイフンを入れるべきですか
>>962 メインメモリやVRAMを限界まで使って高速化するみたいなことはできません
LCMとかLIghtningのように、少ないステップ数でちゃんとした画像にする手法があるのでそっちを試してしみては
>>965 基本的にハイフンの有無で結果が大きく変わることはなさそう
両方で試してみるのが一番手っ取り早いと思います
forgeで初回動かなかったり拡張が動かなかったりでChromeの方で更新すると動くようになったりするけど これはforgeのせいっていうよりなんかChromeのほうがうまく動いてない気がしてくるな… forgeはforgeでLora使った後にLora無しで動かそうとしたらまた長時間ロードしたり(一旦中断してから再度生成すると速度戻る) 全体的に今不安定なのかしら?
>>968 forgeはこのところ更新がないから、今どうとかはなさそうな気がする
LoRAと聞くと
>>588 だけどこれはlycorisは関係ないかな?
次スレ
【StableDiffusion】画像生成AI質問スレ22
http://2chb.net/r/cg/1711170980/ >>964 ,
>>966 ありがとうございます。
LCMとLIghtning、調べてみます。
Forgeならsamplerが組み込まれてるから楽よ
ここから「sdxl_lightning_8step_lora.safetensors」を保存
https://huggingface.co/ByteDance/SDXL-Lightning/tree/main プロンプトの最後にそのLoRAを入れて
Sampling methodを「Euler A SGMUniform」か「Euler SGMUniform」
Sampling stepsを「8」
CFG Scaleを「1.5〜2.0」にするだけ
CFG Scaleは0.1違うだけでもかなり変わるから
X/Y/Z plotで色々と試してみたほうがいいかもね
便乗ですまんけど、8step Lightningやってみたんだが、 8step程度では全然きれいな絵にならない EbaraやAnimagineで8step Lightningやってる人いますか? 満足いく絵が得られてる?
pony系はそもそも20ぐらいがいい塩梅のことが多くて8でもくそはええって感じじゃないし
>>975 人によってキレイの基準が違うけど例えばこんな感じ
PNG Infoも残ってるはず
「steps8」「CFG2」で4060Tiだと1枚4秒
軽めのHiresかけても13秒
もちろん、ちゃんと生成したのよりは甘くなるけどサッと作るならいいんじゃないかな
質問なんですが 単純にプロンプトを書けばいいだけなのに (((1 girl, solo, solo focus))), といった風に、括弧や二重、三重括弧でくくってある プロンプトをよく見かけます。 これはなぜ括弧でくくっているのでしょうか。
>>978 https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#attentionemphasis 括弧一つで強度1.1倍
(dog:1.3)とかでいいのをなぜ(((dog)))とかやるのかは不明
上のリンクの目玉焼きの絵の通り括弧オンリーの時代があった名残?2022/9頃かな
ちょっとあとで数値指定ができるupdateが入った記憶
webuiではctrl+↑で入れる方が早いのになんでだろね
他の意味あるんだろうか
>>977 おお、これなら十分だわ
ぜひ同じプロンプトとモデルで試したいんだけど、PNG Infoには情報が残っていませんでした
すまんけど、もう一回アップしてくれるとありがたいです
>>979 なるほど、理解しました。
ありがとうございます。
>>979 ((()))と1.3は同じじゃないぞ
1.1×1.1×1.1だからな
まあやってる人がそんな違い求めてるかは知らんけど
いやいやw (dog:1.33)って書こうかと思ったけど、そんなの普通やらんからだいたいで書いたんだよ
ワイルドカードはカッコつけて強度指定しても動かないから増やす これ以外では使ってない
>>981 あら、ホントだ
アップ直後に自分で試した時は残ってたんだけど今のは無いね
というわけで改めてアップ
https://majinai.art/ja/i/mtgnLTx プロンプトやモデルによってはすぐに崩れちゃうからCFGの調整をしつつやろう!
>>986 ありがとう、確かに実感できた
解説動画だとCFGスケールは1って言ってたけど、もっと上げてもいいんだね
あとモデルによる崩れも体験できて、すごく参考になったよ!
>>979 ((((gigantic breasts))))とあえてすることで性癖に対する勢いを表現してるというレスをどこかで見かけて笑ったわ
stable diffusionてVRM喰うからa1111やとVRAM12G以上要ると聞いてた 使うモデルとやり方次第でVRAM8Gでも余裕でイケるんだけどa1111の進化のお陰? forgeはVRAM更に喰わないみたいだけどa1111先に試したんでforgeは試してない
(((((NAIのノリで使ってるからじゃね?)))))
>>991 12GBは「使うモデルややり方次第」を工夫しなくても画像を生成できるVRAM容量
ForgeやFooocusはそれが8GBまで下がった感じ
最近sdxlのためにforgeを使い始めたんですが、sdxlモデルの読込(初回使用時やモデルを変更する際の)に10分くらいかかるんですが 2070の8gbを使用かつモデルが大きいからそのようなものでしょうか
>>995 それはさすがに時間がかかりすぎだと思う
しかしどうしてだろうね?
こういうのもLycorisの拡張機能をオフにすれば改善するのかな
気休めかもしれないけどCrystalDiskInfoでストレージの健全性をチェックしてみるとか
文章的にa1111は問題なかった?ように読めるけど forgeはVRAM節約分、a1111よりメインメモリの使用量は多いとかなんとか メインメモリが少なくなってて、HDDの仮想メモリに溢れてるとかはない?
次スレね
【StableDiffusion】画像生成AI質問スレ22
http://2chb.net/r/cg/1711170980/ -curl lud20250129120252ncaこのスレへの固定リンク: http://5chb.net/r/cg/1703243927/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ21 YouTube動画>3本 ->画像>38枚 」 を見た人も見ています:・画像質問大歓迎!このエロゲ何 Part7 ・純正HID〜社外HID☆DIY質問、語り合いスレ28 [無断転載禁止] ・医学部生のワイに質問をするスレ [無断転載禁止] ・【テンプレ必読!】Fate/Grand Order 質問スレ Lv.92【FGO】 ・【プリコネ】プリンセスコネクト! Re:Dive質問スレ Part20 ・【質問OK】泥専用ポケGO 実機位置偽装スレ Part.12 ・【Switch】Splatoon2/スプラトゥーン2 A〜B帯スレ 87【質問/雑談】 ・初心者が入院生活について質問するスレ5 ・Windows 10 質問スレッド Part73 ・Uber Eats 配達パートナー質問スレ★71 ・【miHoYo】崩壊3rd 質問スレ Act.1 [無断転載禁止] ・【Switch】Splatoon2/スプラトゥーン2 A〜B帯スレ 78【質問/雑談】 ・【海外通販】AliExpress初心者質問スレ 26 ・NAVYFIELD 初心者質問スレ Part19 ・【BlackDesert】黒い砂漠質問スレPart52 ・2chブラウザ「2chMate」質問スレ Part44 ・もの凄い勢いで誰かが質問に答えるスレ22138 ・【mobage】グランブルーファンタジー質問スレ179 ・ロストエデン Lost Eden 質問スレ Part1 ・[DIY]スレッドをたてるまでもない質問@DIY板★104 ・【期間工】質問&雑談スレッドPart118 ・もの凄い勢いで誰かが質問に答えるスレ22125 ・アフィリエイト総合 質問・雑談スレ24 [無断転載禁止] ・【初心者】ダイエット質問・相談スレPart237 ・【初心者】ダイエットの質問・相談スレPart161 ・【マイプロテイン】質問スレ【Myprotein】 Part.6 ・★★一般人用 質問スレ part81★★ ・障害厚生年金2級で月10万貰ってるニートやけど質問ある? ・スノーボードなんでも質問スレ【2019-2020】 ・■スレを立てる前にここで質問を 132■ コテOK ・【期間工】質問&雑談スレッドPart113 ・Jane Styleの質問に誰かが答えるスレ Part61 ・TRPG総合質問・雑談スレ124 ・【アズレン】アズールレーン 質問スレ Part16 ・質問・雑談スレ211@運用情報板 ・〒くだらねぇ質問はここでしろ【質問スレ】 159 ・【キンスレ】キングスレイド 質問スレ Part34 ・生活保護のCWだけど質問ある? part.350 ・星のドラゴンクエスト 質問スレ★1 ・もの凄い勢いで誰かが質問に答えるスレ22026 ・【3D彫刻】ZBrush質問・雑談スレ41【3Dペイント】 ・【PSO2】初心者の質問に全力で答えるだけのスレ48 ・【なんでもあり】介護職の雑談・相談・質問スレ114 ・糖尿病初心者質問スレ59 ・docomo 総合質問スレ★324 ・バイクの質問に全力で答えるスレ173 ・ジーンズ(質問に全力回答するスレ)【初心者】10本目 ・スレを立てるまでもない質問はこちらのスレで ★53 [無断転載禁止]©bbspink.com ・大学学部レベル質問スレ 10単位目 ・今夜限り!ID加速中がお前たちの質問に何でも答えるスレ ・スレ立てるほどでもない質問に嘘八百で答えろ51 ・【ランモバ】ラングリッサー 初心者&まったり&質問スレ Part.38 ・ヤフオク!混沌 悪い質問をアップするスレ ・新緑親切な奴が何でも質問に答えるスレ☆Part439 [無断転載禁止] ・生活保護のCWだけど質問ある? Part.93 ・ジーンズ(質問・オススメ・色落ち)総合スレ79 ・【通販・買い物】自治スレ Part2【質問・論議】 ・【アズレン】アズールレーン 質問スレ Part64 ・Fate/Grand Order どんな質問にも全力で優しく答えるスレ Lv.8 [無断転載禁止] ・紫陽花親切な奴が何でも質問に答えるスレ☆Part478 ・★★★筋トレなんでも質問スレッド525reps★★★ ・宝塚初心者質問スレッド〜Part78 ・【入門】FX初心者質問スレPart93 ・原神なんでも質問・解答スレ Part6 ・[エスパー] 超初心者の質問に答えるスレ232 ・初心者歓迎 スレ立てる前に此処で質問を 911
22:02:52 up 15 days, 23:06, 0 users, load average: 7.66, 9.64, 10.10
in 2.0180439949036 sec
@0.041576862335205@0b7 on 012912