◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ20 YouTube動画>2本 ->画像>38枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1700315721/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは
>>970 が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならどこから/何を読んでインストールしたか)や使っている学習モデルを明記する
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像や出力画像をアップロードする。出力画像はimgurではなく、catboxなどアップロード時に出力パラメータが残るサービスへ
・ローカルならマシンの構成(GPUの種類は必須、VRAM容量やメインメモリの容量、CPUの種類もなるべく)を書く
テンプレは
https://rentry.co/aiimggenqa に
※前スレ
【StableDiffusion】画像生成AI質問スレ19
http://2chb.net/r/cg/1697439745/ civitaiにとんでもない量の LoRA作っているやばいやついるけど これってLoRA製作を自動化しているのか? 翻訳しても意味わかんね 作者は「narugo1992」ね
コツを掴むと最低限の枚数でガンガン作れるのかな でもこの人の面倒なんだよね、embeddingも使わないといけない
キャラLoraって言うほど枚数必要ないから学習もすぐ終わるからね
スレ立て乙です 前スレにあったRefinerでモデルを切り替える方法かなり役立っているけど 16GBのメインメモリだとモデルを都度SSDからロードするのでその分時間かかるしSSDへの負荷も増える 32GBに増設するとメモリ上のキャッシュからロードするようになったりする? Refiner不使用だと2回目以降SSDからのロードは発生してない
>>2 の作者の実際に使ってみたけど
なんか解像度低くてボヤケているな
自動化だとクオリティ落ちるのかな
他のLoRAに比べて数段クオリティ低い
Loraでオリジナルと同じ絵にするの不可能 エロは尚更
エロはエロで別に鍛えたほうが早い キャラLoraが駄目なんじゃなくてモデル側の表現力の限界
前スレ980でopenposeについて質問したものですが、980の質問部分は自己解決しました。 ただもう一つやりたいことが出てきてしまって、 ContrlNetのControl Typeのデフォルト値をallからOpenPoseに変えたいのですが、可能でしょうか?
>>8 ランキングみたいなのがあって、それで躍起になってるみたい
https://civitai.com/leaderboard/character そいつは19位
上位かなりNG済みだけど7位のやつの昔使ってみたらやっぱり全然顔似てなかったな
数作るのが目的になって内容ともなってないと意味ないだろうに
>>12 やっぱオカズは丹精込めた手作りに限るな
作者名をクリックして異常な数作っている奴は地雷と見ていいな
lora学習するときのベースモデルはNAIでいいと言う記事を見たんですが、どのファイルのことわからず… nai.ckptで検索して出てくるやつで大丈夫ですか?
すみません、初心者なんですが、実写系の女の子の画像を作りたいと思っています。 1111を入れたところ、チェックポイントにv1-5-pruned-emaonly.safetensorsというのが入っていました。 本を読んでv2-1_768-ema-pruned.safetensorsというのを入れたのですが、 実際に画像を生成してみると、v1-5のほうは写真に近い雰囲気になるのですが、v2-1のほうは絵みたいになってしまいます。 チェックポイントのバージョンが新しければいいってものではないのですか?
>>15 その記事貼ってくれないと判断しかねる、けどNAIってことは二次元絵かな
NAIってのはNoveAIの略、最近v3が話題になってるやつね
ローカルSD界隈で使うときは1年前あたりに流出したモデルを指す
今時出回ってるwd1.5系モデルは大抵NAI流出物を元にして調整とマージ繰り返したもの(いわば盗品)
helloasuka出してあんな感じでアスカが椅子に座って足組んでるのが出るやつは全部それ
civitaiで言うと、sd1.5かつcheckpoint mergedはほぼほぼ
ぶっちゃけ最初はそこそこ有名なので好きなの選んだらいい、AOMでもAnythingでもなんでも
「モデル紹介/v1.x系」で検索してみて
テンプレには追加されそうもないけどLCM Loraすごすぎる
速い以外のメリットがあまりなくデメリットがデカすぎる
>>16 v1-5 と v2-1 は別モノです
詳細が一切分かりませんが状況から察するにベースは stablediffusion 1.5 と思われますので
2.5次元系が好み → chilled_remix
リアル清楚系が好み → yayoi_mix (V2.5)
その中間くらい → BracingEvoMix
このあたりのcheckpointを別途ダウンロードして生成されることをお勧めしめす
>>16 どんなひでー本掴まされたのかは知らんけどここを見る限りではプロンプトの影響が非常に大きいように思われる
https://michyo.net/sempetit/stable-diffusion-compare-versions/ [stable diffusion リアル系モデル] あたりで検索かけて比較してるものを見るなり
civitaiという総合サイトっぽいところでフィルタなり検索なりかけて好みのものを探すといい
webuiでchromeのハードウェアアクセラレーションを切ってみたら生成高速になった気がするんですが みなさん切られてます?
>>16 チェックポイントに2.1を使わせるということはソシムの本かな?
今の1111はインストール時に1.5を自動的にダウンロードしてくれるんだよね。ソシムの本はそうなる前のバージョンで書かれているはず
チェックポイントは新しいほどすべてがよいわけじゃなくて、バージョンごとに特徴があるという感じ
加えて各バージョンには互換性がなく、どんなプロンプトがよく効くかはバージョンごとに違う
互換性がないので、たとえば1.5用のLoRAは2.1では使えないしその逆もしかり
で、ちゃんとした絵が出ないのはたぶん出力する解像度が合っていないんじゃないかな
1.5は512×512ピクセルで生成するのが基本、2.1は768×768ピクセルで生成するのが基本だよ
>>18 LCM Lora速!と思ったがCFG2とかじゃ使い物にならんな
この欠点をクリアすれば高い生成スピードだけで言えばグラボ無くてもかなり快適にはなるな
Hires x2も1/5くらいになったし
マシンパワーが要らなくなる方向にも進化していくんだな まだしばらくはパワー食うような方向で進んでいくのかと思っていたが
LCMの描写が駄目って奴もいるみたいだが 浮いたリソースで構図生成、画質向上を分離すればいいだけだな
マシンパワーも良いがガチャ回数が 少なくで済む最新のモデルも使っていけ 最新のモデルは手がキレイなのが出やすい
LCM導入したら速くて驚いたわ RAMの節約は出来るが生成のスピードは速くはならないって奴がいたがそんな訳は無い このまま進歩して来年には馬鹿高いグラボ買わなくても済むようになるかもな
CFG1-2で、え?ってなんJ見にったら CFG1 (1girl, honyarara, henarara:1):7 とかにしたらいいってだけとか驚いた、入れてみるか
RTX3060 STEP 25 LCM STEP 7 512x768 6.4sec→2.9sec 512x768 Hires x 2 1024x1536 47.2sec→12.2sec 素晴らしいわ 年末グラボ買い替えようとしたがもういいわ 面倒なんでcheckpointとマージした
SDXLも速いな CFG7にしても崩れないように出来たし革命やんけこれ
SDXLならLCMも良い絵出せるの? 1.5とanimatediffではしょぼいから使う気にならんけど
LCM試したけどアニメ〜2.5D絵は質がどうやっても微妙に落ちる、ボヤっとするというか 速度ってSTEP数大正義だから、品質をある程度保ちながらSTEP数をやや強引に減らすことで早くしてる この「ある程度の差」に苦心してるのであって、自分の出したいものには合わなかった 人それぞれ色んな用途はあると思うが
1年後には当たり前になってるものなんだろうなとは思う
>>38 LCM LoRAのしくみ解説や論文は出ていたかなあ。でも読んでも数式だらけで何が何だかになりそう
>>38 画像に少しずつノイズを加えていく過程を逆教育して完全なノイズから画像を出しているが、
ひとつ前のノイズ画像と関連付けて教育してたのが、元画像と関連付けて教育しても生成できると分かった。
SDでCTRL + ENTERで生成のショートカットキーはあるけど、生成中断のショートカットキーって存在する?
>>41 てっきり手抜き処理で誤魔化せていると思ったが
アルゴリズムを完全に変えたから速くなったのか
これなら安心だな
>>40 SD1.5で使うにはまだ早そうだな
もうちょっと様子見しておくか
画像生成終わったときに生成した画像全部をくっつける処理って止めさせることできませんか?
>>36 そりゃCFG1とかで使ってんだろ
そうなるわ
もっと勉強したらいい
8とかでも崩れない方法は出てる
>>44 Settings(設定)タブ
→Saving images/grids(画像/グリッド画像の保存)
→Always save all generated image grids(グリッド画像を常に保存する)をオフにする
あとはやっぱベースモデルの精度だな SDXLの次世代はよこんかな
画像拡大はCN+Tile使えば元絵からも 変わらんしVRAM消費最小限 ほんと便利になってきたな
最近のモデルは手だけじゃなく顔とか 全部が綺麗だしガチャ回数減るから 昔ほどマシンパワーはいらんな でもcivitaiのランキングはあてにならんな AIイラスト投稿サイトとかでモデルのステマしている 聞いたこと無いモデルの方が当たりが多いな イラスト投稿サイト覗くといいぞ プロンプトもLoRAも参考になるし
CFG1で代わりにプロンプトガッツリ強化? でも1でも不思議とプロンプト通りに生成されね?
>>36 ネガティブプロンプト盛り盛りにしている人はLCMを使うとかなり劣化する
CFG2以下向けというのは、どうしても複雑なプロンプトの解釈が弱くなるので
単純なプロンプトでモデルのおすすめ画像を出す用途なら強い
あとLCM-LoRAはDPM++2M系のサンプラーで最適化したモデルとは相性が悪いような気がする
LCM使わなくてもネガティブプロンプトは最小限が良いぞ EasyNegativeとかBadHandも入れない方が良い 最近のモデルだとそんなの入れなくても綺麗にできる 入れるのはこれだけで良い worst quality,low quality,normal quality,low res,normal res,out of focus,blurry
>>52 >>30 これ意味無いよ
本当にやってみたの?
単純に:7とか破綻するだけだよ
CFGと関係無いし
Animatediffも1/3の時間短縮になったわ どんどん改良して欲しい
ControlNetのInpaintを使って、髪型を変えようとしているのですが、塗りつぶしの部分が顔にまで掛かると、 元の絵が斜めを向いた顔であっても、正面を向かせるように目などの位置がずれてしまいます。 顔の向きはそのままに、髪型だけ変えるやり方があれば教えてください。
安いグラボでもかなり速くなっちゃったから気に入らん奴がいますねw
loraってテキストいじくるのじゃなくてtraintoolってのじゃあかんの?
LCM 低GPU持ち「すげぇ!遜色ねー(ということにしたい)」 高GPU持ち「たいしたことねーな(追いつかれてくやしい)」
いや高価なグラボ持っているやつでも 効率上がって良いことだろ誰も損してねえよ
右 STEP30 CFG6.5
左 LCM STEP7 CFG6.5
Hiresで変わる位の差だな
やり方はNAIのdiscordにも書いてある
animatediffで動画作れてる?16枚の画像が出てくるだけで全然動画にならないんだよね
そりゃ安GPU持ちの方が歓喜するだろ 3060でHires2で4080と4070tiの中間位のスピードになったし
>>68 なってるよ
160フレでもちゃんと出来る
>>68 animatediff欄の中の「mp4」とかのチェック入れてる?入れないと大量のpngとかが出てくるだけだよ
とんでもないのが来ましたなぁ この先更新で向上するだろうし 3060が値上がりしそうだな
ビーチの岩陰とか海の洞窟とかでも真上からめっちゃ明るく日の明かりが当たってしまう 日陰が上手く出るプロンプトとかloraってありますかね deep shadowとかin the shadeではだめだった
>>74 これを試してみてはいかが?
ControlNetを使ってめちゃくちゃダークな絵を描いてもらおう!|御月望未(みつきのぞみ)
https://note.com/mitsukinozomi/n/nc002a1f0f77b 黒一色でなくても、暗くしたい場所を黒く塗った画像をCNに流し込んでもいけるはず
4090のコスパがメチャ悪くなってしまった この技ではVRAMが増える訳でも無いから動画の解決にならんし
>>75 なるほどどうも
てか全体的に明るくしがちなん仕組みなんすね
生成AI高速化技術を目の敵にしてるのって 高いグラボが売れないと困るアフィおじだと思うようにしてる。
>>74 逆光調整するLoRAがあって
それをマイナスでかけるといい感じに暗いシチュ作れる
今までゲームやマイニングには興味がなかったし、パソコンなんか動けばいいやとしか考えてなかったから、グラフィックカードには全く興味がなかったが、このスレ見てたら欲しくなった。 (VRAMじゃなくてただの)メモリ8ギガを積んだだけのノートPCではStable Diffusionは無理ですか?
>>73 その下の人最後まで読んでみ
あとURLのh抜きとか今時いらんて・・
よく分からんのだけどLCM-LoRA入れて今までどおりのstep数にすると今までの高step数な画像になると考えていいの? それとも低stepで同等な生成ができるだけと考えたほうが良い?
>>80 GPUがなくCPUのみのパソコンでもStable Diffusionは動くことは動くはず
けど、1枚出力するのに10分以上かかったりするのでは
動いたら教えてね
版権物学習しまくってるNAIが著作権どうこうとか言う権利あんのか?
>>80 今から始めるならもうローカル買うのは遅い(コスパ悪い)
NovelAIとかwebで楽しんだ方がいいよ
>>84 うわああ…… そんなにひどいのか。
とりあえずノートパソコンはやめにして、デスクトップをベースに考えます。
ありがとう。
1.602でLCM1.5のやつ使ってやってみたけどCFG1.5から3でステップ2~8でって書いてあるからやったらボケボケの絵にしかならない 1.5なら正常になるのかな?
SD1.5でも1111は今の仕様が変わらないのならだめだな FooocusかComfyUIに移行かね
>>87 この「遅い」というのが、半導体不足と円安発生以前ならという意味であれば、その頃は画像生成 AI には興味が向かなかったから、タイムマシンでもない限りおそらく無理でしょう。タイミングが悪すぎた。
今はシコシコとBing Image Creatorでガチャを回しているけど、犬ばかりが出てついに「これ以上プロンプトを送信することはできません」とロックアウトされるようになりました。
で、ローカルの環境作って犬とはおさらばしたいという思いが強くなって件の質問になりました。
>>86 情報ありがとうございます。その画像生成 AI は初めて知りました。リアル画像もできるようなのでちょっと調べてみます。
>>89 lora入ってる?<lora:pytorch_lora_weights:1>
入れないとまさにボケボケになるけど
SD1.5で試してみたけど2070のクソ環境でも確かに相当早くなった サンプラーなんでもいいってワケにいかないところが弱点か
>>80 cpu次第と、さすがにメモリはもうちょいあったほうがいいかも。
うちは11世代i5の上で立てた仮想サーバーで動かしてるけど、ディフォルト設定で一枚4分くらい
笑える程速くなった アドバイス見て色々調節したら殆ど気にならん絵になったわ 高いの買う必要無くなったな
ボケてるとかなんとか文句言ってる奴は どうせ無駄なプロンプト山盛りにしてんだろ 削ればまともなの出るよ
huggingfaceでチェックポイント落としてます チェックポイントにも容量が小さいのと大きいのがあって差がわからんけど、とりあえず大きい方を落としておけばいいんかな?
借金して高価なグラボを買ってしまった人もいると思うが、安価なグラボに負けるわけではないんだから元気出してほしいね
>>97 fp32とかfp16、prunedみたいなやつか
画像を生成するだけの用途なら、2GBくらいの一番小さいのでも大丈夫
借金するほど高価なもんでもないだろう 4090でも30万いかんわけで 流石にA100とかまで行くとちょっとしたクルマ並みにはなってくるから借金は分からんでもないが
よっしゃあ Supermergerと諸々調整でCFG6にしても崩れん ほぼ変わらなくなった 後はflatで完璧
LCM結局ちゃんと恩恵受けられるのはリアル系だけか 元々リアルタイム動画変換用だっけ
>>57 LCMサンプラー以外のHires時に使用すれば大丈夫よ
>>102 2次でも使えるわ
馬鹿には無理だろうけど
最近入門しました これで絵師に無双しようと思ってたんだけど、めちゃくちゃむずくないか Stabillity Matrixと言うのを入れて、Modelというのを適当にインストールした 適当に画像を生成できるようになったけど、何が起こっているのか全くわからない 画質を良くするにはどうしたらいいですか?
画質とは何を指しますか? ボケてる、色が変、ウロコみたいになる→step,cfgを調整,サンプラーを換える 絵柄がいまいち→modelを換える。civitaiで探す 構図が変→プロンプトを工夫する、loraをcivitaiで探す、controlnetを入れる ↑に出てきた単語+SatbleDiffusionでググるといろいろ参考ページ出てくると思う
>>106 Stabillity MatrixってUIの管理ソフトみたいなやつだと思うんですけど、実際に使ってるUIって何ですか?
AUTOMATIC1111なら自分と同じだから多少力になれるかもしれない。因みにそれ以外は使った事無いので力にはなれないかも。
>>107 ありがとう
普通に画像のサイズを大きくしたら、画質は良くなった
しかし、生成される画像の癖みたいなものまで変わってしまった
そういうものなのかな
とにかく、変数が多すぎてわけわからん
いくつか参考ページ見てるんですが、何がどうなって変化しているのか?
その説明がないので、それが全くわからん!
>>108 初期設定から触ってないのでAUTOMATIC1111だと思います
Modelを選んで、WidthとHightで画像を大きくしたら画質は良くなりました
あとHires.fixというのを有効にしたら、画質が良くなった気がする
まず、アニメキャラでも再現してみようと思ったけど
そういうの不可能ですよね?
RTX 4090 と RTX 4080はマイニングしても利益が出るし 容量が多いのでいろいろ活用できる 例え lcm でスピードが速くなったとしてもだ
>>110 確かStabillity Matrixでcivitaiのブラウジング出来ましたよね。そこで多くのloraやmodel(checkpoint)などがアップロードされているのでお好みのものを探してみて下さい。
アニメキャラの再現はloraが作られていればそれを使うのが一番簡単かと思います。余程ニッチなmodelを使っていなければ大体のloraは使えるかと。
画質というか品質に関してはEasyNegativeやBad artist Negative embeddingを使えばある程度整った絵を簡単に出力出来るのでおすすめです。
fast_stable_diffusion_AUTOMATIC1111.ipynbで models>Loraに"pytorch_lora_weights.safetensors"を放り込んだのにファイルがないと言われるのですが何か原因わかる方いらっしゃいますでしょうか。 リフレッシュしたり、再起動したりしても同じです。 起動するときに、Tag Autocomplete: Could not locate model-keyword extension, Lora trigger word completion will be limited to those added through the extra networks menu. というメッセージが初めにでてきてLoraが含まれていますが関係しているかはわかりません。
簡単プロンプトアニメを使おうとしてるんだけど、 インストールはできてるっぽいんだが、いざ動画生成しようとすると、 tempフォルダと、その中にjsonファイルができるだけで、まったく生成が始まらんのです。 どなたか原因に心当たりないですか?
>>114 簡単プロンプトアニメは作者さんがなんJNVA部にいるから、そっちで聞いてみては
なんJNVA部★290
http://2chb.net/r/liveuranus/1700583648/ >>113 ファイルのダウンロードがうまくいっていないのかも
再ダウンロードしてみては
pytorch_lora_weights.safetensorsが使えているこちらではファイルサイズが131,467KBだけどそちらはどう?
>>109 基本の基本から勉強するなら本がよさそう
ソシムから出ている「Stable Diffusion AI画像生成ガイドブック」あたりを読んでみては
実写系画像で、病院のベッドに少女が寝ていて、周りを複数の女性看護師が取り囲んでいる画像を作りたいのですが、yayoi_mixでは作れませんか? どうしても1人の女性のアップしか出てきてくれません。 でもできれば少女も看護師も全員美女にしたいんです。
>>110 モデルのダウンロードページに変数設定のサンプル載ってたりするからその通りに設定してみるところから始めるのもよいぞ
動画体験しようと思ったけど背景が常にゴワゴワしてるのはデフォみたいでまだ途上やな
TensorRTはゴミだったけどLCMはすげーな サンプラーどれでも出来るようになったしまだ弄れそうだわ
>>118 どんなプロンプトでどういう絵が出ているのかわからないとなんとも言えない
LCMのアニメ絵
ベタっとした塗りは行けるけど、精密なのは再現無理だな
https://civitai.com/images/175093 こういう感じの
>>124 そのまま使ってんなら無理だろ
影響無くしたりCFG上げられるようにしないと
>>125 上のAOMの絵でやってみて
モデルもプロンプトもある
LCMの最強設定は決まったの? どうすりゃ良いのさ
こんな書き込みが多いのは典型的なアニメ絵とは違う別物だと思うんだよな…… アニメ絵って日本画のような省略の美しさだと思うんだよ
LCM-Loraは弱めにかければプロンプトまんまでも近い描写までいけるが速度的な利点は薄い サンプラーかましてCFG1とかだと一からやり直しになるからかなりピーキーすぎる LCM生成前提の基本モデルが出てからが本番だな
ブルペンはLCMモデル出てるな ちょっと輪郭がボケやすいけど、まあいい感じ
>>126 PNGinfoで送って作ったがLCM使っても使わなくても同じようなのは出ないな
お前は普通にやって出るの?
出るならプロンプト維持した画像上げてみて
それでやってみるわ
>>131 それなぜか全く同じのは出ないよ、さすがにそこは大体でいい
>>132 大体と言われてもこんな絵柄作った事ないし
お前が作ったのプロンプト維持して上げてみてくれ
試したんだろ?
使いたいモデルに調整してマージすりゃいいのに アンポンタン共め
LMCすげーってあげてる人も、ポン出しなのか怪しいしな 設定教えてくれねえし リアルタイム系は良いけどさ
>>133 出せつってもそのままなんだけど、まぁいいや
https://majinai.art/i/hx7mVCM PNG画像に情報入ってる
モデルはAOM3A3、orangemix.vae
絵はなぜか変わるが絵の精密さはまぁこんなもんだろう
プロンプト資産を使い回せるなら3Dレンダラーのプレビューみたいに使えそうだけど CFGの縛りがあるからな、惜しい
>>137 プロンプトさっきのと同じじゃん
山の絵が出るぞ
お前が作ったの上げろよ
>>136 モデルに相性があるのかもしれないんよね
みんな具体的なモデルもプロンプトも書かず、いけましたドン!で検証できないという
自分はちょうどこの人みたいな感じ
https://twitter.com/elf_AIillust/status/1727029499324416110 で、この人は遜色ないって言ってるw
自分的には右はちょっとないな・・・ここらの個人差もあるんだろうな
>>139 いやだからそれだってw
君なんか間違ってんじゃない?
https://twitter.com/thejimwatkins >>140 その人が画像上げてLCMでも遜色無いって言ってるけど
何がしたいの?
>>139 ほい
https://majinai.art/i/ggac9yr プロンプトトップに「to t4GUd29o」っていれといたよ
>>140 俺の目にはとても遜色があるように見えるわ
hires前ぐらいボヤっとしてんじゃんな
クオリティ落とすなら速くなるの当たり前だから、
同じクオリティで1割でも速くならそれで良いんだけどな
モデルの相性は確かに凄いね
>>145 じゃあお前の力作見せてみろよ
嫉妬おじさん
Xでも5chでもそうだけど、自慢げにアップする奴がほぼ確実に 情報不足なのイラッと来てしまう 設定が全部あったとしてもチェリーピックの結果かもしれないし 逆に集合知として邪魔なレベル
>>148 比較前と遜色無い力作を見せてくれよ
見せられないならただの使いこなせてないおじさんの嫉妬よ?
>>150 本当に頭悪すぎないか?
俺はLCM褒めてる奴の自慢の設定を聞いてるだけ
いつ俺のほうが上手いんだ!みたいに言ったんだよガイジ
>>152 俺の目にはとても遜色があるように見えるわ
これなに?
責任持って遜色無い力作を見せろよ
結局LCMはクオリティは気にしないアプ助もあんましない人と リアルタイム生成民が褒めてるだけで結論か
教えて君が騒いでるだけか そう思うなら思えばいいよ 別にLCMの作者じゃないし 今まで通りのやり方でやればいい
>>153 お前が激安ゴミモニタか、激安スマホ使ってんだろうなw
>>140 の人も言うように、まともな人間にはボケボケにしか見えんよ
>>145 > hires前ぐらいボヤっとしてんじゃんな
やっぱそうだよね
で、たががcfgやら0.3やらSTEPやらいじるだけのしょーもない設定をお前ができてないとか言い出す輩がいるので
上の
https://majinai.art/i/ggac9yr でLCMでどう出るか実験してねって話、個人の感じ方の違いを排除したい
>>144 綺麗に出てるなら山とテントでいいよ
それをLCMでどこまで再現できるか、自分は無理でした
いけるならいけた画像の情報付きPNG出して、設定まで是非教えてくれ!
>>156 だからそこまで拘ってるならボケてない力作見せろよ
嫉妬おじさん
なんか奇しくも同じ話題で会話してる奴がいるから分かりづらいなw LCMはやっぱ低クオリティですよ画像においてはね そうでないなら質問スレだから教えて欲しいんだけどな
Hiresと変わらんくらいならいいじゃん アホが貶しながら教えて!教えて!と喚く図はどうでもええわ
左の絵ケバくない? まあ個人の好みの問題だとは思うけども
何でそんなギスギスする必要があるのかサッパリわからんがホレ
https://majinai.art/i/wW0enVG 変更したパラメータは以下
サンプリング方法(Sampling method)→LCM
サンプリングステップ数(Sampling steps)→7
高解像度でのステップ数(Hires steps)→0
CFGスケール→2.5
3060/12GBで37秒
もともとのパラメータだと1分33秒
早い代わりに同じような品質にはならんよね
>>128 詳細な絵を動かすと映像がすげーざわついてノイズになりそう
>>134 にやり方書いてんじゃん
CFGも7とかに出来るぞ
ID:tl02XMetみたいな嫉妬馬鹿おじさんには無理だろw
>>163 が実にまともな納得の行く回答ですよ
結局は、フルHDも無さそうなモニタ使っててクオリティの見分けがつかない民が
ここでも茶々入れてくるってことか
俺の5kモニタでは、LCMは大分うんちに近いよ
CFG2とかで同じクオリティが出る訳無いだろ プロンプトの効果落ちるのに
>>160 結局、普段出してる画像の絵の質の差だと思う
>>163 さすがにもうちょっとよくならない?
https://majinai.art/i/n3KaquC これで時間は42%短縮されて確かにスゲーなんだけど、絵は・・顔より風景や物の質感
あとこれは別Loraなしだからいいけど、
ほかにLoraあると時間が追加でかかってたいして短縮されず、結局質だけ落ちることになる
discoとかで調べろよ クレクレだけじゃ永遠に無理だぞ
Novel AIのV3で背景にムキムキマッチョが高確率で出てくるんだけど消す方法ないですかね? ネガティブにはboy male manなどを入れていて 指定の中には男に関する単語は一切入っておらずメインは3girls_girl solo focusであとは背景にleafとsunsetなど 髪の色目の色格好特徴 これで高確率で後ろに2〜3人のスキンヘッドのムキムキ男が出てくる ちなみにプロンプトにはman boy maleなどは含まないし付属もしてない bodyをboyと打ち間違っているなどもなかった
>>170 LCM使ってないのバレバレだな
Loraで時間は長くはならん
使えてもない猿か
円安で最近高いグラボ買った奴が憤慨してて(´^д^`)ワロタ
>>112 あれってcivitaiのやつ検索してたんですね
loraっていうのがよくわからないんですよね
使っても同じキャラが出力されない
なので、Modelから自力で作成するしかないと思ってるのが今の段階です
EasyNegative調べてみる、ありがとう
質問スレで回答もせずIDコロコロ煽る貧乏人は消えて
まともな回答者
>>163 だけじゃん
>>117 それ買ってみる!
これ読めば納得して生成できるかな
>>176 やっぱりか
落ち込むのは分かるけど人に迷惑かけちゃいかんよ
お前も勉強したらいいんだよ
>>178 んでお前のご自慢のLCM設定は?
クオリティ酷いという俺の質問に大して答えられない初心者はどっちかな?
>>140 の画像みたいな酷いのは無しな
>>179 使いこなせてるお前の設定を早く教えろよ
俺以外にも聞いてる人居るんだから
>>180 パラメーターだけでなんとかなると思ってるその脳を鍛え直そうぜ
>>172 プロンプトの入ったサンプル画像がないとわからないのでどこかに上げてもらえると
172の追記でguy gentlemanやmuscleなどもない ただshiny skinやhead tiltなどもあるのでそれがskin headと解釈されている可能性? だけど今までそんなことなかったし、もしかしたらって部分は買えたり消したりしてるけどやっぱ出てくるムキムキマッチョ背景とか気持ち悪い
>>182 いつパラメーターだけ教えろと言ったの?
モデルや使用ツールを全部書けば再現出来るが
頭悪すぎない?使ったことないんでしょ?w
>>186 設定と書いてるじゃない
興奮すんなよ
モデルは好きなの選べよ
この設定だと全く遜色ないけど馬鹿なの?って俺に一回書くだけで
俺はごめんなさい出来るのに
いや結局
>>167 が真実だなと良く分かったわ
>>187 設定とパラメーターの違いが分からないとか本当に知恵遅れかよw
パラメーターはいつ設定になったのw
とくに誰もちゃんと再現してつっこんでこないので確認できて満足 結局は個人の絵を見る感じ方(あと作ってる絵の品質)の差なんだな 上のXの遜色ないとか言ってる人とか典型だけど
>>189 おいおい無理があるぞ
じゃ何の設定か言ってみな
煽りあっていないでちょっとおっぱいを見て落ち着きなさい
ブルペンのLCMモデル使ったけど、やっぱ塗りがメタっとなるなあ
https://imgur.com/a/81FbprX コスパ最悪になった1人が教えてくれと暴れてるだけだけどな
急に単発IDが消えた・・つまりIDコロコロ君が珍しく足を止めて殴り合ってる!(驚愕)
>>177 一応言うとその本の発売日は今年の4月なので、最近聞きかじったような便利な新技術みたいなのは多分説明されてない。
あと遊びで触るならyoutubeとwikiと個人ブログ見るだけで良い。偶に困ったら掲示板も。
この段階の質問なら多分掲示板で一々聞くよりネットサーフィンしてる方が効率良い。
初期の頃お世話になったの共有するから、購入前に見るだけ見て十分そうなら買わなくていい。
https://yuuyuublog.org/category/freesoft/stablediffusion/page/7/ https://www.youtube.com/playlist?list=PL637YA2z_o0CgTm1fMiJHPgcaszW1VykW >>177 4月発売で正直古いところがあるしControlNetやLoRAの解説もないので、古本を買うか図書館で借りるくらいでいいと思うけど、基本的な情報が1冊の本にまとまっているのはやっぱり便利だよ
>>195 LCMで作ってみたよ
感想どうぞ
>>198 LCM独特の塗りが良くないな
LCMはのっぺりし過ぎてる
>>170 > さすがにもうちょっとよくならない?
>
https://majinai.art/i/n3KaquC > これで時間は42%短縮されて確かにスゲーなんだけど、絵は・・顔より風景や物の質感
LCM LoRAでもそこまではいけるんだ。おかしいなとよく見たら自分のは<lora:pytorch_lora_weights>を使っていて上の画像は<lora:LCM_LoRA_Weights_SD15>だった
ハハーンこれかと思ってLCM_LoRA_Weights_SD15.safetensorsをpytorch~と同じフォルダに入れたのに、1111がLCM_LoRA_Weightsのほうだけ認識してくれないんですよね
サイズは131.467MBあってダウンロードに失敗しているわけではなさそう
これどうして? そしてどうすれば認識されるの??
>>198 そこまで出来りゃ上等じゃない
LCM無しでもそれ以上のアップ出来る奴ここにはいなさそうだしw
速度も大事だが、すこしでも品質が落ちるような技術は厳しいわ。 画像生成でなにが一番しんどいって当たり画像の選別の手間だし
>>204 じゃあ
>>198 以上の品質の絵を作って見せてよ
>>198 品質いいと思えないが
LCMだとステップ数のデメリットが出てどうしても劣化してるね
細かい部分にそれが見られる
>>198 スカートと肌にノイズ乗ってないか?
目も荒いし
LCMの絵はTwitterでもどれもこんな感じ
>>205 高品質の一枚作るだけならLCMでも出来る
ただ、自分が使った限りだど画像全体の品質(当たり画像の確率)は下がっているように感じた
>>201 の続き
>>170 はサンプリング方法がLCMではなくてDPM++ SDE Karrasなのね。だからLCMよりは時間がかかっているのか
で、LoRAがLoRAタブに出てこないのは相変わらずだけど、プロンプトに書けば処理はしてくれるようでした
やっぱりLCMはボケボケやな 喜んでる奴の頭もボケボケや
高速化がプロンプト開拓の要だよ、毎ターン5分もかかってたら流石にやる気を無くす その点LCMは汎用性あって伸び代も最強でまだ使える部類 構図改善、品質改善のアダプターを増設した次世代設計の基本モデル開発が待たれる
大量生産して当たり画像選別する時間を十分に取れるスタイルならLCMはマッチするとは思う 大量生産した中から当たり画像だけ引っ張り出してくれるAI出ないかなぁ…
>>198 サイズ大きいのにボヤけてね?
ツイのもボヤけてるんだよな
感想ありがとうございました これAIイラスト投稿サイトで拾った画像です LCMはこんな感じですか 何出そうが貶すのがよく分かりました ありがとうございました
ぼやけるというかオイルペインティングみたいな陰影付けになるから、全体としてキリッとした感じがなくなるんよね
>>216 やめたれやw
今頃顔真っ赤になっとるで
借金してグラボ買った奴に追い討ちかけんなよ もうなんも言えねーじゃん
一応ランキングトップ10入りを貼ったんですけどね ここの人達は厳しい目を持ってらっしゃる
デジカメ板時代を思い出すわ… 写真コンテストに入賞した写真を出されてめちゃくちゃに貶すねらーたち…
>>116 ありがとうございます。
@HuggingからDL→AColabにアプロードで作業しています。
なぜかファイルサイズはそれぞれで異なります。DLを何度かし直しましたが同じ結果でした…。
Hugging Faceで確認したサイズ
SDXL用 pytorch_lora_weights.safetensors 394MB
SD1.5用 pytorch_lora_weights.safetensors 135MB
DL後にWindows上で確認したサイズ
SDXL用 pytorch_lora_weights.safetensors 384,624KB
SD1.5用 pytorch_lora_weights.safetensors 131,468KB
Google Colab上にアップロードして確認したサイズ
SDXL用 pytorch_lora_weights.safetensors 375,6MB
SD1.5用 pytorch_lora_weights.safetensors 128,4MB
SDXL用は以下からDLしています。
https://huggingface.co/latent-consistency/lcm-lora-sdxl/tree/main 以下のSD1.5用も試してみましたが、認識されませんでした…。
https://huggingface.co/latent-consistency/lcm-lora-sdv1-5 >>157 似たモデルが手元に合ったので張り張り
8Stepで20Step並みのものを毎回出すのは厳しいね、プロンプト値がダブっているけど157の内容で後は少し設定を変更
https://majinai.art/i/mYD5hid >>214 プロのカメラマンも何百枚も撮って
その中から傑作を選ぶしそれと似ているな
普段あまりこういうタイプの絵は出力しないから新鮮だわ
ID:tl02XMetのキチガイもその他も大人しくなったな
計算量を減らしたんだから、その分リターンは減る。 大事なのは、それが目的の水準に達するかどうかだ。 優劣をいうなら、AI作成じゃなく自分で描けばガチャの必要もなく完全に要求水準を満たせるわけで。
実写系でLCM試してるけど、画質がぼやけ気味になるのと指先が乱れることが増えたので、サンプラーとステップ回数は色々と試してみる必要がありそう。
水準も何もみんな見分けもついてないんだから これは違うとか選別出来る目があってこそ水準になる訳で 混ぜたら分からんような奴が画質どうこう言っても
IDコロコロ汚言症くん、2レス混ぜるようになってて笑った
低スペグラボが化けるようになったのが気に入らん奴が叩いてるんだろ
ランキング入りの絵がLCM絵に見えるんだから結果良かったんじゃないですかね
焦らず少しずつ覚えりゃいいんだよ インストールして環境作って適当なプロンプト入れただけじゃ酷い画質のものが出て当たり前 そこから定番プロンプト覚え、EazyNegativeとかお手軽画質補正、ハイレゾ化で画質いいのが作れるようになり モデルやVAEたくさん試して好みの画質探し rifinerでブレンドしたり、ADやi2iの後補正覚えたり プロンプトの限界を感じてLoRAに手を出し、LBWで階層ごとの効き具合調整覚えて とかやってたらあっという間に日が過ぎてたわ
ずっとエニーシングで8400000みたいなのなんだがオススメ教えてくれよ…
>>196 もう買っちゃった
絵師様と対等に戦えるレベルになりたいから勉強する
ありがとう、そこも参考にする!
>>197 ある程度理解して追いついたら
ControlNetとLoRAの勉強もしてみる
ちょっと今は覚えることが多すぎるわ・・・
>>235 ここで何度も何度もダイマしているがこの作者たちの
モデルの最新版使っておけば間違いないよ
https://civitai.com/user/min__san/models https://civitai.com/user/RSTR/models ピンク板の住人は情強のイメージあったけど
未だにAOM使っている人いて驚いた
散々お世話になったらか言い辛いけど
古いモデルは効率悪いからあんまりお勧めしない
つうかモデル多すぎて何が良いかわからないんだよね
CIVITAIのランキングとか機能していないし
他の人もお勧めのモデルあったら教えてくれ
アニメ系で頼む
LCM-LoRA のインストール方法と使い方 とか YouTube で調べたら出てくるよ そういうところに設定するべきステップ数とか CFD 数とか書いてある
LCM-LoRA は基本的には画質が落ちるよ 設定値を自分で探してやるというだけで 高性能グラボは無駄にならない
LCMが話題なのでwebuiに入れてみようとしたけどLCMタグが出てこないw diffusersのアップデートしても変わらず……
ここの馬鹿って情報出てるのにまだ設定値とか言ってんのか 重さとSTEPとCFGだけでなんとかなると思うのが情弱過ぎる
今は罵倒しながら回答を張る時代ではなくなったか…さみしいのぉ
>>92 言われたの入れたらたしかに速い
1024☓1536の4枚生成が28秒で終わった使わない場合は2分の環境
見るに耐えない絵ではなくなったが
質はかなり落ちる。肌のつや輪郭、下着の刺繍が明らかに違う
将来に期待。
おい、誰かアニメ系でお勧めモデル教えろよ マジナイでスコップしているがすげー時間かかる
何故かIDがコロコロ変わる 5chが悪いのかプロバイダが悪いのか
>>222 ファイルサイズは数え方の違いでずれたりするので、気にする必要はないと思います
で実は自分も
>>201 のようになっていまして、LCM_LoRA_Weights_SD15の方がLoRAタブに表示されずにいます
(pytorch_lora_weightsは表示される)
で、こちらではLoRAタブに表示されなくてもプロンプトに書いてしまえばあるものとして処理されています(
>>210 に書いた通り)
なのでそちらも、LoRAタブに表示されるかどうかに関係なくプロンプトに<lora:pytorch_lora_weights:0.3>とか書いてみてはいかがでしょうか
Stable Video Diffusionの話はこのスレで良いのか
ちょっと前にwebuiを1割くらい速度アップみたいなグラフ出してる紹介サイトがあったんだけどURL失念してしまった 誰か知らない?LCMでもTensdorRTでもない チラ見しただけだけど、xformers関連を手動でなんかやってたような・・まさかだだのverupではないと思うけど
>>254 多分FlashAttention-2じゃないですかね
>>256 ありがとう!助かった
何入れても出てこなくて、どうしようかと
誰もお勧めモデル宣伝してくれないからまじないからスコップしてきてわ
勝手に宣伝するから気に入ったのあれば落としに行ってくれ
cuteyukimixAdorable_specialchapter
https://civitai.com/user/newlifezfztty761/models?sort=Newest gostlyCute_v10
https://civitai.com/user/GeneralGost kawainumix_
tenganmix_v20
https://civitai.com/user/Qnuk cutiePuniMIX_v10
mottoPunimix20_v10
https://civitai.com/user/PUNIMANR/models?sort=Newest mixProFp16NoEmaNoVaeClipFix_v45ClipFix
color33Fp16NoEmaNoVae_v1
cdbcmmBf16Fp16NoEmaNoVae_v1
https://civitai.com/user/LeaderThree/models?tag=base+model ちなみに
>>258 はガチャなし一発出し
プロンプトは最小限にしている
↓
(best quality,ultra quality,masterpiece,ultra detailed,ultla highres:1.5),
BREAK,1 girl,join hands,cowboy shot,
(worst quality,low quality,normal quality,low res,normal res,out of focus,blurry:1.5),(nsfw:1.2)
一番指がマシなのはcutiePuniMIX_v10かな?
LCM-LoRA のインストール方法と使い方 とか YouTube で調べたら出てくるよ
使い方もへったくれもLoRAを1~0.5適応してCFGとstep下げてって これなら見るに堪えるかなってとこ探してガン回しするだけやんけ
LCM-loraと同じやり方で中間画像を起点にした学習させれば hires.fixまんま使えそうじゃね?
まだまだ勉強中ですがComfyUIでLCM使ってみました
https://imgur.com/qCuTraj 初心者で恐縮なんですが
tiled diffusionでアップスケールしようとすると、
のような
赤い四角形のマークがでてきてしまいます
denoising strengthやtiled diffusionの項目の数値をイジったりしても消えず八方塞がりです
赤いマークを出さないようにするにはどうしたらいいですか?
環境は以下の通りです
・アプリケーション:version 1.5.0
・グラボ:RTX4070 VRAM12GB
・メモリ:32GB
>>265 Seedを-1にして生成し直すとどうだ?
chromeのハードウェアアクセラレーションってみなさん切られてますか?
ちちぷいからmega spaceに移行しはじめました。 こっちって「解像度を上げる」的な設定がどこかに あるでしょうか。いろいろ調べてもわからず。。><
>>266 ありがとうございます
-1で試してみましたが治りませんでした
>>267 気にするほど影響は無いだろうと思ってるので切ってません。
>>269 ControlNetとTileでアプスケしたら?
こっちの方が操作簡単だぞ
VIDEO 流れと関係ないけど、CIVITAIとかで拾った画像が増えすぎて探すのが大変になって来たからWindowsのエクスプローラで複数のタグを付けて整理してたらWebUIのPNG infoが文字化けしてしまった プロパティのユーザーコメント欄は化けてないからゴミは免れたけど、再現が面倒臭い
>>271 tiled diffusionはあまり使わない方がいい感じなんですかね
こっちの方が好みだったんですが…
諦めて教えていただいた方法で頑張ってみようと思います
ご丁寧に教えていただきありがとうございました
linux + ROCm-5.7.1 + Radeon RX 7900 XTX の環境にFooocusをインストールしてみました。
https://github.com/lllyasviel/Fooocus こんな感じで生成出来ます。
ペイントソフトのkritaでもAI生成出来ました。
Stable Diffusion系に関して体系的に学びたいと思って本を探しているのですが、おすすめの本ってありますか?
自分のレベルとしてはちょうど1ヵ月前にSDを触り始めたくらいで、以降毎日SDに触ってはいますが、それ以前は全くAI画像生成にはノータッチでした。
SDは以下のサイトを参考にインストールしました(設定値の意味はほとんどわかりませんでしたが、とりあえず無事にインストールできました)
https://original-game.com/how-to-use-stable-diffusion-web-ui/ txt2imgはGenerationタブとLora以外触ったことがないです。
ControlNetで触ったことがあるのはCanny、inpaint、OpenPoseぐらいです。
サンプリング方法はずっとデフォルトのまま(DPM++2M Karas)で、LCM-LoRAが出た段階で初めてEular aを使用しました。
img2imgでやったことがある操作はinpaintを使用して表情や服装の調整ぐらいです。
拡張機能はいろいろ入れてはいるのですが、パラメーターの意味がほとんどわからずにググって出てきた紹介サイトに従っている状態です。
>>276 結論は「ない」
出版本はどれも出遅れて情報が古い
YouTubeで適当に検索してみろ
マジナイ漁るのすげー楽しいな 聞いたことのない当たりモデルを 掘り出す楽しみがある あと定期的に謎の安倍晋三の絵があるけど どこの需要に答えているんだあれ
意味が分からんパラメータがあるならそれで検索 それで新しい用語とかを知ったらまた検索 英語の論文が読めるような専門家は別にして、ただの一般人なんてそうするしかない ある程度絞った目的や疑問を言えば、運が良ければ教えてくれる人もいる エッジでコパイロットに質問するのでもいいぞ。 わりといい加減な答えが帰ってくることも多いけど、どんなまぬけな質問しても罵られないのはいい
正直、本になる頃には別の何かが出ててもう本のネタは使えない って感じなので、ネットで検索するのが1番ええ
>>276 あるとすれば、というか1111の使い方を網羅的に解説した商業本はソシムの「Stable Diffusion AI画像生成ハンドブック」しかない
>>117 で
>>196-197 で説明されているようにやや古いしLoRAや ControlNetの解説はない
ただ1111はそれ以外にも多機能で、わりと初期からある機能はほぼ解説されている
店頭や図書館で中身を見てよさそうならって感じかな
ComfyUIやFooocusの解説本は商業本には存在しない
>>280 世界で一番知られている日本人の顔を出すことによって
どれぐらい正確に絵が出せるのかをの指標になる
>>253 ここは質問スレなので、それに関する質問に答えられる人がたまたまいれば回答してもらえるかも、という程度
Stable Video DiffusionもSDの1つだから質問しちゃダメってことはないよ
(それよりは質問スレなのに、質問への回答ではない報告や感想をいきなり書き込む人が意味不明だ。そういうのは総合スレや技術スレでやってほしい)
>>276 1ヶ月経つとまるで変わってしまうので
本が追いつかないと思うよ
LCM-LoRAが出たとしてYouTube で調べた方が早いし
AI業界は進化が早いからな LCMが騒ぎ出されたのはほんと最近だし YouTubeにも解説あるし助かるわあ
1番ゴテゴテに回ってるのがベースモデルの発展というんだから、つくづく進歩が速い 夏に出たSDXLがもう物足りないレベルなんだから
新しいものを否定して自分の扱える古いものしか認めない反最新おじさんが生まれてきそうなペースで進んでる
>>289 モデルに関してはずっと古くて
効率悪いもの使っている人は多くいるね
1111のLCMってsd-webui-lcm入れてanimatediffでアップスケーラーにLCM入れてtxt2imgでLCMのLoRA適用しつつCFGやstepを調整すれば良いの?
Kritaのリアルタイム生成気になってるけど どれくらいスペックいるんやろ ちなクラウド民
>>293 LoRA制作者の推奨モデルとか無視していいぞ
多くのモデル試したけどLoRA側の主張が
強すぎてどのモデルでもLoRA側に引っ張られる
リアル系からアニメ系へとか激変しない限り無視していい
IDなんでコロコロ変わるかわかった AdGuardオフオン切り替えたせいだった
SD1.5系列はPS2みたいなもんで、古くても資産が多い SD2とSDXLはPS3みたいなもんでSD1.5よりは上だけど資産もあんまり無いし他の競合(ジャーニーとかDALLE3)と比較するとやっぱり弱い。 PS4に該当するようなSDXLの次世代モデルが待ち遠しい。
回答サンクス 急成長してるようなソフトは本で学ぶのに向かないってことが理解できました。 一応、自分のほうでも本のレビューを漁ってみましたが、既に生成を始めているような人向けで良さげな本は見つかりませんでした。 とりあえずは片っ端からググって情報を集めることにします。
>>295 あんたは知らんかもしれんが柔軟性の無いLoRAはあるんだよ
Counterfeit2.5でないと上手く出ないとか
そのうち誰でも簡単なプロンプトで 美人画像が出せる世界になる いま神様扱いされてるやつはゴミになり、 本当にセンスある奴だけが残る 当然だけど
lcmは早くていいんだが、背景とかやっつけ感が激しい 。あと、lcm固有の問題というより、サンプラーがいつ使っているものではなくなるという理由で顔が変わってしまう。
>>302 具体的に画像を見せてもらえれば、改善点を教えてくれる人がいるかもよ
catboxやmajinaiに上げれば生成情報も消えないし
以下のようなエラーが発生し、ブラウザからSDが操作できなくなりますが対処法に心当たりある方はいますか? (コマンドプロンプトのSD再起動とブラウザのページを再読み込みで直るが頻発するため何とかしたい) エラー発生の条件 ・画像生成を数時間~数十時間行った際に発生(SDのコマンドプロント起動直後は発生しない) ・メインPC、サブPCそれぞれで画像生成を行っているが、どちらのPCでも同様のエラーが発生 エラー文 --- *** Error completing request *** Arguments: ('task(ckvfn1fayqb20zu)', '', '(worst quality,greyscale,low quality:1.4), (zombie, sketch, interlocked fingers, comic),{english text, chinese text:1.05},(ribs:0.7,EasyNegative,', []) {} Traceback (most recent call last): File "J:\b\stable-diffusion-webui\modules\call_queue.py", line 57, in f res = list(func(*args, **kwargs)) File "J:\b\stable-diffusion-webui\modules\ui_common.py", line 50, in save_files data = json.loads(js_data) File "C:\Users\user\AppData\Local\Programs\Python\Python310\lib\json\__init__.py", line 346, in loads return _default_decoder.decode(s) File "C:\Users\user\AppData\Local\Programs\Python\Python310\lib\json\decoder.py", line 337, in decode obj, end = self.raw_decode(s, idx=_w(s, 0).end()) File "C:\Users\user\AppData\Local\Programs\Python\Python310\lib\json\decoder.py", line 355, in raw_decode raise JSONDecodeError("Expecting value", s, err.value) from None json.decoder.JSONDecodeError: Expecting value: line 1 column 1 (char 0) ---
いつもスマホでしか生成してないやつは 一度パソコンの大きいモニタで自分が作った画像見てみた確認した方がいい ガビガビだったりボケボケなのに気づいて驚愕するから
>>301 いやもうセンスも要らないよ
AIさんがバッチリキメてくれる
>>301 新しいモデルなら品質呪文と
1girlだけで可愛いイラストできるぞ
ワイのinpaintが雑コラレベルのうちはまだでぇじょうぶだ
>>304 https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/8334 このあたりか
> found it,
> Delete the "huggingface" dir in .cache folder. the relaunch .bat
> C:\Users\CURRENTUSER\ .cache\huggingface
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/8836 こっちの可能性も
> Solved it by deleting some config files.
> ui-config.json
> cache.json
> config.json
>>306-307 つまり、お前らの出番はもう無いってことだ
品質呪文なしの1girlだけで モデル別比較するの面白そうだな
>>307 埼玉だけのプロンプト
まあBingだからスレチだけどSDでも生成したものを判断する必要がありそう
上でAOMがディスられてるけどそんな変わるか? この前この辺を試したけどもう頭打ちになってるって印象を抱いたんだけど。これ以外でエロに強い良さげなモデルがあったら教えてほしい majicmixRealistic_v7.safetensors" meinahentai_v4.safetensors" meinamix_meinaV11.safetensors" CheckpointYesmix_v35.safetensors" cleanlinearmix_final.safetensors" divineelegancemix_V8.safetensors" hassakuHentaiModel_v13.safetensors"
自分も絵柄に特徴求めない時はもう長い事hassaku使ってますね。 meinahentaiはtensor.artでV5公開してた筈。
使ってるLoRAとの相性があるっぽくてHassakuから抜け出せない アッチ要素の質感高いモデルがあったらPINK板で紹介頼む
>>314 1番上以外全部知らないモデルだ
教えてくれてありがとう試してみるわ
こういうお勧めモデルの話をもっとしよう
というか皆どうやってモデル探しているの? ググっても似たような記事ばっかだし
civitai眺めたりなんjで貼られるのみてよさげなの探してる
>>319 ぐぐるときにサイトつけるとサイト内文字列検索してくれるからそんな感じで
>>321 stepを下げすぎたからじゃないかなあ
civitaiで一週間のダウンロードの多いcheckpointは人気があるし、定番以外も続々出てくる Real Spice v2 とか好き
>>323 自決した
なんかモデルを選択し直したら治った
他は弄ってないのに何だったんだろ
皆civitaiからモデル探しているのか 教えてくれてありがとう
稀にだけど動作がおかしくなることはよくある たいていは再起動すれば治る 過去にはPCを再起動しないとグラボが作動しない症状に遭遇したこともあった
Civitai helperでモデルのバージョンチェックするとAniimergeのNew version V2.5って出るんだけどModel not foundになる 一回だけ更新ページを見たような気もするけど幻かも
SDで自分で生成した画像をもとに質のいいloraって作れる?
>>330 まぁよくある
一度上げてからすぐ取り消したり
> 718 :名無しさん@お腹いっぱい。[sage] 投稿日:2023/11/13(月) 17:11:13.12 ID:MHHKdzpn
> すみませんこのkoloとかいうモデルお持ちの方いらっしゃいましたらください!
> あとでダウンロードしようと思っていま見たら消えてたんです
>>56 newmarsmix_r2だけど個人的には再現度90%ぐらいで概ね満足してた顔LoRAでよく使うネガティブプロンプトをそれに変えたら全く似つかない別人になってしまった
ネガティブプロンプトの影響力恐ろしや
一見顔に関係なさそうなプロンプトでも顔に影響はある 体位Loraとかも何故かすげえ顔変えるんだよね ADetailerは最終処理なのでこれ使えば 顔に影響を与えるプロンプトとかLoraを無視して修正できる ADetailer側のプロンプトに顔に影響与えそうな プロンプトを入れれば良い 表情とか年齢とかキャラLoraとか
>>339 > ADetailerは最終処理なのでこれ使えば
> 顔に影響を与えるプロンプトとかLoraを無視して修正できる
ああこれ気づかなかった、空欄にしてたわ
顔をダメにするLoraだけ抜いて書いとけばいいんだ
>>340 そうだなADetailer側には
顔に悪影響与えるとか無関係な
プロンプトとかLoraは加えない
何も入れずにいると通常の
プロンプトをそのままADetailer側に適応される
自作Loraで学習元が漫画やアニメだと手がぐちゃぐちゃになるのがあるんだけど hand修正でLora部分だけ抜いとけばいいんだ・・これはかなりの開眼かもしれんthx
civitaiよぉ…… ダウンロードと生成ボタンはどっちかに固定しとけや!!!!!!! モデルによって左右逆にしてんじゃねえよ!!!!!! 全ユーザーが思ってること代弁しとくわ
Seaart.ai で生成した画像のダウンロードについて質問です。 有料のSVIP(年間プラン)のスタンダードプランに加入しており、 受けられるサービスの一つに「一括ダウンロード」がありますが、 どこを探しても一括ダウンロードできるような項目が見当たりません。 サイト内のAIチャットに質問したところ、以下のような返答がありました。 スタンダードプランの一括ダウンロード機能を使用すると、生成された画像をまとめてダウンロードすることができます。 以下の手順で一括ダウンロードを行うことができます。 ダッシュボードにログインします。 1. 画面上部やメニューから「一括ダウンロード」などの選択肢を探します。具体的な場所は、 サービスのインターフェースによって異なる場合がありますので、画面上の案内に従ってください。 2. 一括ダウンロードのページに移動すると、ダウンロードする画像の範囲を指定するオプションが表示されます。 例えば、特定の日付範囲や特定のタグなどを選択することができます。 3. ダウンロードオプションを選択したら、ダウンロードボタンをクリックします。 4. サーバ側で画像の準備が完了すると、一括ダウンロードが実行されます。 このプロセスには数秒から数分かかる場合がありますので、お待ちください。 5. ダウンロードが完了すると、通常はダウンロードリンクが表示されます。 このリンクをクリックして、一括ダウンロードされたファイルを取得します。 6. ダウンロードしたファイルは、お使いのコンピュータやデバイスに保存されます。 7. 一括ダウンロード機能を使用することで、複数の画像を手間なくまとめてダウンロードすることができます。 しかし「一括ダウンロード」の項目はありません。 Seaartに詳しい方いましたら、一括ダウンロードの方法を教えてください。 よろしくお願いします。
SDで生成を一時停止する方法ってありますか? Prompts from file or textboxで数千行のプロンプトを入れているため、ブラウザのInterrup(中断)はあまり使いたくないです。 コマンドプロンプト自体を直接中断(Pauseやクリック等)する方法は高確率でWindowsがフリーズしてしまいます。
>Prompts from file or textboxで数千行のプロンプトを入れている そんなことできるんだ ちゃんと反映されるのかね
>>346 生成自体は1万行超えても全行問題なく動いてる。
すべての生成が終わったタイミングでコマンドプロンプトが固まったりするけど(多分だけど、生成結果が多すぎてブラウザのサムネイル表示時に固まってる)
>>347 Always save all generated images grids のチェック外しじゃ駄目なのか?
プロンプトは最小限が基本だよ全部は実行できない 人間で言うと飯食いながら同時に歯磨きして うがいしながらジュース飲んでるみたいなもんだよ 5chで言うと長文にするほど誰も読まなくなる
>>349 ワロタw
その秀逸な例えに座布団1枚進呈しよう
正直もう一枚絵ならプロンプトはこねくり回す必要ないけど 動画を見据えて研鑽してる人が大半ちゃうの
>コマンドプロンプト自体を直接中断(Pauseやクリック等)する方法は高確率でWindowsがフリーズ Windows95かな?
>>348 実はその設定にしてから数千行以上のコードを出力し切ったことないんよね
数千行のコードは数十時間かかるし、その間に新しいプロンプト試したくなって以下の繰り返しだったから
数千行処理のコマンドプロンプト自体を一時停止→別のポートで新しいプロンプト試す→数千行処理のコマンドプロンプト再開→Windows(正確にはdwm.exe)がクラッシュしてWindows再起動
>>349 Prompts from file or textboxは1行ごとに画像出力するから、食事も歯磨きもうがいもジュースもそれぞれの行で独立できるぞ
>>352 WIndows11です…
コマンドプロンプトを一時停止した程度でWindowsがフリーズするなんて思わんかったけど、
コマンドプロンプト一時停止解除後に同様のクラッシュ4回くらい続いてるのよね。
コマンドプロンプト一時停止をする前まではこの類のクラッシュ1度もなかったし。
一度に生成する画像が多すぎるのも原因じゃないのか?
>>355 その可能性もあるけど、自分の環境で1万行オーバーの処理は結構な回数やり切ってるよ
それで怪しい挙動なしだからクラッシュの原因は一時停止だと思う
数百行の時に同様の操作を行ってフリーズしないなら、数千行ではSD切替の負荷にPCが耐えられていないかもね
中断頻度多いなら最初から短時間で終わるよう出力件数抑えるほうが手っ取り早いと思うぞ
メモリリーク的なことが起きてるのかもしれないけど本体と拡張機能どっちが原因かもわからんし、とりあえず1ファイルあたりの件数減らして様子見たら?
>>353 >Prompts from file or textboxは1行ごとに画像出力する
ほほう、そういうものなのか
ダイナミックプロンプトみたいなもんか
GPUがおかしいとか? CPUにGPUついてたらマザーボードから画面出力してみたら
colab無料枠でのweb UI規制って一時的なもんじゃないんだな。 対策版のライブラリも出てこないし大人しく課金するか。
何でスラッシュするかという問題があるので難度は高そう
>>353 グラボは? VRAM何GBのモデルなんだろう?
単に交互に実行してるのでVRAMが足らなくなってdwmがウィンドウ切り替えの為のVRAMが無くなって固まってると予想
温度も見張ってるけど、ずっと70~80度ぐらいで安定してるのよね。 一番の疑問点は14700KF搭載のPCがクラッシュしまくってて9700KのPCが終始安定して動いている部分だ。(どちらも4070tiで運用方法もほぼ同じ) てか一時停止せんでもついさっきdwm.exeがクラッシュしてファンが爆音になって強制再起かけた… とりあえずNvidiaのドライバクリーンインストールとシステムファイル破損のチェックしてきたけど、根本的な原因がわからん
>>366 >温度も見張ってる
ソレだな
見張っちゃダメ、見守らないと
生成時のVRAMの使用量がVRAM+共有VRAM(RAMの空き)を超えてSSDにスワップして 激重になってるのをフリーズと勘違いしているとかもありそう。 実行中のタスクマネージャーのVRAMと共有VRAMとメモリ使用量はどうなってるか。
タスクマネージャー見てきたが、 14700KFのPCは専用GPUメモリ8.2/12GBだったけど、9700KのPCは3.4/12GBだったわ どっちも似たような運用なのに結構差があるからもしかしたら瞬間的にオーバーしてクラッシュしてるのかもしれん 一応激重になってる状態かもしれないと思って10分放置はやってみたが、状況全く変わらんかった。(ファンが爆音で回ってる中待ち続けるのは心臓に悪かった…)
>>370 それ以外全く同じではないということだろう
その差を見ればよろしいんではないか
>>366 んじゃOSクリーンインストールして最小限のSD環境で試して再現するならハード、しなけりゃ競合起こすなにかがソフト側にいるってことだな
俺エスパー 366しか読んでないけど9700Kで使ってたのをそのまま14700Kに移植しておかしくなってると予想
>>345 一時停止する方法は無いよ
できるのは中断のみ
Loraが絵柄に影響与えすぎるのってどうしてますか? 強調0.9とかちょっとずつ下げていってもLoraの効果が出なくなるし困ったもんだ
>>376 構成の推移はちょっと複雑で以下の状態
元々の構成
14700K(BTO付属4070ti)
9700K(2070SUPER)
現在の構成
14700K(新品で別途購入した4070tiと2070SUPER)
9700K(BTO付属4070ti)
1回目のdwmクラッシュで2070SUPERは画像生成には使わないようにしてる。
本当は14700KにBTO付属の4070tiをそのまま積んでおきたかったけど、
別途購入の4070tiがやや大きめで9700KのPCケースに入らなかったから仕方なく14700KのPCに積んだ
>>379 それはさ~
2つグラボ入れてるケースの排熱が壊滅してるんじゃない?
>>378 LoRA弱めつつプロンプトを強める
Pose系LoraならOpenPoseで代用かな
>>380 その辺も気にして組んだんだけどなあ
一応、OCCTのストレステストでいろいろ見てるけどCPUもGPUも温度安定してるし、
温度がやばかったらdwmクラッシュする前にファンが爆音になってるはず(今回起きている障害はdwmクラッシュしてからファンが爆音になる)
LoRA学習ってやっぱりxformers使用だと再現性無いのかな? 同じところからresumeしてseed値、設定同じで画像セットも同じはずなのになんか毎回微妙に違う 良さげな出力のstate消しちゃって世代遡って同じものが再現できるかやってみたが無理っぽいね。
ambientmix
https://huggingface.co/OedoSoldier/ambientmix について質問ですが License:creativeml-openrail-m では商用利用可能ですが
https://civitai.com/models/26622 には上記ライセンスとマークを見ると
商用利用不可のような記号が併記されています。商用利用はどうなんでしょう?
>>386 作者に聞くのがいいだろうけれど
とりあえず商業利用しない方がいいね
>>386 > License:creativeml-openrail-m
ここらの表記はめっちゃいい加減だとか、他人の真似してコピーしてるだけかも
filesにlicense.txt置いてないのは危ないって話も
実写系は大丈夫なモデルがいくつかあるみたいだけど
二次元はNAI流出モデルが高確率で入ってるので商用利用は危ないね
今現在商売してる輩は裁判上等orただの無知みたいな印象
>>379 dwmがクラッシュてのは珍しいね
メモリ境界越えてるとかかな
排他的ロックやらで他のアプリがアクセスできなくて、とか
>>389 メモリ使用量の違いが出るってことは、管理把握できていないメモリ量がどっちかにあるかも
>>381 WSL2で4090でメインメモリ128GBでWSL2に90GB割り当ててるけど、一度もクラッシュなんて無いな~
まあ、症状的にメインメモリ不足だろうね
あとGPUドライバは最新が必ずしも良い訳ではないよ
https://www.nichepcgamer.com/archives/geforce-driver-issue-546-17.html RTX 2000シリーズにおいて、『ハードウェアアクセラレータによるGPUスケジューリング』(HAGS)とSLIの両方が有効の場合、PCがランダムにフリーズする場合があります
>>387 >>388 答えてくれてありがとうー
このスレアプリとかから見えないんだね。
NAIで5$使ってみたけど、変なのも出てくるね。
変なプロンプト書くとstable diffusion も、NAIも良さげなのが出てくるな。奥が深いな。
Latent Coupleでそれぞれ二人の女の子に別のloraを適用したいのですが中々うまくいきません loraなしのプロンプトや一人だけloraを適用するのは問題ないのですがそれぞれのloraをいれると破綻して2つのloraの特徴が混ざった子が一人生成されてしまうような状態です 何か解決策等ありますでしょうか?
\( \) これ使ってるローラ見かけるけどどういう意味なんですかね タイトル名?スラッシュ使う意味がいまいちわかりません教えてください
>>394 そのケースはかなり難しいと思う
私なら無理と割り切って一人づつ別画像で生成
フォトショ等で合成する
>>394 Regional Prompterを使う
>>395 意味合い的には (hoge:1.23) みたいな重みづけ表記と区別するために使われる
スラッシュを使う理由は文字列 エスケープとかでググってくれ
ComfyUIを使うメリットについて教えてください。 処理が可視化される、1111と比べて省メモリ・生成速度が速い辺りはそうだと思いますが、 表現の幅が広がったりするんでしょうか
AI漫画描きたいと思っていますけど相当難しいですね。 キャラがこっちに向かないようにする方法ってあるのでしょうか。 こっちに向かないというか、向かせたい方向を指定するor大量生産してそこそこの確率で一部出てくる方法を知りたいです。 ちゃんとスマホを見て欲しいのに→スマホの販売員みたいにスマホもってアピールしてくる… 特定の相手見て欲しいのに→こっち見てくる… 勉強で本を読んで欲しいのに→こっち見てくる… ご存じの方いらっしゃいましたら教えていただけますと幸いです。
>>394 AIは入力された要素を全部ごちゃまぜにミックスする仕様なので無理です
どうしてもというならキャラを別々に出力して画像編集とかi2iするしかない
>>399 まず英語の辞書を買うと良いよ
そして英語でこっちを見てくださいとネガに入れる
横向き、後ろ姿の学習されてないモデルはいくら頑張っても崩れるからそのつもりで
>>399 Stable Diffusionのモデルの多くは「こちらを見る」のプロンプトは「looking at viewer」が効きます
これをネガティブプロンプトに入れる、それでもこっちを見てくるなら強調する((looking at viewer:1.5)など)
>>399 プロンプト not looking at viewer
ネガティブプロンプト looking at viewer
>>402 ありがとうございます。ネガティブという発想はなかったので参考にしてみます。
ポジティブで以下のワードで頑張っていました。
looking at viewer
(looking up:1.2)
(looking down:1.2)
looking side
looking back
(looking away:1.4)
>>399 ネガティブに low quality やembedding等による簡易ネガが入っているならそれをやめる
>>399 絶対確実なコントロール方法はない
当たり前だが通常のモデルは圧倒的にこっち見てる写真で学習してるのでどうしても強い
一般的には向かせたい方向にプラスを入れつつ、向かせたくない方向をネガに入れる
あとは視線系プロンプトでイレースLECOを使うとか
NegPiPで向いてほしくない視線をマイナス強調とか
狙って探したことは無いけど視線系のLolaとかあるんじゃないかな。
質問連投なのですが、dynamic promptみたいに、自動で大量のいろんなポーズやシチュエーションを出すようにしたいです。 しかし、txt to imageでは、ポーズに特化して考えた場合、あまり良い成果が出ていません。 そこで、image to imageとかopen poseとか次々に読み込ませて いろんなポーズを出す方法ってありますでしょうか。 朝から生成して、夕方に帰ってきたらいっぱいポーズできてて、そこから選んで漫画に使えるようにしたいです。 漫画作るときの悩みって、同一性(角度が変わっても同じキャラ、同じ服装、同じ場所)の確保と、同じ構図の連発を回避することですよね…。
>>398 あれこれ整っていて設定等も簡単なA1111と比べると一長一短ではあるが
自分で処理の順番を決められることによってやれることの幅は増える
一例として背景と前景(キャラ等)を別々に出力して保存しながらも最終的にはマージする、みたいな
>>406 おっしゃる通りです。
映画とかアニメとかシーンを切り取った画像の学習が足りてない気がします。
Loraに興味があるので考えてみます。
>>406 おっしゃる通りです。
映画とかアニメとかシーンを切り取った画像の学習が足りてない気がします。
Loraに興味があるので考えてみます。
>>407 ランダムなプロンプトでいろいろな画像を大量に出すならdynamic promptsという拡張機能がよいです
それからGenerateボタンを右クリックしてGenerate Foreverを選ぶともう一度同じメニューを選ぶまで生成し続ける
生成中にプロンプトやパラメータを変えることもできる
マンガ制作についてはこれが参考になるかも
ヒツジ先生の「AIイラストで成人向けマンガを作ろう」が実践的かつわかりやすい - Togetter
https://togetter.com/li/2128341 (作中Wildcardsと書かれているのがdynamic prompts)
>>408 ありがとうございます。ちょうどやりかったことかもしれません
>>411 ありあgとうございます
dynamic promptsは良く使っています(そしてよくとまっていますが…)
使い方がうまくないのか、あんまり漫画向けの典型的な姿勢がでてこず、似たポーズばっかりでてきて悩んでました
例えば、大量にあるフォルダに画像を放り込んでおくと、
ひたすらイメージtoイメージしてくれたり、大量の棒人間ファイルを順次読み込んでopen poseを適用してくれたり
するのが欲しいです
google colabでよく出る The future belongs to a different loop than the one specified as the loop argument の連発何なんだろう…調子悪いと1日使ってしまう
>>399 単語を羅列するんじゃなくて文章にした方が言う事効きやすい気がするね
例
=====
prompt:
(master piece:1.4),
(best quality:1.4),
One beautiful girl is sitting on a park bench looking at her smart phone. The girl has short blonde hair, wears a T-shirt and hot pants, and sneakers.
(1girl,solo:1.5),
(two shot:-1.5),
(full body:1.4),
(look at viewer:-1.5),
(look at smart phone:1.5),
<lora:LCM LoRA SD1.5(pytorch_lora_weights):1>
Negative prompt:
EasyNegative,
(worst quality:1.4),
(low quality:1.4),
(look at viewer:1.5),
(two shot:1.5),
=====
AIイラストで漫画って背景も服も細かいとこ毎回変わるだろ
Lora作成について質問になります Kohya_ss GUI v22.2.1でのLora作成に失敗してしまいログを確認したところエラーが出ていたのですが、 このエラー内容が失敗の原因になるのでしょうか 実行後は4KBのjsonファイルのみ作成される状態となります 21:42:07-951883 ERROR The following folders do not match the required pattern <number>_<text>: C:\AI_illust\lora\lora_output 21:42:07-952885 ERROR Please follow the folder structure documentation found at docs\image_folder_structure.md ... これまでの箇所は調べて何とか解決できたのですがLora作成はどこを直せばいいのか全くわかりませんでした…
>>417 ですがこのエラーはLora作成失敗することとは関係なさそうでした
イメージフォルダとアウトプットフォルダの場所が同じだったから出てたログでフォルダ場所を変更したらエラーは出なくなりましたがLora作成は失敗したままでした…
>>398 遅レスだけど、1111で自動化されてる行間が全部自分で好きにいじれる感じ
ただし、いじれる=何もかもいじらないといけない
意味わからず他人のをコピーしてもいいけど、知識欲が沸々と湧き出すと沼に・・
”入れるのは”超簡単だからとりあえず触ってみて判断したらいいかと
>>421 > エラーは出なくなりましたがLora作成は失敗したままでした…
で、今度のエラーは?コマンドプロンプトになんか出てるでしょ?
>>421 3つ目の twitter のリンクは間違い、勝手に追加されてた
twitterへのリンクがあると自動挿入される5chの仕様だから気にせんでええで
>>424 OpenAIじゃなくてStabilityAIか
それで質問は?
昨日まではSBのWeb-uiで生成した立ち絵キャラをimg2img+Open poseでポーズを変更していました。 ただ別の立ち絵キャラで同様の工程でポーズを変更しようとしたところ、全くポーズの変更が出来なくなってしまいました。 何か原因があるのでしょうか。 3D open poseのほうで試したり txt2imgのほうで棒人間が送られてきているのを確認した上で生成してもポーズが変更されませんでした。 再起動したり別のモデルなども試していますがやはり駄目でした。 画像に問題があるのかと思いプロンプトを確認したりしていますが ポーズに関するプロンプトは入れていません。 もしかして画像によってポーズが変わらない、等があるのでしょうか・・・?
短パンやパンツの色をランダムにある程度均等な割合で生成したいのですがどうすれば良いのでしょうか? 以前にワイルドカードの色で指定とかどうのとか見たのですがどうするかわからなかったので・・・
>>429 stable diffusion xyz plot
webuiで生成した画像の右上の×(クリア)で画像が消えずに小さくなるだけってなんなの・・・ これ「生成した時は見える状態」のままで、消す方法ない? マルチモニタで立ち上げたまましばらく別のことしてる時にエロ絵が視界でチラチラして鬱陶しい ブラウザの最小化はしたくない
誰が必要とするのか不明な機能だな 新規タブでも開いてろよ
くそ・・画像入れたレスが吸い込まれて消える
>>432 ようは画像生成して右上の×押してもt2iのビュー画面から画像がどうやっても消せない
でもt2iの画面は開けたままにしたいし、生成時は当然見たい
×で消えてくれたらベストというかそれが普通じゃね?しかしなんで「×」なんだろ、実質「_□」じゃん
>>433 最小化と同じで戻るのがめんどい
多分メイン画面のビューワーをオンオフ出来るようにしたいってことだと思うけど自分はワカンネ。
ウインドウの最小化すら面倒なら
>>433 の言う通り新規タブで見えないようにすれば良いんじゃねと思う
>>434 他の人が言っているように
気になるんだったら画面消せばいいんじゃないか
何を言ってんのかわからない
マルチモニタの画面にはほかのソフトの情報表示してて、それは別で使うので消すわけにはいかない webuiのt2iは常に視界に入れておきたい
コード書き換えするレベルだ思うんだよなあきっと 生成されたものが消えて確認が面倒になるような機能は一般的に考えて不便で必要度が低いものだし もしかしたらそういう機能あるかもしれんから開発者に聞いてみるのも手かも
いやみんなすまん、ありがとう
一応、凄いしょーもない方法だけどublock originの要素フィルタで
live preview中だけ表示→生成の瞬間は消える、はいけた
||localhost:7860/file=D:/stable-diffusion-webui/outputs/$image
もうこれでいいや、確認はexplorerから画像閲覧ソフトでやる癖があるので
なお検索してて全然関係ないextensionを見つけた
https://github.com/AlUlkesh/sd_delete_button 赤×ボタンが下に増えて、押すと今表示されてるoutputした画像1枚が消せるやつ
>>440 2秒で1枚作成されるのにそれを毎回ボタンを押して消す?
何を言ってんのかさっぱりわからん
そんなことしていたら仕事にならへんのやけど
解決済みみたい、拡張も改変位置的にできると思うけど、ソースいじって空画像を先頭に作ってそれを選択済みにしておくとほとんど気にならないかもね
またグラボ無くなるのかよ 15万台のNVIDIA H100 GPUをMetaとMicrosoftが購入したとの分析、Google・Amazon・Oracleの3倍
進化と言うか今後ComfyUIとか他の勢力に押される一方になるだろうな
いろんな機能が安定拡散しているのか 今は3dプリンターのデータ作成にハマってるわ もうあいた、絵だぜ
色々試したけど解決しなかったので大先輩方に教えを請いに来ました
samplerで構図等変わるのは理解しているつもりですが、DPM++ 2M SDE Karras
を使った時だけ異常なノイズっぽいのが生成されるような事例・解決策はないでしょうか?
1111/Python/checkpoint/Extensions/Lora等再インストールできるものはすべてインストールしなおしてもだめでした。
1111のローカル環境で 4070/12M i5-13400 32Mの仕様です
>>447 ただ単にSchedulerにKarrasを使うのが推奨されないモデルなんでしょ?
それかstep数が少なすぎて計算が追い付いていないとか
対処法は可能性としてはSDturboとかLCMのLoRAあたりを使うとかぐらいじゃないかな
5chで広告表示されるんだけどこれはAI画像?
AI絵判別検定初級編っていうレベルのAI感満々な絵だな
>>449 テンプレ無視して貼るなよ
エロ禁止の方だぞ
一発でAnything系とわかるイラストしか生成しないやついるでしょ アートスタイルのプロンプトもわからないのか😅😅
一発でAnything系とわかるイラストしか生成しないやついるでしょって煽るやついるでしょ アートスタイルとキャラデザの違いもわからないのか😅😅 あとAnything系って書いてるけどもとになった作者もわからないのか😅😅
PS5を8万円で自作しマイニングも画像生成AIもできる8万円のPCで8万円稼ぐ
Train toolsでサンプル画像の自動生成をしてみたらファイルパスがやたら長いせいでXnViewが落ちてしまう
civitaiのModelsの検索結果が常にNo models foundなんだが、おま環?
拡張機能で見てるならおま環の可能性はある 通常のWEBブラウザでは見れてるし 専用ブラウザっぽい奴でも一応使えてる ただ最近不調だからしばらく時間がたってから接続し直すのがええで。
>>448 リプありがとうございますー
stepいじったりまた検証してみて解決したら報告します
>>458 俺も検索できんかったんでサーバーが重いんかなとあきらめた
明日試してみる
NVIDIA RTX 3060は生産継続、AMD RX 6750 GREと競争、RTX4080、4070Tiは製造停止済み - ハオのガジェット工房
https://haogadget.com/entry/2023/12/01/075939 これ3060人気は生成AI需要のせいやろ
>>463 お前が思ってる以上に世の中は情弱しかおらん
ローカルでSD動かせるのなんて1%も居ない
ゲーム需要がほとんどだろ
もう3060オンボードマザーみたいなの作っちゃえばいいんじゃ?
グラボ高騰で何年も昔のグラボでやってきたワイみたいのもおるやろな 3060は丁度良かった
3060-12GBも入門用ならコスパだけはまだ最強に近いからな SDじゃあまり意味ないが、LLM利用で複数挿すこともできるっちゃできてメインメモリよりも早い環境が構築できるしな 最後はある程度の知識と技術力と資金力が必要な向こうの世界の話ではあるが
RTX3060のPCでRyzenCPUをAPUに替えたらタスクマネージャーのRTX3060が生成中も使用率0%でVRAMも低いままになってしまいました。 生成後に出る経過時間やVRAM量は変わらないのでAPUは使ってないはずですが、解決策はありますか?
>>471 タスクマネージャー の パフォーマンス タブ の表示もそうなってる?
Controlnetを使って自作の線画を色塗りしてるんですがどうしても顔だけモデルに引っ張られて書き換えられてしまう。 線画全てそのまま生かす方法ってありまふか?
>>473 パフォーマンスのタブです
たまに数値が動きますがほぼ0です
管理者権限のコマンドプロンプトでlodctr /Rすれば治るらしいですが、それも効きませんでした。nvidiaのドライバを入れ直したりdism.exeとかsfcとかのシステム修復もやりましたが駄目でした。
GPU-Zを試したら正しく表示されてるみたいなのでタスクマネージャーは一旦諦めます
>>474 ControlNetのCanny(線画抽出)とかまさにピッタリな気がするけどどうだろ。
効きが微妙ならControl Weight調整で
>>476 AMD Software Adrenalin Edition は更新した?
>>477 やはり少し顔は書き換えられてしまうけど
ControlWeightの調整で少し良くなった、ありがとう
顔が書き換えられるってのが気になるね。 ADetailerは切ってると思うが
>>471 最悪 BIOS で APU を無効にしてはどうか
>>478 ,472,481
レスありがとうございます
ドライバやらOS上書きもやり直したのですが駄目でした
他に実害はなさそうなのでこのまま使っていきます
webui1.6+negpip(最新)でi2i使った後にエラーspamみたいになる、以降t2iでもi2iでもエラーがずっと続く
チェック外そうが治らず、webui再起動しかない、negpipそのもはちゃんと効いてるようだけど鬱陶しい
https://github.com/hako-mikan/sd-webui-negpip/issues/16 この症状なんだけど、未解決のままcloseしちゃってる
Adetailerは無効にしてるので関係ないはず(Adetailerのsetteingsにnegpip入れてあっても同じ)
最近NovelAIの新モデルが凄いってんで試してみたいんだけどこれってStableDiffusionに導入してる「モデル」とは違って 登録して課金が前提の有償でしか利用できないって認識であってる? (というかこのレベルの素人質問をできるとこが他にあれば教えて欲しい、ここしか見つからなかったので)
>>484 そう
NovelAIの新モデルは同社の独自開発モデルでNovelAIの課金でしか使えない
【アニメ】動画生成AIの進化早すぎ! 画像1枚から高品質な動画が作れる、アリババ製の「Animate Anyone」 [フォーエバー★]
http://2chb.net/r/mnewsplus/1701600103/ take off panty って書いたら 離陸してしまった… 既に脱いでるの絵は割と簡単にできるけど 脱ぐ途中の絵って難しいですね 上を脱ぐときの腕の交差 どう命令すればいいか全然わからん…
グラボ乗ってるPCでメインメモリで生成する場合の設定とか起動オプションってありますか?
3D Openposeで「生成する」が押せない所から始まって、どうやら先にControlNetとやらが要るらしいと後から導入するも、 Enableにした途端に生成結果が「AttributeError: 'NoneType' object has no attribute 'shape'」となって心が折れてきた。 それぞれのバージョンはlatestというのは判った。多分「Upload independent control image」から先にもおかしなことやってるだろうけど、 エラー吐くので確かめようがないという。どこを直せそう?
>>493 A1111じゃない方のWeb UI使えばいい
>>494 バックアップから環境復元してインストールし直す
バックアップ取ってないなら再インストールする
>>494 だけど再インスコ前に足掻いてControlNetのモデルが足りな過ぎることに気付き、
とりまopenposeとcannyとdepthとscribbleをぶち込んだらカキコの後半部分は解消した。
んで勇んで3D Openpose Editorの「生成する」を押したんだけど、そこは相変わらず無反応で撃沈したまま出勤時刻となった。
今考えると3Dの方で出力対象のnormalを入れ忘れてたんだけど、なんとなく根本的な原因じゃない気がする……。
そもそも3Dの方で話に挙がるControlNetってコレの事で合ってるのか?
civitaiをスマホの画面で見ると検索結果とか画面に収まりきってなくて全く使えんのだが同じ様な人いる?
確かにローカルは一定以上の性能のPCでしかできないのにスマホで見る意味がわからないな
そんなもんはすぐ消されるモデルが気になるからリーマンは昼休みの間確保できれば・・・。っていうのと 一応生成だけはスマホでもできるっていうのがあるから何とも。ただプロンプト入力とかめちゃくちゃめんどくさい
スマホからリモートデスクトップやってる廃人かも知れんぞ
出先でスマホから眺めて良さそうなモデルをお気に入りにいれて 帰宅後にダウンロードとかもありそう。
後からダウンロードするためにブクマだけスマホでつけるってなら、まあアリじゃね?
civitaiとかPCで閲覧するサイトだろうけど、スマホ向けのUIになってるサイトとか糞だわ… 無限スクロールでサイト表示がくっそ重いし
>>506 電池一瞬で逝きそう
Chromeリモートデスクトップなら
素人でも簡単に設定できるぞ
出張時とかにも使える
出張に30kg超のフルタワーとか持ち運べないし
SD1.5.2で問題なくdepth libで指とか修正してたんですが、、、 SD1.6にアップデートしたらdepthで修正できなくなりました。(全く絵が変化しない) 解決方法あるでしょうか?
mage.spaceっていうstable diffusionをブラウザで回せるの使って生成してたんだが…最近LoRA好きなの使えるようになったからスマホでcivitaiみてた たしかにプロンプトはめんどい、、、
>>512 1.6で普通に使えてるけど・・depth libは最新にしてる?
あれ2種類あるんだよね、更新止まったのと有志が改良して引き継いだの
1.6でどっちでも動くけど、フォルダ名まで同じなので注意
https://github.com/jexom/sd-webui-depth-lib https://github.com/wywywywy/sd-webui-depth-lib ComfyUIの生成画像のinfoにテキスト(文字列)を 追加できるカスタムノードってありませんか?
>>514 横からだがこれ引き継がれたの知らんかった
Civitaiで配られている900種類の手の追加モデル?も優秀だね
>>514 ありがとうございます!旧版から教えて頂いたものに変えてみましたが、同じくダメでした…。色々試してみたいと思います!ありがとうございます!(_ _)
自撮りの写真から、特定のシチュエーションの写真を出力する方法を教えてください 例えば、自撮り写真から公園で自分が遊んでいる写真を出力するなど
>>520 前できたけど1.6にしたら駄目になったってことは、壊れてない限りなんかミスってるわけで
今やってる細かな設定や手順を一度書いたらいいと思う、項目多すぎてエスパー無理
>>521 webuiなら2つの拡張
「tagger」で、目的画像にplayingとかpark付けさせてから
「Dataset Tag Editor」で上の両方あるのを抽出してmove or delete
で行けそう、やったことないけど
ああ、ごめん違うわ 大量の自撮り画像から公園で遊んでるのを抽出するのかと勘違いした 自分の画像→公園で遊んでる画像生成、か 無視して
>>521 自撮りの写真で自分の顔だけLoRA作ればできると思う
普通にフォトショとかで合成すればいいだけの話じゃん AI要らね
>>525 ロラ学習させてしまうといくらでも作れるからね
3秒に1枚作れる
いやフォトショを使える人がAIを駆使すれば もっと役立つんだよ ちょっとした生成ミスをガチャに頼らずに自分で補正すればいいし それをさらにi2iすればAIが馴染ませてくれる
最新アプデしたら画像生成時にときどきsbが落ちたりブラウザが固まったりするようになっちゃった コマンドプロンプトの最後の方にも No Image data blocks found. No Image data blocks found. ってにも表示されるしsbの再インストールが必要なんかなこれ
最新アプデしたら画像生成時にときどきsbが落ちたりブラウザが固まったりするようになっちゃった コマンドプロンプトの最後の方にも No Image data blocks found. No Image data blocks found. ってにも表示されるしsbの再インストールが必要なんかなこれ
LoRAとかモデルをアホほどファイルに入れてると出ることがあるらしい
そうなのか、と思ってloraとcheckpoint全部空にして再起動してみたけど やっぱりNo Image data blocks found.が出てきてしまった どげんすればええのでしょうか
だいたいのエラーはgoogle検索したら大抵誰かが出してるので掛かるんだけど "No Image data blocks found"は全くないな、本当に一字一句合ってる? なんJNVA部★262で同じ質問した?
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/12222 ようはembeddingsフォルダーにあるpreview用画像が
○○.preview.pngじゃなく○○.pngになってるときに出る警告とのこと
落ちるのとの関係はわからない
うわすごいNo Image data blocks found消えましたありです 固まる問題はその手の報告多すぎてどれが原因か特定できなさそー
>>536 横からだけど情報ありがとう
こちらも「No Image data blocks found」が出なくなりました
実用上問題がないメッセージだと判断していたけど、出なくなるならそれに越したことはない
*.preview.png(jpeg等)が抜けてるってことはjsonもないんだろ…。(驚愕)
>>538 ウマ娘/無/修/正/は/pixiv/か/ら/Twitter/に/ア/ク/セ/ス/し/て/p/a/t/r/e/o/n/の/リ/ン/ク/を/ク/リ/ッ/ク/!
只/今/支/援/者/急/増/中/で/す/!/!
pixiv/に/は/サ/ン/プ/ル/画/像/を/載/せ/て/い/ま/す
今
だ
け
無
修
正
裸,セ,ー,タ,ー,ド,ト,ウ,公,開,中,で,す,↓,↓
https://www.pixiv.net/artworks/113950068 >>526 ウマ娘/無/修/正/は/pixiv/か/ら/Twitter/に/ア/ク/セ/ス/し/て/p/a/t/r/e/o/n/の/リ/ン/ク/を/ク/リ/ッ/ク/!
只/今/支/援/者/急/増/中/で/す/!/!
pixiv/に/は/サ/ン/プ/ル/画/像/を/載/せ/て/い/ま/す
今
だ
け
無
修
正
裸,セ,ー,タ,ー,ド,ト,ウ,公,開,中,で,す,↓,↓
https://www.pixiv.net/artworks/113950068 >>524 ウマ娘/無/修/正/は/pixiv/か/ら/Twitter/に/ア/ク/セ/ス/し/て/p/a/t/r/e/o/n/の/リ/ン/ク/を/ク/リ/ッ/ク/!
只/今/支/援/者/急/増/中/で/す/!/!
pixiv/に/は/サ/ン/プ/ル/画/像/を/載/せ/て/い/ま/す
今
だ
け
無
修
正
裸,セ,ー,タ,ー,ド,ト,ウ,公,開,中,で,す,↓,↓
https://www.pixiv.net/artworks/113950068 >>522 ウマ娘/無/修/正/は/pixiv/か/ら/Twitter/に/ア/ク/セ/ス/し/て/p/a/t/r/e/o/n/の/リ/ン/ク/を/ク/リ/ッ/ク/!
只/今/支/援/者/急/増/中/で/す/!/!
pixiv/に/は/サ/ン/プ/ル/画/像/を/載/せ/て/い/ま/す
今
だ
け
無
修
正
裸,セ,ー,タ,ー,ド,ト,ウ,公,開,中,で,す,↓,↓
https://www.pixiv.net/artworks/113950068 >>520 ウマ娘/無/修/正/は/pixiv/か/ら/Twitter/に/ア/ク/セ/ス/し/て/p/a/t/r/e/o/n/の/リ/ン/ク/を/ク/リ/ッ/ク/!
只/今/支/援/者/急/増/中/で/す/!/!
pixiv/に/は/サ/ン/プ/ル/画/像/を/載/せ/て/い/ま/す
今
だ
け
無
修
正
裸,セ,ー,タ,ー,ド,ト,ウ,公,開,中,で,す,↓,↓
https://www.pixiv.net/artworks/113950068 >>513 毎月4500円払える金持ちの人?
まあゲーミングPCを5年で減価償却とかんごえたらどっこいどっこいか。
mage.spaceはロリにはウルサイのが残念。
>>544 1行が長くすぎて文字が小さくなって見えへんねん
モデル制作者「バージョン10できました♪」 ありがたいけどほんまに毎回違いがわからんのよ 何が良くなってるのかわからんし、画像によっては前の方がええやんてなるし ほんまにアップデートしてくれるのはありがたいけども
最近急にStable Diffusion使ってるとWin11で無操作時〇〇分後にモニターの電源OFFが機能しなくなったんだけど 原因わかる人います? 具体的にはAUTOMATIC1111でタブ開いてる時のみ(Edge Chrome Firefox全部X)電源OFFにならない Stable Diffusion本体起動したままでもタブを閉じると電源OFFされる。 寝る前とか外出時に大量生成仕込んで、終わったらモニター電源OFFって感じで使ってたんだけど 最近急に出来なくなってすげー困ってる。 ちなみにOFFが出来なくなった前後でグラボドライバーやWin更新、設定変更などは一切してない。
>>550 1111ももちろん更新してないよね? 何だろうね
>>550 なんか最近入れたプログラムが悪さをしているとか?
まず常駐アプリとか他のUSB機器が原因とかは100%無しです。 書いてある通りAUTOMATIC1111でStable Diffusion起動している時のみ電源がOFFにならないだけで そのタブさえ閉じれば以前と同じように問題無く動作しています。 (webui.batは起動したままでも影響無く、ブラウザでStable Diffusionを表示した場合のみ(表示だけして一切使ってない状態でも)OFFにならない) Ver1.41と1,6をDドライブにインストールしており、どちらもここ最近、設定変更や拡張機能のインストール等は一切していません。 状況だけ見るとStable Diffusionをブラウザで起動していると何かしらが原因で(メモリアクセス等?)でアクティブ状態になり続けているから 電源OFFにならないって感じかと思っているんですが、タスクマネージャーで確認しても起動中→タブを閉じるで確認しても変化無く原因不明です。
じゃあブラウザが原因なんじゃねえの ブラウザ入れなおすか使わなきゃいいんじゃねえの いいかげんしつこいわ
お前のマウスに挟まった陰毛が微粒子レベルで揺れてるから センサーが反応してモニタ電源落ちないだけだぞ? はやく陰毛を除去しろ
>寝る前とか外出時に大量生成仕込んで、終わったらモニター電源OFF まずこの時点で不可解すぎて草生える
手動で消せばいいじゃん PCの前にいないのに終わるまでつけとく意味あんの?
ControlNetでdw_openpose_full使ったとき ポーズだけじゃなくて表情まで全部固定される ポーズだけ効かせたい場合どうすればいいだろう? 商用利用するかもしれないからノーマルのopenposeは使いたくない
確かにPCのスリープなら分かるがモニタなら手動で良いよな
ブラウザを最小化するとモニタの電源はOFFになるね
>>562 質問者はそんな当たり前のこと言ってるんじゃねえんじゃねえの
>>560 いったんdw_openpose_fullを実行して、顔も含めて棒人形のポーズを作った後で、Edit画面を開いて、
画面左の「Person1」の左にある「>」をクリックして、そこに出てくる「Face」の「X」をクリック
すると、編集画面から、お面みたいな顔部分が消えて、プロンプトで表情が指定できるようになる。
1111WebUI開いててゲームパッド繋がってるとスリープしなくなるな Chromium系はWebUIのタブが隠れればスリープするようになるけど、Firefoxはそうなっちゃうと終了させるかパッド抜かないとだめ おそらくビューアをパッドで操作できる機能のために無効であってもGamepad API呼び出してるせい
へぇ settingsの「Navigate image viewer with gamepad」のチェックオフでも駄目なのかな?
>>564 ご丁寧にありがとうございました!
解決しました
>>565 あんたマジ神すぎる。解決したわ。ほんとありがとう。
win11のバグでパッド繋いでるとスリープしないってのがあって、その対策でUSBケーブルにON OFFスイッチ嚙ませてたんだけど(そのバグは22H2で治った)
先日ゲームパッド使った際OFFに戻さなかった(OSのバグは治ってるからもう切る必要ないと思って)
んで今OFFにしたら無事モニターの電源切れたよ。
ただパッド繋いでると俺の環境だと1111WebUI開いてると、Chromium系 Edge、Chrome、Opera GXやFirefox等全てのブラウザで
最小化しようが各種設定色々変えようが、まったく電源OFFしなくなるわ。
stability mattix を使い始めた新参者です stable diffusion webUIと comfyUIを同時に立ち上げる方法は無いでしょうか? よろしくお願いします
>>568 まず常駐アプリとか他のUSB機器が原因とかは100%無しです。(キリッ)
>>568 それよりなんで寝るのにモニターつけてんだよ
キチガイなのか頭おかしいのかはっきりしろよ
半年前にグラボ換えた時は型落ちのゲームくらいしか用途がなかったので、選んだ型は3090 8GB 生成用途に動かなくはないけれど、1分未満の歯がゆいロスタイムが勿体ない…。 既に手遅れ感があるけど、今後の需要拡大に備えて買えるうちにハイエンドにした方がいいのかねえ。 しかし投資と一緒で焦って買うとそこが天井だったりするのよな。 そうこうしてるうちに新技術で爺ちゃん家のワープロでも事足りるようになりそうで怖いな……。
2次絵で、短い前髪ってなんて入れたらいいですか? 麗日お茶子とか、かんなぎのなぎみたいな short bangだとただの横分けみたいになってむしろ長いし
>>577 デスヨネ-
人力LCMみたいな事をやろうとしてるうちにその概念自体が既に自動化してるっていう絶望。
数日前に書き込んだ「3D Opeon Pose Editorが『生成する』押しても何もならねえ!」てのが未だに直らなくてずっと足止めなんだけどさ、
直った所でやろうとしてた事は陳腐化してんだろうな…。
で、そのLCMってのに手を出してもどうせどっかで詰んで、また新しいのが出て、最後に残るのは半端なプログラムで一杯のクソPCなのよね。
blunt bangs、ないし頭にshortつけるとか?
あーお茶子みたいのか 1girl,(asymmetric short bangs above eyebrows:1.5),bob cut, brown hair, とかでどうかね
>>579 こいつみたいな能無しはそのまま使って駄目認定してんだろうな
stepが低いので精細なのは作れないのは周知の事実 まぁ動画向けだな
今後より手間いらずで絵を作れるようになるんだろうか? 質問だけど、フレームの無いサイバー風ゴーグルを作るにはどんなプロンプトが良いだろうか?
自分好みの画像が欲しいなら常に手間はかかるし、そこから逃げることはできない 手間要らずでコマンド一発で画像作りたいなら、細かい好みは犠牲にしないといけない プリセット画像から一枚ランダムに呼び出すのと同じことになるから。まさにガチャを引いてるだけ。
同じシード、モデル、プロンプトなのに背景の書き込み度合いが違っちゃうのはどうしてなんだぜ? (ショッピングセンター、というプロンプトでばっちり描かれてたのが、のっぺり壁しか描かれなくなった) シード-1にしてプロンプト強度あげれば描かれるけど、構図のバリエーションが減ったというか・・・
LCMは土台を大量に生成できるのがいい そこから好きなもんを選んでじっくり修正していけば品質はあがるし とにかくガチャは数をこなさにゃならんし
>>583 ってA1111でちょっとLCM触ってみただけで全部わかったみたいなやつかな
>>492 上は自己解決
panty undressでいけた
下の「腕をクロスして服を持ち上げ脱ぐ」は全然わからんまま…
AIイラストから簡単に、動かせる3Dアバターにする方法は無いですか? イラストにボーンを自動設定してくれるみたいな
>>593 多分live2dみたいな事を言ってるんですよね?それか本当に3d?
live2dなら確かあったけど精度は高くなかった。
紹介動画見かけたのはyoutubeだから探せば見つかるかも。
一応言っとくとイラストから3dモデル化まではともかく人間のボーンまで入れてくれるのは聞いた事無い。
>>593 2Dイラストから3Dモデルを生成するような技術は発展途上で一般公開もされてない
バカだらけで会話成立してないレスばっかりじゃねえか
技術に対して狭い視野で0か100かでしか考えられない頭の固いおじいちゃんが多いんでしょ 環境や好みで選択肢が増えて良いことなのにね
たまに使ってるモデルがバージョン10くらい出てるけど、 過去のモデルと比べて何が優れてるのかわからん でも新しいからとりあえず最新版を使ってみるっていう モデルによってはコメント欄に「バージョン3が一番優れてました」とか書かれてたり 同系統のモデルでどちらが優れてるかとか、どうやて判断してる?
>>571-573 ,577,582,590,597
汚言くん今日も朝から張り切ってるねぇ・・
破綻が少なくて自分が表現したいものが出しやすいモデルが優れてると各自判断してるだけやと思う 正直好みの問題ちゃうかな
汚言くんのようなのがいると雰囲気が悪くなるから次スレからはワッチョイありにするか
これの再利用でもかまわんが
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ 毎度ワッチョイにするかの話題って全部そいつが発端なんよね たぶん一人だけなんでまたこいつかみたいな警報出しとけばいいかと 1レスごとにID変えながら罵倒、煽りですぐわかるので
ワッチョイで荒らしが止まったスレなんて見た事無いけどな 県名表示無い板じゃUA変えりゃNGも意味無いし
ControlNetが有効化になっている状態で、スプレッドシートでLoRA Block Weight用のプリセットを組んでWeights settingの欄にプリセットを貼り付けてSave Presetsすると、表のスクショみたいなのがControlNetの入力画像に貼られてしまうのは俺環ですか?
今日はTSUKUMOの強化買取日だい CIVITAIから適当な絵のレシピを流し込んだら生成に70秒程かかったけどグラボ換えた方がいいですかね ていうかグラボの問題なんですかね 確かに8GBVRAMは厳しいんですが設定の問題もあるような気も いやせめて12GBVRAMにしろって話だけどもこの流れは買った直後にまた上位のが必要になる予感ががが
>>606 VRAMオフロード食らってない?ドライバのバージョン要確認
>>608 昨日結局作れなくて逃げたのによくまぁそんなレスができるもんだ・・
汚言くんって脳みそどうなってんの?またID変えてレスするの?
200 名無しさん@お腹いっぱい。 sage 2023/11/22(水) 14:30:19.22 ID:ky6FyX5G
>>198 LCM独特の塗りが良くないな
LCMはのっぺりし過ぎてる
206 名無しさん@お腹いっぱい。 sage 2023/11/22(水) 14:50:58.86 ID:scE/EZDa
>>198 品質いいと思えないが
LCMだとステップ数のデメリットが出てどうしても劣化してるね
細かい部分にそれが見られる
208 名無しさん@お腹いっぱい。 sage 2023/11/22(水) 14:53:38.38 ID:KgWeuImN
>>198 スカートと肌にノイズ乗ってないか?
目も荒いし
LCMの絵はTwitterでもどれもこんな感じ
215 名無しさん@お腹いっぱい。 sage 2023/11/22(水) 15:09:05.70 ID:ieBjhKl3
>>198 サイズ大きいのにボヤけてね?
ツイのもボヤけてるんだよな
すまんなLCMじゃないんだわと発表
みんな消える
ダサw
テンプレ考えてみた
ワッチョイ入れない代わりに
>>2 に配置したらどうかな?
このスレにはIDを頻繁に変えながら罵詈雑言レスを繰り返す人物が長期にわたって住み着いています
ルーパチで多人数に見せかけて加勢等の古典的な手段でスレを荒らします
(通称「IDコロコロ汚言君」)
本人は知識もないのに、後出しの揚げ足取りが得意技で、語彙は「馬鹿」「アホ」「キチガイ」が中心です
根拠不明のLCMスゴイやハイエンドGPU叩きに執着を見せることでも知られています
画像出せというと逃げを打ち、スレ住人をchunkなし画像で騙して引っかかったのを唯一の生きがいにしてます
雰囲気が悪くなるので相手にせず、出没の周知だけしましょう
周知テンプレ: 【汚言警報】 >>(レス番),(レス番), …
>>611 結局LCM使いこなせない嫉妬叩きなんだよな
どっちが汚言だよ
根拠不明のLCMスゴイやハイエンドGPU叩きに執着を見せることでも知られています
【汚言警報】
>>613 > 結局LCM使いこなせない嫉妬叩きなんだよな
使いこなせてるならさぁどうぞ
> じゃLCMで再現して、同じところに貼ってみ
>
https://majinai.art/i/ggac9yr ID変えるな、逃げるな、今やれ、さぁやれ、chunk消すな
>>611 はい出したよ
評価して
LCMかどうか見分けつかないようなら問題無いよね さぁどっち?
>>615-616 なんだこのきったねぇ画像は・・
上の
>
https://majinai.art/i/ggac9yr のプロンプトとモデルそのままをLCMで再現しないと意味ねぇだろw
勝手に用意した別画像でどうのじゃねーんだよ、なんとでもいえるじゃねーか
>>617 どっちか言えないの?
分からないのか
答えたら画像情報付きでアップしてやるよ
はっきり言って画像出してLCMかどうかなんて見分けられんよ そのくらいのレベルならLCMでもいいんじゃない これLCMだからって見分けられないんだから
chunkもない汚い画像を当ててみなって上げる 「LCMだ」→「LCMじゃありません、メクラだな、俺の勝ち」 「LCMじゃない」→「LCMです、メクラだな、俺の勝ち」 アホなのかお前は 使いこなせてるお前の技術を同モデル・プロンプトで見せてみろって話だ わけのわからん逃げを打つな、バカが
LCMかそうでないかはよ言え 分からんならLCMでも十分って事だよ
>>620 だから答えたら情報付きでアップするって言ってるじゃん
STEP数も分かるぞ?
強要しといて逃げるんだなw
>>619 だよね
こいつのやってることはほんと意味不明というか
こっちの要件に答えられないから必死に身を捩って回避してるだけ
しばらく踏みとどまるのかと思ったらまたID変えだしたし・・・・
>>623 いやお前がおかしいんだよ
LCM批判するなら画像で見分けられないと駄目じゃん
同意を求めて だよね??? はね返される 本当に笑えるアホだな
よっしじゃ言うよLCMじゃない
次はお前の番ね、
>
https://majinai.art/i/ggac9yr これをLCMで再現してください、ほかのことはするな
新しい画像も上げ質問したりしてくるな
LCMの良し悪しは、絶対値もあるかもしれんが 個人ベースで考えれば相対値でしょ なので1枚出してどっちかは意味ないと思うよ 自分が出せる絵の80%しか出せないならやっぱしょぼい
>>627 そんな事言われたら意味なくなるな
結局何を出してもこう言われる
しょーもな
>>627 こいつマジ意味わかんないんだよ・・こっちの質問に質問で返してくる
で、自分は何ひとつこっちの要求に答えない
もしかして例のdefenderのやつか?もう行動がそっくりだわ
無駄無駄 設定同じにすれば完全に再現出来ると思ってるのも無知だし
クオリティ重視だからLCMはしょぼいと思ってる ただ簡素なアニメ塗り出す分には良い感じ もう少し書き込み増やしたいんだけど方法がないのがもどかしい
>>631 モデルもLoraも弄らずまんま使ってたらそうなるわな
>>626 自分でLCMで再現してみたらいいじゃない
両方上げてみたら
自分でやればいいじゃない 同じ設定で それと両方上げたら?
SEEDとプロンプトだけで再現しろってんでしょ やってみたらいいじゃない
ID:mKILCEpO
流れが分かってないようなので簡単に
汚言くん「LCM凄い、駄目だとか言ってるやつはLCM使いこなせてないだけ」
俺「じゃ
https://majinai.art/i/ggac9yr この絵を全く同じ条件で、その使いこなせてるLCMで出してみて」
汚言くん「あーだこーだ・・・」(いつまでも上の案件をやらない)
俺が出すのではなく、”LCMを使いこなせてる”彼が遜色ない絵を出してLCMのすばらしさを証明する必要がある
>>634 都合悪くなったら全角で草生やすようなアホを追い込んでやるなよ
LCMが素の代替になってない時点で モデルやらloraいじろうが関係なんだけど
>>637 だからさ
自分でやってこうなりましたでいいじゃない
結局人に頼んでも同じ事するんだから
LCM使ってSEEDとプロンプト合わせてCFGとSTEP減らすのは誰がやろうと同じでしょ
言ってるのはそういうやり方で比較しても仕方ないよってだけよ
>>640 いや、だからそうじゃない
俺はLCMで同程度の美麗さは再現できないの(確定事項)
汚言くんは「LCMを使いこなせてないからできないんだ=自分はできる」って言ってるの
だから生成してその”使いこなし”を証明するべきは汚言くん
>>643 美麗ってどこで判断してるのか分からんけど
人に見せて区別つかないならそれでいいと思うけどね
境界知能と会話するのは時間の無駄さ 牛に説法、境界知能にマジレス
>>639 少しは調べろよ
LCMlora弄るんだそ
>>606 24GBだとSDXLで1424×800を12枚同時に生成してVRAMに収まる感じ
買い換える手間考えたら3090か4090買った方がコスパ良いよ
>>645 こうやって人それぞれ見た感想は違う訳だし
美麗と言われても普通と思うけどねその画像
>>647 私にはググっても分かりませんので、LCMを使っても無しと遜色ないやり方を
ご教授いただけますか?
両方弄ってマージすんだよ discordでもいいから行ってみろよ
LCMで作ったと言われても疑わないけどね 俺の見た感想だけど 人それぞれって事でいいんじゃない
ですから、ご自慢の絵をLCMと無しとで同時にアップしてもらえませんか?
ID:mKILCEpO もしかして汚言くんの別ID? ずーっとズレた変なこと言ってんね
まぁLCMは劣ってるとでも思わないとグラボ借金して買った意味なくなるもんな
ID:l57jy3Hw
俺はLCMで同程度の美麗さは再現できないの(確定事項)( ー`дー´)キリッ
その美麗画像
https://majinai.art/i/ggac9yr *** Error completing request (プロンプト中略) RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 58982400 bytes. コマンドプロンプトにこういう表示が出て ブラウザが固まった末に「デバイスに問題が発生したため、再起動します」ってPCごと落ちてビビっています not enough memoryってあるんでメモリ不足なのかとも思ったけど メモリ16GB、GPUメモリ12GBで512×512生成しても固まるので容量的な問題じゃない気がしてます このエラーの原因特定する方法はあるんでしょうか
URLの貼り方も分からん馬鹿かよ
>>657 ぶっちゃけメイン16GBはローカルSDやるにはちょい少ないような
切り分けにタスクマネージャーで何%くらい使ってるかずっと確認しながら生成してみて
ID:l57jy3Hw 抽出したらこいつが一番の荒らしじゃん
>>657 1111の話だよね? そもそも何をしたらこれが出るようになったんだろう
VRAMが12GBあって512×512ピクセル出すだけならメインメモリ16GBは十分だと思うけどね
メインメモリ16GBでたった59MB(GBじゃなくて)のメモリが足りなくて落ちるのは変だな
画像を生成すると必ず落ちるなら、自分だったら1111を別のフォルダにインストールし直しちゃう
>>660 今試しに512×768でやってる分には使用率60%も超えないくらいですが
>>662 今何度か試しても落ちないので必ず落ちるわけではないです
別のフォルダにインストールし直してみたいんですが
「stable-diffusion-webui」フォルダをただ消してgitからインストールし直せばいいって話じゃないですよね?
>>663 > 今試しに512×768でやってる分には使用率60%も超えないくらいですが
まぁ、たまにというかできれば常時確認してみて
ちゃんと逐一メモリ解放されるって前提だろうけど、大量に生成してるうちにジワジワ増えていくので
逆に言うと、その60%のままならメモリ不足なんて起こらないので、見てる限り落ちない理屈
うちは64GBで90%超え食らってPC落ちたことある
常に起こるわけでもないしexplorerあたりも怪しいと踏んでるけど、いまだ特定できてない
再インストールは別に元消さなくていい、というか念のため置いとくべき
全く別のフォルダで同じことすれば、そっちに別として入ってくれる
>>663 既存の「stable-diffusion-webui」フォルダはリネームすれば残しておいても大丈夫
あとはgit cloneからインストールし直して、元のフォルダから必要なものをコピーしてくればいいです
webui-user.batはコピーしてくればいいけど、いい機会なのでオプションを見直したいところ
modelsフォルダやoutputsフォルダはサイズが大きいだろうから、コピーじゃなくて移動しちゃった方がストレージの容量的にいいかも
styleはインストールフォルダのルートにある「style.csv」をコピーしてくる
各種の設定はやはりルートにある「ui-config.json」と「config.json」に書かれているけど、そのまま持ってくると問題が起きそうだから、WinMergeで元のと新しいのの差分を比較しながら必要なところだけ新しい方へ転記するのがおすすめ
拡張機能もインストールし直すのがいいかも。ただしControlNetのモデルは再ダウンロードが大変だろうから元のフォルダから移動でいいでしょう
あとはembeddingsフォルダとlogフォルダの中身が必要そうならコピー/移動してくればよい
こんなところかな?
完全にシステムに組み込むくらいいいんなら 普通のステップとスケールで同じ時間でクオリティがアップするわけじゃん 低VRAMオプションのついで程度のもんやろ
>>611 はわざわざ一人のためにテンプレに追加する必要を感じません。警報を出すことが「荒らしに反応するのもまた荒らし」に該当しかねないしね
そしてさっきのようなことがあると、やっぱりワッチョイは最低限つけた方がいいと思う
ワッチョイがあって困ることは何かあるだろうか?
ID:l57jy3Hw は気に入らないことがあるとケンカ腰でつっかかっていくじゃない
質問に答えてくれるのはありがたいけど、そこは直してもらいたい
>>667 ワッチョイは過去何度も提案したけど、スレ住人が望んでないのよ
立てたところでどうせ荒らしがワッチョイなしを後から立ててみんなそっちに集まる
もう過去あちこちの板で見た展開
まぁ、試しに立ててみてくださいな
自分はそっちに行くようにするけど、普通の質問者もなんとなく固定バレを嫌がるのですぐ誰もいなくなる
もうすでにワッチョイスレあるんだろ だったらそっちがいいと思う人はさっさと移動したらどうだ ここはワッチョイが必要か議論するためのスレではない
またLCMアンチが暴れてたのか どんだけ悔しかったんだよ
>>664 確かにそうした方がよさそうなので元は残して入れ直します!
>>665 細かいとこまでありがとうございます
入れ直しの作業でなにか詰まったらまたここで質問させて頂きます!
>>667 ワッチョイあるしさっさと移動したら?
言い出しっぺがやんないと
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ 画像出せ出せLCMアンチしつこいわ 何がそんなに悔しいんだよ?
さも荒らし対策しますみたいな自治厨のこいつらが一番荒らしてね? ID:l57jy3Hw ID:QpBf3JEZ
CG板 2023年12月09日 ID:l57jy3Hw 書き込み順位 1 位/128 ID中
>>674 自治厨が荒らしなのは2ch時代からですよ
自治厨=荒らし
>>607 ドライバは脳死で最新にしてたわ…
調べてオフロード設定切ってみたけど生成時間は全く変わらなかったので潔くVRAMに余裕出るよう換装しようかと。
しかしタスマネで見たら生成中のVRAM使用量は目一杯使ってる訳でもないので、ひょっとしてリソースは足りてる?
>>648 4090は普通にエンスーの域なんだよなぁ…。
換装のために実地調査してきたんだけど(中古売却には至れなかった)
値幅が大き過ぎて事前に調べてたのに訳わかんなくなってきたよ…
盲目的に4070かそのTiで12GBVRAMで手の届く価格帯のを選べば
とりあえず現状は打破できるかな? すぐ陳腐化しそうだけど…。
>>667 >>668 お前らワッチョイに移動な
もうここ来るなよ
>>677 GPU12GBでおま環になるなら16GB以上の方が安心できないか?
8090以外に1月の70tisuperも16GBの噂
て80はもう製造停止してるらしいけど
supermergerでモデルをマージした後画像生成しようとするとエラーが出るんですがどこを直せばいいんでしょうか? OSError: [WinError 123] ファイル名、ディレクトリ名、またはボリューム ラベルの構文が間違っています。
>>657 CPUへのメモリ確保(つまり GPU VRAM ではなくて普通の RAM)の確保に失敗してるというエラーなので描画にGPUが使われていないのでは?
nvcc -V を実行するとキチンと GPU の情報が表示されるかとかインストール時や起動時のオプションがCPUになっていないか確認
よくわからなければインストールを解説してくれている blog サイトとかを見ながら別のところにインストールしたほうがいいかも
AppData>Local>Temp>gradioフォルダに、生成した画像が沢山入ってたんだけど これ自動で生成されないようにするにはどうすれば良いですか?
2girls→だいたい2人 3girls→だいたい4人 なぜなのか
お題
参考にしたもの
出来たもの
ディティールはLoRAで補う方向
なんでLoRAを1個追加したけどLCM LoRAに変えた短縮時間に比べればはるかに影響は小さい
あと特にこだわりないならSwinIR_4xを4x-AnimeSharpとかに変えた方が時短になる
つまらない質問ですいません。 エロが出にくいと聞き、web uiのバージョンを1.4のままにしてるんだけど、最新の拡張機能を使えないのがストレスになってきた… 1.6を試し、実際エロが出しにくかった経験もあって今も敬遠してるんだけど皆さん、実際どうですか?
>>686 エロが出にくいかどうかはモデルによるのでは
1.6だからどうというのは感じたことはありません
返信ありがとうございます。 そうなんですね、安心しました。今は1.4で使っているyayoi mixを1.6で試してみます。
>>689 すみません
>>687 さんへの返信です
>>691 そうですね、失礼しました。
重複の質問はこのスレに失礼なので、もうしばらく待ってから再度エロ画像スレにも聞いてみたいと思います
webuiのバージョンでエロの出やすさって変わる余地があるのかな エロに限らず checkpointとLoraの影響が大きそうだけど
エロの出やすさはピンと来ないけど適当にアプデかけると同じプロンプトでも再現出来なくなってることはある
>>682 生成されないようにはできないと思う
1111の最近のバージョンでは起動時(PCの再起動時だったかも)に削除してくれるようになった気がする
はっきりしなくてすいません
>>693 そういうものなんですね、参考になりました。
前に、1.6はエロが出にくいという書き込みをエロ画像スレで見た記憶があり、質問スレのこちらでお尋ねした次第です。ただ、そもそものエロ画像で確認するべきだったかも知れませんね。
>>686 とりあえず両方のバージョン入れてみて比較見てはどうか?
MagicAnimate で簡単にポーズを作る方法は ないだろうかこれがあれば…
>>698 返信ありがとうございます。
皆さんに返信いただき、放りっぱなしの1.6を再度試す気持ちになりました。調整が終わったら、早速挑戦してみます。
HDDの容量が厳しくなってきたので、SDの画像生成出力をpngからWebp(可逆圧縮)に切り替えようと思っています。 pngとWebp(可逆圧縮)を比較した場合、Webp(可逆圧縮)を利用するデメリットってWebpの対応アプリケーションの少なさ以外ありますか?
Tiled VAEのみ有効にしてれば高解像度時生成のvram12Gも16Gも生成速度に大差ないって思ってんだけど どう思う? 具体的にはRTX4070tiとRTX4080との違いなんやけど
>>701 すぐに思いつくデメリットはないかなー
ところでちょうど今日、なんJNVA部でこういうのが
メタデータを残したままPNGをJPGに変換できるツール
https://github.com/Takenoko3333/png2jpg-for-a1111-and-NAI HDD容量が怪しいならこういうのもいいかもよ
>>703 ちもろぐに比較があったような…これだ
https://chimolog.co/bto-gpu-stable-diffusion-specs/ 「1024×1532:神里綾華(LoRA + アップスケーリング)」が参考になるかも
>>703 Tiled に限らず 12GB と 16GB が両方とも難なく走る条件なら GPU速度 (と転送レート) の差になるのでメモリ量による差は無い
12GB 以上 16GB 未満の処理にするなら 16GB 有利
要は使いこなしが必要ということだな
>>705 ありがトン
もちろぐなんでもやってんね
>>706 ふむふむ
vaeは置いといて
vRAM内で収まれば単純にcudaコアが多いが強いってことっすね
ちなみにvRAM溢れたらメインメモリddr4よりddr5のが多少は生成速度有利なんかな
ddr4をオーバークロックしてddr5と同一周波数にしたとしても
日本語不自由ですまそ
LECOの環境構築に挑戦してるのですが、gui任せでインストールしてもYou Tube参考に手動でインストールしてもどうやっても何かしらエラーが出てしまいます
検索しても同じように困ってる人が出てこないのでbingのAIに聞いたりして色々書き換えたりと試しましたが解決できず、自分の環境が悪いと思ってOSのクリーンインストールも試しましたがやっぱりエラーが出て完全にお手上げです
どうか助けてください
kohya_lora_gui1.8.4.9を使用してインストールして、sampleのconfig.yamlをそのまま使った時に出たエラーのスクショです
OSはwin11、GPUはRTX3060、Python3.10.6です
>>707 PCIe4.0の帯域幅が32GB/sなのでそれ超えるメモリ速度はあまり意味無いよ
4090 1008GB/s →
PCIe4.0 32GB/s →
DDR4-3200 DUAL 51.2GB/s
自作loraがどうやっても上手く作れず、数日苦しんでいるのでどなたか思い当たる原因分かればご教授ください泣 【やってる事】 kohya_ssでlora作成→ローカル環境で、AUTOMATIC1111で生成 【事象】 黒画像ができる。 ・自作loraを使わない場合は正常に出力される ・学習STEPが250くらいまでなら、何故か成功し学習の足りない画像が出力される。以降は全て黒画像になる ・コマンドプロンプトにエラー無し ・グラボは4070Ti,VRAM 12GB ・Lora、AUTOMATIC1111は最新ver。両方ともcheckpoint変えても事象変わらず ・読み込み素材は512x512ピクセル25枚。出力も同サイズ ・黒画像の対策としてでてくる--no-half-vae等のオプションは試し済
>>712 両方最新って事はkohya_ssがv22.3.0でwebuiが1.7.0RCでok?
学習は二次?三次?学習設定の詳細は?
学習時のコンソールでloss=nanとかになってない?
>>713 kohya_ssはv22.3.0です。
大変申し訳ありません。。最新を使っていたつもりでしたが、webuiがv1.6.1でした。上げて試します。
二次で、デフォから弄ってる学習設定以下です。仰る通り途中からずっとavr_loss=nanになります!これは何を意味するものでしょうか?
"caption_extension": ".txt",
"clip_skip": 2,
"epoch": 20,
"network_alpha": 64,
"network_dim": 128,
"pretrained_model_name_or_path": "\"D:\\other\\20230709_stablediffusion\\loraGUI\\kohya_ss\\lora_model\\anyloraCheckpoint_bakedvaeBlessedFp16.safetensors\"",
"save_precision": "bf16",
}
epoch 3/20
steps: 15%|████████▍ | 375/2500 [01:01<05:49, 6.08it/s, avr_loss=0.219]
epoch 4/20
steps: 20%|███████████▌ | 500/2500 [01:22<05:30, 6.05it/s, avr_loss=nan]
epoch 5/20
steps: 25%|██████████████▌ | 625/2500 [01:42<05:08, 6.08it/s, avr_loss=nan]
>>714 知りたかったのはOptimizerとかlrとかにどの程度の数値を設定してるかってとこかな
状況的には過学習または過少学習でどうにもならない感じになってる
nan出てる時点で学習的には終わってるので低epochで出てる時点で学習設定が適切じゃないと思うよ
>>715 なるほど・・・!大変助かります。
上記以外は全てデフォルトです。
何らかのバグではなく、単に元々低epoch数で終わらせない学習設定のチューニングが必要ということでしょうか?
Optimizer:AdamW8bit
LR Scheduler:cosine
Learning rate: 0.0001
LR warmup 10
>>716 別にそんなおかしな設定でもなさそうだけど
この設定しとけばokみたいなのは無いから都度調整するしかないんだけど
学習セットは雑多な感じで結構枚数入ってる感じかな?
loss=0.2台とかだとあんまり学習進んでない感じだから
lr上げてみるとかそういう調整は要るかな
よくわからない感じなら一度自動調整系のOptimizerでやってみるとか
試行錯誤するしかないよ
>>711 ありがとうございます
いつかエラー解消できる事を願いつつLECOはcolaboを使用して作りたいと思います
>>708 xformerのversionによって特定versionのtorchを必要とする事があるみたい。
少し前に試した時のやり方だけど、以下の手順でインストールしてみたらだめかな?
git clone
https://github.com/p1atdev/LECO cd LECO
py -m venv venv
.\venv\Scripts\activate.bat
python.exe -m pip install --upgrade pip
pip install torch==2.0.1 torchvision --extra-index-url
https://download.pytorch.org/whl/cu118 pip install xformers
pip install -r requirements.txt
初心者過ぎる質問で申し訳ないんだけど、0からの画像生成ではなく読み込ませた画像に手を加えてくれる形のソフト探してます ラフ画像を読み込ませてそこから出力された画像を参考に見ながらまた自分で描くって使い方をしたいんだけど スレタイ一つにしてもバージョンによって使い方が違うと言われているし自分のような使い方でにAI生成を説明してるサイトも見付からずで どこから調べていけば良いのか指標すら分からない状態です 自分の絵の参考に見る程度なので解像度や性能の高さなどは求めていませんので もしお詳しい方がいらしたらおすすめのAI生成ソフトか調べるべき方向性について助言をいただければと思います
>>720 使うソフトのデファクトスタンダードはAUTOMATIC1111版Stable Diffusion WebUI
そこにControlNetという拡張機能を入れて、LineartやScribbleという手法で画像を生成する
でいいと思う
パソコンにはGPU(グラボ)が必要で、NVIDIAのRTX3060がストレスなく画像生成できる最低限とされている
という感じでどうかな?
stable diffusionとそのへんの使い方覚えればよいと思う
リアルタイムに絵を描きたいんだろ A1111ではなくComfy一択
>>701 Webpは変換が遅い、中古HDD買ってきて退避させたほうが早い
手元に全部確認用に置いておきたいならjpegに変換してメタデータを移植するとか
自分で描いた線画(アニメ系)に色塗りをさせているが、クオリティが低いのが悩みです 同じプロンプトのt2iポン出しと比べて圧倒的に色塗りが下手です コツはありますか? Controlnetのlineartを使っています プロセッサーは、白地に黒一色で線を書いてstandard 黒地に白で線を描いてnone どちらも試したけど大差なし 使用環境 ・AUTOMATIC1111版Stable Diffusion WebUI(今年6月に最新を入れた) ・モデルAnythingV5 ・グラボRTX 3060 Laptop(メモリ6G なのでアップスケールは1024×1024+αくらいしかできません)
DDR4-3200は片側1600MHzで2チャンネル合わせて3200MHz その帯域幅が25.6GB/sじゃねーの?
>>726 AIのモデルと線画の絵柄が違うとlineart使っても上手く塗ってくれません
lineartは線画を100%維持するわけでもありません
この問題を解決するには自分の絵柄LoRAが必要になります
>>729 アドバイスありがとうございます
そうなんですね、PCスペック的に学習は難しいかなと思ってたんですが試行錯誤してみます
プロンプトやパラメータの数値を工夫してどうなるものでもないと分かっただけでも大変助かりました!
回答ありがとうございます。
自分の経験上、外付けHDDは何回か壊れたことがあるので極力使用を控えたいです。
また、データはバックアップしてないと落ち着かないのでファイル容量自体を抑えられると嬉しいです。
>>704 メタデータ残せるのは便利ですね。
ありがたく使わせていただきます。
>>725 変換が遅いのは致命的ですね…
>>727 ツール使わせていただきましたが、自分の環境だと変換後メタデータが残りませんでした…
(Keep PromptチェックボックスONOFFを切り替えは施行済み、拡張子変換自体は成功、自動上書きは便利なので取り入れたかった…)
>>731 .net4.8なのでwindows10以降ならすんなり動くと思ってましたがメタデータ取得のdllがうまく動いてないのかな?
そのうち少し調べてみます。
webuiをv1.6.1にアップデートしたところimg2imgで画像範囲を指定する鉛筆?アイコンが消えてしまいました。 画像上の右上にあるバツマークに左に位置していたものです。 アップデート自体あまりしていなかったのでv1.6.1で消えたのかは定かではないのですが、設定で再度表示させるまたは別の場所にその機能があるのでしょうか。
>>726 LineartでMy prompt is more importantをチェックしてDenoising strengthは1.0にした
これが
こんな感じになる
ペイントソフトでレイヤー使って裏にスプレーで髪色を黒で襟を青で適当に塗ったのを元にしたらこうなる
背景は人物なしのプロンプトで背景を出して合成して作るみたい
ただ白地だと白のシャツが無理だから緑でやってるのをどっかで見た
>>735 綺麗な塗りで理想です、試してみます
ラインアートって線の情報だけ参照してるのかと思ってたんですが、色情報も取ってるんですね
パーツ分けをこちらで指定できるのは使いやすそうです
画像で詳しく解説してくださりありがとうございました
>>737 詳しくないから確かなことは言えないけど
シャーペンノイズとかぼかしノイズみたいに境界線を検出するようなアルゴリズムな気がする
それは何で分けてんのって言われたら色しかないから色情報の差分で線を検出してると思う
ControlNetがそもそも画像をぶっこんでそれを参照して絵を描けって拡張だから元絵の全体を影響させることができるはず
それ考えるとスプレーじゃなくて色固定のベタ塗の方がいいのかも
>>738 試してみました、バケツ塗りで色置いただけでもクオリティ上がりました
スクリブラーみたいにある程度色を置いた方が綺麗に出るんですね
>>708 うちも何かうまく作動しなかったけど、xformerを使わないように設定したらとりあえず動いたよ
torchとxformerのバージョンの整合性の問題っぽいんだけど、うまく合わせる方法がわからんかった
>>731 Webpのデメリット見つけた
imgurにアップロードできない!
catboxはプレビューがつかない(たぶん専ブラでサムネイルが出ない)
でもすごく小さくなるのは魅力的だなー
ちなみに
>>704 はWebpへの変換と、タイムスタンプの維持を機能追加してくれるとのこと
初歩的な質問ですみません。 AUTOMATIC1111で、img2imgのインペイント・アウトペイントについてですが、 読み込む元画像はあくまでAIで出力された、同じモデルで出力されたプロンプト等のメタデータを持つものではないと上手く行かないのでしょうか? どの説明記事もそれが暗黙の前提となってるように見受けられます・・・。 その辺で拾ってきた画像をAIで修正したい、という需要は、現時点ではなかなかハードル高いでしょうか。 AI出力でない画像の修正ノウハウが載ってる所などご存じでしたら、それもご教授いただきたいです。
>>717 lr調整のトライ&エラーで先ほど上手く出力できました。
ご回答いただきありがとうございましたm(_ _)m
inpaintのときにプロンプトが1回効いて以降inpaintが全く効かなくなって描画されくなる現象あるよね
>>731 visual studio入れてない環境だと確かにメタデータ取得出来ませんでした、申し訳ない。
週末にでもメタデータの取得方法変えてみます。
>>750 あ、日本語部分がutf8なので文字化けしそう。週末にちゃんとDLLに依存しないPNGヘッダ解析バージョン作ります。。
>>719 >>740 ありがとうございます
教えてくださった方法でのインストールやxfomersを使用しない設定も試みてみましたが、やはりエラーが出てしまいました
ただ、もう少し試行錯誤してみたいと思います
ありがとうございます
webp の動画を MP4に変換できる方法はないか?
>>752 新規インストールを試してみました。LECOフォルダは作り直して以下を。
今version指定なしで入るxformers0.0.23にはtorch2.1.1+cu121が必要みたいです。
git clone
https://github.com/p1atdev/LECO cd LECO
py -m venv venv
.\venv\Scripts\activate.bat
python.exe -m pip install --upgrade pip
pip install torch==2.1.1 torchvision --extra-index-url
https://download.pytorch.org/whl/cu121 pip install xformers==0.0.23
pip install -r requirements.txt
そろそろsd1.5系からSDXLに移行するか〜ってモデル変えて今まで使ってたプロンプトで生成してたんだけど、破綻率高いしプロンプトもあんまり反映しません。 解像度1024x1024でやっても変わらないんですけど何か設定いじらないといけないとかありますか? VRAM12GBあるのでスペック的には足りてると思うんですが・・・
>>758 1111の話だよね
VAEをXLのにしてる?
そのほかにも設定もれがあるかもしれないから、webuiの画面キャプチャを見せてくれると話が早いかも
あとSDXLはFooocusがお手軽でいいよ
自分でもよくわかってないまま使ってるから事例がないかだけ聞きたいのだけれど(詳しいこと聞いても自分で理解できる気がしない)。 画像生成中に停電して、復帰後から生成結果がおかしくなったのだけど停電が原因で生成結果変わることある? おかしい状況:同一のモデルや数値設定で緩めのアニメ調から濃いめのnovelAIでの生成結果みたいになった 試したこと:SD自体の再DL、使ってるモデルの再DLして全く新しい状態にしたりもしたけど変わらず
>>759 ありがとうございます!
あーVAE弄り忘れてます…
都度変えるのは忘れそうになるのでfooocusデビューすることにします!
>>760 停電は無いけど、生成中にwindowsが再起動してしまうことがあってモデルデータが破損することはあったよ
修復しようとしたけど、内部のデータもどっかしら破損してるみたいで復旧できなかったのでSD入れ直したよ
変わってしまったという前後のpnginfo付きの画像を上げれば誰か検証してくれるでしょ 同じ設定(勘違い)なんてよくあるし
モデル名とプロンプト、その他設定を書いてみたら? どんな画像がでたら正解か教えてあげるよ
>>752 うちもxformers付きで動くようになったわ
fooocus、軽くていいんだが、1111とパラメータを同じに設定しても顔が再現しないんだよな。styleが影響しているのかもな
foocusのスタイルの中身はpromptのテンプレだから、JSON触って空スタイル作らんと再現性ないよ
今ってxformers必要だっけ? な他の速いのを使っていたような…
何日間か全裸画像ばかり生成し続けていたら裸とはエロとは何なんだろうか……とよく分からなくなってきた
3060以上のGPUならxformers使っても速度は変わらなくて 生成画像は安定するって聞いた事があるかな 俺はそれを鵜呑みにしてxfromersは使ってない (ちな3060Ti)
>>731 JpgDiet1.0.4.0.zip
Promptの情報を残しながら、pngからjpg変換をマルチタスクでゴリゴリ【上書きで】行うツールを更新しました。お試し下さい。
PNGファイルの自前解析に対応してDLLを削除、また日本語のPromptにも対応。
https://mega.nz/file/TBN3gRaT#2rh0iABAARQP6t7zhIdeHWlz1vqZ-xQ46sTqr-3R1UI opt-sdp-attentionで良いんじゃないの?
xformersは速度的な優位はもうないらしいが、メモリ使用量の削減には役に立つそうだ 同一画像が作れない件も改善はされている(まったく同じものが出るとは言っていない)
>>757 うわあああああ!!動きました!!
ここ3日間、何度再インストールしてもエラーが出て実行できず、比喩じゃなくて本当に涙目になってもう諦めようとしてた所でした!
わざわざ新規インストールまで試していただいて、心から感謝してます!
もう本当に本当にありがとうございます!!
好きなキャラのLoRAを作りたい時に 1.全体を似せたい 2.顔だけ似せて服装は変えたい 3.服装だけ似せて他のキャラに着せたい といった相反する要求は1つのローラで実現できるのでしょうか? LoRA作成のくやしい解説ページなどありましたら教えて下さい
>>770 問題なく動作しました。ありがとうございます!
自分の場合、メモ代わりにプロンプト欄に日本語を混ぜているので残せるのはありがたいです。
>>776 「くやしい解説」という言葉の意味が必ずしも明らかではありませんが「キャラクター学習のタグ付け一例」で検索されれば出てくると思われます
「くわしい解説」だろうけど、くやしい解説が欲しい可能性も微粒子レベルで存在してますからね
>>768 その内エロではなく芸術的に感じるぞ
美しい物として見るようになる
トップクラスのスタイルだからね
>>778 ,779,780
詳しくの誤字でした
ありがとうございます
タグ付けで調べてみます
くやしい、でも感じちゃう、ビクンビクンする解説かもしれない
kritaのAIプラグイン scrribleモードがめちゃくちゃ楽しいんだけど XL用のscribbleが見当たらなくてturboでの生成ができない みんな1.5でやってるの?
Stability MatrixでComfy UIを使用している方はいらっしゃいますか? ノード上で右クリックをしても、CopyとPasteが機能しないのですが、いかがでしょうか?
いろんなUIが簡単にインストールできて各UI間でcheckpointやLoRAが共用できるらしい
AI画像生成の新時代! 「Stability Matrix」で最新の画像生成を体感せよ!
https://forest.watch.impress.co.jp/docs/serial/aistream/1554038.html 先日「生成結果がおかしくなったとカキコしに来た760です。結果から言うと原因が分かって治りました 基本的に人に見せられるもの作ってないのでプロンプト見比べてもらうこともできなかったので自分で見比べてたのですが、モデルを切り替えが機能していなく「モデルが不在の状態で生成していた」という原因だということが分かりました。普段から複数のモデルを使い分けているつもりだったけどずっと1つのモデルだけ使ってたのか俺・・・
>>787 うちの環境ではコピペできますね
くやしぃ、でもできちゃう♪
>>789 拡張機能つかえないとキツイ。
ADetailerとか必須だし。
v2vの動画生成に手を出してみたいんだけどちらつき無しで繋げられるおすすめ方法教えてもらえないかな 元動画はキャラものMMDダンスでtt2iで生成したキャラ絵をリファレンスに使って作りたい Youtube見れば色々出てはいるけど結局どれが良いの?ってなるとよく分からなくて困ってる 試行錯誤すればいいんだろうけどなるたけ先人の知恵を拝借したい
>>797 そんなマスピ顔で金取ろうとか馬鹿じゃねーの?
前の連投はあぼんされてるんやな ウマの虹エロは禁止してるサイゲに通報しとけば商用で使ってるやつはそのうち見せしめにでもなるんじゃね
>>794 日本語訳わからんのだが
MMD アニメーションになってるんだったらMagicAnimate
されてなければAnimateDiff
>>793 ADetailerで手の修正って上手くいく?
全然良化せずむしろ酷くなることばかりな印象
何か良いプロンプトでもあるのだろうか
奇形はなおらないよ 形はそのままで表面の状態を整えるだけだから 汚い手が女性のつややかな手になるから 十分使えると思うけど インペイントやdepth libraryでまず奇形を直してから使うこと
竿役の土気色な手になってしまっているのを直すのに使うようなイメージか
LoRAは効くけどプロンプトが上手く反映されにくいなーと色々粘っていて最後に画風少し変えてみようかとモデル変えたら一発だった…… かなり時間を無駄にしてしまったw
エロを作ろうとしたら、それに定評のあるモデルを使った方が上手くいきやすいと思う
とにかく求める構図が出ないことには始まらんのでまずは求めるものが出やすいモデルやLoRA使う 次に希望の絵柄に寄せるためにrifinerで途中からモデル変更、upscalerもモデルやサンプラー変更出来るから設定変えとくといい モデル以外にvae,clip skip,eta,ensあたりもクイック切替できるように設定変えとくと便利 LoRAはlbwで階層ウエイトと適用ステップ調整 あとはXYZで美味しい設定探し 基礎はわかってる前提でこれである程度捗ると思う
すまんごちゃごちゃした機械やロボや未来背景ののモデル教えてくれんか
Comfy UIでImpact Packってのをインストールしたんだけど、 UltralyticsDetectorProviderってノードがどこにもない。 何でかわかる人おりませんんか?
>>807 そういう時のrefinerか
初期のステップでLoRAやプロンプトが効いたラフな絵を出して途中で切り替えて絵柄を合わせ込むってことか
>>809 Add Node > ImpactPack > UltralyticsDetectorProvider(一番下)
にあるけど、画面に隠れてない?
ComfyUI自体やComfyUI Manager、Impact Packのバージョンが古いとか
お下品なモデルをベースにしてリファイナーでお上品なモデルにするのが好き
>>798 おバカさんだから仕方がない
このスレにいる人なら自作できるということを知らんという頭のレベルだし
809ですが、他でアドバイスもらって、どうやらバグらしく、uiインストールしなおすのがいいみたいです。 かなりだるいですが、なんとかなりそうです。失礼しました。
エロに強いモデルも難しい 体が崩れない代わりに下着がうまくずれてくれなかったりする
あと2、3年もすれば、AIにニッチな性癖も教え込む事が出来るようになるんじゃね
AIのお陰で既にニッチな需要に答えられているので無くなることはないな
>>816 すでにニッチを開拓してる段階
技術は需要とマッチすると進化が加速度的だよな
>>802 顔を修正します。手はフォトショップの生成塗りつぶしの方が早い。
>>817 次は動画の発展に期待だな
今は背景変わりまくって不自然過ぎる
静止画は指さえ解決したら
ほとんど完成みたいなもん
モデル次第かなあ SDXLでもSD1.5のLora使えるとかいう新しいアプデが出来つつあるらしいんでそれに期待
Comfy UI にCustam Scriptを入れると、KS Advance上で右クリックから set denoiseという項目でdenoise(set denoise)を指定できますよね ノードの数値がsteps 30、end at step 20 だとして、デノイズを0.2くらいにしたいのですが set denoise のHow many steps do you want? とHow much denoise?の数値はどうすれば良いですか? stepsを30、denoiseを0.5と指定するとstart_at_stepが30と書き変わるのですが これで生成を試しても一面グレーの画像が生成され駄目でした
>>824 KS Adcande は KSampler(Advance)のことです 失礼しました
>>809 ノード名がわかるならなにもないところダブルクリックで検索出来る
steps:30のdenoise:0.2なら手入力でstart_at_step:24, end_at_step:30かな 後はKSamplerAdvanceの1つ目のみadd_noise:enable, 最後のみreturn_with_leftover_noiose:disable Set Denoiseは変な値が設定されたので最終的に使わなかった
SDは1.5が長すぎて新バージョンに移行できんねmodelとLoRAが共通化できればいいのに
>>768 裸を見慣れている存在、普段から裸でも平然としている関係性のような変な感覚になってくる
>>828 移行を促したいなら互換性は重要だよね
1.5である程度環境が出来上がって、一種の資産がある状態だし
OpenPoseの指の調整やり始めたけど、一か所ずつマウスで微調整してたらめっちゃ疲れた… こういう作業ってガチ勢は液タブとか使ってるんですかね?
話の主軸はOpenPoseなのでこのスレのほうが質問にふさわしいと思いました
作った画像をスマホに突っ込んだが冷静に見てみるとこのスマホを海外旅行に持って行ったら下手したら捕まる……と思ったw
外人でロリロリした スッパの女のコの画像やLora作ってる人たちは 逮捕覚悟のうえなのかねぇ
>>833 >>835のようななんの意味もない揶揄レスをしているのは、ワッチョイの件で暴れていた単発なのかねえ
IDを変えると元のIDには戻れないんだよね?
>>841 ほんとそれ。
どうしても持っていきたいなら
パスワード付きzipにしてクラウドに置いとけば?
ピンポイントで調べられない限りは大丈夫だろ。
子供には絶対見せない、見えるとこに置かない もうそれだけ、あとは好きにして 大人が自分達のことをこんな目でみてるのかと、 ショックを受ける子供達のことを考える
webuiを1.7.0へ、stability matrixでアップデートしようとしたら、3時間以上処理中のまま。 皆はアップデート正常終了した?
Lora関連でググっててスレあるの今更気づいた 先月くらいからYoutubeで解説動画見ながらいじり始めて 今はキャラLora作成に四苦八苦状態、こだわりだすとキリが無いね それにしても自分好みの高品質エロ画像作れて最高 絵が書けなくてもエロの自給自足が出来るとかすごい時代になったもんだよ本当に
質問スレだし、エロはエロ専用のスレッドがあるっていう二段構え
StableDiffusionというかWebUIの寄り質問ですが、 「ここに画像をドロップ -または- クリックしてアップロード」の欄で常に特定のディレクトリのファイルを扱うって可能でしょうか? 例えばControlNet Unit 0で「J:\test.png」を常に参照するような状態にするといった設定です。
1.7にアプデしたら重み付けでスペースが入るようになって困ってるw 例「((ここ)bra:1.1)→( bra:1.1)」スペースも嫌だけど隣のカンマと(がくっついてしまう 例「,( bra:1.1)」今までは「,(ここのスペーが無くならない)→(bra:1.1)」 また、今まで通り「左側 ( 」にスペースが入らない場合もある もしかしたらここで直せるのかな? 「Word delimiters when editing the prompt with Ctrl+up/down 訳:Ctrl+上/下でプロンプトを編集するときの単語区切り文字」 「Ctrl+up/down whitespace delimiters 訳:Ctrl+上下の空白区切り文字」
これを今まで通りにやるとなった場合、左側に出来る「 ( 」 のスペースを消して「 , 」と「 ( 」の間にスペースを入れる手間が増えるw
>>854 間違ってたらゴメンね
ローカル上のファイルを(ローカル)サーバーで扱ってる訳で
常に(例えば起動時の状態からユーザーによるアップロードも介さず)サーバーが参照できるのはセキュリティ上も許されないのでは?
なので、Single ImageではなくBatchにしてサーバー上のファイルのみで完結するようにして
BatchのInput Directoryの初期状態をJ:\に書き換えてその配下にtest.pngだけ置けば望んだようにできるかな?
>>857 Batchで既にローカル上ファイルを参照してるのでセキュリティの強度変わらないと思っています。
Batchも試したことはあるのですが、Prompts from file or textboxの場合は2行目の場合は2枚目のpng、3行目の場合は3枚目のpng…(該当pngが存在しない場合エラーで処理停止)といった形を参照してしまうので、
行数分の同じファイルを用意しなきゃいけなくなるんですよね…
キャラ設定画みたいにCNで前横後ろ並べると大体遭遇するんだけど 帽子とか羽根みたいな付属物が前向いても後ろ向いても奥側に問答無用で描写されるのって対策あるんか?
>>851 そして全裸に飽きたら着衣のエロさに嵌まるループ
>>855 読んでもナンノコッチャ伝わらんがとりあえず1.7にするのは止めておこうと思ったw
>>859 翼についてはモデルが背景として学習してしまっているのでそのままでは無理
衣服の一部として学習させたLoRAを作ればいけるかもしれない
>>861 1.7以前は「, (bra:1.1)」だったけど1.7では「,( bra:1.1)」となって、
左の「 ( 」にスペースが付くせいで半角1マス分左へズレるようになったw
手違いだとは思うけどw
もしくはおま環
>>864 どうなるかの結果しか書かれておらず、何をするとどうなるかの説明がないから第三者にはなんのこっちゃになるんだよ
そして
>>855 の設定変更は試してみたのだろうか
イラストで口が開いてるけど中が肌色になるのは何なんだろう…… 学習画像にそんなのがあるんだろうか open mouthとか明示すれば大抵大丈夫なんだけどね
>>875 ぜひそうしたいんだけど、その話をすると毎回単発IDで騒ぐ人がいるからね…
人が多いスレでもないのに突然単発が何度も同じことを言ってくるからああまたこいつかとわかっちゃうレベル
>>875 >>877 はいどうぞ移動しなさい
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ ワッチョイスレあんだからここに来ずに勝手に消えろや
>>877 お前も毎回ワッチョイ欲しい自演してるよなw
しないよ。自演が必要なほど無理筋な主張とは思っていないからね 自分が自演していると他人も自演してるって思い込むんだね idを変えると元に戻せないと聞いたことがあるけど本当?
>>876 ,878-881
これがたった一人の自演だから恐れ入る
初心者でAI使って画像生成始めようと思っています ローカルでやるのとNovelAI使うのはどっちのほうが作りたい画像を作れますか
>>885 作りたい画像によるかな
ローカルはLoRAやControlNetを使った細かいコントロールができる
NovelAI v3はプロンプトの解釈が上手で、指定した構図や人体のポーズが出やすい
エラー吐いたSDのコマンドプロンプトの最後の文章が 「torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 768.00 MiB (GPU 0; 12.00 GiB total capacity; 4.10 GiB already allocated; 5.97 GiB free; 4.97 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF」 となってて、翻訳掛けると 「予約されたメモリ >> 割り当てられたメモリの場合、断片化を避けるために max_split_size_mb を設定してみてください。 メモリ管理と PYTORCH_CUDA_ALLOC_CONF のドキュメントを参照してください。」 ってあるから書いてある通りの事をしたいんですが ここにある『max_split_size_mbを設定』ってどうやってやるんでしょうか PYTORCH_CUDA_ALLOC_CONFとエクスプローラーで検索しても出てこなくて
修正連打してて気づいたらノイズのブツブツと焼けたような変色出てたんだがこれ除去するの無理?
>>888 ですが
webui.batに「max_split_size_mb:128」を書き足すことでGPUのメモリの断片化を防ぐ効果があるという記事を発見して試したので
エラーが収まるかどうかは分かりませんが一応自己解決しました
>>849 WEB UI の更新が正常終了しないうえに
ComfyUI が起動しなくなりました
最悪…
>>886 >>887 答えていただきありがとうございます。
特定のキャラを出すにはローカルのNovelAIとNovelAIv3のどっちがいいですか
>>892 私が stable を入れる前に調べた時は
Novel は、学習済み以外のキャラ再現が難しいので
初心者向けでは無いと書かれてて
stable にしました、今はわからないので
ちょっと調べて見てください
参考まで
>>893 あ、stable との比較じゃなかったですね
失礼しました
>>892 知られたキャラの出しやすさならNovelAI v3じゃないかな
ローカルが全然ダメということはなく、そのキャラのLoRAがあるならローカルでも出せます。その場合使うモデルはNovelAIでなくてもよく、アニメ系に強いモデルで試せばよいでしょう
>>890 断片化が原因なら再起動しちゃうのがベストな気はするけどね
>>885 いちおう比較
NovelAI
・導入が簡単、企業製の優秀モデルが使える、PCスペック要らない
・有料、一定レベル以上の非倫理的なエログロは出せない、カスタマイズは一定範囲内
SD
・無料、ユーザー製の色々なモデルが使える、どんなエログロも出せる、カスタマイズはユーザーモデルで無制限
・導入がやや難しい、ハイスペックPCが必要、現時点で使えるユーザーモデルはNAI最新モデルと比べると見劣りする
web uiが急に起動しなくなったというか永遠にロードが続くようになったんだが誰か解決方法知ってたら教えてほしい 以下症状 ・起動自体はするがcheckpointやvaeの読み込みがずっと続いてまともに動かない ・メモリを消費してるわけでもないのにブラウザの動作が重くなってフリーズする ・controlnetをextentionから排除すると問題なく起動する ・controlnetを戻すor再導入すると上記症状が再発生 ・venvの削除と再構築を行ってもだめ ・pythonやwebuiを再インストールしてもcontrolnetを導入した段階で上記症状が再発生 ・症状発生前に拡張機能は導入しておらずwebuiのアップデートもしていない 環境は Core(TM) i7-13700KF メモリ32GB RTX4090
永遠にロードが続くって虎舞竜かよ。延々とだろw まあそれはさておきRTX4090ならあり得る話だよ 12VHPWRを確認するとか
>>901 コネクタを差し直してみたけどだめだった
>>902 こんなエラーメッセージが
Error executing callback app_started_callback for G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py
Traceback (most recent call last):
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\modules\script_callbacks.py", line 139, in app_started_callback
c.callback(demo, app)
File "G:\AI\stable-diffusionwebui\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\api.py", line 60, in controlnet_api
controlnet_input_images: List[str] = Body([], title='Controlnet Input Images'),
NameError: name 'List' is not defined
>>903 とりあえずこのエラーメッセージをググって見ればええんやけどね
>>904 ググってみたけど似たような問題が見つからなかった
>>905 3.10.6
>>906 ググるんじゃなくてチャット GPT に聞いてみたらどうなる?
>>899 この手順で言うところのコントロール ネットを戻すというのと
再導入するっていうのは違う手順でやっているということ?
最近初めました、すみませんが質問です。 2次が好きで色々と好きなポーズや、loraの使い方までは解って来たのですが 「悔しい、でも感じちゃう!ビクンビクン」こんな画像の時に体にでる 1:体の一部がちょっとトゲトゲする効果 2:体の外にギザギザの波線みたいなのが出る効果 みたいなのを出せるloraをご存じ無いでしょうか? ご存じの方居ましたら宜しくお願いします
trembling effectだかtrembling emotionで出るはず LoRAがあったかどうかはわからぬ
>>907 今日の夜にでもやってみるわ
>>908 新しいやつを入れ直したつもりではあるが、もう一度やってみよう
>>909 説明が足りなくてすまん
戻す→extentionから移動させた元のcontrolnetを再度extentionに戻す
再導入→controlnetをインストールし直す
と読んでもらえたら
久々に起動して更新したら1.7.0になってた 何が変わったん?
automatic1111でhires.fixを使うと、60%くらいまで生成が進んだところでそれまでの絵から突然変化して 変な絵ばっかり(腕が複数生えたり、胴体が異常に長くなったり)生成されるようになってしまいました。 upscaleするときに何かおかしなことになってるんだというのはわかるんですが、何したら回復するでしょうか。
>>915 えっちながぞうをhiresすると、けいこくのためそうなるよ
>>915 1111をどう設定しているか知りたいので、操作画面のキャプチャを見せてください
操作画面を全部キャプチャできなくてもかまいませんので、generationタブのhires.fixのあたりを見たいです
win+shift+Sから範囲を指定してのキャプチャができます
ちなみにプログレスバーの半分くらいまでは拡大する前の画像を生成する様子が出ていますので、間違いなくhires.fixでなにかやらかしているでしょう
>>916 単発IDの人でしょ? そういう書き込みはやめてね
同じIDで書き込める? たぶん無理だと思う
すいません、自己解決しました。
Denoising strengthを下げたら安定しました。
お詫びのえっちな画像です
https://imgur.com/a/utZI8mA >>918 よかった笑
たくさんえっちなの作ろうね
>>915 SDXLだとアプスケ8000x6000とかでも、全く問題無いよ
>>918 エロ絵はimgurに上げるとすぐ消されるからul.h3z.jpあたりが望ましい
>>893 ,895,898
答えていただきありがとうございました
試しにStableDiffusionでやってみます
899です、言われたようにチャットGPTに入れてみたけど解決できなかった チャットGPTの回答--------------------------------- このエラーメッセージは、NameError: name 'List' is not definedが発生していることを示しています。これは、Listという名前の型が定義されていないために発生するエラーです。このエラーは通常、Listが含まれるtypingモジュールが正しくインポートされていないか、型ヒントが適切に指定されていない場合に発生します。 以下は、解決するための手順です: Listを正しくインポートする: Listは通常、typingモジュールからインポートされます。スクリプトの冒頭で、Listを以下のようにインポートしていることを確認してください。 python Copy code from typing import List これにより、Listが未定義のまま使用されるエラーが解消されるはずです。 適切な型ヒントに変更する: もしtypingモジュールが使用できない場合、代わりにリスト型としてlistを使用することができます。 python Copy code controlnet_input_images = Body([], title='Controlnet Input Images') # List型ではなくlist型を使用 ただし、この方法は型ヒントが弱くなる可能性があります。可能であれば、typingモジュールを使用して型ヒントを正確に指定することが望ましいです。 これらの手順を試して、問題が解決できるか確認してください。 ---------------------------------ここまで 本体:1.7.0 controlnet:1.1.423 が最新verであってるよね?
あってるね 同ファイルの別の場所もListの型ヒント使っているから、エラーログを見ながらが必要に応じて修正する感じかな
899です解決しました chrome拡張機能「はちまバスター」が原因だったっぽい、12月16日に入ったアップデートで何かしら競合するようになったんだろう お騒がせしました
どっちも最新で起こるなら騒ぎになってるだろうから、おま環だろうとは思ってたけどブラウザ拡張か しかしCNだけピンポイントとかわかるわけがない、よく見つけたなぁ Manifest V3移行ってなってるね 問題起きても別ブラウザで試そうとはなかなかならないんだよな
Stability Matrix便利だけど、SMのアプデミスでエラー吐いたりしちゃうとお手上げになっちゃうので、一長一短だなあ
アニメキャラのLORA学習に手を出してみたけどなんかピカソみたいな絵になったりぐちゃぐちゃになるのは素材の画像が少ないからなん?15枚くらいでやったけど
>>928 ベースモデルをアニメよりのにすれば、10枚くらいでも結構再現度高いぞ
https://imgur.com/a/7URgR0E だれか分かるレベルにはなってると思うけど、どうかな?
>>928 画像なんか数枚でも判別可能な物は作れる
学習が弱すぎるか強すぎるか、ベースモデル間違ってるかあたり
あと素材が微妙すぎると変になることもある
>>928 アニメ系ってもう先駆者大量にいて簡単に作れるよ
生成されるのみると艦これとハルヒっぽいのがちょいちょい出てきてこの辺のが学習元なのかな…とか思う
stable duffusion モデル アニメ。で検索してダウンロード
>>929 アニメ系のモデルで学習させてるんだけどな…呪文を工夫しても小学生の書いたような絵になる
kohya GUIがなぜかインストールできないからsd-webui-train-tools使ってるせいかな
単に設定を間違っているだけ どんなツールを使おうが最低限判別の出来るものは作れる まあ入れるプロンプトを間違うと目的の物が出ないことはあるが
プレバトは7割くらい写真トレスやろ 爆発の瞬間とか水に落ちた水面のうなりとか重なる訳がないのに 形状が見事に合致してる、それともすっごい動体視力の持ち主なんか
重要なのは素材たと思う ゲームのキャラスクショ撮って学習させたら 輪郭がドットぽい画しか吐かなくなったし 素材に背景入れた絵が多いと背景引っ張り出すし 顔だけなら白抜きで高解像度が重要だと思った 初心者だけど…更にコツあったらフォローお願いします
prompt matrix と x/y/zプロットを同時に使うことはできませんか? 例えば犬というloraと猫のloraを 犬だけ、猫だけ、犬猫同時、両方無しの4パターンと 更にそれぞれの重みを変えて複数の画像を一気に出したいのです よろしくお願いします
モデルの切り替えができない…切り替えの窓は読み込んで切り替わってるように見えるけど生成するとcalicomixから動かない…
model-toolkitって拡張機能で持ってるモデルを確認したらそれぞれジャンクデータがうんGBもあるって分かったんだけど これ全部軽量化しちゃって大丈夫なの? 不具合出た人とかいる?
>>943 model-toolkitが何か月前からあると思ってんのさ
なんかstable diffusion1.6.1に更新したら、謎に複雑な画像?うまく言えないが書き込みが多すぎてグロくなった画像とかを出力しやすくなった気がするけど、何か変わったんだろうか
>>941 ありがとうございます
プロンプト打ちまくれば何とかなりました
ただ、横長のマトリクスになるので
何とか複合技で処理したいですね
>>946 そういうのはぜひ画像を見せてほしいところだけど
(catboxのようなメタデータが残るところに上げてね)
バージョンが変わると結果が変わることはあるからその影響かも?
>>948 ありがとう、これで見られるかな?
(微グロ注意)
【質問】t2iとi2iの関係について AUTOMATIC1111を使っている初心者です。 イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。 @ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。 Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。 しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか? 例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね? 皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか? t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか? 実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。
【質問】t2iとi2iの関係について AUTOMATIC1111を使っている初心者です。 イラストを段階を踏んでクオリティアップしたい時のノウハウについて教えてください。 @ドラフトを作成する(t2i)→A手を修正する(t2i+controlnetのinpaint) としたとします。 Bその上で顔を修正したい場合、私はi2iに移り、Aで上手く生成された画像を読み込んで顔を修正しています。 しかしこのように一度でもi2iに移ってしまうと、t2iに戻って引き続きクオリティアップをすることはできない理解なのですが、合っていますでしょうか? 例えばBで手も顔も上手く修正された画像をHirez.fixのUltrasharp(Upscaler)で解像度上げたい、と思っても、t2iはプロンプトとシード値しか見ないのでi2iの成果は取り込めないため不可能ですよね? 皆さんはイラストの制作過程において、極力i2iには行かないように作成されているのでしょうか? t2iに完結して、上記のように段階的に修正していけたりするものなのでしょうか? 実際どのようなプロセスで完成までもっていっているのか、なかなか情報にたどり着けないためご教授いただければ幸いです。
クオリティアップがどういう作業を指すのか判らないけど、i2iのinpaintで領域指定してプロンプトをそれ用に書くとかの作業は出来る Tiled Diffusion+ControlNetのTileで高解像度の書き込みアップも出来る i2iでの作業に入ったらt2iに戻る必要はないと思うけどな
>>953 ご回答ありがとうございます。
失礼しました。クオリティアップ=画像を段階的に修正していく の意です。
一度i2iでの作業に移行したらt2iに戻るのは無理は正しくて、皆さんi2iでの作業に移行したらi2iで完結させる(それで困らない)ということですね。
大体の構図が決まった時点で早々にi2iに移行していくものでしょうか?
Anything else V4というのはAnything V4と同じものですか?
>>951 質問者との意図は違うけども
Stable Reactorで顔をはめ込むという方法もある
個人人的にはインペイントって
あんまり成功しない気がするんだよね
>>949 ついでにプロンプト全体的に強調倍率高すぎる
この場合は全倍率1に下げたほうがマシな絵が出るからあとから必要な分だけ盛る
ネガティブはそのままでも多分問題ない
あとNSFW使ってるならPINK板池
>>949 1111のバージョンとcheckpoint(anything-v4.0-pruned)、LoRA(SelfBreastGrab)、TI(easynegative)を揃えようとしたけど再現はできんかった
画像を見る感じではバージョンアップしたから崩れたのではなくそう感じるのはたまたまたで、原因はほかにあるんじゃないかなー
>>955 それぞれダウンロードしてmodel hashを比べればわかります
checkpointを選べばmodel hashが計算されてモデル名のあとに[69528490df]みたいに出ますし、入れているモデル名が少なくて1.7.0~なら設定の「Actions」に「Calculate hash for all checkpoint(すべてのcheckpointのハッシュを算出)」ボタンを使う方法もあります
>>954 いったんi2iへ移行したあと画像を拡大したいときは、i2iでアップスケールすればいいんでは
Tiled diffusionとControlNetのTileで拡大するとか
>>958 ありがとう、変えたら直りました
nsfwはすまない、該当するものを適当にピックアップしたらついてしまっていた、気を付けます
>>949 ほぼそうなったよ
Latent(bicubic)が駄目っぽい(4x-AnimeSharpにしたら改善された)
なぜ1.6からかは不明
あと上の人も書いてるけど全体に強調の値が全部大きすぎるかな
ネガに同じのが2つずつあったりもうちょっと綺麗にしないと切り分けが大変だ
>>962 って治った?数値全部小さくしてもダメだったけどな・・はて
>>956 ,961
ありがとうございます。
Stable Reactorいいですね。顔がいい画像はとっておいて、後ではめ込むってことですね。
>>963 元プロンプトと設定のままでもそのLoRA抜けばまともな絵が出てくるし、そこから別のLoRA適用してもまともなままだからLoRA相性と強度による歪みが重なったせいだと思う
もちろんLora抜きもやったけど気持ち悪いの変わらなかったよ・・
作った画像全体にプロンプト反映させるのはどうやるの? 例えば全身汗まみれにするとか
>>947 こんな感じでどうでしょう
マトリックスを作りたい2つのLoRAをflat2とlitとした場合です
プロンプトに「<lora:flat2:0.0><lora:lit:0.0>」と書く
X/Y/Z plotでXとYをともに「Prompt S/R」にする
Xの値には「lit:0.0,lit:0.5,lit:1.0」、Yの値には「flat2:0.0,flat2:0.5,flat2:1.0」を入力
↓結果(この画像ではプロンプトに1girl, smileを追加してます)
画像をダウンロードしてPNG Infoに入れるとプロンプトや生成情報がわかります
>>969 【イラストAI】ノイズやテクスチャを使って描き込み量をめちゃくちゃに増やそう!4/4【テクスチャ法/カムカム法】|御月望未(みつきのぞみ)
https://note.com/mitsukinozomi/n/n1c5913239ed8 970か、スレ立てます もうワッチョイありでいいよね 反対してるのは1人くらいだし、その1人の荒らしを防げるんだから
ハイ立てました
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703243927/ たぶんこのあとワッチョイについてワーワー言ってくる人がいると思うけど、単発IDならいつもの暴言で荒らす人なのでよろしく だいたい30分おきにIDを変えて書き込んできます
ワッチョイスレがあるからなしの方向でっていう話だったのに草
まあ特段変なことしない限り普通のやつは大丈夫だけどな
>>974 もう来たと思ったら違った。そうそう、普通に質問したり答えたりしているぶんにはワッチョイあっても困らないんよね
困るのは荒らしたい人くらいで
>>976 ワッチョイありにすることで、こういう質問に答えるでもなくいきなり荒らし認定してくるようなのが書き込めなくなればそれでいいんよ
もう別のところへ行ってちょうだいね
X/Y/Z plotでPrompt S/Rのみを使用して Batch count 1 Batch size 1 の状態で出力されるtxt2img-gridsの画像を、任意の枚数出力するように指示したいのですが、どうしたらいいですか?教えてください Batch countを2にすると2枚ずつの画像が出力されるし、Batch sizeを変更しても変化なしでした
みんなっていうのがどういう意味かはワイがわかってないだけかもしれんけど ここ以外のテンプレにあるサイトだいたいワッチョイついとるで そういう意味じゃなくて上級国民も許さないというのならそれは次の次かな やり方知らんけど
どうせワッチョイ無しが立ってそっちが伸びてワッチョイスレ増やすだけ 馬鹿だな ワッチョイスレ既にあるのに乱立させんなよ
ワッチョイありで良いと思う。
>>972 スレ立てありがとう。
ワッチョイ無し
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703250505/ >>983 ご苦労さん
ワッチョイ行きたい奴は勝手に行け
伸びなくても戻ってくんなよ
自演アンカー間違えてる・・慌てたのかな
>>976 ,981,983,984
こういうのがずっといて暴言吐くのでみんなでワッチョイありに行こう
>>645 ,647,651,655-656,658-659,661,669-670,672-676,678
これも全部一人でやってる
>>985 今ワッチョイスレに書き込め
見てやるから
書かなきゃ口だけと見なす
毎日そっちで書けよ
ID:WCuIa5Ix ID:aaLlEohG ID:nkHTfkuM さっさとワッチョイスレにお礼でも書き込めよ 口だけか?
ID:WCuIa5Ix ワッチョイ有りには書かない癖に無しには書き込む こりゃワッチョイ行きそうに無いな 7 名無しさん@お腹いっぱい。 sage 2023/12/22(金) 22:27:08.78 ID:WCuIa5Ix 前スレ>970がスレを立てるというルールに反して勝手に立てられたスレ
またワッチョイスレ立てたのか もうあるんだからそっち使えよ 荒らしかよ
自分が立てたスレを使わないなんてことあると思う? なんでお礼を書き込む必要があるの? それからこの板は即死回避って必要?
無し
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703250505/ 有り
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703243927/ ID:WCuIa5Ix (ワッチョイ 9bf2-e8vO)
お前は責任持って使えよ
毎回繰り返すなこのパターンw ワッチョイは伸びんて 勢いある方に来るから
「【StableDiffusion】画像生成AI質問スレ16ワッチョイ」もルールに反して勝手に立てられたスレだから使わないんだよ 読めば書いてあるから
ワッチョイで答えます、みたいに誘導するようにしたらどうだろうか?
ワッチョイがあるとどういうデメリットがあるのか、ワッチョイなし派は何度聞いても教えてくれないんだよね
次スレ自分はワッチョイ有りに行くよ。
ワッチョイ有り(
>>970 スレ立て)
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703243927/ ワッチョイ無し(
>>983 スレ立て)
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703250505/ 次
【StableDiffusion】画像生成AI質問スレ21
http://2chb.net/r/cg/1703250505/ -curl lud20250120190923caこのスレへの固定リンク: http://5chb.net/r/cg/1700315721/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ20 YouTube動画>2本 ->画像>38枚 」 を見た人も見ています:・【StableDiffusion】画像生成AI質問スレ24 ・【StableDiffusion】画像生成AI質問スレ27 ・【StableDiffusion】画像生成AI質問スレ25 ・【StableDiffusion】画像生成AI質問スレ23 ・【StableDiffusion】画像生成AI質問スレ28 ・【StableDiffusion】画像生成AI質問スレ26 ・【StableDiffusion】画像生成AI質問スレ18 ・【StableDiffusion】画像生成AI質問スレ12 ・【StableDiffusion】画像生成AI質問スレ19 ・【StableDiffusion】画像生成AI質問スレ29 (25) ・【StableDiffusion】画像生成AI質問スレ9 ・【StableDiffusion】画像生成AI質問スレ8【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ7【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ9【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ4【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ3【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ5【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ5【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ01【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ11【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ02【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ11【NovelAI】 ・【StableDiffusion】画像生成AI質問スレ10【NovelAI】 ・【StableDiffusion】画像生成AI雑談スレ2 ・【絵柄割れ厨】画像生成AI信者ヲチスレ_59【AI○○】 ・【Nore more 生成AI】画像生成AI信者ヲチスレ_130【AI○○】 ・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ ・【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★] ・【悲報】絵師さん、あと数日で全員失職へ 超高性能画像生成AIが無料公開予定 ・クリスタ、画像生成AIパレット実装を中止 - ユーザーの懸念を受け方針転換 [朝一から閉店までφ★] ・pixiv・画像生成AI専用スレ (124) ・【StableDiffusion】画像生成AI雑談スレ3 (18) ・AI画像生成雑談総合 ★1 ヲチ・グチなど ・【Midjourney】 AI画像生成 【DALLE】 ・Midjourney】AI画像生成技術交換2【StableDiffusion ・【StableDiffusion】AI画像生成技術12【NovelAI】 ・Midjourney】AI画像生成技術交換3【StableDiffusion ・Midjourney】AI画像生成技術交換4【StableDiffusion ・【StableDiffusion】AI画像生成技術11【NovelAI】 ・【StableDiffusion】AI画像生成技術17【NovelAI】 ・【StableDiffusion】AI画像生成技術16【NovelAI】 ・【StableDiffusion】AI画像生成技術10【NovelAI】 ・【StableDiffusion】AI画像生成技術20【NovelAI】 ・【StableDiffusion】AI画像生成技術13【NovelAI】 ・【StableDiffusion】AI画像生成技術22【NovelAI】 ・【StableDiffusion】AI画像生成技術20【NovelAI】 ・【StableDiffusion】AI画像生成技術15【NovelAI】 ・【StableDiffusion】AI画像生成技術24【NovelAI】 ・【StableDiffusion】AI画像生成技術14【NovelAI】 ・【StableDiffusion】AI画像生成技術14【NovelAI】 ・【StableDiffusion】AI画像生成技術16【NovelAI】 ・【StableDiffusion】AI画像生成技術17【NovelAI】 ・【StableDiffusion】AI画像生成技術18【NovelAI】 ・【StableDiffusion】AI画像生成技術19【NovelAI】 ・【StableDiffusion】AI画像生成技術13【NovelAI】 ・【Midjourney】AI画像生成技術6【StableDiffusion】 ・【StableDiffusion】AI画像生成技術8【Midjourney】 ・【Midjourney】AI画像生成技術5【StableDiffusion】 ・【StableDiffusion】AI画像生成技術7【Midjourney】 ・【Midjourney】AI画像生成技術7【StableDiffusion】 ・■ エロ画像やエロ動画の質問スレ 2 ■©bbspink.com ・【画像禁止】 エロ漫画の作者・作品名 質問スレ 53
11:27:26 up 14 days, 12:30, 1 user, load average: 7.15, 8.08, 8.76
in 0.076203107833862 sec
@0.076203107833862@0b7 on 012801