◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ8【NovelAI】 YouTube動画>1本 ->画像>31枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1681531755/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ7【NovelAI】
http://2chb.net/r/cg/1681091799/ ■AUTOMATIC1111/Stable Diffusion WebUI
https://github.com/AUTOMATIC1111/stable-diffusion-webui パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1 ■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop
https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin クリスタ
https://github.com/mika-f/nekodraw blender
https://platform.stability.ai/docs/integrations/blender https://github.com/carson-katri/dream-textures Krita
https://github.com/Interpause/auto-sd-paint-ext (1111のExtensionからインストール可能)
■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
なんJNVA部★187
http://2chb.net/r/liveuranus/1681397990/ 【StableDiffusion】AIエロ画像情報交換21【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1681448513/ 【StableDiffusion】画像生成AI質問スレ5【NovelAI】
http://2chb.net/r/cg/1679654631/ 【StableDiffusion】AI画像生成技術18【NovelAI】
http://2chb.net/r/cg/1680918687/ AI絵師のマネタイズ関連スレ ★19
http://2chb.net/r/doujin/1681366129/ NovelAI,Holara,TrinArt等画像生成AIサービス総合
http://2chb.net/r/esite/1679527005/ なんJnovelAI部ウェブ専★68
http://2chb.net/r/liveuranus/1679488956/ 以下は雑談用。質問以外はこちらへ
AIイラスト 愚痴、アンチ、賛美スレ part44
http://2chb.net/r/illustrator/1681442863/ 【Midjourney】AI関連総合18【StableDiffusion】
http://2chb.net/r/cg/1668016418/ ■FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases 解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
■FAQ2 Q:〔1111〕設定を変更したのに反映されない A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。設定によっては「UIの再読み込み(Reload UI)」(「再起動が必要」と書かれていてもこれですむものが多い)や1111の再起動が必要
【CLIP設定ってどうしたらいい?】 イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる 【そもそもCLIPって何?】 ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施 これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている 実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い と思われる ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である
RX7900XTXでStable Diffusion WebUI DirectMLを動作させたお話(ワンタッチ・DirectML版Automatic1111配布) 先にお断りしておきます。 残念ですが、Geforceなどで既に公開されているものと全く同じ絵は出てきませんで 理由は分かりません。 ほほう
とらのあな電子書籍でロリアップしてるやつ マジでまずいからやめた方がいい
売るのはチャレンジャーだな 児ポ製造って買うより罪重いんだっけ?
>>13 とらのあな電子書籍でロリアップしてるやつ
マジでまずいからやめた方がいい
>>13 例えば絵であっても性器に見えたら
モザイクしなくちゃいけないっていうのは
見えるかどうかが重要なのであって
判断するのは警察等だからね
18歳でもちっちゃい子いるよね っていうのじゃなくて これどう見ても小学生じゃねえか っていうのはまずい
17 社会的に抹殺しようと思ってるのは近所の知り合いだけ
ああやっぱこの荒らし来るのか 次からワッチョイ有りにしよーぜマジで
Stable Diffusion XLってどうなるんだろうね さらに進化するのか
エロの王道の裸コートの緊縛姿を出したくて色々試したやけど中々上手くいかんのやが どういう呪文の書き方をしたらいいやろ?
civitai が数分後に戻ってきてと表示され、繋がらない\(^o^)/ This is fine.という犬の絵が出るw
>>21 「この絵のコレだけを学習しろ」って明確に指定できるようにして欲しいな
ほらまたパンツずらし覚える前にガビガビRORAができた
>>26 AIなんだからそれぐらいやってほしいよ
っつーかAIってそういうものなんじゃなかったのか
人力の部分が想像より多すぎだぜ
前傾姿勢で壁に手をついてるポーズってどうしたら出来るだろうか? lean forward とか wall とか試したがそれっぽくならない。
radeonで学習させようとしてたものだけど、結構いろいろしらべて試したけど進みません
PyTorch TensorFlow bitsandbytesあたりの導入がうまくいっていないっぽいです。
ほんと全部みたいになっちゃうけど、やり方教えて欲しいです。
よろしくお願いします。
https://pastebin.com/9G7jKeS6 >>31 radeonでは出来ない
colabでのやり方を調べな
>>14 見てきた
こりゃFBIもフルボッキ逮捕ですわ
その無駄な労力と時間を、サクッと3060でも買って解決すればいいのに
>>34 すでにRadeonの上位機種を買ってしまった者にとっては
それは酷というものだ
NVIDIAはAMDと同じレベルの売上や利益だが
StableDiffusionやChatGPTのおかげで
時価総額だけ4倍くらいになってるな
革ジャンは上手くやってる
>>19 SD関係のスレは全部IPありにしても良いくらい
>>24 昨日の夜は復活してからしばらく安定してたんだけどな
Loraのパラメーターの説明詳しくしてるサイトか動画ないですか? 英語でも大丈夫です。 Learning late, schedulerとかよく理解してないまま使ってるので
質問です リアル写真から似顔絵を作る、てなプロンプトってありますか? あるいはloraか 具体的にいうと、友人の結婚式に使う似顔絵を写真から生成したい けどcounterfeitを使ったら全く違う人物が出たり、noiseを0.1くらいにしても別人になる どうすりゃええのや
既出も既出でしょうが すみせまん civitalでダウンロードしたLoRAの学習内容を確認する方法ってありますか?
AI画像生成始めたら目がめっちゃ疲れてきた
んでStable Diffusionをダークモードにしたいと思って調べたら
↓これだけでダークモードになるのね
http://127.0.0.1:7860/?__theme=dark LORAについてですが全裸差分も入れないと脱がせたり薄着させたりは無理なのでしょうか? それともただの学習画像不足でしょうか? NFSWをプロンプトに入れたりコントロールネットを使っても崩れたり着衣になります 作成にはtrain_toolsを使いました よろしくお願いします。
>>42 わいはそれでショートカット作ってるよ
デフォルト画面だと字も薄いしダーク画面が見やすいよな
>>45 ちなみにwebui-user.batに--theme dark入れるとURLも勝手に変わるっぽい
アニメ調でこういうゆるい感じの背景を生成したいのですが
よい方法ないでしょうか?
頭身高そうなアニメ背景は簡単に生成できるけど
デフォルメが効いた背景ってなにか方法あるのかなと・・・
>>33 そうだろう
あれはいくらなんでもやりすぎだよな
>>39 できるにはできるけど
そのレベルのもの画像を作るんだったら
適当にそこら辺のWebサイト使えばいいんじゃないかと思う
ステーブルディフュージョンでやりたければ
i2i と適当なモデル突っ込んでやればできる
ピクシブがAI絵だらけになったのは見てたけど同人サイトで売ってるんだな 儲かるの?
>>40 Lora選択画面で表示される!マークを押せば設定は確認できる
>>39 よくモールとかにいる似顔絵屋みたいなのを期待してるならそこに頼むほうがいいよ
二次絵用モデルはネットに大量に転がってるような二次絵、つまり判子絵や美形しか出せないから似せる似せないの次元の判定はしていない
>>39 出来るよ
controlnetを複数使える設定に変えて、hedとdepthを併用しつつ、イラスト系LoRAをあてれば簡単にできる
>>53 controlnetとLoRA等の併用で可能
実際に試した
>>35 画像生成専用で3060追加すればいいじゃん
複数GPUがある時にこれを使えって指定できるんだっけ?
4070の値下がりを待つより3060二枚挿しの方がコスパ良い気がしてきたんだけど 実際やってる人いる?
4070にするなら速度2倍になるだけだけど、3060を2枚刺しにするならVRAM量2倍だからなあ と言ってもSLIできるわけじゃなくて1111を2つ起動するとか 1111で画像生成しつつsd-scriptsで学習みたいな話だね
Dynamic promptsのワイルドカードについてなんですけど、 テキストファイル内にキャラクターのLora名とその属性を書き込んでプロンプトに入れると、キャラクター属性がランダムでピックアップされちゃうってことでいいですか? 体型とかシチュエーションを固定して、キャラクターを複数出力させたいときには不向きなんですかね
Unlimited Eroga Worksに疲れ果てた。人に自慢できるような素敵なイラストがかけるモデルとか教えてくれ、エッチなお前ら
人に自慢できない素敵なイラストしか生成してないから知らない
こういう風にボディライン丸見えなピッチピチになるの防ぐ呪文有りませんか?
>>57 ちょうどいいのがそれしかなかったw
配慮のモザイク
>>39 人が描いたような特徴を捉えてデフォルメするのは無理
現状できるのはControlNetやi2iでイラストにするくらい
フォト系モデルでも顔が変わって本人とは言えなくなる
以下の感じなら可能
フリー素材をイラスト化してみたのがこれ
フォトイメージをゼロから生成してイラスト化してみたのがこれ
colabでWebui動かしてるんだけど たまにメモリ不足で画像作れないのは何が原因なの? 全く設定変えずにそのままもう一度出力ボタン押したらいけたりするし colabが不安定なだけ?
>>72 俺が聞きたいのは
何故同じ条件なのに挙動が変わることがあるのか
であって解決策じゃないよ
お前みたいに質問にストレートに答えずに
聞かれてないことを好き勝手喋って回答者面する奴大嫌い
>>73 どう見ても現状に対する挙動に不満があるだけにしか見えないよ
なら解決策を進めるのが普通
もっと仕組みやロジックに対する理解を深めたいことを主張すべき
曖昧な質問しかできない低知能な質問者大嫌い
>>73 タスクごとに割り当てられるGPUが変わるからでは?
>>11 そう
だから一杯持ってても趣味でした
で言いきらないといけない
>>75 接続切らずにそのまま続けて出力しても変わるの?
webui自体は動きっぱなしなんだけど
でもたしかにVRAM使用量を監視してるとほんと一定の動きしかしないし なぜOOMするのかよくわからんもんだ
Z世代の典型的な質問の仕方だね 単文一行でツイッター感覚って言うの?
>>79 短文1行の質問ですらズレた回答する奴がいるくらいなんだから
長文書いたら更に話が違う方向に飛んでいくだろ
>>73 Colab+WebUIで生成されなかった時のスクショすら上げずに
エスパー質問してる時点で無能ってのが伝わってくる
>>43 Keywordはnsfwではなく(Nude)とかcorsetなど
出ないならLoraよりModelの関係では
他の人が再現出来る情報がないと周りも回答のしようがないぞ
質問者様過ぎて草 自力でなんともならんから他人の助力を乞いているのにその態度はすげえよ 褒めてないからな
>>80 質問スレで詳細な情報やスペック書かないのは
回答する側にも色んな可能性を推測させて
負担をしいてることに気づいてくれ
「なんかパソコン壊れたんだけど」
って質問されるのと、
「こんなスペックでこんなソフトを使ってて
ここの処理でブルスクが出たんだけど」
って書かれたほうが回答する側も特定しやすいだろ
お前の頭はChatGPT以下か じゃあお前いらねえじゃん
>>87 いらないよ、これからはChatGPTに質問してどうぞ
ローカルとColabでスレ分けたほうがいいんじゃない
>>86 そんな詳細な情報が必要な質問じゃないだろ
「俺も毎回挙動が変わる」or「俺は変わらない」2択じゃん
>>73 質問するなら最後の2行いらない
そんな態度で誰が教えてくれるんだよ
言いたい事は理解するけど回答を期待して誰かの世話になるなら態度を改めような
colabのメモリの取り扱いに詳しい人がここにたくさんいたら良かったけど。みんな詳しいの?
>>93 またお前かよ
まずcolabの仕様見てこいよ
>>94 その2行がなきゃ
「もう回答貰ってる」って扱いになっちゃうじゃん
「そういうことを聞いてるんじゃないんだ」だけいうとけば回答を貰った扱いにならんだろ お前みたいなやつ嫌い云々は余計すぎるわ
>>73 seedが-1ならたまたま(画像破綻の結果の1つ)
原因は与える乱数とプロンプトによる『不良ノイズ()』
イメージとしては
「右にXXXピクセルずらして描け」のAI内部指示が、初期乱数とプロンプトによって1000000000000ピクセルずらせ
となった時、メモリの領域外にアクセスしてしまう(その部分まで拡張しての確保を試みて失敗する)、など
回避は
・プロンプトに過剰な協調を与えない
・過学習のモデルを使わない(マイナス学習側も)
・大きな画像を一発製造しない
・(究極論だが)生成可能なseedに固定し、プロンプトで調整する
など
質問者が希望する回答を欲しければ ChatGPTに訪ねたら良いのではないか ChatGPTなら文句も言わずに回答してくれるよ 正しい回答が来るかは知らんが
>>73 で・・・
君が言っている同じ条件てのが、『seed=-1』もだとしたら君のミスリードだよ
一連の君を攻撃している者はseedも特定値に固定されてると思ってるからね
(君は同じ条件って言っちゃってるから)
君は-1に固定したつもりでも、内部は乱数になっている
それがわかってないうちに同じ条件といっても誰にもわからんだろうね
だから、どんな設定にしてるのかってののrevealはとても重要
(seed=-1じゃないんだったら、バグ発見の可能性もあるから)
次からはちゃんと書いてね
>71 ここで質問したら、そのものズバリの答えを知らなくてもなにか答えたい人によって適当なレスがつくのはさすがに許容してくれんか 期待した種類のレスじゃなかったとしても、カッとなって思ったことをそのまま書いたりしないことも大事よ このように荒れてしまい、回答を得たくて質問をしたのに自分から回答を遠ざけることになっちゃう
>>39 友人の結婚式で、何やるんか知らんけど
リアル系のディープフェイクはやめとけよ?
>>105 結婚式行ったことないのバレバレの回答クソ恥ずかしい
>>104 リアルにもいるでしょ?
思ってることを余計な一言を言って拗らせる人
まあこんなところに居るの酔っ払いみたいなのばっかでしょ こまけーこたあいいんだよ
>>106 映像とか流さない?
ディープフェイクでユーモアある映像を流すとかいう使い方なら内輪ノリで許されるんじゃね
>>105 似顔絵って言ってんじゃん
てか何をやるかも知らないのに勝手に想像してやめとけってのもおかしい
そもそも仮に結婚式でディープフェイクでネタをやったところで何の問題もない
GeForceのビデオカードのドライバについて質問です。 GeForceのビデオカードのドライバには2種類があって、以下のような説明があったのですが、 Stable DiffusionでAI画像生成の場合、どっちがいいでしょうか?皆さんはどっちを入れてるでしょうか? ①Game Ready ドライバー 最新のゲーム、パッチ、ダウンロード コンテンツのサポートを、出たその日から使いたいようなゲーマーの方向け ②Studio ドライバー デザイン、ライブストリーミング等のクリエイティブ作業の安定性と品質を優先するコンテンツ制作者の方向け 関係あるのかわかりませんが、自分のビデオカードはGTX1660Ti 6GBです。
>>112 大抵の場合はGameReadyで問題ない
仮にクリエイターであってもGameReadyでも問題ない
>>113 君の想像するAIアニメというものがどんなレベルでどんなものか誰もわからないので誰も答えられない
もう少し説明するか例を出したほうがいい
>>111 どうせやるんなら
二人の顔を合成して
将来子供が成人になったらどんな顔になるかを
AIで生成して見せてやればいい
ウケるぞ
>>116 そんなスマホアプリで誰でもできることやってもウケないんじゃないか?
>>111 新婦の友人が旦那を取られてて、新婦の男性遍歴あることないことムービーを上映した結婚式に参加したことがあってな……
女同士の恨みは怖い。
新郎がどうして近い人に乗り換えたのかはよくわからんがまったくスレ違いぽいのでやめとくわ。
>>120 >>121 かなりどうでもいい
スレチなので続きは他所で
>>117 最近わりと有名な動画なのでみんな知ってる
AIアニメで検索すれば山ほど情報が出てくるのにわざわざここで聞く意味ないでしょ
>>114 ありがとうございます。
では、GameReadyの方を入れておきます!
>>126 ここは質問専用のスレ
技術的な話がしたいなら他にそういうスレがあるのでそっちで好きなだけ話せばいいよ
【StableDiffusion】AI画像生成技術18【NovelAI】
http://2chb.net/r/cg/1680918687/ >>117 それはパクリ元の中国人のダンス動画のクオリティが高すぎるだけだからな
同じレベルをゼロから生成するにはまだ1年はかかりそうだ
Stable Diffusionで生成してフォトショ修正したらグラビアアイドル不要じゃね? というくらいのクオリティで出てきてビビってる 予想以上に技術は進んでるんだな
camel toeとかStable Diffusionが無ければ知ることがなかった単語
おま環っぽいけど チェックポイントを選択しても違うチェックポイントが表示されていたり プロンプトの欄をクリックした時にチェックポイントが変わったりすることある?
今1660Ti使ってて下記の設定で大体5〜6分くらい掛かってるんだけど 3060(12G)に変えたらどれ位早くなる? 512×768 / SP方法:Euler A / SP数:20 バッチ数:4 / バッチサイズ:1 / CGF:7 シード:-1 / スプリプト:なし
こうしてエロい英単語だけを記憶している日本人が増殖していくんだな
3060のメモリ多いやつで今一番コスパいいやつ(お店含め)あれば教えてください。 学習でやりたいことおおすぎてRadeon行き詰まったから寸志前借りで買ってみようと 思います。
>>142 xfomersありで25.10sだった
aIoneとかいうサービスでstabledeffusion無限に無料で使えるとか書いてるんだけど使ってる人いたら実用レベルの生成出来るのか教えて欲しい 生成速度良かったら無料ならpaperspaceから乗り換えようかなって思う あとモデルとか自由に入れられるんかな
>>141 3060はvramが12GBのやつと8GBのやつがあるけど、買うなら絶対に12GBのやつを買うように
ただ、AIお絵かき界隈において3060はコスパ重視のエントリー機種なのでそこは理解しておいたほうがいい
一時期高かったけど最近は5万円前後で買える
>>137 モデルは一度メインメモリに読み込まれるが、稀に表示だけが変わらなかったりするバグが起きる
原因として考えられるのはメインメモリ不足か、またはモデルの保存先がHDDだった場合
3060ってstep25程のイラスト1枚生成するのに大体何秒かかる?
>>137 めっちゃある。モデル選んだ後img2img押したら何故かまた違うモデル読み込んでクソガァァアアアアって事態が何度も起きてる。
>>147 何使うかによるけど512x512ならまず1分掛からん
>>146 ,147
あるあるみたいで良かった
メインメモリしょぼい癖にモデルやLora入れすぎたかもな
読み込み2回でクソガーってなるわ
>>147 生成サイズ、および使用するサンプラーによって同じstep数でも速度は全然違うが、おそらく初期設定512x512のEularだろうと推測
であればXformers込みでおよそ5~6秒ほどと思われる
ハローアスカベンチでググるか ちもろぐのstable Diffusionの記事見るか 各グラボの性能比較できるよ
>>120 話に合わせてとっさに作り話をする癖は良く無いよ
>>38 >>138 ちもろぐのアスカベンチとか見てみたら
ハローアスカベンチって更新されてるの? pt2.0が出てから結構変わってそうなんだけど
似顔絵への回答ありがとうございました control netまだ使ったことないので、少し勉強してきます
>>145 パソコン工房とかそのあたりの限定モデルが安いっぽいのですが。
おすすめのメーカーとかありましたら教えてください。
あまりくわしくないのですが、同じチップ同じ12vramとかでも性能や
冷却性能違うみたいで、コスパ良い物がわからないです。
2年前からビデオカードのドライバをアップデートしてなかったけど、今回アップデートしたらだいぶ生成が安定するようになった(アウトオブメモリーが出にくい) やっぱドライバって、こまめにアップデートしないといけないのだなあ。
>>158 自作板のRTX30XXスレの方が良いかも
メーカー違いや型番違いを複数もってベンチしてる変態(褒め言葉)が集まってるところだから
AIに使うというと若干煙たがられるので注意
そのパソコン工房のRTX3060ってHDMI1とDP2で一般販売にはない端子数なんだよな BTO専用のコストダウン版なんだろうけど写真もなくてファンの数も分からないし個人的にあまりそういうのは買いたくないかな
結局自作するのが確実だわ、経験値だと思って作ってみたら? そんな難しくないし
GTX1660Ti Max-Qを使ってて生成中は90度近くになるのはやばいですか? アフターバーナーを入れましたがPowerLimitはグレーアウトで変更できずちょっと心配 一応アフターバーナーはGTX16系に対応とは書いてるんだけどCoreClockとMemoryClockしか いじれない(電圧制御のロックは解除済み これからの時期このままだと厳しいですよね ちなみに機種はdell g3 3590です、もし誰か変更するための設定知ってたら教えてもらえますか
loraが増えてきて毎回civitaiまでトリガー見に行くのが割と手間になって来たのですが、全部CivitaiHelperでinfo取る以外になんかおすすめの方法ありますかね。 civitaiのページが消えない保証も無いし全部手元に保存しとくのが常識だったりします?
プロンプトとlora次第だろうな 顔はdetection detalerで修復してると思うけど
>>166 モデルはchillou mixじゃないと無理そうですかね?
>>167 BRAのほうがずっと融通きくよ
指もちゃんと五本になってることが多いし
civitaiが復活したら試してみてくれ
beautiful rearistc asianだかなんだかというモデルだ
>>165 そいつちちぷいやってるから過去の見てこい
>>163 パワーリミットの設定ぐらいならGeforce Experienceで弄れると思うぞ
Alt+Zでオーバーレイ出てこない?
>>164 Loraのサムネイル画像にトリガーワード書いてる
>>172 今まさに同じこと思ってたw
人生変わるわこれ
時間かかっちゃうってことだよね もう少し進化してくれないとこっちも本気出せない
自作loraの沼が特にやばいと思う 「もっとこうなってればいいのに…」に簡単に補正をかけられる 古いグラボ使ってて生成のトロさは許容できてたけど 自作loraに目覚めて高性能グラボ新調したくなってしまった
巨大サイズを2時間かけて生成、終了直前にOutOfMemoryError: CUDA out of memory. 最初は泣きそうだったけど条件を変えつつ何度も試すうちに「あーこれでもだめかー」と達観し始める 経過時間がきっちり119分台で4回続いているので、ほんのちょっと何かを変えるだけでいけるはずなんだが 終了直前のOutOfMemoryError: CUDA out of memory.ってどう防げばいいんだろう 確かにグラボ限界のデカいサイズではあるようだが同じサイズをほとんど同じ設定で作れてるから厄介 OutOfMemoryError: CUDA out of memory. Tried to allocate 3.19 GiB (GPU 0; 12.00 GiB total capacity; 3.89 GiB already allocated; 1.26 GiB free; 8.70 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF
VRAMが足りないんだから… ・画像サイズを下げる ・無駄なものを外に出す ・モデルサイズ削る ・オプションを変えるしかない ・TiledDiffusion使う ・UltimateUpdateつかう ・3090/4090/5000Ada/6000Adaに買い替える他
ローカルSD Loraによる生成について質問です 下記のような生成方法は可能でしょうか 基本プロンプトを設定しておき 取り込んでいるLoraファイルを読み込み100枚生成 生成が終わったら次のLoraファイルを読み込み100枚生成 これを取り込んでいるLoraファイルの分だけ行う
Pythonでバッチ書いたらすぐ出来ると思う 1枚だけ生成するサンプルはたくさんサンプルがあるから応用すればOK
AIのおかげで英語力とプログラミング力がどんどん上がってる エロの力って本当に偉大やね
自分でLORA学習とかしないで拾ってきたLORAで画像作って遊ぶだけなら VRAMが12GBあってもCUDAコアやRTコアが少ない3060より VRAMが8GBでもCUDAコアやRTコアが多い3060Tiの方が やっぱり快適にだったりするよね?
>>178 自分だったらXYZプロットのPrompt S/Rを使うかな
>>176 まず使用グラボとその生成サイズを書かない時点でなんも言えない
>>181 vramシビアなのは学習ではなく生成だよ
逆に学習はcolabでもいいくらいらしい
>>181 3060と3060tiだけの比較で言えば
低解像度の生成ならtiのほうが若干速いが、vram8GBでは高解像度生成がクソ遅いのでtiはやめたほうがいい
質問です。 現在、sitaモデルを主に使っているのですが、短めのTシャツなどで服の部分がブランクのように真っ黒になる場合があります。 何か思い当たる原因はありますでしょうか? または、デザインや色は何でも良いので、エラーに見えないもので埋めてもらえるようなプロンプトはありますか? モデル固有の事情でしたらすみません。
paperspaceすごい軽くなったけど なぜでしょうね? gradioは何も変えてないのに
>>186 おそらくモデル固有の問題
もしかするとCFGの上げすぎの可能性
10以上にすると極所的に破綻が出てくるモデルがある
【 適切な回答を貰う為に 】
・AIツール環境
NMKDなのかAUTOMATIC1111等のローカルなのか、NovelAIやその他webサービスやcolabなのか等必ず書こう
・自分のPC環境
ローカル環境の場合はメインメモリ、グラボ、HDDかSSDか等は最低でも書こう
・質問内容
独自の言い回しや略語を使用せずにちゃんとUI等にある単語を使用しよう
また、試してみたことは必ず書くこと
エラーについてはコピペ、またはスクショを貼るようにしよう
・ちょっとした雑談ぽいもの
専用スレがあるのでそっちでやろう
【StableDiffusion】AI画像生成技術18【NovelAI】
http://2chb.net/r/cg/1680918687/ 【StableDiffusion】AIエロ画像情報交換21【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1681448513/ なんJNVA部★188
http://2chb.net/r/liveuranus/1681611826/ AIイラスト 愚痴、アンチ、賛美スレ part44
http://2chb.net/r/illustrator/1681442863/ >188 情報ありがとうございます! 助かります。
>>181 ゲームですら 12 GB で 足りなくなってきてるので
最低でも12gb は必要
バイオRE4でも全設定最高にしたらVRAM17GBくらい行くしな
>>174 いや、時間が掛かれば放置できるがソコソコのペースで出てくるから休む間が無くなる
>>164 wildcardによく使うトリガーを登録するとか?重みをあまり変えないならLora名も込みで登録しておくと簡単です。
質問させてください automatic1111なのですが、LoRAなどの情報を一括で管理するツールなどないでしょうか civitalに確認しに行くのも大変ですしたびたびおちているので悲しいのです
Deep Danbooruってのを知ったので入れてみようと思ったら初めから入ってたのね 今まで無理矢理なプロンプトで注文していたからかグロいものがよく生成されていたけど 一旦画像からプロンプトを出してもらってそれを使ったらグロができにくくなった あとネガティブも適当に拾ったのを使ってたけど、EasyNegativeを使ったら色がめっちゃ綺麗になった 先人の知恵には素直に従うものですね
counterfeit で作った女体ってだいたい体中にベルトが巻き付いてない? belt とか band とかをネガティブに入れる以外になにか対策あるかな
ネガティヴに入れるならshibari, bodage, ropeあたりじゃない?
自分は初めてつかったモデルがanythingなんだけど、とりあえずデフォルトでSDを入れといたほうがいいですかね バージョンはいくつがオススメ?
>>197 そもそも単に記述したプロンプトのどれかが綴りが間違っていたり悪さをしているだけかと
もう一度自身のプロンプトを見直してみては
>>200 SDモデルに対するなんらかの誤解があるようです
現状、公式のSDモデルを導入しても絵の向上は見込めません
SD公式モデルは各モデルのベースとなったものですが、今となってはかなり遅れたモデルなので、現在学習以外での用途はほぼありません
ちなみにSDモデルには1.4~1.5と2.0~2.1の2系統があり、Anythingを含め、皆さんが使用している有名な2D3Dモデルはほぼ全て1.x系から派生したモデルになります
ちなみに現在公式ではv3にあたるXLというモデルが発表になっていますが、まだローカルでの使用は不可となっています
SD1.5で学習しました っつーのは1.5系統のモデルを使ったというだけで SD1.5のモデルをそのまま使ったわけじゃない
間違って日本語で入力したら 女の子に吹き出しが付いてて「土人いなんば いなんなとてです」とか言ってて怖いわ
>>192 バイオ4 も食うみたいだね
あとなんかもう1本やけに食うやつがある
NVIDIA も本当に増やしてほしいよ
24gb じゃ足りねえよ
>>195 StyleでLoRA名つけて保存してる
Styleだとpromptしか保存できないからseedなんかのその他の設定はpromptに書き込んで保存しといて生成する時に消してる
初心者です。loraの特定人物の学習で、生首画像がいいと聞いてやったんですが、できたloraを適用すると普通に生首の画像が生成されます、どうやれば良いのでしょうか?
>>208 ちゃんと生首さんのやり方をそのまま模倣しないとダメでしょう
>>208 生首法は元画像が一枚しかないとかの場合の窮余の策
特に理由なければ普通にやるべき
却って結果が良くなるという話は聞いたことない
>>208 あと、Jに生首スペシャリストがいるからそっちで聞いたほうがいい
>>212 人の顔の場合アングルや表情、化粧とかその時々で見た目全然違う事多いと思うけど
それらが平均化された様な物よりは一枚の生首の方がそのまま出やすい事もあると思う
civitai、落ちたり復活したり動いているようで不具合だらけだったりと不安定の極みで、今は「復旧した」扱いになってるようですが、私の環境ではいまだに、右上のアラートボタン(ベルのアイコン)を押すとエラーが出ます。 先週末の不具合開始の頃からずっとですが、これっておま環でしょうか?
そういやLoraで生首法やってうまく行った素材をそのまんま Lohaで学習させようとしたらさっぱり学習できんかったなぁ・・・
>>215 civitaiは今後は有料制に移行するという話なので、月額払えば安定して利用出来るようになるかもしれない
ただし無料ユーザーは重いまま
>>185 具体的にどれくらい生成の速度が違うかって分かります?今ゲーム用で3060ti使って、3060を増設するほどの違いか気になってて
「アスカベンチ」でググれば比較あるからそれ見なよ VRAM12GBは個人的には必須だと思うけど個々人の用途の違いが大きいから自分で決めるしかない
>>218 通常ベンチなら3060tiのほうが速いよ
vram量が問題になるのはLoRA学習時か4kとか8kになった時だけなのでそこまで気にすることでもない
昨日他所の板で見かけた学習が駄目って人はやたらDIM上げてたらしい(512) 8でも良いと言って試したら一気に改善したと喜んでた とりあえず高い方が良い物が出来ると思ってしまうんかね
3060tiをすでに持っているなら3060を買う意味はあんま無い、逆に遅いことに苛つくかもしれない 言うてもバカでかい画像精製も何時間もかかる学習をそんなにやらないからな でも、3060tiと3060どっち買った方がいいですか?なら3060と答える VRAM量無いと無理なもんは無理だから
知人が8GB3060をメルカリで購入しててすげえ嘆いていた
今から新たにはじめるとして予算の関係で 12G3060か3070のどちらかを選ぶなら どちらでしょうか?
>224 3060。 新規で買うなら、8Gのグラボを選ぶ理由は無いです。 かなり不自由すると思う。
>>225 outputのフォルダに自動保存されてるだろ
24Gですら足りなと思ってるのに 3090か4090が二択しかないだろう VRAMがないとそもそも生成できない速度は二の次だ
ソフト側で複数枚環境をいけるようにしてもらたら、1660x5のマイニングリグが息を吹き返すんですけどねえ。
>>225 たとえば25ステップだったら5ずつ保存するみたいなことはできないので、ステップ5の画像、10の画像、15の画像…を生成する手順になる
X/Y/ZプロットでZを「ステップ数(steps)」にして、値を「5-25(+5)」と指定すると5から25まで5ステップずつ増えていく画像が保存される
値の指定方法は公式を見てね
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Features#xyz-plot そういや、テスラk80とか、P40とかの nVIDIAの古めでメモリたくさん積んでる演算専用ボードって使えないんだっけ? 確かどっかでチラッと使えないと読んだ気がするんでずっとスルーしてたけど、中古でクッソ安いんだよな
>>225 sd_save_intermediate_imagesてエクステンションが、途中経過のサムネ全部保存してくれる
>>234 残念ながら古すぎて対応していない
そもそも昨今のAI学習でも使えるなら捨て値で売られず高騰しているはず
>>235 へえー、こんな便利なものがあったんだ。横から感謝
SD web UIのLatent Coupleについて質問です 有効化ボタンを押してRectangularの設定数値をいじっても、適用ボタンを押すと初期の数値に戻ってしまいます 何が問題ですか?
>>220 あ、ほんとですか。学習とか高画質にはそこまね手を出してないのでこれで行こうと思います。ありがとうございます
>>236 Stable Diffusion Discordで検索すると何人かがP40を使っていると言ってるので全く不可能というわけでも無いらしい。
速度としては3060より1割くらい早いとのこと。
ただし電力効率は良くないので電気をかなり食う、
そしてnVIDIAの通常のドライバでは対応してないのでレジストリをいじったりなどの作業を行わないとシステムに認識されないんだと。
まぁ元々コンシューマ製品では無いから情報が少ないのとnVIDIAとしては廃棄サーバーから大量に
流出するこういう中古格安ボードを使って欲しくないからまともなドライバ対応しないんだろうな
Lotaのトリガーワードってどうやって覚えてますか? 今はcivitaiにいちいち見に行ってるのですがいい方法何かありますか?
>>238 applyボタンはextra generation paramsの設定データを適用する為のボタン
そこが空っぽの状態で押すと初期値で設定される
>>242 LoRAのファイル(ckpt/safetensors)と同じファイル名の拡張子txtは説明文を格納しているファイルになる
そのファイルに説明文じゃなくてトリガーを書いておけばすぐわかるようになるよ
全裸にしたいのにどんなに頑張って服がが消えません completely nudeを入れて ネガティブの方にjacket, dress shirt, ckothes, topを入れてますが はだけた状態のシャツがかかっていたり襟の部分だけのシャツを着ていたり普通に服を着ていたり 下半身はちゃんと裸なのに何故か上半身は裸になてくれません 全裸にするにはどうすればよいでしょうか
実写系loraを学習する時、ベースモデルのオススメありますか? SD1.5 chilloutmix basil mix BRAとか色々ありますが
>>246 frasshYourRealistic_frasshV1
ワイルドカードって呪文100個書いたら、1呪文1枚で100枚生成って事であってる?
>>246 muse
もうbasilもcilもライセンスで駄目やんな
>>248 モデルによって変わるんですか?
Counterfeia_V2.5です
>>252 モデルによっては美麗なイラストを雑にマージしすぎて服着てる状態がデフォになる
下半身だと出るのは上半身だけのイラストをたくさん学習したから影響を免れているのかもしれない
>252 これエロ系じゃなさそう。 majinaiの全裸イラストから、モデル名とプロンプト見てみてください。
>>251 100個書いたらランダムで100回選ばれ続けるのか
>>252 SFWモデルとかいうのがあって健全な絵しか出ないのがあるらしいよ
>>252 それのページみてみたけど
V2.2…NSFW modelってあるからそっちにすればいいんじゃねえの
>>255 いくつか見てみたけどnudeだけで全裸になってるものもある半裸もあるみたい
>>255 下半身裸でおっぱい丸出しなんですが
これを入力すれば確定全裸ってワードはなさそう 全裸になるまで出力し続けるしかないのかも
わいも どうしても服着るなら(naked:1.4)〜(naked:2.0)
>>260 AIさん的にはすじもおっぱいも健全なんだよ
まあ、個人で作ったモデルだろうからそんなの適当でしょ
とにかくエロ向きじゃないモデルなんだってそれは
>>265 エロさで言えば脱ぎかけの服が腕に引っかかってるってむしろ全裸よりもエロい気がする
今はエロい絵じゃなくて全裸が作りたいから苦戦してるけど
>>170 さんくす亀レスですまん、今帰宅して試してました
Geforce Experienceを起動してもパフォーマンスタブが見当たらず設定変更できませんでした
調べるとGTX1660Tiは適正60-70℃最大83℃とか書いてるけど90℃超えてる・・・
webui-user.batを実行すると実行するには何かキーをおしてください、とでてキーを押すと閉じてしまいます。何か思い当たる原因はありませんか
Stable Diffusion 5ch wiki だったタイトルがいつの間にか NovelAI 5ch Wiki になってる・・・
>>268 そのエラー画面のスクリーンショット
使ってるPCのスペック
あたりの情報を提示すると所望の回答引き出す可能性があがるかと思われます
>>268 インストール後すぐ? なら一度再起動しないと駄目だと思う
>>234 ・ふるいTESLA K80 でAI画像を生成してみる
VIDEO 丁度こんなものがあったよ
K80は2GPUで24GBらしく、片側12GBの疑いがあります
Kepler世代でGTX7xx系のアーキテクチャみたい
512*512で1分くらいでデモしてるので出力は出来るっぽい
綺麗なボールギャグを出したいのですが、 全くうまくいきません、 ballgag,gag,gaggedの3つのプロンプトをそれぞれ組み合わせて、 何処を強調するかで調整しているのですが、赤ちゃんが咥えるモノみたいになります。 良いプロンプトや強調度合いをご存知の方、いらっしゃいませんか
>>276 すまんノートのGPUだとPL設定できないっぽい…
パッと思いつくのはafter burnerで低電圧化なりクロック落としてみるとかOSの電源設定で省電力にしてみるとか
>>277 基本的にモデル次第なので一概に言えない
出ないモデルではどれだけ頑張っても出ない
出るモデルではgagだけでも出る
また、bdsm など状況を説明するタグを入れると、SMプレイに特化したものが出やすくはなる
SDって何回か画像生成するとクセが残ります? 例えばパトカーの画像を大量に生成した後にpromptを全部消して、アニメキャラを出力しようとしたら胴体がパトカー人間になるんですが・・・
>280 はい。 古いプロンプトの影響が残ったりしますね。 何十枚も回すような場合は、テストを入念に。
>>280 癖と言うか、ブラウザがバグってるんだと思う
出力画像のプロンプトを確認してみて
あと何だったかプロンプトのプリセットみたいな奴が気付かずに有効になってるとか
AUTOMATIC1111で生成していたら突然Generateの下の作成結果が表示されなくなってしまいました。 生成過程は表示されるし出力ディレクトリにも正常に出力されているのですが生成結果だけ表示されなくなる原因ってなんでしょうか? ブラウザの再起動、キャッシュ削除、PC再起等は試しましたが改善されません。。。
>>277 真面目に質問してるのに性癖がにじみ出てるの好き
>>280 始まった頃からさんざん笑われてきたオカルトで、大抵は自分がプロンプト管理ミスってるだけ
Seedも何もかも同じなら1ドットも違わない同じ画像が出るので、「前の絵に出てた血が、血呪文ない次の絵にも出た」なんて遡及はありえない
完全同環境の別人にいきなり後の方のPNG Infoで出させたら血があって、誰かが前に出した絵の影響を時空を超えて受けたの?って話
ただ同Seedでも毎回変わってしまうxformersなんかはメモリ上でなんかあるんじゃないかって噂がある
変わってしまうので証明すらできなくてオカルトに拍車掛けてる
>>280 シードをランダム(-1)にしてるときに起きやすい気がするから、その例でいうとパトカーが混ざりやすいシードを選んでいるという仮説を持ってる
次に同じ現象にあったら、シードを手入力してみようと思ってる
生首 トリミングの際に肩の輪郭が残ってた事に後から気付いて若干失敗
学習した物から生成
中途半端な角度一枚でも、その角度に固定されると言う事もなくわりと柔軟に出る
>>287 ええ…こんなのでいいの
色んな角度を一杯用意するより、めっちゃいいの2、3枚で学習させた方が捗りそう
majinaiに出ている画像と同じものを出そうとして、同じモデルを使いプロンプトや設定もすべて同じものにしても違う画像が出てくる原因はなにが考えられるでしょうか?
具体的にはこれです(R18注意)
https://majinai.art/ja/i/Q0EtC__ ここに掲載されているプロンプト、ネガティブプロンプト、モデル(hash同一)、イメージサイズ、ステップ、サンプラー、CFG、seed、clipskipまで全く同じ値を使っても別の画像が出力されます。
環境は1111、3060tiです。
じゃあ一番凛々しかったのフルサイズ と言っても小さいけど
学習元画像はこれかな
>>289 ここは確か全年齢なんでこっちで相談した方がいいかと
【StableDiffusion】AIエロ画像情報交換21【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1681448513/ ちなみにいちいちコピペせずにPNGの右のところクリックするとchunks入りのが落とせるのは知ってる?
PNG Infoにそのままぶっ込める奴
同じようなデザインが連続して出やすいってのは都市伝説じゃなく誰もが経験してること ワイドなショーでも同じような顔のモデルがpromptを変更しても出てただろう 他のパソコンで同じ環境でも、あの顔は出せない ソフト側が学習してるとしか思えない事案 都市伝説だーで思考停止するより どうして、そういうことが起こるか深掘りした方が有益だと思うけどね I2iで別画像を使うとリセットさせられる と言うか、今度はそっちに似た画像が出てくる
>>287 工エエェェ(´д`)ェェエエ工
そのうち1枚で自動的にそのパターンの学習を行うようになるんだろうな
hires fix のステップ数っていくつくらいにしてますか? 状況に応じて変えるもの?
>>293 ありがとうございます!そっちで質問してみます。
chunks入りのも初めて知りました、便利ですね。
(そしてやっぱPNGinfoで読み込ませても違う画像が出てくるなー)
>>296 通常の半分の10にしてる減らしてもあまり変化がなかったし
生成時間はかなり減るし
Google colobで1111を、ChilloutMixモデルで動かしているんですけど、 生成自体は上手く行ってるんですが、 画像の生成過程が全く表示されなくて、 Generateクリック → 数秒無反応 → 画像がポンッと出る みたいな感じになるんですけど、経過が分かるようにできないものでしょうか? 以前にどこかの動画で紹介されてたNoteBooksをそのまま使ったときはちゃんと経過が表示されてたんですが
もしかして二次元のキャラも顔だけ学習させたい時は生首でやればできるのか? 特徴的な衣装やポーズ込みだと全身必要なんだろうけど、それも顔と分けて学習の方が良かったりするのだろうか
>>300 SettingsのLive previewsの設定かな
今loraモデル作ってるんだけどこれのベースモデルってsd1.5でいいんかな? civitaiに上げられてるloraのページにはどれもsd1.5がベースって書いてあるけど本当に合ってるんかな
>>303 このスレをsd1.5で検索くらいしろや
>>302 レスありがとうです。
でもダメみたいです。Show progressbarや、Show live previews of the created imageなどなど
色々設定変えてみたんですがプログレスバーやStopボタンすら表示されません。
正確にはGenerateボタンを押した一瞬だけ表示されるんですがすぐ消えてしまいます。
Apply setthingはしてるし・・
でも画像はちゃんと生成されるんですよね.謎だ
2~3日前に作成した画像をpngのメタデータから作り直したら 元の画像と微妙に違うものが生成されるようになってしまったのがだが こんなことってある? 今まではこんな事なかったんだが 顔の印象が微妙に変わったり衣装が変わったりしてめちゃくちゃ困っているというか動揺しているのだが
質問すみません。 一回一回ポチポチ数値変えて、生成に数十秒まっての繰り返しがだるくなってきました。 そこでプログラミングで、 プロンプトのlooking at viewer:1.2←この数値を変え、複数のプロンプトを作り一気に生成をすることは出来ますでしょうか? もし可能で、やるならPythonという言語がいいのでしょうか??
生成ボタン右クリックでgenerate foreverって出て無限生成出来るやろ その間にプロンプト書き換えると自動で反映される
>>309 複数プロンプト準備やったらその方がいいですね
>>294 複数出してるとき明らかに毛色の違うのが出ることがある
そんでその前後のがそこに似たニュアンスを含んでる ってことが稀によくあるね
>>306 環境や微妙の幅が判らんとエスパーする以外にないんだけど
典型的なxformersが有効になってるケースだと思うぞ
いいやつ出来た時にextrasで脳死で8倍のアップスケールしています そうすると2Mbくらいのと150Mbくらいの2つファイルが生成されるんだけど何故でしょうか? 多分150Mbが8倍になったものかと思われますが
2次元巨乳キャラのlora学習させるときターゲットから胸関係抜いて、いちおう満足するものできたんですが、土下座させると背中に胸が描かれます。 ターゲットにはいれといて描画のときにlora&プロンプトが正解なんでしょうか?あるいは奇形対策で対応可能するもんでしょうか?
生成とは関係ないんだけど久しぶりにdmmの 動画再生したら再生した瞬間に画面が真っ暗に なってまうんだが。音声だけは流れてる。モニタの接続が切れてるっぽい。rtxのドライバ更新しても 治らないよ
SD入れてCUDAとかパイタッチとか色々いじくり 回したからそれが原因かと思うんだが
>>314 そういう設定になってる
jpgとpng
原因となりそうな他のアプリ切るしかない dmmとかはキャプチャーで録画できないように バックグラウンドで怪しげなアプリ動いてたら真っ暗になった気がする
グラボ壊れたか? 買ってばかりやのに〜。gigaのプレイヤーでも 同じ症状でるわ。試しに普通のmp4の動画は再生 できた
Loraの学習はじめて2時間 現在35%って状態でファイル名つけ間違えてることに気がついた 完了後にファイル名変換で大丈夫かな?
SD入れてからの症状だから原因はこれしか ないんだよなあ。OSを上書きインスコすると SDは使えなくなったりする?
実写系で巨乳爆乳化するとよくヘソに謎物体が生成されるがヘソピかな
>>287 声出して笑ったw
StableDiffusionおもしろすぎるな
>>325 マルチモニターでも真っ暗になることあるよ
片方のモニターの電源切っていても線がつないであるとそっちに映像流れていたりする
ちょっと極端だけど、モデルはloraの拡大版って感じで捉えてもいい?
1111で生成してるとき、タスクマネージャーみるとメインメモリはかなり使ってるんだけど、GPU使用率は数%しかないんだが、これって何か間違ってる?ふつう?
>>330 似てるようで違う
モデルは学習したデータそのものだが、LoRAは学習データのほとんどをモデルに依存している
なので、使用モデル次第ではLoRAは学習内容を再現することが出来ない
CivitaiのDucHaitenClassicAnimeというモデルを読み込むと、実行するには何かキーを押してください…が出て終了するのですが何故ですか
まだ初心者なのですがLoRAの作り方を優しく丁寧に説明してあるサイトはありますでしょうか
>>314 デカイ方がpng
小さい方かjpg
設定で一定以上のサイズになると軽いjpgを一緒に出力する設定になってる
切ってもいいけどワイは200MBでjpg作るようにしてるな
イムガを毎回使うなら20MBかね
>>332 だから全く反映されないのがあったのかー
二次元調モデルにリアル系rolaしても意味無かったり崩壊したのもそういう事か
>>331 タスクマネージャのGPUのとこに3DとかCopyとかEncodeとか色々あるやん?
それポチッとクリックしたらCudaって項目ないかい?
環境によっては別の項目がGPUの実質使用率を指してることもあるけど、生成開始したらこんな感じでゴリッと稼働すると思う
GPUファンの駆動音と連動するので「あーGPU動いてますねーこのグラフですねー」って感じのがある筈
>>325 ドライバ更新ではなくDDUで綺麗に削除して入れ直しても駄目かな
壊れた可能性もあるだろうけどどちらかと言うとソフト側の問題の印象を受ける
>>337 自分も全然GPU使ってないじゃないか
むしろCPUのシングルスレッド性能が重要か?と思ってた
隠れた項目があったのか
Chrome安定 FireFoxは不具合報告多かった希ガス
edgeで問題なし firefoxはもう諦めたほうがいい、マイナーになり過ぎてクラウドアプリで対応外されるケースが多すぎ
>>314 extrasのスケールアップって効果ある?
解像度だけ上がってるけどそんな精密になってるようには見えないわ
実写だからかなぁ
え、Firefoxで普通に動いている自分は異端か……
>>250 オリジナルを直接利用する場合だけでしょ?
マージモデルを第三者が作って別ライセンスで出したら、そのマージモデルの利用者はオリジナルのモデル作者と契約してるわけじゃないから止めようがないわけで
>>344 大丈夫だよ不具合なんて聞いた事もないわ
すんません間違えました OMEN by HP 25L Gaming Desktop GT15-0760jp です
ブラウザは本当はどれがいいのかな? ChromeはなんかVRAMあるだけ使うからよくないから、FOXがいいみたいの読んだが。 その論理だとedgeもだめだろうし。 教えて詳しい人!
>>350 0765は3060ti(8GB)やね
AI学習させるなら12GB欲しいので0760の方が良いよ
>>354 すいません 間違えました760の方でした ありがとうございます
>>351 ほいさっさ
主メモリは32GB、ストレージは増やした方が良いかも
>>356 ストレージは3.5HDDの4Tを追加予定です
メモリは変更できないので元のを捨てるしかないか(´・ω・`)
ブラウザとかなんでもええ、ブラウザそのものよりもそのブラウザにインストールした拡張機能の方を気にしたほうがええわ。
>>357 ちょっと前のスレからの無断甜菜
=================
メインメモリはモデルデータの読み込みに大きく関係してる
メモリが8GB~16GBだと、fp32の7GBぐらいのモデルを扱うとメモリオーバーでエラーが出るので軽量化された容量の少ないモデルを使う必要がある
また、マージモデル等を作る場合はさらに同時にモデルを読み込んだりもするので、フルで楽しみたいのなら最低32GB程度は欲しい
=================
lora用の画像サイズって適当で良いんですか?それとも512x512が必須ですか? なんか人によって全然説明が違うというか重要な点なはずなのに語られないのが不思議なんですが
>>314 それぞれpngとjpgでは
settingsの一番上のSaving...の
If the saved image file size is above the limit, or its either width or height are above the limit, save a downscaled copy as JPG
これチェック入れるとさらに下で指定したサイズ超えると勝手にjpgで出してくれるんじゃなく、
pngとjpgの2つ出してくる、「copy」だからね・・
>>357 ストレージ追加するなら容量を減らしてでもSSDにしたほうが良いよ
モデルデータやLoRA等追加学習データの読み込み速度が全然違う
HDDはかなりストレスたまると思う
ありがとうございます。 メモリよりVRAMの方が重要ですよね・・・ それでこのモデルにしたんですが・・・ メモリぐらいカスタマイズできればよかったのに・・・ 別のメーカーで考えます (´・ω・`)
>>360 用意する教師画像はあまり大きすぎない程度(2kぐらいまで)であればサイズは問わない
あまりに大きすぎると処理に時間がかかる
そして学習時にはテキトーにリサイズ&トリミングされ、内部的には512x512(基本設定)で処理される
なのでわりとみんなテキトー
>>352 気にするならブラウザは内蔵GPUに振る
>>360 できるなら512×512にしておいた方がいい
サイズ合わせって処理がなくなって
メモリ不足で途中で止まるリスクが減る
>>363 VRAMが一番重要だけど
だからといってメインメモリは減らしていいということにはならないからね
VRAMを活かすためにもメインメモリは速くて多い方がいい
DDR5が使えれば最高
メモリ最大転送速度
DDR4 PC4-25600 16GB デュアルチャンネルで最大51GB/s
プレステ5のSSDはクラーケン解凍ユニットで最大23GB/s
Apple M1は最大68.25GB/s
DDR5はDDR4の約1.8倍速いという話だ
>>364 >>366
なるほどサンクス
なら理屈としては自分でトリミングした方が絶対に良いという事になりますね
その数分の手間がとても面倒に感じてしまうけど
Google colabの一日のGPU使用上限について webuiの生成数×ステップ数×解像度あたりで上限判定くると思ってたんですが、 今日は30分程度放置している間にGPU使用上限のポップアップがでました 接続時間も判定に使われていますか?
>>367 専ブラが不具合で読み込めなくなり返事遅れました
諦めて30万ぐらいのPCに変更します
(´・ω・`)
実写系(chilloutモデル)で [1cock, w paizuri] [1cock, double paizuri] [1cock, w titfuck] [1cock, double titfuck] 等試してるんですがなかなか安定した結果が出ません Basilもダメ やっぱ実写系だとまだまだ学習が不足してるのかなーと
最近tiktokとかで既存の動画の動きをそのままイラスト・アニメ化してる人いるけどあれ何使ってるか知ってる人います? deform なのかcontrolnetなのか何にせよ方法がわからないのでご存じの方いたらお知恵を拝借したく
>>369 GPUを使う処理全くしてなかったり放置しててもGPUランタイムに接続してるだけで刻一刻と使用量上限に近づくから
(使用環境SD webui A11111、イラストのt2iからのi2i) ・上半身は制服、下半身だけすっぽんぽんにする方法と ・パンツを膝までずり下げたり、片足に引っ掛ける方法教えてください プロンプト: sailor uniform sleeves, no panties, (no skirt:2), neval negativeプロンプト: (skirt:2) とか プロンプト: panties lowered, panties hanging by thighs, とかダメでした。i2iで描いて誘導を試みても無理でした
下半身スッポンポンはbottomless 逆に上半身スッポンポンはtopless パンツをおろすのはLoraにあるのでpantyで検索ゥ 片足に引っ掛けるのはワイも分からん
>>314 について皆さんありがとうございました
>>343 こちらの環境だと512x768をhiresで2倍1024x1536
それをさらにextrasで8倍にするのが限界です
モニターがWQHDなのでどう考えても無駄は無駄だろうとは思いますが時々拡大してムフフすることもあるだろうと思い限界までアップスケールしていますw
8倍ってことは約8000x12000?であってるのかな
Hiresの時点でアップスケールできたらもっと綺麗なんだろうか
片足に引っ掛けるのは分からんけどズリ下げるのは一応panty pull ただ効きが悪いので強調必須だし場合によっては上の人が言うcivitaiに転がってるloraに頼った方が早い
panties_around_one_leg ってどこかで見たが効くのかしら
>>372 1フレーム単位で切り出してコントロールネット掛けて動画編集ソフトでパラパラ漫画にしてるだけ
SDでアニメ作ってるわけではない
>>372 >>379
あれはmov2mov
https://github.com/Scholar01/sd-webui-mov2mov にコントロールネット4つ重ね掛けらしい
コントロールネットの追加設定無しでも前フレーム比較してるっぽくて結構いい出来になる
コントロールネット4つ重ねは試してみたけどCannyとかで元色が消える対策が思いつかなかった。
普通に設定してるだけっぽいけど何が足らないんだろう・・・解る人教えて。
エロにこだわる外人のプロンプト技術ハンパねーよ エロゲだぜあれ ディープフェイクはお前ら手を出してる? サンプルは簡単に作れたがこれ 学習前の顔画像抜き出しがCPUパワーオンリーで もう飽きて色んな英文を意味なく生成するのも楽しいな
みんなエッチだなw やっぱ技術の進化はエロからだよな
後、StableDifusionの動画変換は
これも昨日か一昨日とかに少し話題になってたけど
これは動画編集ツールに投げた方が楽だと思う。凄いんだけどこれはまだ面倒。
https://github.com/CiaraStrawberry/TemporalKit LoRAの学習モデルで、みんなV1.5を使ってるか、1.5の方を推奨している人が多いのはなぜなんだろう? やり方を説明している動画をいくつか見てみたけど、そこの説明がなくて、 検索しても理由が見つからないので、先輩方、ひとつうんちくを披露してくだされ
>>384 2.1とかって1.5と互換無いもん、そりゃそうよ
解像度が512→768ってだけなのにここまで互換無くなるとは思わんかった
>>385 おお、なるほど、ありがとうございます
つまりV1.5ベースのモデルとかで使えなくなってしまうから、と言う解釈でおK?
>>386 OK.
2.1のモデルがまだあんま無いから
2.1用のLoRAもまだあんまり作られない感じ
CivitaiでSD 2.1 768でフィルターして検索できるし
最近良いのが出てきてるから2.1で遊ぶのも面白いよ
>>387 なるほど、なぜ機能的に良くなってるはずの新しいバージョンを使わないのかというのが
ずっと疑問だったので、スッキリしました。2.1もいじってみます。
感謝感謝です
lora学習の時vaeってどこまで影響あるんでしょうか 学習時はvae外して実際の生成時につければいいかなって考えてるのですが クオリティに差出ますかね
>>306 これ原因がわかったんだけど
例えばBatchSize 4で4枚同時生成する。
そのうちの一枚がお気に入りで、PNGからメタデータを取って
一枚だけ再生成してみる。
そうすると絵が微妙に違う。
試しにBatchSize 4にして生成してみると完全再現される
つまり絵を再現する条件にBatchSize 4で生成するというのが含まれている
これってなんか俺のセッティングが悪い?それともバグ?仕様?
これHiResする時にかなり困るんだが。
BatchSize 4でお気に入りの絵が1枚できたらそのまま4枚を同時にHiresかけないといけないんだがめっちゃ時間がかかる
事の真相を知っている人がいたら教えてくれ
BatchSizeってのは日本語UIだと1回当たりの枚数ってやつね。
ちなみに絵が微妙に違うって言っても顔の印象が全く変わったりすることもあればPhotoshopで重ねて見ないと分からない程度のこともある
novelAIです 少女と大人の女性のツーショットを描きたいのですが、なかなか上手く行きません プロンプトをどう書き出せば良いでしょうか?
>>391 それきっとサンプラーがDPM++SDE系統でしょ?
設定のcompatibilityの"Do not make DPM++ SDE deterministic across different batch sizes"のチェックで行けるんじゃない?
エッチな画像作成模マンネリになってきたからそろそろ追加学習に手を出す時合か
エッチな裸画像ばかり作り続けた結果、服の着せ方が分からなくなった
>>395 DeepFake面白いよ
こっちは顔のトリミング作業がCPUパワーあるだけ使うからやばいぞ
結局モデルデータから画像引っ張ってるだけだから 正直もう飽きてる
二次はそうでもないけど三次系だと時々ハッとする画像が生成されて驚く こういうグラビアアイドルいるんじゃないの?っていう
>>380 これ解説してるサイトとか文献てご存知です…?
ご教授頂けたら嬉しいです
>>379 ありがとうございます!
試してみます~
プロンプトを入力して、それを後から強調したい時、( :)を追加するのが非常に煩わしいのですが、さくっとする方法ってないでしょうか? 一度、( :)で囲めば、CTRLと上下で数字は変えれるのですが、そもそも、( :)で囲うのを簡単にできれば楽なのですが
>>404 あ、それでいけるんですね。
ありがとうございます。
Dynamic Promptsについて質問なのですが
画像のようにwildcardsのファイル内に書いたwildcardsが読み込まれなかったんですがwildcards内にwildcardsを書いて細かく分岐させるのは無理なのでしょうか
あと、Dynamic Promptsの重みについてなのですが使おうとしたら一つだけランダムに選択する以外の重みが生成後のプロンプトに残ってしまったんですが
0-2$$のように複数選択の場合は重みって使えないんでしょうか?
>>405 ご教示と言うのが常識
誤用は恥ずかしいよ
>>405 ご教授はゼミ入ったり弟子入りする時に遣う言葉やぞ
civitaiてモデルデータとloraファイルの投稿場所て認識であってますか?
シャツの裾をお腹のあたりで結んで女の子座りして欲しいだけなのに女の子座り出ないし 結んだシャツもネクタイ出てきたりして安定しないんですよ!
>>407 一つ目の質問のワイルドカードのネスト(入れ子による繰り返し)は出来る
恐らく起動中に新しく作ったワイルドカードだからデータの更新が出来てない
WildcardManagerでReflesh wildcardsしたら使えるようになる
二つ目の質問のDynamicPromptsの比率はスペースを入れてはいけない
"weight::"の形でスペースを入れないのが原則
"weight:: word"は出来るが"weight :: word"や"weight ::word"は出来ない
それから選択個数(0$$)や比率(0::)に0入れれるけど内部的にはエラーが出るから0使わない方が良い
コンソールログ見たらエラー出力されるから判る
無選択が必要な場合は空のプロンプトでカバーする
{red|blue|} = "red" or "blue" or ""
>>375 >377>378
374です
遅くなりましたがありがとうございました!
botomless成功しました。ありがとうございますー
パンティLoRAも探して後日導入しようかと思います。その前にLoRAの導入方法(も、もでるとLoraの、まーじ?)を勉強しないといけないけど
>>377 ありがとうございます
panty pullを検証しました
panty pull検査1
SD webuiA11111 counterfeit2.5 全30回 sampling 150 CFG 30 t2i panty pull
完全な成功2 - 6.66%
失敗14
部分的成功5
バグ・グリッチ9
一覧
部分的成功
panty pull検査1.5
SD webuiA11111 counterfeit2.5 全30回 sampling 150 CFG 30 t2i (panty pull:1.5)
完全な成功2 - 6.66%
失敗0
部分的成功2
バグ・グリッチ36
1.5一覧
BUG凡例
>>378 panties_around_one_legをほんのちょっとだけ。軽ーく検証してみました
1.0で10回回して成功ゼロ
botomless, panties_around_one_leg
1.5で20回回して成功ゼロでした。7/20でハイキックします
(botomless, panties_around_one_leg:1.5)
2.0 0/12 ゼロ
(panty_around_one_leg:2.0)
片足パンツは2次3次ともに色々なモデルやプロンプトで試したけどマジででない 公開されてるLoRAもまだなかったと思う 自作するかinpaintで頑張るか
描き足せよそのくらい どうせ指だって修正しなきゃ世に出せないレベルだしさ
昨日初めて気がついたんだけどイヤホンしながら画像生成してるとガガガガってノイズが走る 生成する度にグラボ君が頑張ってる音は聞こえてたけどイヤホンにノイズが乗るってそういうもんか?
>>420 サウンドカード別付けでも無い限り内部ノイズなんか普通に乗るから
>>380 軽い気持ちでmov2movで検索しました
https://www.reddit.com/r/StableDiffusion/comments/12q07ep/animeized_using_mov2mov_again/ にたどり着きました
Notably, I used
https://github.com/mcmonkeyprojects/sd-dynamic-thresholding to push CFG really high while not going crazy on artefacts, this gave me a very good close-to-prompt result
何いってんだが、半分もいみわがねーけど
とりあえずLINKを踏みました
Stable Diffusion Dynamic Thresholding (CFG Scale Fix)
Concept
Extension for the AUTOMATIC1111 Stable Diffusion WebUI that enables a way to use higher CFG Scales without color issues.
・SDダイナミック閾値変換(CFG修正パッチ)
SD webui A1111用の拡張機能(extension tab)
CFGをうんと上げた時、色が変になるのを補正す
ここに詳しく書いているみたいです。色抜けを戻す機能?全然わからない事ばかりですけど、なんとなくこれっぽくないですか?
https://yuuyuublog.org/sd-dynamic-thresholding/ >>420 電源からオーディオのアナログ回路にノイズが流れてるんだろうから
ヘボ電源なら変えるかイヤホンをBluetoothにすれば開放されるかもね
人の作ったAI生成画像(アニメ調)見てると服とか下着とかの身につけるもののクオリティというかディテールがすごく高いんだけど、これってプロンプト以外の要素だとHiresoFixで倍率凄くでかくしてるんですか? 自分のpcだとグラボ的な限界で(RTX2600 6G)2倍以上だとエラー出ちゃうんだけどもっと倍率出せるpcにしたらディテールアップ狙えるもの?
>>426 まずどんな感じで作成してるのか画像写さんでええからスクショとってうpった方が速い
まあ、スペック上げれば時短できるのでガチャの回数も増やせる 2600なら確実に変える方がいいと思う
ごめん2060だった 今出先なのでうpできないけどやっぱスケールアップすると書き込みも細かくなるんですね 2倍でもハイレゾかけてないよりはだいぶディテール上がってるのは感じてるからさらにあげられれば良さそうですね グラボこそ最近の?型ではあるけどそのほかのパーツは10年ぐらい前のものなので頑張って新調します
>>433 Win11じゃなくWin10ならポチってたかもしれん
>>434 >【短納期モデル!】Windows10に追加費用無しで変更可能!
おらポチれよ
ちなみにwindows10プリインストモデルは6月に値上がりするのでwindows10狙いなら早めに買えよ
AIだけの用途ならコスパは最強 CPU性能はそんなに気にしなくていいし
>>433 あーこれとほぼ同じなやつ2月にポチって今のPCなんだよな
フロンティアやすいよな
>>433 あーこれとほぼ同じなやつ2月にポチって今のPCなんだよな
フロンティアやすいよな
>>435 おお右上見逃してたわ
ポチった
仕事の関係上まだWin10じゃないと安定しないプラグインが多井ので
win11は絶妙に使いづらい タスクバーの位置くらい変えさせてくれよと 右クリックも微妙 win11でありがたいのはデフォルトの画像表示ソフトが複数同時に並べて比較できる点くらいかなぁ
>>426 2倍以上じゃなくて2倍超だとエラーになるってことかな
2倍でもLatent系でupscaleするとめっちゃ細かくなるけど
あとノイズを増やしたりステップを減らすと細かくなる
>>422 ありがとうありがとう!動画簡単に作れて楽しい。
そのサイトからリンクあるけど、最初の解説はこれかな
https://www.reddit.com/r/StableDiffusion/comments/12otdo0/the_secret_to_really_easy_videos_in_a1111_easier/ イラスト化したり元実写と離れるとブルブルしだすんだけど
CFG高くして、壊れない拡張も入れて、プロンプトやLoRAで固定するんか・・・
はえー勉強になる
controlnet 1.1も良さそうだし試そ
>>443 UI変えて仕事をした気になってる人、UI変わらないと評価しない人がMS内にいるんだろうな
https://pastebin.com/J2hcEaEw 生首並べるの嫌になってgimp用のスクリプト書いてみたら思いの外時間食っちまった
初めてのスクリプトで作法とか知らんけど、とりあえず動いた
loraのトレーニング中(コマンドプロンプト動作中)にスリープさせない設定は可能ですか?
SD用途じゃないけど、うちはDon't Sleepてアプリを入れてる タイマー・CPU負荷;通信量で設定出来るけど、GPU負荷はCPUにとは別だろうから、タイマーで推定終了時間まで禁止かな
>>449 コントロールパネルの電源オプション、のこと?
>>412 入れ子も重みも使用できるようになりました
ありがとうございました
mov2movかぁ これ使えば初音ミクDIVAの3Dダンスを2D化出来るかなぁ 簡単なら手を出してみたいが
とりあえず何も考えずにmov2mov試してみてるけど、 思ったよりうまくできないなぁ
>>451 いえ、windowsでスリープ設定しているとloraの学習中にスリープになってしまって
かといってスリープ設定解除すると日中帯で電気代無駄になるので
コマンド実行中はスリープ無効、終わったら規定のタイマーでスリープ移行できる
設定ができないかなと思いまして
webuiをdark themeで使いたいと思っています。 webui-user.batに--theme darkを追加して起動するとダークモードにはなるのですがtxt2imgタグの生成情報、PNG Infoタブの抽出情報、ExtensionタブのExtensionリストなどの文字が暗すぎて読めません。 全体の配色は変えずにそれらの文字の明るさだけを変更することは可能でしょうか? 方法があれば教えてください。
webui以外で作られた又は手書きの画像を取り込んで その画像に使われるであろうプロンプトを予想で抽出してくれるような機能ってありますか?
手書き棒人間のopenposeが全然反映されないのは何ででしょう?形の認識はしてくれてるみたいなんですが
cannyと軽量版じゃないほうのcontrol openpose-fp16をenableにだけチェック入れて使ってます
>>458 棒人間直ならプリプロセッサーnoneじゃないのかな
というか色がついた棒人間じゃないと無理なのかも
3D Openpose Editor Openpose Editorをなぜ使わない
初心者ですみませんが最近NOVELAbhで遊び始めてb驍フですがPixivなんかでよく見かける版権キャラの画像はStable DiffusionでLORA入れて学習させて作ってるって認識で良いのですか?しかしPixivのタグにNOVEAIのタグがついているので疑問で。
>>460 初音ミクとか有名どころは呪文だけで出る
なのでまずプロンプトだけでやってみる
それで出ないマイナーどころを出したいときにLoRAを作る
初音ミクや鏡音リンは出るけど巡音ルカやMEIKOは出ないのが辛い
>>426 拡張機能の「multidiffusion-upscaler-for-automatic1111」を入れて1111を終わらせて、
起動オプションに「--no-half-vae」を追加して起動して、
「Tiled VAE」を開いてEnableにするとHires. fixの倍率をさらに上げてもエラーになりにくいですよ
>>455 Pythonのちょっとしたコードでスリープさせなくすることが出来る
あとVLCみたいなプレーヤーで無限ループで音楽流しててもスリープしないと思う
>>457 i2iに突っ込んで生成開始の横の解析ボタン、って拡張機能だったかなアレ
interrogateCLIPとinterrogateDeepBooru
>>463 --no-half-vaeって逆にメモリ食わない?真っ黒防ぐためだけだと思ってたんだけど違うのかな
>>455 SDに限らず一定時間スリープ回避させたいときは
PowerToysのAwake使ってる。
>>467 PowerToysのawakeはADのポリシーより強いから会社PCの10分で勝手にかかるパスワードロックが回避できて嬉しいわ
画像生成中にプログレスバーや、途中経過が表示されないと言っていた者だけど、原因が分かった。 Google colabで使ってるんだけど、そのときのWebUI起動に使ってるAkaibu氏のnotebooksが原因だったみたい 他にもエクステンションがインストール出来なくてエラーになるとか、挙動がどうもおかしいので 自分で新規のノートブック作って、まっさらのWebUI起動したら、上記の問題全部なくなりましたわ
>>466 えっそうなの? 以前エラーメッセージに「--no-half-vaeをつけなされ」とあってそうしてるけど
なにか勘違いしちゃったかなあ
>>469 colabで拡張機能をインストールできないのは起動オプションに「--enable-insecure-extension-access」をつければよかったような気がする
meguminも強い ソレだけで紅魔族っぽい色使いになる
>>467 >>464 ありがとうございます!解決しました
最近SD-WebUIやり始めてブルスクでPCが落ちる事が多発して不安定なんだけど これってグラボの性能が低いせいなんかな? PC環境はCPU:Ryzen 5 5600 グラボ:GTX1660S メモリ:32GBでSD-WebUIは一式外付けSSDに入れてる ちなみにさっきSP方法:DPM++SDE、SP数:50、512×768、バッチ回数:10でやったらブルスクで落ちた
性能低くてブルスク出る話なんて聞いたことないわ。その発想の方が怖い VRAM足りないだけならメモリが足りなってエラー出るだけだからな
>>476 電源は600Wだから足りてるはずだけど
10年近く前に買った奴だからへたって来てるのかなぁ
>>475 Ryzen7のAPUで試してた時はVRAMでメモリリークが発生してて数回続けてやるとブルスクになってたけど、
この人の場合はCPUはRyzenでもGPUは1660だから関係無いのかな
>>479 てことはグラボより先に電源を買換えた方が良いって事でいいかな?
今月3060を買うつもりでいたけど先に電源を買換えるかな
>>455 コマンド画面で終了時間予想してスリープ時間設定してるわ、5時間後までしか設定できやんかった気がするけど。
>>433 俺も買おうと思ったら売り切れてた( ノД`)
>>474 もともと環境由来の不具合があったんだよ
高負荷で顕在化しただけで
ウチも不具合出るようになったけど調べたらCPUが100℃越えてブレーキ掛かってたわ
CPUヒートシンクに溜まったホコリを払ったら冷却性能が回復して安定した
我ながらレベル低い話でアレだがそんなもんよね
>>480 グラボのメモリー全域チェックが先だ
壊れた領域を使って落ちてるのかもしれん
そうなれば買い換えるべきはグラボだ
プリプロセッサとモデルを独立して選択出来るから勘違いが起きるのかな プリプロセッサ/モデルが多々作られて色々選択出来る様な状況にでもならない限り、 プリプロセッサはオンオフで良い様な気がするけど
Hires.FixでOrangeMixのVAEが真っ黒になりやすいけど、 なるときは大抵アップスケーラーにESRGAN、SwinIR、UltraSharpあたり選んでるときで 同条件でLatentシリーズに変えたら黒回避できることに気付いた
RTX1060でしこしこ頑張ってるんですがGPU80%くらいまでしか動いてないのです メモリ24GBなのですがやはりメモリ不足なのでしょうか? 32あれば少しは改善されるでしょうか
上の者です automatic1111使用してます
最近3060買ってメモリ32GBにしたけど16GBぐらいしか使われてない気がする
RTXシリーズとそれ以前は別物だから性能不足か?って思ったら買い替えるしかないよ
>>489 まずGPUの演算計算とVRAMとメインメモリは全て使われ方が違う
特にメインメモリはモデルの読み込みやその他データの読み込みに使われるなど、そもそもGPUとは仕事内容が違うので、メモリを増やしても状況は改善はされない
>>491 軽いモデルデータやLoRAをあまり使わない場合はメモリの消費もそこまで大きくはならない
モデルマージをする時は大量のメモリが必要になるので32あったほうがいい
>>493 なるほどそうなのですね
ありがとうございます
買い替えを検討します‥
みなさんデータ管理はどうしてます? SSDに入れてるけど4TBのHDDかってそこにデータ保存しようかSSD買うか悩んでます、、
Q、データ管理について。HHDとSSDのメリットとデメリットを教えてください A、HDDとSSDは、データを保存するための二つの主要なストレージデバイスです。それぞれのデバイスにはメリットとデメリットがあります。 HDD(ハードディスクドライブ)のメリットとデメリット: メリット: 大容量で安価なストレージが可能 書き込みや読み込み速度が、高価なSSDに比べて低コストで実現可能 デメリット: 機械的な動作に依存するので、振動や衝撃に弱く、壊れやすい 書き込みや読み込みの速度が遅い エネルギー消費が大きく、発熱が発生するため、冷却が必要 SSD(ソリッドステートドライブ)のメリットとデメリット: メリット: 非常に高速な書き込み・読み込み速度を持ち、処理速度が高い ノイズレスで、低消費電力で動作するため、省エネルギー化や静音化に有効 機械的な動作がないため、衝撃や振動に強く、信頼性が高い デメリット: HDDに比べて高価なストレージが必要である 書き込み回数の制限があるため、寿命がHDDよりも短くなることがある これらのメリットとデメリットを考慮すると、用途によって選択する必要があります。HDDは、容量が大きく、低コストであり、データの大量保存に適しています。一方、SSDは高速で信頼性が高く、データの処理に適しています。 だそうです
>>496 ある程度生成物が貯まったらHDDに移動で良いんじゃない?
バックアップ NAS HDD 6TB PC M.2 2TB 別に分けた方がいいと思うけど
controlnetを入れてみたんですが絵が異常に乱れ正しく動作してないように見えます 1.1にアプデして、モデルも1.1の物を揃えましたが、モデルの置き場は1.1でもextensions¥sd_webui_controlnet¥modelsで合ってますか? そこに同名の.pthと.yamlファイルが並んでる状態で、これで正しいと思うんだけど…cannyが特におかしい 高画質化しても線画の線が残ってたり顔が崩れてたり 何か手順を見落としてるとしか思えない
>>496 データ管理がいったい何のデータのことなのかにもよる
頻繁に使用するモデルデータやLoRA類はSSDに保存しての運用が望ましい
モデルデータはHDDに保存していると読み込みや切り替えだけでも何十秒もかかり非常にストレスがたまる
集めただけで滅多に使用しないモデル等に関してはHDD保存でも問題はない
また、生成画像に関しても通常の書き出し先はSSDのほうが読み書きが速いので整理がしやすいが、整理し終わって増えすぎた画像等はHDD保存でも構わない
SSD…机の上 (頻繁に読み書きするもの) HDD…引き出し (たまに参照するもの)
モデルデート比べたら微々たるもんだんだろjけど、出力データがわりと馬鹿にならない感 1枚1MB前後で連続出力で暫く放置してると1GB超えたり
画像はさっさと選別して溜め込まないようにしてるな 整理しないとずっと残ってそう
ブルアカキャラのヘイローが上手く学習できないのですがコツがあれば教えて欲しいです civitaiのLoraの中には完璧に近い再現してるのもあるのですが…
生成・削除を頻繁にするようなデータはHDD ソフトウェアはSSDって認識してるんだけど合ってる? つまりwebuiはSSDに入れて生成したものはHDDに入れる 自分はちょっとわからんかったからどっちもHDDに入れてるけど生成速度って爆速するんだろうか?
>>507 頻繁はメモリ増量してRAMDISKが良いよ
web uiで生成するときの縦横バーの上限が2048ですが サイズを大きくする方法分かる方いますか? 今はchromeの検証からhtmlを変えてますが 毎回変更するのが手間でして
1.5や2.1とかの、ベースのモデルデータを使わないで自分で用意した画像だけで、オリジナルモデル学習ってやる方法あるのかな? すでにある奴だと、あまりよろしくない画像もめちゃくちゃ大量に学習してるから、 そういうのがない純度の高いオリジナルデータを作るとかって無理なんだろうか? ググった限りでは元のモデルに追加学習していくのが大半だったので、 俺はそういうのやってるよって人がいたら話を聞きたいです
>>510 個人でゼロから「使用に耐えうるレベル」のStableDiffusionモデルを制作することは、現状不可能
StableDiffusion公式モデルは学習だけでも億単位の金がかかってる
なので数億円稼いでいるのであればおそらく可能
でもさ、モアイ像とか要らないじゃん 日常の常識範囲ならわりと出来たりしないのかな
>>509 ui-config.jsonを編集する
>>513 むむ、一度確認しているんですが見落としていましたか
お風呂から上がったらやってみます
ありがとうございます!
LORA用に正則化画像を作る時は必要な物のみプロンプトに入れてクオリティアッププロンプトやネガティブプロンプトは入れない方がいいですか?
>>512 学習は絵だけあれば済むというワケではなく、その絵と対になったテキストのセットが必要
公式StableDiffusionモデルの制作は、Lionというデータセット(画像とテキストがセットになったもの)があったからこそ可能になったもの
およそ50億枚あるというLionセットの画像を選別することは事実上不可能
https://gigazine.net/news/20221214-laion-5b-new-era-datasets/ 同じくNovelAIの学習もdanbooruという「画像と細分化されたタグがセットになった管理サイト」があったからこそ可能だった
こちらも個人での制作はほぼ不可能
AUTOMATIC1111で1時間ほど前から
>>284 にある状況になってしまって
生成結果画像がUI上に表示されない
outputには生成されてる
ついでに正しく動いてた時の画像をPNG情報からtxt2imageやimg2imgに送って生成しても同じ質感にならず劣化
心当たりはupdate.batを叩いてしまったこと
でも関係無さそうな
誰か対処法教えて…
>>516 LoRAの作成では、waifu diffusion taggerって奴が、画像に写ってるものを自動で認識してタグを付けてくれるので、
その延長線かと思ったんですが、そんなに難易度高いすか
広い範囲に対応しなくていい、人物とかぜんぜん出来なくていい、というかむしろ入ると邪魔、
中世の街並み限定で、こういう塗り限定、みたいなクッソ狭い用途の奴が欲しいから情報量はかなり少なくていいので
どうにかなるかなと思ったけど甘かったっすね
LoRAでシコシコチューニングしてくしかないかな
>>517 一番簡単なのは、モデルや生成画像など必要なものを残してwebui自体を再導入すること
現在のAUTOMATIC1111は安定版なので最新版を導入し直すタイミングとしては最適
>>519 ありがとうやっぱりそうだよね
一応コマンドシェルからコミットバージョンを
3月末のに戻してみたんだけど一緒だった
もう一回入れ直してみるか
すみませんSDのバージョンはどこで確認出来ますか? 1111が1.5ですか?
>>521 1111ってのはSDを使うツールであるstable-diffusion-webuiを作り始めた人のハンドルネーム(Automatic1111)の一部
>>2 テンプレの一番上参照
WebUIのバージョンが知りたいですって話なら起動時コンソールにCommit hash: ****(略、40文字) って書いてある
ブラウザ側のWebUIの下の方にちっちゃく "commit: ********"ってかいてある奴もそう
こっちは各バージョンを認識できる最短の文字数を先頭から切り取ってるので40文字の方より使い勝手いい
このコミットハッシュと呼ばれる文字列がWebUIのバージョン
v1-5-pruned.ckpt
v1-5-pruned.safetensors
v1-5-pruned-emaonly.ckpt
v1-5-pruned-emaonly.safetensors
この何れかのファイルがSD1.5と呼ばれる物(モデル/checkpoint)
ファイル自体は
https://huggingface.co/runwayml/stable-diffusion-v1-5 ここにある
WebUI使ってるなら/models/stable-diffusionの中に入ってるかもしれないし入ってないかもしれない
今の安定版なん?? UI周りのエンバグ多すぎて戻そうかと思ってた
>>522 VAEとチェックポイントしかファイルないです
chatGPTに聞いても画像の学習ファイルとしか答えないし
理解できる奴はすげーな
Thankyou
昨日wildcardsで質問したけど その後、問題が再発して色々やってたらControlNet1.1を使うとwildcardsのネストや重みが失敗することが増えるみたいなんですが VRAMに余裕がないと画像は問題なく生成できてもdynamic-promptsだけ失敗したりとかあるんでしょうか?
loraとはモデルなのですか?それとも追加して使うなにかなのですか?言葉しか聞かず実際どういうものなのか触れられる場所とかありますか?
>>526 追加学習法の一つ
原理はさておき、版権キャラやポーズを学習させて出来上がったものがcivitaiやhuggingfaceでたくさん配布されている
モデルとは別にプロンプトとして呼び出すことで反映できる
特定のモデルとマージしてもよいが、loraのまま使うほうが便利なことが多い
モデルとの相性があるので、相性の良いモデルを探したり、どう考えても合わないものが不思議と合ったりするのが楽しい
すいません、ControlNet1.1を切ってても重みがプロンプトに残りました
wildcards弄ったあとwebuiとブラウザ再起動してからReflesh wildcardsも押してみたんですが他にもなにか原因あるんでしょうか
画像によって重みが残ったり正常になったりで余計わからなくなってきた
{1-2$$5:: | 50:: __hairoption__ | 0.1:: __hairacc__}
女優のローラの写真が基本モデルになってるのかと思ってたぜ ローラの美形力まじ凄えとか感心してたわ、
キャラの顔を固定する方法はありますか?loraでもかなりブレますよね 追加でextensionとか何か方法あるでしょうか
ここ数日の質問内容がガチ初心者と言うかそれ以前のググれよレベルがゴロゴロしてるのはこの間のテレビの影響か?
知恵をおかしください! 立ち絵的なものを生成してて、指の修正がめんどくさいからフレームアウトさせたいんだけど、arms back系以外でいいpromptありませんか? w480 h680 て生成してます
>>527 つまり、後付で色々できるんですか?
anyならanyの絵柄で書かせたりとかもできると
ダウンロードするだけでは使えないでしょうけど、extensionにそういうのを読み込む機能があるんですかね
上で画像結果でなくて困ってたのは webui再インストールで直ったものの 以前作った画像のPNG情報→img2imgで 元と同じモデルでプロンプトもseedもそのまま生成 で構図は同じでもめっちゃ下手くそな結果なんだけどなんだろこれ Loraとかも全部入れ直したのに 一部のプロンプトを読めてないような もしくは学習状態がリセットされた? (ぜんぜん解ってない)
レスありがとう! 教えていただいたのとネガティブにcrossed arms,arms up てほぼ抑制できました 感謝!
>>540 arms behindbackで後ろに隠したり、いっそhandsをネガティブの入れるのもあり
>>539 おそらくCLIP skipが2から1に戻った
アニメ調のどのモデル試しても髪型がほぼ同じなのはどうして? 特に前髪とかさ
>>537 LoRAの使用方法に関しては詳しく説明しているブログやnoteが山ほどあるのでそっちで調べたほうがいい
NAIがそういうモデルだから 子どもたちもみんなそうなる
>>543 いわゆる流行りの二次元キャラを沢山学習した結果、何も指定しない場合は学習したヘアスタイルの平均値が生成される
ある程度はプロンプト指定で変更することも出来る
ワンタッチ版1111を1ヶ月以上前に使い始めて、まだ一度もアップデートしてないんだけど、したほうがいい? 絵柄変わったりしない?
>>542 clip skipを1から12までやってみたけど
元のようにはならなかった
でも解析プロンプト使ったりしてるうちに
ちょっと上手になってきた
そんなことあるのか?
AI生成頑張ってみようと、奮発していいビデオカードを買う予定です。調べてみたところ、以下のGeForce2つどちらかが妥当かなと考えてます。 ・RTX 4070 Ti 12GB ・RTX 4080 16GB ただ、自分のパソコンは5年くらい前に買ったもので、パソコンの自作というのをしたことがない自分には、上記のデオカードで大丈夫なのかわかりません。 自分のパソコン(タワー型、BTOで購入)の構成は以下なのですが、上記のビデオカードは使えるでしょうか? CPU : AMD Ryzen 7 3700X Matisse [3.6GHz/8Core/TDP65W] CPU-FAN : Noctua NH-U12S MOTHER : ASRock B450 Steel Legend [AMD B450 chipset] MEMORY : 16GB[8GB*2枚] DDR4-3200 HDD/SSD : [SSD 1TB] VGA : GeForce GTX1660Ti 6GB MSI製
あ、5年なら電源も交換で12VHPWRコネクタ対応のを考えた方が良い
>>549 メモリ不足なので
3060→約5万
メモリ+16GB(空きがあればなければ32GBを購入)
かな
正直本体ごと買替がベストだと思う
>>528 ご質問と関係ない話で申し訳ありませんがwebuiのdarkモードの設定について教えていただけないでしょうか。
ブラウザのURLに「/?__theme=dark」を追加したりwebui-user.batに「--theme dark」を追加すればdarkモードにはなるのですが一部の文字が暗くて読めなくなってしまいます。
528の画像にあるWildcards Managerの説明文も読めなくなる文字なのですがこちらでは読めます。
なにか設定をされているのであればぜひ教えてください。
よろしくお願いします。
>>551 ありがとうございます。
電源は以下です。
Corsair RM650x [650W/80PLUS Gold](標準)
電源も交換ですか、色々かかりそうですね・・・・
>>554 メモリと3060でかなり快適になるし、コスパがいいのでそこで始めたらいいと思う
予備機としても残せるので不足感じたら4070Ti搭載機買えばいいよ
>>552 ありがとうございます!
もうどうせ買うなら、3060ではなく、もっと上位のビデオカードを、と考えてます。
メモリを32GBにすれば行けそうでしょうか。
おっしゃるような、本体ごと買い替えが必要なレベルなら、諦めて3060にします。
同じVRAM12GBのグラボで5万前後で買えるRTX3060と10万前後で買えるRTX4070 SD-WEBUIでAIイラストにハマった金の無い貧乏な俺としては どっちを買った方が幸せになれるんだろうか 今の状況としては3060を買う5万は何とか出せるけど 4070を買う10万を出すのはかなり厳しい ちなみに今使ってるグラボは1660Ti
>>556 電源+GPU+メモリだからね
20万近くかかってしまう(-_-;)
3060+メモリなら6万円あればおつりだからそこから始めるのもいいんじゃないかと・・・
もっと古いPCに3060挿して使ってるけど、今4070TiのBTOが欲しくてたまらない 予算によるだろうけど、自分なら奮発して買い替えるな、PC古いならいいタイミングだし 自作したことないならなおさらじゃないかな、慣れりゃ簡単な作業だけど 換装は結構緊張するはず
逆にいえばCPUが絡んでなくて安堵だよ、全とっかえはキツイ
>>558 生成時間に妥協できるなら3060でいいんでない
3060なワイは4kサイズ生成で8分て所だけど十分早いと感じてる
8kだと2時間とかになってしまうけどそれも寝る前とかにやるから別にいいやって思ってるし
12kだと3時間だったか
ここで重要なのは12Kx12Kが3060で出せるって事ね
もうこれよりデカイサイズが必要か?ってレベルだと思う
16Kx16Kもやれるらしいがワイはまだ成功したことがないが
全買い替えか~ そうなってくると、お金のみならず、購入時の精神的パワーがより必要になるのですよねw しかし、たしかに、自分で交換しなくていいし、3つも変更するなら新しく買ったほうがいいわけか、なるほど 3060で妥協か、全買い替えの二択な感じですね すごい参考になります
>>563 逆にいうと2台あった方が良い
試行錯誤するときは2台欲しい
なんで3060でアップグレードしたのち買い増しってのもいいと思うよ
切り替え機使えば切り替えるだけで場所もそんなに取らない
一応お聞きしたいのですが、 私のマシンの電源の Corsair RM650x は、4070 Ti や4080 を動かしてAI生成に使うのにはきついのでしょうか? 調べた感じ12VHPWRコネクタというのには対応してるようでした。
>>565 行けそうな気がするけど保証はできない
4070無印ならまあ動くだろって感じです
横からすまんが650Wもの電源積んでて不足があんの? ねえだろ
>>565 ありがとうございます。
なるほど、2台使用も考慮に入れて3060ですか。
ちなみに、切り替え機能なるものを使うと、場所を取らないというのはどういう意味でしょう。
それを使うと、2台分の場所を取らなくなるんですか?
>>566 了解です。一応、「いけそう」ということですね。
>>570 アンカーをミスりました、
>>565 へのレスでなく、
>>564 です。
>>570 モニター・キーボード・マウスを共用するから本体が2台置ければいける
全とっかえなんか全然必要ないだろ メモリ32GB以上に増やしていいグラボ買えば十分 俺ならVRAM16GBのにする でかいサイズ作りたいからね
>>569 グラボだけなら285Wだろ?
650Wで十分だろ
やってみて落ちたら交換すればいい
推奨系は大丈夫そうでも守っといた方がいい 何もなければいいけどなんか問題が起きた時に筆頭としていちいち悩むことになって原因切り分けを阻害する 自分でアフターバーナーで制限したらいいけど、せっかくいいの買うのに制限とかもったいないし
>>572 なるほど、そういうことですか。
ありがとうございます。
>>573 そういうふうに言われると、また迷ってしまうw
コネクタの問題があんの? それ知らなんだ、すまんかった 変換アダプターないのかね
>>575 しかし正直電源不足のトラブルはきついよ
何が悪いかわからんようになるからね
そんなもん人に勧められない
4070tiは16ピン(12+4)の12VHPWR端子、4070は8ピン
4070は200W グラボサイズも小さいのでケースに収まるよ
>>570 切り替えはmicrosoft Garageのmouse with bordersってのが
ソフトで完結してるしボタンいちいち押さなくていいので便利
動作環境にwin11入ってないけど、win10・win11間で動作確認済み
しつこくてすいません、コネクタの話が出てるのですが、16ピンとか8ピンというのは何との関係で大事なのでしょうか マザーボードが絡んでくるということですか?
ああ
>>582 はモニタ2台+2PC使う場合ね
画面1つで2PC切り替えは今時もったいない
>>565 電源はその構成でAI用なら行ける、ゲーム用途だったらキツい
13700k+DDR5+3070ti(310wバージョン)でAI画像生成時370w、ゲーム中450~520w
あー、コネクタはビデオカードと電源との接続に関係するということですね。 了解です
4090で4K生成2分8kで5分弱 tileの設定でもっと速くできるが崩れない4kのためにはtileサイズ上げないとだめなので速くできん グラボパワーが全然足りてない 個人向けでこれより上が無いのがつらい
まぁ、そういう違いが色々あるので、出来合いを買うのが早いってことです 自分であれこれやるのは一時的な知識になるけど、時間どころか結局交通費や輸送費分でお金まで浪費するので その知識も5年もすりゃ「なんかあったなw」、10年で「懐かしいねぇ・・」って陳腐化するレベルの水物
>>553 最近明るい画面が見づらくてwindows自体をダークモードにしてたからその影響だと思う
こちらwindows11なのでそれで良ければ
デスクトップ画面で右クリック、個人用設定を開いて色をクリックしてモードを選ぶのところをライトからダークに切り替えて更新すれれば行けると思う
webuiとかブラウザの設定は特にいじってなかったと思う
とてもお気に入りの実写系ができたのですが seedを固定しても画像の大きさや衣装を変えると顔も少し変わってしまいます これはどうしようもないのでしょうか?
civitaiから持ってきた呪文で、civitaiのと同じ高精細美人絵を生成してすげーなこれってなって、髪型や服を少し変えてみようと、seed固定で2〜3回生成したら顔のクオリティ(特に目)が爆下がりになったりするのはデフォなん?俺何か変なことしてる?
>>548 であれば、あとはEasyNegativeを導入していたけど移動し忘れてた、とか
あの画像達も何十何百生成した1枚だからプロンプト追加、削除したら微調整しないと崩れるよ
>>547 サンプラーにアプデがあった場合は絵柄が変わるが、今は大丈夫なはず
Controlnetで大幅アップデートがあったので、アプデするかまたは再導入したほうが新機能の恩恵が受けられる
サンプルでいいので版権キャラのLoraをダウンロードできるページへ誘導をいただけませんか
>>598 civitai行ってloraで絞り込んで探しなさい
>>592 残念ながら仕様です
なので画像サイズは最初から768~960の間ぐらいで固定し、お気に入りの絵はhiresやアプスケで大きくするのが基本
自分は4年ぐらい前のDellのBTO使ってて 何も考えずに3060買って説明書見たらケーブル刺すって書いてあって そんなケーブル無いぞ?電源もしくは本体ごと買い替えか…と思ったけど よくよく見てたらケーブルがひょっこり出てきたw それで結果無事に動いてるしDellに感謝
>>602 lora使う時の注意点だが最初は<lora:1>になってるからダウンロードしたloraのページに推奨倍率書いてあるはずだから修正すること大抵0.8とかだと思うけど
あと複数のlora入れる場合合計1を越えないようにすれば破綻しにくくなる
今ってLora作る時にDreamboothでLora出力、Lora、Loha?の3種類くらいあるけど結局どれがいいん?
>>604 そもそもDBのLoRAとkohya版LoRAは別物
現在主流で一番多く出ているのはkohya版LoRA
webuiでもデフォルトで対応しているので導入も一番簡単
その後Loha、Locon、Lycolisなどの新アルゴリズムが登場した
当然ながら、新しい規格ほど精度等は洗練されてはいる
civitaiにあるのは殆どLoRAだよね 最近どうしても効かないのがあって、ふとextension入れたら効いたけど、 それまでLoRA以外の物に一度も遭遇してなかったんだと思う
>>595 Easynegativeは入れてなかったな(今入れました)
関係あるかわからないけど
とあるLoraをLoraフォルダに入れると
プロンプトに何も入れなくても強制的に発動するようで
生成後の画像下に並ぶプロンプト欄に記載されてる
このLoraをフォルダから削除しとくとましな感じ
ControlNetを最新版に更新したら棒人間とかのプレビューを表示するボタンが消えたんですがなにか仕様変更があったんでしょうか?
>>591 返信ありがとうございます。
うちだとwin10を使用しているせいかデスクトップのダークテーマ適用、chromeへのダークテーマ適用を行ってもwebuiのダークテーマでは暗い文字は読めないままでした。
もう少し調べてみます。 ありがとうございました。
>>610 わかりにくいけどAllowPreviewにチェック入れると小さな爆発マークみたいなボタンが出てくる
>>603 そういえば合計値を意識したことなかった……
おぼえとこ
>>601 自分も久しぶりに自作したらGPUが微妙に反応するのに認識しなくて初期不良か?と思ったら追加電源のケーブル刺してなかっただけというのがあったw
4K生成するには(生成時間は別として)3060で十分なんですか? 今は1080の8GB使ってるんですけど、1080x720程度が限度だし、Lora使用にもメモリエラーで止まっちゃう。
>>617 通常生成はせいぜい1000ちょいが限界
そもそも512x512で学習されてるSDの仕様上、1000とかだと絵も破綻するので、通常生成はそんな大きく出せなくても問題はない
基本的には512~960の範囲で生成して、hiresやextensionで高解像度化させるのが一般的
>>617 生成時間の問題を考えなければ3060でじゅうぶん
4000どころか16000x16000サイズも出力出来るらしいよ
実際やるとなると丸1日かけても終わらないとか生成時間の問題は無視できないけどね
>>619 確かにガチャを4Kで回すなんて使い方はあまりしないか。
先日hiresで720サイズを1280サイズにアップスケールするだけで10分くらいかかったり、
フルHDにしようとしてエラーストップしちゃったんで、時短&4Kアップスケール用途で3060考えてみますわ。
安倍生首少枚数学習を披露している人がいたけどどうやったんだろう 試しにHypernetの作成をやってみたら複数の生首が並ぶ画像が生成されがちだったんだけど
>>622 LoRA(Kohya版LoRA)で学習してる
詳しくはLoRAの学習方法について調べてみては
>>620 3060だけど512x768のHiresで2.25倍が限界なんだけど・・
i2iのtiled diffusionでも変わらない、一体何をどうやってるの?
controlnet 1.1って Invert Input Color機能無くなったん? チェックボックスが見当たらん
>>612 あのマークそういう意味だったのか
爆発っぽいマークだし何かエラーか警告だと思いこんでた
wildcardsのやつも原因っぽいのがわかったけどBatch count1だと問題ないのに2以上にするとうまく動作しなくなるっぽい
Batch countってあくまで連続生成だからvram周りには影響ないと思ってたんだけど違うんでしょうか?
>>624 i2iによる繰り返し
またはMultiDiffusion Extensionの使用
いずれもAUTOMATIC1111 高解像度 などで検索すると説明ブログが出てくるかも
>>580 お礼を言ってませんでしたがありがとうございます。
コネクタのこと全く知らなかったので助かりました。危なかったです。
いま、せっせと自分の電源のコネクタを確認しています
>>586 お礼が遅れました、ありがとうございます。
実は、今の電源でも問題ないということですね。やはり、4070tiを買いたくなってきました・・・。
>>628 ごめん、今やったらいけたw
Encoder tile sizeをデフォの2048から512に落としたら初めて3072x2048に成功した
出来ないものと思って放置してたので、きっかけ作ってくれてありがとう
複数のcontrolnetをmov2movで動かしたいんだけどそもそも複数のcontrolnetが分かりません。誰か助けてください。
>>632 settingタブにControlNetの設定があってそこで使う数の設定が出来る
自作未経験なら
>>609 で十分だな
たぶん初めて自作するより安くつくと思うわ
あとは自分でSSDかHDDを追加すればいい
色が薄くなるのでEncoder Color Fix入れたらまたOOMになったけど、さらにtile sizeを256に落としたら行けた スピードはそんな変わってない(3分10秒)、なるほど・・こうやるのか あとFreeGPUボタンも重要、これ押しとかないと同じ画像でもOOMになることがある
2次元じゃない人物は専用のコラージュAIソフトの方が捗るぞ
12VHPWRに対応する補助電源コネクタが4070ti製品に同封されてるのもある
Lora学習用の素材画像ってどういうのを何枚ぐらいそろえるのが推奨されますか? バリエーション豊富にできるだけ多くって感じですかね
同じRTX3060 12GBでもメーカーが違えば性能も違う?
chichipuiのR18フォト週間ランキング48位にあるおしりこうげき!の呪文を使ってみたのですが 自分のクラウド環境だと、作った100枚全てがお尻を向けているだけの画でサンプルのような挿入中の画は1枚もありませんでした あと7割以上でカウボーイハットを被ってます。 何か、この呪文ような画を作るのに必要な設定が他にあるのでしょうか。よろしくお願いします
>>642 O.C.とかあるがどの程度違うのか知らん
>>642 ほぼ変わらない
デザインとかファンのうるささ程度
>>645 メモリーやコアクロックが多少ブーストされてるけどほぼ誤差
OCじゃ無いモデルでもOCモデルと同じクロックにできる
OCモデルはもうちょいOCできるかもしれない程度
体感はまず不可能
Lora学習でバッチサイズを増やすと逆に遅くなるのはどういうわけなんだい 【※増やすと速度アップ+VRAM増】って書いてあるのに 3060 12GBはバッチ1でやれってことかね
traintoolsのタグ付けってSD-scriptみたいに自前のキャプションを適用したい場合どうしたらいいの?
>>609 自作できない人ならこれでいいんじゃないか
自作できるんだったらこの統一スペックで
もっと安くできるし
CPU とかもっと削れるんでさらに安くなる
>>640 マザーボードにはコストパフォーマンスに優れ、厳選された材料から作られたASRock製『B550 Phantom Gaming4』を採用しました。
https://www.frontier-direct.jp/direct/e/ejGhB550/ OS2万 CPU3万 SSD1万 メモリ1万 マザボ2万 箱電源2万 グラボ13万 24万 これより安くできるんか?
すごく初歩的な質問になるんだけど、ガンガン生成回してる時ってPCケースはフル開放するものなの? もしかして、PCケースのカバーを付けてるのってそもそも排熱的にマズイ?
>>657 蓋を開けるとむしろ空気の流れが変わってきちんと排熱されなくなる危険性もあるぞ
Automatic1111バージョンアップしたら生成画像をクリックしたとき拡大されなくなった どこで設定する あと少し遅くなった
バージョンアップしないほうがいいみたいね やり方知らんけどさ
Composable LoRAの説明でLoRAがネガティブプロンプトにまで作用してしまうってあるけど Loraってネガティブプロンプトにぶち込んだらそのLoraに関連するものがモデルから絵を出すときに出てこなくなる?みたいな使い方ができるってこと? その場合Loraのトリガーワードとかの扱いはどうなるの?
>>660 遅くなった理由はxformersつけてないからでは
>>660 遅くなった理由はxformersつけてないからでは
>>662 プロンプトがプラスで
ネガティブプロンプトはマイナス
だから要素が引かれるだけじゃね?
もしエラーが発生した場合は、ChatGPTに直接質問することができます。ChatGPTはしっかり知識を持っているので、多くの場合、役に立つ情報を提供できます。 、専門家に相談することをお勧めします。
loraのタグ付けでtaggerでタグの除外を指定しても機能しないんですが何が原因ですかね?スペースもコンマも一字一句間違えてません
>>646 もしそんなに違いがないなら、カカクコムとか見て一番安いやつ買えばいいってこと?
値段の差が1万くらいあるやつもあるんだが、安いの買っていいの?
>>664 xformers等の設定は変わってないけど
クリックしたら拡大がなくなったのか変更になったのかわからん
Comfy少したましたがA1111より少しはやい
VradはPytroch2.0対応でかなりはやい
ただどちらもA1111よりできることが少なくなるのがなぁ
>>667 私もあるサイトを見てkohya _ssでDB Lolaを試してる初心者で何となくわかるような
何を使ってLola学習してます?
どのような学習画像で何を除外して何を覚えさせたいのですか?
背景は?キャラの服装は?統一してるとか?
後ソースモデルとか学習画像数、ステップ数、グラボやバッチ数、エポック数など書いてくれて誰かが答えてくれた場合私の参考になります
AIイラストにはRadeonよりGeforceの方が向いてるって事は何となく知ってるけど RTX3060と同じVRAM12GBでゲーム性能は格上のRX6700XTやRX6750XTと比べた場合でも AIイラスト性能ではRTX3060の方がRX6700XTやRX6750XTよりかなり上って事なの?
>>672 向いてるとかいう次元じゃなくRadeonはうんちだからもう忘れなさい
Radeonなんか居なかった、いいね?
>>667 どこぞの記事で同じようなこと書いてあったがそこでは途中にスペースが入るタグはスペースをアンダーバーに書き換えないと機能しないとかなんとか書いてあったな
それじゃないなら知らない
XLとやらはwebui的なものでタダで使えるのかな 楽しみ
>>676 横からだけど凄く身に覚えがあり過ぎて手動で訂正しています...マジ参考になるな
>>676 アンダーバーで解決しましたありがとうございます
>>672 NAIはTensorコアに最適化されてるから
ラデを使うのはGPU無しで3Dゲームやるようなもんだ
まあその程度の差
実際に絶望したのが
2700s+RTX1060
>>3700 x+RX5700
だったこと
これで諦めてPC新調することになったw
>>681 AMDなんちゃってAIでは動くってだけでほとんどCPU生成と変わらんし、まだアップルの方が…
そのうえ時間かかって電気代MAXに跳ね上がるわけだし、ケチろうと思ったらRTXの中古でもGPU買った方がましだと思うわ
昔からというかPS/XBOX採用以降、AMDでゲーム以外の事やろうと思うがそもそもの…おさっし
>>680 NAIはNoveAIの略称である
そしてNovelAIはStableDiffusionで動いているが、だからといってAIイラストの総称をNAIと呼ぶのはおかしい
StableDiffusion、もしくはSDと呼称すべき
>>680 もうひとつ
StableDiffusionはTensorではなくCUDAコアを使用することが前提
いやアンチとかそういう話じゃなくて・・意味わかってないのか
最近AIの話が盛り上がっているようだが、AIによるイラストが、オリジナルならいいんだろうけど、 既存のキャラにすると似てない・別物ような気がするが、似せることは難しいんだろうなぁと、まだ早いんだろうなと どうでしょうか?
>>689 chatGPTに解説してもらった
そもそもの認識が間違ってるなw
この文章は、最近AIによるイラストについて話題が盛り上がっているが、既存のキャラクターを描く場合、似せることは難しいため、オリジナル作品に比べて似ていない・別物のような感覚があると述べています。また、AIによるイラスト技術がまだ発展途上であるため、今後の進展に期待する旨も述べています。
>>689 アニメなら、キャラの顔って何気にブレまくりだからAIでももう同じレベルには出来るよ
3次元なら今はまだ難しいね
>>689 AI界隈でオリジナルっていう言葉は学習元をさすだけだぞ?過去にあるものをこねくり回してるだけ。
たまに原作オリジナルよりも受けがいい物が出てくる程度で、AIが描いているなんて間違っても思っちゃいけない
AIの話題は政府の方針というかChatGPTをお役所で使う一連の流れだからみんな乗ってる
全公務員の使っているPCからEdgeやBingを排除する方が難しいからのぉ
ホリエモンも太蔵くらいなら変わりができるって言ってるし、NHKも高齢アナウンサーの肩叩き地方飛ばし続けるよりばっさりAIに入れ替えた方が楽だしな
これからどんどん発展していくので 需要が高まれば否応にも生活の一部になります
civitaiでgeneration data をコピーしたあとのUIにおける貼り付けってどこを操作すれば良いんですかね
>>652 CPU と マザボ 電源 それぞれ1万 -3万して
ポイントのつくところで買えばもっと安くなる
一番便利なのは例えば自分のオリジナルキャラを持っていて それを AI に学習させて あとは プロンプトを書くだけで絵をかいてくれる 今まで1週間かけてかいてた漫画が2日で終わるんじゃねえかな
mimic mode、mimic scale、mimic scale minimum CFG mode、CFG scale minimum、 threshold percentile、Dynamic thresholding enabled などを設定する方法ありますか? civitaiだとこれらの情報を載せている人もいるけど、デフォルトだとそもそもどこにもこれらの項目が無いんです
>>689 その点初音ミクは便利だね
固定された絵柄が無く、格好が似ていればどれも初音ミクになる
まず機械学習はNVIDIAのcudaに最適解されてるのでRadeonクソ遅いopenCLやら使うしかない ゲフォもopenCLでやれば似たような遅さになる 要はハード性能というよりもライブラリが貧弱すぎRadeonは機械学習で弱い ゼロから専用のGPGPUプログラム作るならエンタープライズモデルはRadeonのがコスパいいみたいだけどね Radeonでもcudaを動かせるROCm(cudaライブラリなんかを中間言語で動かしてRadeonに最適化する)ってのがあるけど まあバグだらけでハッカーのおもちゃにしかなってない AMDもあんま本気でROC開発すると裁判になるかもしれんからWindowsへのリリースは慎重
>>699 初音ミク以外のボカロキャラのLoRAもあればいいんだけどな
いっそ自分でLoRA作成にチャレンジしてみるか・・・
鮮やかな青(いわゆる原色の青やロイヤルブルー)を出したいのですがなんと指定するのが良いでしょうか どうも青全般がそもそも緑味が強くくすんだ傾向がある気がします 色々試した中では ultramarine が一番マシでしたが求める鮮やかな青とは違います どうかどうか宜しくお願い致します
マンコ見せつけるような大胆なM字開脚をさせたいのですが、良いプロンプトはないでしょうか spread legsではうまくいかず、どうすればいいか悩んでいます。
ミクあるか?千本桜とか札幌雪ミクとか変なのしかないから困ってるのに
>>704 NovelAI 5ch wikiに色の指定についてあるのでそれを参考に
ただ細かな色の方向性については結局はモデル次第なので、モデルを変更してみるかまたはVAEを変更してみるしかない
>>705 プロントは難しいかも
コントロールネットの方が楽
>>705 spreading legs,とsitting,pussy,などもう少し他の要素も組合せる必要がある
エロはこっちで
【StableDiffusion】AIエロ画像情報交換21【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1681448513/ なぜAIは頑なに指を6本にしたがるのだろうか…… 我々が5本を正常と思い込んでいるだけで6本が自然な見え方なのだろうか
>>676 これってテキストファイルのタグは全てスペースの代わりにアンダーバー使わないと学習でタグが弾かれないって認識で合ってるかな?
>>693 それはAIに限った話では無く人間も過去にあるものをこねくり回してるだけって認識で合っていますか?
>>712 sd「(私は有限展開を理解しています、これを人間に伝えたい)たくさん指を描きました」
>>708 NovelAI 5ch wiki 参考にまんまroyalblueで大分良くなりました
以前 royalblue で思った色が出なかった記憶があったのでモデル等に依るのですかね
今回NovelAI 5ch wikiから midiumblue といれてみましたが全く効いてない様でした
>>707 初音ミクは大抵のモデルで名前を書くだけで出てくるよ
>>717 だからかloraがないんだよね
そのせいで他のプロンプトの影響受けやすくて弱いんだよなぁ
>>714 画像生成に限らずそう
過去の成果や失敗を参考にして改良したり進化したりしてる
colab終わって騒いでると思ったら全然だった チマチマいいかんじに環境整えてたから移住めんどいわ
>>724 有料版は制限なし
無料は今後制限入る。※方針は不明
同じプロンプトで沢山生成して、微妙に角度が違うやつからちんこ切り取って合成するのが早そう。
>>659 ホコリはわからんが、春先にネコが侵入してて毛が酷いことになった
>>730 CPUなんて飾りなんです
エロい人には分からんのですよ
>>712 昔、デジカメが普及し始めた頃に
最後の心霊写真ブームがあったのだけど
あの時は指がたくさんある心霊写真がよく出回った
手に6本ある写真はザラで、多い時には10本くらいの指が
複雑に絡まってる心霊写真とかがあって、これ仕事でやってる
フォトショップのレタッチでも到底出来ないだろって
不思議がってた覚えがある
人間の視覚需要野を機械的に模した人工知能が
同じような指のいっぱいある画像を生成するのを見ると
なんか人類がまだ気がついてない現象や法則がありそうだよね
>>736 AIが指6本の画像生成したら
もうオカルトじゃないだろ
そういう現象をどう説明するかを
科学がするのだ
>>739 単に学習が足りないから何本生やすかは時の運なだけやんw
指って角度によっては親指隠れて4本とか小指薬指隠れて3本しか見えない場合があるので AI的に「綺麗な写真は指が多い(5本)事多いな、この綺麗にしろってクソ煩いプロンプトなら7本ぐらいが妥当やな」って感じで生やしてる気がする
同じ条件で5枚出力したら1枚くらい5本指になるから
なぜか自分の首を絞めているのもあった しかも関節はずれてるし
グラボの性能差で同じ絵再現仕切れないこととかってある? LORAの作者に質問してモデルVAEとpnginfoとシード値で全く同じ環境にしてるんだけど微妙に違いが出てしまう もう思い当たるとこが作者よりグラボの性能が低いくらいしかない
>>739 とりあえずスレタイ100回読み返してこい
>>746 基本的にGPUの性能で通常生成のクオリティに差が出ることはない
ただし、Geforce1000番台とそれ以降では微妙な計算の違いによって同じシード値でも結果が一致せずに「まったく違う絵」が生成される
CPUやNvidia環境以外でも「まったく違う絵」が生成される
「構図は同じなのに微妙な違いが起こる」場合はXfoemersの有無が一番疑わしい
>>730 AIや3DみたいなGPUのみ酷使するものはCPUよりMBとの相性の方が大事だと思う。
GPU温度でケースファンコントロールするのは同じメーカー同士の方が簡単にできる。
まあMBベンダーのソフトで対応してるのは現状はASUSとMSIだけだが。
エンドレスに自動生成するやつって、何秒おきに生成するみたいなやり方出来ない?生成された矢先に次行かれるから10秒くらい吟味したいんだが
プロンプトを一部ランダムにすることってできないでしょうか 夜寝る前に大量に画像生成を指示して寝ることがあります (パソコンの性能もあんまよくなくて時間かかるので、寝てる間に大量に作りたい) ただ、それをすると、同じような画像ばかりになって困ります なので例えば衣装だけを uniform or maid or nurse みたいに指定したら、生成のたびにその衣装のうちどれかをランダムで指定できる、ってなると便利 こんな感じの機能ってないのでしょうか?
>>754 DynamicPromptという拡張機能でできる
{red|brown|blonde|cyan|pink} hair,
みたいな書き方できる
自分はUpscaleする時にステップとデノイズの組み合わせを何通りも自動でやって欲しいけど出来ないよね
質問です カメラに向かって立った状態で両手を前に出して手の形はパーにする (指の状態はどうでもいいです) というポーズをするにはどういうプロンプトにしたらいいですか? stand with both hands forward in a 'spread one's hands' ではうまくいきませんでした
>>751 GPU温度 とケースファンの連動はFanCtrlってソフトで簡単にできる
自作板でもよく話に出る定番ソフトで常駐させる必要あるけど動作が非常に軽い
こういうハート型を表現するプロンプトってありますか?
>>756 それでいけました
ありがとうございます
>>762 heart hands
で、不安定だけど出るらしい
試してみたらこっちの質問の答えになりそうだった
ありがとう
>>746 毎回この手の質問出てくるけど他人のプロンプトで同じ絵作ってどうしたいのかがわからん
同じなら元画像保存して終わりじゃだめなのか?
言葉選ぶの面倒だから身も蓋もない言い方すると 良いpromptをパクろうとしたけど再現できなかったからパクれているか不安になったのでは
まず同じ地点にたってそこから試行錯誤していくって思考を理解できない人はきっとこれまでの人世でも何やっても駄目だった人
普通は出力に使う時間よりプロンプト考える時間の方が数十倍かかってるよな
電源 SilverStone 750W M/B H87 Pro CPU Core i7 4770 MEM DDR3 32G VGA RTX-2060 6G SSD 1T HDD 10T OS WIn10 上記スペックでグラボだけ4070Tiに更新しても他が足を引っ張りますか? 用途としてはAI画像生成がメインでVRゲーム少々です。 現状でも生成自体は楽しめてますがアップスケール倍率の現状限界の突破と、生成速度向上目的です。
>>768 どんどん考えどんどん出力しているといつの間にか時間が経っているw
画像のサイズは512x512で回してますが、普通の画像のサイズってどんなものでしょうか 640x480、もしくは1920x1080を2で割った960x540で回して、あとから2倍にするのがいいのでしょうか
>>769 何のVRゲームか知らんがさすがに4770のhaswellおじさんの余生は短いと思う
生成だけなら4070Tで幸せになれるけどロードとかOS挙動とか考えるとCPU更新の優先度は高めだなぁ
>>769 そろそろマザボごと一新しようよ
i5-12400とかでも
実写系衣装Loraを作ってるのですが何度やってもうまくいきません 回数20エポック40(正則化あり)で dim128alpha128→再現度は高いがほぼ同じ人物ばかりになる 同じ設定で衣装と人物を分けるマルゼン式学習→上とほぼ同じ dim128alpha64→再現度が落ちて人物のコントラストだけやたら強くなる LoHa dim64conv64 alpha 64→同じくコントラストが異常に強くなる 正則化画像を入れ替える→なぜか肌がしわしわになる 何が間違ってるのかもう自分では分からない… 衣装だけ学習させるというのに無理があるのでしょうか?
>>769 https://www.frontier-direct.jp/direct/g/g114913-Apr4/ これどうよ
グラボ代+10万くらいの値段
あともし粗大ごみで捨てたいPCあったら引取ってくれる上に1000円値引きしてくれるぞw
>>769 ゲームなら確実に足を引っ張る
AIはいいんじゃね
マルゼン式が駄目なんじゃね? 一度taggerそのままで頭に衣装タグだけでやってみたら?
>>757 X/Y/ZプロットでHires stepsとDenoisingを指定するのではダメなの?
>>769 2013年のマザーだ・・負けた
さすがにいい加減買い替えなはれ
Dockerで環境構築したんだがxformersってどうやって導入するの?初心者でよく分からない
Dockerはやめとけ 普通に生で入れたほうがいいよ
>>779 キャプションテキストはtaggerでなくBLIPっていうのを使っているのですが
もしかしてそれがいけないのでしょうか?
衣装に関するタグは念のために消してます
>>783 そうすればよかったわ、最初に見た解説がそうやってたからそうしちゃったけど
また入れ直すのめんどくせぇ......
>>785 なるほど......
>>776 LoRA Block Weightを使って衣装成分が強く作用してる階層だけを抜き出したりすると
顔の影響はある程度は緩和されると思う
ただ自分もJKの制服LORAを自作して実写系制服グラビアを生成したりしてるけど
衣装を見せるために引きの構図にすると学習関係なく顔が破綻することが多かったんで
結局顔は後でInpaintで差し替えするようになった
colab問題は課金すればokらしいので大した問題じゃないのかな ban怖いから念のためサブ垢でやること推奨だけど
皆さんアドバイスありがとうございます やっぱそろそろ買い替えのようですね ここで何度か紹介されてるフロンティアのPCよさそうですがあれってバラ買いして自作するよりお得なレベル? パーツごとの型式が不明なのでいまいちわからないけど、なんとなく計算したら手間賃抜きにしても安そうではあるなー 色々考えます、ありがとうございました
loopback scalerっての試してるんだけど loop中の各段階の画像全部出力しちゃうのってどこで抑止できる?
>>759 別物、というよりツールごとに記述ルールが違う
webのNovelAI、ローカルではAUTOMATIC1111webuiとNMKD、3つとも微妙に記述のルールが違うので気をつけたし
>>773 そういう認識でOK
SDは512x512で学習しているという仕様上、解像度を上げすぎると破綻する
通常生成は1000以内にして、高解像度はhiresやアプスケで対応が基本
>>790 ありがとうございます block wait…そんな便利な機能があったとは 数値設定はよくわからないのですが、とりあえず試してみます
例えばFairyってプロンプトで宙に浮かぶ妖精さんが出力されるとします その後、そのプロンプトを外して色々と出力を続けます なんか定期的に宙に浮かんだ子が出現します プロンプトどこかにキャッシュされてるのか、これ以外にも過去の要素が不意に出ます 解決策ありますか
ControlNetを有効にすると、彩度とコントラストが極端に強くなってしまうんですが、この症状の回避方法が分かる方いませんか~?
画像の生成中は別に問題ないんですが、
生成された画像がこうなってしまいます。
Ending Control Stepの数値を低くするとこの状態が緩和するんですけど、
コントロールネットの構図指定も弱くなってしまうのでどうにも・・
i2iでアプスケすると色が薄くなるんだけど防ぐ方法ありますか プロンプトもネガティブも元絵そのままでやってます アップスケーラーはUltraSharp/UltraAnime、デノイズ0.35~0.5でやってます 640x640を6倍~7倍にしています
複数画像を生成してて、1枚が終わったら音を鳴らす方法ないでしょうか バッチカウントを10とかにして、バッチサイズを1にして、複数生成してるとします で、全部終わる前に生成された最初の数枚を見ると思ったよりできが悪い、なのでプロンプトを変えてやり直したい でも、今生成中の1枚はあと数分で終わりそうだから、せっかくだからそれは生成を終えてから、中断したい なんてことがよくあります そういうとき、その一枚が終わったら音がなってくれるとわかりやすくていいのですが
>>802 バッチカウントではなくgenerate foreverを使う
>>800 モデルとVAEをまずは変えてみる
あとCNはどれもwaitを上げすぎると破綻やノイズの原因になりやすい
で、これそもそもなんだが、途中生成の絵は気にするな
あくまでも計算途中の絵だからなんの参考にもならないし表示もオフにしていい
とにかく途中経過に惑わされないで最終結果だけ見るべし
え、途中経過めちゃくちゃ重要じゃん [:]使わんのか
>>805 うーん、上記の状態はすべてControlNETがデフォの設定でこうなんです。
そして、ControlNETをオフにすると、この彩度とコントラストが強い状態は解除されるのでControlNETが何かおかしいんだとは思うんですが。
VAEも無効、モデルも公式V1.5のままの何も追加学習などはしてないモデル、LoRAも無効、
強いて言えばcolabで運用しているんですが、ノートブックも新規で作ったまっさらも状態なんです
なんで問題が起こるのか見当が付かなくて・・
AIで心霊みたいな奇形見慣れたせいで 心霊写真はもう何も怖くないなったw
>>807 negative に1.5以上の数字無い?
理由わからんけど色彩に干渉することあるよ
>>803 なるほど
そういうやり方があるんですね
ありがとうございます
d払いのd曜日(3.5%)+楽天リーベイツ(2.5%)利用して パソコン工房の4.5万のMSIの3060を買うつもりで今日まで待ってたけど 今日になっていきなり5千円も値上げしやがった 仕方が無いから今現在パソコン工房で3060最安のクロシコの4.8万の奴を買うしかないけど 予定額からの3千円多い出費は地味に痛いわ
よく分からないんですがなんか直りました。
やったことは、extensionsフォルダと、ModelsフォルダにあるControlNet関係のファイル・フォルダを一度全部削除して、インストールし直したんですが、
このときに、ControlNet用のモデルデータを
「control_v11p_sd15_mlsd.pth」とかの、データのデカいpthファイルじゃなくて、
「control_mlsd-fp16.safetensors」とかの、safetensorsファイルに変更しました。
インストールし直しは一度やってるので、モデルデータの変更が直った理由だと思います。
お二方、助言くださってありがとうございましたm(_ _)m
>>805 >>809 強調指示(dog:1.5)みたいなプロンプトについて質問なんですけど いろんなプロンプトに強調かけまくると結局薄まって意味がなくなるとか逆に崩壊の原因になるとかってあるんでしょうか? どうしてもプロンプトに入力するのは望んだ状況なわけですべて強調したくなってしまって気が付けばほとんどが強調されているという。 Lora使用時とかは気のせいかわかりませんが、ほかのプロンプトが強調多いとうまく作用してないようにも感じます
>>748 >>750
xformersは入れてないんだ
>>750 2070sだから原因ではないのか
色合いも微妙に違うんだよな
わかんねえ…
実写系のloconまたはLoRAを学習するときにおすすめのベースモデルってあったりしますか? 生成時に使うモデルはchilloutかBRAを予定しています
loraよりlohaのほうが学習早い気がするんだけど civはloraばっかりなのは何故なんだろうか クオリティもloha>loraじゃなかったっけ?
>>819 色合いだったらVAEは確実に違う
その情報はinfoには入らないし
スパッツ履かせたいんだがまともなの履いてくれん プロンプトはspats, compression shorts, leggings, どれもいまいち モデルは実写系のオリジナルモデルなのもあるかもだが 逆にスパッツが出るモデルやloraはないだろうか 自作したいけどマシンは非力なのん
>>780 聞いたことあったけどそういう機能だったのね
ありがとう
最近はVRAM12でも学習がきつくなってるらしいね
LoRAやりたいけど、パワーシェルの設定をset-executionpolicy remotesignedに変えたら セキュリティが低くなるようですが、なんか実害が出やすくなるのでしょうか?
AIイラストを今より快適にやりたくて3060を買いたいんだけど 4060と4060Tiの発売直前に投げ売りされるかが怖くて 3060の購入に踏み切れなないわ3060の投げ売りってあると思う?
>>818 個人的な話だけど結構長めのプロンプトでやってるけどほとんど強調で調整はしてないかな
似たような方向性のプロンプトというか単語で誘導したりして、あとはネガティブで引いてみたりしてる
今後 12gb だと vlam が足りないんで 最低でも16gb 以上は欲しいよ
12でも足りないとか ゲフォにAI特需理解してもらって作ってもらわな
gradioをアップグレードコマンドしたんですけど、webuiが3.16.2と古いままで変わらないのはどうすれば良いですか?
>>828 ないし、4060ってVRAM8GBって話だからAI的には糞だよ
>>795 ありがとうございます
お気に入りができたものをでかくするようまずは画像を量産する事にします
>>818 全てを同じように強調しても均等に薄まる、ということにはならない
単に個々のタグのパワーが強まるというだけ
もちろん行き過ぎると破綻する
多くてもMAX2.0未満に抑えるべき
そもそも、大前提としてタグごとの固有のパワーも違ければ、記述する順番でも変わるし使われるシチュエーションによっても変わる
例えば、ゲレンデで水着を着せようと思ったらそれなりに強調しないとうまくいかないかもしれない
気になるのであれば一旦強調をまっさらにして100枚ほど回してみて、その絵の中においてブレやすいタグや効果の弱いタグを探ってみるといいかと
そのうえで、あくまでも調整として強調を使うようにすると感覚が掴みやすいと思う
すみません自決しました venvフォルダ毎に更新するのですね
この髪型でる呪文方法教えて下さい。
ネガポジ転換させてあえて逆画像作ってネガティブ要素割り出す手法もあるな xyzplot cfg-7で逆要素出すのもええけど ネガティブで強調すべきポイントを見つけるのも重要ぞ
>837 high pony tailとかで、意図せずそこそこ出て来て邪魔だった記憶があるw 使うモデルによって違う状況になるとは思うけど。
同じ画をimg to imgすると色が薄くなっていきませんか? あと、アップスケールすると服の詳細などは良い感じになるけど、顔のイメージが変わっちゃう。 どうしたらよいのでしょうか?
>>842 エスパーじゃないので基本の回答だけど
アップスケール時Denoising strengthの値を小さくすると元画を尊重してくれる
そんなレベルじゃないよっていうなら申し訳ない
>>837 pony tail on side of head
をあとで試してみること>自分
商用につかっていいかどうかってcivitaiのどこに書いてあるんだ?
>>842 色が薄くなるのはこっちも困ってる
顔に関しては元絵と同じか近いモデルにしてデノイズ0.3あたりならそのまま出てくるはず
アニメ絵をリアル系でとかやったら0.2以下じゃないと変わってしまう
dynamic ptomptsで選択で1つのpromptを入れるか入れないかを指定することはできますか? 例えば7割で猫耳つけるとかやりたいです {0.7::cat ear,0.3::ここになんて入れたら?}
LoRA学習する時network weightで追加学習できると思うんですが 例えば 1回の学習で10000stepの場合と1回目5000step + 追加5000stepの場合だと学習結果に差は出ますか? step数少なめで様子見ながら追加学習させてるんですが、2回目初期のsample見ると1回目最後のsampleより学習できてないように見えるのですが
>>842 AOM3をアプスケするとそうなった気がするな
他モデルは普通なんだが
モデルとかサンプラーをワイルドカードみたいにランダムにする方法って有る? 1番下のスクリプトで書き換えるのが大変になって来た 若しくはスクリプトでフォルダマーク押すと全部出るけどもともとモデルをフォルダ分けしてるので読み込む階層って変えられるのかな?
eta (noise multiplier) for DDIM と eta (noise multiplier) for ancestral samplers ってどう違うんですか? 例えばeta:0.6とか言うときどっちのことを指すんですかね
>>842 最近見たページでは「Move VAE to GPU」にチェックを入れないとVAEが適用されないとか
アドバイスお願いします〜 3060使ってるのですが Loraとコントロールネットモデルマージ高画質化追加学習してるとvram足りなくてエラー出て厳しくなってきた 3090か4090に買い替えようと思ってるんですけど今パソコン買い換えるなら無理してでも4090の方が良いですか? メモリ不足で落ちるのが最大の悩みで上の用途出来れば生成スピードはあまり気にしません。 どうでしょうか?
>>857 3060→3090だけど出来る事の幅が増えた分速度が気になって仕方ない
金があるなら資産だと思って4090が良い
>>858 まじかー情報ありがとございます
20万円上乗せコースかあ〜
vram12GBでもきつくなってきたのマジしんどいな VRAMの容量と値段って比例するイメージなんだけどミドルクラスでVRAM多いグラボ出てくるのかな
4060ti,4060は8GBでしょ 当面はない AMD,IntelのAI対応が使えるようになってくれば変わるかもしれんけど年末~来年では
4000代に比べ3080,3090はGDDR6Xが爆熱になるよ 冷却対策がしっかりしてるなら今からの時期も問題ないだろうけどさ
Depth Libraryの手のモデルを追加したいのですが画像DLできる場所はありますか?
ワイルドカードって複数プロンプトに入れたらどうなりますか?ちゃんと反映されますか? それともwildcards fileに表示されてる方しか反映されません?
絵柄Loraを作りたいのですが 正則化画像に使うクラスプロンプトは何になるのでしょうか?
>>865 としあきに書いてあるけど、画風loraならまさのりは要らない
>>866 そうなの?
正則化画像なしでやってみたら画風再現どころか
人体の構造すらなくなってぐにゃぐにゃになったんだけど
正則化画像ないことが原因ではないのかな
>>867 少なくとも自分は使ってないけどなあ
kohyasswebuiだけど、適当にぶちこむだけでもそこそこ満足できるのを作れてるよ
>>868 モデルは何を使ってる?
俺は色々試してみたけど全部ベルセルク出てきそうなぐにゃぐにゃの肉塊に目や手が生えた化け物にあいかならない
loraの素材に生首に切り抜いた画像と体だけの画像で学習させたら二つの要素合体したloraが出来上がるのけ?
>>869 2次元ならAOM, ambientmix, nostalgiaclearとか使ってる
絵柄loraは意外と3DCG系にもよく合うことがあって、alstroemeriamixとかneverendingdreamとかもおすすめ
モデル何使っても顔までぐちゃぐちゃになることは滅多に無いけどなあ(脱がすと身体が崩れるのはよくあるけど)
2次も3次も脱がしてみて分かったこと ヌードグラビアっぽくなってエロいけどそれだけではヌケない
>>87 どうしても増えるというのは強調し過ぎの可能性
アナルは強調せずにポーズや体位、シチュのみでアナルが見えるプロンプトを考えr
いやエロスレでやれや
【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/ >>876 すまん、あなたのお陰で解決してしまいました!ありがとう
AbyssOrangeMix3で男の娘出そうとすると勃起ち●こしか出てきません どうプロンプトしたら非勃起出せますか? flaccidはもう試しました
842です、いろいろあざます そもそもmultidiffusion入れてなかったw ノイズ除去下げたりでなんとなく上手く行きました
AIイラストデビューしようと考えているのですが、皆さんのおすすめって何かありますか。 用途は自己観賞用で、AIイラストで生成する対象キャラは版権キャラな時もあれば一次創作キャラだったりしますが、二次元キャラなのは変わらないです。
>>882 そもそも何を聞きたいのか、それだけだとわからない
AI生成するためのオススメのwebサービスのことなのか、ローカルで使用するSD用のツールのことなのか、そこで使用するモデルのことなのか
>>883 正直なところいろはのいから分かってないので、基礎的なところから聞きたいという感じです。
ダウンロードの手間が省けるのでオンライン上で解決するに越したことは無いのですが、ダウンロードした方が細かい調整ができるとかあったらそっちの方が良いと言う感じです。
>>883 おすすめのPCのスペックなのかも分からんな
これは無茶振りすぎるw
おすすめの性癖についての質問ということでよろしかったでしょうか?
PSスペックですが以下の通りです プロセッサ Intel(R) Core(TM) i7-7700 CPU @ 3.60GHz 3.60 GHz 実装 RAM 8.00 GB (7.88 GB 使用可能) システムの種類 64 ビット オペレーティング システム、x64 ベース プロセッサ
>>882 虹ジャーニーのサービスが今のところ一番おすすめやね
次がnovel ai
>>885 なるほど
AIお絵描きをするには大きく2つの方法がある
1.オンラインのAIお絵描きサービスを使う
2.そこそこハイスペックなパソコンを用意して自分のPC上でやる
1が一番簡単ではあるが、クオリティの高いサービスは月額有料だったりする
詳しくは
>>2 参照
2の場合はStableDiffusionというオープンソースのAIお絵描き用のアプリケーションを使用する
こちらは導入にお金も知識もそこそこ必要になるが、禁止事項無しなので自由度は非常に高い
あなたのマシンスペックを見る限り、今のままではwebサービスを使用するしかない
ローカルでやるにはメモリやグラボを追加しないと無理
>>889 ありがとうございました。虹ジャーニーはDiscordでやるやつで合ってますか。
完全に1から作るのは他の方の投稿とかでなんとなく分かるのですが、既存のオリジナルキャラを元にしたいときの流れが分からず断念している状態です
>>890 ありがとうございます。
今のパソコンも、購入当時はけっこう上の方のスペックだったのですが、今は型落ち中の型落ちなことは承知の上だったので、Webサービスに焦点を絞ろうと思います。
先ほどの人のご回答にあったサービス名も
>>2 にて見えたので、novel aiと虹ジャーニーに絞ってやり方など調べてみます。
基礎中の基礎みたいな質問でご迷惑をおかけしました、ご回答くださりありがとうございます
>>892 ただ、エロがやりたいなら有料サービスではNovelAIしかない
NijiはNovelAIよりも断然ハイクオリティだがエロは禁止(というか出来ない)
また、無料でNovelAIに似たようなことが出来るサイトも無いことは無い
>>888 メモリーを32gb にして
RTX 4090 にすれば そこそこ いける
>>894 わかって言ってるのか知らんがマザボが対応しねーだろうし、電源も取っ換えになるだろ
機械学習分野はCPUやらとの通信が少ないからPCIeのバージョン古くて遅くてもあんまり影響無い VRAM展開遅いからロードは遅いだろうけどね
>>888 自分はi7-8700 3.20GHzで同じくメモリ8GBだったけど
メモリ16GB以上は必須、安いから32GBを買って1万
グラボはRTX以上が必須なんで3060を5万で購入
これで自分の用途には現状満足、安定してできている
ただしPCの部品増設というのは電源が足りるかも重要だし、
ケースに余裕が有るかも重要
あとはSSDが無いならそれも買ったほうがいい
とか考えていくと新しいPCを買ったほうがいい場合もある
3000番台のGPUならPCIe3とPCIe4は誤差と言われてるけど 4000番台での比較は見つからんな
>>888 グラボは刺さってないの?
低スぺでも何かしらのグラボ刺さってたらローカルでNGUIっていうNAIもどき使える
gtx1660でやってるんだけど新調するとしたらコスパ良いgpuってどれなの?
後ろから胸を揉むLORAってどこにある? 使いましたーって人は見かけるんだけどどこ探しても見つからない
>>900 新規で買う前提のコスパ重視なら3060、4070、4090を基本とした構成
現状のPCでグラボ変更のみでいけそうなのはおそらく3060のみ
>>904 ありがとう!
civitaiってサインインして検索しても全然LORA出ないんやが(例:grabで検索しても「POV belly grab LoRA」しか出ない)どうやって見つけてるんや?
>>906 アカウント設定で Mature Content や Explicit Adult Content 辺りのフィルターを確認してみるとか。
>>907 言う通りアカウントの設定いじったらいけたわthx
>>902 >>905 なるほど
グラボ変更のみでいけるのは3060のみってのはどういうこと?cpuが古そうだからボトルネックってこと?cpuは古いけど(i7 6700k)
プロンプトにコメントアウト(と言うんでしょうか?)(書いても生成に反映されないメモ書きみたいなの)をしたいんですが、やり方がないでしょうか?
>>910 例えば、だけど
<LoRA:メモ→~~~~>
LoRAとしてはあり得ないファイルになるから内部でスキップされるで~
ロラって自分で作れるの? 非公開で自分でローカルで遊ぶように芸能人(成人)のロラ作って色々出来たら凄くない?
モデルのデータでPCの容量パンッパンなんですが 何かモデルデータを節約するか、あるいは、外付けからモデルデータを引っ張ってこれるような方法をご存知ないですか?
>>909 君のPC構成は知らないけど、GPUが1660という時点でおそらく電源マザボ他考えても4000番台はおそらく無理
そうなるといける可能性は3060(低価格帯ではコスパ最強)ぐらいしか刺さらないかなと
ちなみにAIお絵描きだけで言えばCPUの性能は特にいらない
詳しく知りたいのならPC構成を書いて、予算出せばアドバイスがくるかと
>>914 シンボリックリンクを使用すればモデルフォルダを別ドライブにあてることも可能
もしくは外付けで安いSSDでも買ってそこに全て導入するのもあり
>>912 それをやってる人はやってる
なんならcivitaiに公開しちゃってるヤバい人もいる
>>917 うお神じゃん
暗黙の了解なのね
ありがとう
>>916 感謝 心から
こんな方法あるんだ
軽く調べただけだけど何とかなりそう
>>910 Dynamic promptsというExtensionを入れて#を書くとそこより後ろが改行するまでコメントアウトされるよ
>>925 既出だがそれ誤表記だからw
28万9800円が正確な値段
Kohya LoRA Training (Dreambooth method)使ってるけど LoRAの追加学習できてない気がする network weight のところに前回までのファイル読み込ませればOKって書いてあるけど 学習させると最初からになってる 何か他に条件があるのか そもそも学習済みのファイルに更に追加で学習させることが出来ないのか 誰か教えて
LoRAデータ作ったのですが、学習元画像の要素は学習できてるけどポーズや服装が変わらない… 学習させたくない要素だけタグ打ってるはずなんだけど、タグが足りないのか学習量が多いのか(20枚×10回×10epoch=2000stepぐらい) 実写で顔だけ似せたい場合、学習元は顔だけにした方がよかったりしますかね…
Kohya guiでLoraを作ろうとしてるのですが タグ付けしたテキストファイルはどこに入れればよいのでしょうか 画像と同じフォルダでいいんですか?
>>928 うちはKohya_ss_WebUIみたいなの使ってるけど
まず実行中に状態を逐次セーブするためのオプションを前もって付けておかないといけない
それを付けておくとログフォルダにしてしたとこに状態をセーブする「フォルダ」ができるので
再開の時はそのフォルダを指定してResumeするオプションを付けないといけない
って感じだけど
そちらの使ってるツールでも同じなのかはよくわかりません
>>930 うちは画像と同じ名前で拡張子だけ違うタグファイルを画像と同じフォルダに入れてますけど
オプションのパターンによっては時々イメージファイルの数に計上されたりしてる気がする・・・
数が計上されてるだけで動作には特に支障はない気はするけど・・・
ツクモのセールでクロシコのVRAM12GBの3060が通常価格から クーポンで5千円引きで42900円だったから速攻で買ったわ VRAM12GBの3060が4.3万って今までで最安なんかな? なんにせよこれで1660Tiから卒業して快適にAi絵ライフを満喫できるわ 1660Tiの方はPCワンズで1.4万で売れるみたいだから速攻で売るわ
>>928 うちもそれ使ってるけど問題なく学習再開できてるからファイル間違ってるとかのミスじゃね
novelAIで髪を切った・切られた絵を作りたいけどhaircutを入れても上手くいかない どうプロンプトを打てば出来ますか?
アニメ塗りをやめさせたいんですけどなんとかなりませんか? どうもlora(アニキャラ)の影響力が強すぎて実写よりModelがそれに引きずられてるみたいなんですよ… プロントも効かないんでお手上げ状態
>>909 CPU に 第7世代の i7搭載してるんでかなりでかいのついている
いやあ…いま3060買う選択肢は…どうなんだ? 半年後にメルカリ送りにするなら傷は浅そうだが
高いの買うのはいいけど美的センスが伴ってないと無駄金だぜ?
>>936 個々のLoraによるよね、そういうのって
そのLoraと適当に出した絵とプロンプトとモデルを公表するのが一番早いと思う
ここの人たちがたぶんなんとかしてくれるw
hiresfixをかけている際、50%を超えたところから極端に処理速度が落ちてしまいます ステップ数やcfgを変更しても変化が無いのですが、仕様でしょうか? もし対処方法があれば教えていただきたいです。 グラボは3050、メモリは16です
>>942 元絵を作ってからhiresで拡大、という処理なんで正常かと
>>939 3090や4090買ってすぐに飽きて無駄になった人もいるのでなんとも言えないな
なのでどれだけ金をかけるかも人それぞれ
スピードの面でも VRAM の面でも RTX 3060は今はちょっと厳しいよね
>>943 内部処理的に正常な動作なんですね
ありがとうございました
Dynamic Promptsで質問です 例えば、「猫耳のメイド」と「メガネのセーラー服」のどちらかをランダムで生成するようにしたいとします この時以下のように書いてもうまくいきません { nekomimi , maid | glasses ,sailor } こういう複数の要素を持ったモノをランダムで出させる記述はどうしたらいいんでしょうか?
勝手に手に何かを持たされるのを防ぎたいのですが プロンプトには何を入れればよいのでしょうか
>>949 手をなくすか
手を後ろに回すか
手を画面の外に出す
これが確実
建物の色んな部分をLoRAで学習させてるんですが、自動タグ付けだと間違いが多いので ファイル名から自動でタグを付けるような方法ってないでしょうか? それが出来れば、画像管理ソフトとかで画像を見ながら一括して ファイル名を変えられるので、かなり楽になるんですが・・ あ、colab運用でやってます
>>952 コマンド使えばいけそうだけど
あまり詳しくないから具体的な方法はわかんないや
>>953 ググってみたところ、Dataset tag editorというのを使えばなんかそれらしい事が出来るっぽいんですけど
これをcolabにセットアップするのはなんかかなり面倒そうだったので
心折れましたorz
諦めて手動でやりまする
>>948 カンマ要らないのでは?
それかまとめた要素を()で囲うとか
今使ってるpcのcpuがRyzen5 2400Gで3060を買おうと思って 調べたらPCI Express 3.0のサポートレーン数が16本から8本へ半減となってるんですがこれはグラボ刺しても性能半減されるって事ですか?
>>840-841 >>844 ありがとうございます^_^
試してみます(*^^*)
webUIでエラーかバグっぽい挙動が出たのでa9eab236d7e8afa4d6205127904a385b2c43bb24までバージョンをお戻そうと思ったのですが画像のエラー?がでて入れるのに失敗してしまいます
それまで使ってたgitpull済みのものでもgit clone したばかりのでも起こるのですがどうすればいいのでしょうか?
>>808 20年以上前に
恋人つなぎで握った手の平の指の数が異常に増えて絡み合ってる心霊写真があって怖かったが
今思えばAIが描いたやつにそっくり
>>948 俺も同じことやってるけどこれうまく行かないのかよ
霊なんていないので心霊写真も霊の仕業では無いんだけど 昔のメディアって霊だと信じてやっていたのか それとも霊じゃないと分かってて心霊だと言っていたのか どっちなんだろうかと思うことがある
>>956 CPUにGT1070と同等くらいのGPUが載ってるのと引き換えにPCIがx8になってるのか・・
https://linustechtips.com/topic/1361946-gpu-in-pcie-30-x8-vs-30-x16/ これが3060をx8で使ってるって質問で、熱くなるってのは質問者の勘違い臭い
さらにリンクで過去x8とx16を比較したのがあるけど、3080ではほんの少し落ちるだけで大した差はない模様
https://www.techspot.com/review/2104-pcie4-vs-pcie3-gpu-performance/ ただ検索するとCPU(APU?呼称はなんか知らんが)側のGPU自動解除が、
NVIDIAのGPUを別につけると上手く動かないから自分でBIOS上で殺す必要があるとかなんとか・・
やや古い1080の話だけど
https://news.mynavi.jp/article/20180213-583826/ >>961 まあガチで信じるまでいかなくても、否定はできないとか真顔で言う人は多い、というか日本人の殆どがそうだからなあ
嘘でも本当でも面白ければどっちでもいいって感覚だったんじゃないだろうか
>>958 あんま詳しくないけど、それって本当にエラーなの?
そのバージョンにしたよ、って報告メッセージでは
>>962 ありがとうございます
あまり気にしなくても良さそうですね
ポチります
>>964 よく見たらCommit hash:がa9eab236d7e8afa4d6205127904a385b2c43bb24になってたので問題なく戻せてたみたいです
質問前にしたときは起動中にエラーが出て止まったので失敗したものと思い込んでました
すいませんでした
次スレ立てたよ
【StableDiffusion】画像生成AI質問スレ9
http://2chb.net/r/cg/1682213108/ ワッチョイありにしたのはほかの画像生成AIスレはどれもワッチョイがあり、ワッチョイがないという理由で質問スレに関係ない話を書きに来る層がいると考えたから
スレタイからNovelAIを省略したのは次スレで数字が10になったら文字数不足になる気がしたのと専用スレがあるから
>>948 テキストファイルで選ばせれば?
わいは
loras.txtというのを作って一行ずつローラとトリガーワードをセットで入れてgenerateごとにランダムのloraが出るようにしてる
ワイルドカードって一行一呪文なのか、一行にズラーって書けば全部反映されるのかどっちですか?
>>970 挙動としてはランダムで一行抜き出してプロンプトに貼っつけてるだけでしょ
一行に大量にネガ書いてTI代わりにすることも可能らしい
>>935 虹の場合、cutting_hair,cutting_own_hair,heartbreak_haircutでの学習がどのモデルでもほとんどされていない
これらで出ないなら追加学習必至だと思われる
惨事に至っては尚更学習されてないんじゃないかなという予想
>>936 BlockWeightを適切に指示してやればなんとかなるんじゃないかと
どのような値が適切かはご自身でチャレンジしてくだされ
>>948 その記述であってるよ
至極正しいし、正常に機能する
したがって、別の要素が原因でうまく行ってない
ちなみに (nekomimi:{1.2|1.4|2.0}) ってやると、
(nekomimi:1.2)と(nekomimi:1.4)と(nekomimi:2.0)のどれかがちゃんと選ばれて正常に機能する
FixSeed付きでこれを回せば、強度別の同一画像確認(≒プロンプト強度の効き具合の確認)も簡単にできる
余談:全方位 {from_{above|front|below|celling|side
情弱な質問で申し訳ないんだが、civitaiのアダルト系が検索には引っかかるんだけど画像が見れないのはどこか設定するのんだよね? どこの設定かググっても出てこず困ってるので教えて貰えるとありがたいです
>>934 ドライブ内のsafetensorsは指定できない?
trainingするとき
load network weights from /content/drive/---(略)---safetensors: none
となるんですが
途中送信失礼 余談:全方位のどれか {from_{above|front|celling|{1-3$$_$$side|back|below}}|pov|dynamic_angle} ガチャでいろんな角度を見たいときにこれを使ってる モデルによっては反映できないものもあるけどね
そんな所を略するような奴はスペースか日本語と相場が決まってる
>>976 googleアカウント(とか?)でログインすると見られるよー
>>959 実はAIで生成してた未来人だったのかもw
>>979 >>980 ログインしてたんだけど見れなくてわかんなかった、、、んだけど目のマークのとこいじってたら見れました!
ありがとう!
>>977 本人なんですが、resumeってlohaだと出来ない?
スレ消費早いし グラボ云々PC性能の影響で生成レベルがどうなるかの話と 画像そのものの構築テクニックの話でスレわけたいなあ もうスレがあるのかどうかは知らんけど
>>984 すでにある
技術板はあまり機能してないので聞くならエロスレのほうがいいかも
だってどうせみんなエロ目的でしょう?
【StableDiffusion】AI画像生成技術19【NovelAI】
http://2chb.net/r/cg/1681973770/ 【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/ >>968 荒れるだけでミリも生産性のない議論ふっかけるバカがいるから問答無用でワッチョイ有りで良いですよ
有能
>>977 左のサイドバーのファイルからパスをコピペすれば間違わないよ
colabは手動でvaeを入れることは不可能ですか?web ui内でファイルはちゃんと表示されてるんですが選択しても適用されなくて困ってます。コードで追加するしかないですか?
どこにでもいるんだよね 自分で荒らしておいてワッチョイ化する輩が
どっちでもいいけどワッチョイ付けて不都合があるならスレ分ければ?
立ておいたぞ
どちらに需要があるかで決めればよろし
【StableDiffusion】画像生成AI質問スレ9【NovelAI】
http://2chb.net/r/cg/1682230322/ あーそうなるか、まーしかたないか ワッチョイつけるかどうかの話になると単発がわらわらわいてくるのは相変わらずね
この建て方だとnovel AIをハブるかどうかに見えないっすかね・・・ まあ棲み分ければいいんじゃ無い?
そんなにワッチョイ付いたら困るから無し版スレ立てたのかよと思ったけど ワッチョイあってもお構いなしで意識高いお気持ち表明してる痛い奴らが 大量に湧いてる技術スレを見るにワッチョイ有り無しはたいした意味が無いから 新たに立てるのはスレがばらけるだけの無駄でしか無い
>994 ここでnovelAIの質問をした人が的確な回答を得ている感触がないので専用スレを案内してます>968
>>995 あまりにもあんまりなやつはNGにできるからメリットはある
後ろめたく無いなら多分デメリットは多分無い
次スレこっちで
【StableDiffusion】画像生成AI質問スレ9
http://2chb.net/r/cg/1682213108/
read.cgi ver 07.7.25 2025/07/21 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20251010001758ncaこのスレへの固定リンク: http://5chb.net/r/cg/1681531755/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ8【NovelAI】 YouTube動画>1本 ->画像>31枚 」 を見た人も見ています:・CGクリエイターなら外見もイケてるよな? ・近藤雅典へ業務妨害罪 増田まちう 無職 逮捕状デタ ・【クレカ】SAIの支払い方法【コンビニ】 ・Daz Studioスレッド Part22 ・Daz Studioスレッド Part43(ワッチョイあり) ・PixAiについて語るスレ 6 ・Painter総合 61筆目【ペインター】 ・【液タブ】海外製ペンタブレット総合 7【板タブ】 ・ピクシブの屁理屈捏ね太郎 ソシオパス ・【液タブ】海外製ペンタブレット総合 7【板タブ】 ・【液タブ】海外製ペンタブレット総合 17【板タブ】 ・Blender 初心者質問スレッド Part46 ・自主制作アニメを作ろう20作目 ©2ch.net ・【メガネ必須】どんな眼にいいことしてる? ・AURA2ってどうよ? ・【初心者から】GIFアニメを作るモナ【神まで】 ・今時のCGクリエイターについて ・ソフトにいくらお金かけてますか? ・PixAiについて語るスレ 5 ・MSペイントでどこまで描けるか ・Painterよりも水彩だろ! ・【トミー】審査落ちた人かも〜ん49【OMC】 ・SAIアップデート放棄か?3 自演擁護 ・傅野栄次借金踏み倒し無一文無一物ルンペン ・XP-PEN液晶ペンタブレット2【Artist/Star/Deco】 ・【ドワンゴ・アニメーション制作】OpenToonz Part1 ・Windowsタブレットで絵を描きたい人のスレ ・Anime Studio / Moho スレ ・ゲームCGスタッフ募集 ・MilkShape3D ・PixAiについて語るスレ 11 ・株式会社モモ ・村上隆のpixiv介入 pixkikiについてどう思う? ・【コミスタ・イラスタ後継】CLIP STUDIO PAINT part118 ・3ds Max 総合スレッド Part37 ・Windowsタブで絵を描きたい人のスレ Part.11 ※絵OK ・Windowsタブで絵を描きたい人のスレ Part.10 ※絵OK ・真剣にわからないから助けてくれ ・頭蓋骨のスキャン、フリーで落ちてないですか? ・【ペンタブ】WACOM 新・旧Intuos 【板タブ】13本目 ・Twitterシャドウバン関連スレ Part4 ・【3Dデッサン人形】 デザインドール 8体目 ・pixiv トップランカー専用スレ ・セシル変身アプリについて語ろう ・pixiv 底辺卒業スレ Part100 ・【Cintiq】WACOM 液晶ペンタブレットPart147【DT】 ・オープンソース応援&情報収集スレ ・ゲームの魔法などエフェクトを語るスレ ・CGの業界に入りたいんだけどやっぱり厳しい? Part2 ・【液タブ】海外製ペンタブレット総合 27【板タブ】 ・3DCGに関する懐かしいワードを挙げるスレ ・【おかしい】 インチキサイト発見 【CG】 ・PBWイラスト総合スレ Part4 ・ペイントツールSAI 122色目 ・ファイナルファンタジー7 ACのCGについて ・【Midjourney】AI関連総合8【StableDiffusion】 ・【StableDiffusion】AI画像生成技術9【Midjourney】 ・デジタルアブストラクト ・超 超 初心者スレッド ・関東弁を「標準語」という輩は頭悪すぎる ・Daz Studioスレッド Part40 ・LightFlow ・Daz Studioスレッド Part38 ・Mypaint Part 2 ・Blender 初心者質問スレッド Part40
11:17:58 up 4 days, 20:23, 3 users, load average: 71.56, 85.05, 79.79
in 1.0034630298615 sec
@[email protected] on 101000