◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ13 YouTube動画>2本 ->画像>15枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1686751262/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは
>>950 が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは
>>2 以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ12
http://2chb.net/r/cg/1685519479/ ■AUTOMATIC1111/Stable Diffusion WebUI
https://github.com/AUTOMATIC1111/stable-diffusion-webui パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1 導入方法2
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで
■FAQ Q1:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspace、Modalなどのクラウド実行環境、どちらがいい? A1:ローカルは利用時間の制限がなく、エロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像(特に幼児)の生成でBANされる可能性がある Q2:ローカル環境でパソコンの性能はどのくらいがいい? A2:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低16GB。ストレージはNVMe SSDのような早いものにするとモデルの切り換えにストレスが少ない。本体の置き場所と画像の出力先はHDDでもよい Q3:NMKDと1111、どちらをインストールしたらいい? A3:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ Q4:画像を出力したら色が薄い、または彩度が低い A4:VAEが適用されていない可能性がある。1111なら設定(settings)−UI設定(User Interface)−クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
■AUTOMATIC1111版Stable Diffusion WebUIについてのFAQ
Q1:自分の環境で使える?
A1:利用は無料なのでインストールしてみるとよい。インストール方法は>2参照。省メモリの設定は以下を参照
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%cewebui-user.bat Q2:起動時の初期値や数値の増減量を変えたい
A2:1111をインストールしたフォルダにある「ui-config.json」を編集
Q3:作りすぎたスタイルを整理したい
A3:1111をインストールしたフォルダにある「styles.csv」を編集
Q4:出力するごとに生成ボタンをクリックするのがわずらわしい
A4:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能。止めるには生成ボタンを再度右クリックして止める
Q5:アニメ顔を出力したら目鼻がなんか気持ち悪い
A5:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用
Q6:設定を変更したのに反映されない
A6:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。「再起動が必要」と書かれていても「UIの再読み込み(Reload UI)」ボタンのクリックですむものも多い
Q7:消去したプロンプトがまだ効いている気がする
A7:報告は多数ありおそらくバグだが、確たる原因や解消方法はわかっていない。影響をなくすにはWebUIの再起動や、まったく別の画像をPNG Infoから読み込んで再生成するなどが提案されている
【CLIP設定ってどうしたらいい?】 イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる 【そもそもCLIPって何?】 ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施 これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている 実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い と思われる ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である
質問スレなので、質問します スタンドアロンPCで、画像ファイルなしでテキストだけでSDを学習させることはできるのですか? つまり生まれつき全盲の人に絵を描かせるような話ですが
ゼロベースで何もないとこからテキストで絵を学習ってそりゃもうSDじゃないんよ
そしたら学習のためには何らか画像ファイルを用意する必要ありますね
モデルデータは数値化されて画像で保存されてない って言うけど 数値化されたものを画像に変換できるんだから モデルデータをまるっと画像ファイルとして 変換できるんよね? 違うのか?
>>12 あらゆる可能性の集合アウトプットとしてなら書き出せるけど、そんなの現実的じゃないと思いますよ
>>14 数百テラとかのデータになるだろうし、意味のある画像を見つけ出す手段もないと思うんです
>>12 ビットマップと画像とを同じ意味で言うなら、HDなりSSD上のデータはビットマップですので、変換は可能です
ただし意味を読み取ることはできません
>>15 画像を数値化したといってそのファイルが軽くなるものでもないのでは?
3Gのデータが数百Tになるとか素人の俺でもそれはないと思うわw
あんまりデタラメ教えるのはどうかとw
>>17 もともとのあなたの言い分があいまいなので、改めて書いてもらえませんか?
私が言ったのは、たとえばアルファベット26文字だがそれによってアウトプットされる詩や小説などは無限になるので全てを出力や保管はできないと言う意味で言ったことです
キチガイには何言っても理解できないから相手にするなよ
ping infoに画像を持っていくと、その画像の生成情報が表示されると思いますが、そこにVAEについての情報がありません。 作った画像のVAEが何だったか知る方法はあるでしょうか?
4080に変更したけどベンチで10.8it/sしか出ないがCPUも多少影響しますかね。i711700と2世代前のCPUなんだけど。ブログとか見てると13it/sぐらい出るみたいですけど。
>>21 どういう条件の何のベンチかわからないから何とも言えない
アスカベンチなら相当遅いよ
ちもろぐにのってた512×768:神里綾華ベンチマークですね。13から14it/sでてるデータがのってます。
VRAM容量はいくつあっても足らないとは言いますが12GBをベースにすると 24GBは超高解像度や学習をメインとする場合 12GBは
>>13 できるか知らんけどプロンプト無しで生成した状態じゃない?
>>9 全盲を対象に全盲が要求を満たす学習をさせることは、普遍的に可能
理由は、『全盲が学習結果を確認する術がない→学習結果は何でもいい(全ての結果を承認するしかない)』
ちなみに、SDの場合は画像に基づく特徴の学習結果のほかに、言語そのものに基づく特徴の学習結果も使っている
(以下は概念なので細かく言うと間違いですが・・・)
突合は双方から変換された中間言語の特徴一致によって確率的に採用される形式
つまり、プロンプト自身には画像情報が一切存在していない
なので、画像学習させても、元の画像の情報は残っていないということになる
この中間言語による確率的紐づけを学習と称しているので、場合によっては習近平というワードに「習近平の顔・デフォルメ熊・黄色」の特徴を紐づけることもできる
したがって、ディズニー黄色熊そのものを学習させなくても習近平という語でクマプーライクの画像が出せたりする
場合によってはひどく似た画像が出るかもしれない、熊ぷーを学習させてないのに、である
>>24 書きかけ送ってた…
普通の使い方であれば12GBあれば十分でしょうか?
学習やり始めると不満感じるものでしょうか?
>>26 つまり、SDが現況の機能を獲得するために、画像ファイルは一切与えなくてもできるの?できないの?
その人が正しい事を言っているか不確かなのに信じるんだな 自分で確かめてみればいいのに まぁ自分にとって都合がいい話が出てきたら飛びついて、そうでなかったら次に移るだけなんだろうけど マスゴミと同じやなw
>>20 VAEをモデルに焼いてそのモデルにVAEの名前も入れれば実質VAEの名前も記録される
別に荒れてないだろ インターネットの画像ファイルを無断借用していることの自覚がなさすぎるし、屁理屈で反論までしてくる 認めた上で使えばいいだけなのに
こういうバカが突撃してくるのも風物詩 そのうち無断引用とか言い始めるぞw
調子にのってマネタイズを企むやつも多いしな 仕事しろよアホ
「学習に利用しているのはインターネッツ上の画像ファイルを無断借用」 さあ反論あればどうぞ
インターネットの画像を無断拝借君、こっちでやってくれないかな?
【StableDiffusion】AI画像生成技術22【NovelAI】
http://2chb.net/r/cg/1685445410/ ここ質問スレなんだ
ならこっちで
【Midjourney】AI関連総合19【StableDiffusion】
http://2chb.net/r/cg/1683596692/ つかID変えるの止めなよ、ワッチョイ怖い?なんでそんなチキンなの?
そもそも無断借用ってなんだよw そういう適当な用語を使う輩は無視で
何ひとつ反論できていないやん ひろゆきの悪影響だな IDが変わるのはずっと移動してるからだよ仕方ないだろ
>>42 【Midjourney】AI関連総合19【StableDiffusion】
http://2chb.net/r/cg/1683596692/ プロンプトって_はスペースと同じなんだっけ? 単語同士を-でつないだ場合は一塊?
>>44 【Midjourney】AI関連総合19【StableDiffusion】
http://2chb.net/r/cg/1683596692/ こっていで相手してやるよ
ワッチョイから逃げずにやろうぜ!
>>30 ありがとうございます。
VAEをモデルに焼く、というのはどういうことでしょうか?
VAE込みのモデルが配布されているのを見ますが、ああいうのを自分で作るということでしょうか?
この手の類いは場を荒らすだけが目的だから相手しちゃダメ 相手の事もスレの事も界隈の事も何ら興味ないいわゆる荒し 古いタイプ過ぎて懐かしくすらあるけどとっととNG
AIを機械だと認めたくないんだろうね 意味不明だけど
結局消えたか・・ 不特定多数にIDコロコロしながらわーわー喚き散らすのは好きだけど ワッチョイは天敵みたいに怖がる、言動に一切責任は持たない人種か AI生成のことも全く勉強してなさげだし、ここにも昨日来たのが最初っぽいね 質問スレの意味はき違えてるし > 質問する人はなるべく情報開示してください > ・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか こういう質問だよ~ また来たらAI関連総合に誘導してね、相手するんで 釣られていちいち反論とかしないように、レスしてもらえるのが嬉しくて涎垂らしてる感じなんで
>>51 長いし面白くもない
荒らしはお前のほうだろが
2次系で瞳の中のハイライトの具合を強度で0~8割くらいにスライドできるLoRAが作りたいんやが 乳輪二キにきけばわかりそうかな?
ハイライトは需要高そうだなてか欲しいです何でもしm 良かったら公開しておくれ
プロンプトのカンマ間に2語以上ある時、カンマ内だけで帰結せず、カンマ外のプロンプトと組み合わさる事もあるように見えるけどそういう認識で正しい?
>>55 1語であったとしてもカンマ内からはみ出るワードは沢山あるよ
というか基本的にカンマ内に閉じ込めておくことはできない
画質系なんて典型
色名もそうだし形容詞も「汚染」が良く起きる
皆が頭を悩ませる大きな問題よね
カンマに挟まれた単語はカンマの中で強く影響し合うとかしてほしいね
>>56 cutoffもあんまきかねーし
赤い髪、青い服を対象にしたいときcutoffは
red,blue
red hair,blue clothes
どっちがいいんだろ
>>51 誘導するの面倒だからここ使い切ったらワッチョイ付きに移動すれば?
sagemakerのloraが効かないんやがなんでなん?
次は入れ替わってワッチョイ厨が現れるw まあお察しだね
同じ解像度を得ようとする時にメモリが許すなら一発で出すのとアップスケーリングするのでどっちが良いとかあるの?
>>18 アルファベット26文字はアウトプットしても26文字だよw
アウトプットを盛りたがる癖は止めようね
まぁ、次スレはワッチョイで良いと思うよ ワッチョイ無しにそれほどメリットがあるとは思えないし
>>63 512を超えると奇形化する事多いんで一辺が512のサイズで作ってアップスケールが一般的
>>65 それならこちらを御利用ください
【StableDiffusion】画像生成AI質問スレ11【NovelAI】
http://2chb.net/r/cg/1684577389/ >>68 スレあるのか、知らなかったわ
ありがとう
>>58 そこらは何とかならんのかな
このプロンプトの色指定や!っていう感じでプロンプトのワードの中の主従関係を固められるような…
ツイッターで「手描き絵師の努力が無駄になる」みたいなAIの叩き方してるクソアホいるんだけど 過程じゃなくて成果物の評価でしょ受け手からしたらね
cuDNN入れ替えたら12it/s出るようになった(^^)
>>47 そうだね、1111のチェックポイントマージ機能にVAEを含めるってのがあるから同じモデル同志でマージしてVAE含めれば作れる
まあ1つの方法ってことで、これが一般的かどうかは別の話だけどね
>>71 「なる」じゃなくてもう「なった」だなぁ
まあAIには描けない個性的なイラストで勝負するとか
ちょっとストーリー性持たせるなり人間同士がやりとりしてる場面にするだけでもAIだと手間かけないとできない領域だからな 逆に突っ立ってるだけの絵とかはもう人間が描く必要ないわ
じゃあそのAIで公園のベンチに座ってイカ焼きを食ってる 上半身がセーラー服で下半身はスク水足元はルーズソックス にローファーの女子高生を今から書いてと言われても UP出来ないよねw
セーラースク水とルーズソックスのLoraは既にあるから一発は無理でもin paintとかで出来そうだな イカ焼きは学習データないだろうからLora自作するしかないね
>>28 究極的なことを言うなら、できるってなっちゃうんだな、数学論文的には
もちろん、相当な時間と労力はかかるけどね
なんでAIの基底に自然乱数(PCでは疑似乱数で代替)があるかがわかれば、その答えは見つけ出せる
あとは君への宿題だな
正直なところ、この宿題ができないなら、こっちが説明しても君は理解できない
そういう高度な話にはなる
上記が理解されたうえで・・・
学習元画像はその閾値設定に用いられてるだけ
だから、閾値が表現できるなら、他の画像でもいいとなる
裏返せば、画像から得ている情報は閾値だけである
誰それの特定の画像であるという情報は保存される必要がないので保存されていない
したがって、SDのCPにおいて学習元の情報は存在しないと解すのが妥当
よって、SD仁著作権を奪われたと訴訟しても、このアーキテクチャ相手では絶対に負ける
なお、閾値にたいして著しい偏りを企図している場合は、その意思が表れる場合がある
しかし、学習者が企図しても使用者が企図しなければ、その偏りの影響は自然乱数の支配下である
したがって、その絵を確認した後陳列頒布に至るという人間の判断が侵害の根源となる
AIが出力しただけではk頼ったとしても何ら問題にならない
>>62 ワッチョイ導入されると困るような事しかしてないからだろw
>>79 そのレベルで手書き絵師を超えたという人が居るのが草
>>45 アンダーバーはNovelAIの頃の名残だとかで古い書き方だそうだ
トークンも無駄に消費するしLoraのトリガーワードでもなければ
使わなくていいんじゃないの
忘れてた
■関連スレ(チェックが面倒だったらこの書き込みは省略してかまいません)
【StableDiffusion】画像生成AI質問スレ11【NovelAI】※ワッチョイあり
http://2chb.net/r/cg/1684577389/ エロ用
なんJNVA部★222
http://2chb.net/r/liveuranus/1686626563/ 【StableDiffusion】AIエロ画像情報交換25【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1684654362/ 雑談用。質問以外の感想、報告などはこちらへ
AIイラスト 愚痴、アンチ、賛美スレ part75
http://2chb.net/r/illustrator/1686685867/ 【Midjourney】AI関連総合20【StableDiffusion】
http://2chb.net/r/cg/1686801610/ その他
【StableDiffusion】AI画像生成技術22【NovelAI】
http://2chb.net/r/cg/1685445410/ AIで画像生成してる人のマネタイズ関連スレ ★37
http://2chb.net/r/doujin/1686693386/ 【StableDiffusion】AI動画生成スレ1
http://2chb.net/r/cg/1682412452/ NovelAI,Holara,TrinArt等画像生成AIサービス総合
http://2chb.net/r/esite/1679527005/ なんJnovelAI部ウェブ専★68
http://2chb.net/r/liveuranus/1679488956/ 学習時の背景は白塗りが良いのか?それとも十分な枚数があれば背景と分かる? 最適解は分かっているんだっけ?
普通に使うとガビガビカサカサのLoraが プロンプトを増やすとなぜか綺麗な画像が出るようになる… もーさっぱりわからない
リアル系でおすすめのアップスケール方法教えて。クオリティー(顔)上がりつつ、構図は変わらないやり方
>>80 まだ言ってるのか
つーか「学習ソースは既存インタネットから無断利用した画像ファイル」てのを認めるかどうかのシンプルな問いかけなのに長文うざいよ
>>88 トリガーに当たるか当たってなかったとかじゃなく?
低解像度でガチャ回す→かわいい顔画像厳選する→アップスケール→ブス ブスというかいつもほぼ同じブスになるのなんでなん
プロンプトってコメントアウト出来ないんかな? 色々試したいときに毎回単語打ったりコピペするのめんどくさいんだが
/* comment out */ か [コメント:999]
>>94 おれは改行して行頭に#入れてるけど?
正式な方法か知らんが結果のプロンプトみるとそこは空行になってる
interruptしたときにクリーチャーになった画像を保存しない方法ってある?
>>89 普通にR-ESRGAN 4x+じゃだめなん?
表情はADetailer plugin使えばいい
まだまだ初心者ですが、プロンプトってスペースとピリオドとBreak?、数行改行で生成結果は変わるものなのでしょうか?
>>89 >>92 Hires.Fixでアップスケールするとプロンプトが反映される分、余計な変化も起きがち
ならExtrasのアップスケーラーのほうがいい 高速だし
>>90 シンプルな問題としてるなら・・・
>「学習ソースは既存インタネットから無断利用した画像ファイル」てのを認めるかどうか
・認めるのを拒否する合理的な理由なし
解説は前出の通り
以上だよ
で、合理的な理由なしって書いたら普通に理由求められるだろ
だから先に書いたのよ
・・・読解力のなさを建前にヒステリックになるなよ、低能君 笑
xformersを0.17から0.20にアップデートしたのですが、起動すると0.17のままになっております \venv\Lib\site-packagesフォルダを見るとxformers-0.0.17.dist-infoフォルダと xformers-0.0.20.dist-infoフォルダが共存しております ソフト様に0.20を使ってもらうにはどうすればよいのでしょうか?
>>104 正常にアップデートされてれば0.0.17をアンインストールしてから0.0.20がインストールされる筈なのでフォルダが共存する事はない筈
どういう手順でアップデートした?
多分というか概ね仮想環境に入らずにアップデートしたとかそういう感じでは?
>>97 うちも行頭#のコメントアウトを多用してる
確かdynamic promptsの機能だったと思う
これって使ってるモデルやプロンプトが勝手にバレていきなりお前えっちやんとか言われたりする可能性あるんか?🤔
>>105 GTX980という大昔のグラボですので、通常のアップデートでは無理かと思い、以下のサイトを参考に
https://github.com/AUTOMATIC1111/stable-diffusion-webui/wiki/Xformers venvフォルダでgit cloneしたり途中まで行ったのですが上手く行かず、
webuiを起動するとxformersが有効化されているので実は上手く行った?!と喜んでいたら速度が一切変わらず…
アップデートし0.20になったと言われたものの、再度起動するとバージョンは0.17のまま…
レガシー環境で無茶をしたようで、めちゃくちゃになっております…
とりあえずvenvフォルダのXformersフォルダを削除するべきでしょうか…
プロンプトについてAI初心者の疑問なんですが、 管理元はSD本体なのでしょうか?各モデル? AIが単語・文章を認識判断して画像に適用しているのではなく、効果と単語が予め紐付けられたものしか意味がないのでしょうか?
>>109 そういうわけでは無いし一括りに出来るほど単純でもない
それがイマイチ掴みきれないから皆苦労してるわけで
全く効果がないと思われるワードでも、clip skipを変えたら効果が出たりするし
>>108 それはちゃんとコンパイルしたって事?
悪いけどまともに出来てる感じじゃなさそうだしvenvフォルダ丸ごと削除して環境すっきりさせといた方が楽じゃないかな
削除しても起動batで標準環境は再作成されるので他で余計なことしてなければ問題はない筈
気になるなら別フォルダにSD webuiを新規に入れなおして今の環境は削除してしまうか
>>110 なんとなく入れた服装の単語一つで絵のクオリティがガラッと変わったので、ソフト(モデル)が想定しているプロンプト以外は効果がないのか?という疑問でした
今解説サイトでテンプレとして公開されているプロンプトは、効果がわかりやすいモノを纏めているだけという認識でいいのですね
ahogeとかKATANAとか稀にしか使われなさそうなのに反映されるのはわざわざ誰かが学習させているのかと思ってました
ありがとうございました
>>111 全く出来ている自信がありません…
とりあえず削除してみます…
いろいろ脱がせてみて気づく 全裸にすれば良いってものではない……
出した画像誰にも見せないならえっちバレの心配はいらんくさいな、ええやん🤗 まあ俺は紳士な画像しか出さんけどな
おっぱいボロンしている以外は正常な絵がとてもはかどる
>>103 ほらまたつべこべと予防線を張って明確な返答ができないじゃないの
>>103 そもそも学習後のDBから元の学習ソースのビットマップをデコードできるかなんて誰もといかけてないのに、そっちの話にすが逃げ込むよな
>>108 Pythonのvenv環境はフォルダ以下に入るのではなくactivateするものだぞ
知っててそうしてたならスマン
スクリプトのXYZプロンプトを使って、モデルごとの違いを確かめようとしてるのですが、挙動が変です。 なぜか、指定していないモデルで生成した画像が出てきます。 X-typeのことろを「チェックポイントネーム」にして、XValueのところに以下のように記述したとします AOM3_orangemixs.safetensors [d124fc18f0], Deyoyoyo_3D_V1.safetensors [febed1c8e9], すると、普通なら上記の2つのモデルで生成した画像だけが出てきそうなものですが、上記2つ以外のモデル(どのモデルになるかの法則性は不明)がいくつか入ってしまいます。上記の例だとSakuraMix-v2が加わってしまいます。 これ、なぜでしょうか?
>>91 トリガーワードとLoraタグはセットで置いてあるし、位置を先頭や末尾に変えても同じ結果だったから問題ないと思う
75/75だとガビガビで、84/150だときれいになったから、区切りが関係あると思うけど意味不明
しかもそれとは別に、NGに入れてあるbaldの強度を1.8くらいにしたら75以下でも同じ効果があった
long torso:1.8でも同じ効果だったからNGならなんでもいいのかな?
これ一体どういう理屈なの…
>>124 まさにそれです。
なるほど、改行や空白スペースが駄目みたいですね。
除去すると治りました。
ありがとうございます。
>>124 しかし、どうやってそこにたどり着いたのでしょう 驚きです
検索しても全然ヒットしなかったのに
XYZ automatic1111 checkpoint issue で検索したら2つ目に出るね
ありがとうございます。 なるほど 検索ワードのチョイスも難しいですね
Stable Diffusionを無料で使えるので1番いいのどれでしょうかね?
グラボを3060から4070にしたのに生成が逆に遅くなった…… 生成中音楽流しててもプチプチ切れるようになったしいいことが無い。 こんなはずでは。ドライバは最新、他に何かできることある?
>>131 CUDAのライブラリが4000番対応じゃ無いのを使ってるとか
>>132 ぬああなるほど。CUDA入れ直してみよう
>>132 あざす、webuiのアップデートからやってみます
webuiアップデートだけでは改善せず、Pytorchアップデートで改善しました。CUDAは調べてもよく分からなかったので手付かず・・・でも快適になった。情報くれた人ありがと
cuDNNってSD1111の時に勝手に入る? 昔waifu2xのために入れたことあるけど、すでに入っていたら勝手にアップデートされる? torch: 2.0.1+cu118 ?って出てるけど cu118がcuDNN?
torch2.0.0+cu118なら4000番対応になってたはず
それはある しかしいくらなんでもモデルが多すぎる なのでBingたんの力も借りてモデルを探してる なかなかの打率でコスプレ向きとか要望通りを見つけてくるもんだ
みんな拡張機能のクリーンアンインストールってどうやってるの? extensionsフォルダーの下のフォルダー消しても設定ファイルやらに色々残ってて クリーンインストールができない
モデル探しをやる前に絵柄変更プロンプトを試すと良いぞ 絵柄変えるだけでモデルが変わったレベルの変化がある 水彩画が凄い好き
よくアプリとかであなたの顔をAIイラストで・・・みたいなのあるけど、 SDでやろうと思ったら、モデルデータを2次、3次どちらから作るほうが良さげ? 2次からphoto realisticか 3次だったらなんだろうillustrationとlora:flat使うのかな?
まずは脱衣、一通りやったらパンチラ、水着 そして普通の着衣で可愛らしい画像の生成に落ち着く
エロも人も一通りやったから今は風景とか機械とかやってるけど参考になるプロンプトが少ない
日本製のアップスケーラーないな 本当に日本のITは奴隷しか産まないな
AIイラストに関わるやつなんてみんなスケベ目的やろ(偏見)
Ultimate SD UpscaleとHires. fix悩むなぁ 低スペだからUltimate SD Upscale安定なんだけどlora使うとキャラが多重影分身しちゃう CFGとスケール下げれば収まるけど今度はloraの効きが悪くなる気がする
>>141 拡張機能はextensionsフォルダ内が全て
他のどこかに何かが残ると思ってるのは君の勘違い
AI絵はスケベが出来なきゃここまで世界的に急速に技術進化してないだろう スケベは万国共通だ
呪文にgodって入れたら翼が生えて 手が4つになって6翼の美少女熾天使 みたいになっててワロタ ネガティブの倍率上げるか
エロ絵作ってるだけなのにめっちゃ目が疲れるし体調悪い これ毎日とかプログラマーの人とかすげーよな
>>158 1日15時間ぐらい毎日20年以上椅子生活してて
筋肉が細くなりすぎてあまり歩けなくなったわ
ローラなんだけどキャプションファイルから プロンプト全く抜かない素のファイルでローラ 作ったけどきちんと動作するのな。打率は低いけど
リアルで人と関わらない奴が作ってるから一般受けしない物しかできないんだろうな
大学時代に官公庁の8次孫請けの超人力作業バイトやってたぞ 25年前で時給1200円やったわ 一昨日ニュースでやってたマイナンバー6000人分を5人で入力する作業みたいな感じ デジタルなのに超アナログなことさせられた記憶があるわ
>>149 flatLORAマイナスはある種のアップスケールだと思う
しかも奇形化しないlatentというありえないと思っていたもの
それを低リスク超簡単にやれるようにしたのはすごいと思うよ
>>141 LoRAの作成試そうと思ってtrain関係の拡張機能入れたら動きおかしくなったときはデイレクトリを別に作成して、
その新しいデイレクトリにAUTOMATIC1111を再インストールして使っていたモデルやLoRAなどを再インストールしたとこにコピーした。
高解像度で出力させたりHires.使うと高頻度で色情報が抜けて絵がバグる感じなんですけど何でですかね?
参考例
【640×512】
【1800×1440】
(画像は見やすいように縮小済み)
二つは同プロンプト、同seedで解像度だけ変更してあります
GPUは3060(12GB)です。
結果を見ると高解像度はVRAMを100%使い切っているけどそれが原因?
マジレスすると高解像度で出力
すると破綻するのは仕様
Hires.使わずにTiled Diffusionで
アップスケールするのが最適解
VIDEO 例えば4倍に拡大したいなら、2倍を2回にしたほうが破綻が少なくなる 1.4倍を4回ならさらに良い
>>166 そうはならんやろ、と言いたくなるレベルだw
>>166 つっても破綻てそういうことじゃないじゃん!?
pregnantでヘソ2つになりがちなのは気のせいだろうか?
DynamicPromptインストールしたら起動時に毎回 sd-dynamic-prompts installer: running 'C:\stable-diffusion-webui\venv\Scripts\python.exe' -m pip install 'send2trash~=1.8' 'dynamicprompts[attentiongrabber,magicprompt]~=0.27.0' って出るんだけど無視してておk?
自分もDynamicPromptで質問 インストールしたら Dynamic Prompts is not installed correctly. You have dynamicprompts 0.23.0 installed, but this extension requires ~=0.27.0. Please run `install.py` from the sd-dynamic-prompts extension directory, or `pip install dynamicprompts[attentiongrabber,magicprompt]~=0.27.0`. って出て使えぬ どうしたらいいん?
会社にもいるんだよね エラーメッセージを読まずに「わかりません」っていう人 対処法が書いてあるけどやったの?と聞いても「わかりません」 丁寧に原因と解決法まで出してくれるエラーなんて優しいほうなのに表示された内容を翻訳すらしない
アップデートしろ、ってのは翻訳からも分かったんですけど インストールドのタブ上では最新って表示が出ていて そもそも、ローディング画面が永遠に終わらないんですわ
>>182 タブ上の最新表示はsd-dynamic-promptsで
問題となってるのは参照してるdynamicpromptsのバージョンの問題だぞ
予算20万なんだが画像生成に困らないレベルのゲーミングpc買うことって可能? 初給料なんでまじで失敗したくない
>>183 つまりファイル自体のアップデートが必要ってことですよね
でもそのファイルがどこにあるのか分からない・・・
>>184 1枚1分とかの生成速度を遅いと感じないなら20万で足りるよ
さすがにディレクトリって言葉すら知らない人がローカルSDやるのは厳しいのでは・・
>>185 linuxならpip install 'dynamicprompts[attentiongrabber,magicprompt]==0.27.0
python.exe -m pip install "dynamicprompts[attentiongrabber,magicprompt]==0.27.0"
>>188 早漏した
windowsならコンソールでstable-diffusion-webui\venv\Scriptsにいって
python.exe -m pip install "dynamicprompts[attentiongrabber,magicprompt]==0.27.0"
でいけるやろ
>>184 初給料注ぎ込んで幼女のエロ画像作ろうと思ってる時点でお前の人生は失敗してるw
そういう答え方では更に質問が増える SDのextensionフォルダの中にあるのをフォルダごと削除してwebui起動して入れ直すのが一番早い
>>190 意味不明なんだがw
滝とか自然の動画を連続的に作りたいだけなんだが
>>184 生成が多少遅くても我慢できるなら3060搭載PCが十分可能
SSDやメモリの増強もたぶん可能
メモリ32GB、SSD500GB+2TBくらいならギリギリ収まりそう
拡張性の高いマザボであることを確認して、半年とか1年かけて増強していくのもいいかもしれない
そういう意味でもケースはデカめのにした方が絶対いい
安いからといってミニタワーよりもミドルタワー以上の方が後悔しないはず
AI動画って一番上の一握りが挑戦するジャンル、アニメーションの才能もいる パラパラ漫画みたいなのすら作ったことない人が、プロンプト入れたらポン出しできると思ってるなら止めた方がいい
>>192 動画か・・・
まだ誰もが手探り状態の分野だから横一線とは言えるが、予算20万じゃキツイかも
やれなくはないけど動画は3060じゃむちゃくちゃ時間かかるよ
正直、失敗したくないっていう人がローカル挑戦は滑稽 それなら最初はcolabでしょ 失敗したくない、無駄は嫌という思考が近年の日本に蔓延っているよね 金銭的、時間的余裕が無い社会
二次系でエロに特化したモデルってあるでしょうか? まんまん、ちんちんも綺麗に描いて、体位とか体液とかの描写も上手なモデルを探してます。 今のところ、Deyoyoyo_3Dが一番いい感じに描いてくれるんですが、どうにも満足のいくのは描けないでいます。
画像一枚と動画作るのの難易度の差ってとてつもないだろ PCの問題じゃなく動画なんて作れん
覚えることは多いから取り敢えず安い環境で作って 興味失せずに継続できるなら高価なグラボでも買うといい
civitaiのhide tagが設定してるのに全く効かない autoplay gifも関係なく再生される firefoxだからかな、でもhide userはちゃんと効いてるんだよな
ああ違うや、①hide usersと②hide tagsの挙動が違うんだ 右上の目玉設定で everything・・・①は暗くなる、②はそのまま完全表示 my filter・・・①②両方とも完全非表示 ってことだった、スレ汚し済まぬ 変なのばっか上げるユーザーをhideしつつも、たまにいいの上げたりするのでチラ見できる暗くなる設定が好きなんだけど タグhide効かなくなっちゃうのか
半端なの買うよりもう1ヵ月我慢して絶対王者の4090込みで考えりゃええやん
グラボマザボメモリをアマゾンで見繕ってカートに放り込んだら30万超えた あとはCPUとケースとSSDと電源とOSとなんだっけか
学習用画像の背景の扱いが悩ましい…… 背景込みだとその背景の画風固定になつてしまうかんじがあるし、輪郭がガタガタになってでも背景除去したほうが良いのか……
グラボ火災事件多いからATX3.0の電源も買っておけ 家焼いたら洒落にならんぞ
医学系のモデルってある? 眼科とかの症例とかを集めたモデルから作れたらいいなと思ってる 普段のSDは裸体の研究とかポージングに使ってるけど・・・
モデル作成だと大変だけど追加学習でいろいろ出来るなら仕事で使えるよな?とエロ画像を作りながら思う 人体とか風景以外の機械とかでも出来るのかな
コラボでノートとiPhoneで使ってるけど。良い暇潰しだわ。T4で使えば1000円で20日ぐらい持つな。初めて使った時知らずにA100が割り当てられたか2時間ぐらいで100コンピューティングユニット使い切ってびびったけど。
>>207 実はMini-ITXのおしゃれさんケースに突っ込む予定なんだぜ…
やっぱヤバいか
Mini-ITXで組んだらグラボマザボメモリだけで30万超えるのかよ恐ろしいなw
13900と4090で組んだら何だかんだ50万だ、驚いてもしゃーない 去年の10月は60万だった
オジサン的には昔のPC平気でそんくらいしてたからあまりビックリはしない
小学生の頃だったかな Pentium100MHzで100万円とか新聞か何かに載ってて誰が買うんだ?と幼心に思った記憶がある
扱ってないやつ以外はASUS(ROG)縛りしてるから特に高くつくね… でも一点豪華主義から全方位作戦になってコスト跳ね上がるくらいならXG mobileに40万が面倒がなくていいかなとも…迷う
>>184 とにかくVRAM多いGPUが大切で最低12Gあったほうが良い
速度は3000シリーズより4000シリーズの方が速いけど予算しだいかな
ドライブもモデルの切り替えで結構時間掛かるからSSDの1~2Tあったほうが良い
CPUは誤差レベルだから最新のだったらセレロンとかじゃなきゃ問題ない
将来GPU載せ替え考えてるなら電源だけは1000Wあったほうが良いと思う
シーソニックかFSPがオススメ
外付けGPUって最後に見たのいつか忘れるくらい昔だが爆死したと思ってたら生き残ってたのか
30年前からパソコン買ってるけど最初のX68kが一番高かったな
>>221 オレも1000W電源使ってるし言ってることはもっともではあるが20万で1000Wはキツイでしょ
どうせキツキツの予算配分になるから850Wにして別のパーツに予算割いた方がいい気がする
初任給を20万もツッコめる奴なら実家住みだろうからもう1ヵ月我慢しろでFA
kohya_ss GUIでLoraデータを作成したのですが、時間がかかりすぎて困っています。 画像数150枚x繰り返し2xエポック数5の総ステップ1500で、 5時間で2%くらいしか進みません(ほぼPCフリーズ状態) 環境は、PC本体メモリ8G グラボGeforce1080 8Gなのですが、 やはりスペックが足りてないのでしょうか?
>>226 スペックは確かに厳しめだけど、念のためだけどちゃんとGPU使ってるかはタスクマネージャーなりで確認した?
流石に1080とはいえ遅すぎる気はするな kohya_ss\venv\Lib\site-packages内でtorchバージョン(torch-2.0.1+cu118.dist-info) とかxformersバージョン(xformers-0.0.20.dist-info)が何適用してるか確認した方がいいかな ただメモリ8Gは厳しいと思うけど
nvidiaのドライバーって「ゲームドライバー」と「スタジオドライバー」がありますけど、 Stable Diffusionにはどっちが最適とかってあるんでしょうか スタジオはクリエイティブ向きとか言われてますが、Stable Diffusionって該当するのかな? 新しく買ったパソコンが最初からスタジオドライバーが入っていて気になりました
>>229 ドライバーの機能としては実質一緒で、スタジオは安定版、ゲームは最新のドライバー(安定版でないものもある)
SDならゲームでいんじゃね
>>227-228 レスりがとうございます。確認してみます。
>>213 やめとけ…グラボ入らないくらいならまだいいが 熱籠もりすぎて故障とか目もあてられん
MiniITXケースはゴミ 安いゴミグラボのみ許される
ああいうのに手を出す層は小さくてカワイイとか考えて買うんだろうか
Fast Prompt Generatorニキ 検索使うとクラッシュするぞ
旧ボックス使ってて排気口の尺も吸気口もたりないからから側面のフタずらして下側を開けてるw 横おきにして吸気側に流れ込んでこないようにBOX内に段ボールで仕切り作ったわ 連続して生成してると70℃こえる
箱に収めてるだけマシ 窒息系の箱なんでどうしようか迷いつつ裸運用
内蔵だと熱気が排出されて常に新しい空気が入ってくるからそのエアフローの中にグラボを置くメリットってのは大きい
流れぶった切りですまん inPaintのマスクをしたところを部分的に消す消しゴムみたいなのある? 押したら全削除になってしまうし、unDoしか無いから任意で消せたら嬉しい
SDの拡張機能で少し色々インストールして、きちんと動いているのとTrain Toolsという機能は動いていてもどうやら何かおかしいのか、学習させてもすぐ終わりコマンド見るとランタイムエラーとか出てます。使わない機能も含め色々インストールしていますが、これってそのままインストールしたままでもSDの環境にはいいでしょうか? 生成が遅くなるとか生成できなくなるとか?
能無しを相手の勘違いに流して放棄することで自己紹介するの、はやってるのか? 笑
>>242 塗りすぎたマスクを消すツールはない!不便だよねえ
だからアンドゥで戻りすぎないよう、一気に塗らずにちょっとずつ塗るとか工夫するしかないのだ
ただマスクは厳密に塗る意味はあまりないから、ほどほどに気をつけるくらいでもいいと思う
どうしてもきっちりマスクしたいなら、マスクしたい場所を白く塗った画像を用意して、元画像とともに読み込む方法もある
>>245 まさかの仕様だったのか・・・
ctrlとかaltとかで削除ができるとは思っていたんだがマジか・・・
>>204 90年代だと、30万のパソコンはごく普通 20万以下は低スペックのゴミって感じだった
フルセットで35万円ほどのFM-Townsを買ったけどフレームレートが低すぎてろくにゲームが動かない
今は30万でゲーミングPCだから、時代は変わったもんじゃのぅ
新規インストールしたSDに既存SDからextensionフォルダをコピーすると、なにかよくないことが起きる拡張機能はありますか? 既存SDのフォルダ名はそのままで、新規SDはフォルダ名も新しくします
バグのある機能拡張があれば良くない事は起きるだろうけど、それを判断する方法は機能拡張の不具合報告を見るか、ソースコード読むしか無いとおもわれる
>>249 >248です
「この拡張機能はフルパスでフォルダを参照しているから移動しないほうがよい」みたいなのがあれば知りたいです
機能拡張でフルパスを見るなんてお行儀の悪い事をする事はない認識だが、やれば出来てしまうのでそれも機能拡張次第。 やっていれば誰かハマって不具合報告されるだろうからそれを確認するくらいか。
>>250 移動すると動かなくなる「お行儀の悪い」拡張機能があると聞いたことはないと思うが、どうだったかなあ
自分の頭の中で、SDのフォルダを動かしたりリネームしたりするとvenv的によろしくない、みたいな話とごっちゃになってるかも
sd-webui-additional-networksでLyCORISは使えない?
ID:QWMu14xD こいつ結局事後報告もお礼も何もなしだな 別に2つマルチしてたけど、やっぱマルチするやつって性根が自己中のクズだから答えたら駄目だな
175でボロクソにたたかれとるやんけw そこで終わってるからどうでもええ
本スレとかにたまに画像を貼るが、基本的に自分の生成物は閲覧数が全く伸びない 100も行かないなんてザラで40台だって普通 なのに一部の画像だけ数千とか1万超えてるものが出てきた これはどこかに甜菜されたってことかね 最近まとめた貼った数枚の絵たちも軒並み1000前後になってるがこれも転載されたからか
>>257 が質問なら誰にもわからないと思う
質問じゃなかったら雑談スレへ
【Midjourney】AI関連総合20【StableDiffusion】
http://2chb.net/r/cg/1686801610/ 学習超むずいし超面倒くさいけど、おそろしい破壊力だな
ダウンロードしたloraで満足してるから学習してないんだよなあ みんなどんな学習してるんだろうか
リファレンスって便利だけど、ちょっと処理がおそくない?あれがちょっと面倒くさい… なんかいい方法ないかな
別にスマホで計算している訳ではなくサーバーサイドやん
とツッコミつつも計算自体は速いらしい
画像生成AI「Stable Diffusion」でスマホでもわずか1枚2秒という爆速で画像生成ができる「SnapFusion」
https://gigazine.net/news/20230614-snapfusion/ グラボをGeForce RTX 3060へ買い換えようと思うのですが画像生成、学習でしか使わない場合はCPUとの相性は重要になりますかね? ちなみにCPUは i5-8400で5年前から現役です() 今のグラボはGTX 1060 6GBで生成はできます。(アップスケールすると4分で1枚程度、512*512のみで10秒かからないです) ゲームや動画編集はしないです
ポケモンで色々画像作ってるけど、たまに天津飯みたいに背中から手が出てしまう Control netでポーズ指定してるんだけど、『これが手だよ』『これ尻尾だよ』って強制指定することって可能でしょうか?
>>267 ありがとうございます!
参考になります
としあきwikiのマルゼン式を参考にしながらlora学習させてみたんだけどこれってキャラ名だけ指定でもそのキャラの服が出やすくはなっちゃうんだよね? 基本的に学習データはそのキャラの服に寄ってるわけだからある程度仕方ないのかなと思ってるんだけど それとも上手く工夫すればいい感じに調整できるもの?とりあえず今は貫通してくる服の要素をネガティブに突っ込んで誤魔化してる
img2imgでControlNet使ってるずっと調整していると 頭がバグってimg2imgのDenoising strengthとControlNetのControl Weightの数値が良くわからんくなってくるけど あれってどっちかの数値を逆転させる方法ないかねえ・・・w
>>271 Settings -> Live previews -> Show live previews of the created imageをオフ
仕事前の忙しく所すいません。 学習する為のソフトってインストールのわかりやすいとか使い勝手いいのは、Kohya’s GUI、sd-webui-train-tools、LoRA Easy Training Scriptsのどれがいいでしょうか? やりはじめまだ一ヶ月の初心者です。 グラボは3060、12GBです。 宜しくお願いします。
VRAM大事ということで調べていると24GBのRTX4090とRX7900で12万円程の差と結構大きいのですが、RADEONを使うデメリットはどういうものがあるでしょうか? nvidiaの方が早い安い強い(AIに)という比較論は別として、RADEON単体での導入が面倒とかSD必須の拡張機能が使えないとかそういうのがあるのでしょうか?
Ryzen 5 3600/B450からCPUとマザーボードの買い替えを考えています ↑を組んだ3年ほど前はCPUはAMDしか考えられない時期でしたが、ひょっとして今はintelのほうがいいんでしょうか
>>277 nVidiaのライブラリが一歩以上リードしてるから
開発者の使うハードがnVidia中心だからどうしても最新の環境はRadeonでは対応が遅かったりそもそも動かなかったり単純に使う側からして導入しづらい
今後はどうなるか分からないけど、現状は「苦労したかったらどうぞ」といか言えないかな
AI関係でぽつぽつ出て来る最新の機能を使うのには大容量のVRAMも必要だけれど、ライブラリーの不一致やPytonがはくエラーメッセージへの多少のトラブルは自力で解決する能力が必要で、 そういった知識無しでも使えそうになる頃には大容量でなくてもなんとか動くように誰かがアップデートしてくれている印象。 あと、RTX4060の16GB版がそろそろ出て来るらしいから、それが出て1~2ヶ月の間に他のグラボの価格や容量で動きがあるのではないかと予想
グラボはともかくCPUまでここで買い替えの相談すんのかよ
CPUがないと生成出来ないんだから大事な話題ではある
CPUの最高クロックで動くやつは良品を選別して限界性能出しているので、GPUを長時間ぶんまわすためなら、 限界性能より安定を選んで最上級のCPUは使わないという考えかたも。 かといって安いCPUは価格差付けるためにキャッシュメモリー減らしてわざと性能落としているディチューン版だったりするからバランス悪いので 最高性能から少し下のあたりが良さそう。 AMDだと共通部分1チップに対してプロセッサコアが1チップのと2チップの組み合わせがあるから、GPUぶんまわすの目的ならプロセッサコアは1チップで十分だろうとか
4世代CPUでも余裕で出来るんだからどれでもいいわ
>>278 です、あーなんかすいません
今買うならintel/AMD/どっちでもいいんじゃない、みたいなゆるい回答をもらえればよかったんです
Ryzen 5 3600の世代が出たときはこれはすごい、今買うならAMDしかない、という勢いを感じていましたが今はどちらでもない時期ですかね
>>286 「今買うなら」は「今新品を買うなら」ですね
>>277 ROCmがWindowsだと使えないので、DirectMLを使用する必要がある。
linuxならROCmが使えるがRX7900が正式に対応していないのでpytrochをコンパイルする必要がある。
pytroch2.0がつい最近ROCm-5.5に対応したのでもしかしたらRX7900でも動くかも。
自分はコンパイルして動かしているので、その時のメモを良ければどうぞ。
https://drive.google.com/file/d/17mSs4CvqHoiK9Lom9nK5G6X0fuL93Ygo/view?usp=sharing >>279 ,280
昔からト○タ的なものが嫌いという捻くれ者のAMD-rade推しなので、ソフトのアップデート頼りとか致命的な不具合が頻繁に無ければ固有トラブルも楽しみのうちかなと思っておりました
RTX4060-16GBが来るならまた新定番が大きく動きそうですからもう少し様子を見ても良さそうですね
ありがとうございました
>>288 おお、ありがとうございます!
こういう情報助かります!挑戦してみたいと思います
>>290 ワイはRadeon使いだが新規でグラボ
買うならRadeonはやめておけ
めちゃくちゃドでかい理由がある
Radeonはxformersに対応していない
皆はxformersは速度が微増しする認識だけど
それよりVRAM節約技術が凄まじく強い
GeForceは数値以上にVRAMを搭載していることになる
Stable DiffusionはVRAMが命だから
VRAMが少ないと使える機能や
使用解像度が少くなる
具体的に言うとワイはVEGA56の8GBやが
解像度は512x512は行けるが512x768は不可能
500x768はギリギリ行けるが頻繁に
VRAM不足でエラー出まくる
連続生成とか途中で失敗しまくりで
完走することは滅多にないすげー不便だぞ
>>286 コア全部ブン回して計算することがあるならRyzenかな
Coreは低速なEコアでカサ増ししてるから
一般用途なら良いかもだけど
画像生成に限って言えばCPUはホントどれでもいいと思うけど、まあ今後CPUを使う生成方法も出てくるだろうから並み以上のにはしといた方が無難よね
アプデかなんかのタイミングでNo module 'xformers'. Proceeding without it.が出るようになってしもた
>>292 3050ti laptop4GBで512*512生成→768*768まではイケてるから確かにxformersデカイですね…
24GBが実質10GB分でしたとか言われたら本末転倒ではあります
>>291 >>294-295 今はintel/AMDは時期が悪い、ということはなくて好きな方でよい感じですかね
感覚がわかりました、ありがとうございました
>>297 Radeon 8GBはGeForce 4GBにも劣る
のがわかって凄いショックやわ😭😭
まあxformers有効にしないと4090 24GBは3060 12GBにも劣るし
少なくともVRAM12GB以上の節約効果はあるな
ワイも金入ったら買い換えよう
>>300 結局なんとなく自分でシルエットを描くのが一番早いと思うの
AIを望む方向に誘導する描画スキルは今後も役立つことであろう
プロンプトの右上に 21/75みたいな数字があって、これって、多分トークンの切り替わりがわかりやすくするための表記だと思います。 しかし、その分子の数(21/75なら21)がどうしても、自分が入れてるトークンの数と違うのです。実際入れてるトークンの3倍くらいの数字になってるんですが、これはなぜですか?
>>302 xformers有効にしないと劣るぞ
実際に
>>293 報告あるしな
速度じゃなくて機能性としての話な
>>304 xformersを有効にするとどんなデメリットがあるんだ?
>>303 トークンが単語数とは違うから。カンマとかも数えられる。
ところで、なぜトークン数が合わないことを疑問に?
>>308 ありがとうございます。
トークン75で切り替わるごとに、また「上の方の呪文のほうが重要度が高い」が繰り返されるのなら、トークン数を気にしないといけないのかな、と考えてです。
>トークンが単語数とは違うから
単語数と違うし、カンマが含まれるとなると、いったい、トークン数とは何をカウントしてるんでしょうか?
>>303 一単語で2トークン3トークンになるワードがあるから
そこにカンマが加わることでイメージよりもトークン数が増える
エロワードはほぼ2トークンなので、エロ絵を生成しようとするとトークンが跳ね上がる
また、大半のワードは複数形にしてもトークンが増えないが、中にはsを付けただけでトークンが増えるものもある
edやlyを付けるとsより高い割合でトークンが増えるのも覚えておいた方がいい
>>309 だからトークンを数えてるんだってばw
で、トークン==単語ではないってだけの話
トークン数による強弱を気にするならBREAK使えばいいと思うよ
bad と extra をカンマで区切ってたけどアンドった方がいいのか・・
>>309 別に上(前)の方が重要なのは75トークンに限った話じゃないのでは?
いるものを入れて、いらないものは入れない。重要な物は前、でいいんじゃない?
>>309 皆通る疑問よね、俺も今でもわからん
なんとなく対象物が多い単語なら増えるのかなぐらいの認識だわ
色々調べてみたんですが、本当に分からなくて困っています。宜しくお願いいたします 4月下旬にStable diffusionを初めて導入してみて、Inpaint機能を使っていました その時はマスクした黒い部分だけ修正がかかって、ちゃんとした画像が出てきていたのですが 昨日、ControlNetの更新があると聞いたので、導入以来初めて、ControlNetの更新を行いました すると、Inpaint機能を使うと、 ① TiledVAEが(Enableにチェック入れていないのに)強制的に動くようになりました、皆さんも同じですか? もしかしたら、以前からも動いていたのかもしれないのですが ② TiledVAEのExecuting Decoder Task Queueが動作する前のプレビュー画像では、綺麗に マスクした部分だけ、希望する修正が入っているのですが 処理が完了したら、マスクをした黒い部分が、そのまま黒画像で出てくるようになってしまいました どなたか助けてください。宜しくお願いいたします
>>304 そいつのおま環じゃねえの?
どこをどうやったら3060如きに劣るんだよw
>>316 追記です。
ControlNetだけではなく、Config-Presets, Posex-ControlNet, Tiled Diffusion with Tiled VAE, cutoffなども
更新しました
>>316 Stable Diffusionのバージョンと入手元は?
>>319 多分、1.5だったと思います。
あとpythonは3.10.6、Gitは2.40.1-64bitをインストールしてAUTOMATIC1111をインストールしています
グラボはGTX2080Ti (12GB)になります
手軽にウケそうなの作るならここより ニジジャーニーとかだよ エロ作るならこれだよ
>>315 AIは学習も推論もテンソル演算だから数字しか扱えない、んで各単語は数字のIDに変換されて演算される
そのときに全ての単語に1つづつ数字のIDをつけたら必要なID数が大きくなりすぎるから、接頭や接尾の共通パーツは分けましょうってことで単語がトークン分割される
>>321 スマン、Stable Diffusion WebUIのバージョンは?
結構バグだらけで特定のバージョンだと動かないものもあるらしい。
>>327 バージョンの調べ方が分からなくて、すみません
ただ、Commit hashは22bcc7be428c94e9408f589966c2040187245d81です
>>323 サンクス
まぁまずはPC買い換えだな…
>>328 22bcc7be428c94e9408f589966c2040187245d81 は、 2023/03/29 の commit だから、ほかを更新したのに本体がめちゃ古いっていうことじゃないか?
commit 22bcc7be428c94e9408f589966c2040187245d81
Author: AUTOMATIC <
[email protected] >
Date: Wed Mar 29 08:58:29 2023 +0300
>>330 うわ、まじだ。老眼のせいか、MarとMayを見間違えてたよ
本体更新してからいろいろ試してみます
ありがとうです
>>330 解決しました
結局のところ、拡張機能は最新版だったのに、本体はえらい古いままだったという結論でした
本当にありがとうございました
書き方が悪い。 xformers有効にしていない4090 24GBは xformers有効にした3060 12GBに劣る って言いたいんじゃないの?
見た目が成人の画像が生成されてるけど、メタデータに10yoとか残ってたら捕まる?
最近ControlNetのReference機能を触ってみているのですが、 元の画像より色がどうしても薄くなってしまいます 少しでも良いのでアドバイスを頂けたら幸いです
VAEを None にする VAEを モヤッとするものから、くっきりビビッドなものに変更する
>>336 色と言えばVAEを適当に使ってみるか、ネガティブプロンプトにgrayscaleとかmonochromeを入れてみるとか
>>336 337と338で既に答えは出ているが
ポジティブプロンプトで指定する方法もある
(pastel color:1.5),か(vivid color:1.5),を入れてみ
むちゃくちゃ変わる
sagemakerについてはかたくなにスルーするよな、よほど都合が悪いようだ
>>337 基本的にvae-ft-mse-840000を利用していたので,
少しイラストに合うタイプを探してみてみようかと思います
>>338 grayscaleは入れていなかったので早速試してみますね!
丁寧に教えて下さり本当に助かりました。ありがとうございます
>>339 cinematic shadowsなどで少し改善されていたので,もしかしてとは思ってはいたのですが
やはりポジティブの方でも結構変わるのですね......
早速試してみようかと思います。ありがとうございます
kohya GUIを導入してLoha作成をしたいのですが、エラーが出てしまいました。 ↓のエラーにはどのように対応すればよいのでしょうか? TypeError: argument of type 'WindowsPath' is not iterable python初心者です。 よろしくお願いします。
python初心者っていうよりPC初心者以下で英語の理解力も中学生以下だな
まずcommandエラーが出たらchatGPTにコピペしろ テンプレ必須ぐらい
>>333 だぁかぁらぁ~~どこをどうやったら劣るなんて事になるんだよw
xformersってのは速度とVRAM削減が目的だがこいつを入れる入れないでこの2者間の力関係が逆転する訳ねえだろぉ~
PCなんて使い方によって環境は人それぞれだし当人の思い込みやら勘違いやらもよくある事だからコレ言ってた奴はどうせその類だろ
xformers1つで4090 24GBが3060 12GBに劣るなんて事態になるならもっと大騒ぎになってるだろおおおおおぉぉぉがあぁぁ
>>343 なぜそのエラーをここにコピぺして書き込む手間をかける前にそのエラーで検索しないのか
同じエラーにハマった先人の答えが大抵あるのに
それでも駄目で書き込むなら分からなくもない
>>60 ,274,340
なんか笑った
みんな知らんもんは答えようがないからスルーしてるだけだろ
質問スレ10あたりでワイワイやってるログがあるけど
もし自分だったら自分が出来てたら他人には絶対教えたくないな
人が増えたら制限かけられるかもしれないわけで
>>340 ワイ1ミリも知らんのやけど想像で答えてええなら答えたるで
つーまーりーVRAM使うちょっと変わった機能がいらないなら VRAMを節約できる生成や機能の発展を待てと
幼女生成したるでー little girl1.5倍界王拳だーー🤪🤪 ↓ どうみても貧乳お姉さん大多数 ↓ しゃーない具体的に8歳と指定したるわ🤣🤣 ↓ やっぱり胸がないだけのお姉さん出てくる😭😭 ↓ 5歳指定したらようやく幼女が安定して出てきたわ😍😍
ローラで画像を用意しなきゃいけないけど皆どんなソフト使ってる? キャプ→貼り付け→トリミング→サイズ変更→保存 この流れを簡単にできるやつとかないかな 特にトリミングは毎回合わせないといけないから大変なんだ
10yo 指定して生成された大人風の裸像は、成人なのか成人に見える小児なのか、判断がつかんので困っとるんだわ。
18禁ゲームが登場人物は18歳以上ですと注意書きを入れることを免罪符にしているとしたら、10yoと書いて生成した成人に見えるキャラはアウトなんだろうねw
little girl指定したのに胴が長くて足が太いわ 大人のような艶かしい表情するわで幼女とは言えないな 幼女とはもっと体が小さくて初々しい表情するんだわ 胴が短くて足が少し太めのぷにぷに感は嫌いではない
そもそも子供の画像を生成を自主規制してるモデルが多いな BRAはBBAしか出ない
>>354 切り抜きならStable Diffusion web ui 拡張の ABG Removerっての使ってる
i2iでdenoising を0.01くらいにしてバッチ処理でサイズ変更も一括でやったり出来る
背景色も変更できたりする
質問宜しくお願いします。 生成中ライブプレヴュー?はきっているのですが、昨夜から生成した画像がプレヴューに残ったままになりました。 きちんと生成されて保存先には出力されているのですが。 あとこれは勘違いだったかもですが、clipskip1から2にしても同じ画像が生成されました。前のプロンプトの影響が残る時あるとかサイトで見たのですが、clipskipでも起こりうるのでしょうか?
>>357 日本語でloli, 幼稚園児,と入れてみるとか?
スマホの無料アプリでも試してみたら子供にはなってたよ
>>362 loli loliconも違いはないな
幼稚園児は後で試してみるよ
まあ5歳で完全に安定しているけどね
因みにpedoと入れるも可哀想な描写になりがち
年齢下から順に (petite loli:1.4) petite loli petite toddler loli teen young mature というのを前に見た
>>358 俺も最近ブラババァに気づいたわ
あれがウケる外人が多いんだろうね
child:お好みの強度 1girlいれてるとそっちに引っ張られるのでsolo推奨
>>364 エアプやけどmilfとmatureは同じ?
milfはトークンとして使える?
civitai のLORA とかでハッシュてのが3種類くらいありますがあれは何ですか? 画像生成にどのような影響がありますか?
Stable Diffusion web UI with DirectMLってやつ使えば
このRADEONでも出来る?
>>364 infantが一番上になりそうかねぇ?
複数形でたまにシャレにならないヤバいのでるけどヤバ過ぎて多くのモデルであまり効かないようにされてるっぽい
>>368 うちの環境でやってみたら、同じシード値でほぼ同一の画像が出てきた
ということで、同じかなって思う。もしくはどちらも使えないか
>>371 VRAM 2GBのRadeonは動かない😅😅
GeForceのVRAM 12GBが最低ラインな
>>371 何このネタ画像w
13700KだからRXかと思って7900XTの手前になんかあんのかと思ったらHDやん
>>373 同音異義語みたいなトークン扱いなんだ・・・試してくれてありがとね
自分なりに調べながら遊んてるんですが、プロンプトを多めに描いたり?生成する画像のサイズを大きくしたり?すると出力される絵が真っ黒になったりするのですがこれはスペック不足が原因なのでしょうか? 512×512だと出力できても512×728は真っ黒になったりしますが、パソコンの機嫌によってはもっと大きな画像でも問題なかったりもしてよくわかりません
>>377 もしかしてエッチな画像作成しようとしてない?
>>378 エッチな画像しか作ってません
あれもしかして規制とかあるんですか?
>>379 やってみます
>>376 ごめん、嘘かいた
milf, mature, momで試してみたんだけど
(何もなし)?20代のお姉さん
mature?更にお姉さんっぽい
milf?もうちょい年上
mom?更にもうちょっと年上
って感じだった
シード値同じにしても、全く別の画像出ていたわごめんね
なので、全く違うトークン?扱いなんだと思う
>>382 検証ありがとうね
しかし気になってたけど、膨大なイメージに対してgirl,woman,mature,milfみたいなトークンって人間が関連付けさせてるの?
LoRAのトレーニングされている人からすると基礎的な知識なんだろうけど
生成目的でモデルデータ作っているだけだと、なぜ指定した通りにモノが出てくるか不思議
BRAばっかり使ってるけどたまに何の加減かまるきりロリも出てくるぞ
i2iでフォルダごとバッチ処理したいんだけど動作しない 何が間違ってるんだろう
>>384 大元のデータは人間がやったはず
AIの発展に際して企業のデータ独占を防ぐためにボランティアで巨大フリーデータ作った人たちの記事とか見たことある
あと有名なのが海外画像掲示板のタグ付けデータとか(AIが黒ではないかと騒がれる一因)
これも元はと言えばどっかの誰かが何年もかけてタグ付けしたものだ。
そのせいで曖昧で不正確な物が多数含まれる原因になっているので、
より正確なタグ付けを目指した日本製のフリーなモデルを作ってる人の記事も見たことある
loli入れなくても 1girl, (mature:-1.7), (2 years old:1.7), flat chest, だけでも閲覧要注意っぽい子は出てくるぞ
1行の文字から犯罪の匂いを感じ取ったのは初めてだよ
写真のポートレートは顔へのライティングが命だけど これはイラストでも同じだな顔が暗いと質が数段落ちる ちちぷいから使えそうなプロンプト探して来たけど アニメイラストに使えるプロンプトはどれだろう butterfly lighting light on face cinematic lighting professional lighting ネガティブ:(backlight:1.2) best lighting front lighting
素人が太陽を後ろに写真撮ると顔が真っ黒だけど カメラマンはスタッフにレフ板で太陽光反射させたり ストロボで顔と胸だけ光当てたりしてんだよね
プロンプトじゃないけど顔に光を当てるのは としあきwikiスレ配布物5/28のレフ板Loraを使ってる
>>393 そんなのあるのか・・・
AdetailerのFaceでライティングオプションとかあったら便利なのにね
>>393 試しに使ってみたらこれ神だわ顔に影が無くなり明るくなった やっぱ顔には光を当てないとね 教えてくれてサンクス! ちなみに>>390 のプロンプトはアニメイラストには使えなかった 実写系のイラストなら使えるらしいが これは背景が強く固定されるから使わない方が良いな professional lighting cinematic lighting front lighting butterfly lighting ← ネガにバタフライ入れてもキャラに羽が生える i2iでフォルダごとバッチ処理の話を振っても誰も反応しないのはなぜなんだぜ? これで2度目なんだが
>>396 皆動いてるからじゃない?動いてるものは答えようが無い
環境作り直してみたら?
>>396 そういえば自分も動かなかった記憶があるな
そういうもんかと思って深追いしなかったけど、この設定はこういうことだろうと推測したのが間違っていたのかも
質問スレでは、問題なくできてる人が「うちではできてる」と書くことも情報になるんだな
次から心がけよう
まぁこの手のものフォルダ名が漢字だったり半額スペース入ってりみたいなのがエスパー回答だけど、もうちょっといつのsd使ってるかとか、どういうフォルダ名でどんな設定してるかとか積極的に情報書かないと、単に動きませんだけでは必要な回答は得られないぞ
inpeintで修正したい時、修正した後にhiresで拡大はできないんだよね?
>>399 反応してくれてありがとう
ワンタッチ版1111で起動前に必ず更新してるので最新のはず
i2iの設定は元画像と同じプロンプトで2倍に拡大するだけで、1枚ずつやるぶんには全く問題ない
全角文字は使ってないけど、半角スペースもダメ?
今出先なんで帰ったら確認してみる
>>401 今のバージョンは割と安定してそうだけど起動前に必ず更新とか怖いこと辞めた方がいいよw
何が原因かも見分けがつきにくくなる
バッチじゃ無いけど何かの機能が動かないとかで、よくよく聞いてみたらUIを日本語で使ってたなんてのも見かけたからそういうのも使ってたら注意
あ、思い出した ディレクトリのアドレスをコピペするとなぜか¥が\に変換されてしまうんだけど、正常?
キャラLora学習時の素材について ずっと背景付きで学習させてたんですが、背景白抜きした方が良かったりしますか?
ワンタッチ版1111はフォルダ構造が微妙に違うから通常版に変えた方がいい フォーラムとかの情報参照する時に読み替えとかダルい
>>406 エアプだが背景有るなら背景の描写を細かくタグに含めて学習させる
白背景ならwhite_backgroundをタグに入れて学習させる
背景猫写いちいち細かくタグ付けするのが面倒だから切り抜いて白背景にする物だと思っている
イラマチオしてるの作りたいけど難しい マジナイとかで参考にしてるけどいい方法ないですか?
>>406 背景要らないなら抜いた方が絶対良くなるととしあきが言ってたよ
でもdim高めの学習とかだと取り残しのゴミを学習しちゃう事がそれなりにあるかなって感じ
結構綺麗に抜かないといけないのかも
でもoptimizerとかscheduler変えるとまた話が違ってくるらしいので何とも言えないんだよね
爆撃された原子炉内で踊り狂う陽キャたちを作りたいのですが 出てきそうなloraやプロンプトはありますか?
Style RoLA作りたいんだけど、学習させたい絵柄画像をキャプション→タグは全削除(+LoRAのタグをつける) であってますかね?全く絵柄を学習しないんですが何が原因やら・・・
>>414 成功してたLoRA見たらテキストいじってなかったわ・・・
civitaiでLoraをダウンロードしたんだけど全く効かず、同一Loraの古いバージョンでは機能した Loraのデータ破損以外に原因って何が考えられそうですか
>>416 よくわからん事象だけど、loraをファイル名でプロンプトにぶっこむ拡張機能使うとうまく効きそう
Lora適用したらおっぱいが大きくなって 0.7とかに下げたら小さくなるけど 肝心の特徴もうまく描かれなくなるみたいな? そんなときはどうするの?
>>418 ネガティブプロンプトに巨乳と入れるだけやぞ
LoRAの意図しない動きから製作者の性癖が見え隠れするな🙄🙄
>>416 単純にLoraのver名前間違いをそのまま使ってるとかはない?
<lora:xxxx_v10>
<lora:xxxx_v15>
みたいな
全く効かないならトリガーワードミスではなさそう
>>393 これ教えてくれてありがとう、げっちゃ使える
ネガにbacklightingとか入れても全然なかったのでうれしい
>>408 >>411
ありがとうございます
背景拘らないなら別にどちらでもという感じですかね
仕上がりの違いが気になるので今後試してみます
>>414 そもそもソースモデルの選択間違えていた
タグあり無し試して出直します
ウマ娘無修正はこちら
キャラリクエストも受付中!
://twitter.com/yoshi44riru
https://twitter.com/5chan_nel (5ch newer account)
そもそもSDって何得で無料大公開してんのってチャットGPTに聞いてくるわ
「なんの得があってオープンソースソフトウェアって無償でソース公開してるの?」って聞いてみればよいかと
ワイ:Stable Diffusionとは何ですか? ChaGPT:"Stable diffusion"という用語は、私の知識の範囲では広く使用されている用語ではありません。ただし、一般的に「拡散(diffusion)」は、物質や情報が高濃度から低濃度の領域に自然に広がる現象を指します。 もし「stable diffusion」が特定の文脈で使用されている場合は、その文脈に基づいて解釈する必要があります。
申し訳ありませんが、私の知識の範囲では、「stable diffusion」という具体的な画像生成AIについての情報は提供できません。 知識のカットオフが2021年であり、それ以降の最新のAIモデルやアルゴリズムについては把握していません。 だそうだ
すいません質問させてください。 自力でLoraを作成出来たのですが学習も生成もどのcheck pointを使っても同じ様な画風になってしまいます 有志の方が上げているcheck pointの画風で生成できるLoraの作成方法を教えてください
なんか隠してるな リターンがでかすぎるんで使うけどもw
データベースに無いことは適当に答えるだけだろ 隠すも何も
無料で利用可能にしたからこそ、こんなに豊富に拡張機能の開発・公開が行われているんでしょ。 知らんけど、有料版?にも使えるだろうし、有料モデル?も売上が上がるだろうし。 ノウハウも集中するし、Stable Diffusion向けのビデオドライバの最適化も進むし。
幼女指定してんのにお姉さんばっか出てくるの なんでや!とおもとったが cowboy shot,外した途端幼女パーティーや なんやこれ
Civitai-HelperてLycorisのサムネや情報だけ取得出来ないのは仕様? loraやTIはサムネも情報も取得されるのに取得出来ない理由とかあるのかな
Lora 作成について、キャラやポーズLora はなんとなく作成方法のイメージは湧くのですが、胸や局部などにのみ効くLora はどういう考え方で作れば良いでしょうか?
civitaiで1日前に同じ中華ゲーム?のキャラLoraを別々の垢15人ほどが一斉に上げてるのなんだろう > Kafka from Honkai: Star Rail LoRA それぞれが過去に色々作っててLora荒らしではないっぽいけど、文章の内容まで統一されてる
>>427 >>435
普通に考えたらStabilityAIは自分とこの有料サービス(DreamStudio)への誘導のためにプログラムや学習モデルをオープンソースで提供しているんだろうけど、あそこはもはや空気以下だからなー
Stable Diffusionは技術力のアピールにはなって100億円だかの投資を集めたけれど、うまくマネタイズできず大半を使ってしまったみたいな話もあるし
ADetailer入れると必ずほっぺたが膨らむんですよね 膨らませない方法ないですか?
>>386 の件なんだけど、一応動作した
ただしRisize toかつ等倍に近いサイズでのみ動作
2倍だとダメだし、等倍でもRisize byだとダメ
もうわけわからん
わかった、どうやらvram不足だ 8GBじゃ足らないか 12GBのほうでやってみる
>>446 なんかうまく動かない時は後ろにあるコンソールにエラーが出てる事は良くある
>>446 複数ファイルを同時にやる並列処理だと
xformers有効にしてないとVRAM不足になる
ファイルを1つずつやる処理だとVRAM不足にはならない
まあリサイズの時点でVRAM食う作業だな
vram12GBのほうでやったらちゃんと2倍拡大できましたわ
お騒がせして面目ない m(__)m
>>447 コンソールってコマンドプロンプト画面のこと? そこにメモリ不足と書いてあった
>>449 おつかれさま!
バッチで何枚処理できるかはVRAMの容量に左右されるのか…
>>450 あっこれ違うな、枚数じゃないな。1枚の処理に十分なVRAMが必要というわりと普通の話だったのね
>>451 いや、1枚ずつならいけたのよ
バッチだとダメ
>>451 バッチサイズがVRAM容量に関係する
バッチ分まとめてGPUでテンソル演算するから
>>453 つまり、10枚まとめてi2iでアップスケールしたい場合、t2iでバッチサイズを10にしても出力できるくらいのVRAMが必要?
>>442 たまに見る、特定のキャラやお題を絵師がよってたかって描くあれのノリでやってるんかな
最近のフェイバリットはアイドルの学習でオリジナルグラビア作ってます
>>454 まとめての意味が連続してってことなら、バッチサイズはVRAMの許容量に合わせて、バッチカウントを好きなだけ増やせばいんじゃね
最近、腕が余計に生えてる絵が生成される確率が上がってるんだけど、抑えられるプロンプトってありますか? 色々試したけど、今の所効果なし…
解像度上げたから自然に崩れて来ているんだろう この辺はプロンプトでどうにかできるとは思えないな
RuntimeError: The size of tensor a (64) must match the size of tensor b (62) at non-singleton dimension 3 とあるLoRAを使うとこのエラーが出ます aとbを合わせると良いらしいですが、どこをどうすればいいのでしょう?
>>449 に補足
2倍拡大できたのはRisize toの話
Risize byはダメだった
なんでだろ
>>461 生成画像表示領域の舌のとこに
AssertionError: Can't scale by because no image is selected
ってエラー出てる感じか?
Tiled Diffusionでやれば問題ないと思うけど
>>462 そうそうその表示
今Tiled Diffusion試してみたけどダメだったわ
それよりも、バッチ処理だとファイルネームの設定が反映されないんだけど、皆もそう?
>>464 だめ?うちじゃVRAM8GBだけど特に問題無いんだけどな
Tiled Diffusionで適当なアップスケーラー選んで2倍なり3倍なりスケール設定するだけだけど
Webuiのバージョンとか各拡張機能のバージョンとか
メモリ節約系の起動オプションとかその辺の設定詰めれてない感じかな
>>460 テンソルのサイズが合わないはさすがにバグかなんかでユーザー側では対処できないんじゃね
学習ならまだ分らんでもないけど、LoRA使うときに出るのは理由が思いつかない
>>465 xformersは使ってる
midvramとかは使ってない
でも単純に生成サイズで言えばまだまだ余裕のはずなんだよな
追加したケースファンが爆音で煩いから今日はもうシャットダウンしちゃって細かいことわからないけど
>>467 後は拡大しようと突っ込んでる元画像サイズがでかいとか?
試しに1200x1600位のファイルを5個位2倍設定突っ込んだらVRAM 30GB付近まで上がってたし
コンスタントに20GB位はいってる感じ
LoRAで絵柄を学習させているのだけど、なかなかうまくいったり行かなかったりで・・・ 絵柄LoRA作っている方はどのようにしていますか? 私が作成した例なのですが、 画像キャプション→タグ全部削除 だと絵柄は学習しますが人間が複数いたり乳がたくさんついたり 画像キャプション→タグ触らず でも同じく しかし上よりはキメラが少ない 画像キャプション→1girlと巨乳絵師だったらgigantic breastsのタグを消したが絵柄を全く学習しておらず でした そもそもキャラクター1人な状態で学習させなかったからなのか・・・?
プロファイルディレクトリのpipキャッシュ消しても大丈夫?
>>469 おれも特定衣装のLoRA作ろうとしてて、train toolsから
1人の素材画像(512×512)×30枚用意して
キャプションは衣装に感するワード削除
Train number of repetitions:15
Batch size:1
Number of epochs:20
で作成したけど、キメラしかできない
グラボはrtx306012g
Lora学習で男女2人が一緒に写ってるような体位Loraってまだ技術的に安定して出す事って出来ないですか? 抱き合ってる構図だと体が融合したり顔とか破綻してるパターン多くて稀に妥協できるのが出来上がるくらいなのですが学習方法が間違ってるのか技術的に無理なのか教えてほしいです
Loraの学習データ用にTaggerをインストールしたのですが、画像アップロード→Interrogateで プロンプト抽出が一向に終わりません。 同様の症状が発生した方はいますか?
(Under 3 yo girl:1.5),と入れてもロリの出が悪い モデルだったけど(cute illustration:1.5),って 入れた途端ロリが出まくりなんだが ロリ道奥が深すぎるだろう fuwafuwa illustrationって入れると何故かぬいぐるみ持つ
(cute illustration:1.5)はロリが少ないモデルに入れるとロリが増えて ロリが多いモデルに入れるとお姉さん多めになるな
まだまだ初心者ですいません。 画像が出るプレヴュー枠大きくできるものなのでしょうか?
>>476 そのCSSがちょうど昨日どこかのStable Diffusionスレに書き込まれていたなー
関連スレを当たってみて
あったあった、これだ
>>476 Stable Diffusion
http://2chb.net/r/software/1661568532/685 インストールフォルダに「user.css」を作って以下を入力し保存、1111を再起動します
(レス全体をコピペすると行数があふれるので以下にCSSのみ引用)
div:has(+ #tab_txt2img){
width:541px;
}
#txt2img_toprow, #txt2img_extra_networks{
width:541px;
}
#txt2img_settings{
max-width:541px;
}
#txt2img_results{
position:absolute;
top:-200px;
left:541px;
width:calc(100% - 541px);
}
#txt2img_gallery{
height:900px;
}
#txt2img_gallery > .preview > img{
height:900px !important;
object-fit: contain;
}
#txt2img_gallery > .preview > div:last-child{
top:860px;
}
>>473 バッチの方でしかやったことないけど1ファイルあたり秒で終わるよ
ターミナルに何かエラーとかは出てない?
低解像度で大量生成⇛気に入ったシードを探してhires fixを当てるという処理を手作業でしているのですが、もっと簡略化出来ないか方法を探しています。 特定のフォルダ以下にある画像を、メタデータにあるプロンプトとシードで一括hires fix かけて回すというような処理を行うことは可能でしょうか? もし似たような方法をご存じの方がいれば教えていただきたいです。
lora作成時にnovelAIを使ったという記事を見てんですけど これは作成する際のモデル指定のことを言っているんですかね
>>478 476です。
ありがとうございます。
こんな感じを考えていました。
助かりました。
現在、Stable DiffusionをHDDにインストールしているのですがモデルの切り替え等の時間短縮のためにssdの購入を検討しています その場際、SSDへStable Diffusionのフォルダを移動すれば問題無く動作するのでしょうか、一からインストールし直す必要があるのでしょうか、教えてください
Paperspaceなんだけどngrok使えないの痛すぎる 止まる度再読み込みしてるけどなんとかならんかな
>>484 ありがとうございます
安心してSSD買えます
でも1からクリーンインストールすると動作がぜんぜん違うみたいなこと言ってるひとがいるんだよな まあモデルとかいじった設定とかは残しておかないと面倒だけど
よく帽子有り無し差分とか洋服あり洋服なしバージョンあるけどどうやってつくっているの? inpaintじゃ違和感なくきれいにできない
>>486 webUI更新してなかったらだけど、今のバージョンは安定してるし
どうせなら新規でクリーンインストールしてみたら?
モデルやらLoRAなんかはちゃんとディレクトリ指定してやれば共有できるから
新旧併用して試用もできる
StableDiffusion使ったことないんだけどロリエロ絵とか生成したい場合はcolabだとマズいのかな?
extraでupscaleした画像にはプロンプト情報が含まれないんだけど、 何かプラグインとかで対応することはできる?
>>490 WEBサービス系は全部エロ禁止だったはず
エロやるならローカル環境必須
GeForceの12GBのグラボあるPC買え
GeForceの12GBがスタートラインやぞ
増設しやすい自作またはBTOお勧めやで
https://huggingface.co/gustproof/sd-models/tree/main/deresute-full こちらのLORAってcivitaiにあるもの一般のLORAと使い方は同じですか?
余計なプロンプトいれなくても全然キャラが再現できません。
同じ作者?がcivitaiにあげてるキャラ単体のものはそのまま使えるのですが。
さすがにキャラ数多すぎるんですかね?
>>493 DLして試す気にはならんけど学習途中のものも含めてV1からV4.4まで上がってるけど全部試した?
Readmeにキャラ毎のプロンプトもあるけどその辺りで確認した感じ?
>>494 V4.4で試してます。プロンプトはrelease_notesのキャラ一人分で試してます。
名前、その後の特徴の一塊です。
こういう複数キャラのLORAって<lora:~:1>だけじゃなくて、+トリガーワード(今回なら名前)だと思っているんですがなにか違うでしょうか。
今回は<lora:deresute-full-v4.4:1>,Abe Nana,brown hair, 〜です。
あとは一般的なmasterpieceとかの高画質指定だけです。
名前以下の指定は当然生きてくるのですが、キャラには似てないです。
落としたLoRAファイルが壊れてたり? コマンドプロンプトにエラー表示が出るか気づくけどさら
>>495 必ずしも重み1が最適ではないけど(0.6~0.8位の方が効きが良かったり)
作者自身のサンプルや使用モデル等で変わってくるしな
この作者が普段はcivitaiで上げてるのにこれは上げてないなら
学習途上でクオリティに難があるという可能性もあるし
他の人も書いてるけどコンソールにエラーとか出てたりはしない?
うちでは一部Loraでエラーで使えないものとかも(おま環的に)あるからね
>>495 一応確認してみたけどうちでは AssertionErrorが出てて使えないね
>>496 >>497 コマンドプロンプトが普通の生成とは違うものは吐いてました。
Traceback (most recent call last):
File "D:\StableDiffusion\sd.webui\webui\extensions-builtin\Lora\lora.py", line 215, in load_loras
lora = load_lora(name, lora_on_disk.filename)
File "D:\StableDiffusion\sd.webui\webui\extensions-builtin\Lora\lora.py", line 185, in load_lora
assert False, f'Bad Lora layer name: {key_diffusers} - must end in lora_up.weight, lora_down.weight or alpha'
AssertionError: Bad Lora layer name: lora_te_text_model_encoder_layers_0_mlp_fc1.hada_w1_a - must end in lora_up.weight, lora_down.weight or alpha
同じ作者の別のLoRAの説明でa1111-sd-webui-loconが必要なようです。
ググるとこれ壊れてるらしいけど……拡張機能で入れたけど同じメッセージでますね。
またloconか!・・・もう何度目だろう
古い有名解説サイトの情報が更新されてないのかな
あと後継のはloconのフォルダごと削除してから入れてね
https://github.com/KohakuBlueleaf/a1111-sd-webui-locon > YOU SHOULD USE a1111-sd-webui-lycoris
>
https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris > This extension is basically deprecated and will not have any official update at all.
> Please consider to use a1111-sd-webui-lycoris instead (but if there are new PRs, I will accept them)
> If you meet any problem or error when using this extension, please consider remove it
> and install lycoris extension ↑
a1111-sd-webui-lycoris を使用する必要があります
この拡張機能は基本的に非推奨であり、正式な更新はまったくありません。
代わりに a1111-sd-webui-lycoris の使用を検討してください (ただし、新しい PR がある場合は受け入れます)。
この拡張機能の使用中に問題やエラーが発生した場合は、削除して lycoris 拡張機能をインストールすることを検討してください。
>>499 追試
LyCORISフォルダにぶち込んで適用
結果
LyCORIS形式のloraでした
使えてるがキャラが似てるかは知らないので判断できないw
すみません、Loraを埋め込んだスクリプトをRegional Prompterで使用したいんですが
Hires.fixにチェックをつけるとKeyError: Yukikaze'(←使用したLora名です)とでて出力できない状態になります
これはどのLoraでもなります
一応Hires.fixをチェックをつけなければ出力はできて、それをimg2imgでリサイズできるんですが解像度的に避けたいと思っています
解決方法があれば教えていただけないでしょうか
>>500 LoRAじゃなくてLyCORISなんですね。lycorisはもともと入れてました。
そこにloconも入れてしまったので、loconを削除して、ダウンロードしたモデルをLyCORISフォルダに入れたらそれっぽい画像になりました。
ありがとうございました。
>>502 それって元絵にプロンプト情報が含まれてないからじゃないの?
少なくともt2iからsendしてアップスケールしたファイルや過去に生成したファイルをアップスケールしたものは
プロンプト情報は保持されてる様に見えるけど
>>505 あれ、ごめん
t2iしたjpgからEXTRAだと出なかったけど
今、t2iから生成したPNGならEXTRAに送ったり、D&Dで生成しても出てました
後で過去のファイル形式確認してやってみます
inputとoutputフォルダ作って、i2iバッチで回したときにchunk情報がつかなかったような記憶がある
PNGかつi2iのpromptは当然入れてる状態
>>504 よかった・・
loraが再現されないって質問にはまずlocon入れてないか返すのを定番にしよう
もう過去3回くらい見た
ロリペドお勧めのモデルってある? またはロリが出やすいプロンプトがあれば教えて欲しい ワイがロリペド専用で使っているモデルはこれ (Under 3 yo girl:1.5),入れるとロリがでやすい IrisMix-v1、IrisMix-v2、HimawariMix-v4A、HimawariMix-v4B、HimawariMix-v5、 (Under 3 yo girl:1.5),(cute illustration:1.5),入れるとロリがでやすい SakuraMix-v2.1、KaedeMix-v1B、SakuraMix-v3、 IrisMix-v2はネガティブに(chibi:1.2)と入れてる
いやどうみてもペドなのにロリと言い張る人よりは好感が持てる
モデルによるけど(Under 3 yo girl:1.5)と指定しないと 意地でも貧乳お姉さんねじ込んで来るので勘違いしないで欲しい anything-v4.5なら(Under 5 yo girl:1.5)が調度良いかな little girlは全然使えないどころか巨乳お姉さんも入ってくる
Googleコラボでwebuiって起動したんだけど
ローカル構築しようと思います。自作はcore2以来なので、浦島状態。鉄板マザー、CPUは今だと何でしょうか?
今だとA320+5700Xとかどうだろ 安価、DDR4使える、消費電力大人しめ、んで生成後後処理にも性能的な不満が出づらいように思う
今どきの自作って怖くて手が出ないわ ちょっとくらい高くてもBTOにリスクを押し付けたいってのが本音
3060tiを現在使ってるんですけど、これでローカル環境でやるのは難しいんですかね? seaartがそろそろ有料化しそうで・・・
>>516 数千円ケチってPCIe3.0でメモリ2枚しか載らないマザー選ぶとかありえん
>>522 とりあえず動かしてみれば?
性能足りないと思ったら4070,90買うか4070superか5000番台待つだけの話
>>522 うちはRyzen 7 5800X、GeForce RTX 3060Ti(8GB)で動いているよ。
メモリ64GB。LoRA学習しないならそんなにメモリはいらないと思うけど。
512x512画像を1枚5~6秒で生成してる。
LoRA学習はまだやっていない。
もっと生成速度を上げたいし、LoRA学習しまくりたくて、
Ryzen 9 7950X3D、GeForce RTX 4090(24GB)、メモリ96GBを買ったので、近々組み立てるところ。
>>524 >>525
なるほど・・・。そこそこイケるんですね
とりあえず試してみますわ。ありがとうございます
夏場は更に部屋が暑くなりそうで怖いけど
adamwで学習したLora微妙に使いづらいわ もしかしてAdamw8bitの方が優秀だったのか?
俺は8bitの方じゃ全然再現できなかったキャラがAdamWの方だと格段に良くなったわ 最近は色々オプティマイザ増えてるみたいだけど全くついていけてない
>>488 着衣と脱衣を作りたいならまず脱衣を出して、そこにインペイントで服を着せる方がうまくいきやすいとは聞いたことがある
なるほどなぁ、どうやって作ってるのかなというやつは 意外とinpaintで手間かけてるのかもしれんね
手が崩れているまま画像上げるやつは インペイントの修正ガチャを怠けている証拠な
>>479 ターミナル無反応でした
とりあえずimg2imgのinterrogateの方は動いたのでそちらでやってます…
オプティマイザーって結局最適解へたどり着く方法の選択だから学習率とか含めて運要素もあってケースバイケースじゃね? 今回はこっちがたまたまいい感じの最適解にたどり着いたけど、別のケースはまた別とか
civitaiで落としたloraが1500個超えてしまったけれど、 自動手動でカテゴライズやお気に入り登録やレート付出来る拡張とかありますか?… たとえばお気に入りだけ表示したりレート順に並べたり出来たらめちゃくちゃ便利なんですけども……
>>528 え、そうなのか。うちのは体の一部がバグったり背景が草だらけになったりするわ
もしかしてadamwが優秀だからかえって過学習になってるのかな?
Twitterで面白いものを見た
kawaii探検→呪文再検証
#AIart #AIイラスト #StableDiffusion
#kawaiiAIprompt
モデルIrisMix_v2/seed値固定
512×512 t2i
花束少女で
呪文【cute illustration】&【fuwafuwa illustration】
数値とStepの比較1以降、0.1刻み
呪文に要素増えるとブレ方がやばい!
個人的に1.4、1.5あたりが好きです。
すみません controlnet のopenposeを 普通の絵から使うと 棒人間が基本できるもんなんですよね?
>>535 全くないなそんな現象
過学習か設定がどれかおかしいんじゃね
2時間前まで何ともなかったのに突然連続でチンコにモザイクかかるようになってしまいました モデル、アップスケーラ、サンプリング、プロント変更してないのにです。 再起動しても治りません。 プロントにuncensored、ネガティブプロントにmosaic入れても効果ありません どうすれば直るでしょうか
>>534 Loraファルダの中にフォルダ作って分類すればいいだけじゃないの
>>542 ですがLora外したらモザイクかからないのでLoraに原因あったっぽいです
愛上陸スタイルだったんですがマンコにはモザイクかからないのにチンコにモザイクかかる不思議な現象
男のモザイクチンコデータも学習したのだろうか
どういうLoraだか知らんけど 元々チンコマンコにモザイクかかっててマンコだけモロ修正した画像を教育に使ったんじゃねえの
初心者です。変な質問だったら申し訳ありません seaartを使ってたのしんでいるのですが、今の所SDでなければ出来ないテクニカルな事ありますでしょうか?例を挙げてくださると助かります。よろしくお願い致します
Kohya’s GUIで版権キャラのLoraを作成したのですが、似ても似つかないイラストが出来上がります なにかコツはあるんでしょうか
髪型すら再現できないのはやっぱり何か失敗してるんですかね?
>>538 とりあえず 3次元の人を
>>541 ということは動いてないのか自分のは
二人ともありがとう
おれも顔LoRA学習挑戦してるけどクリーチャしか生まれないんだよね
自分もまだまだ勉強中だが
素材の枚数40枚と総ステップ数が2000もあれば
70点くらいのは出来るはず
オプティマイザや学習率、dimなどの設定をミスっているのでは
kohya lora gui まで導入出来ているのならこちらが便利
https://github.com/RedRayz/Kohya_lora_param_gui 2次元LoRAを3次元モデルで生成したいんだが どうやっても画質が悪くなる 設定が悪いのか それともLoRAの相性なのか、、、
絵柄LoRAで四苦八苦していた者ですが、LoRAの強度を0.7とか小さくするだけでキメラ問題解決した・・・(いつもと変わらないくらいの誤生成率にはなった) 学習自体はうまくいってたけど初歩的な間違いでした。学習させた画像が500枚くらいだったので、そりゃあ強度下げないとひっちゃかめっちゃかになるよなってところで 手順ですが、キャラクター学習と違って出力された.txtファイルのすべてのタグを削除(トリガーワードだけにする) でかなり学習されました。 要らないかもですが参考になれば。
アニメ絵はそこそこ作れるけど実写系は難しいな 妖怪みたいなのしか出来ん
おれも強度下げたら割と自然なそっくりさんモドキが出るようになったわw まあエッセンス的に使える様になれば十分だな
>>557 その絵柄Loraの詳細が分からないが、配布ページにお勧めの強度数値書いてあったりしなかった?
weight低めでも使える方が他のLoRAと組み合わせられて良いかも?
体位やポーズのLora作る場合ってキャラ学習と同じように素材20枚くらい集めてタグ消しすればいいの? キャラ学習の解説は出てくるけどそれ以外解説してるサイト見当たらなかったから教えてほしい
ゆるふわ系の女子を生成したいのだけど ヘアサロン系の学習したLoraとかないのかしら
eagle-pnginfoっていう拡張機能使えば、eagle(画像整理ソフト)にプロンプトやネガティブプロンプトと共に自動で画像を送って保存してくれるらしいけど、colabでの使い方がわかる人いますか?
Hairstyles Collection って髪型のLoRAあるやん
す、すげえことに気づいた・・・ 一気に作業時間が半分くらいになった・・・ ここに書いてもいい?・・・
>>540 エポック数を40→20にしたらわりと良くなった
どうやら過学習だった模様…
adamw8bit とは結構違いがあるんだなあ
先日1111を導入した赤ちゃんです 質問いいですか?
>>567 Hires stepsを0にしないってのでしょ?
>>568 >>572 そんなレベルじゃねえよ!!・・・
違法かもしれないんで書きづらいけど・・・
今までcivitaiで・・・
ダウンロードしたいやつのページを右クリックして新しいタブで開いてたんよ・・・
でもctrl押しながらクリックしたら・・・自動で新しいタブで開かれる・・・
やばすぎて震える・・・
公表すると捕まるかもしれないんで極秘で頼む・・・
>>569 横からだけど過学習とかあるんだ参考になった
質問しまーす StableDiffusion GPU:RTX3060、VRAM:12GB、メモリ:32BG、CPU:i5 この環境でLoRAを自作したいと思っています しかし、探してみても古い拡張機能で作成する記事ばかり出てわかりませんでした どなたか現環境で自作LoRAを作成する手順を教えていただけませんか?
現環境って言い方変でしたか? 現バージョンのStableDiffusionの為に自作LoRAを作成したいです sd-scriptsはインストール済みで親画像は1024×1024で出力したものが100枚あります ですがここから先の設定がサッパリなのでご教授いただけると嬉しいです
>>576 過学習したLoraでも0.3〜0.4ぐらいで使うと面白い画像ができる場合があるから
うかつに捨てられないんだよなー
>>580 ご教授じゃなくてご教示な
いくらでもLoRA学習のための知見が転がってる”現環境”でそれを探せないのはヤバいよ 今後のためにも自力で探す努力をしろ、煽り抜きで
わかりました もう少し自分で調べてきます ありがとうございました
お前にアンカー付けてないんだが? やっぱ馬鹿しか居ないのなw
Generateを開始して待ってる間も InterruptとSkipのボタンに替わらなくなったんだけど どこかにInterruptとSkipのボタンを出す設定項目ある?
学習画像用に背景白抜きすると輪郭ギザギザになるけど、それでも白抜きしたほうが良いのかな
AIはグラボのメモリが重要と聞いたのですが、3060ti 8GBよりも、性能が低いけどメモリの大きい3060 12GBのほうが良いという考え方で良いのでしょうか?
>>598 メモリ容量よりも、上位のグラボや世代が新しいほうが処理は早いよ
古いグラボは、メモリは少ないと動かなかったから、
メモリが一番大事という拡大解釈になっちゃったって感じがする
>>596 その通り
VRAMが少ないと出力とか学習に制限がかかるので3060の12Gが正解
おれの3060はAfterburnerでクロックダウンしているので絶対に65℃以上にならないにだ
>>598 速度は基本的に性能
VRAMが多いとやれることが増える
ただ今から買うなら3060 12GBの方がいい
8GBは制約が多すぎる
sd-scriptsのアンインストール方法を教えてください
(´・ω・`) (´・ω..:;.:… (´:;….::;.:. :::;.. …..サラサラサラ
>>573 これ何が言いたいのかわからんのやけどワイがおかしいのか
>>607 正常
573がブラウザの仕様をSDの仕様と勘違いしてるだけだろ
>>600 >>603 なるほど、やれることを増やすなら12GBを、速さは性能の高いものを選ぶべきということですね。
ありがとうございます3060ポチります!
エロ系プロンプトで質問ですが、正常位で男が身体をまっすぐにしたまま行う書き方ってありますか?
>>610 【StableDiffusion】AIエロ画像情報交換27
https://mercury.bbspink.com/test/read.cgi/erocg/1687433109/ 前スレまであった振り分けテンプレ消したのか・・こんなの書くから
http://2chb.net/r/cg/1685519479/5 > ■関連スレ(チェックが面倒だったらこの書き込みは省略してもかまいません)
LoRAを使用するとき、<lora:〜>,triggerwordと<lora:〜>のみって何が違うのでしょうか。 複数キャラとかまとめたLoraならわかるのですが、一人のキャラだけを学習したものだと結果は同じですか?
このスレなぜか専ブラで見てると安価ずれててモヤっとするから edgeで見てるけど不便で困る
>>612 俺もそれずっと思ってた
1人キャラLoRAでcivitaにはトリガーワードしか書かれていないけど、それだけだと微妙で
<lora:だけで書くとしっかり反映されるし気になってた
>>611 スマヌ、自分は>1じゃないんだけど関聯スレのことを忘れてて>85にようやく書いたんよ
関連スレ数が多すぎてスレ立てが大変というのはよくわかるんで、関連スレは1以外の有志が調べて書き込むのでもいいかなと思って
>>613 いっぺん消して再読み込みしろ
宣伝レスが削除されたのに専ブラが対応出来てないだけ
>>616 すまん無事治ったわ
AIの質問でもなかったのにありがてえ
>>616 そういうことか
なんでレスがズレてるんだと焦ったわ
ちな
>>593 は573に対してのつもりだった
幼女のみ集中力したいのにポジティブプロンプトを 増やしたりまたはプロンプトによっては幼女の出が悪くなるな プロンプトによってモデルの持ってるバラエティが制限されていくのかな ネガティブプロンプトも増やしすぎるなってのもこういうことなのかな
>>619 対象が増えるほどプロンプトの効果も分散する
AIが処理できる情報量を超えた部分は、軽度のあふれなら均されて棄てられ、突出しすぎているときは均しきれずに繰り返し破綻を産む
cfgが高いほどその限界に到達するのが早い
俺はもっぱら5.5でしかやってない・・5.5でもまだ高い気さえしている
>>620 なるほどCFG減らす方法があったのか
後で試してみるわサンクス
>>602 別ドライブで入れているのにがっつりCドライブの容量が減ってます
afterburnerスリープするだけでパワーリミットリセットされるんやな 起動時から効かせ続ける方法ないのかな
>>619 リアル系だとシチュエーションによっても変わる
白い砂浜のビーチで seductive pose させるといかにもイメージビデオに出てきそうな少女が出てくるプロンプトなのに
missonary sex on bed にするといかにもアダルトビデオ女優みたいなのが出てくる
学習に使った素材の傾向がもろに出てくる感じ
Dynamic Thresholding (CFG Scale Fix) 使ってくれとか書いてあるモデルをチラホラ見かけるようになったけど いまいち効果を実感できないんだよなぁ
>>626 コントラスト抑えて露出レンジを少し広げたい時に使うかな…
(BRA v5)
関係ないけどガス・フリングLoRA上がっててクソワロタw
>>627 BRAにしてはギリギリ若い感じも作れるのね
Dynamic Thresholdingは複数のlora入れてる状態だと高CFGで安定して生成できる…気がする ただMimic CFG Scaleの適正値がいまいち分からない、低くすると色が薄くなる傾向がある
>>622 tempにファイルがたまり続けてる。詳しくはググって。
tempフォルダには生成した画像も入っているけど、あれはなにに使われてるんだろうか 消しちゃっていいの?
たまに外でも見かけるけど、このスレ未だにご教授とご教示が存在することを知らず「ご教示だろ!」って言ってる知的弱者いるんだな
>>628 BRAは年齢下げればloraなしでロリも出るぞ
BRAは年齢下げてもどことなくおばさん顔がヌケないのよね…
>熟女になる >チンチン生える >指増える >腕生える 性癖を広げろ、とトータルリコールから学んだ
web uiでcheck pointの切り替えの際、高確率でエラーになって立ち上げ直しになるんだけど何が悪いかわかる? 問題ないPCもあるけどダメなのは毎回ダメ
Latent Couple 可視化するとエラーがでます コマンドプロンプトにはこの人と同じエラー Traceback (most recent call last): File "C:\AI\stable-diffusion-webui\venv\lib\site-packages\gradio\routes.py", line 422, in run_predict output = await app.get_blocks().process_api( File "C:\AI\stable-diffusion-webui\venv\lib\site-packages\gradio\blocks.py", line 1326, in process_api data = self.postprocess_data(fn_index, result["prediction"], state) File "C:\AI\stable-diffusion-webui\venv\lib\site-packages\gradio\blocks.py", line 1260, in postprocess_data prediction_value = block.postprocess(prediction_value) File "C:\AI\stable-diffusion-webui\venv\lib\site-packages\gradio\components.py", line 4457, in postprocess file = self.img_array_to_temp_file(img, dir=self.DEFAULT_TEMP_DIR) File "C:\AI\stable-diffusion-webui\venv\lib\site-packages\gradio\components.py", line 355, in img_array_to_temp_file return self.pil_to_temp_file(pil_image, dir, format="png") TypeError: save_pil_to_file() got an unexpected keyword argument 'format'
>>623 右上のwindowsマークのボタン使ってもダメ?
エラーの原因の殆どがPythonでコード書き換えなんて素人にゃ無理だぞ バニラに戻しても治らんならGitHubに翻訳駆使して教えてもらえ
>>633 なんかsaveとかzipにしたのが入っているぽい。
どこかのブログ参考にしてtempをram driveにしてrun.batあたりで起動時に消しているけど特に問題は生じてない。
生成した画像はHDDに落とす設定にしてる。
>>622 Cドライブ(SSD)にSD本体、Dドライブ(HDD)に生成画像の出力、という風にしようとして
Setting の Paths for Saving の一番上をDドライブのフォルダを指定しただけだと
XYZ Plot させたときのグリッド画像がCドライブのSD本体の下の outputs にどんどん溜まっていくからな
>>648 サンクス
しかしwindows10pc同士でもエラーありなしが違うんやが
微妙なパイソンのモジュールのバージョン違いでメモリリークとかバグが潜んでるのかな
すいません。初歩的な質問よろしいでしょうか。
Loraを自作するために(
https://economylife.net/train-lora-on-webui/ )を参照しながら進めていたのですが、
下記のエラーが発生します。
Error running install.py for extension C:\oldsd.webui\webui\extensions\sd-webui-train-tools.
Command: "C:\oldsd.webui\system\python\python.exe" "C:\oldsd.webui\webui\extensions\sd-webui-train-tools\install.py"
Error code: 1
stdout: <empty>
stderr: Traceback (most recent call last):
File "C:\oldsd.webui\webui\extensions\sd-webui-train-tools\install.py", line 8, in <module>
repo.git.submodule("update", "--init", "--recursive", "--force")
File "C:\oldsd.webui\system\python\lib\site-packages\git\cmd.py", line 741, in <lambda>
return lambda *args, **kwargs: self._call_process(name, *args, **kwargs)
File "C:\oldsd.webui\system\python\lib\site-packages\git\cmd.py", line 1315, in _call_process
return self.execute(call, **exec_kwargs)
File "C:\oldsd.webui\system\python\lib\site-packages\git\cmd.py", line 1109, in execute
raise GitCommandError(redacted_command, status, stderr_value, stdout_value)
git.exc.GitCommandError: Cmd('git') failed due to: exit code(1)
cmdline: git submodule update --init --recursive --force
stderr: 'git: 'submodule' is not a git command. See 'git --help'.'
コードを読めないながらもGITの設定に問題があるのかと推測しているのですが、ここからどう対応するのか見当がつきません。
環境等
Commit hash: a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
AUTOMATIC1111/Stable Diffusion WebUIはローカル スレ0002の導入方法2でインストールしています。
NVIDIA GeForce RTX 3060 12GB
どなたかご教示いただければ幸いです。 長文失礼いたしました。
>>651 git submodule status
ってコマンド打って、'submodule' is not a git command って出てきたらgitがおかしいかも
その場合、なんでsubmoduleコマンドが無いのかはわからんが(そこまでgit詳しない)
>>641 実はPCのハードウェア側に何か問題があるとか?
メモリぶっ壊れてきてるとか
環境をそのまま他のPCに持っていって普通に動くなら可能性は高い
>>521 無印2070でやってるけど一応LORA作成までできるよ
>>651 質問の回答は難しいんだけど
sd-webui-train-toolsはWebuiが1.3.0にアップデートした時もトラブってた気がするし
あんまりメンテされてる感じでもないのでおすすめはしないかな
>>Commit hash: a9fed7c364061ae6efb37f797b6b522cb3cf7aa2
流石に古くなってきてるので環境1つでやっていくにはきついし
生成環境と学習環境を分けるならこだわる必要もないかなと思う
生成用の最新環境(機能拡張も日々アップデートされていくのでなるべく新しい方がいいかな)と
学習用環境(kohya_ss GUI辺りがメンテされてる感じ)を別で作る方がトラブった時に
双方干渉しないのでいいかなと思うよ
ためしに学習やってみようとしたら A matching Triton is not available, some optimizations will not be enabled. Error caught was: No module named 'triton' こんなメッセージが何度も流れたあとに torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 512.00 MiB (GPU 0; 8.00 GiB total capacity; 4.94 GiB already allocated; 341.69 MiB free; 5.80 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF って流れて処理中止されちゃうんだけど単にメモリ不足だけの問題?
>>656 普通にVRAM不足だろうね
Tritonは使わないからモジュールが無いって言われても基本問題ない(CUDAをPytorchで使うので)
環境がわからんけどPytorchのバージョンとかXformers使ってないとか確認してみたらどうだろうか
うちも8GB環境だけどLora学習なら問題なく出来てるし
>>657 ありがとう
環境何も書いてなくてすまん
言われたこと試してみる
二次創作キャラのLora作っています(Dreambooth LoRA使用)。 画像は10枚で、画像フォルダ先頭に記述する繰り返し回数が20〜30、 epochが4〜5で、合計800〜1500Step辺りを基準にしています。 ネットにupされている出来の良いLoraに比べて顔が可愛くなくなってしまうのですが、 教師画像の数が少なすぎですかね?
>>659 そんなにキャラ系Loraは作ってないけど個人的には顔を似せたいなら
顔のアップとかバストアップで角度の違うものをそれなりに混ぜた方がいいかな
全身だけのものとか複数人入ってる絵ばっかだと情報が散りすぎると思うので
サンプラーにも依るけど繰り返し10~20でepoch10~20辺りがいいかな
画像枚数は10枚~20枚位で少ないと過学習した時に教師画像にかなり引っ張られる気がする
後は使うモデルでも結構変わるので色々試すのがいいよ
>>660 10枚程度なので一応は厳選した公式のもの使ってます
>>661 角度変えた画像追加してepochも10〜辺りに増やしてやってみます
確かにモデルでも絵柄変わってくるので、作ったLora×モデル分試行錯誤する必要ありそうですね…
回答ありがとうございます。
>>651 > どなたかご教示いただければ幸いです。 長文失礼いたしました。
君はご教授とか誤用してないし常識人だ
普段のアプリはオンボード設定で、ゲームの時だけグラボを使う設定しとるんやが SDの場合はどこのアプリをグラボ設定したらええんや? ブラウザではないようだし、よくわからんわ
>>666 pythonでいんじゃね、たぶん
ただvenvのpythonだろうからvenv入って以下のコマンド打てばexeの場所出るんじゃね、たぶん
python -c 'import sys; print(sys.executable)'
Kohya_ss GUIでLoRAを作っているんですけど、ある時から出力したLoRAファイルが2GBにもなっていて全く使えません 何が原因やら見当がつかず・・・どなたかご存じでしょうか
>>662 >>655 >>652 おかげさまでLora作成できました。
662様のURLに記載の通り進めれば起動できそうです。
ただ、他の部分に制限をかける必要があるので
655様の言う通りkohya_ss GUIに切り替えて
生成用環境と学習用環境を分けたほうがよさそうです。
652様も迅速に回答いただけたおかげで対応の方向性が掴めました。
ありがとうございました。
やっとLoRA使えるようになった 実験で出来上がったのをためしに使ってみたら トリガーワードだと上手く使える感じになってくれたんだけど LoRAの方だと0.3ぐらいでも学習した方のデータに強烈に引っ張られてるのか プロンプト入れてもほぼ無視されて笑った 勉強するか...
>>669 ですが、設定に異常があったのか設定ファイルを落としなおしたら直りました
知らない間にどっか触ってしまっていたのか
tiled diffusion+tile_resampleでデノイズ高くすると普通に奇形が生まれるんですけどNoise Inversionにチェック入れてないからですか? チェック入れるとvram足りなくて生成が途中で止まっちゃうんですよね
>>653 その可能性もあるのか
ただブルースクリーンはともかく他でメモリ関連のエラーはいたことないけどな
>>675 ここは安心のためにmemtest86 1pass回してみたら?
回ったらメモリはok
im2imで1024×1540で生成すると10秒くらいなのに 1540×2316で生成させようとすると12分になるのに対策ありますか? パラメータは大きさ以外何も変えてないのに不思議だわ〜
>>677 121あんまやらんから分からんけどVRAM使い切ってるとかじゃね?
AI系の一般論だが全てのテンソルが完全にVRAMに乗ってるときとそうでないときはかなりスピード変わる
>>674 Denoising strength が高いから
0.5以下でやってみるといいと思う
Tiled Diffusion するならTiled VAE も有効にすれば必要なVRAMは少なく出来る
>>61 ,93これか、何が書かれてたんだろう
jane styleだとレス番ずれたりはしないけど
>>677 どちらも64の倍数じゃないからグラボに負担がかかってるんでは
小さいサイズだと差は気にならない程度だけどサイズが大きくなるほどグラボの負荷が重くなる
なので縦横を64の倍数にしてみる
ちな理想を言うと64の倍数かつ正方形なのが一番生成が早い
>>674 TDのタイルサイズを大きくする
4Kくらいなら144、144
8Kを目指すなら160、160
Denoisingは1でもいけるはずだけど怖いなら0.75前後にする
拡大する元絵との相性もあるんで保証はとまではいかないけど、タイルサイズを上げれば改善するはず
ただし生成時間は長くなるかも
元絵が拡大と相性最悪だと2Kにするのにタイルサイズ160以上にしてても奇形化するんで、そういう時は諦めるしかなさそう
そういう時はExtrasで拡大するか、Inpaintで細かく修正していくしかない
もしかしたらtile+SDアップスケール(Ultimate)なら上手くいくかもしれない
初心者です。よろしくお願いします。インストール等はすでに終了しました。 このソフトって、2枚の写真を合成するみたいなことはできないんでしょうか。 手元にある実写の写真と別の写真を合成して色々と遊んでみたいんですが、無理ですかね?
人に見せなければ犯罪的な使い方でも別にいいんでは アイコラ的な合成だったらPhotoshopのほうが得意だと思う 1111は最後に合成感をなくすときに、ノイズ除去強度を下げてimg2imgをかけるといいかもね
コラで思い出したけど 身体つきだけ固定して顔・背景・衣装を自由にカスタマイズできるようなLoRAは作れるんだろうか? 体型力士固定で顔だけ美少女とか
>>681 まじで?知らんかった
負荷とか速度とか100バッチで差が出るんだろうか
>>682 通常のプロンプト欄を使わずtiled diffussion側のregional promptで領域とセットで指定すると
結構なサイズまで安定してくれる
やっぱ現状だと概念で認識してるわけじゃないのが足引っ張ってるな
cudaは11.8 cudnnは8.9forcuda11入れたんだけど グラフィックドライバー更新したらcuda12.2になっちゃったんだけど pytorchがcuda118用だからcuda11.8を維持しないとダメ? 分かりにくくてすまん
一度に処理する単位は縦8x横8で64と言われてる H64xW64ではないよ
>>689 1111の話ならcuda12に対応してるよ
ちなみにシステム全体のtorchのcudaのバージョンとvenvの中のtorchのcudaのバージョンは関係ないからそもそも問題ない
それにcudaそのものも複数バージョンインストールすることは可能、というか古いの消えないと思うからされてると思う
8の倍数にしろってのはよく聞くね 生成速度に影響があるとまでは知らなかった
>>691 そうなんや
サンクス
確かにbat立ち上げたときにtorchがインストールされてたしvenvの中の専用の設定だったんやね
>>692 デフォルトだと8の倍数にしか出来ないしね
そもそも変な数値だとエラー吐いて怒られるし
ControlNetのキャンパスサイズ指定だと64の倍数でしか出来ないようになってるし
生成サイズは64の倍数が速いが、そうでなくても正方形だと速いと言われる
>>641 仮想メモリ設定したらフリーズしなくなった
lora学習でキャラだけではなくキャラや特徴的な線や背景含めた画風を学習させたい場合、 キャプションは付けないほうが良いというツイートを見たのですが、本当でしょうか? それとも「椅子、机、窓、人間、etc…」という感じで、 その画風におけるそれぞれの情報を細かく書いたほうが良いのでしょうか?
SD、アプデかなんか入った? 昨日まで使ってたノートブックから起動させようとしたら いつものURLが出てこないし 再インストールしても同じエラー吐く
Tagger の Interrogate が少し前まで 1 秒間に 4 枚くらい処理されたのがいつの間にか秒間 1 枚くらいになりました。 タスクマネージャーを見ると全てのコアの CPU の使用率が跳ね上がるので GPU が使用されて無く CPU で処理されているようなんですが GPU に変更するような設定とかってあるんでしょうか? Extention のアップデートやインストールした影響かと思って全ての Extention 無効にしたり、初期状態の SD 入れてみたりしましたが変わりませんでした。 なお、t2i などは普通に GPU で処理されています。 環境 ローカル1111 Win10 Ryzen5 3060 RTX3070
>>676 memtest86+回したけどエラーなし
>>695 仮想メモリか
ある程度は設定されてるはずやけとな
確認してみる
venv削除で治ったかも?
>>697 colab環境だけど同じく突然エラーで起動しなくなってしまった
エラーメッセージでググッて色々やってみたけど原因分からず
>>697 ローカル環境だと1.4.0が来た
おれは1.3.2のまましばらく様子見する
質問です、現状anythingv4.5を手に入れる方法はないんでしょうか?最近始めた者の為スレチだったらすみません。
へ?と思ったらほんとだ4.5無いじゃん、なんで消されたのか、消したのか。 顔は4.5が良いからエロ用は常用してるが乳首は・・・
>>702 civitaiに再アップされていたらしいけど
そこで検索してみたら?
有名モデルだし今消えててもまた
再アップされるだろとは言われているな
>>704 アドバイスありがとうございます。方々探し回ってciviでそれなりのDL数がある派生先みたいなのとV4gelseという物を見つけたのですが、どうも本家とはかなり違うみたいで・・・VAEはHugでDL数の多いswapという物をみつけたのですが、調べても本家の派生かどうかもわからず困り果ててしまったのでこちらで質問させて頂きました。
>>705 ワイが持ってるアップできないかやってみる
駄目かもしれないし期待するな
>>706 試みていただけるだけでもありがたいですし助かります、ありがとうございます。
Anything系はエロが苦手だからあまり使えなくない?
>>708 軽量版なら
>>707 があるじゃん
フル版も欲しかったらワイに言いな
ワイはフル版しか持ってない
>>692 >>694 Latent Spaceへの変換で1/8にしたうえで
U-Netで1/2を三回やって1/8にしてから2倍を三回やってもとに戻すをくりかえすから64の倍数が相性が良いんでしょうね。
Anything v4.5は他のモデルと違って アートスタイル変更しても質が低下したりはしないな 他のモデルだとデフォルトだと綺麗だけど 水彩画とか指定すると途端になんやこれって 質の悪い画像生成しだすね フル版だから多彩なのかも知れないけど
苦手とは言われてるけど綺麗だし 得意と言われるモデルでも 汁の飛び散り方が好みでないとかとか 要らないおじさん出て来すぎとかあるから
>>0681 レスありがとうございます。なるほどやっぱり負担が原因なんですね
>>707 ありがとうございます本当助かります!今DLしてみてます。
>>709 今は初心者すぎてネトゲの自キャラをAIにかけるのが精一杯ですけど、お手数でなければエロ方面でもおすすめのモデルあればご教授ください!
>>710 重ね重ねありがとうございます。軽量版と比べてみたいので欲しいですけど、容量的にロダやうpも相当お手数だと思いますので!本当無理のない範囲で!頂けるのであればありがたいです。
breakdomainといい公開停止にいつなるか分からないから 見かけたら使わなくても一応落としとけということか
breakdomainはどこかに上がってるのだろうか いくつか種類があるみたいだけど
あわわわ、またご教授くんが来てしまう というか間違えて召喚しちゃう人の方が多いのね
AnythingのVAEは4.0と3.0が同じものだし 確かnaiとかorangemixも全部同じ
たしかCounterfeitもorangemixとかとハッシュ一緒だったよな
連打で書き込んじゃった<(_ _)> NVIDIA RTX A5000って画像生成に使える? GeForce系じゃ無きゃダメ?
>>720 DL終わりました!時間かかってしまって申し訳ないです。ありがとうございます本当助かりました! breakdomainというモデルもつい3日前ほどに非公開になったみたいですね・・・残念。ビッグウェーブに乗れなかった自分を悔いるばかりです
>>726 ちょっと今NAIが訴訟とか言い始めてNAI汚染されたモデルが消えてるんだけど
BDさん今NAIフリーのモデル作ってるみたいだから期待して待つといいよ
すぐにNAIフリー系のモデルがいっぱい出てくると思う
BDさんTwitterで生成画像アップしてるけどすごく良い感じだよ
>>725 modelによるけど強度を0.5とかにすればいいと思うけど
それよりチ○コが気持ち悪くて困る もっと謹み深くて上品なち○このローラがないものか 双頭のチ○コや継ぎチ○コ、マルチ○コなんてどこに需要があるのか あんなものは俺の嫁達にしゃぶらせたくないから、結局おパンツ中心になったな
うーんやっぱAnything4.5が一番綺麗だな 投稿サイト見ると皆mixばっか使っているけどね
初めてTiledDiffusion+tile-resample使ってみたけど、TotalProgressが50%で生成完了している。 高画質化は完了しているようだけどモヤモヤする。
顔はすげー可愛く作れたのに、おっぱいに目立つほくろが出来るのケースが多いのが悩み ふーむ・・・
NSFWをNG入れてるとおっぱい丸出しなのに乳首だけ手抜きなの稀によくあるね そこまで描くならきっちり描いてくれよ!と思わなくもないけれどAI的には肌色ボディスーツのポッチ浮きなんだろうなぁと少し悲しくなる
>>736 インペイントで修正ガチャするだけやろ
またはペイントツールの修正でも良いしGIMPとか無料やぞ
ほくろ付近の似たような色をコピペして
ガウスぼかしで誤魔化せば完了
>>736 ほくろ位ならLamaCleanerでいけん?
Photopeaでもいけそう
ControlNetのCannyやLineartでガチャるのもいいかも
>>739 inpaintに送った時ってネガも含むプロンプトはそのままで、マスクして生成するのが正解?
それとも全部消してultra detailed nippleみたいなのだけ入れてガチャるのが正解?
>>741 ポジもネガも同じプロンプトでマスクで正解
後は祈りながらひたすらガチャ引きまくる
指の修正も同じ要領で良い
>>742 そうだったのね、願うところまではしてなかったから
次から頑張る
rtx3600ti ryzen7 5700x msi520m-a pro コスパ良い自作ゲームPCとして情報をみつけたのですがAIイラスト生成にはスペック足りていますか? stable diffusionをつかって ゲームキャラのイラストを学習させて画像生成したいと考えています
学習やりたいなら3060tiはメモリが厳しい可能性 むしろ3060 12GBという選択肢も
>>744 難しい事考えなくていいから、グラボのメモリが最低12GByte、メインメモリ16Gバイト以上を探せ
それを下回ったらかなり厳しい。とにかくグラボのメモリ。それが少ないとどうやりくりしても出来ない事が増える
メインメモリはデスクトップマシンならちょっと追加費用かければ交換&拡張出来るから、そこまで致命的にならん
>>735 civitaiに載ってるような高精細な画像ってどう描いてもらうん?
ほんとだ3060tiはVRAMが小さいんですね 12GB以上のを探してみます!ありがとうございます
指の修正はinpaintとデブスライブラリの 2通りあるみたいだけとどっちがお勧め? inpaintはやったことあるけどデブスはない
12GB のグラボかーー自分にはますます遠退く、、
>>747 >>749 もう少し具体的に書かないと回答貰えないよ
高詳細とかいうのは具体的にはどの絵を指していて 自分のは今この状態で何々という方法を試した結果この絵になっているとか 4096x2048の大きさの絵にしたいとか
手なら自分の出したこの絵を直したいんだけど何々を使って直した結果がこれという感じで
いろいろみてきたけどオススメしてもらった3060の12GBがAI学習に一番コスパよさそうですね 3060より高いゲーム性能で12GB以上を求めると予算が全然ちがう..
コスパはともかく入門者が引き返せるレベルが3060 それ以降は良くも悪くも引き返せない領域
あとはもう、自分がどこまでのものを求めるかだね 自分は適当に生成して楽しんでる程度だから3060でも別に ガチなクオリティを求め出したら、4090だな…
描き込み増やしたいならメモリ大きいグラボの方が手間かからないかなぁ 描き込みをクオリティと思うかどうかは人によるけど
グラボで変わるのは掛かる時間と労力だけ クオリティが上がるという表現は間違いで所要時間に対しての付随効果に過ぎない
入門でも3060では生成に時間がかかってイライラする 予算が許すなら後悔しないように4000番台おすすめ
そのうちSDXLとかさらに上のとかが出てきたりしてスペック不足になるんでしょ? だから今一番いいのを買うべきだよね?そうだよね?
予算の許す限り良いのを買うのが正義(但しVRAMは12GB以上に限る)
>>761 3060でイライラしたこと全く無いけど
人によるとしか
そもそもAIでこんなに好きな画像出し放題なこと自体が凄すぎて不満なんて何も無い
7月に4060ti16g出るから様子見ると良いかもしれん
>>759 > いやいや、ガチャ回数とかダンチやん…
まぁ確かにガチャ回数的に有利だよね
プロンプトの効果確認とかも早いから、同じ時間で画像一枚作れって言われたら間違いなくクオリティは上がる
ガチ勢はお金貯めて4090買うといい
でもまあ何かきっかけがないと グラボ買い替えなんて滅多にしないからな 勢いで買っちゃうのもアリだと思うわ
4080ti使ってるけど、まあ速いんだろうな。 512*512のエロ絵が、2秒ほどで完成して捗ってる。
組み立てなんてやったことないから、エイリアンウエアあたりでグラボを指定して買うのはあり?
>>769 BTOは普通にあり
サポートとか保証もついてるしな
>>730 無茶苦茶出来のいいちんまんlora作ったけど、アップしちゃまずいと思ってアップできないんだわ
4070tiで640☓640の2倍ハイレゾ2枚同時で1分50秒ぐらい 4090にしとけばよかったと後悔してる
>>769 ツクモとかドスパラなら組立て代行サービスもあるよ
グラボを週末セールとか安い時に買ってあとは適当に見繕って貰えばいいんじゃないの
>>774 ツクモの店員はそこそこ信頼できるけど、それでもお勧めは一般論になっちゃうから、生成特化とかだとスペックは結局自分で決めれないとだね
スペックは自分で決めれるけど組み立てには自信がないなら組み立て代行はいんじゃない
>>765 4060tiはバス幅小さいから、生成速度も遅いと思われる
自分で組めないのならBTOしかないよ
それ以外の手段に頼ってもリスク抱えたりややこしくなるだけ
自作なんかすると100%手を怪我して出血する ケースが血で汚れる
>>777 それは10年以上前の話じゃろ、今どきのケースで出血はしないよ
しかし4000は生まれる前から評判悪いのに5000番台は2年は出ないと宣言するとか勇気あるよな
どなかた助けていただきたい・・・ RuntimeError: Expected query.size(0) == key.size(0) to be true, but got false. controlNetでreferenceをかけようとすると上のメッセージがでて画像が生成できません。 エラーメッセージでググってもヒットしないのですがどなかたわかる方どうかお助けを・・・
4070Ti使ってるけど3060にしなくて本当によかったと思う 1時間で100パターンはガチャできる
>>669 >>673 ですが、再発しました・・・
今度は値なんてどこもいじった覚えないので前回も同じようにTrainを繰り返している間にどこかがおかしくなっている可能性がある
同じ症状の方はいますかね? まだ生きてる設定ファイルをコピーして不具合が出るたびに消して生前の設定ファイルを読んでを繰り返すのはちょっと面倒だし何より原因がわからないのがモヤモヤする
生成されるまでの間にどこかでエラー出てるとかないの?
お金に余裕があればもっと上を買えばいいけど3060の12GBも4万ちょっとにまで落ちてきて手頃感は出てきた
>>787 特にエラーが出ているわけでもなくchatGPTくんにログ流しても出てきませんでしたね・・・
キャッシュファイルを書き込む文章があるからそこが怪しいかも?程度
>>791 萎えるよなあれ
グラボ性能の検証ブログとかならわかるけどさぁ
>>772 わいせつ物が出てくるようにしたLoRAの配布はわいせつ物陳列罪にあたるんやろか?
pngやjpegはデータをデコードすることで画像として表示され、公開されたその画像の内容がわいせつなら該当する
LoRAの場合単純なデコードではなく画像生成時に適用させるとわいせつな画像が出る傾向を強める
出てきた画像がわいせつでその画像を公開したら該当するが、わいせつな画像を作るためのデータの公開なら該当しない気がする
そうでないとモデルの公開も該当しちゃうもんね
SDで光学迷彩みたいなの作るにはどうすりゃいいんだろ ノイズ出てる感じじゃなくて背景の色がちゃんと浮き出てるような感じの 背景にキャラクター合成した画像からcannyとDepthのデータ作って元の背景i2iでcontrolnetしたらいいかと思ったけど背景やキャラの形崩れてうまくいかん
そういうのは画像生成より画像編集ソフトの出番じゃないか 光学迷彩を学習したモデルなんてないよ
このような肌の質感にするにはどのようにしたらいいのでしょうか?
モデルはrev animatedです
関連ツイートがいくつかきつくてブロックした・・なんなんだ
クラゲみたい被り物の部分はそれっぽいけど、それ以外は光学的には破綻しているから難しいんだろうな
civitaiに分身Loraみたいなのあった、スポーツ選手がコマ送りブラーみたいになってるやつ Loraでいけるかも
>>803 人種と灼けた肌とテカリで調整してけばいけるんでないの?
こういう質感はアジア人ぽいモデルでは少々やりづらい感もするけど
>>797 civitai.com/posts/300572
lora: add_detail
ネガプロンプト合わせる
Hires.fix
ネガティブにworst qualityとかクオリティ系いれてる? (worst quality:2.0) (worst quality:1.4) (worst quality:1.2) モデルによっては2.0も入れたらおかしくなったりするし塩梅がわからん 熟女系作りたいなら入れちゃダメって意見もあるし クオリティタグ入れずイージーネガティブだけ入れてる人もいるし わからんわからんわからん
loraで学習しようとして、このフォルダには出来ませんみたいなエラー出るんですが、原因がわからないです。。。 出力先フォルダDドライブにしても同じようなエラーが出ます。。。
WorstとかBestとかのプロンプトが通ること自体があれなんだよな 最初からBest尽くせよって思うわけで
Blue eyes white doragon, Blue eyes white doragon, Blue eyes white doragon, fusion, Mammoth Graveyard,
>>808 なんか じゃなくて、きちんとエラーメッセージを貼らないとわからないよ
PC自作してみようと思うんだけど画像生成ってかなり熱もちますか? ミニタワーケースでゲームもできるレシピみつけたけどミドルタワーケースとかにして放熱性抜群にしたほうがいいかな?
熱は持つ グラボに依るが作成中はほぼグラボのスペック通りの発熱量+CPU+その他の熱が出続けると思った方がいい ケースはファンの個数配置デカく出来るならその方がいい
>>812 ミニタワーなんて無理ですよ。クズのようなマザボ、電源しか乗らないし
>>812 あと、初心者はBTOショップで全てのパーツを選んでもらったほうがいい。グラボだけ決めておけばいい。ヒートシンク付きマザボにM2.SSD二枚乗せるのは基本。ケースファンも選んでもらって。
グラボ+12万でもそれなりに使える
ありがとうございます!いろいろこだわった方がよさそうですね
4070tiくらいまでならミニタワーでも余裕だよ エアフロー強めケースを選べばいいだけだから
>>817 4070Ti が余裕で入るミニタワーケースってどれだよ…初心者が迷うようなコメントするなよ…
337mmとかあるんだぞ…
https://www.ark-pc.co.jp/i/20106971/ 280mmもあるにはあるが今話題のギガバイトとか でもトラブル避けたいなら普通のケース買うべきだな
>>818 わざわざ最長クラスを例えに出してこられても…
サイズ気にしたくないならフルタワーにすればいいだけ
i7 13700無印に簡易水冷付けてPL1PL2どっちも65wで制限かけてるんだけど、 生成準備のタイミングで急激な負荷がかかるのか 一瞬だけ90度超えてサーマルスロットリングする… ほんとに最初の一瞬だけですぐに下がるから正常動作の範疇だとは思うんだけど 念のため80度台で反応するよう調整しといた方がいいかな? 温度管理にここまで神経使うの久々だわ
antecのstrikerとかライザーで引っ張るのはヤバいの?
>>822 ちょっとサーマルスロットリングするくらい全く問題ない、てか13700のサーマルスロットリングって90度だっけ?設定変えた?
>>823 エアフローいいケースなら空冷でも余裕だよ
12VHPWRの配線が結構スペース取るのでケースは余裕見てる方がいい
>>825 カタログ上では100度のはずがHWiNFOのログ上では91度とか94度とかで赤字でサーマルONの判定出てた
…と思いきや、よく見たらこれログの更新頻度2000msのままだった
ほんとに一瞬すぎて感知したけど数値更新する頃には冷え始めてたのね
冷やすべきは私の脳みそでしたごめんなさい
3日ほど前に動かしてみたんだけど、何だよこれ…。 ヤバすぎて言葉も出んわ。 いやいや、もっと勉強する。 数年は遊べそうだわ。
>>807 面倒くさくなってほぼイージーネガティブ2を使ってる
プロンプトも最小限指定のガチャにすると逆に新鮮味ある絵が出たりと倦怠期だわ
>>828 いろいろなモデルを落とす
↓
脱がしてみる
↓
股開かせてみる
↓
ボテ腹にしてみる
↓
LoRAを落とす
↓
脱がしてみる
↓
>>823 水冷だと壊れた時のリスクが半端ないから空冷にしてる
>>831 そのうち、Lora作りたくなった
結局4090買ったわ
>>807 クオリティタグは強めると構図の自由度や絵柄の自由度がなくなっていくね
どんなプロンプトでも1.5以上強めると良くない効果が出がち
easynegativeはそれが教育されたモデルつまりcounterfeitで最も効果が高くて、他のモデルだと効果は落ちるよ
結局は道具だからやりたいことがないままに使ってもすぐ飽きるのはしょうがない 飽きる人は確かに普通の人
これで独立してメシ食うぐらいの意気込みがあったり、 人生他にやることない暇人なら時間や資金を捧げても良いと思う 普通の社会人なら他にやることは色々あるだろうし 画像生成なんて始めは面白いけど一通りやったら飽きる
キャラローラを極めようとすると飽きる事はないな 素材作りからこだわるようになると生成はおまけ みたいなもんになるよな
学習に手を出すと画像生成しつつ素材準備で時間がいくらあっても足りない…
>>837 極めたいわけじゃないけど普通に同人誌がでてないから
ちょっと見てみたい程度
ライトユーザーだから飽きずに長く続きそう
Oculusとかもすぐ飽きるとか聞いてたけど月3回程度、3年位ずーっと使ってるわ
kohya_ssで学習が終了した後にエポックを追加して続きをやる事って出来ますか?20エポックで足りないから21~30エポックの所だけやりたいです。
>>840 LoRA typeがLyCORISじゃないなら可能
type選択の横にLoRA network weightsってのがあるからそこで元ファイル指定して
更にその右のチェックボックスonにすればいい
一応補足 1-30を一気にやった場合と1-20に追加で10やったものは学習的に同等では無いので
こんばんわ、質問なのですがTileを使ってアップスケールをかけると、タイル毎にキャラが描写されてしまいます。VAEとControlを併用したり、片方だけで運用したりしているのですが高確率で発生してしまいます。初歩的な質問だとは思うのですが何が原因なのかご教授頂けませんでしょうか。よろしくお願いします
まじで助けてほしい ControlNet V1.1をローカルでM2macにインストールしたんだけど、うまく動かない ・Web-ui上に「ControlNet v1.1.227」ってタブは表示されてる ・enableは押してる ・modelは「stable-diffusion-webui/extensions/sd-webui-controlnet/models」に格納済み ・再起動は何度も試した 画像生成してもエラーは吐かないんだけど、生成された画像はControlNetの影響がゼロな画像 「Settings」タブの「Control Net」のモデルのファイルパスとか自分で変更したりしないよな?
>>836 アニメ絵に興味ない人はすぐに飽きる。アイドル好き、コスプレ好きは少しは長続きする
アニメ好きはなかなか飽きない
エロゲ好きにとっては神。それどころか自分で生成したキャラに名前をつけ、設定を作り込み、自分でエロゲ作り始める
>>845 エロゲ業界の救世主になるかもしれんなw
新たなクリエイターが出てくるかもしれん
>>839 あらかじめソレ用にセーブしとかないとダメだったと思うけど(セーブする項目はあるよ)
この機能使うより過学習気味にステップ回してエポック遡る方が良さげ
>>844 SD webuiのバージョンは古くない?
PCはネット接続されていてスタンドアロンになってませんか?
CNでどの機能を使おうとしていますか?それに対応するモデルをダウンロードしていますか?
モデルは指定のHugging FaceからDLしましたか?
その位かな
>>841-842 ありがとうございます。LoRAにしたら設定が出ました。
>>848 返信ありがとう!!
git pullでアプグレ済み
ネット有線接続◯
CNでcanny使おうとしてて、「control_v11p_sd15_canny.pth、control_v11p_sd15_canny.yaml」両方格納済み
ダウンロードは
https://huggingface.co/lllyasviel/ControlNet-v1-1/tree/main ここから
なんでだーーーー
>>850 バージョンは1.4.0でokって事?
settingは基本いじらなくていいし特に問題なさそうだけど
環境がおかしくなってる可能性は無くもないけどコンソールに何もエラー吐いてないんだよね?
一回別フォルダに環境作り直すかvenv消して再構築してみるか
あんまりピンポイントにこれだってとこがないんよね
>>845 キャラクリ大好きマンだから最高だわ
勝手にキャラ作って設定付けしてる
俺の場合 pthは stable-diffusion-webui\models\ControlNet の中
2023-06-29 23:07:29,945 - ControlNet - INFO - Loading model: control_v11f1e_sd15_tile_fp16 [3b860298] 2023-06-29 23:07:29,965 - ControlNet - INFO - Loaded state_dict from [S:\StableDiffusion\webui\models\ControlNet\control_v11f1e_sd15_tile_fp16.safetensors] 2023-06-29 23:07:29,966 - ControlNet - INFO - Loading config: S:\StableDiffusion\webui\models\ControlNet\control_v11f1e_sd15_tile_fp16.yaml コンソールにこういうの出てる? WINDOWSなんでMACはどうだか知らないけど
>>851 ググってみたけどバージョン数の確認がMac版だとどうやるのかが分からなかった・・・
あとターミナルにしっかりError出てました・・・
*** Error running process: /Users/---/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/controlnet.py
Traceback (most recent call last):
File "/Users/---/stable-diffusion-webui/modules/scripts.py", line 474, in process
script.process(p, *script_args)
File "/Users/---/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/controlnet.py", line 736, in process
model_net = Script.load_control_model(p, unet, unit.model, unit.low_vram)
File "/Users/---/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/controlnet.py", line 299, in load_control_model
model_net = Script.build_control_model(p, unet, model, lowvram)
File "/Users/---/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/controlnet.py", line 327, in build_control_model
state_dict = load_state_dict(model_path)
File "/Users/---/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/utils.py", line 19, in load_state_dict
state_dict = get_state_dict(
File "/Users/\\\/stable-diffusion-webui/extensions/sd-webui-controlnet/scripts/utils.py", line 28, in get_state_dict
return d.get("state_dict", d)
AttributeError: 'NoneType' object has no attribute 'get'
なにかのファイルパスがおかしいのかな
GPT-4に聞いてみたけどよく分からなかった・・・
>>843 denoising strength が高すぎるのでは?
0.5以下を試してだめならどう言う設定で生成しているのか拡張情報付の画像置いてくれ
>>856 export COMMANDLINE_ARGS="--skip-torch-cuda-test --no-half"
では?
https://zenn.dev/michy/articles/5e5f7023e6b76d >>856 MACでもあんまり関係ないと思うが
SD webui起動時にコンソールの3行目位にバージョン書いてあるはずだけど
それかCommit hashか
もしバージョン表記が出てないなら古すぎるのでアップデートしてください
>>858 あ、パッと見ただけでわかるこれだ・・・
本当にありがとうございます
今から試してみます
>>859 今確認したら
Version: v1.4.0でした!!
>>852 俺が考えたヒロインは日英クォーターで黒髪セミロング、タイムリープものなので年齢は13歳から22歳が順不同で登場する
このストリートを考えるだけで時間はいくらあっても足らない
俺のは C:\xxxx\stable-diffusion-webui\extensions\sd-webui-controlnet\modelsは *.yaml C:\xxx\stable-diffusion-webui\models\ControlNetは *.pth が入っている。 なぜそうしたのか覚えていないが動いている。
あー無事動きました!!!!! お騒がせしました!! 聞ける人も見当たらず久しぶりに2chに書き込んだけどこんなにたくさんの人に教えてもらえるとは思わなかったです。 助かりました!!
ちなみに
taggerもエラー出るんですけど同じような環境で使われてる方いますか・・・
Install from URLから
https://github.com/toriato/stable-diffusion-webui-wd14-tagger.git でインストールして
taggerタブは出てるんですけど画像読み込みとエラーになっちゃいます
** Error completing request
Loading wd14-vit-v2-git model file from SmilingWolf/wd-v1-4-vit-tagger-v2
どっかからモデル落とさなきゃですか?
>>865 >>858 さんの教えてくれたまんまで、
Mac環境ではhalfモデルに非対応のため、このコマンドで利用を抑止する設定を行います。
export COMMANDLINE_ARGS="--skip-torch-cuda-test --no-half"
起動オプションに"--skip-torch-cuda-test --no-half"追加したらいけました
Mac環境だと何か新しい事するたびにMac用の設定を紹介しているページ参照したほうがいい 無ければ先人がいない可能性があるのでエラーメッセージから検索するしか無い
>>869 ありがとうございます。。。
いけました!!!
tagger/interrogator.pyの「onnxruntime-gpu」を「onnxruntime」に変更
AI生成兼ねてグラボ購入考えてるですけど 3060ti12GBと来月発売される4060ti16GB やっぱり16GBの4060tiは生成速くなるでしょうか?
自分も省エネ性能と新しいコア、memだく、25年まで新型は出ないという情報で今絶賛3060と迷い中だ 多分5万差くらいになるだろうけどここで迷うならボーナスで4090行ってしまおうかとか…
4070tiで後悔してる俺 4090の爆速動画見ると失敗したなぁと よっぽど金に困ってないなら3000番より4000番の方がいいと思うよ 時間は金に変えられない
>>872 一応言っておくと12GBモデルがあるのは3060で3060Tiではないので注意
速度的には3060 12GBよりは4060Ti 8GBモデルの方が若干高速っぽい
一応RTX 40シリーズで低消費電力だったりフルHDでゲームもやるとかいう感じならありかなって感じ
VRAMが16GBになってメリットはより大きいサイズの生成が出来るとか学習等も考えると有利なとこ
デメリットは単純に値段が倍になるのでコストパフォーマンスは最悪ってとこかな
AIで金稼ごうっていうのでも無ければコスパ悪すぎ 趣味でやるだけならAI技術自体がまだそんな価値あるものだとは思えない
>>875 とはいえ、4090だけでグラボ以外のPCパーツが丸々2セット揃う規模のお値段だと思うと
やっぱ躊躇する買い物ではある…
特にこれみたいに使い潰しかねない用途では尚更
>>878 元々ゲーマーでもない限り電源や筐体もセットで買わないといけなくなったりで、結局グラボ本体の買い足しだけでは済まなくなることも多そうだ。
>>872 3060 12GBよりは確実に速くなるけど予価が4070とほとんど変わらないので
現状では4060tiを買える予算があるなら4070を買う方がいい
サンプラーかけない方が画質良い気がするんやけど… 何でや????
3080でメモリ不足に耐えられる結局グラボだけ買い替えた 速度は1.5倍くらいにしかなってない気がする 大きな画像が生成できるので素晴らしいことなんだけど、速度にはちょっと期待しすぎたかも
>>874 普通に書き出すだけなら1.5倍速い
ただ4060tiは値段が微妙なんだよなぁ
妙にTシャツの裾をタックインするんだけど、これを阻止するプロンプト無いですかね? 色々試したけど分らなかった
>>884 shirt hemがシャツを出すプロンプトだよー
スカートのhem(ふち)といえば、アリアナ・グランデが絶対領域を語ったときのワード
今日3060(12GB)から4070tiに買い替えて生成してみたが快適さが段違いだな 生成速度もそうだか、アップスケーラーかますとたまにエラー吐いてたのがなくなったのも良い
裏山C
でも質問以外は総合で
【Midjourney】AI関連総合20【StableDiffusion】
http://2chb.net/r/cg/1686801610/ AUTOMATIC1111でLora作ってるけど、設定ってどうするのが多いんだろ? 1111以外の方法でする方法はあるけど、ノイズとかステップ数とか設定する場所がない 実質エポック数のみの設定だと思うけど幾らに設定するのが良いんだろ?
>>889 質問しか書くなとか言論統制をお前がする権利あるん?
タグ打ちきっついなぁ 例えばロングヘアーな人にlong hairって付けない方が良いのかな 同一人物で髪型にバリエーションがあるなら良いのかもしれないけど
最新版のautomatic1111にしたら、i2iの画面に出てくるイメージがめちゃくちゃ大きくなるんですが、 これを小さくする方法ってないですか?
>>897 最新版って具体的にはバージョンいくつ?
i2iの画面に出てくるイメージがめちゃくちゃ大きくってどんな画面?
自作Lora使うと3枚に1枚くらい真っ黒の画像が出力される これって防止できない? ちなみに、VRAMは多分足りてる 仮に足りないとしてもドライバをアップしたのでPCのメモリが使われてると思う
>>899 原因が複数ありすぎて何とも言えんけど、一番多いのはVAEとfp16の組み合わせ
他の回避方法も含めてググって紹介アフィページ見たほうがいいよう
4060Tiと3060Tiのベンチを比較したブログ見つけたぞ さっき貼り付けたけどブログだから書き込みが吸い込まれた RTX 4060 TiとRTX 3070どっちがいい?【実際にベンチマーク性能比較】 で検索してみろ 結論としては低負荷では4060Tiの勝ち Hirex Fixを使った高負荷では3060Tiの勝利で草 Hirex Fixを多様しない人は4060Tiでいいかもな
imgurなら貼れるな詳細は以下のワードで検索
RTX 4060 TiとRTX 3070どっちがいい?【実際にベンチマーク性能比較】
8GBで落ちて、12GBで落ちない事例ってどういう時? 逆に言えば、3060 12GBから上位の8GB買ったらこういう条件の時に落ちるようになってしまったみたいな。 ピクセル数やhires、TiledDiffusionとかで実例あったら教えて欲しい
>>900 組み合わせでそんな現象起こるんだ
勉強になった
xformersは開発に携わったNVIDIAが用意した 内部生成ノイズ(不要なアルゴリズム)をVRAMから排除するパッチ 高速化の恩恵と無駄要素を省く一石二鳥
>>907 これのVRAM節約恩恵が大きすぎる
AMDはこれが無いからいくらVRAM積んでも
革ジャンには勝てないんだよね
>>906 自分はorangemix.vaeでよく起こってた、latentとかにしたら治るけど
”俺環(モデル選択等含め)で”他のvaeにしてから100%発生しないのでほぼ確定
精神衛生上悪いのでもう使ってない
>>902 > さっき貼り付けたけどブログだから書き込みが吸い込まれた
あれ腹立つよな、URL複数でなる、エラー出てくれたらいいのに
長文打ってたときの徒労感
ギターとか持たせるとほぼ手がおかしくなるなぁ SDXL1.0はやく使ってみたいけど、3060tiなどでは通用しないのかな
>>910 たしかメインメモリ16GB、VRAM 8GBだから大丈夫
大丈夫だと思いたい3060持ちであった
>>888 自分は3060のアップスケールでエラーとか無いのでやり方の問題かと
>>909 2chブラウザを使っているなら、書き込みログが残ってるんじゃないか?
>>903 『Tiled Diffusion & VAE』+『ControlNet』で確認してたら完璧だったな
でも負荷は軽いから4060の方が速そうではある
Hirex Fixは絵が劣化することも多いから実用性はないな
工房で3060無印が4万切ってるのか VRAMから溢れたのがメインメモリに移動する現象って どのドライバのバージョンからだろ? ドライババージョンが NVIDIA-SMI 535.98 Driver Version: 535.98 CUDA Version: 12.2 なんだけど これ現象が出るドライバ?
>>908 xformersあってもpytorchと併用できないんじゃなあ…
>>916 CPUメモリ使われると一気に遅くなるしどうにかならんのかね
まだ以前のようにout of memoryになってた方がマシだったわ
>>918 そこまでCPUメモリ使われるのヤダってのがいまいちわからんのだが
リアルタイムにVRAMの使用量確認して、溢れない程度のバッチサイズ一度決めればいいだけじゃね?
むしろ、一瞬VRAMたくさん使うとこでOut Of Memory出なくなるのはメリットでもあると思うんだが
>>905 だけど、誰かアドバイスしてもらえたら助かります
inpaint機能を使って服の一部を肌に置換すると、周りの肌の色と違ったのができます。 できるだけ周りの色と同じにするにはどこの設定を変えれば良いでしょうか?
>>916 機能名が分からず検索できなかった…何かヒントがあれば調べられるとおもうのたが…
>>920 VRAM 12GB のグラボを持っていて 8GBのものに買い替えた人が居ないと思われる
8GB を薦める人は見たことがないのでおとなしく 12GB にするのがいいと思う
hires fixにチェックしたらプロンプト入力するとこが増えたんだけど、前はなかったよね? 自分がなんか設定変えちゃった訳では無いとは思うんだけど、これ 何とか無くせないかなぁ 邪魔だし これ増えてからバッチ処理する時に調子悪い
>>889 質問以外禁止なら回答も書けないんだが、馬鹿なのか?
>>923 たしかに12GB持っていたら、VRAM減らした8GBのグラボ買う人なんてまずいないか
「インターネットしていない人はお問い合わせフォームから連絡ください」って言ってるのと似たようなものか
学習でLoRAファイルを自作するようになったんだけど、 出来上がるファイルの容量が毎回300MB近くなるんだけど、 これってPCのスペックに依存するん? 学習素材の枚数やエポック数を変えても、毎回作成されるLoRAファイルの容量が固定なんだが
>>927 LoRAでできたファイルに入ってるのはLoRAモデルの重みのデータだからPCのスペックにも素材枚数にもエポック数にも依存しない
>>928 早速ありがとう
そうしたら、意図的に容量をコントロールするのは難しいか
毎回、300MB近くのLoRAモデルが出来上がるから、
チリ積もで容量が結構厳しくなってきたので何とかしたかったが、
モデルファイルの整理をするか。
>>network_dim これ関係あるのか。128固定でやってたから、数字減らして試してみるわ ありがとう
>>924 それは元の画像をhiresするときにサンプラーやプロンプトを変えたいときの入力欄だね
設定のuser interfaceの一番下にある2つのチェックボックスをオフにすればいいよ
Hires fix: show hires sampler selection
Hires fix: show hires prompt and negative prompt
というやつ
すでにxFormers0.0.21まで出てるけど? うちの環境はtorch: 2.0.1+cu118 ??? xformers: 0.0.20
XTとかXTXが15万付近に居るんだよな…(゚A゚;)ゴクリ
有名イラストレーターの画集とか買ってたけど SDになれたせいで他のイラストが しょぼく見えて冷めてしまった これは一体どのイラストから学習させたんだ? そんじょそこらのイラストから学習しても こんなクオリティにはならんだろ
flat LoRAマイナスかけるだけど、書き込み量化けるからなぁ
ゲフォだと少なくとも–opt-sdp-attentionは解像度上限低い(≒xformerなし)って話だが、 Rocmだとその辺どうなんの?
>>921 inpaint sketchで肌の色で塗る
複数キャラを1つのLoRAに学習させる時にそれぞれの制服の形状が違うのにみんなにschool uniformとタグを付けるとマズい? 誰それのschool uniformとして学習するのではなく、形状がバラついているschool uniformを学習する形になる?
VIDEO 絵の方面にもAIにもほぼ知識無くて
こういうイラストを生成したいんやけど何を使えばいい?権利的にyoutubeに音付きでアップしても問題ないやつがいい
そしてwikiとかあれば教えてほしい
グラボは1060やけど厳しいかな、生成するだけでいいんやけど
みなさん力を貸してください
>>940 顔の固定化はできるけど
服装の固定化は未だにできないな
毎回制服が違うとどこの学生やねんとなるな
>>941 どこのサービスでもいいから適当な奴で
人を生成した後に
お絵かきソフトで上から
色とかぼかしかければいい
uniformA uniformB … と学習させる方が良いのかどうか…… そうするとキャラ間で着せ替えできるかも?
>>941 >>1 から順番によく読んで実践してみて
それでもわからないことがあったらまた聞いてくれ
返信してくれた人ありがとう 虹ジャーニーってやつの30ドルプランにしてみるわ 売るとかじゃなければ権利的に問題なさそうだよね?(趣味の範疇なら) なんか色々しないとだめなイメージが合って質問してみたけど、結構すぐできそう
髪色とか目の色とかカラーコードで指定出来るの知らんかったわ
AIなんだからそろそろ使用者の意図を読み取って欲しいわ 俺「いつもので」 🤖「3歳女児に黒人男性数人のチンコで、頭撫でて寝かしつけるやつですね。かしこまりました」
>>938 rt7900xtだけど、900×900だとok 1000×1000だとoutでした。
マージしてもマージしてもブスor同じ顔にしかならんのなんでやで 目の大きさ変えられんのなんでやで
Tiled DiffusionとかControlNetとかでアップスケーリングする時 一回1枚とかではなくフォルダまるごととかできないかな?
>>933 ずっとこの設定にしてたけど今日1111を1.4に上げるついでにxformersに戻したら数秒早くなった
早くプロンプト職人も不要になるくらいの優秀な AI作画ソフトが出来るといいなぁ 直接声入力でも作画出来るとか
arms behind back や hand in pocketsのように、手を描画しなくなる系のプロンプトって他にありますでしょうか?
誰か教えて下さい。 RuntimeError: CUDA error: no kernel image is available for execution on the device CUDA kernel errors might be asynchronously reported at some other API call, so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. Compile with `TORCH_USE_CUDA_DSA` to enable device-side assertions. 上記のエラーが出て画像が生成出来ません。素人なのでここまでまる二日かかりました。 せめて画像を作りたい・・・
そのままだと規制に引っかかって投稿できないから画像にしてみたけど
カタカナで書かれると別物に見えてくる
>>956 そのエラーメッセージで検索して出てくる対策をやった上で動かないの?
>>956 windowsの仮想メモリは有効にしてる?
高速化設定でページングファイル設定してると
起動できなくなるね
>>941 1060でゆる〜く遊んでる勢だけど
生成一枚には45秒、アプスケには75秒くらいでそれなりに楽しんでるよ
>>932 そもそもチェックボックスをオンにした覚えないし、外れてたんだけど 何故か勝手に出てきたっぽい?再起動したら勝手に消えました。
でもそんなチェックがあるのは知らなかったしひとつ賢くなった ありがとう。
>>956 グラボの型番とCUDAのバージョンは何?
pip install torch のところはどう書いている?
>>956 現状では多少のプログラミング技術というか常識が必要なので、手を出さないほうがいいかもね。たぶん一年以内にもっと簡単になると思うよ
現状ではネットの説明どおりに設定しても上手く行かない場合が多々あるから
自分の場合はネットの説明だけで出来てしまった ちなみに、文章のAIは挫折したレベル
次
【StableDiffusion】画像生成AI質問スレ14
http://2chb.net/r/cg/1688234958/ テンプレ長すぎて誰もよまねーだろ問題
日進月歩な内容を5chのテンプレにするのは不向きだと思う
wikiの方が向いてそう
>962様 回答ありがとうございます。 >グラボの型番 NVIDIA GeForce GTX 670 >CUDAのバージョン nvcc: NVIDIA (R) Cuda compiler driver Copyright (c) 2005-2023 NVIDIA Corporation Built on Tue_Jun_13_19:42:34_Pacific_Daylight_Time_2023 Cuda compilation tools, release 12.2, V12.2.91 Build cuda_12.2.r12.2/compiler.32965470_0 >pip install torch のところはどう書いている? 申し訳ない。知識がないので確認できません。 >959様 有効にしましたがエラーメッセージは変わりませんでした。
>>965 乙
文章は自分で書くのが好きだからAIは使わない派だな
こう考えるとAIイラストアンチの気持ちがすげええわかるw
670は有ってないようなもんだしな Pytorch+CPUで無理矢理動かせなくもないだろうけど1枚30分とかかかりそうだな
CUDAが正しく入っているのかどうかわからなくてチェックしたら↓のように出てきたんだけど これだとどこか設定おかしい? Package Version ------------------ ------------ torch 2.0.1 torchaudio 2.0.2+cu118 torchvision 0.15.2+cu118 typing_extensions 4.6.3 typing-inspect 0.9.0 urllib3 2.0.3
>>974 pip listで見てるんだったら現行バージョンだと
torch 2.0.1+cu118でインストールされる筈だけどな
その環境は起動してるの?起動してるなら最下段に
version: v1.4.0 ??? python: 3.10.6 ??? torch: 2.0.1+cu118 ??? xformers: 0.0.20 ??? gradio: 3.32.0 ??? checkpoint: f183384556
同じくtorchとCUDAのバージョン出てる筈だけど ?
>>972 これはどういう環境で pip list 打った結果?
WebUIの環境を確認したいなら、WebUIのvenvに入ってから(venv\Scripts\activate.batしてから) pip list 打たないとWebUIの環境確認にならない
973 の言う通り、 torch 2.0.1+cu118 でないとおかしい
>>975 xformarsを起動させようとすると
Launching Web UI with arguments: --xformers
WARNING[XFORMERS]: xFormers can't load C++/CUDA extensions. xFormers was built for:
PyTorch 2.0.0+cu118 with CUDA 1108 (you have 1.13.1+cu117)
Python 3.10.10 (you have 3.10.6)
Please reinstall xformers (see
https://github.com/facebookresearch/xformers#installing-xformers )
Memory-efficient attention, SwiGLU, sparse and more won't be available.
Set XFORMERS_MORE_DETAILS=1 for more details
これと一緒にこんなエラーが出てきてる
起動自体はするけどこの状態だとイラスト生成は一切できない
>>968 文章AIが欲しかったのは
今ネットのAIサービスで
この単語の中から男性を見つけ出して除外してリストを作成
その後、全てのキャラ名を英語に変換して欲しいとか、こういった使い方をしてる
他にもエチいシチュのブレストとかSDもそうだけどこういったのは基本ローカルでしかできないからなぁー
>>977 メッセージの通り pyTorch のバージョンが合っていない
2.0.0+cu118 が必要なのに 1.13.1+cu117 しかない
>>979 やっぱり正常にインストールされてないんだなこれ
しっかり調べてやってみるわ
ありがとう
>>977 この環境はいつ作ったの?
最近でGeForce環境ならこんな古くないと思うんだが
書かれてる通りPyTorchを入れなおせばokなんだけど
よくわからんならWebuiのバージョンが古い(1.2.1以下)ならアップデートした方がいいかな
バージョンは古くないならvenv削除して再構成すれば2系が入る筈だけど
>>981 AIイラスト自体は先月から触り始めたんだけど
あちこちのサイト眺めながらやってた時にこのバージョンなら環境が安定してますよって記事見て入れた記憶がある
>>982 先月か俺と同じような感じだな
あっちこっち色々見たけど古いのからそこそこ新しいのまで導入方法やインストールするものまで
結構色々書いてあったからわかりにくい感じだったわな
バージョンアップした記憶がないなら1.2.1辺り使ってる感じか
GPUはGeForceなんだよね?AMDだとまた手順が全然違うから
>>983 GPUは2070superだから問題ないと思う
とりあえずPyTorch 2.0.0+cu118入れなおしたらxformarsも認識して起動したし
イラストも今までより早く生成できたので一応大丈夫になったっぽい
お騒がせしました
>>978 名前で性別判断なら画像検索が使えるな
完璧とは言えないがな
1070から4070ti搭載パソコンへパワーアップしたので生かして行きたいんですが、 webui-user.bat内の指定は、「--xformers」より、 「--opt-sdp-no-mem-attention --opt-channelslast」を記載した方が良いんですかね
新発売のRTX4060を誰も語らない VRAM8GBじゃ足りないってか GTX系から乗り換えるには魅力的なグラボだぞ
>>918 試しにCPUメモリ使わせるくらいのバッチサイズにしたら一枚10分以上もかかるようになってて笑ったわ
Out Of Memory出なくなるせいでVRAM容量ギリギリの見極めも停止の待ち時間分手間になってる
完全にゴミアプデだな
>>982 フォルダごと消してgitから入れたら?
zip解凍して使うのは勧められないよ
sd webui で、「Hires.f」xと「Seed」のボタンを1回で押せる拡張機能って無いでしょうか? 毎回ポチポチっと2回押してると、どっちか片方忘れたりミスが多くて
サイズ2:3の512×768だとあまり問題ないのに、インスタ用に4:5の560×700で8枚生成するとメモリ不足のエラーになる 4枚程度なら出来るけど遅い 何故なのー?ちなみに3060ti
>>986 色々言われているが環境によって違うようだから手間を惜しまず自分で組み合わせを試してみるしかない
うちでは、"--opt-sdp-attention --opt-channelslast --xformers"が一番速かった
>>992 両方組み合わせるっていう手もあるのね
試行錯誤してみる、ありがとう!
>>987 そもそも人気ないしこのスレ的には4060ti16GB狙いになるだろうし
Stable Diffusion XLとみんなが使ってるやつは別物なの?
>>949 レス気づいてなかったわ概ねゲフォと同義ってとこかね
このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 17日 15時間 53分 39秒
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/ ▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250112104120ncaこのスレへの固定リンク: http://5chb.net/r/cg/1686751262/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】画像生成AI質問スレ13 YouTube動画>2本 ->画像>15枚 」 を見た人も見ています:・画像で質問! これなんてエロゲ? Part81 ・AI画像生成雑談総合 ★1 ヲチ・グチなど ・【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★] ・【画像】 安倍首相、頭を下げて謝罪 民主・辻元議員への「早く質問しろよ」ヤジ問題で ・+ JavaScript の質問用スレッド vol.134 + ・【画像】ネットにオマンコ画像が流出した元JDだけど何か質問ありますか? [無断転載禁止] ・【FF14】FINAL FANTASY XIV 質問スレ134 ・中高生の英語の宿題・質問に答えるスレlesson1 ・【ソロ専用】アナザーエデン 時空を超える猫 質問スレ 39匹目 【アナデン】 ・「中高生の英語の質問」からはみ出た専門的なスレ ・生活保護のCWニコルだけど質問ある?Part315 ・【画像】ふんどし祭りで女子小学生の成長途中のおしり撮ってきた ・【質問】低レベル質問スレ【小学生レベル】 ・【海外通販】AliExpress初心者質問スレ 19 ・【麻生財務相】「朝日新聞の取材能力のレベルが分かるな」 森友文書の書き換え疑惑で同種の質問重ねる記者に苛立ち? ・生活保護のCWだけど質問ある? part.317 ・セキュリティ初心者質問スレッド Part138 ・pixiv初心者&質問スレpart1 ・PSVita 質問スレ part1 [無断転載禁止] ・Uber Eats 配達パートナー質問スレ★10 ・SOULALIVE ONLINE 質問スレ Part3 ・【FF14】FINAL FANTASY XIV 質問スレ106 ・どんな質問にもマジレスするスレ173 in喪女板 ・Windows 10 質問スレッド Part64 ・Uber Eats 配達パートナー質問スレ★12 ・真女神転生デビルコロシアム20XX攻略・質問スレ ・前科11犯の女子小学生レイプ魔だけどなんか質問ある? [無断転載禁止] ・リトルノア 質問スレPart14 [無断転載禁止] ・【スクスト】初心者・質問スレ part38 ・ヴァルキリーコネクト質問スレ part11 ・イラストレーター志望の学生ですが質問 ・スレ立てるまでもない質問スレPart.112 ・【婚活】「生活費はいくらいれてくれますか?」婚活アドバイザーに聞いた相手の価値観がわかる質問 ★3 [ぐれ★] ・【悲報】安倍ぴょん、虚偽答弁発覚か 福島瑞穂の4月の質問で「平成19年から加計の獣医学部新設を知ってる」と回答していたと判明 ★2 [無断転載禁止]©2ch.net ・男子高校生だけどアナル 掘られてとうとう雌落ちしたけど質問ある? ・【TESO】The Elder Scrolls Online 質問スレ Part46 ・秋刀魚親切な奴が何でも質問に答えるスレ☆Part463 ・【期間工】質問&雑談スレッドPart101 ・【BlackDesert】黒い砂漠 質問スレ Part18 ・初心者もお気軽に…質問スレ@4コマ漫画板 ・ドラゴンクエスト11 質問スレpart.1 ・docomo 総合質問スレ★321 ・Mac初心者質問スレッド281 ・サマナーズウォー: Sky Arena 雑談質問スレ74 ・【海外通販】AliExpress初心者質問スレ Part2 ・FL Studio 初心者&質問スレ Step 25 ・AutoPagerize質問・要望スレ page:5 [無断転載禁止] ・【Switch】Splatoon2/スプラトゥーン2 A〜B帯スレ 46【質問/雑談】 ・midjourneyっていう自動AI生成絵画マシーンがすごい ・クロスバイク初心者質問スレ Part51 ・【期間工】質問&雑談スレッドPart111 ・生活保護受けとるニート(35)やが質問あるか? ・初心者の質問相談にやさしく答えるスレ Part12 ・Elona初心者質問スレッド その120 ・前の人の質問に嘘で答えるスレPart39 ・うろおぼえ曲捜索・質問スレ in 音ゲー板 10曲目 ・【海外通販】Aliexpress初心者質問スレ 2 ・ドラゴンクエスト11 質問スレpart.8 ・自動車保険と自動車事故の質問スレ 事故13回目 ・■スレを立てる前にここで質問を 139■ ・【期間工】質問&雑談スレッドPart106 ・【初心者】ダイエットの質問・相談スレPart190 ・サマナーズウォー: Sky Arena 質問スレ26 ・どんな質問にもマジレスするスレ No.135 ・超初心者のための質問スレッド★アンプ編 39★ ・どんな質問にもマジレスするスレ No.136
20:41:20 up 31 days, 7:05, 2 users, load average: 9.53, 9.69, 9.58
in 2.0790932178497 sec
@0.045133113861084@0b7 on 011210