いうて1スレくらいワッチョイなしでも大丈夫やろ……って思っとったら早速荒らされてんのほんま
Automatic1111で プロンプトAで100枚だしたら、 次はプロンプトBで100枚だして、 次はプロンプトCで100枚だして っていうようなふうで違うプロンプトを夜間バッチで流したいですが、できますか?
>>5 そのやり方が分からんけど Auto HOT key とかでできるんじゃないか >>6 レスありがとう いろいろ調べたら、 Automatic1111ではScriptsの中の"Prompts from file or textbox"の機能できるらしいことがわかりました ひさびさに更新したらリサイズの項目に見慣れないのがあったから使ってみようと思ったけとエラー出て使えなかった 何か追加でいれないと使えない? あと、潜在的なアップスケールってなってるけどi2i元の画像から縦横比維持したまま埋めも切り抜きもしないで出力してくれるの? このたびNovelAIのエロ画像作成に興味を持ち、登録を思案している者です 質問なのですが、PCを複数起動させて画像を作りたいのですが、登録は共有できますでしょうか? それともPC一台につき一登録という車両保険のようなシステムでしょうか?
>>12 サーバ処理のサービスなんだろ? 複垢でも作らない限り無理じゃねぇの >>12 アカウントは共有出来るけど 複数同時ログイン同時出力出来るかはやったことないから分かんない pixaiがリークモデル使ってたの既出? 個人が配布してるモデルでリーク疑惑かかってるの結構あるな
今ある主流のアニメモデルなんてリークNAIが源流なのがほとんどでしょ
せっかくだからどのモデルがリークなのかまとめてきてく!
明確にリークモデル系じゃないのはWD(旧1.3.5除く)ぐらいじゃないかな 後のはリークの流れを汲んだAnyV3ベースが殆ど マージモデルは全部リークの血が流れてる
>>20 手持ちだけでも200以上混ざってるモデルがあるんで書ききれんばい 今主流の一般的なダンボールタグが使える奴で特にmasterpieceや1girlでまともに出てるのはNai/Any混じってるのがほとんどだな WD品でもダンボールタグ使えるけどEimis混ぜてすぐキャンセルしたモデルほど効果はない無いから使ってれば分かると思う WDもリークでないってだけでDanbooru学習してるわけだし叩き奴には餌でしかないけど 色が薄くなって紫斑点出るモデルはAny混じってるし、NAIリーク(Anything)のvae使えって言われてる奴はほぼ全部だ 良心的な所(?リーク品混ぜてる時点で(笑))はちゃんと混ぜてるってレシピ公開して書いてある 書いてないところはたいてい混ざってるGapeもNAIベースなのでエロくぱぁできるモデル(特に2D)はほぼ混ざってることになる そんならもうリークじゃないモデルが出てきたときに語ればいいやいね
グラボ3060の2枚刺しって強い? 生成速度が上がるならやってみたい。
>>27 webuiを2つ動かしてそれぞれ別のグラボに割り当てれば速度的には倍になるよ。 似たようなサイト増えてるけどnovelaiが一番良いですか?
>>23 長すぎるけどほとんどがNAI使ってるか混ざってるまではまじでこれ 1111でDreamBoothやると3060の12GBでもメモリ不足エラーみたいの出るんですが(前はできた)なんででしょう
たぶんプロンプトにshigeru_matsuzakiが入ってる
>>35 黒画像はvae適用時にデータがおかしくなるせいなので、起動オプションに—no-half-vae付ければ大抵は解決する。 vaeを使わないって手もある。 >>32 DBがおかしいって話もあってみんなLoRAやってる感じ アプデしたらhypernetworksとか選び方変わってる 前みたいなクイック設定で右上の方がやりやすかった これって前に戻すとかできたっけ
TI、HN、LoRAは適用方法が変わって右の🎴ボタンから選んで使うようになった 前の設定には戻せない
最近の環境はだんだんメモリの必要量増えて来てるよな でも12GB以上のGPUになると選択肢限られてくるからな
Stable Diffusionに限らないが、そもそもAI応用ソフト界隈全体としてVRAM・RAMの使用量を減らそうという動きはないのか? 1111のmedvramとかのオプションは他のSDソフトに見られないから、多分独自実装だろ
>>43 前にEmadがSDはもっと小さくなるスマホにも乗るようになるとか言ってたから、動き自体は無くはないかも 実際にはSD2.0でメモリ前より厳しくなってるけど >>43 今度は学習解像度が上がってエンドレス、結局gpuに合わせた限界になるんちゃうかな 蒸留モデルいつになるのかねぇ。クリスマス辺りにでも来るのかと思ってたが… やはりEmadのComming soonは当てにならんな
>>42 ガチ勢は、こんな感じ GPU: RTX 4090 (A100より速い) 、サブ (RTX 3060) CPU: 第12世代Core i5 メインメモリ: 128GB 不揮発性メモリ: 1TB ストレージ (SSD): 1TB ネットワーク: 2.5 GbE CPUは然程ハイエンドでなくても良いみたいね やっぱアプデ後変なボタンでしかできないのか 後LoRAで人物学習させるのは成功したけど体位とかの場合どうしたらいいんだろ?
正直演算速度はそんなに要らないからRTX4060くらいのにビデオメモリ16GBのモデルとか出してほしいわ なんならモバイルでそれくらいのが欲しいが 当面出そうにないからlegion760RTX3080、16GBモデル辺りでも確保しといた方がいいのかな
>>49 ポーズ自撮りしてモデル入れ替えながらi2i繰り返せば素材になるかもね Anything3が停止になったが sdで動いてこれに近いのおススメ教えてくれんか
>>50 メモリーの張替えで増量してた人がいたから nvidiaが最初からメモリ倍にするのは簡単なんだよ でもAI用はボッタクリで売ってたから安売りしたら利益が減るからできないんだよ 金儲けのためにやってるからな >>52 4.0/4.5が出たから消したのでは? 1.0や2.0も消したよね anything v4.5はv3よりプロンプト聞いてくれるし 指も大分改善できてる
>>54 anythingは4以降は別の人が作った亜種 3はマージ素材になり過ぎたことを嘆いて、新たなモデルの登場を願って作者が公開停止にしたそうな 4は感覚的に相性悪かったんだが、4.5使ってみるか
って、huggingface覗いたけど もしかしてanything4の中に4.5どころか3も入ってね? じゃあ、どっちも使えるのか(Colab制限で確認できない
anythingの3をhugにのせてたの、あれ作者本人だったの? 出自不明の転載だと理解してたが
3自体は中華のメンバーが作ったという話は見た まあ、何をコネコネしたのかまではわからんが
訴訟リスク考えて毎回別人ということにしてるのかもしれない
作った本人じゃないのに名前の使用許可を出すのはどうかと思う
>>39 やっぱDreamBoothなんかうまく動作しないのね。LoRAは動いたのでそっち試してみる anything3.0はbetter_vaeバージョンが最新だったんだけど 再アップロードはなさそうかな そもそもanythingもnaiのフォークだったはずだから 今ある主なアニメモデルはnaiとwaifuに追加学習したのがほとんど あとはcertainを元にしたのがちょっとあるぐらい dHAは3Dが入ってるからまた別系統なんだろう
>>42 GAINWARD GeForce RTX 2060 Ghost 12GB / PCI Express 3.0 x16 グラフィックスボードNE62060018K9-1160L-G ジョーシン 会員様web価格 39,800 円 (税込) 送料無料 在庫状況: 在庫あり 限定「おひとり様1点」 安いよ安いよ!!! (o∀o) 今後もグラボ側の(価格あたりの)VRAM搭載量はあまり増えそうにないのを考えると、結局はソフトウェア側のVRAM消費を減らしていく以外に手はなさそう もちろん、画像生成速度はそのままにな
メインメモリとの共有ができるようになればVRAM不足は解決しそうだけどどうなんだろ DDR5の転送速度はRTX3060のVRAMの1/7くらいみたいだけど、やっぱ学習の速度もそのくらい遅くなるんだろうか
>>27 めちゃくちゃ使いづらいだけだな。PC2台にしたくなりそう。 >>71 全部手の届くところに用意してかっつかつに詰め込んで1万人が流れ作業してる時に 材料が足りないって新人一人が倉庫に取りにいって待つ間他の作業も遅延するようなものだからなぁ メモリの速度以上に時間がかかることになると思うよ もちろん今でもCPUについてるオンボードのGPUでゲームが動いているんだから物理的にできない訳じゃないけど それだって2次3次のキャッシュ盛らないと速度が全然でない訳で(´・ω・`) Extensionで追加したテキストボックスの内容をt2iのポジティブに飛ばすボタンを作りたいんだけど 誰か答えをくれ(直球)
AI Picassoだけれども、ランダム文字列を入力して油絵スタイルで画像生成すると、まともな絵が出てくる。何故だろ?
>>75 photorealisticだけでもまともな絵がでてきた。 >>75 >>78 Picassoとかで、いかにもな絵が出てくる。 贋作作成に使われる危険があるな。 >>75 お手軽にそれなりの絵が出るように、サービス側でいろいろプロンプトやら補正してんだろうね NMKDなんですが作成日時からprompt historyを探したい時、Data\logsにテキストが無い場合どう見れば良いでしょうか
該当日時に出力したpngをメモ帳で開いてpromptを探す
>>71 オンボードのグラフィック機能で生成以外の描画処理をさせてグラボに生成全振りさせるのが今のところ最適な分業なんでないの これやったら処理も速くなったしVRAMの空きも広がって出せる画像サイズも少し大きくなる 素人が2秒で思いつく案を検討してないわけないでしょうに
1111のスケッチ機能がどう役立つのかいまいち掴めないんだけど 活用例ないかしら。ペイントで塗って髪型拡張とかできるのかな
単純に描いてinpaintとか掛ければそれに応じた絵が出しやすいってだけでしょ。 他のペイントツールにデータ渡して描いて戻すみたいな処理が要らなくなって素早く処理出来るのが利点なくらい 正直これくらいならクリップボードから貼り付け出来るようにしてくれたほうがブラウザからはドラッグアンドドロップで画像ツールに移すのはできるし、 戻す時にコピペするだけで済むから簡単高機能でやれて楽なんだけどな
メモリが瀑下がり! DDR5メモリは高速品を中心に下落、DDR4メモリは「DDR4-2666」32GB×8枚組で51,780円(G.SKILL)特価も 「DDR5-5200」で、32GB×2枚組が8,020円安の33,980円(Crucial)、16GB×2枚組はさらに大幅な9,200円安の特価12,280円(TEAM)を付けた。 「DDR5-4800」32GB×2枚組も2,990円安の27,810円(Crucial)に下がり、それぞれ過去最安を記録している。 「DDR5-5600」は32GB×2枚組が5,345円安の40,455円(G.SKILL)、 「DDR5-6400」16GB×2枚組は4,100円安の27,680円(TEAM)、 「DDR5-7000」16GB×2枚組が4,573円安の48,227円(Corsair)、 「DDR5-7200」16GB×2枚組が5,431円安の49,368円(Kingston)などとなっている。
LORA学習にはメインメモリ潤沢な方が有利 最近でたsd-webui-supermerger でモデルマージやるにもメモリ多いほうが快適
SliとかでGPU2枚差しに対応してくれんかな そしたら3060の2枚で解決するんだが……
>>79 Enkū wooden statue と入力すると彫像の絵が出てくる。 プロンプトでキャラごとというか、右の人は右上を見るみたいな指示はできると思いますか 自分で加筆したほうがはやいかな
できるかもだけどプロンプト一発出しにこだわっても無駄が多そう そのへんはinstruct-pix2pixみたいな技術でAIに指示してサクサク編集していく形になるのかもしれない
>>90 それはPCのメインメモリ対応と同等以上の難易度だから 2枚刺ししてもCUDAから見えるのは12GBの離れたメモリが2つあるだけで24GBで認識動作するわけでもないしな NVIDIA はなぜか16 GB のモデルがほとんどない
そもそも最近はsli対応マザボが出なくなって泣く 3090を2枚なら夢のvram48gが出来そうなのに
少しくらい速度遅くてもいいからAMDが48GBをRTX4090の値段くらいで出してくれたら面白いことになりそうなんだけどな 学習目的だしRTX4080くらいの速度は最低でも欲しいが
>>98 2つのGPUにつながるメモリ空間を連結してNVLink経由でやりとりするにはソフトウェア側の対応が必要。また、ゲーム向けのGeforceシリーズではそういった機能が無効化されており、昔のSLIの互換で動くだけ。 演算を行うためにはGPUからアクセスできるところにデータが必要で、つまり両方のGPUのVRAMに同じデータを置く必要がある。 つまりは、両方のGPUのVRAMに同じデータを置く必要がある、というわけでございます。 これは何を意味するか? 即ち、どちらのGPUにも同じデータを置かなければいけない、そう理解しております。
へー3090だと機能無効化があるんか 知らんかったわ もうA6000しかないな(遠い目)
RTX 4090とかよやすもん買わずに クワドロ帰って話だよね
Legion 760が5%引きセールやってんな Rtx3080ラップトップの16GB積んでるから良さげなんだがAMDのCPUって問題出たりする?
>>110 大丈夫そうなんですね。ありがとうございます。 16GBの環境は作りたいけど、待ってればもっと安価になるのか、当面ノートのは12GBモデルしかでないみたいだから入手困難になるのかが厄介そうな時期で悩ましい この数年グラボのコスパ悪くなり続けていて 今ようやくちょっと安くなったところでAIローカル需要が高まりつつあるんだからもう値下がり要素ないよ
この数年はコロナの引きこもり需要増とマイニング需要で上がってたからその辺が落ち着いた今は判断難しい時期じゃない?どっちに転ぶかって結構ややこしい時期な気がするけどな
知ってるとは思うが型番同じでもノートのグラボはデスクトップより性能だいぶ落ちるぞ
さらに熱がやばいので絶対にノートはすすめない まじでやめておけ
今ノートの2070の低消費電力のサイレントモードで使ってて生成速度には全く不満ないし、発熱も全く問題なくて冬ならファンも回らないレベルですね このスペックでも512x512なら1枚6秒、512x768で8~9秒+hiresで1.5倍にして+26秒って感じ。ターボモードにしてだいたい2割くらい早い程度かな 学習用途に16GBモデルが欲しいけど、自分の絵を学ばせる程度だからそこまで枚数は学習させないから速度も必要そうにないかなって感じです
すでにノート持ってるならなおのことデスクトップがいいだろ --listenで繋げばそのノートから使えるしモニタもいらんから予算27万あるなら3090も組めるのでは
>>116 それっていったい何ステップで生成してるんだろう…… >>119 今確認したら5秒がほとんどで1割くらい6秒って感じだった。ターボで4秒だけどファン全開で回っててやばいし、サイレントで速度妥協して回すのがノートではベストな使い方だと思う >>121 サンプリングとステップを書かないとわからんよ速度は 256x256, 5stepsでいいならiPhoneローカルでも6秒よ
サンプリングはデフォのEular aの20から変えてないね。解像度別の速度は少し前の書き込みに書いた通り。 常時hires使うとかじゃなけりゃノートの速度でも十分使えると思うよ
>>124 その感じだとデスクトップ版の3050のチョイ下ぐらいの速度か 軽く使うならまぁありだとは思う よくわからんが予算を提示しろ その予算で買える限界のグラボ買え
Quadro搭載のPC持ってるのに活用できないの辛い
まぁみんないじくりまわしてるからまっさらなモデルはむしろないかもな 消したら増えるという具合にはならんだろう というかもっとより癖のないモデルってないもんかな
中国のマイニング専用GPUの性能が大分NVIDIAに追いついてきてるから 貿易戦争がなくて量産されてれば家庭用のGPUの値段はもうちょっと下がったろうけどなぁ 今の環境だとGPUの値段は永遠に下がらんわ
ACertainThingって、NovelAIに認可を貰ったモデルだとか 聴いたことあるが、それで良いんだっけ?
>>135 NovelAIから認可を受けたマージモデルなんて存在しないでしょ そもそもそいつ自身はNAIから派生したAnythingの派生モデルだし (closed eyes)で閉じた目を表現しようとすると、顔が崩れるだけでなく体や肌の質感まで落ちてしまうのだけど、美しく目を閉じられるプロンプトってある?
>>138 うん、sleepで強弱変えるとわりと良い感じなんだけど、sleepでも完全に目を閉じるとやっぱりクオリティがかなり落ちてしまうんだよね そんな感じはしないけどな。 絵柄がマイナーなのが問題なんじゃないか? その絵柄で目をつぶっているような綺麗な画像が実際に多数あるか? あるなら追加学習かLoRAで学習させれば良い。
表情で顔が崩れるかどうかはモデル次第じゃないかな もし実写系なら特に苦手だろうね 本家使ってるならアレだけどローカル使ってるなら違うモデルに切り替えて確認してみたら?
実写系は何もしなくても目が線みたいに細くなりがちだよね あれ結構困るんだよなあ analog diffusionならそこそこきれいな瞳になるけど SD1.4系に比べてちょっと雰囲気に偏りがある
天使とかを作ろうとすると羽が高確率で失敗するんだが 指作る時みたいに、気休めでも何か良い単語かNPあったりする?
>>140-142 主にOrangeMix_halfでイラスト 絵柄はモロ・マイナー 拒食症系ガリガリ女 自分で作るAI画像以外ほとんど見たことないけど追加学習できるのかな ネガティブも精査してモデルもいろいろ試してみるよ 俺の使うプロンプトの範囲だと OrangeMix自体が、はっきりとしたものよりもややモヤがかった感じのになって 特定の決まった絵師とかキャラとか指定以外では ちょっとでも専門外だと生成物が崩れやすい傾向はある
とりあえず、目を開けた状態なら満足行く出来になるのなら 目だけ書き直せば良いんじゃないか? リアル調でなければ基本的には表情は各パーツを独立してつけ外しできる。 最悪目は手書きで直すことも視野に入れた方がいい
Orangeなどマージモデル>Anything v3.0>NovelAI はまる絵、特定の画風、ぶっちゃけ特定シチュエーションを指定せず美少女を書かせたときの質でいえばこの順序。 いろんな物を描ける対応力を求めると逆になる。 NovelAIだといろんなプロンプトを入れても対応できる反面、求めるもの意外の要素や質の低い物を除外する手順が求められる。 きれいな美少女イラストを出しやすいモデルは決まった路線から外れようとすると出せない、あるいは崩れる。 また、マージモデルだと変形など起きやすい。 HNやLoraを使えばさらに、合致するプロンプト以外で良い結果を得られなくなる(当たり前)。 新しいモデルを使えばいいわけでなく、描きたい物に応じてモデルを選択したりInpaintを活用することがポイント。
基本的にモデルはNAI系統の汎用モデルと学習量の少ない特化モデルに分けられる よほどでなければ1つ好きな汎用モデルを決めればそこから変える必要はない 勿論モデルによって得意不得意はあるが、HNやLoRAはそれを緩和するために使えるもの HNは不得意でもできる可能性があるなら、そこを保証してくれる様になるし、 LoRAは不得意をより得意に根本を改善することができる
汎用モデルというけどAnythingとか明らかに緻密な美少女に比重置いてない? その分汎用性は落ちてると思う。 そういうモデルでまず試して出ない要素の時だけNovelAIにしてみる、場合によってはInpaintで使うのがいいと思う。
思いつく限りの手に関するプロンプトを詰め込みまくることだ
とりあえずだ、質問する時は必ず使用モデルを書け、だ じゃないと全員意見がバラバラになって収集つかん
>>150 Anyは比重はあるけど、全般的にNAIよりモデルの出来が良いので NAIに変えないといけないような状況は実際少ない いろんなキャラでHNやTIをやってみたらすぐ分かる HNやTIは元のモデルの能力を引き出すことはできるが、元々絶対に出せない絵は出せない 言い換えると良いHNやTIが作りやすいモデルが元々、色んなキャラを表現できる能力が高いということで良いモデル その観点で色んなモデルを比較するとNAIは一弾劣る >>154 それはたぶん君の好みのにあってるというだけだと思うよ オレとしてはAnyの汎用性はそこまで高くないと感じるし 特に極端に美少女に寄り過ぎてる NAIは優秀なベース素材と考えて、あとは目的や好みに合わせてマージモデルを使い分けってのが今んところベターかもね Any入ったモデルで学習させると、Any入ってない他のモデルでコケるからなぁ エロやるならGapeはほとんど入ってるから気にせんでもいいし、無いなら無いで後で足せばいいんだけど LoRA使わなきゃいいんだけど今更TIやHNにはちょっと戻りたくない感じだ あと、Anyの話するなら今は4や4.5も出てるんで自分ルールのAny語りじゃ他の人に通じないところに来てると思うが
破損は stable-diffusion-model-toolkit を使えば簡単に修復できる ついでにprunedに軽量化したりsafetensorsへも変換できるのでおすすめ
missingだから一切認識されないなんてことは無いってスクリプト書いた人の記事になかったか?
>>161 一部のプロンプトが効かない 最初の頃はプロンプトの一番最初に書いたsleepingが効くか効かないかで話題になってた その記事みたいに色々な壊れ方があるともうどのプロンプトが無効化されてるかわかんないしそれを元に学習やマージしたモデルにも波及するからわりと深刻な問題だよね 75トークンごとに1トークン目が無効になる問題だよ
正確に言えばトークン無視とプロンプトの効き方が変わるかな 修復したら絵柄が変わったって話もあるし
>>147 ありがとう、目や表情だけの描き直しでそれなりに見れるようになったよ >>155 好みとかじゃなくて、 TIやHNで既存の有名キャラがそのまま再現できるかで判断してる 少なくともアニメの絵の再現力はNAIは一段劣る toolkitで修正有効にして読み込むと、NAIも CLIP was mislablled, 197 keys renamed てなるから、 最初から破損含んだモデルを元にしてたということかもな
修復って何やってるんだろう。 ckptならソース内包できる?けどプログラム修正じゃないよね?
>>167 その『アニメキャラの再現』という1点だけで全ての優劣を判断しているような書き方だったので、それはさすがに違うでしょう?と言ったまでだよ >>170 全てとは言っていない。 NAIが勝る場面は少ないと言ってるでしょ。 >>151 どこかのHPで拾ってきたのをコピペしといたのだけどこれをNP指定 longbody, bad anatomy, bad hands, missing fingers, missing fingers,bad hands,missing arms,head out of frame, たしかACertainThingのだから Any3を噛んでるタイプのなら利くはず。 本当に気休めなんだけど、わずかに利く >>172 だからそれもお前個人の感想だろと 話すだけ無駄だわお前 >>174 まじで大丈夫?自分がどんなレス書いたか忘れてない? >>150 で疑問形式で書いてるから それに個人的な経験を元に理由と共に意見を書いただけでしょ? もし独り言で意見は受け付けてないっていうのであれば紛らわしいからそう書いてよ こっちは良かれと思って答えてるんだから ごめん、オレ>>150 じゃないし途中から参戦しただけw >>175 実はオレも>>150 ではない >>154 に異議があって横から入っただけ でもやっぱりAnyは癖強すぎるし綺麗な絵の為に構図を犠牲にしてて出力がワンパターンになりがちなので汎用性は低いという意見は変わらない なのでそこまでNAIより良いと手放しでは褒めらんないなぁ >>176 なんかwwごめんwww webui.batの方を起動してるせいでそもそも適用されてないってオチではなくて? -- 2022-12-29 (木) 17:43:16
>>180 ありがとうございます エラー出ますが画像生成は出来る状態になります 一応もう1回webui-user.batから起動しなおして来ましたが同じでした レイプ目とか猫目とかヤギ目とかやりたいから色々調べたのにどのプロンプトもまともに読んでくれねえ 瞳の表現はやっぱ難しいんだろうか
学習した絵にタグあるかが全てだから、そういう特殊なのは自分で追加学習させるしかないな
猫目はキャッツアイとしてしまうと三姉妹出てきそうな
>>179 venvを削除して起動が早いかも あとxformersだけ0.0.16rc425になっててtorchは古いままだね オプションに--reinstall-xformersオプション付けて実行したことある? それやるなら--reinstall-torchもやって両方揃えたほうがいいかもしれない もしvenv消すならそれらのオプションは外したほうが良いかも ちなみに一枚目のxformersはvenvを切り替えずにビルドとかしてて意味ないことになってそう 二枚目一番上の「指定されたパスが見つかりません」というのも気になる >>179 詳しくないんだけどグラボ何使ってんの? >>186 ,187 バージョンの指摘ありがとうございます。 torchとtorchvisionを最新にしてCUDA11.7に変えたら行けたっぽいです グラボは3060の12gbですtorchとかのインストール中にバージョン合ってないよってエラーが出てそれに合わせてCUDAとかのバージョンを全部下げたのがダメだったのかもしれないです すみません、1111ににじジャーニーの複数のイメージプロンプト(ブレンド)に該当する機能はありますか i2iで1枚の参照はできるのですが、大掛かりな学習よりインスタントに複数画像を参照ソースにできたら便利なのですが
>>189 簡易で済ますならInterrogate DeepBooruとかは? 画像からプロンプトを導き出す機能で、それをスタイルに登録して複数使用すればそれらしいことは出来そうだが。 >>189 あれいいよね、でも1111にはないんだ nijiがどんな処理してるかは不明だけど i2iするときに似せたい絵を左右に配置した画像でやるとブレンドというか簡易学習的な感じにはなる それ使ってキャラの統一感を出してる人とかいたな
ちょっと分かりにくかったので補足すると、 真ん中に変化させたい絵と、その左右にリファレンス画像を配置した画像を作ってからi2iするって意味ね
ローカルでやりたくて初めてでよく分からないんですがとりあえずStable diffusion web UI Automatic1111版入れておけばいいですかね? グラボは2080Sなので心許ないですが… グラボ性能がしょぼいと生成に時間がかかるという事ですか?
早ければ早いほどシチュや体型を変えてライヴ感のあるオナニーができる
>>199 ありがとうございます! Pythonとか個別に入れる必要ないんですね 助かります! >>195 2080S載ってないけど割と速いほうじゃないの? >>201 そう ただその後の使い方は5chwiki見るなりしてね モデルファイルの導入とか含めて あれ画像サイズそのまま2倍になるのつらいんよ;;;;;
>>188 一連の処理はvenv内に入ってしないと、外部にバラバラにインストールされて、収拾付かなくなるよ (venv) c:¥…… これがvenvに入った状態だけど理解してるかにゃ? いいんだよvenvなんか使わせなくても それで環境破壊モンスターマシンが産まれたらvenvの重要さに気がついて二度と同じ過ちを犯さなくなる
powershell! pip install torch!!! 環境破壊サイコー!!!!!!
dockerを使ってると環境破壊に躊躇いがなくなっていかんゾイ
【経済国】 NATO 対 BRICs 【資源国】 ://2chb.net/r/energy/1665797687/l50 TensorRTでAI画像生成が最高4倍高速になるらしいじゃん 誰かGoogle Colabのノート早く作って!
リアル系に合うサンプリングメソッドってなんですかね DPM2はよかったけど他にも色々ありすぎて困る
2080Sですがサンプリングstep100 バッチカウント2 サイズ2で3分くらいだった サンプリングステップ上げると時間はかかるけど出てくる絵の密度が全然違ってくる これで十分ではあるけど学習系もやりたくなってきたからそうなるとVRAM12GB以上が欲しくなるな
サンプリングアルゴリズムではそこまで絵は変わらないから 早い「Euler a」「Euler」とかでガチャの回数増やしたほうがいいと思うけどね 「DDIM」も早いけどアップデートで設定が変わったりするのがアレだから使うのやめたなぁ
同じ条件でEuler DPM2 DDIM比べたけどほとんど変わらないな 微妙にEulerがディテール綺麗
デフォルトがエルラーAだったから他の何も使ってないけど使う意味あんの?
supermurger使ってる人いたら教えてくれ Merge!を押してからマージ完了まで5分位かかるんだけど、メモリ32GBあれば一瞬で終わるの? 今は16しかない
>>220 32GBで足りるかどうかは知らんが、メモリ64GBだと 初回はモデル読み込みがあるから30秒~50秒、2回目以降は数秒 5分掛かってるのはメモリ不足だろうね >>222 となると、増設するかcolabでも使ってやったほうがいいか 5分間、パソコンがフリーズしたみたいになってやっでられんわ >>219 少ないステップ数で絵が完成になりやすいものや、綺麗だがステップ数を変えると絵がコロコロ変わりやすいもの、ステップ数を重ねるほど詳細になるものなど色々ある なので用途や使うモデルによって選ぶ 数日前から触り始めてAnythingv4.5のckptと4.0のvaeを使ってたんだがimg2imgに手を出して初めて生成されてる画像が一段暗く出力されてる事に気付いた(マスクして生成し直した部分だけあからさまに暗くなる 日本語サイトは全く引っかからないしredditとかでは似たような症状のが何人かいたのに解決には至らなくてダメ元で設定やらを弄り回してたら偶然checkpoint mergerで同じanything4.5を2つでbake in vaeにanything4.0入れて生成したckptなら画像が変質しないと分かった(なんで? もしかしてvaeてckptと同じフォルダに放り込むだけじゃ機能しないのか…?何もわかってないのに解決してしまったがもし生成される画像が暗くなるやつがいたらこれで解決できるかもしれんぞ以上です
varをckptと同じ名前.vae.ptにして同じフォルダに入れてvae指定をAutomaticにするか、vae指定で直接vaeファイルを選ぶと適用されるはず var指定はsettingsのどこだったかな 左上のcheckpointメニューの隣にvaeメニューを出すと簡単に指定できるよー 方法の説明は誰かお願い
1111使ってんなら設定欄に「生成時にどのvaeを使いますか?」まで書いてくれてるんだから解説サイトなんて要らんやろ 英語が読めないんならグーグルレンズでも画面にかざしながら探せ
有識者に聞きたい この界隈のことを知って、始めたいと思ってやってみたところで、 stable deffusion onlineというサイトでとりあえずスマホでやってみたんだがこの動画のものとはまるで違う低クオリティになった VIDEO PCでやっても変わらないと思うんだが何が悪いんだろうか?? 1111で出力した画像の「モデル情報」を、参照する方法はあるのでしょうか? 設定値はわかるのですが、どのモデルを使ったのかが、わからないのです...。
ローカルでの学習をやってみたいんだがスペック低い方でもVRAM8Gになってるけど それ以下でも時間はかかるけど出来るものなの?
>>231 PNG infoに画像ぶち込んで見られる情報が全て >>232 テニスコートでサッカーやれっつっても無理なように、卓球台でテニスはできんのよ。 >233 >244 やっぱり、その方法しかないんですね。 モデルハッシュを入力すると、モデル名がでてくるサイトないのかな。需要ありそうなんだけどな。
>>232 CPUで学習する方法もあるよ Lora対応してるか知らんけどDreamBoothはやったことがある 当然めちゃくちゃ時間かかる >>231 UI設定で「モデルの名称を生成情報に追加」しておくとモデル名もPNG Infoに出てくるようになるゾ あと「テキストからUIに生成パラメータを読み込む場合(PNG情報または貼り付けられたテキストから)、選択されたモデル/チェックポイントは変更しない。」 をオフにしておくと、txt2imgに読み込んだとき生成したモデルに自動的に切り替わるはず >>237 ところがマージモデルだとハッシュが同じなのにマージ比率が違うってことも起きるので実はハッシュはあてにならないのだ >>227 >228の続き UI設定の「クイック設定」に「, sd_vae」を追記してUIをリロードすると、左上のチェックポイント切り替えメニューの右にVAE切り替えメニューが出てくるゾ >>227 俺も昨日始めたばかりだけどVAEはVAEフォルダに入れるって基本だろ 普通にwikiに書いてあるし >>232 6GBで出来たという話を聞いてRTX3060でVRAM6GB未満になるよう調整したバッチファイルをGTX1660で試したが駄目だった GTX1660はfp16関連にバグがあるという話なのでそのせいかもしれない rtx2000番台の6GB機ならいけるんじゃないか >>244 やはり物理的に無理でしたか 素直にグラボ買います ありがとう >>243 自分はバックアップ取るときにモデルと分かれてるに面倒くさいから、vaeもモデルデータ入れる方にぶっ込んでsettingで使用vae直指定してるわ クイック設定はデフォで sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers って入れておいてほしいよね
>>230 PC でやると全く違う世界が見えるし 呪い研究が必要 >>230 そもそもstablediffusionとひとくちに言っても、学習モデルごとに「何を学習したか」が違うので当然生成される結果も違う ちなその動画にあるような実写系が綺麗に出力できるモデルも多数存在する Civitaiで見つけたiuljeとかPureErosFaceっていうTextual Inversion入れるといい感じのアジア美人になるんだけどやっぱり同じ傾向の顔になってしまう もっとこういうTIあるとこ知らない? Civitaiでは数えるほどしかないんだよね
>>252 そうなのか 好きなモデルに気軽に変化つけられて便利かと思ったんだけど ところで >>249 のサイトのプロンプトで()で囲ってあるものはどんな意味があるんですか? 例えばこんなの (cat:1.2), (large window:1.2), (any words)+++, it, it, it, +++++++++++++, some words, みたいな構文もあるけどこれは意味が無いことにも意味があるみたいな意味
i2iでテキスト生成するとand出てくるからそれ使ってたけど処理に時間かかるのか
使いこなせるなら使いこなしてみろ 時間の無駄かつ生成に倍の時間かかるので
AND前で出た画像にAND後でi2iするみたいなイメージ 厳密には違うと思うが
[A|B:0.5] こういうのよく分からんし効いてるのか分からん
プロンプトが一文字でも変われば出力が変わるんだから全部のパターン出力して好みの絵を選べばいいだけ
モデル試し終わったので次VAE試したいんですが SD(diffusion_pytorch_model) WD(kl_f8_anime) OM(orangemix) NAIのリーク? 意外におススメあれば教えて欲しい
アークナイツみたいなぶかぶかジャケットのサイバーパンク風がなかなか出力できない NPでとかで調整してもジャケット前開きのへそ出しギャルみたいなのになる…
OMとNovelAIのVAEのハッシュ同じじゃねーかよ💢
vaeは3つしかないと思っていい sd、nai、wd 一応trinもあったっけか
>228 フツーにsettingsにvae変更ありました…ありがとう 名称違ってたからオートが効いてなかったんですね元の4.5でもちゃんと生成されるようになりました でもvaeなし?での絵柄と暗さも案外味があって良いかもしれない
ハッシュだけで見れば意外とあるぞ ただそれら以外にいい感じに効くものは無いと思っていい
ハッシュの番号を直接(モデルを指定する代わりに)入力できたりしますか?
ハッシュ番号で指定する方法は知らないが Web UIだと画像に記録されたデータをt2iとかに送れば該当するモデルがあれば自動で読み込まれるぞ
論文絶対原文ママでしか許さないマンだからDeepLに突っ込んで読んでる奴殺したくなる
知らねえぞそれで安定拡散とか意味のわからんワードを誤認しても
文脈で安定拡散とか安定した拡散とかバラバラに訳されるんじゃねえの 知らんけど
英語がネイティブになっちゃっててdeeplの面白翻訳楽しめないわ~w ブラジルに渡米してたからさw
論文の話してないのに急に虚空に向かってアウアウアーし始めてどうしたの?
ブラジルで英語を学ぶよりも イギリスに渡米した方がいいんじゃない
自治の人、こいつらどこか誘導してやって 俺 真 面 目 に会話して何度も誘導されてんのに納得いかないわ
なんUが研究最前線でエロが本スレ ここは南米だから
AI生成速度が3〜4倍になるTensorRTを使ってみたけど、これはヤバいわ!渡米するわ!
TensorRTてモデルごとに最適化する必要があるらしいけど、その辺どうなんや?
TensorRT試そうと思ったけどnvinferのビルドでエラーでて挫折 爆速試したいわ
demo diffusionをWindowsで動かそうとしたけどVRAM8GBじゃ無理って言われて渡米したわ
だいぶ楽になるdockerfileあったきがするからdockerの方が楽そう