◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】AI画像生成技術10【NovelAI】 ->画像>53枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1667401816/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
!extend:checked:vvvvv:1000:512
!extend:checked:vvvvv:1000:512
入力されたテキストから画像を生成するAI技術に関して語るスレです
StableDiffusion: google colabやローカル環境で実行可能なAI画像生成
NovelAI: 有料サブスク型AI画像生成サービス
(DALLE・Craiyon・Midjourneyの話題もOK)
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合17【StableDiffusion】
http://2chb.net/r/cg/1667381701/ AIイラスト 愚痴、アンチ、賛美スレ part12
http://2chb.net/r/illustrator/1666872303/ テンプレまとめ
https://rentry.co/zqr4r 編集コード「5ch」
前スレ
【StableDiffusion】AI画像生成技術9【Midjourney】
http://2chb.net/r/cg/1666139334/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured
スレタイのMidjourneyをNovelAIに変えた(スレタイが長すぎるというエラーのため)
それに合わせて
>>1 の説明文も一部改修
AUTOMATIC1111版のUIが良すぎて他使う気にならん あとは1111版が、UIそのまま使えるRadeon対応してくれればいいのに
幼女にジャックオーチャレンジさせてたら1日終わってた
ちょっと見ない間に随分お客さん増えたな 正直プロンプト勢はなんUに誘導して技術者だけ残したいが
何か荒れてると思ったら、イラスト板の愚痴スレで直接技術スレに誘導してるんだな そんなら技術的なことだけじゃなくて暴れたい人が来るわけだわ ワッチョイ立て乙
Text2LIVE、推奨VRAM32GBらしいけど、24GBじゃ流石に厳しいかな… Dreamboothみたいに軽量化が進むのを待つか
>>16 グラボじゃなくてAI用アクセラレーターの容量だから、グラボでも出来るようになるの待つかAI用アクセラレーターを買ってまでチャレンジするかの選択では
>>17 遅くなってもいいからメインメモリー32GBで動いてほしいよね
メインメモリーなら64GBでもたいした金かからないし
1111の単語強調の新旧設定って何が違うんじゃろかい
よく知らないけどgithubのfeatureのとこに書いてたりしないのか
>>22 旧:(((1.331倍に強める))) [[[1.331倍に弱める]]]
新:(1.331倍に強める:1.331) (1.331倍に弱める:0.751)
弱める方も()になったのか [xx:0,21]とか一瞬数字どっちだっけってなって分かりにくかったからええ変更やな
>>22 旧は、() 一重で1.1倍、[] 一重で1/1.1で、かぶせるごとに同じ倍率で強化される。
新は、単純に数字で倍率を指定する。
あれ最近feature見て前からこれだと思ってたわ 数値指定いいよね
>>24 説明wikiを見た感じだと旧が廃止されたと言うより新書式が追加されたみたいだ
(((((単語)))))みたいに()が多過ぎる事が増えたし倍率指定可能になったのか
声の分野で数年かかった進化が三ヶ月で起きてしまったから一ヶ月とか大昔に感じてしまうな
丸括弧を任意数重ねる ((A))→丸括弧1つに付き1.1倍に強める 角括弧を任意の数重ねる [[A]]→角括弧1つに付き1,1分の1に弱める 丸括弧にコロンで区切って数字 (A:1.1)や(A:0.9) →数字の倍率に強める。数字を1未満にすると弱める 角括弧にコロンで区切って数字 [A:0.5] →プロンプトの適用ステップの調整、この場合「全体の50%からAという要素を加える」。わりと複雑なのでこれ以上の説明は省略 案外知らないみたいなのでおさらいに。 角括弧とコロンは書き方が似てても強弱とは全く別のシステムだからな
>>1 ワッチョイ立て乙
ここの人の大半がwebUI使ってるのかな
自分はあえて自前のしょぼ環境で遊んでるから最近のwebUI専門っぽい流れについていけないや
わかっててこうしてるわけだから別にいいんだけど
>>32 こういう基礎知識置いてくれるの嬉しい。
僕みたいな初心者にはとても助かるよ。
ウーム、HNやらTI試そうと思ったけどグラボのメモリ不足かぁ。 やっぱり3060には厳しいのかな。
VAE Selection実装されてるな。 設定画面でVAE固定で選べる。 NovelAIのVAEを他のモデルに当てても専用のVAEよりよくなるケースが多かってんでシンボリックリンクをリネームしていたのだが、もうそんなことをしなくて良いようだ。
モデル比率変えて混ぜてvae噛ませて比較とかしてたからありがたいんだけど settingの中じゃなくて普段からチェックポイントとvaeと2つ選択できるようになると更に嬉しいな
>>33 最近はデータ新規学習やモデルデータ自作とかが当たり前の世界になってきて正直ついていけない所がある
SDの画像圧縮技術がすごいらしいけど pngやjpgじゃなくてその形式でファイルに吐き出すことはできんの?
それ言い出した奴がコード上げててバイナリ保存してるだろ 圧縮率高いっても圧縮復元に4GBのモデルデータが必要になるっていうある意味で本末転倒なやつだからな
辞書を使う圧縮形式なんて普通に使われてるぞ 問題は展開速度の方だよ
jpgなら6kbのとこがsdなら5kbになります。1枚で1kbもお得ってレベルの効率化だから4GBだったら400万枚に相当する もちろん何千万枚何億枚も扱うってなら恩恵にあずかれるし 辞書はよく使われてるけどここまで効率悪い辞書はそうそう使われないよ
画像閲覧タブが2つになってExtensionsからimage historyOFFったら一つになった 相変わらずプレビュー画像クリックで次の画像出ても生成情報は更新されないのな
VRAM 10GBでDreambooth使えるようになったっていうから1080tiでウキウキで回してるけど面白いなこれ なかなか思ったようにいかないのはHNとかと一緒か
>>38 Quicksettings list に、sd_vae て書き足してみ。ちょっと楽になるから
>>46 38じゃないけどサンクス
まさにやりたいことだったわ
SDで圧縮って言うなら、半分に縮小してUpscaleした方がはるかに効率いいと思います。
復元コストを度外視するなら、モデル名と呪文とシード値のテキストで1kbくらいになるのでは 量子化の工程が入るから、圧縮っていうほど元画像の忠実再現性はないと思うが
>>46 ああ、quicksettingsってそこに反映されるのね。
ついでにHyperNetwotkとHyperNetwotk強度も出したらすごく快適になった。これまでX-Yプロットの凡例なしで適用してたわw
ModuleNotFoundError: No module named 'tensorflow.python' って言われたんだけど、tensorflowはどこにぶち込めばいいんだろ。
7900XTXがかなりコスパよさそうなんだがAMDのカードでdreamboothってできる? 環境整ってんのかな
>>52 今のところ新規で買うならNVIDIA以外はありえんね
コスパならRTX3060 12GBが鉄板
Dreambooth GUIもnVidiaがターゲット あとRX 7900 XTX買うなら値段的に近い3900買った方が安牌な気がする
AI使うならNVIDIA買うべき。AMDはゲームとかで近い性能が出したい人向けであって、機械学習に使おうとしたら対応しないソフトだらけで泣くぞ。
やっぱりきついのかぁ 7900買うのはやめとくわサンクス
>>46 ありがとうありがとう
まさにこれが欲しかった
ここでする話題か分からんが、mimicが再始動したけど、あれって自分で用意した画像以外にもなんかベースになってる学習素材があるのかな だいたいの画像生成AIはなんかがオープンソースで公開されたのがきっかけらしいから、そこで学習された画像になるのか?
>>58 普通にSDベースなんかなと思ってたけどどうなんやろうね
SDベースなら心情的なクリーンさは他のサービスと正直どっこいどっこいな気もするよなあ
バストアップイラストだけのクリーン画像で作ったSDに TIしてるだけじゃないか
無断で著作物を学習素材として使う=クリーンじゃないって話なら 今ある画像生成AIにクリーンなやつなんてひとつもないだろうな 合法ではあるけど
お気持ちの問題だ 残留農薬たっぷり中国産野菜でも国産有機無農薬と書いておけば美味しく食べられる
最初のリリース時と違って自前で学習するのも当たり前になってしまったから、 mimicにどれほどの価値が見いだせるか正直よくわからんな で、あれは結局TIなのだろうか。再始動ならDBはともかく、HNとかも取り入れてそうだけど
NAIはダンボールで学習してるから嫌い、mimicは自分の画像だからOKって流れできてるよね
構図がすげえ限定されてるから TIベースの強制img2imgで似たようなことできると思う。というか出来る
mimicは環境が変わりすぎて今更再稼働したところでな……
mimicはGANじゃないの? StyleGAN2をAnimeFaceデータセットで学習させたのと似てる気がする
SDもGANだけどw SD1.4ベースではないだろうね
stable diffusionは名前の通りdiffusion modelというノイズがどうこうという学習モデルの改良版のlatent diffusion model使っているんじゃないの
>>67 俺もそんな感じだと思う。SD発表前から自前のを作ってたし
>>32 これってネガティブプロンプトに (A:1.3)とか書くと
Aを除去する効果が1.3倍になるってことでいいんかな
>>71 方向性としてはそう
ネガティブプロンプトに強調をつけると強めに除去する
(red) (hair)と(red hair)だと違う意味になる??
赤が画像全体にかかるか赤髪強調になるかぐらいの違い
>>73 旧仕様の1111なら、プロンプトのパース処理で '(' が出てきたらその時点でトークンの強度を1.1倍、 ')' が出てきたら1/1.1 みたいな処理になってたから、そのふたつに違いはないはず。
今のがどんな処理に変わってるのかはわかんね。
red hairにしても服とか背景にも影響するよな エリア限定する構文ないのかね
AM1111で{}使えてる? ()と{{}}が同じ効果のはずだけど()のが強い気がする
>>84 そもそも使えない
Automatic1111とNAIはカッコの使い方や倍率が違うのよ
NovelAIだと+~+で区切ると効果範囲を限定できるとか
記号は「+」でなくてもよく、限定する効果がより高まる記号もあるかもみたいな話だった
250 名前:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ 6988-P3uR)[sage] 投稿日:2022/11/05(土) 01:38:23.94 ID:ZK5ok5dV0 [1/9]
>> 229
技術部ディスコからの引用やけど
+shiny hage+ ←こんな感じで要素を意味のない記号で区切るとその要素が外に漏れない(っぽい
この場合「shinyがハゲにだけ掛かって他には影響を及ぼさない」(っぽい
これも引用やけど、「pixel」系の単語を背景と人物で切り離すのに成功した例
自分もある程度は試して効果実感しとるからwikiに書こうかと思っとるけど、もう少し検証したい
>>86 だからそれは単なる眉唾だと何度言えば
効果はまったく期待出来ないよ
+とか使わなくてもガチャれば出来るし
あくまでも確率の問題
確定じゃない情報をwikiとかに書かないで欲しいんだが
表情差分ってNovel AIだとどうやって生成するんですか?
>>91 んん、この環境作ったの21日だから、半ばじゃなく下旬やな……
ということは、ここ最近使ってた縦横サイズがたまたま黒帯出ない条件になってたってことか?
stable-diffusion-webuiで Aesthetic Gradients使ってptファイル取り入れようとしたんだけど AttributeError: 'dict' object has no attribute 'T' になってできません。どうすればいいのでしょうか?
DPM++ 2M Karrasが収束早くて使いやすいかなー
>>87 5%が10%になるならちょっと効果はありそうだけど
オリジナル魔法少女を生成するとして 魔法少女自体はともかく、おともの謎生物はどうやって指定すればいいのだろう
謎生物をTIしたので生成して貼り付けるか pixivから拾ってきたものをi2iしてフォトショで貼り付けろ
>>101 100%出ない奴は嘘だ載せるなって言ってるのは相手にしてなくていいと思う
AIの収束率上げる要素に使えないか?要検証っていう話なのに、違う次元の話をしてる
SNSやプロンプト公開してマネするなって言ってるアホと同レベルの技術阻害
dreambooth-gui精度カスだな 同オプションのshyvamと比べても
>>104 散々試した結果、効果が見られなかったんだよ
なんJでも散々言われている
効果はない、と
プロンプトは一文字違うだけでも結果は変わる
それで変わっただけなのを効果だと勘違いすることはよくあること
新しい発見をした、と思いたいのだろうけど残念ながらなんの効果もないよという話なんだよ
というか色んな記号でサンドイッチしてみようなんてのはSDが出てきた初期から試されていることだしホント今更のこと
そもそもそんな便利な方法があったら、とっくに中国で発見されてる
日本は何週も遅れてる
>>107 そのままでは使えない
NAI構文→AUTOMATIC1111であれば、AUTOMATIC1111の拡張機能でワンタッチ変換ボタンが追加できるよ
>>86 こんなんprompt全文公開しなきゃ追試もできないし情報としての価値はないに等しいね
そもそも実装にない記号勝手につけて効いた気がする!なんてオカルトにしか見えないから十分に検証されない限りwikiの類には書くべきではないだろ
まぁ要検証→検証結果として効果なかった、って結論ならそれを否定する方が技術的には不適切だわな
>>105 精度って望んだオブジェクトが出てくる確率のこと?
>>86 引用とかする前にまず試しなさいよ。
+1 girl and 1 boy+,+a girl blue hair+, +a boy blonde hair+
とでも入力してランダムで20回ぐらい試せばわかる。
男と女、どっちが青髪・金髪になることもある。
結論:+で括っても無意味
+自体は文脈的には分割より加算に動くのは分からんでもない もっと強いセパレータ記号見つかるといいけど
24枚生成で実験
1 girl and 1 boy+,a girl blue hair, a boy blonde hair
女青髪:11枚
+1 girl and 1 boy+,+a girl blue hair+, +a boy blonde hair+
女青髪:8枚
効果無しと判断するがねぇ
あ、スレに貼るときに+消し忘れがあったか(生成時は消してた) まあ皆試せるからいいか
正直なところコンマやピリオドですら隣同士で混ざるのに それ以上の効果を持った区切り方があるとは思えないというところでこういう話は全部眉唾で聞いてる コンマもそこで区切らないと別の意味の言葉や文になるって時に的確に入れるのが効き目高いぐらいで 意味もなくたくさん入れても分割効果は無いし
DPM-Solver++2M is the fastest solver currently.
https://github.com/LuChengTHU/dpm-solver#news らしい
新しいサンプラー群使おうとXYのサンプラーに「Euler a,Euler」とか入力したら 「エラー 俺はそんなサンプラー知らん」て表示された カンマで区切るんじゃなかったっけ??
自己解決した 最後にもカンマ付けてたわ サンプラー増やすのはええけど、i2iの画像の真下に「幅 高さ」スライダー設置してくれんかなぁ 前から思ってたけどなんであんな画像の全体が見えなくなるくらい遠くに置くんやろ 使わんサンプラー消しゃええがなって話ではあるけど
やっぱ思ってる人いたのか 適用されるといいけど もっといえば各項目の位置をカスタマイズ出来るようになれば最高やけど
むしろ日々の更新でAUTOMAちゃんが倒れないかが心配だわ
>>122 下までちゃんと見ないと、へんなscriptがオンになってて失敗するからさ……
カスタマイズ待つより自力でプラグイン作って公開した方が早そうだな、使う側も技術者なら OSS的には当たり前と言えば当たり前だけど
ワンクリックでui.pyに同じ変更を再現するバッチファイルが一番シンプルか
>>129 そう思っていた時期もあったw
automaticの実装の速さに何度心を折られたことか
ニッチな機能ならエクステンションで組み込むのが良いけどな
automatic1111ほんと早い dpm solverの存在を知った時には既に実装されててびっくりした
>>130 git stash
git pull
gitstash pop
で自動マージしてくれる
>>115 無のトークン数が増えるって話じゃなかった?
なんかこうカエルとネコを足して2で割るところを50くらいで割るみたいな
いかなる長さのトークンでも75トークンごとに分割して、分割されたプロンプトをひとかたまりと扱ってCLIPを実行して絵ができるというよりは 分割されたプロンプトの範囲で一つ一つのトークンごとにCLIPが実行され、その結果で絵ができる 75トークン目の単語は同分割範囲のプロンプトのことであれば認識できるが 76トークン目以降の単語はもはやその範囲のトークンではなく、どうたらこうたら CLIPってのが俺はなんなのかわからんが トークン数稼ぎに使える記号がいくつかあって それに+を使いたいかコンマ+空白を使いたいかっていうお好みの問題なんじゃないかと認識してる
ちなみに俺は2連続コンマを使ってる Ctrl+BSで一気に消せるから楽
docker版はk-diffusionとかが古くて新しいサンプラーが表示されなかった なかなか面倒臭い
うわめっちゃ誤訳したかもしれない やっぱおのおのの手段で翻訳して読んで
>>125 乗り乗りの時は意外と無茶が出来るもんだよ。みんなが飽きて来たらやばいかもね
++括り(意味なし)とコンマカンマ以外で何か区切り的に強そうなのってなんだろ
その区切り文字が単語かつ画像のオブジェクトを別々に説明する区切り記号として
用いられてるラベルが付いた画像が学習データに大量に存在しない限り意味ないだろう事を考えると
, や . 並みに英文上で普遍的に区切りとして使われてる記号は ' と " じゃないか?
>>144 大文字だと1111で使われてるプロンプト分割用の特殊文字なっちゃうぞ
※イメージしやすいようトークンを単語で置き換える (1girl、、、、、、)75単語(、、、、、green)75単語 で昔は区切って変換かけてたから、76単語以降は1~75と関係ない要素で生成してしまう事があった。しかも記載ルール的に76単語目の比重が大きくなる 今は(1girl、、、、、、、、、、、、、green)で変換かけている。語順、単語を繰り返す、単語に重みを記載するなどで表現の幅が広がった カンマで区切るまでの1文が長いほど計算には時間がかかる A B and C Dの記載は、A BandC Dになる。ユーザーが欲しい(AB) and (CD)にはならない。 ※ここ自信ない \n(改行)の記載はまた違った結果になる ※ここは、ごちゃごちゃ書いてたけど改行なのかスペースなのか良く読み取れなかった みたいに書いてあるから、正しい重みの表記をするか単語を繰り返す方が正解な気がする。本当かは知らんけど
電気ネズミは攻めすぎ
>写真は「Stable Diffusion」からAI Acceleratorを叩いているというデモだが、どうやってAI Acceleratorにアクセスしているのかまでの情報は明かされなかった。
https://ascii.jp/elem/000/004/111/4111884/2/ 絵を見せることより電気ネズミ呼ばわりのがヤバいやろ
>>147 ANDはプロンプトを分割してそれぞれ別々のconditionとしてサンプラー等に渡す1111の独自機能だろ?
上で話してる様な、プロンプトの単語が混ざりにくくする様な文字は無いかなぁ?
ってのとは全く別の話でしょ
+も,も使って理想の絵に収束させれば理屈なんてなんでもいいんや 中二病がつけたタグ連想と英語文法通りに動かないとかHyperやUltraがどっちが強いとかんなもの学習元抜きで語る話じゃないしな 馬鹿なこと言ってる間に1枚でも多く回して理想に近づく方がいいんやで
まぁ原理的に考えたらプロンプトを任意に区切る文字なんて無いと思うが、 NAIがCLIPの最終レイヤー無視したら色が混ざりにくくなったって言ってたみたいに 思わぬ方法が効果あるかも知れんから色々試してみるのは悪くないと思う
>>150 Radeon RX 7000シリーズで新規実装されたAIアクセラレーターだな
これでSDが動くのなら、Radeonにも希望が見えてきたか!?
RTX4090が24GBで1600ドル RX7090 XTXが24GBで1000ドル まあ9万円差で多少性能おちるくらいらしいからコスパいいRX7090が欲しいんだが AI画像生成に不向きなのがなぁ
TrainingLabのゴタゴタが早速GOLDMINEに纏められてて草 1111周りは面白い事が良く起きるな。今回は本人関係ないけど…
AI関連で使うならNVIDIAにしておけと。仮にStableDiffusionがRadeon対応したとしても関連するソフトや新しいソフトが出るたびに困るのが目に見えてる。
OSはWindowsを使うべきだしグラボはNVIDIAを選ぶべ
今は金ないなら306012GB あるなら4090が正解?
機械学習に関してはOSはUbuntuが安全牌 WSLgでWindowsでも殆ど問題なくなったがリアルUbuntuの方がトラブルは少ない
>>162 もう少しでRTX4070以下やRX7000シリーズが出そろうのと
3000の在庫膨大だから待ちが正解
機械学習用途ですぐ買わないといけないなら
24GBのRTX3090か16GBのRTX A4000が正解
4090の150Wケーブル問題ってもう大丈夫? 買っていい?
Sandy世代の古いPCに3060挿してAI専用機にするってできるかな? 一応PCI-Ex16スロットと物理スペースはある。OSもたぶんWin10にできる
AI需要を見込んだnvidiaがミドルスペ高vram出してくる可能性が
待ってると12GB版3060の在庫が減って8GBに切り替わって居ちゃうから今がいいタイミングだと思うよ
そもそもローカルで学習動かしたい人ってどれくらいいるんだろう
>>173 DB12GBで可能になったっ聞いたけど
>>165 変換ケーブルなしでつなげるように新しいコネクタに対応した電源も買うなら問題なさそうな話になってきてる。
>>173 ほんそれ
>>168 中途半端最低ラインの12GBでローカルなんて感じで買うと絶対に後悔する
今SSD128GBのメモリ4GBマシン買うくらい後悔する
ローカルでやりたいなら24GBがライン
そして出かけている間や寝ている間もフルで回すことになる機械学習では
RTX4090のコネクタ融解発火問題はかなりリスクある
なので今の選択肢としては
>>164 正直融解問題も毎世代あるお約束の初期不良みたいなもんだし気にせんでいいで、数万出荷して報告数20とかだし
3060ならまあ安いし12GBモデル貴重になりそうな感はあるし 4090待ちの間に買っといてもいいんじゃないのかはある 自分はそう自分を騙したぞ! 金がないからな!
>>179 えぇ……
結構最近の話でこわい
自分ズボラでメンテとかせずグラボ酷使するタイプの人間だからもうちょい様子見るわ
3090Ti使ってるけど、ローカル学習の沼にハマると24GBでも全然足りない青天井だから…
学習ってそんな頻繁にやる? たまにしかやらないならColabプレミアムでやれば別に高性能グラボいらんとちゃうん
>>169 中間選挙の結果で日米で金利差がどうなるか分からん
為替変動を見て数カ月待っても良いと思う
今すぐほしいとか言う人は知らん
>>163 元々機械学習はLinuxのほうが圧倒的に環境充実してて
Windowsでもある程度動かせるようになってきたのは最近の話だからな
dreamboothって複数概念覚えさせるととたんにクオリティ落ちない? 画像各40枚で対象1つと対象3つの学習結果比較したら 一つの事覚えさせた方がクオリティ高かった 対象3つの場合モデル3つそれぞれ作った方がよかった いろいろ実験した結果 step数は画像1枚につき100stepぐらいがよさげ step増やせばいいってもんでもないのが不思議
>>187 わかる、だから人物とかなら、t2iは複数概念モデルでだしてから、1人ずつ単独モデルでi2iしてブラッシュアップさせるとかもありだと思うわ
>>188 その方法いいね今度試してみよ
自分の場合人力img2imgしてるw
元々ずっと絵描いてて学習データ大量にあったから自キャラ学習させてヘブン状態
革命が起こったわ
現状AIイラストって技術屋とプロンプターと絵描きの三種のスキルがクオリティに影響するけど、
このスレ居るぐらい技術の素養もあって絵も描けたら最強だな
>>189 ちなみに「どの部分は学習(db)で、どの部分はプロンプトで、どの部分は手描きで直すと一番良い」
みたいな最適手法とかってもうあったりする?
技術屋実質プロンプターだけど 絵は全く別の方向の力だよなあ うらやましい
「貴様! どんな呪文でこのイラストを召喚した!?」 「何って……描いただけだが?」
何ィ!?i2iに自分の絵を食わせてネガティブにLow Qualityだとぉ!!? プライドは無いのか貴様!!!
結局のところ注文する側に絵描きと共通するスキルが必要なところからは逃れられないんだよな 素材はあるからポスター作ってって素人にやらせてもセンスあるものができないようにさ
イラスト描きに依頼したりするときに イメージに乖離が生まれにくい 目的に近いものができるまで生成しまくって それを持って打ち合わせしてこうしたいこうしたいすればつめやすい 素人の自分が打ち合わせするときに一番やっかいなのはあたりのイメージを伝えられないことだから
技術屋としては絵で食って人と話す機会も多いけど、細部の観察力や再現性のこだわりや精度の次元が全く違うからなぁと思うことは多い 1枚絵で何を表現しているかとか、何を伝えたいかとか、人がものを描く場合配置から何からすべてのオブジェクトに理由や意味がある そこには物語があって、描いている人間にも過程と苦悩と満足感がある。クライアントになんでここにと聞かれてもすべて答えられる程度には。特に外資は突っ込みが厳しいから明確に答えられなくともあいまいな返答すると仕事は取れないとも いずれAIも奥行きや構図を理解して犬の目線や鳥の目線だったり人とは違う目線でも違和感がない絵が描けるようになってほしいとは言ってたね 子供が描く突拍子もない絵も子供が描くから親には意味があるわけだし きれいだねうまいねって言われてるうちは人の領分には入ってこれないって 漫画の背景マンやトレス主体のアシスタントは仕事が楽になるだろとも言ってた 料理人同士の素材の仕入れや厳選とかこだわり味付けや仕込みの会話についていけないような 男の料理!スーパーの素材で、まずくなくて太らなければそれでいいよ!と思ってる自炊の話なんてできやしないわな
まぁ自炊なら自炊で使い道もあるけど、それはビジネススレ向きの話題だからな このスレだと「技術的にどうやるか」がテーマになるか まぁそれは開発側レベルの試行錯誤になるから使う側の技術者ができることは多くないかもしれないが…… ただ、「奥行き」「構図」「オブジェクト」「それぞれの意図」とかのデザイン観点の候補を一覧化して、 エディタに搭載することでプロンプトコーディング時に候補表示とかはできるよな? 『絵描きの視点』を基本的な範囲だけでも搭載・網羅したIDEもどきが作れれば 技術的なアプローチからプロンプターの平均水準を引き上げられるんじゃないか
Wikiに既存のブラウザ拡張とかNovelAI Managerは「観点」のサポートはしてないから、
最低限「イラストレーター・デザイナーが考慮する基本観点一覧」の入力ボックスとかプルダウンとか
作るだけでもエディタとしての質はかなり上がりそう
https://seesaawiki.jp/nai_ch/d/%a4%aa%a4%b9%a4%b9%a4%e1%a5%c4%a1%bc%a5%eb%a1%a6%a5%ea%a5%f3%a5%af%bd%b8 やまかず @Yamkaz (2022/11/08 10:58:23)
言葉と塗りで意図した画像を生成
NVIDIAの画像生成AI「eDiffi」と一緒に提案されていた技術のStableDiffusion実装が公開されてる
https://github.com/cloneofsimo/paint-with-words-sd https://ohayua.cyou/tweet/1589799463430008832/Yamkaz [引用元] AK @_akhaliq (2022/11/07 08:11:58)
Unofficial Implementation of Paint-with-words, method from eDiffi that let you generate image from text-labeled segmentation map
github:
https://github.com/cloneofsimo/paint-with-words-sd https://ohayua.cyou/tweet/1589395194348474369/_akhaliq DBで服は学習させずに髪型だけ学習させることできるんだろうか? 言語化しにくい変わった髪型のキャラを再現したいけど、服は普通にNAIに任せるってことをしたい
>>201 興味深くて動かしたらSD1.4のモデルしか無理って言われたわ
任意のモデル可でWebUI実装されたら起こしてくれ
>>202 顔だけクロップして学習するとか
>>202 それは髪型だけを覚えさせるデータセットを作ればいい
512x512で〇〇hairって書かれた髪の毛部分の画像を覚えさせればいいんじゃない?
もしくはキャラを覚えさせて、i2i時にモデルを変更して、任意の服を指定すればいい
髪だけ塗ってモデル変える? それじゃないってことだもんなあ
>>202 基本的にキャラ覚えさせたら髪型も一緒に覚える訳だし、
髪型のみを別のキャラに移転させたいのでも無ければ、
普通にキャラ自体を学習すればいいんじゃないの?
>>206 服装は元のキャラとは別に自由に変えたいんだ
服込みで学習すると、服や構図がかなり制限されてしまうから
>>209 学習後に大元のckptでマージして割ってやると
キャラを維持したままそれなりに服とか構図とかの自由度を得られるよ
程度問題ではあるけど
>>190 求めるものによるかなあ
趣味で使う分には自分で描いたやつが一番いい
自己満の世界なので
自分の場合ラフ描くの苦手で仕上げ工程が得意だから
アイデアいっぱい出すのにはAIめちゃ使える
あと自分で描いてて描くのムズいなって思ったもの生成しようとすると
(斜め後ろから俯瞰気味で斧振り下ろしたマッチョ体型の獣人)
AIでも生成できんくて他の人も苦戦して描くの避けてるような構図は
学習データが圧倒的に不足してて描けないみたい
仕事で使うならもうAIで出したやつ手直しするぐらいで十分だと思う
他人からみたらわからんだろし
自動車系でデザイナーしてたことあったんだけど
仕事の進め方として一人じゃ仕事さばけないから
デザイン事務所にレンダ外注して出てきたものを手直しして会議にかけるっていう方法が業界のスタンダートだったんだけど
デザイン事務所はもうこれからきついと思う
デザイン事務所に外注してもあんまりズバリのものでてくることなくて
結局自分で手直ししてるのでそれならAIで大量に生成した中から自分でチョイスしたほうがいいだろし外注費も浮く
今はまだ発注する側のデザイナーは必要かもね
こっちもいずれ時間の問題だとは思うけど
イラストレーター業界はしらんけど多分業界構造は同じだと思う
>>209 その目的だと頭と顔だけ学習させてinpaintが現実的かもなぁ
身体なしで学習させた場合、身体アリの絵を一発でだすと顔が似てなかったりするし
AI画像コンテストのシトラスって人票操作してるのに何故叩かれないのか 前日よりクオリティ高い絵で100票減ってるって頭おかしいだろ 明らかにランキング1位に追従してる
コンテスト最後の5分で今4位の奴の票も30票くらい増えてて草 一応国内最大規模のAIイラストコンテストって謳ってるのに不法まかり通っててええんか?
もう言ってるから書き込んでんだよなぁ…… シトラスより𝐒𝐮𝐢 𝐒𝐇𝐎𝐑𝐘𝐔𝐉𝐈って奴のがヤバかったわ 国内でまともなAIイラストコンテストが実施されるのはいつになるのやら
AI絵自体がいかに悪い事するかを嬉々として競い合ってるような界隈なんだし まともなコンテストなんて成立する訳がない
1ステップにめちゃくちゃ時間かかるサンプラーのDPM adaptiveってどういう代物? ステップ数で絵柄も変わるしこれだけ異色の能力すぎ 他のサンプラーの数十ステップを1ステップに込めてます!て感じ
鯖上の票操作がわかる凄腕のハッカーなんだからむしろ技術スレ向きじゃね
やっと3080買ったからプロンプト勢から卒業して学習に手をだそうと思うんだが、学習は細かい箇所の補完に向いてるて認識でいい? NAIで大元つくって、手や装飾とかをinpaintで修正て形になるてことだよね
自前でGPU買わずともコラボラトリーなりでうん十GBのスーパーグラボ借りればよくない?
>>224 これグラフのところがバグってるね
そのせいで余計に遅く感じる
『ModuleNotFoundError: No module named 'jsonmerge'』 webui-user.batを実行した後、一生このエラーに悩まされてる。 PowerShellで pip uninstall jsonmerge pip install jsonmerge==1.8.0(pip install jsonmergeも試した) を実行しても上手くいかなかった。 調べたら同じ現象に悩まされてる海外ニキも居た。 誰か解決策わからん…?
>>229 googleに怒られそうなもん学習させてるんだろ
そこでcolab出てくるのか なんか制限きつくなってなかったあれ
なんだっけpipのインストール先もローカルとそうじゃないインストールがあって両方チェックして消してからやると治る事はある
novelAIは顔がハンコやね少なくともパッと見でわかるわ
DB環境作ろうとしてた時にvenvからpipでパッケージ更新かけようとすると システム側のパッケージで依存関係うんぬんかんぬんで面倒なことになったので よくわかってない頃適当にvenvの外で色々突っ込んでたパッケージ全削除してvenvの中だけで全部やるようにしたら解決した 単にターミナル開いてpip listで表示されるやつ全部uninstall(pipそのものは残しとく) 何かしら追加インストールする時はwebui等のvenv/Scripts/activate.bat(ps1)叩いてからやる
>>235 分かるといえば分かるだろうけれどハンコというほど同じでもなく
うん、依存関係でおかしくなること多いっぽいからvenvの中でできることはその方がいい
>>231 全部消して最初からやり直したほうが簡単
>>228 補完というか、AIが知らないキャラとか概念を覚えさせるのが学習
簡単にプロンプトで呼び出せるならすでに学習済みということ
>>236 この方法でいけたわ。
マジで詰んでたから助かった…ありがとな!
>>235 デフォで出力したりmasterpiececeで顔を出すと見慣れたAI顔になりやすいから
慣れてきたらみんな好みのを簡易学習させたり合わせてマージしたり作家や作品の名前で変えたりやってると思う
>>244 様子見
実写系が強化されたように見えるから、使い道がある人にとっては強そう
ああ自分でdiscord見りゃいんだ・・サブスク止めてもROMは可能だった --v 4って入れてるの見ると確かにかなりいいように見える
1111版WebUIにDreamBoothが実装されたのも結構な大ニュースだと思ったのに スレでは話題にならなかったな。ワッチョイのせいか、かなり人が減った気がする
>>241 なるほどね
そうだと、今プロンプトで呼べるもののクオリティを上げるには一工夫いるてことよな
とりあえず、色々試してみるわ
>>240 そうそう
Extensionをアンインストールしたくてフォルダを削除したら起動しなくなったので、今日も別フォルダに再インストールしたよ
modelsやoutputフォルダなどは最初から別の場所に置いてあって、シンボリックリンクを旧フォルダから新フォルダへ移動するだけですむようにしてる
モデルデータは容量が大きいから、1つのフォルダにまとめておければ節約にもなる
>>248 イラストAI関連スレはアンチスレまで含めて全部勢い落ちてるよ
そもそも今できることは大体やり尽くしたし、予想されてた流れでもある
趣味勢はよほどモチベ高い層だけが残って、仕事で使う勢もまだ実用は無理
だから残った層も個人やdiscordで研究続けつつ実用レベルになる次の大きな変化を待ってる
今後も何度か段階的に波があって広まっていくんじゃないかな
>>237 それはrealistic入れるかどうかで、それをハンコとみんな言ってるわけで…
マスピ顔以外っていえばほとんどrealistic顔じゃん
追加学習情報についてどんどん世界に置いて行かれてるわ
中華モデルのAnything-V3.0はNAIの再学習だけど
https://rentry.org/sdmodels#anything-v30-38c1ebe3-1a7df6b8-6569e224 韓国HN使ったくらいになれば別顔だとは思う
https://arca.live/b/hypernetworks/60940948 eDiffi対応になればSDベースのSingleSamplerの旧学習モデルでのガチャがばかばかしくなるわけだし
今頑張ってもしたかがないのはわかるけどな
韓国HNってのも国内で見た覚えがある範囲だしね 世界全部含めても今は停滞ターン
>>251 学習に関してはまだまだ未知の領域で手探り状態だと思うけどな
開発者すらもよくわかってないから
DreamBoothのText Encoder学習できてない問題とかあったわけでしょ
>>248 webUIのDBは15GBだと設定弄ってもOOM+エラー出てみんな詰んでるので使えなかった
対策待ち
クラスイメージ回り使いやすくて便利そうなんだけどなぁ
>>254 勢いが出るのは毎日毎時新しい発見がある時で、じっくり手探りしてる間は自然と勢いは落ちるからな
>>252 これ、片方はrealistic入れていないよ
>>257 NovelAIのAdd Quality Tagのチェック外して、UCもデフォルト外してNoneにして
masterpiece,{{best quality}},{{ultra detailed}}{{disheveled hair}},detailed light,dispersion light,caustics,a girl
UC:
lowres, bad anatomy, bad hands, missing fingers, extra digit, fewer digits, cropped, signature, watermark, username, blurry,missing fingers,bad hands,missing arms
Seed:4214832537
Steps:50,Scale:11
NovelAIは顔がハンコ、ではなくNovelAIで生成されたキャラはマスピ顔が人気なので結果として同じ顔ばかり生成されてる、が正解 色んな絵柄を試してる人は多いけど結局エロばかりが目立ってるイメージ
マスピに元素法典UC足すぐらいが結局到達点というか HNも結局元ネタ絵師の劣化版だし、それならマスピ系列の方がね
まだ始まったばかりだし用途によって追加学習をするのがAIを使いこなすのに重要そうというのは同感だけれどもマスピ顔が多いのはNovelAIの特性と言うよりは
>>259 の言う通りじゃないかと。
midjourneyもv3でa beautiful girlとだけ指定するといかにも人種混ぜたようなユーザーがよく見る美人顔というのが生成される。
stable diffusionでは同じようにならないからmidjourneyの開発者が調整した美人顔と思われる
初音ミクとキャプテンアメリカの合成で欠けているようなのあるから修正無しだと思う
midjourneyはSDやNAIとはまた別路線で強いなぁ
SDで実装出来るものなら1111取り込まれる可能性はあるな eDiffiのpaint with wordstと共に実装してくれる事を願うしかないな
昔流行ったモーフィングとアウトプットがあんま変わらん。 これで喜ぶのはケモナーか絵心ゼロのヘタコぐらいだろ マツダの車はこれでデザインしてたのかって思ったわ
これが単なるフレーム補間に見えちゃうならそうなんだろうな…
Anything3.0の絵だなーって絵がめちゃくちゃ増えたね NAIと違ってこっちは落としたローカル勢しか使えないからこんなにモラルに欠けた連中が多かったのかとびっくりしている(A30使いながら)
NAIモデルは黙ってりゃ公式と区別つかなかったからな
DBで学習させる時って素材は透過背景でキャラだけにした方が良い?
じゃんぱらにA6000っていうvram48GBのボード売ってた ローカルの学習環境としては最高峰だろうな 40万円…
キャラや画風の再現に40万払えますか? って結構な勇気が試される
4xA100のPCとか売ってるサイトあったけど あれいくらするんだろ 1000万?
マスピ顔は6桁人気絵師の絵柄を合成したウケ絵柄の最大公約数みたいなもんだからな 人間を装う気がないのなら結局一番人気出るのでそればっか生成される
初期のyoutubeだってニコニコだって違法動画だらけだったけど気にせず見ていたわけだし、リークだろうと改造NAIだろうと今はカオスを楽しんだもん勝ちだわな いずれは全て整備されてしまうよ
masterpieceとは一体どんな絵師なんだろう
法人用ワークステーションとかでしょ たぶん個人は買えない
>>274 jpegに変換されるから関係ないよ
勝手に変換されるから透過のところが黒になったりしたかも
>>272 NAIはリークだったけど
Anythingは元素なんとかのチームがファインチューニングしたらしい
リークしたモデルをファインチューニングにしたらリークじゃなくなるんじゃね?
今の高速化されたStableDiffusionなら1000万円あれば1からモデルを作れるってさ 中国マネーを考えたら1から作ったとしてもおかしくないし 改造だとしたらNAIが元になってるか判別するのは不可能 何が言いたいかというとリークじゃなければAnythingは合法じゃね? 隠れる必要もない
Danbooruはよく知らんが売ってる同人誌の無断転載があったんだろ? 違法なものを学習させたモデルが合法だとするなら 違法にリークしたものを学習させたモデルは合法じゃね? この辺の見解を著作権に詳しい人に聞きたいね Anythingがファインチューニングされたものなら合法だと俺は思うよ
ローカルでバレずに使うんじゃなくて 名前出して堂々と使うって意味な😅
別にいいだろ 版権エロ同人で荒稼ぎしてる連中も堂々としてんじゃん あいつらが著作権とか言い出すのちゃんちゃらおかしいのよね
ワッチョイ便利だな 今名前出してAnythingに言及してる人そんなにいないんだよ ちゃんと1から説明する?
まあ俺の見解だとファインチューニングされたAnythingは合法だからな これから全員これを使ってくれ
anythingとリークの違いってどんな部分がある? 改良されてるの?
>>297 NAIと比べて
背景に強くなった
彩度が低くなった
中国人好みになった
聞いた話だがこれくらい
NovelAIが本当にstable diffusionを俺らがやるようにただファインチューニングしただけなのか ベースにしただけで建て付け?から色々変えたのかが肝では そんなん俺らからはわからんが
https://topcourt-law.com/ai-iot/learned-model-copyright でいうところのパラメータ部分は別物になってるわけだから
NovelAIに独自の著作権が認められるだけの「プログラム部分」があるかどうかでしょ
>>300 NAIはSD本家と繋がってる以上、内部データまで見た上でモデル作ってるはずだから色々違うんじゃない
NAIのブログで全部言ってるぞ VAEをあとから読み込み hypernetwork 学習させる画像の加工方法 CLIPの2段目 全部公開されてるしAUTOMATIC1111に取り入れられた 現状何も違いはないよ
Anythingが元素法典作ってるところがファインチューニングにしてるかどうか これさえはっきりすれば本名出して堂々と使っても何も問題ない
anythingってなんだ? どっから生成物見れる?
無断転載だからダメって流れなら金出して買ったCG集なら学習させ放題になるぞ
そのへんは違法DL厳罰化みたく、あとからやっぱ駄目ですになる可能性あるしなぁ 遡及はされなくても規制後に使うのはアウトでしょ
違法DLしたデータでもAI通せば合法ならハッキングで盗んだデータもAI通せば合法だよな? って先月言ってた奴がいたけどそれが早くも実現する悪党たちのフットワークの軽さよ
現状リークNAIを使って逮捕されることはNAI そもそもリークしたやつが逮捕されてNAIし公式も見守る姿勢を崩さNAI 法律の問題はさておき、罰がNAIなら気にしNAI 同じ理由でNHKにも金は払わNAI
>>289 NAIの技術を応用したやつがこれからも出るけど
どこまでリーク扱いしたらいいのかわからん
総合スレみたいになって来たな
何か過疎ってるんで盛り上げてケロ
【Midjourney】AI関連総合18【StableDiffusion】
http://2chb.net/r/cg/1668016418/ >>301 NovelAIの独自部分というのがパクリの集合体じゃないの?
パクリパクられしてここまで発展してきたわけだし
anyなんとかってNAIみたいに直接的なエロ生成できるんけ?
anythingは背景の描き込みが緻密で、デフォでマスピ補正と人体の破綻阻止の補正がかかってる感じ DPM++の20stepでも安定して良絵を量産してくれるから速くて快適。学習したHNも流用できて言うことなし この辺りはエロスレよりふたばが詳しく検証してるはず
>>289 言われてみればどんどん素のモデル要素が薄まっていくものな
なんかもうバレなきゃセーフみたいなもんでいいんかね
混ぜすぎたらもうわかんないしそれオリジナルじゃね?っていう
さらにマージで混ぜ混ぜすれば世界にひとつだけの君専用のモデルが!というのが最近のトレンドらしい
https://rentry.co/LFTBL 画像生成の環境整える前にグラフィックドライバーも更新しておきたいてす、誰か助言ください… 画像生成用にドライバ更新したいのですがGeForce Experienceで確認するとgame readyドライバ、studioドライバの二種類あって… 画像生成の用途だとstudioドライバを選択した方がいいですか…?
>>274 GB、白抜き、普通背景をデータセットに各種入れといたほうがいいんじゃない
俺はそうしてる
違法性の話と著作権法の話がごっちゃになっとる 「AIへの学習目的での利用は著作権法では保護されない」というのと 「モデルリークが不正アクセス禁止法や不正競争防止法に抵触したり、損害賠償が通る可能性がある」というのは両立するぞ
んなもん自己責任だしどうでもいい 誰かが法を犯していようと自分に迷惑がかかるわけでもないなら気にしない
>>324 分かんなかったらgame
ゲームを全くやらないならstudioでもいいけど、あなたにメリットがあるかは不明
自分はblenderダヴィンチ使うからstudio使ってるけど、はっきり理由を説明できないなら基本的にgameでいいよ
世の中の95%以上の人はgame使ってるだろうしそれで問題になることは基本的にない
>>327 過疎気味だからほっといてたけど、技術関係ない話は総合スレかイラストレーター板かビジネススレか、とにかくよそでどうぞ
スレチだし見飽きた話題
>>329 ドライバの違いで速度とか変わるの?
色の厳密さとか?
Anyは特に工夫しなくてもNAIより高密度できれいな絵が出るかわりに、抽象表現の絵作りはNAIよりやりづらくなった感じはする waifu1.2から1.3になったような安定化・収束傾向なので、気に入らない人もいるだろうな
anyでエロが出にくくなったって言ってる人もいたし性癖によっては駄目そう
>>331 むっちゃ最適化されてるゲームで数フレーム変わるかもしれないみたいな感じじゃないか
あんま検証してる人見たことないけど
studioは一応精度とか安定性が高いってことになってるから
絶対ソフトが落ちたら嫌なクリエイターとかyoutuberならこっちだと思う
ただ基本的に微差。ゲフォはどちらでも最高の体験ができますって言ってる
特定のCG関係のソフトはわかりやすくパフォーマンスの差が出るらしいけど、少なくとも絵や色のクオリティに差が出るって類のものじゃないから気にすることはないかと
anyはただの立ち絵でもやたらとカーテシーみたいにスカートつまみたがるのは、あちらの好みなんやろか
>>334 >>335 ありがと、やっぱりそんなもんか
anythingとTAとWDとNA混ぜこぜにしたらへんなのになるかなあ いいとこ取りでうまいことできたらおもろいんだがなあ
そのうち混ぜないで複数のモデルをハシゴして画像を生成する技術が出たりしてな メモリめっちゃ食いそうだけど
1ステップ毎に別モデルで回すのはちょっと工夫すればすぐできそう
>>340 処理が死ぬほど遅くなってもよければわりとできそうだな
もしくはVRAMをアホほど食うか
それで良い結果になるかは分からないけど
とりあえず気に入ったまぜまぜができたからこれで遊ぼう anything混ぜると、塗り?色?がすごい引っ張られるなあ なんでだ?
都合3つのエキスパート拡散モデル使うのがediffiらしいよ。 VRAMは増えるけど、実行速度は増えない
Hugging Face に anything が複数箇所アップされてるのねw
実写系の野良モデルはあんま出てこないのかな redditで見かけた手が完璧に描けるとかいう(描けてない)モデルくらいしか知らん
ANYは直接的なあれが出にくくなってるのかな とりあえずNAと合体させれば問題なさそうだけど
>>350 エロだけどzeipherとか有名どころがあるじゃん
正常位増し増しミックスとか体位別になってたり
anythingとgapeを8:2で混ぜたのがいい感じ
gapeは味の素的な悪魔の調味料だよなぁ それだけじゃ役に立たんくせに、どこに入れても隠し味になる(笑)
Hypernetの内部に記録されるファイル名?って後から変更できない?… 初期に001って名前で作ったら画像コメント欄に記入されるファイル名が 001-500.ptも001-1000.ptも全部001って名前で記録されてしまって どれがどのptを使ったのか全然わからない…
へーと思ってGoldmineのgapeページ見に行ったら草が生えた なんであれが隠し味になるんだよ
>>357 マージモデルの話してるのに大丈夫か?
翻訳で英単語調べて反映できないとか言ってるおつむよりやばい発想だ
AnyでもGapeでもワード単体で再現出来る kafuu_chino がsumすると再現できなくなる… 仕組みをいまいちわかってないわ
そのぎゃっぷりゃとか言うのはどう言うモデルなんだろ
>>358 なんであれが隠し味になるんだよwwww
って書いた方が良かった?
きれーな絵が出るAnything3.0とガバマンガバケツのサンプルまみれのあのページ見てウェイト0.1でもあれを混ぜていい感じになるとか想像できねえだろ
waifuにAnythingを半分混ぜただけでもほぼ判子絵になるんだけど
>>0326 >>0329 結局クリエイティブの方を選択してみました ゲームをやる予定はなかったので書き込みを見て安心できました 遅れてしまいましたが、ありがとうございました…!
そのままの絵が表示されるわけでなしポーズの元ネタになれば意味があるわな img2imgだって落書きでも役に立つ
1を基準に アナルの広がり0.1のチェックポイントとgapeみたいな締まり10のチェックポイントを9:1くらいでマージしたら [:spread anus:0.2]がアナルの広がり1くらいになるかもしれないってことでいいのか そんな直観的なもんなの?マージって
✕gapeみたいな締まり10 ○gapeみたいな広がり10
特徴を足してもチノちゃんにならん… でもanyの綺麗だけど強制中華NGみたいなのが緩和されて亜種としていい感じではある
元絵の頭部だけDBで学習したキャラに差し替えたい場合 Automatic1111でi2iを使ってやるのがベストなんだろうか? Inpaint使ってもうまく行かないし...
>>372 頭部を正方形に切り出して512x512にリサイズ、モデル差し替えてi2iして、出来たのを元のサイズに戻して上書き。
GIMP使えばレイヤー使って余計な部分削ったりできるので上書きが楽っすよ。
DBで出力した顔で雑コラ作ってi2iで修正させればおk
そのあと強度弱めで全体をもう一度i2iしてやると、上書き部分が馴染むのでなお良しです。
強めのi2iすると顔とか指先とか変わって欲しくないところも変わらない? マスクすると境目が歪むし
>>376 マスクにブラーかけるか、歪んだ後ノイズ薄めでi2iかけて歪んだ部分をごまかせばいいんじゃない
新しいプロンプト試すときって1枚目に奇跡の一枚が来て その後は微妙ってこと妙に多くないか?偶然なんだろうけどあまりに多すぎてな
automatic1111は仕様なのかバグなのか、プロンプトを変更した時、最初の数枚だけ前回のプロンプトの影響を受けてるような挙動をするのは結構言われてるな 念のため必ず10連するようにしてるわ
DBで顔だけ覚えさせるときは5枚位で左右それぞれの向きにすればいい?
Midjourney v4の出力画像でSD 1.5をトレーニングしたモデル、その名もMidjourney V4 Diffusion!
https://huggingface.co/prompthero/midjourney-v4-diffusion もうめちゃくちゃだよ
まあ、同じseedで後でやり直して同じ結果になる以上、だったら1111にはプロンプト変更前と似た雰囲気の絵を出すseedを選別する機能があるかっていうとそんなわけないので。
それはさておき、傾向掴むのに10回くらい回す必要があるのは、それはそう。
同じプロンプトでこの二つが出てきたりするもんな……
わかる モデル毎の比較とかサンプラーの比較とかいっぱいあるけど その比較画像シード値変えていっぱい欲しいわ
>>381 midjourneyはもはや画風を売りにしてないね
SDに(今のところ)ない新しい機能をいち早く付けて、それが強みになってる
全部リークされたりしない限りは上手いこと住み分けられるんじゃないかな
>>381 随分前に話してた「AIがAI絵を学習し出したらどうなるんだろ?」がもう実現したのか
質問です yamlファイルってNAIはリークされてるから手に入りますけど それ以外のモデル、Anything-V3.0とかを使う場合はどうすればいいんでしょうか? NAIの使っても構わないのか、そもそもいらないのか…
DBで顔じゃない部位のアップ絵ばかり学習させたら人体がノイズだらけになった…
>>378 xformarsのせいっていう説が出てるな。novelAIでやってても顕著。てか3枚目以降Prompt無視してくる
新モデルやらマージやらで気付くと100GBぐらい平気で使ってる 整理せんとなぁ。。。
Midjourneyとの技術差が広がりつつある気がするけど、SD巻き返せるかな。PhotoshopとGIMPみたいな関係になったら悲しい
向いてる(技能的に)方向が違うくない? 写実的で説得力のあるイラストがお手軽にって点ではMJに軍牌が上がるけど SDはAE並に拡張されまくっててこれはこれでどえらい事になってる
そもそもEmadって技術の独占が許せないからオープンソースにするわ的なスタンスだった気がする
SDは後出しでいいからどんどんパクッてばら撒いてほしいね
XYのチェックポイント比較、ファイル名を改行とか出来んのかな マージckptて名前が長くなりがちだから隣のファイル名と被って何が何なのか全然判読出来ん 縦にしたら横の画像にまで文字が入ってしまうし
>>399 設定画面でフォント指定できそうなので、すごく幅が狭いフォント使えばマシになるのかな
容量1TB空けたから無敵すぎる モデルマージ楽しい
>>401 マージで遊んでるとあっという間に数100ギガいくよ
めっちゃSSDの寿命削ると思うがやめられん
画像よりモデルの管理が課題になってくるよな 倉庫用に大容量外付けHDD買ったけど書き込み時間クソほどかかる
気付いたらvaeの指定がsettingsで出来るようになってたし作者ほんと気が利くなぁ
>>404 そしてQuicksetting list にsd_model_checkpoint,sd_vae
を追加しておくんだぞ
>>356 最新の1111版で最近同じ絵を出力しようとしても違う絵が出る理由が解って安心した
パーティション切るときにCドライブは容量最小限にして基本Dドライブにしてたら pythonがCドライブでしか動かんから容量カツカツでマジ苦しんでる Cドライブ以外で動かす方法ってないのものか
A1111ならStable-Diffusionのフォルダにvenvっていうフォルダが多分あって その中のpython使えばって言おうと思ったけどもしかしてそういう話じゃないかもしれない
>>410 だな
CLIP いんてろげーたー(スペル覚えてない)はCLIP的にプロンプトを解析
DeepDanbooru いんてろげーたーはDanbooruタグ的にプロンプトを解析するもので
同じ絵が出来ない理由はxformersにあるって聞いたことがある
何故かは知らない
Dの中身待避してパーティション再編後に戻せばいいだけでは
>>412 だいぶ前に生成した絵が同じプロンプトや設定にしているのに出ないっていうのは、
setting に Sampler parameters が出来てからじゃなかったかなという記憶
xformersはなんかはしょって高速化してるらしく、毎回生成が微妙に変わる
それもあってか、学習時に有効にしていると学習結果がおかしくなるらしい
>>407 Python全部アンインスコしてこれでやってみ
全て込みでひとつのフォルダで構築できる
https://note.com/uunin/n/n715256399038 あとpython関係のキャッシュも全部消してgitもアンインストールして、windows内のpipも全部消せばかなりCドライブ空けられるはず
>>404 学習モデル毎にvaeをコピーする必要が無くなったってこと?
>>418 モデル選択みたいにフォルダに入っているvaeを選べる様になってる
どうせならvaeとclipはsettingsでは無くてモデルの下に置いて欲しい感があるけど、画面が混んできてるから仕方ないか
>>419 神アプデじゃん
10GB分ぐらい空くわ
何考えて世に出したんだろな オナ猿しか喜んでねぇじゃん
>>419 だから
>>405 をやるんだってばよ
モデルとvaeがトップ画面にくるってばよ
CLIPも持ってきたいなら
sd_model_checkpoint,sd_vae,CLIP_stop_at_last_layers
だってばよ
他の項目を足したい時はconfig.jsonの中身をメモ帳で開けば、各設定の名前がわかるってばよ
>>421 何考えてそれ書き込んだんだろうな
なんて言って欲しいのかな
>>422 そういう事なのか
家に帰ったらやってみるサンクス
AnythingでDBやるとどうなるだろう 今以上にプロンプト無視しだすのかな
Anything-v3.0.ckpt 7.94gb WindowsDefenderでトロイの木馬検出されるんだけど大丈夫なのかな? 誤検出?
hugging faceで公式DLできるんならAnything v3に手を出そうかと思ったけど 誤検出だろうが検出されるなら手出しにくいな・・・
ワイのは、Anything-v3.0.ckpt 7,523,104KB ウィルス対策ソフトはNOD32だけど検出しないよ
virustotalにでも投げてみたら MSは誤検出も多いし特定の勢力に都合の悪いファイルを意図的にウイルス扱いしてくることもあるから
リーク落とすためにトレント入れたら対策ソフト全部文句言ってきてわろた
EmbeddingのNumber of vectors per tokenってどれくらいがいいとかありますかね みんなHNかDBやってて情報がない
https://huggingface.co/Linaqruf/anything-v3.0/tree/main ここからダウロードできるファイル
virustotalみてみたけど650mbまでしかファイルアップロードできないみたい
7.94GBなん? うちのは7.17 GB (7,703,657,858 バイト)だわ PS D:\stable-diffusion-webui\models\Stable-diffusion> certutil -hashfile Anything-V3.0.ckpt SHA1 ハッシュ (対象 Anything-V3.0.ckpt): 42190820033b9aa7cfd4a27367e079e3d43a55f0 CertUtil: -hashfile コマンドは正常に完了しました。
ごめん間違えた7.17gb (7,703,657,858 バイト)だった ウイルス検出されない?問題ないかな?
>>433 普通の複雑度のキャラなら10で良い。
良いというのは絶対に十分ということで、実際は8とかそこらでも足りる。
昨日今日でメイドインアビスの「レグ」「ナナチ」「リコ」で二次創作作ったけど、
「リコ」が10→Riko
「ナナチ」が10と15の2モデル→NanachiOld, Nanachi
「レグ」が10→Regu
「レグの頭だけ」が10→ReguFace
「必ず3人が揃って写った画像」を15→MIAall
「1人か2人か3人のいずれかが写った画像」を20→MIAstyle
[MIAall|MIAstyle], [Regu|ReguFace], [NanachiOld|Nanachi], Riko
合計10×4+15×2+20=90で作ったのがこれ
正直超過剰だったと思う
それぞれ数十万ステップ回したけど安定仕切ったとは言えない
実際はナナチくらい複雑でも10で十分表現できる
>>437 いつの間にか特定の複数人構図に入るようになったのか
凄いな
>>437 こういうことやりたいならembeddingしかないのかな
>>437 なるほど
自分でやってて8でいまいちだったんで足りないのかと思ってたけど、これ以外の要素を見直す必要がありそうだ
ビデオカードの性能が速度 メモリ容量が解像度に影響するという理解であってますか?
>>422 出来ました
特にclipの方は多様してるのでとても良い、、
>>441 基本はそうだけどVRAMも少ない場合は速度にも影響するかな
学習やるなら最低でも12GB必要
>>443 ありがとうございます。
ちなみに学習ってなんですか?
anythingv3.0はなんか色が薄いな…中国の人の好きな塗りなのか? サムネサイズだとおおっとなるけど小物ぐちゃぐちゃなのは変わらず 絵の情報量が増えすぎてる気がしなくもない プロンプトの勝手もまあまあ違う模様
>>438 構図はある程度は制御できるし、ある程度は運任せ
今回も最初は2人のつもりだった
最初は微妙でも、それっぽいキャラがそれっぽい位置に居さえすれば、
高画素化しつつ各キャラをマスクしてinpaintを繰り返すだけで質が上がっていくので大丈夫
むしろ最初は:0.9や:0.8くらいで絵を固めないでガチャしたほうが良い
そのあと場合や重みによって:1.0やそれ以上に上げていく
今回はその過程でたまたまナナチが反対を向いた図にピンときたので
outpaintで温泉を拡張してレグも登場させることにした
どんだけ頑張っても(>_<と頭のバンドは自分で描いた)
頭だけのレグがうまくいかないので、
頭だけで学習し直して再チャレンジすることにした
最後にキャラ以外のところをマスクしてi2iしてガタツキを取って、
さらに全体で薄くi2iして完成
>>440 うまくいかないのは学習素材のせいもあるかもしれない
本当はキャラの大事な部分が見切れていない画像を準備して、背景を白抜きにした方がいいけどそれは面倒
1:1でない1枚の画像の使い方として、
余白をつけて縁の太い縮小画像にするやり方と、重要な部分をクロップして見切れた拡大画像にするやり方があるけど、
そのどちらかではなく、両方行って1枚の画像の情報を余すとこなく使うと良い。
余白を少なくするために、512x640とかで学習を試してみるのも良いかもしれない。
そして、ある程度回して、もし画像に望ましくない特徴が含まれていたら、
その特徴を与えているであろう素材を排除して、学習を続ける
学習率の指定は、まだ全然定まってないけどこんな感じに徐々に下げていく
1.0e-2:5000, 8.0e-3:10000, 6.5e-3:15000, 5.0e-3:20000, 4.0e-3:25000, 3.0e-3:30000, 2.5e-3:35000, 2.0e-3:40000, 1.5e-3:45000, 1.25e-3:50000,
1.0e-3:55000, 8.0e-4:60000, 6.5e-4:65000, 5.0e-4:70000, 4.0e-4:75000, 3.0e-4:80000, 2.5e-4:85000, 2.0e-4:90000, 1.5e-4:95000, 1.25e-4:100000,
1.0e-4:100000, 8.0e-5:125000, 6.5e-5:150000, 5.0e-5:175000, 4.0e-5:200000, 3.0e-5:225000, 2.5e-5:250000, 2.0e-5:275000, 1.5e-5:300000, 1.25e-5:325000, 1.0e-5
あ、あとテンプレートファイルは キャラならsubject系よりstyle系を使ったほうが良さげな感触がする。 多分テンプレートファイルをきちんと作ればいい結果が出るだろうけどまだ試せてない
同じプロンプトでの違い
上がNAI、下がAny
さらにイラスト寄りへ調整してるっぽい?
元素法典のとこがやってるから
その他ミク、情報量多すぎて顔を隠すとすごい散らかった絵に見える
下の眼鏡の女の子のやつ、NAIとAnythingで逆だった
embeddingで作ったやつを当てると生成がすごい遅くなるんだが これなんとかなったらめっちゃいいのになあ
>>445 好きな絵柄を追加学習させて絵に反映させたり、通常じゃ出て来ないキャラを覚えさせて絵に登場させたりとか出来るようになる
そういう学習はVRAMが大量に必要で、計算も何時間もかかる
ま、今は考えなくていいかもだけど、AI生成にハマると大抵手を出したくなるからみんなVRAM多めをオススメしてくるのさ
>>448 すごい
Tiでここまで再現できるならDBとか要らないな
学習しまくるなら兎も角試してみる程度ならcolabあたりでやれるしより速いGPUを求めるのもアリだと思うよ
Colabでだいぶ試したけどリセットあるから、最上位有償版にするか実機買うかお財布と相談してる(下手すると電気代だけでColabサブスクと価格帯同じなんじゃ疑惑はある)
colabはdeepfakeなんかも規制されたらしいしこっちも時間の問題な気はする
サブスクは別に切られたところで次に乗り換えればいいだけなのもメリット 月額5000円ちょいだからほんとに電気代くらいじゃない?
>>460 それね、試してみたけど説明の通りでSD1.5inpaintモデル以外は全然ダメだった
全然うまく繋げてくれないの
NAIとかでやりたかったのになぁ
3060機2台を24時間生成でぶん回してるけどcolabで同じことできんの ちな電気代は2台で月5400円くらい
goldmineにGPU guideあったはずだからそこでおすすめ見るといいかも
>>461 たしかwebuiのgithubにinpaintingモデルと普通のモデルをマージできるようにするプルリクエストが立ってたはず
自分の環境だとout of memory出てマージ後のモデルでの生成は失敗したけどVRAMが多ければ大丈夫だと思う
>>462 ちなみにできるかどうかで言えばできる
最上位プランは機種選んでバックグラウンド実行できるので
ColabでNAIのckpt使ってDBしたいんだけど、リンクをNAIのckptに変えるだけだとエラーでる みんなどうやってNAIのDBやってるの?
colabは知らんけど、dbのissueを見る、エラー出ないdbに変える、のどっちかで解決するだろ
なんか上の方でcolabでパスが通らない話が出てた気がするからログ辿ってみては もしかしたら前スレかもしれんが
>>467 NAI持ってないけどckptは一度diffusersモデルに変換しないと動かんよ
無料colabでbatch size2以上は無理だという先入観に囚われていたよ......SDくんもがんばってるんだね......
バッチサイズ増やすと何かいい事ある? 試してみたら生成速度がほぼ変わらなかったからバッチサイズ1でやってるんだけど
無料colabでSD1.5のwebUI起動するとプロセス死ぬ…
generate forever知ってからはcountもsizeも1から動かさんくなったわ
1111でDBしようとすると RuntimeError: CUDA error: invalid argument CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1. ってエラーが出るんだが、原因判る人います?
>>467 NAIのckptをdiffusersに変換→Googledriveにアップ→パス指定
NovelAIの運営は機能を増やしてくれるのかね 金を貰ってんだから機能追加して欲しい
自分もcolab版Auto1111の質問いいすか 画像生成しおわっても「generate」ボタンに戻らない時があって、(skipとか押しても戻らない)いちいち再リロードしないといけないんだけど あれは何が原因で解決策はあるのでしょうか?
>>477 3090使っててDreamBooth GUIはエラー出ずに完了するからメモリ不足とは考えにくいんだ
でもGUIはベースがSD1.4しか選べないから……
NAIやAnyV3をベースにしたいのよ
>>482 3090ならNMKDの方のDB使ってみれば?
任意のモデル選択できるし正規化画像要らなくて精度高いよ
>>481 ずっと前からissueに報告あがってるけど、解決してない
解決方法知りたいよな
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/3150 実用上は、そのタブをあきらめて、
新しいタブで同URLのwebuiを開けば、再起動はしなくても使える。
それまで使ってた呪文やパラメータ設定とかは消えちゃうんで
新しいタブにコピー&ペーストしなきゃいけない(のは面倒だよねえ)
>>485 って言ったのは1111版DBはその手のエラー報告多くて対処がまだ確立されてないから
>>460 おいおい、やばくね?
これ触って、SDをローカルで初めて動かした時以来の衝撃受けたんだけど
正直インペイント機能は今まで舐めてたけど、これくらい直感的に品質良く
絵を出力してくれるなら信者に鞍替えするわ
絵ガチャ>インペイントで修正の作業効率が超向上した
唯一の不満は、ローカルで完結するように作って欲しいところくらいかな
オンライン上にあるのはUI部分だけなんだろ?知らんけど
>>485 NMKDは使った事無かったな……
試して見る、サンクス
>>485 NMKDは使った事無かったな……
試して見る、サンクス
>>483 そんな都合のいい夢のような技術があるのか!
って、毎回新機能が出るたびに思ってる
拾ってきたNAI用プロンプト、手元の1111でほぼ再現できるときとできないときがある どうも[]の控えめの指定がどっかに入るとズレが大きくなるようなんだが 変換の倍率が実は違うとか、prompt_parserの計算式が本家とは違うとか、なんかそれっぽい情報見たことある人おらん?
また新しいのが出たのかと思ったら2日前ぐらいに情報出てたDreamArtistのことか
>>490 それSD1.5のinpaint専用モデルじゃないとうまくいかんのよ
マージしたら精度下がるだろうし
>>483 は、WebUI全般を改造しようとしてマナーが悪いからやめろって言われたり
専用モデル持ってこいとか24GB以外は知らんとか、拡張機能にしてオンオフできるようにしろとか
まだまだ動かん報告が多いね。オリジナルより顔固定のハンコ絵になるのは悪手だし、プルリク閉じてるし、生暖かく見守ろう
>>495 今 更 な に を
というわけでwiki見てきなさいな
1.05と1.1、0.95と0.9とかだっけ そこは数値指定でなんとかなるとして mixingって同じことできる?
cat frog, ~dog ~deer をwebUIで再現する方法を未だによく分かってない cat frog, dog, cat frog, deerみたいに全部書くしかない?
>>499 うーん?
NAI→WebUIプロンプト変換しとんのかってレベルの話ならしとる
変換通して強調はちゃんとそれっぽくなるんだけど
弱めるほうが入るとやっぱ大きく変わるんだよな…
もっと詳しい情報wikiにあった?結構読んだつもりなんやけどな
>>502 oh それは失礼
最近1111に搭載された変換は使ったことないけど、以前数値を手打ちしてた時は特に大きな変化は感じなかったなぁ
>>500 下げる方は、正確には1/1.05と1/1.1やで。
前にどっかで報告されてた75トークンを超えた時の挙動の問題が絡んでるとか?
うーんわからん、プロンプト変えて検証始めたらそこまで大きく変わらんくなった 小数点以下の誤差レベルの差が本当にたまたま大きく変化する閾値またいじゃうプロンプトとシードの組み合わせだった感じかこれ?すまんな
SD使いたいけど30万のPCが必要と言われて辞めてしまった 普通のPCで動くのが欲しいンゴ
>>509 30万もしなくてもGTX 1650程度のグラボを搭載していれば不自由なく動く
自分で新規データ学習させながら24時間高負荷で稼働させるような上級者レベルの使い方を想定してなければ十分なはず
あるいは、最近のゲームの必要スペックは急激に上昇してきてるから あと数年はゲームを快適に遊べるゲーミングPC兼用の投資と考えて、思い切ってRTX3000クラスを買うのもありだと思う
5万円ぐらいのメモリ16GB以上の中古デスクトップに5万弱の3060の12GBのグラボ乗せれば十分だぞ
お絵描きAIメインと割り切るのだったらCPUもだいぶ型落ちでいいし vram12GBの3060さえ安く手に入れば20万は余裕で切るとは思う それでも学生やニートや子育てパパとかには高いおもちゃかもね
Web版一番上のサブスクで数週間遊んだがかなりハマった 3080使ってるんだが色々弄れるみたいだしスタンドアロン版に乗り換えるべきなんだろうか Web版のほうが優れている部分ってあるの?
>>514 自分のマシンが痛まない
わりと速い
スマホでできる
最近ケモナーアプデがあった
>>516 なるほど
うまいこと制限かけてあげればいい感じになるかな
こんなまとめサイト出来たのね
各モデルの雰囲気がわかりやすくてgoodかも
https://stableres.info/ 絵柄学習てキャラ学習よりステップ増やすべきだろうてことは分かるけどどれくらい増やせばいいんだろ キャラ学習は出てくればそこで分かるけど絵柄学習だとどこが過学習ラインなのか全然わからない
>>518 野獣先輩はココでもトレーニングしてるのか(驚愕
3000枚ほどの画像でaestheticやろうとしたら容量多すぎなのかクラッシュして半端なとこで強制的に学習終了 ところが何故かそのptファイルを特定のmodelと組み合わせると嘘だろ?って神がかった絵が出てたんだよ でもこの前そのファイルを間違って消して二度と神絵の数々を再現できなくなっちまった ちょっとしたことで二度と同じ絵を再現できなくるAI絵のリスクを味わった
ckptをdiffersに変えたいんだけどトラブった... diffuersファイル一式、omegaconf、Transformersも皆入れたんだけど次のエラーを吐くんだ。 ImportError: cannot import name 'DPMSolverMultistepScheduler' from 'diffusers' (C:\Users\Miya\Desktop\env\lib\site-packages\diffusers\__init__.py) こいつ何...?有識者いたら教えてくれるととても喜ぶ。
今更だけどWD1.3ってどの辺がダメだったんだっけ? ダンボールタグじゃない普通の記法のプロンプトがNAIとかと比べて全然効かないの? あと美少女ばっか出るみたいな感じ? 追加学習のベースとしてなら1.2よりいいんかな
1.2がdanbooru記法(アンダースコア連結 + アルファベット順)で学習されてて、1.3から普通の記法のはず 1.3は1.2ほどリアルによれず、NAIほどイラストによれなかった印象(というかNAIが破壊的すぎた) Epoch6を過ぎたあたりから過学習気味になってたと思うから、追加学習のベースにするならそれより前の方がいいかも
>>524 NAIがやばすぎただけで、イラストで使うなら問題ない感じかありがとう
個人的にNAIは使いたくNAIからね
>>523 NAIの破壊力に完全に負けてた。求められていたのはNAIだった
epoc小出しにして無駄にモデル数増えてプロンプト再現も難易度が高く不評も買った
完成版1.3に合わせたようにNovelAIリークが出回って、同じ学習元の無断投稿ダンボール使ってるならNAIでいいやって事に
タダでもダンボールのアンダースコアやアルファベット順で使い方が不評だったのもあって、あえて使う意味はマスピ顔以外がたまに出るかもって程度になってしまった
pixivで受けがいいのは版権やマスピ顔の巨乳やロリだった
日本ではepoc6くらいまでは投稿する人もプロンプトの公開がほとんどなくて
10月以降の新規でやるなら真似たいNAIのプロンプトを再現するにはNAIを使うって空気に押され
10月中旬の中華元素法典が出回って完全に止めを刺された感じ
マージベースにするにしても、実写はSD1.4か1.5とその改良のMidjorney_v4、2DはNAIかAnything_v3が人気
結果的に、このご時世の話題も情報量の少なさも合いまって、良い悪い抜きでめんどくさい感じになってる
いまは絵面学習ではなく構図学習だっていう事で1.4を頑張っているらしい
>>522 自分はめんどくさいから__init__.pyの該当行をコメントアウトして使ってる
>>522 エラーの理由はわからんがあんまデスクトップに置かないほうがいいよMiyaさん
プロンプトが悪いんだろうがWDは使いにくいな
NAI以外ではanything diffusion(下) が意外と二次元に強そう
プロンプトが悪いんだろ モデルのテスト用にいくつかプロンプトのテンプレート作った方がいい 長いやつ、かわいいのに特化したやつ、背景のみ、絡みみたいな
というかanythingはそら2次元に強いでしょ 公言されてないけどどうせNAIベースだろうし
nmkdにAnything-v3.0.ckpt導入したんだけど model/vaeフォルダにAmything-v3.0.vae.pt置いても読み込まないな…
エミシング
一応古典的手法でmodelを置いてるStable-diffusionフォルダに同名+.vae.ptでそのモデル読み込んだ時に読んでくれる
あとこれ
>>405 これやっとけば選べるようになる
Anything-v3.0.ckptをconvert_original_stable_diffusion_to_diffusers.pyでdiffusers形式に変換しようとすると Checkpoint Anything-v3.0.ckpt has both EMA and non-EMA weights. In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag. と出る。 --extract_ema追加しても同じメッセージが出るのでお手上げ。 一応変換は出来るけど7GBから5GBに容量減ってるからEMAの部分が変換出来てないんだろうな...
>>537 Anything-V3.0-pruned-fp16.ckptは試した?
あと自分はdiffusersで使う場合は先にvaeをマージしてから変換してるけど、あとからvaeだけ変換できたっけ
>>538 prunedはまだ試してない。
ColabでDBするのに変換してる。vaeの事は分からない...色々手探り状態
>>497 主体を黒背景でガチャして、いいのができたら背景をマスクしてinpaintintinモデルに描いてもらうのはどうですか
>>497 舞い散る何かや、その他の謎物体
光のエフェクト等も黒背景で描いて
ペイントソフトでレイヤー加算・乗算合成
小物の生成はmage.spaceも使ってマルチタスクで...
>>541 >>542 ものによってはそれで出来ることもあるかもだけど、人物と背景とのマッチングが悪くなってしまうからねぇ
出来れば背景と人物は一緒に出したいよね
なので二次絵なら高解像度で生成して邪魔なものを消すってほうがベターかな
ただ、SD1.5で背景だけ作るって意味ではなかなか楽しかったのでお試しの価値はあるかも
背景と人物は一緒に出さなくても大丈夫 というか、まず背景だけ与えてi2iしても相当上手くいく あとはキャラごとにinpaintしたらいい
そういえばNovelAI使ってると、指定した背景によってポーズ傾向が引っ張られる事があるわ 「この背景なら、こんなポーズ多いでしょ?」っていう補正は明らかに掛かってる
それで正常では? そういうところに無頓着なことを 「センスがない」っていうんじゃないの?
逆にビキニ指定すると海が出やすいそ 仲良くやれよw
>>548 すまんな
そういうつもりじゃなかった
自由な発想という要素と、良い絵という要素は
対立するのでは?と言いたかっただけ
出来るポーズと出来ないポーズに極端な差があるよな 最近の絵描きに特有の流れるような動きのポーズ?みたいのが全く出せない 言葉で表現できなくてタグ付け出来ないよう要素は無理ってことか
>>550 さっきまで優しかったのにいきなり変わったから何事?って思っただけw
>>551 指定は多分出来ないだろうね
そこまで詳細にポーズとして学習させてないだろうし
hard action poseみたいにジャンルを指定して強調すると色んなポーズはとってくれるが
でにくいポーズはDBだな。ただキャラの学習よりもはるかに面倒
>>546 コートの前閉じようとクッソ寒い雪山指定したら効果あったのは笑ったわ
メイドさんやドレス指定だとやたらカーテシーになるの辛い
ポーズは近いの指定してimg2imgで寄せてくしかないのかね
i2iだとstrength上げるとポーズ変わるし、下げると望みの服装やキャラになってくれないみたいな感じで簡単そうで面倒
可動フィギュアでそれっぽいポーズ取った写真からi2iするのが手っ取り早いんじゃないの
vaeのマージとか初めて聞いた 知らないことがたくさんありすぎる
>>546 そりゃまあ学習ソース考えれば雪山で素っ裸の絵は多くないだろう。海で毛皮のコートも
>>547 正常を通り越して特定のポーズで「符号化」してるレベルの補正が掛かる
それは型に填めてるだけでセンスとは言えないと思うぞ
>>559 適当なMMDモデルにポーズ付けさせてi2iとかやってるわ
あの辺はポーズやモーションデータも色々配布されてるから使うと便利
導入しようとしてこんなエラーになったのだが、何が欠けてるのかどなたかご教示ください
>>564 Pythonインストールした時にパスを通さなかった可能性
>>564 pytorchのバージョンが指定と違うんじゃね
>>564 Phython 3.11は動かない定期
古いバージョンでバスを通すにチェックを入れてインストールだ
>>565-569 ありがとうございます、Python3.11が原因でした。無事環境構築できました
画像生成AI「Midjourney」をアニメ風二次元イラストに特化させたモデル「niji・journey(にじジャーニー)」がクローズドベータテスターを一般募集中
https://gigazine.net/news/20221115-niji-journey/ にじジャーニー - niji・journey -(ベータ)
https://pipoya.notion.site/niji-journey-9426c1a703d44dadbc6f14f679c7540f **クローズドβの一般募集が開始されました!**
- Midjourneyメンバーでなくとも登録可能です。
- メールアドレスを待機リストに登録すれば、順次招待されます。
※現在1日数人~10数人程度の増加で、品質を保つためゆっくり招待しているそうです。
- クローズドβ中は無料で画像生成出来ます。
- Discordを使用した画像生成サービスとなるため、別途Discordアカウントが必要です。
忘れられてたMJ攻めて来たな・・儲けた金を最大限投入してるのかな
>>571 生成された絵を見た感じだとそんな凄味は感じないなぁ
むしろ本来のMJの良さが消えてる気がするけどこれは生成してる人達のプロンプト技術の問題かな?
SD系よりは断然聞き分けがいいらしいから使う人次第ってとこかね
1111 WebUI のextensionを数点作ってるんですが それ関係の発表や情報共有に適した場所があれば教えて頂けませんか?
>>574 そういえばそうだったw
やっぱ時代はローカルだなぁ
>>532 拡張子ckptに変えるだけで使えるようになるよ
ワイは野良NAIのVAEで色んなモデルを試してる
読んでも変化がほとんどない場合もあるけど、スペルが…
>>577 確かにAUTOMATIC1111本人も質問とかここで気軽にやってねって書いてますね
5chのスレみたいな日本語で駄弁りながら的な所が良かったんですが
さすがにニッチすぎて無いですかね?ありがとうございます
うーんAnything綺麗だけど画風がかなり固定されるな、縦長の目を出す安定した呪文が組めん
そう、好みの絵が出たと思って呪文を追加してくと、安定の「いつもの絵」になってくる 結構謎なんだよな
DreamBooth,DreamArtist,HN,AEは全部併用できるから ガン積みすると有名絵師にエグいほど画風寄せられるな 何なら本人の画風で画力向上したような絵も出せるの酷過ぎる
いつもの画風になったら画風指定強化すればいいんだろうけど強めにしすぎると崩壊するしあんばい難しい
併用して何とかなるなら苦労はしないんだよなぁ 正直今の仕組みじゃモデルやアルゴリズム変えるくらいじゃ満足いくものは出せんわ
>>584 文字で読むとすげーってなるけど実例のイラストで神絵師越えはないし類似ですらほぼ見かけない
pixivランキング上位三位前後とかどう生成してるのかわからん
上位のAI絵見ると高解像度だし人物が小さくても顔はきれいに出てるし 手もちゃんとしてる(ここは加筆か?)同じAIでも良いものを出すには結構技術とマシン性能がいるんだよな
256stepsとかで書き出すらしいな まあ1枚とかならそう時間かからないけど
どうせガチャゲーだろ さっさと複数人を指定する方法確立されろや
というかプロンプトによる絵の出来に関してはもうひと月ほど進化止まってないか さっさとなんか別の効果的なアプローチで絡み特化の画像生成方法出てきて
DPM++ 2M Karrasなら
10で見れる絵、25stepで安定、50以上は殆ど変わらないので
256とか回しておいたほうが良いかなという
強迫観念に襲われずに済む
NAIで顔まで描かずに体の一部分だけ(胸とか脚)の絵をやたら出すんだけど対処方法ってある?
>>598 NAIじゃなくてSDなら正方形で切り取って学習してたから上下切れるとかあったけど、
もっと細かいプロンプトとか環境書かないと何とも
>>594 手間はかかるけど自分は確立した
2キャラで生成ガチャ
必要なら背景を別に準備して組み合わせてi2i
inpaintで1キャラずつ補正
outpaintで拡張して追加のキャラを書く
それを繰り替えす
最後に背景だけでinpaint
オマケで全体でi2i
完成
>>601 >必要なら背景を別に準備して組み合わせてi2i
これフォトショ?
>>602 雑に切り貼りしたので良いのでソフトはなんでもいいよ
というか手抜きしたければ背景だけでinpaintしてもキャラが生えてくる
>>601 共有助かる
やはり一体ずつ片付けていくのがいい方法なのね
>>597 なんかあれなんだよな
DPM++系20や50辺りで足三本あるのが150にしたら治るとかたまにある
プロンプト一つでしか試してなくて悪いんだけど自分はこんな感じだった
VAE適用忘れてたから色は勘弁
Euler a
DDIM
DPM++2M
DPM++2M Karras
>>583 呪文はつまるところ概念の引っ張り合いだから、同じ概念の呪文は積めば積むほどそっちが強くなるし、
とっちらかった概念を色々詰め込むと目指す方向が定まらずどっちつかずの絵になるよ
そして呪文によっても同じ1語なら等価でも無く、マイナーキャラの名前みたいな全く学習してないとは言わんけど弱い呪文とか、
あるいはnsfwみたいにそれ一語で方向性がスパッと決まりかねないくらいの強力なワードもある
https://github.com/castorini/daam どのプロンプトがどういうふうに効いてるかを視覚化するツールもあるし、これもそのうち1111に実装されるかもな
>>608 angryが顔だけじゃなく人物全体にかかってるのがポイントだな
こういう特徴の覚え方だと他の要素を上書きするのも納得
>>584 それ本人が一番使いこなせるってことやな
顔だけ怒った絵を描きたいなら顔だけ怒った写真をたくさん撮って学習させればいいわけか
昼頃に接続できなくなってa1111のフォルダを削除してからgitで入れ直したら、webuiは表示されるけど画像を生成しようとするとランタイムエラーで止まるんだけど
対処法知ってる人いませんか?
ハーフのスカラーが欲しいのにフロートじゃねえかだけ読めた なんの事だろう
>>598 ngにcroppedこれでもかってくらい強調しては
体感ng入れすぎるとむしろ奇形増える印象
>>580 亀だけど上げて駄弁るだけならここでいいんじゃ
>>615 >>616 自己解決
起動オプションで--no-halfってするところをうっかり--no-half-vaeってしてたのが原因でした
すいません
>>607 絵柄はCFGスケール低い方が好みだな
ネガティヴだけCFGスケール効かせて破綻無くす事できないのかなー
>>608 これいいな
呪文がどこに作用してるのか見たいわ
呪文の効果可視化は、文明のステップアップ並に革新だと思う
>>604 ,605
TIを使ってるけど、具体例は
>>448 で示してるから見てみて
殺風景な画像→C:\Users\KYOKO\Desktop\ねこかず\ヒカキン_.png
WebUI版DBで過学習防ぐ方法ないかな 全身絵45枚を1e-6で学習したらstep1000も行かずに作画崩壊する。みんな4000とかどうやってるんだ
>>624 個人的にはTIだけで十分だと思ってる。扱いやすいし。
>>622 ひとつは例えば「black long hair girl」を「blhg」みたいな造語に登録出来るTIの画像抜き簡易版を作る拡張です
通常のTIより軽い学習を30秒程回せば99%くらい意味が合致する圧縮造語作れます
もう一個は対象画像と「副詞,形容詞,名詞」みたいな三つ組指定の組み合わせフレーズとの合致率を表示する拡張です
素のIntertogatorみたいに合致タグだけ出すんじゃなくて一般の辞書ファイルから「extremely large apple」みたいな組み合わせを作って類似度ランキングにします
>>628 一つ目は変数名代入できるのに近いし確実に便利そう
二つ目は実物見ないと理解が難しいがなんとなく凄そう?
一つ目がかなり欲しいなできるなら
>>629 二つ目は例えば「そもそも英語でこれ何ていうのかわからないモノ」を名詞一覧からランキングで出したり
「gorgeousより場面に相応しい表現があるはずだけどマイナーすぎて知らない形容詞」を見つけたり
「なんか崩れててキモい手の画像」から「collapsedとmutatedとcreepy」要素のどれが強いかを判定したり出来ますね
masterpiece, best quality → mbみたいに複数の呪文効果をひとまとめにするわけではない?
>>631 1つ目のは正にそれですがもしかして既に有りましたか?
プロンプトのテキストを弄るんではなくTIの仕様を拝借して同等な新しい概念を持つサイズ1(から75まで好きなサイズ)のトークンにできます
まだ試験段階ですけどマスピ+ベスクオくらいなら1トークンに収めても機能する可能性があります
>>632 最近ローカル導入したばっかの初心者なので分からないです
良く使う呪文をまとめてくれたらめっちゃ便利だと思いますこれ
>>630 上手く使いこなせれば強そうだが、danbooruタグ検索とかと重複してる部分はありそうかな
>>632 トークン節約できて一単語辺りの影響度が下がる問題も解決できるのか
シンプルかつ既存言語でも頻用されてる概念だし強い
逆にどう考えても便利すぎていつかは誰かが作りそうだから早めにコミットしてはいかが
もし"red eyes"を"re"にまとめることができれば、redが余所に漏れていくことも少なくなったりするんだろうか
>>628 このスレだけで話すには勿体ないくらいの内容だと思う。
GitHubとかで公開するつもりなら使ってみたいな。
個人的には2つ目が興味深い。
難しいことはよく分からんが技術がある人が絡んでいくことで 更に進化をしていくんだろうね頑張ってほしい
モデルって.vae.ptみたいなのとセットだと思ってたのですが それが必要ないモデルもあるんですよね? Anythingモデルだとvaeが無いと色褪せるのは知ってますが 追加武装みたいなもんすか?
Anything-V3.0のvaeって、naiのvaeを使うんじゃないの?
そもそもckptはvaeとunetとtext encoder/decoderが一つに統合されたもの なので別ファイルのvaeってのはckptのvaeを上書きするためのものでしょ
vaeは最後にもう1Step書き換えてくれる程度のもんだと思っとけばいいよ トレントやhuggingfaceにあるAnything-V3.0のvaeはハッシュ見る限りNAIのコピー品だね Waifu Diffusion VAE kl-f8-animeとかいろいろあるし使い分けだね それ以外の出どころの分からないのは実績もないので自己責任で
vaeって何なのかさっぱりだったけどイメージつかめたわ助かる
何故かlpw_stable_diffusionがDiffusers.utilsのPIL_INTERPOLATIONを読み込めないというエラーを吐いたが、当該箇所のPIL_INTERPOLATIONをPillowライブラリ側で代替したら普通に動くな なおdynamic_modules_utils.pyの300行目にあるshutil.copyを止めないとファイル再取得によってlpw_stable_diffusionの書き換えが修正されるからそこも書き換えた
Anythingでの強調と弱化 (要素)や(要素:1.5)は効いてるけど{要素}が効いてる気がしない [要素]も微妙なラインだな…
なんか3重で囲って始めて効果出てくるくらいだよな 一応効果はある
>>651 どんな環境でやってるのか知らないけど、一般的には(要素)と{要素}が両方使える環境はないと思うよ
AUTOMATIC1111とかのローカル系は(要素)表記で強調、NovelAI公式Webは{要素}表記で強調ってだけだから
>>653 なるほどローカルだから{}が無意味だったのか
だとしたら[]は間違いなく効くはずか
>>655 [要素]は弱化、[要素:要素:数字]はプロンプトエディティングだよ
>>656 光る刀を出したいときに[katana:lightsaber:0.5]みたいにすることでそれなりに出せたことはある
使いどころは難しい
お腹ちょっとだけ膨らませたい時とか後半のStepでだけpregnant効かせるとかしてる [:pregnant:0.1]だか[:pregnant:0.9]だかどっちか忘れたけど ちなみに効果を実感できているかと言われたら首を傾げる
サンプラーによるけど今のシードの絵が何Stepでほぼ最終系に近づくかをまずXYplotかなんかで確認して それから微調整に使うって感じ いきなり入れるものではなさそう
個人的にそれよりも謎なのは[A|B]みたいな記述するやつ AとBを1stepごとに切り替えるらしいけど何に使うんこれ
>>608 デモやってみたけど , カンマにめちゃくちゃ反応するしてる時あるから
微妙なツールではないかな
そこらへんは単語単位じゃなくてトークン単位の方がいいってCommunityで提案されてるな 来月そうする予定らしい
(extra [arms|legs|fingers]:1.1)とかやってネガティブ圧縮に使ってるわ 強化数値はどのくらいが妥当になるのはは知らんので適当
学習素材がほぼ1枚しかないようなキャラを学習させるのって現状dream artistでTIくらいしかない?
Novel AI関連のツイートで探してるのがあります。 割とNovel AIが出た初期のツイートで、座っている女の子の画像をベースにあくまでAIをイメージ補完や、構図の参考にするという使い方でした。 探しても出てこないんですが、どなたか出どころがわかる方がいたらリンクを貼ってくれたら幸いです。
>>670 自分で素材つくりゃいい
切り抜いて背景変えたり、自由変形でちょっと台形変形したり、レベル補正で見た目分からない程度に色変えたり・・・
>>670 画像検索で似ているキャラ探してぶちこんで少しTI
その後、出力画像を入力画像に入れて再びTI
そもそも一枚しかなかったら後ろ姿とか全然わかんないじゃん
モデルデータってなんで新しく学習させると過去の記憶が一部消えるん? なんか制限あるの?どんどん追加できるようにならないと 特化すればするほど限界あるよね
anything3.0でdreamboothやってみたけどなんかwaifuの時のが良かったな、要素は拾ってるけどあんま画風を学習してねぇ step上げたらマシになんのかなこれ
>>675 ema使わずfullでyml変えればいい
すごいな、iPhoneでもローカルでWD1.3動かせるようになってたのか… なんか最適化されてるらしいからPCのと生成結果は違うかもだけど
>>677 忘れずに覚えさせる方法はあるのに誰もやってないってこと?
なんでだろ
>>672 ちょっとした変形とかで学習効率上がるんかね?やってみるかサンクス
>>673 TIで出した画像をTIに使う!そういうのもあるのか!
>>675 やってる事は関数近似だから。学習すると関数の形状が変わる
>>679 忘れてくれないと過去の数十億枚に引っ張られて望む結果が出るまで学習するのに時間かかる
なるほど それで特化モデルを沢山用意して使い分けるのがベストというところに落ち着くのか
novelIが流行りだした頃に"冒険者ギルドの受付嬢"みたいな画像がバズってたと思うんだけど元画像探しても全然見つからん... 誰かわかる人おる?
>>686 画像生成には直接関係ない
相当古くない限りは大丈夫
CPUというよりグラボと接続する規格の古さが足を引っ張るかと 最悪映らない
そもそも11年前のcpuを乗せるマザボに乗せるグラボとか、最高スペックでも電気効率最悪なだけでまともに動かんだろうな…‥ というかグラボのram量で詰みそう
10年前ならIvy BridgeでPCI Express 3.0(うちも3.0で3060刺してるわ)だけど、その前だとどうなんじゃろな……?
>>688 というかColab Stable difussionで検索してやってみるべし
PCIE2の2700KとRTX3800 12GBで一応動いてるけど、たぶんちょっと遅い。 --midmemみたいなオプションつけるとすごく遅い。
別に初代Coreシリーズとかでもたいして問題なくない? 接続バスの速度とかそんなにネックになってないでしょ。 メモリは16GB程度積むとして、あとはGPUだけ最新の物を搭載しろって話になる。
dreamartistやってるとcpu(ryzen5600)も30%くらい使われてるから10年前のcpuだと動かなそう
さすがにここにはSandyで十分おじさんはいなかったか...
>>699 そもそもUEFIじゃないから認識しないから無理やし…初代とか論外やで。そもそもグラボ指したらブートしないよおじちゃん
https://s.kakaku.com/bbs/-/SortID=21490261/ そう言えばそうだったな、SandyですらUEFI対応イマイチだったから3年前の記事だが刺さるグラボ探してるっぽいな
早く死滅してくんねーかな低スペ老害ジジイ
LegacyBIOS積んでるグラボって多分1050Tiあたりが最後?
>>697 単精度オプションが必須な16XXのグラボは学習不可か
VRAMも6GBだから何となく察してたけど辛いわ
開発や学習は基本VRAM24GBでシステムで32GBはないと何かを妥協しないといけなくなるって言ってるし 低VRAM環境はプログラムが完走するっていうだけで学習効率も速度も精度も落ちて思い通りにならなくてもまぁ仕方ないかなと FP16とFP32でも同じものにならない訳だし当たり前っちゃ当たり前か
今で言う1660ぐらいの感覚で24GBのRAMが乗ったグラボが買えるのは何年後だろうな……
nvidiaがAI向けのvram特盛の廉価グラボ出してくれるって期待してる
4080は価格のわりにvram少ないし4090は電源ケース冷却他含めて金がかかりすぎる 他でも何度も言ってるが、相当なマニアか金持ちでもない限り今の4000番台はオススメ出来ないわ
NVIDIAはテスラからAIおじさんを引き抜いた頃から方向性変えて来てるのは解ってたけどここまで値段に反映させるのは予想外だった
昨日NVIDIAのドライバが強制的にアップデートされてから動かなくなった 画像生成しようとするとあちこちで報告されてるこのエラーが出る↓ RuntimeError: CUDA error: an illegal memory access was encountered CUDA kernel errors might be asynchronously reported at some other API call,so the stacktrace below might be incorrect. For debugging consider passing CUDA_LAUNCH_BLOCKING=1.
ゲームにはオーバースペックと思いながら買っちまった3090が役に立つとはなぁ
アプデは切るのが基本だからな。有効にしとくとろくなことない
そういやアプデの通知あったけど無視してたな 助かってたのか
>>714 昨日ドライバ更新出てstudioドライバー更新されたけど問題無いな
ちな3090
まあ革ジャンもマイニングと違ってAI需要は公認だからすぐに修正してくるだろ
マシで2年後の5090はメモリ256GBくらいにしてほしい その頃には動画よりも高度なコンテンツまで波及してるだろうし というかせっかく40902台手に入れられたのにnvlink.sliに対応してないのマジ凹むわ
機械学習目的でそのレベルにGPUが必要ならもうクラウド借りた方がよいのではとは思う
4090を2台行くならメモリ48GBあるrtx4000だの8000が普通に買えそうだ SLIというかマルチGPU構想はnvidia自体やる気完全にないからしゃーない
>>722 4万台とかすごい数だけど何に使うんです?
全体的にVRAM少なすぎるんよ 2倍積んだのを出してほしい メモリ容量なんて過剰なくらいが丁度良いのに
>>731 数ヶ月前じゃ信じられない発言だぞそれ。VRAM20GBとか何処で使うんだよって誰しもが思ってた筈
stablediffusionの演算の為にgpu指定する機能とかほしい
AI向けスパコンもMと作るらしいし、NVIDIAには個人向けAI向けPC市場でも頑張って需要満たして欲しいところ
https://www.itmedia.co.jp/news/spv/2211/17/news104.html aiやってる奴は数年前からvramいくらあっても足りなかった
やってるやつは個人でもA100複数台所持して回してるよ
(イラストレーターに金払って描いてもらった方が安い...)
A40だかA100は一枚1万ドルって何処かで見たな。それを40台使って学習して作ったmodelがnovelAIだろ。
A100は価格コムにも載ってる(た)。3月の価格で80GBモデルで180万、40GBが130万ぐらい 乗ってる店に問い合わせたら取り寄せてくれると思うよ。円安だから1.5倍ぐらいは覚悟した方がいいだろうけど
それでどんだけ消費電力がえぐいんだい?って思ったら 80GBのほうでも最大で300Wらしい 新車を買ったと思えば出せない金額ではないが ここ最近のAI関連の飛躍的な進化でそれに最適化されていくだろうし この金額だともっと突き抜けた性能が欲しくなる
>>741 これ自分のフォルダにコピーしたら使えるんか?
よく見たら引リツに書いてあったわ リンク先にある「bad_prompt.pt」をダウンロードして自環境の「\stable-diffusion-webui\embeddings」内に保存。その後、BadPromptにて「bad_prompt」を指定することで有効化されるようですね。後でやってみよう。
>>744 1111ならempru何とかみたいホルダー
まあ暫く庶民はRTX3060、ちょい贅沢して3080、気合い入れて3090が精々だろうて
bad_promptをTest my prompt!使って試したが出される絵が変わる 使うならこれは最初から入れておかないといけないみたいだ
マルチGPU(SLIやnvlinkでない)に対応してくれたら3060を2枚みたいなのも手軽でいいなとは思った 1111のディスカッションでマルチGPU取り掛かってる人はいたみたいだけどその後どうなったんかな
TIは学習したモデル以外では上手く機能しなくなるということなら bad_promptもどれくらい有用なのかわからないな
vram20gbが標準になったらソフトは40gb要求するようになるだろうな
初期はガンガン必要メモリ減ってたけど 革新は一旦ストップしちゃったな
「正規化画像」の意味すらググってもわからないのですがどなたかおしえていただけないでしょうか
bad_prompt使うと絵の感じがガラッと変わるな なんか90年代アニメみたいにバタくさくなった 使ってるモデルで得手不得手あるんかねぇ?
破綻してるものを学習させてネガティブプロンプトで出なくするって考え自体は応用性高そう
>>749 釣りだとは思うがもし下位GPUでSLIが有効になるようなことがあっても、12GBx2であって24GBになるわけじゃないからな…
マイニングと違って底辺発想は潰してあるもんだ。そんなに都合よくいかない
画面を上下2分割して描画できるって程度でしかない
これはダメって指示出来たら便利だろうなとは思ってたが実際にそうなったか
>>753 「正規化」ではなくて「正則化」が正しいんですよ
VRAMに関しては距離の問題だよ 昔から出来ないし今はLINKな
>>757 いや単純に計算速度的な話で
3060買い足しという選択肢が取れるようになれば3080買うよりは手軽だなと
手が悪くても他が理想だとその理想もbad判定の烙印押されたりしないのかな? 面白そうな技術だは
学習のさせ方が胆だろうね 変な手のアップ画像をすれば他には影響少なさそうだけど、中々難しそう
プロンプトのネガとポジ入れ替えた奴で生成してみるか
それこそ
>>608 と組みあわせて使えたら一番使えそうなんだけどな
結局手動でドライバ入れ直しの全部インストールしなおしで復活した bad_promptは独自に追加学習したモデルでもそこそこ手に効果あったな
崩壊してても手は手だしあんまりネガると手自体が画面に映らないだけってことになりそう
bad_promptの手、これめちゃくちゃ優秀だわ
NAIのときは妥協するか、構図の工夫で乗り切り
Anyになってから、ようやくinpaintガチャを試す気が沸くくらいになってきたところだったのが
bad_prompt使うとこれまでの基準で正しい指と言える絵が50%くらい出てくる
手だけでなくて、目や構図も整形されてるので、ガチャ後にざっくり厳選しても、10%も残るわ。素晴らしい。
ただし欠点もあって、重みが強いとざらついてくること(上の絵で言う植物)
そしてスラットした指が出る代わりにケモ手が出なくなった
そして明らかにケモ手が出るシードやプロンプトで使うと強制的に手が出ない構図にされる
これが「, bad_prompt」をつけるだけでこうなるのは残念すぎると思う
背景植物って葉っぱを高精度で出力するのanyが得意でnaiは雑にプロンプト作るとぼやけるよな bad_promptに何学習させたのかが気になるけど高精度葉っぱ背景の方を否定して強制的にぼやけさせてる?
耳の形がおかしい
合わせ目のない服にボタンw、飾りボタンって昭和か?
今までなかったのに最近めっちゃ黒塗り画像が出力されるのなんでやろ 同一プロンプトでも20枚作れば10枚くらい黒塗り 真っ黒かと思ったら数十ピクセルくらいの人間ぽい小さい画像があったり euler aだと発生しないからDPM++特有の問題だろうか
>>770 既にやってたらスマンがHugging Face のとこに
(bad_prompt:0.8) くらいに薄めて使ってなって書いてあるんで試してみては?
>>779 Anythingとか特定のモデル使うと真っ黒画像が混ざってくるからモデルの問題だと思う
NAIだとちゃんと出力されるし
>>781 俺も最初はエロ画像拒否的なモデルの問題かGPUメモリが足りないのが理由かと思ったけど、
DPM++では頻繁に発生するのにeuler aでは一切発生しないから、モデル起因説にはウ~ンなんだよなぁ…
調べたらmacではDPM++で真っ黒画像が出る問題があるっぽい
自分はwinなんで関係ないかもしれんけど
真っ黒になるのはメモリ不足でしょ 出力サイズ下げたら出なくなるよ
3060でバッチサイズ1、512x512でメモリ十分ある状態でもちょくちょく黒いのは出るな
3060だけどそんな現象起きないな 特有の症状かもしれんね
たまに真っ黒になるのは--no-half-vaeやで 24あってもなるのでメモリあんま関係ない
>>783 が言ってるじゃん
ていうか調べたら出てくることなのに「~のせいかもしれん」とか「っぽい」とか独自の結論出そうとするやつなんなんて思うわ
まあ--no-half-vaeにしたら出力可能サイズが1周り2周り下がるから あえて付けずに苦しむという選択肢もある
うちもAnythingv3とそのブレンドモデルの場合だけ、真っ黒画像が時々出る 途中STEPの画像を表示する設定にしてると、あるSTEPで真っ黒になると残りのSTEPは全部真っ黒になる メモリ不足ならエラーで止まるから、メモリ不足ではなさそう 計算値のどこかが一定の値を超えたせいで、以降の値が全部振り切った値になる系だと思われ 計算がおかしくなるCNNの箇所を特定すれば、モデルを直せる可能性はありそう
>>789 世界一詳しいお前が全部の解決策と結論かけば解決じゃね?
vram足りてるのに時々生成で真っ黒画像が出るのはvaeのせい 外せば出なくなる もしくは--no-half-vaeオプションを付ける 今んとこ仕様 以上
>>792 くだらん嫌みを言う前にレスよく読め
オレより先に
>>783 と
>>788 が解決方法書いてる
ついでにAnythingv3でSD upscaleやるとブロックのいくつかが黄色になるってのもあるw
場所がランダムに変わるんだ。これもvaeのせいなんかな……
>>797 めっちゃわかりやすいな。その大きさだとVAEの一番絞ったところで明らかにオーバーフローが起きてて、その領域は全部死んでるパターンだ
プロンプトでカッコを画像が崩壊するギリギリまで付けまくってたりもしてそう
やっぱり計算値が吹っ飛んでるんだよ。明らかにメモリ量は関係ないね
>>791 ,798
なるほどオーバーフローなのか、面白い
VAE軽く調べてみたけど変分オートエンコーダによる半教師あり学習=「half-vae」で、それをしないのが「--no-half-vae」オプションかな
応急処置としては色んなとこに書いてあるけど原因特定はパッと見まだっぽい
https://wikiwiki.jp/sd_toshiaki/%E4%B8%8D%E5%85%B7%E5%90%88%E3%81%AA%E3%81%A9 vae関連内部処理のどっかでバグって値が弾けてるのかね
AI経験ないからCNNの触り方とかわからんが
そこのhalfは16bit精度で計算のhalfじゃね?
黒画像はfp16問題だから…fp16モデルや高速化&省メモリオプション付けてる環境で起きる 特に顕著なのがvae使用時。ただそれだけ。回避策も散々出てるしぐぐらない&過去ログ読まない人が来てるのかな
あとanything v3だと紫ぽい色の点がでてきたりもするね
fp16だと半分の桁数で計算してるわけだから、桁数が足りなくなって数字が飛びやすいよね
そもそもモデルのパラメータ値が異常に大きかったり、呪文で無理してたり、TIなどで作ったモデルのEmbedding値が異常だと、
fp32だって桁の限界があるわけだから、真っ黒になることはある
なので「こうすれば何をやっても絶対に黒くならない」なんて言い切ることはできないだろう
そういう対策を入れない限りはね
パラメータの値が大きくなりすぎないように、普通は正則化項というのを損失関数に入れるものなんだけどね
Anythingv3は学習時にそういうテクを使ってないと考えるのが妥当かもしれない
https://qiita.com/Frog67/items/8c845757337a672062b3 ただ、正則化を入れると平均的なものしか出なくなるから、出力画像がつまらなくなる可能性がある
なので、少々黒潰れが出るリスクはあるけど、正則化項を入れずに攻めるモデル作りをした、って考えるとAnythingっぽくていいね
使える色の名前の一覧とかある?
こう言う違いを表現したい
L1/L2正則化なんてパラメータ調整がエグイから誰も使ってないぞ
>>809 ありがとう
でも色の名前ってそのまま形容詞として使えるんだろうか?
日本語でも色名と形容詞(青と青い、黄色と黄色い)は違うからなあ
>>811 NAIとかならDanbooruのtagを雑に突っ込んでるんで多少文法が雑でも大丈夫
逆にその影響で文脈理解しないで画像全体が特定の単語に引っ張られるケースが多いが...
pink hairとかやると画像全体がピンクっぽくなったり、aqua eyesとかやると目がこのすばのアクアに寄る(マスピ顔回避)
あとは単語のtokenizeもあるんで緩い気がする blue hair -> <blue> <hair> blueish hair -> <blue> <ish> <hair> みたいな感じで分割されて逐次処理で文脈ベクトル(embedding)が作られるので、多少の違いはあるが似た感じの結果になる それよりもこのtoken上限75とか、Automaticの上限回避テクを考慮してpromptいじったほうが個人的には良い
fp32使うメリットってxformer使っても黒画像でにくいってことだったのか?初耳やわ
anyってなんか属性でキャラが決まってるらしくて ツインテールって入れると自動的に年齢が下がって顔もハンコ顔になる
>>804 紫の点ってこんなん?
>>818 これは紫のエフェクトが描写されてるだけじゃね
今画像上げれんのだがなんつーかタバコの焦げ跡みたいなのが出ることがある
>>819 タバコの焦げ跡……こんなんか?
↑これはAnythingじゃないんだけど、Highres.fixの設定で「もう無理」てなったときに出てくる。
>>818 のも同じ種類
i2i使ってるときに正常出力に混じって真っ黒画像でて困ってたけど同じ現象なんかな
>>14 これなんのソフト使ってるのかおしえてくれないか
>>714 もしかしてGeForce Experience入れてる?
アレ入れないほうが良いよ。メリットないし
初心者が手軽に録画したいなら仕方ないけど
>>826 moe-ttsだろ。windowsでやるならdocker使わないと面倒
>>822 使ってみたけど微妙だな…感覚waifu1.3レベル
bad_prompt絵柄変わりすぎて今一だな inpaintで手にマスクかけてやるのが無難か
多少歪みがある方が味があって良い 人間の描く絵のようだ
人間とAIの歪む傾向全然違うからそのジョークはな 人間は全体画力、AIは部分の整合性
だよな、そういう(人間味な)類の歪みでは無いとは思うぞ…… 単なるブラックユーモアだと信じたい 上記の歪みは、一昔前の3Dの『不気味の谷』に近いような微妙さが有るわ 不気味の谷との決定的な違いは「基本は機械的に妙に整ってるのに、局所的に奇怪な場所が際だってる点」か
例えば髪の毛と腕が融合してたりとかね 人間のやる間違いとは傾向が違うのでw
>>828 GeForce Experienceが勝手に中途半端なverにアップーデートする上に
最新版入れようとしたらDLエラーとか抜かして動かないので結局手動で入れ替えたわ
マジで迷惑なだけだなGeForce Experience
モデルマージの管理ってどうするのが正解? 名前に素材名と割合書いてるけどそろそろやばい
どちらにせよこんな感じにならない? [] smoothstep () exact [f2220.2 (((trinart0.4 waifu0.6)0.7 anything0.3)0.9 sd0.1)]
どの観点で管理したいかによるけどサムネとかサンプル画像と備考欄つけてExcel管理じゃダメなのか そもそもそんな大量のモデル持ちたいならなんか目的があるんだろうしそれに合わせれば
とりあえずtxtで混合割合書いてExplorerのプレビューで確認するようにするか ある程度複雑に混ぜた頃合いでオリジナルの名前付けるのもいいかもしれんな HassanとかBerryみたいな
管理なんて考えずでテキトーにやっとくのが楽だと思うよ 俺は性格的にテキトーにやるの嫌だから管理してるけどさw マージ割合とpng infoだけだと情報抜け多いから、1111もフォルダごと(pip listや設定ごと)バックアップしとく必要あるし そのバックアップと画像が対になるようにしとかないといけない launch.py呼ぶとトラブル起こりうるから1111の起動もbat使わないようにしないといけない めんどくさっ
3090でお絵描きしようと思うのですけどRAM24GBだとギリギリだから表示用に別のGPU必須ですか サブグラボ使えばPCIEx8リンクになりますけどAI用途で帯域幅減少しても大丈夫でしょうか
>>846 なにひとつギリギリじゃないよ
楽しいお絵かきライフを
1060の3GBでお絵かきしてる俺みたいなのもいるぞ
バストアップとエロ画像を作るべくモデル改良していったら fullbody入れても全身絵が作れなくなった;;
>>850 最初手持ちpcに1060(3GB)乗せてたけど、AI無理すぎて手持ちPC的な電力限界ラインの3050(8GB)に載せ替えたわ
生成一回45秒~1分近いけど、NovelAIの補助的な利用にはそれなりに使えて満足してる
自分でも何と何を混ぜたのか忘れるレベルで 様々なモデルを試行錯誤しながら混ぜまくった
Anything入れてからimg2imgでガンガン彩度が下がっていくようになったんだけど同じ現象の人いる? Anythingと混ぜたモデルでも同じで最初は気のせいかと思ってたけど、Inpaint使うと明らかに修正した箇所だけ色褪せてる
混ぜたモデルにvae使わせて描かせると色復活するけど これってどんどんckptをマージしてany要素が薄まってもオリジナルの状態のvae使ってて大丈夫?
>>857 指定した覚えがないのでそれかも
Anything-V3.0.vae.ptってやつかな
詳しく書いてそうなとこ見つけたから読みながらやってみるよ、ありがとう
>>846 ですけど24GB必要というのは学習の為です
マイナーキャラ好き&特殊性癖持ちなのでNovelAIでは描けず追加学習が必要なのです
あとVTuber志願者なので高級AIは活動に役立ちそうに思えたのです
Vtuber関連で必要な機材としてどうかはまた別で考える必要があるしなぁ そこまで行くとこのスレの範疇の内容でもないし、必須かはともかく金があるなら買えば確実なのでは 「お絵描きする」と「学習する」は別だし活動にどう役立てるかも自分で考えることだし、 Wiki見て自分の思う用途と方針固めてからじゃないと必要スペックは答えようがないんじゃないかな
説明力がないにも程がある 違う意味でスペックが心配に
おやじ!この店で一番高いやつだ!って言えば大丈夫だろ
vaeて同じ名前の勝手に読み込んでくれるんとちゃうの? 自分で指定する所あったっけ?
ckptと同じ場所に同じ名前で置けば認識してくれるけどそもそもおいてなかった
AnyV3-prunedはバギングから落としたvae使っても薄くなったから何もついてないAnyV3使ってるな
vaeなくても問題ないのか 地味に重いからanyの消そうかな
問題なくはないでしょ vaeひとつ消したところでけっきょくckptのウェイト読むとかで大差ないんじゃないの
手先指先の修正をいるかいらないかってところ 問題ないといえばない 人それぞれ
NAIとAnything-v3のvaeは一緒だけど、Anything-v3の素のモデルだと 描画は色が薄いというかあせた感じになりやすいのでvae使って鮮やかに最後のひと手間をかけてもらうのが基本だけど、無くても差を感じないなら無しでいいと思うわ。 その人の目にはそう見えるんだろうし、差分とってなにが違うかなんてする必要もないしね。もともとどっちが正しいとかそういうものでもないしな。好きな方を選べ!
anything、vae使った時と使ってない時の間くらいの鮮やかさにしたい
anyやgapeやマージ版やら色々使ったけどNAIの柔軟性はやっぱ凄いわ
>>873 anythingにvaeを0.5でマージしてみては?
text to 3dもここまで来たのか やっぱnvidiaなんすね
AMDの新しいやつに載ってるAIなんちゃらって謎部分が使われるようになると熱いんだけどね
> Artstation-Diffusionとかいう、Artstationの5万枚の画像でファインチューニングされたSDモデル
https://twitter%2ecom/umiyuki_ai/status/1594179335082033153 AIをよく研究している人が作者を名指しにしているツイートなのでウイルスとかの心配は少なそう
>>877 指先とかよく見てみると崩れてるのが治ってたりする
any3.0のvae使ったらサーモンピンク1色の画像がちょいちょい出てくるようになったんだが? おま環ってやつかしら
>>887 >>791 以降でその話題しばらく出てたからどうぞ
多分色関係なく塗り潰しオーバーフローは原因同じで応急処置は--no-half-vae
>>881 https://huggingface.co/hakurei/artstation-diffusion これか
waifuの人が作ってるようだけど、1.4のckptの前にDiffuserのを出してみた的なものなのかな?
枚数少ないから、別分野のものを個人的に作りましたって感じじゃないか
アスペクト比を変えてうまく生成できるかのテストみたい?
1111で単語並べてると「Warning: too many input tokens; some (2) have been truncated:」という警告が出てくるんだけど 75トークン以上はやっぱりダメなのか?
>>894 1111のバージョンが極度に古いかモデルの問題か
とにかく環境書いたほういいかと
>>895 すまない、環境は1111の最新(さっきもgit pullした)でグラボは3090、モデルはAnyV3、HNなし
現象はこれ(Time takenの上にWarningが出る)
関係ありそうな設定はこれ(デフォのまま)
https://imgur.com/a/tyWDHF3 何か判りますかね?
>>896 ソース見てきたけど
旧仕様の強調構文を利用する設定にしている場合に
処理自体が75トークン上限の古い解析が入るらしい
その辺り弄った覚えはないだろか?
>>896 追記
Settings の Stable Diffusion の項にあるこの真ん中のが
「ONになってると」そうなるようだ
古いプロンプト再現でもしない限り必要ないんだが間違えて弄ってないか?
- This IS expected if you are initializing CLIPTextModel from the checkpoint of a model trained on another task or with another architecture (e.g. initializing a BertForSequenceClassification model from a BertForPreTraining model). - This IS NOT expected if you are initializing CLIPTextModel from the checkpoint of a model that you expect to be exactly identical (initializing a BertForSequenceClassification model from a BertForSequenceClassification model). コイツは何モン...? 学習済みモデルに追加学習させたいのだけど...
>>897-898 そこONになってました
OFFにしたら警告消えました
いつ触ったか記憶に無いけど触ってたようです
ありがとうございます!!
inpaintやるときガンダムSEEDのコーディネイターの母親になった気分になるわ 目の色が違うわ!!
EimisAnimeDiffusionってvaeファイル無いけど無しのまま使えって事なのでしょうか
無しのまま使えって事だよ。必要かどうかもわらん状態でなぜ必要だと思い込んでいるのか vaeがないと死にそうなくらい不安ならAnything-v3(NAIのコピー)やSDやらいくらでもあるから拾ってきて使えばいい ちなみにMidjorney-v4もないけどな
artstation-diffusionを使ってみたいんだがこれファイルどれかわかる?
.ckptがないんだが
hakurei/artstation-diffusion at main -
https://huggingface.co/hakurei/artstation-diffusion/tree/main >>896 >>901 一応もう一つソース覗いたから知ってる事言っておくけどローカルの強調構文って
(xxx :2.0) みたいに ワード->スペース->:数値 でないと解釈しないよ
:とxxxの間のスペースがない (xxx:2.0) も 数値の前にスペース挟んだ (xxx : 2.0) も効かない
>>909 じゃあこれはどういうこと?
(huge breasts:1.8)
(huge breasts :1.8)
>>909 スペース入れないと効かないんですか
気をつけますわ
ソース見ないでいうけど、トークナイザがワードを分離しまいか? うちでもスペースなしで効果がでている。
anyだけど、
(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)(Greg Rutkowski)
グレッグさん連呼 括弧いらんかも
Greg Rutkowski :2.0
スペース無くても同じやね
modules/prompt_parser.pyに書いてある強調構文の正規表現はこうなってるので、スペースはいらん。 re_attention = re.compile(r""" \\\(| \\\)| \\\[| \\]| \\\\| \\| \(| \[| :([+-]?[.\d]+)\)| \)| ]| [^\\()\[\]:]+| : """, re.X)
t2iデバッグ実行してみたけどコロン前のスペースなくても強調は解釈したし CLIPがトークン化する際に末尾のスペースを削除してるから(hoge:1.2)も(hoge :1.2)も同じトークン列になる ただ (hoge: 1.2) みたくコロンの後にスペースはダメ
自分が弄ってたとこが処理すっとばしてたっぽいわまじごめん
それか(hoge: 1.2)の記述したときに見たの誤解したか すまぬ…すまぬ……
>>909 横からだけどそうだったんですね
なんか利きが悪いとおもった
extensionと同じように、モデルも1ボタンでDLしてckpt変換してインスコしてくれたらいいのにね
コロンと数値の間にスペースがある場合のみ効かない?のを勘違いしたようで お騒がせして申し訳ない というか検証とコード引用がすぐ出てくる辺りさすが技術スレっすね 自分が出しゃばる必要なんて全然無かったんや
まぁ自信出た直後に恥ずかしい思いするのはあるある 結論だけじゃなくて最初から該当ソース引用して貼ってれば確認しやすいし恥ずかしさも減る 5chのUI的に初手ソース貼ると長文になるからリンク貼る方がやりやすいか
いやどこかで :2.0のような強調文はエディションによって効かないとか見たことある 初期のSDでは効いてたし、どこかのバージョンでは今でも効くかもしれないし、わからない
とりあえずスペース空けなければ効くで間違いないがわかったら自分ごときには充分
スレチかもしれないけどNMKDでしかもローメモリ環境だと記述も色々違って混乱したぜ… ()で強調{}で弱体、倍率指定や[]、ネガティブプロンプトは使用不可、VAEやモデルミックスは使えないって感じだったよ
NMKDはバージョンアップでそれ大体出来るようになってるがいつの話だよ
強調寂澄の文字は指定出来るようになって欲しい今日この頃
WebUIは範囲選択してカーソルキーの上下で調節するから、スペースがないのが普通に思ってた
NMKD のdreamboothで特定キャラじゃなく 画風を学ばせたい場合、色々なキャラを 1枚ずつ学習させればいいのかな?
>>904 ありがとうございます
hugingにはvaeフォルダとかあったりしたから、私が知らないだけだと思っておりました。(どちらにしろ知らなかったのですが)
>>934 その全部が混ざったのが出てきそうな気するけどやってみて結果教えてほしい
本家はベースとしてのクオリティあげてくれればいいわ ユーザーたちが勝手にエロばっかり足すから
リアル・エロ、 リアル・非エロ、 二次元・エロ、 二次元・非エロ それぞれで高品質な特化モデルを作ってあとはユーザー側で好きな比率でマージしてくれってのが一番理想的な道なのかもしれんなあ まだモデルのマージはやったことないけど
あれ 逆にエロを含んだデータセットで学習したって書いてた気がするけど読み間違えたか
正直なところエロ要素の無いAI自動生成って、結局は『出力した絵の活用方法(目的)が明確にある人』以外は長くても数ヶ月も弄ったら飽きてそうだと思う 綺麗な絵が出力できたとして「きれいだね、良かったね。で、その絵どうするの?」という状況になる つまり何が言いたいかというと 「もっとエロ方向に進化早よ」
>>945 まだ一般リリースはされてないみたいだが
depth-to-image がどんなもんか気になる
>>937 2.0をベースにエロ系を追加学習してくれる人がかならず現れるw
みつけたらおしえろください!
>>937 デモページがつながらない。
誰か試した画像ある?
These models are trained on an aesthetic subset of the LAION-5B dataset created by the DeepFloyd team at Stability AI, which is then further filtered to remove adult content using LAION’s NSFW filter. 学習データーの段階でadult contentは外されているのかな
>>951 100%すぐ出てくるやろ。問題は使い物になるかどうかで…
現状ダンボールのタグの優位性はSDのエロでは太刀打ちできんところにいるからな切っても大した問題じゃないしね
引っぱり出せないエロ学習データなんて切ってかまわんわけだし
まぁエロ生成は、版権物にエロ足すからそこオリジナルのコピーではないって言いきれるのに
一発で公式が出すわけないってわかるしな
webUI対応待ち…正座して待つぉ
マジで本当に言語能力が強化されてれば プロンプトだけでマイナーキャラを再現できるかもしれない そうでなくとも、小物とかバックグラウンドのシチュエーションをバッチリ描いてくれるだけでも今のモデルと組み合わせて使える
というか1111もう768モデルを動かせてるじゃん 対応早すぎでしょ 新しい機能の実装も数日中に来そうだね
プロンプトで最も手を加えにくい目の形を自在にできればほとんどのキャラ再現ができそう
最近1111の更新止まってたけど 事前に情報貰ってSD2対応進めてたんだろうか 単にやる気なかっただけ?
あの更新速度からして対応してたんだろう 唐突に力尽きた説もありえるけど
>>953 5回ぐらいちゃんと読み直したが外されてそう
思いっ切り意訳すると
「これらのモデルは、ライオンAIで美しい画像だけチョイスして、さらにエロ画像は排除してそのデータセットで学習したよ」
みたいな感じかと
964だけどライオンデータセットの収集は手動かも、エロ排除はAIぽいけど
768-v-ema.ckptをmodels\Stable-Diffusionに入れたままweb UIを起動しようとしたらエラーで起動しなくなった 別の場所に移してことなきをゲット
説明読んでるととんでもない進化してるな 768x768対応と、超解像アップスケーラーが本命かと思ってたんだけど depth2imgも上手く作動すればとんでもない機能だわ
ライオンさんデータセットのエロ素材は説明文と画像が全く合ってない低質なものが多かったから 除外されてむしろ可能性が広がったんじゃないかなぁと思う
新スレでーす
【StableDiffusion】AI画像生成技術11【NovelAI】
http://2chb.net/r/cg/1669278997/ またワッチョイか…前スレみたいに荒れていなければIDのみに戻したいものだ このスレでワッチョイが入ったら明らかに流量が減ったし
ワッチョイごときでいなくなるようなやつはそんだけ自分のレスが後ろ暗いことだって分かってるんだろ
sd2は12GBじゃ動かないのか?メモリないって怒られる
ワッチョイスレは最終的にはIP切り替えで荒らしてる奴しか残らなくなって過疎化していく というか最初からそれを目的に荒らして自作自演でワッチョイ入れろって騒ぐ奴が多い
じゃあワッチョイなしも立てようよ! って言うのが狙いだろ
ワッチョイ有り無しの話が一番いらんのはみんなわかってるだろう 毎回毎回荒しと変わらん
最近人がいないのはほとんどがなんJとエロスレの掛け持ちだからだな ここはここでまったりやってりゃいいじゃん
あたおかさんは明らかに減ったしもう1スレはわっちょいありでの様子見でいいんやない
Anlas9990のこして更新されてしまった とはいえ特に使い道もなかったが 皆何につかっとるんや?
Automatic1111クイズ! Automatic1111にはプロンプトエディティングという機能が気を利かせて用意されてあります 記法は[1 boy:1 girl:0.5]と書き、これにより[]で括られた部分はstep数のうち前半を1 boyとして、後半を1 girlとしてプロンプトが解釈されます ここでstep数100で[1 boy:1 girl:0.1]と記述した時、1 boyとして解釈されるのは何番目から何番目までのstepか プロンプトエディティングどっちがどっちなのか毎回忘れる チェックポイントマージも同様
256x256、512x256だとまともな画像生成せず 512x512だとメモリ足りて生成始まったけど3060でETA1時間るっていってるぞ。GPU100%占有中。なんだこれ
>>984 そんな感じになるよなあ
無料生成いるから結局プランは変える気ないがもったいない気がしてくるわ
3060/768x512/ddim/20ステップ/バッチサイズ1/バッチカウント1で20分 出力サイズの問題なのかプロンプト問題なのかしらないけどだめだな 時間かかるし出力画像悪いし。まったく使い物にならない
>>982 プロンプトエディティングは切り替えるタイミングだから0.1=10%なら頭から10%時点、10なら10ステップ時点
なんだけど、マージは0.いくつの数字が「A+BのAを消す割合=Bを残す割合」で、どっちかといえば後者で考えやすいから混ざるのも分かる
20分とかやべぇな……そこまで性能求められるのか……
そこまで要求して見合うほど画像の品質上がるのか……?
見るに堪えない絵しかでない
あとフェイクやエロに直結しがちな実写成分削られたのかな
photo of a girl, kawaii, loli face, wear school uniform, highly detailed, sharp forcus, cinematic lighting
>>991 出たばかりの試行錯誤時代を思い出してほっこりした
この頃はみんな生まれたての赤子を見るような優しい目をしてた(ウソです)
>>988 英語ではなんでも逆にするのが好きだからAとBの比率みたいなのはほんと間違いやすくて
1111も途中で実は反対に変更してるし解説サイトもどっちがどっちか自信なくて5:5でしか説明してないとこが多いんだよなぁ
>>991 1~2ヶ月前ぐらいはこんなの量産してたはずなのに、なんかもう数年前の出来事に思える
>>991 2.0とはいえ素SDなんだから素SD向けの呪文でないとダメなんじゃない?
このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 21日 20時間 15分 54秒
5ちゃんねるの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《プレミアム会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。
▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/ ▼ 浪人ログインはこちら ▼
https://login.5ch.net/login.php
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250211120101ncaこのスレへの固定リンク: http://5chb.net/r/cg/1667401816/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】AI画像生成技術10【NovelAI】 ->画像>53枚 」 を見た人も見ています:・Blender Part59 ・Daz Studioスレッド Part16 (slip=vvvvv) ・【液タブ】海外製ペンタブレット総合 23【板タブ】 ・Winタブレットで絵を描きたい人のスレ【CG板】P1 ・MAXSCRIPT_Vol1 ・自主制作アニメを作ろう13作目 ・コロナウイルスのCGあるか? ・絵描きさん愚痴スレ ・【在宅】女性誌漫画アシスタント交流スレ【通い】1 ・絵のうまいサイトについて!38 ・Blender 初心者質問スレッド Part35 ・絵描きのtwitterスレ ・Cintiq】WACOM 液晶ペンタブレットPart105【DT】 ・【Midjourney】 AI画像生成 【DALLE】 ・Blender Part82 ・Terragen ・ナムコの鉄拳CG>>スクウェアFFのCG ・そろそろLinuxでCGやろうぜ ・6角大王って最強だよな ・【3Dデッサン人形】 デザインドール 9体目 ・【StableDiffusion】AI画像生成技術8【Midjourney】 ・MOTIONBUILDER 総合スレッド Part2 ・3DCG屋による雑談スレ Part27 ・CG作成依頼スレ ・pixiv奈落底辺スレ Part77 ・タブレットで絵を描きたい人のスレ ・PBWイラスト総合スレ Part2 ・【賃上げ要求】スト起こさないか?【労働時間短縮】 ・いまだにmy shade ・3DCG屋による雑談スレ Part17 ・トミーウォーカー アトリエ★136個目 ©2ch.net ・海外でCG学ぶのと日本で学ぶのってどっちがいい? ・絵描きのTwitterスレ5 ・■■■こんな画像探してます■■■ ・XP-PEN液晶ペンタブレット5【Artist/Star/Deco】 ・【pixiv】VRoid Studio Part2 ・チミの初めての3DCGソフト原体験は? ・ライノセラスでつくりたい! Degree4 ・【Midjourney】AI関連総合16【StableDiffusion】 ・【pixiv】もらって困った感想・コメント9【絵板】 ・Daz Studioスレッド Part45 ・YafRayをメジャーにするスレ ・【Midjourney】AI関連総合17【StableDiffusion】 ・CGを趣味だけでやってる奴の本職と生態 ・原色ベースでいい感じの壁紙の作り方 ・【液タブ】海外製ペンタブレット総合 20【板タブ】 ・Daz Studioスレッド Part26 ・Live Animation ライブアニメーション ・効率よく絵が上達する方法 筆32 ・pixiv 底辺卒業スレ Part86 ・【実践】AA+α アニメ製作スタッフフ募集スレ【修行】 ・【Scratchpad】 暇なら絵チャット 4 【lunch】 ・CGプロダクション応募資格→業務経験者のみ ・CG用補助入力総合part9 【G13 n52te スマスク】 ・【セルシス】CLIP STUDIO ASSETS素材検証 2 ・デジタル作画を始めたいんやが ・【トミー】候補生が昇格を目指すスレ1 ・第2回 2ch全板人気トーナメント ・pixiv 底辺卒業スレ part124 ・POV-Ray頑張れ!! ・【3D彫刻】ZBrush質問・雑談スレ43【3Dペイント】 ・【Painter】 Substance総合スレ Part2 【Designer】 ・【Cintiq】WACOM 液晶ペンタブレットPart113【DT】 ・messiahStudio総合スレその2 ・【スマホタブレット】携帯端末モバ絵【3DS・Vita】
22:01:02 up 28 days, 23:04, 0 users, load average: 126.38, 124.30, 121.57
in 2.0648608207703 sec
@0.27253103256226@0b7 on 021112