◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:Midjourney】AI画像生成技術交換3【StableDiffusion YouTube動画>5本 ->画像>79枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1661762186/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス
★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
http://2chb.net/r/illustrator/1661305344/ 前スレ
Midjourney】AI画像生成技術交換2【StableDiffusion
http://2chb.net/r/cg/1661146705/ StableDiffusionの人の他社製品比較 https://twitter.com/EMostaque/status/1561349836980584455 ・StableDiffusion、DALLE2、midjourneyは全て異なるものだ ・この分野は、去年(2021年1月)にOpenAIがCLIPを公開したことで始まった これにより画像生成のガイドが可能になった ●DALLE2 ・モデルかつサービス。インペインティングは最高の機能だが、ランダムなのでアイデア出しやより企業的な用途に最も適している。 ・来年にはコストが10分の1以下になりAPIも公開されると思われる ・トレーニングデータは著作権のあるイメージなので、オープンソースにはならないと思だろう ●MidJorney ・VCの資金提供を受けたベンチャー、ではなく研究所 ・非常に独特な絵画のようなスタイルを持っている ・一貫性に膨大な労力が必要。ランダム性が強いがある程度コントロールは可能 ・オープンソースとそうでない部分がある。 ●StableDiffusion ・アートからプロダクトまで、あらゆるタイプのイメージに対応する一般的な基礎モデルでもうすぐリリースされる ・まもなくDreamStudioプロシューマーサービスを発表する ・今まで皆さんが見ていたものベータ版のモデルテストから得られた生の出力で、前処理も後処理も行っていない これらを使うことで格段に良くなり、きめ細かいコントロールに力を入れた ・オープンソースのモデルなので、誰でも使うことができる。コードもデータセットもすでに公開されている そのため、誰もがこのモデルを改良し、構築することができる https://twitter.com/5chan_nel (5ch newer account) テンプレはとりあえずそのままにしました 「これ入れて」がいろいろあると思うので>1へ提案しておいてください
ついにイラストレーターの絵を学習させて似たようなイラストを作るAIが現る
http://2chb.net/r/poverty/1661760616/ >>1 乙!
hlky&980ti(6GB)で念願の512x512いけたー!
webui.py他更新してるの気付いてなかった、頻度が凄すぎる、教えてくれた人ありがとう
--optimized-turboで速度3割増し、面積で8割増し、えらいこっちゃ!
--optimizedだけならなんと640x640までOKだったよ、速度めっちゃ落ちるけど
これ上位GPU持ってる人はかなり解像度上げられるんじゃ・・
たて乙 現時点で、最もよい導入方法(ローカル)やcolabとかもまとめてあったら便利だろうけど、 最適な方法が流動的すぎて無理だよなぁ
まとめ情報書き込みたいけどNGワードで書き込めない。なにが引っかかってるんだろう?
とりあえずファインチューニング(textual inversion)メモ
追加で自分のペット画像などを学習させて登場させることができる
・流れとしては画像を学習させembedding.ptを作る → それを--embedding_pathで指定する → プロンプトで指定する
・利用時はptファイルを --embedding_pathを指定すればOK。
(ldm) ~/stable-diffusion$ python3 ./scripts/dream.py --embedding_path /path/to/embedding.pt --full_precision
・追加学習させたものはそれぞれ、トークンプレースホルダーを割り当てる必要がある(*、@、・・・など)
利用時は例えば"In the style of * , <other text>"となる。
これは使い勝手が悪いので hlkyは、分かりやすい単語とプレースホルダーのマッピング設定を検討中
https://github.com/hlky/sd-embeddings ここにはアーニャ、tomokoの学習データがある。
・他にも既に学習データをテスト公開している人がいる。 Usada Pekora 5枚の学習に3090で1時間
https://sd-textual-inversion-models.tumblr.com/ ・学習方法
https://github.com/hlky/sd-enable-textual-inversion Stable Diffusionをいらすとやでファインチューニングする
まだ情報がまとまっていないのでハードル高そう。full_precisionじゃないとダメなのかな?
>>9 書きたいけどNGワード連発されすぎて心が折れたw
とりあえずcolabで動かしたい人はここがおすすめかも
コマンドは公式のリンクと同じ。hugging face とかの部分が最初わかりにくいかも
https://zenn.dev/k41531/articles/2459bbbe8e5cf3 NGワードはすぐわかっちゃうと荒らしが対応するから秘密らしく、条件はよくわからない 「5ch ngワード サンプル集」で検索してみて、日本語アドレス酷いから貼らないけど 微妙に変えたり、2レスに分割するしかない
Stable Diffusionの人、Crypto界隈をめっちゃ煽っててワロタ。
・SDのように分配強化されたインテリジェントなインターネットが真のWeb3/メタバースと言える
・最初から価値があれば(トークンのような)経済的インセンティブは不要
・ETHマージ後は不要になった全てのGPUで美しい画像や音を作るだろう
https://twitter.com/blog_uki/status/1564122819151032320?s=21&t=4aFlC0UNkMiRV64jPxMGjw https://twitter.com/5chan_nel (5ch newer account)
NGワードは単純にリンクURLが引っかかってたりとかではなく?
●StableDiffusionの情報ソース等
・Discord
https://discord.gg/stablediffusion ・中の人のtwitter
https://twitter.com/EMostaque ・海外情報reddit
https://www.reddit.com/r/StableDiffusion/ ・
https://rentry.org/GUItard 環境構築情報は hlkyの方が早すぎて追いついてないので
>>18 を見たほうが良いが、その他TIPSは有用情報あり
・今後
・モデル v1.5の公式ツイートあり。8月29日時点で6日後(=9月4日予定)。100MBになる!?
・アニメ用モデルの公式ツイートあり(8/24のツイート ”すぐ")
・来月(=9月)は”audio"モデル、その後3D、ビデオ予定(時期不明)
https://twitter.com/5chan_nel (5ch newer account)
StableDiffusion TIPS
●性能など
・画像生成時間は、解像度、step数、サンプラで違う。他のパラメータは多分あまり影響はない
サンプラの差は大きい。k_euler_aとk_heunでは2倍差
k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
●ハード
・ローカル動作性能
出典:
https://rentry.org/GUItard ・K80(24GB)めっちゃ安いんだけどあり? → 古いからStableDiffusionが使ってるPytorch動かない
・複数GPUにすれば高解像度にできる? → 多分無理。複数GPU並行実行すればその分高速にはできる
・高解像度にしたい → 3090(24GB)でも1024x1024無理。RealESRGANで高解像度化したほうがよさそう
MJはもう別スレがいい?ここじゃあまり語られないし
>>22 > サンプラの差は大きい。k_euler_aとk_heunでは2倍差
> k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun
し、知らなかった・・
「生成時間は」で不等号だから、当然k_euler_aが長くて、k_heunが短いんだろうけど
一応(遅)←・・・・→(早)みたいなのあったほうがわかりやすいかと
>>23 一緒でよくね
スレの流れが早いわけでもないから下手に分散させたら過疎るだけかと
>>24 「時間」じゃなくて、速度でした・・・
hlkyで、it/s = コンソールでのit/s表示. sec per image = ブラウザ上での生成時間情報。2080Ti
k_euler_a 7.76 it/s 6.84s per image
k_euler 7.68 it/s 6.87s per image
DDIM 7.59 it/s 6.9s per image
PLMS 7.50 it/s 6.95s per image
l_lms 5.89 it/s 10.08s per image
k_dpm_2_a 3.95 it/s 13.0s per image
k_dpm_2 3.91 it/s 13.16s per image
k_heun 3.91 it/s 13.12s per image
進歩が速いのであくまで現時点。ただ結構違う可能性がありますよ、ぐらいですね
k_euler_aはSampling Step 20くらいでいい感じになるのでなお早くできる
--turboの効果凄いな、ちゃんとメモリ節約出来てるのにオリジナル版並の速度が出る
img2img、バリエーション起こすのにいいわこれ この用途だとscaleとstrength中間でスタートで様子見して、下手に大量にワード入れるより数ワードに絞った方が暴走せずいい感じになる
法律、権利関係の議論は熱くなりそうで別でやって欲しいんだけど、このサービス、技術的にどのぐらいのレベルなのか気になる
https://illustmimic.com/en/ 本日、イラストレーターさんの絵の特徴を学んでイラストを生成するAI サービス mimic(ミミック)をリリースいたしました!
2回までイラストメーカー(イラスト生成AI)を無料で作成できますので、ご自分のイラストを学習させたい方は是非ご利用ください!
mimic(ミミック)では15枚?30枚程度のキャラクターイラストをアップロードすると、自動で顔部分を切り取り、
AIが特徴を学んでイラストを生成します。規約によりご自身が描いた画像のみアップロード可能ですのでご注意ください。
img2imgは構図維持するよりstrengthを大きくして 元画像は言葉で表現できない細かな情報伝えるのに使ったほうが面白いな 例えば手前のオブジェクトはくっきりで遠景だけぼかすみたいな指示も簡単にできる
>>34 Loopbackはやってる?
Strengthを0.2~0.3ぐらいにしてLoopback Batchを5回とか10回かけると構図維持したまま細部だけ変形していくよ
>>26 ちな980tiの「a dog 512x512 cfg 7.5 step50 k_euler」で
hlkyの--optimized-turboで1枚=1分32秒(0.54it/s=1.84s/it)だったよ・・14倍差て、2080tiってそんな早いのか
AI画像は結構数撃ちゃ勝負みたいなところあるので、やっぱ高性能GPUは強いなぁ
日本昔ばなしの絵を画像生成AI「Stable Diffusion」に描いてもらいました。
「桃太郎」
VIDEO 「かぐや姫」
VIDEO >>32 今挑戦しようとしたら(もちろん自分が描いたやつね)処理に9000人待ちで生成どころじゃないのでなんとも言えない
>>32 waifulabsとかThis Anime Does Not ExistとかCreative AIとか
あの辺と同じ技術なんじゃね?
こいつらは雑多に食わせたモデル使ってるが学習データを特化すればできそう
はつねみくできたかわいい
>>26 >>26 RTX2080でoptimized版に--turboでddim 50step 512×512 1枚あたり7.5秒だな
2080Tiと殆ど変わらないとは思えないんだが --turboで何か処理を間引いてるのか?
>>38 9000人はすごw
mimicの運営の会社、前からAI画像生成サービス色々やってる会社みたいだけど、
Midjourney、SDブームで注目度が高いところに発表したからプチブレイク(ちょい炎上気味)してる感じ
学習めっちゃ時間かかるのにオンラインサービスでやって採算大丈夫なのかな?
と思ったらまだ有料版の料金は書いてなかった
>>42 1割差ならそんなもんかも?
ディープラーニング性能どれがどのぐらい差があるのかよく分からないので、
ちゃんとしたベンチマークが欲しい
2080Ti → 3090Ti で性能2倍、今後出る4090は、更に2倍(予想)。速いGPU欲しくなる
StableDiffusionもバージョンアップで性能上がっていきそうですが
初音ミクは前スレのこれがめっちゃ良かった turquoise colored twintail、とGreg Rutkowski みたいなキラーワードを見つけると高品質が担保されて、追加ワード微調整できる感じ digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski k_euler_a, cfg 10, steps 50, seed 721628136 1段目 turquoise -> green -> red 色違い 2段目 twintail -> ponytail -> bun 髪型違い 3段目 summer -> cocktail -> maid 夏ドレス、カクテルドレス、メイドドレ SDは既存アニメキャラは意図的に出ないようにしてるみたいでそういう用途ならdalle miniのほうがええね
前スレの > でも3090TI(24GB)でも960x640、もしくは896x896が限界、らしい これ--optimizedだったら1024x1024行けるかな?
Craiyonのanimeエンハンスモデルが3090のシングルで数時間学習しただけで あの性能なの見るとSD公式のアニメモデルが来ると凄いことになるのかもな
>>45 そこだけ妙に節操があるのはなんでなんだろうな
著作権なんて便所の糞と一緒に流しちまえとしか思ってない連中なのに
どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ MJの高解像度出力ってどういう仕組みでやってるんだろう? あれがSDに降りてくれば凄いんだが
512x512で作ってから 同じプロンプトでimg2imgの1024x1024低Strengthかけるなんていうやり方もあるらしい
逆に絵から「このテキストで作る絵に近いですー」って出してくれれば 好みの絵つっこみまくったら共通ワード出せるのか
>>46 3090持ってないけど、11GB VRAMで --optimized-turbo 1024x640がいける。この時VRAM 10570 MB(95%)でほぼ限界。
オプションなしだとクラッシュする。
turboなしの--optimizedだと、VRAM 10774MBで変わらない(何故か若干多い)→ 遅いし現時点turboなしは意味がなさそう。
VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
>>36 勘違い、実験中で-turbo入れ忘れ
0.78it/s=1.27it/s、約10倍差だった
(どうでもいい情報ごめん)
>>51 今それ試してるんだけど、ボケちゃって詳細が生成されるわけでもなくいまいち
ESRGanと変わらないというか・・strを0とか0.01、0.05、0.1とかいろいろやってみたけど
MDでいうlightでないupscaleみたいなのが欲しかったんだけど
大元の生成時の画像とseedと呪文等全部ちゃんと記録しといて、-turbo外して大きいのを作り直しとかがいいんじゃないだろうか
>>48 むしろ逆だよ
「なんかカッコいいアニメのポスター」で既存のアニメの絵が出てきたら使いにくいじゃん
フォトストックみたいに気軽に使えるものが欲しいんだろう
>>53 最初から12GBとか大きいのには効果低いってことなんだろうか
あくまで小メモリ雑魚GPUへの救済
> VRAM消費量が解像度比例なら、24GBあれば1024x1280いけそうな気がする
ぐへへへ・・3090tiいっちゃうか?BTOで60万とかするけどw
解像度比例と思って面積範囲内で1:2くらいの縦長にしたらOut of memoryだったりしたのでよくわからない
まぁあんま正方形から外しちゃうとAI的に意味ないのでアレだけど
やっとGoogle ColabでGPUつかめた。
Google Colabで hlky同等。つまりNotebookで使うのではなくGradIO WebUIが起動するノート
https://colab.research.google.com/drive/1cd35l21ewU0fwWEnPjY_th5YORmMfZCd 事前に自分のGooglde Driveにmodel.ckptを配置しておく前提だけど、それ以外は上から順番に実行するだけでOK
起動がかなり遅いのがデメリットだけどWeb UIはやはり便利
こちらも同じくhlkyのGoogle Colab版。試してないので違いは分からない(動くかも未確認)
https://github.com/altryne/sd-webui-colab 例の炎上サイト、Tesla P100×1台分程度のリソースしか用意してないな 逆に言うと殆ど個人の趣味レベルの会社でもあんなサービス作れる時代なのか
貧弱なローカルPCでやってたらMJって凄いことしてるよなぁってヒシヒシと・・ ①呪文を受けて512x512を4枚作って、半分のサムネにしてgrid表示 ②upscale依頼を受けて1枚を1024x1024に同seedで「作り直し」で情報増加 ③さらにupscaleで2048x2048化、これも作り直しで情報増加 ②や③を同じ画像に対して繰り返すと内容が微妙に変わってたのが何なのかよくわからないけど
>>56 凡人の考えなんて3周遅れなんやね……、情報サンクス
AI勉強するか、と思ってサイト検索して、Python基礎、微分、線形代数、この辺まではまあ高校数学だから、そういうのあったなーでいいけど 行列偏微分のあたりでんんん???となって確率統計で時間かかってる。道は遠い 俺どうやって大学卒業したんだろう・・・。やっぱ勉強大事
>>58 ちらっと中身見ただけだけど2個目の方はアクセスするためのパスワードかけられるっぽいね
別にアクセスされたからってそんなに困ることもないだろうけど気になる人はそっち使うといいかもしれない
>>60 かなり運用コスト高そうよな
微妙に変化するのはSDで言うところのi2iしてCFGを弄るイメージ
anatomical chart(人体解剖図)という 入れると人体が正確になる代わりにやけに生々しくなる劇薬みたいなワードを発見した あと真正面向く
>>60 MJは従業員10人の零細企業だけど有料プランの料金体系はawsオンデマンドの料金を超えないように設定されてて
既に利益は出ていると、そして常時エクサスケールのリソースが消費されている
地球シミュレータの数十倍となる計算量だけどawsなら金さえ払えばいくらでもリソース使えるから零細企業が
いきなりこんなマシンパワ―使えてしまうという凄い時代
>>62 AIの何やってるか知らんけど深層学習の原理は普遍近似定理
フーリエ解析や関数解析を勉強してないと定理の証明は理解できんぞ
AI、最初はおもろかったけどミミックだっけか、あそこまで露骨なの出てくると完全に無法地帯と化してきて引くわ イラストレーターは今後自分の絵に転載禁止の他にAIへの出力及び学習禁止みたいな項目も書く必要が出てくるねぇ
ミミックの話題はこっちでよくね?スゲー盛り上がってて笑う
AIイラスト 愚痴、アンチ、賛美スレ
http://2chb.net/r/illustrator/1661305344/ あんなありがちな顔だけ生成マシンがここまで荒れるとは
hlkyにDokcerファイル、docker-compose.yml他が追加されて、Windowsでもdocker compose updだけで使えるぽい
https://github.com/hlky/stable-diffusion/discussions/93 WindowsのDocker Desktop って NVIDIA GPUの準仮想化に対応してんのね。知らなかった。
便利そうではあるけど、なんかトラブりそうで誰か人柱が欲しいw
>>74 規約だと生成マシンのために用意する画像は自筆のものだけってことになってるけど
絶対他人の書いた画像をぶちこむ奴らが湧くから絵描きは普通に警戒すると思う
どのみちファインチューニングしたファイルがどんどん配られるようになるから反対しても無意味だよな 配布されてたぺこらの奴はまだまだ…って感じだけど品質の向上はどんどん進むだろうしな
>>64 って書いたけど実際動かしてみたらなぜかパスワード機能しなかった
webui.py書き換えて直接パスワード指定したらできたから結局どっちでもいいかも
この板にもAI愚痴スレ立てた方がいいの? 物申したいだけなら余所でやってほしいんだけど
賛美を抜いた愚痴アンチだけのスレが欲しい または賛美スレもこの板に立てるとか
>>50 > どのみちSDでは縦横両方が512を超えると途端に破綻しやすくなるから後から超解像度したほうがマシ
> MJの高解像度出力ってどういう仕組みでやってるんだろう?
あの1024化は謎すぎる
前に縦長1:2で全身出そうとしたら最初の4枚の時点で破綻してたから、そんな凄いことはやってないとは思うけど
賛美がCG板で 愚痴アンチが向こう完走次第イラストレーター板 でいいんじゃないかな 板の特性的にその方が住み分けできる気がする
midjourneyが期間限定で--test,--testp,--creativeオプションを実装してるね
ID:l6B+4duJ
>>1 ★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
http://2chb.net/r/illustrator/1661305344/ >>83 また定期的に期間限定やりやがってくやしい・・でも
> 1) A general purpose artistic mode you can use by typing --test
> 2) A photo-realism mode you can use by typing --testp
> If you want it to be more creative type --creative after your prompt
https://twitter.com/ro1was/status/1564256480701730816 マジかって感じ
https://twitter.com/5chan_nel (5ch newer account)
いいんじゃなかろうか
>>86 ほくろ
鎖骨にも見える服のシワ?
えっち!
手軽なAIで生き残れるでしょ スマホでも出力できるし
Google Colabで現在のサンプラーを確認したりサンプラーを指定したりするのはどうやればいいのかしら
MDのtest、girlって入ってても結構な確率でオッサンとか出るな
midjourneyて適当に単語入れてもなんかいい感じ(雑!)になるけどあれってどの段階でどんな感じに調整してんだろ(あやふや!)
MJの勝手にいい感じになるのが面白いし、本来の創作からはかけ離れてるなとも思う たまたまこんなの出たぞ!って自慢する遊びって感じ 「俺が考えて台を選んだからパチンコで勝ったぞ」みたいなレベルの
作成した画像だけで指定したプロンプトってわかったりする?
--testで久々に入ってみたけどMJのrelaxモード遅っせぇ! つか動きだしたらまぁ早いんだけど、(Waiting to start...)で数分、下手したら10分くらい止まる ある時間内に受け付けられるfastモードの上限数があって、それ以下の場合に初めて受け付けてもらってるとかじゃないかな ようはすべての有料キューの後回しにされてる
デコーダーもあるから一見出来そうに思えてやっぱり出力→入力への逆変換は不可能なんだよな 逆にそれが出来たら既存画像から髪の長さだけ変更とか構図だけちょっと変更とか服だけ脱がすとか自由自在に改変できてやばい まあそれ用のAI学習すれば出来てしまうんだろうけど
ちなソースの中身見ると最初から各自で自由に改変・拡張できるように 滅茶苦茶親切に色んな機能があらかじめ用意されてるのな 短期間に機能追加が進むわけだ
>>99 seedが違うんで完璧に逆は無理だね
なおSDでseedまでわかる検索サイト
https://lexica.art/ 日付が8月上旬に集中してるので、その頃のDiscordのβ情報だと思われる
>>98 SD取り入れたらしきtestモードはパワーが必要らしいからな
test実装で人が増えた+みんなtestモードで遊んでる=リラックスマン死亡
だからローカルで動かせるSDが神すぎる
MJのファインスケールの技術がSDに降りてきたら凄いんだけど MJみたいな営利企業だどそこは秘匿されて論文すら公開されないんだよな
>>102 できるよloliってやると幼女に
pregnantってやると妊婦になる
>>102 はい、一生懸命プロンプト入れたらできますよ!
え?今日からMJを始めたい?いいですよ、それじゃあDiscordに登録してください
ローカルだった、間違えた まぁ初心者が首を突っ込むとマナブさんに殴られるみたいな酷い状況になること請け合い
MJのtestでオリジナルねんどろいど試したがクオリティ高いな
ゲースロのデナーリスだけど
Daenerys.nendoroid, --test --ar 9:16
認識出来る人物だと何回かトライしたら本物のような物出してくれる
ただtest使える期間短いからみんな試してるのかrelaxだと遅くてつらい
--testで適当にアニメキャラ出したら色使いや絵柄がパンツ先生ってのにやたら似てる気が・・ まぁアニメ絵をコピーしてるアニメーターかなんかだから当たり前なんだろうか
ちょっと間違うと?平気で事故画像になるな 赤い髪って指定で頭から流血してる感じになったり水着指定したら何故かおっぱい丸出しとか google driveに画像保存するタイプのnote bookは危なくて使えんわ img2imgで大人体型の元絵をyong girlで変換すると何故かロリになったりするし
分かる メンタル弱いからSDはスレに貼られてる画像でもびっくりすることあってMidjourney使ってるなあ 実写の人間の顔が生成されるのも怖いときある
ツイッターの#midjourneyの外人を何人かミュートしたことある どの人も上手いんだけど、肋骨に肉と内臓みたいなのが収まってるのばっかあげる人とか 数回に一回ゾンビみたいなのが歯剥き出しで絶叫してる顔のアップみたいなの入れてくる人とか
110みたいなのはあるな 気を付けてもらいたいのは、googleのGPU借りて画像を生成してたら ロり画像になってしまって垢ごと永久BANみたいな流れ。十分気を付けてくれ
>>66 plastinationおすすめ
>>75 この際WSLおよびDockerはオーバヘッドになるだけなのでおすすめできない
>>95 https://replicate.com/methexis-inc/img2prompt ロリどころか赤ちゃんから老人まで全裸にできるし、他に倫理的な問題がある表現もワード次第で大抵出せるから、今まで一般流通のなかった特殊性癖な人にとっては供給量が砂漠から海になるくらいの地殻変動が起きてる。
下手に国内法で規制とかしたら外国AI企業が発展して日本の著作権法で検索エンジン開発できませんでしたの再来になるな クリスタが海外製お絵描きソフトにやられて下手くそ日本語訳のソフトを外国人サポートスタッフ相手に使い方を聞くことになるぞ☺
>>116 ,117
その辺も重要だと思うけど、別スレで
http://2chb.net/r/illustrator/1661305344/ 映像作品の倫理、権利関連は専門的な話なので専用スレがあってもいいと思うけど法律板かどこかに必要なら立ててください。
huggingfaceとかColabに面白いツール結構あるんだが、一応学術的な用途のサイトをエンタメ乞食目的で拡散していいのかめちゃくちゃ悩むな
VRAM足りないって言われる、GPUでコスパのいいのなに?
Colab pro使ってるけど512、ステップ数50、5枚一括生成辺りからもうプレビュー読み込めなくなってしまう やっぱり1枚ずつ生成した方がいいのかな
なぁ今やっとローカルに環境構築できたんだがcmdで一行ずつコピペするの大変だからpythonで①作業ディレクトリの設定、②promptの入力、③保存して次行くかor保存して次行くか、くらいまで人がやる作業減らしたいんだが誰かヒントをくれんか。 俺の能力は8/27までパソコンをペンタブを動かすための道具としか思ってなかったくらい。
>>124 >>18 を試してみては
ブラウザ操作できるのが楽。出力は画面にも出るしoutputディレクトリにも自動保存される
手順2のckptファイルダウンロードは済みで、3のminicondaもインストール済みだと思うけど
背景が得意と言ってもちょっとイラスト風に指定すると いかにもAI君が描きましたって画風になってしまって使いにくいな 最近流行の情報量の少ないクールな背景はimg2imgで詳しく指示してやらないとプロンプトだけでは難しいわ
pythonって環境汚れるから嫌なんだよな dockerに出来るなら移行させるか
AIはイメージボード的に考えて自分でさらに描きこめる人じゃないと活用しにくいかもね。
>>127 anaconda/minicondaでもか?
環境が汚れるというかソフトによって細かくライブラリのver調整しないといけないから 共存が難しいんだよな、あっちが動く設定ではこっちが動かないみたいになる condaコマンドで個別環境作っても結局共通のライブラリも調整しないといけないことがよくあるから 色々並行して開発するには仮想環境作らないといけないって話になって面倒になるからな
単純に複数フォーク使う場合はDockerの方が気分的にいいね 性能が気になるけどまだ動かしてみたって報告見つからないな
#stablediffusion が使えるPhotoshopプラグイン登場
>>132 例のサイトなんかより遥かに凄いな、もう誰でも絵を作れる時代
>>127 Docker楽だよ
今はリポジトリにDockerFileがあるからそれそのまま動かして構築完了まで待てばモデルのDLや配置からWebUI起動まで全自動でやってくれるよ
WindowsでもWSL2で適当なディストリビューション入れてDockerDesktopだけ準備すれば使えるからそんなにハードル高くないしね
>>131 うちはずっとWindows上のDockerでやってるけど速度的なオーバーヘッドは感じないよ
GPUは1080無印、k-lmsの50stepで一枚あたり27秒~30秒前後だからだいたい色んなところで報告されてる時間と同じぐらいだと思う
>>137 普通の使い方ならそうだけどGPUをdockerから参照させるのが(できるらしいけど)なんかトラブル起こしそうで試してない
問題なく動いてる?
レス先間違えたw
>>135 情報ありがとう。
手順とかどっかに書いてますかね?
dockerーcompose upする前のnvidiaのdriver設定とかあると思うんですが、そのあたり
>>137 うちの場合、
・事前にWindows上でWLS2を使えるようにしておく(うちの場合はUbuntu22.04を入れたけどたぶん何でも良い)
・DockerDesktopをインストールする
・VSCodeをインストールする
・VSCodeにRemote-Container拡張とRemote拡張とDocker拡張を入れる
・適当に
https://github.com/hlky/stable-diffusion をcloneなりZipでDLしてくるなりして展開したフォルダをVSCodeで開く
・VSCode上でF1キーを押して「Remote-Container:Rebuild Container」する
・VSCodeがなんか訊いてくるから docker-compose.ymlを使っておくんなまし的な選択肢を選ぶ
あとはしばらく放置するだけで起動までいけたよ
細かい設定とかは特に不要で出力ファイルのoutput先はちゃんとホスト側のoutputsフォルダになってるからDocker内とややこしいファイルのやりとりをする必要もなかった
一応参考資料
Stable Diffusionをローカルマシンで実行する(VSCodeとDevcontainerを使用)
https://zenn.dev/hayatok/articles/6141a9a46e4f48 うちは当初はこの↑の記事を参考にDockerでローカル環境作ってやってたんだけど今は
https://github.com/hlky/stable-diffusion に公式のDockerFIleとdocker-compose.ymlが入ったからこれを使えば自前であれこれする必要はなくなったって話ね
最新バージョンならコンテナをビルドしたら自動でWebUIの起動までやってくれるはずだよ
一応念のためだけどVSCodeは拡張が便利だから使ってるだけで別に必須ではないよ もちろん自分でdockerコマンドを叩いても問題なくいけるはず
出先でID変わってるけど137です
>>138 なるほど
GPU関係のドライバとか設定とかないんですね。
どういう仕組みなんだろうw
帰ったら試してみます。ありがとう!
>>141 正直dockerにはあんまり詳しくないんだけど、理屈としては
・Dockerfileの1行目のここでドライバとかはもう入った状態の(NVIDIAが提供してる)イメージをベースにしている
FROM nvidia/cuda:11.3.1-runtime-ubuntu20.04
・docker-compose.ymlの19~20行目のここでdockerコンテナに対してホストのGPUを使用する許可を与えている
devices:
- capabilities: [gpu]
ということだと思う
たぶん
知らんけど
ローカルで動かすには大変なんだね DLしてポンと行けるようになるまで待つしかないか‥
>>58 これの二番目を構築したけど、ここ入力したプロンプト情報て制作者さんとかプロンプト公開サイトに流れますか?…
>>142 なるほど。ベースイメージがいい感じになってるってことですね(雑理解
>>144 流れないので安心してなんでも入れてOKですw
>>125 ありがとう。でも開発者の手記みたいなやつ翻訳しながら構築したからminicondaとやらは導入してないぞ…必要そうなのpipでインストールした。
>>86 えっ?
これがいいとか思ってるなら精神病院に行けよ
Pythonのみ環境だったらあぶぶニキのnoteの手順がわかりやすいかも
ちなみに上の話の確認をする過程で軽くTwitterを検索してたらなんかGPUなしで(CPUで)StableDiffusionを動かせるDockerコンテナを作った人がいるみたいなので興味がある人は試してみてほしい
dandelion @dandelion1124 (2022/08/30 02:52:19)
Dockerコンテナで動かせるようにしました。10分くらいで作ったので雑なのは許してほしい。
https://github.com/atinfinity/stable_diffusion.openvino-docker https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fdandelion1124%2Fstatus%2F1564309989447315456 [引用元] からあげ @karaage0703 (2022/08/29 23:57:04)
@karaage0703 雑に動かし方をzennに投げておきます。Docker版やGitHub Action版は誰かに任せました
> Stable DiffusionをローカルのGPU無しのWindows PC(Intel CPU)で動かす方法
https://zenn.dev/karaage0703/articles/4901bf68536907 #zenn
https://www.google.co.jp/url?q=https%3A%2F%2Ftwitter%2Ecom%2Fkaraage0703%2Fstatus%2F1564265883995754496 キム・ヒョンテ(Hyung-tae Kim)とかも結構ヒットする
>>151 なんかとんでもねえところに置いてあるなと思ったら
GoogleCloudに置いてるブログの直リンクがgoogleドメインに化けてるだけか
マッチョな赤毛イケメン描いてって言ったら想像以上にリアルなエロいの出てきたんだけど、しかも1枚エロすぎて?黒塗りされてた
これローカルだとエロ画像も作成してくれるんかな
今写真か画像から3DCGにする技術あるって見たけどそういうソフトって知ってる? 組み合わせれば3DCGモデル作れそうなんだけどなぁ
仮に世界中全ての画像生成AIがサービス停止したとしても、ローカルに構築しておけば生成し放題。GPUと速度は比べ物にならないがIntel CPUのみでも動かせるようになったし、環境だけは持っておくべき。
https://zenn.dev/karaage0703/articles/4901bf68536907 フォトグラメトリーってヤツ、アップルスマホで動くらしいけど まあメッシュはわりとゴチャゴチャなんてそのままじゃ使いにくい リトポアプリで家具なんかは割と簡単にモデル化できるよ
>>138 Windows10(insider previewでWSL2はインストール済)ですが
docker-compose.ymlのビルドで以下のエラーになりました。
nvidia-container-cli: initialization error: WSL environment detected but no adapters were found: unknown
また、entrypoint.shが、改行コードがCRLFのため動作しない(LFに変えればいいだけですが)でした
Windows11だと不要なのかもしれませんが、どうもcuda toolkitが必要なようです。
疲れたw
macでローカルに試みてみたけどPyTorchのインストールで早くもつまずいた こんなややこしい事よう出来るなみんな
凄いおもろいんだけど呪文周りが大変だねこれ タグみたいにしてクリックしてどんどん追加出来るような感じのUIに進化して欲しい
>>158 NVIDIA Instant NeRF: NVIDIA Research Turns 2D Photos Into 3D Scenes in the Blink of an AI
VIDEO NeRFは複数角度からのイメージが必要で、それをSDが生成できるならその時点で3D生成できてることになる気がする
>>162 3DとかAIとかをMacでやってる人尊敬するわ
>>161 うちも環境はWindows10だけどもしかしたら最初に色々試行錯誤した時にcuda toolkitは入れたかもしれないすまん
entrypoint.shはこっちでは特に変更なしでも動いたけど何の差だろう……
>>164 グラボまだ高いよねぇ
自分はラデ使ってるから、乗り換えしないと使えなさそう
GTX1650~1660でもまだ2.2~2.7万するし、GT1030辺りでも動くならいいけど実質有料ソフト揃えるようなものかも
>>168 ちなみに1650は動かなかった
動くようになるっていうmodifyはやってみたけどcuda out of memoryになった
>>169 2年前にZBrushで描こうかなと思ったけどむずいんだよねぇ
やっぱ依頼かなぁ、今時間無いし
MMDレベルで顔だけで(胴体はフリーモデルから繋ぐ)演算ボーン込みとかなら相場いくらくらいだろう
5万くらいならグラボ買い替えるのとどっちが得か
作れる人が羨ましいなぁ、絵は描けてもBlenderでモデリングは駄目だった
>>167 いえいえ。まあこうなる気もしていましたw
InsiderPreviewに参加したら、Windows11に強制アップデート
Windows11になってるのに、Windows10の更新をパッチを入れろ→インストールすると当然エラー、
Windows11のベータが入ってるぽい?ちょい絶望中ですw
多分こんな感じかな?と思うのですが、
●Windows10
・WSL2
・Docker Desktop
・(nvidia driverは普通のでOK。Cuda on WSL Driverをクリックしても普通のDriverページに飛ぶ)
●WSL2(ubuntu20.04)
・cuda-toolkit ?
●Dockerコンテナ
・Docker fileをbuildすればOK
cuda-toolkitがよく分からない。
https://qiita.com/ksasaki/items/ee864abd74f95fea1efa の手順で
sudo apt-get install -y cuda-toolkit-11-2しても動作しない(同じエラーになる)
また気力が戻ったらまたチャレンジしてみます。 とりあえずWindows11の操作になれようw
マイニング需要減退に4000番前の買い控えとが合わさったうえ
NVIDIAはマイニング景気が続くと思ってかなり以前に4000番用のチップを過剰生産してしまったそうな
> NVIDIA TSMCへのGeForce RTX 40 seriesの発注量を削減へ 2022/07/02(Sat)
> DigiTimesによると、AMDとNVIDIAがTSMCへのオーダーを見直しているという。
> DigiTimesはApple, AMD, NVIDIAがオーダーを変更していると述べている。AMDは7nm/6nmのオーダーを減らし、
> NVIDIAはGPU市場の飽和による次世代GPUの需要減に対処しようとしているという。
> 現在、NVIDIAはGeForce RTX 30 seriesの在庫を大量に抱えており、一方で市場も飽和しているため、
> これがシンプルにGeForce RTX 40 seriesの需要減の要因になっているという。
4000番売るために、3000番は値下げ防止にもう問屋に卸してない在庫限りとか
> GeForce RTX 3000シリーズの在庫処分?2022年8月26日
https://akiba-pc.watch.impress.co.jp/docs/wakiba/find/1434896.html > 「上位GPUを中心に一部メーカーのモデルは、すでに発注ができない」という話もあり。
(ローカルSDのための技術交換です)
ZBrushでVroid弄った方が早いかなぁ たかが私でも描けるような絵1枚で数万の費用とか発生する世界だったから早くこの方面進化して欲しい 0→1は無理でも手直しできるレベルなら使いこなせそうだし
>>172 今は時期が悪いおじさん「今は時期がいい」
ってこと?
>>168-170 ,172,173
別スレの誤爆? なにかのコピペ?
グラボが高いとかZBrushで作るとか一体何の話してるんだ
ローカルSDはゲーマーと視点がずれてるのが面白い 「VRAMなんて10GB以上は普通いらない」って世界だそうで、なお4080で16GB(爆速ではあるが)とか 自分は生成速度より最終的にいかに大きくかつ精密な画像作れるかが大事だと思うな ツイッター見ててもMJの生成画像は1024x1024が標準で16:9指令で1792x1024って大きく緻密綺麗で人気だけど SDで生成されたのは512x512で大抵見向きもされてない ESRは新しい物を一切追加せず引き延ばすだけなんで解決になってない、waifuよりマシって程度
>>175 横からだけどもしかして起点になってる元レスの
>>158 と
>>164 がNGか何かで見えてない人?
>>175 AI総合スレみたいなのないからじゃない?
一応イラスト1枚から3DCGやアニメに繋がるから全く関係なくもないと思う
素材からの手直しも過程として似てるし
164までは分かるけどその後のレスの意味は俺も分からないなw NeRFとかはスレの趣旨としていいと思うけど
>>176 > SDで生成されたのは512x512
同じように自力でアップスケールできるよ
自分で言うのもなんだけどGPUの話題は問題ないでしょ
生成速度と生成解像度に直結してるのでCUDA使うローカルSDとは切っても切れないし
colabのGPUガチャとも関連してるし、技術情報交換だよ
つか今までも前スレでもみんな普通に話してるんだけど、GPUで検索してみてよ
ZBrushは正直スレチだと思う、あんま知らんけどAIじゃないよね?
>>180 いいGPUがあればね・・
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
http://2chb.net/r/illustrator/1661305344/ これ3DCGと関係ないじゃん
ここCG板だよ?
そっちって2D絵描いてるイラストレーター向けってかイラストレーター板に立ってるスレだよね こちらはCG板に立ってるから3DCGも扱うんじゃないの? 最近のAI話題も大体2D絵の事だと思うし
一般の使用想定者は2D、いわゆるハンコ絵や背景の生成目的に使うが ここの板に来てるのは3DCGに使う資料とか、変換するとか、あるいは他の目的とか そうした用途で使用する人も想定できるんでないか、CG板だし
まぁ、AIは3DCGゲームデータをかなり学習してるようで密接ではあるんだよねぇ MJでレンダリング系呪文使ってる人の多いこと
>>181 2DCG・3DCG板なんだけどなぁ…
前者しか知らないお客さん達の立てたスレなのかな?
これで資料作って参考にしたり加工したりして3Dイラスト作ってる人も居るよね
興味あるから来たけどここはあんま盛り上がってないみたいだね
猫の人(たかなんとかさん)が紹介してたバイドゥのお絵描きAI動作確認してみたけど GPU使わないしおかしいなと思ったらがっつりwebAPI問い合わせしてるタイプだった
クリエイター目線で雑談質問含めて総合スレにした方が伸びると思うは分かる 技術って言っても一般クリエイターはプロ含めて道具を買ってその使い方の知識を学ぶだけだと思うし クリエイターであって開発者ではないから、その辺りの定義は開発者の方がアップデートして情報公開してくれるんじゃないかな
フォトショのプラグインのあのデモ見る限り ローカル版で頑張るよりフォトショのサブスクしたほうが全然効率良さそうなんだが 既にリリースされてるんだっけ? ペイントツールと直接連携できるのはやっぱ強いわ
操作方法のマニュアルでなくて絵自体を上手くするテクニックとか? AIにそれを再現させるんだよね、我々ユーザーの出来ることはある程度限界があるのでは 自分で描くなら完全再現できるけど、3DCGでも再現難しいしなぁ、自分はその点では3DCGに近いとむしろ思うかな コマンドで調整するのと3DCGソフトで元の絵をなるべく再現するのって似てる工程な気もする
3Dプリンタでフィギィア造形とか AIが完全な絵を描くにはむしろ立体的理解が必要なのか 3DCGがさらなる進化のカギを握るはありそうだ 3DCGのデッサンモデル人形で絵が上手くなったor時短できたって話もよく聞く 実際次のVerの別ラインナップではその辺りが出てきて他のAIツール群と提携しそうではある
>>189 別に伸びなくていいです
何だか知らないけど賑わってるからって理由でお客さんが流入するとろくなことない
Adobe化せずセットでも安価なサブスクにして欲しいなぁ 全部従来のクリスタみたいにオフラインでも使える感じで
途中の生成過程よく見てるとフラフラして面白いよね 腕が出たり消えたり、顔つきがふっと変わったり
フォトショもオフラインで使えるけどフォトショ自体少し高いよね フリー含めたAI普及しそうな今なら尚更 まぁ代替え自体は同じようにあるけど
解像度を高めるほうほうが見つからんな 一度生成した画像を4個に分割してesrgenで高画質リサイズして元のサイズに復元してから img2imgに同じプロンプトで投入して見たんだけど(例、右下256×256の領域を512×512にしてからimg2img) これやってもぼやけたままで細かいパターンが作られたりしないんだよね img2imgは元がぼやけた画像ならそれに応じてぼやけさせてくるらしい
ってかこのソフトだけでは何もできないことぐらいCG描いてる人なら知ってるよね 出来たら〇dobe辺りが黙ってないと思うw 結局全員が使い出したら差別化が必要になるから
>>198 どうしようもないね・・いきなり最終サイズじゃないと接合部で整合性取れないし
ローカルだと化け物GPU所有するしか活路はないかと
MJは裏でなんかとんでもないことしてると思う、たまたま今貼った
>>197 をもっと高度にした何か
--ar 1:2 とかにした人間が頭二つになったりするので
間だけじゃなく、ハチの巣状に複数個所描画しながら、ステップ重ねてるとかかも
従来の才能知識技術必要なのと違って呪文の運用方法のマニュアル覚えれば誰でもできるからね そのマニュアルもやがて洗練化され、環境をセットすれば素人でも操れるようになる日もそう遠くないのかもしれない
明確に禁止だっつってんのに未来の話をしたがる奴は日本語が不自由だと思うしかないなもう
もともとイラレ板から分離して出来たスレみたいだけど あっちは公募スレとか雑談系スレとかが雑談や過疎やスレ違いの内容で機能しなくなった例がある そういう民度なか知らないが、だからこのスレの1もそれを明記していると思われる 実際あっちでも板違い?の3Dの話が出てる、ここで禁止しているからだろうけど
いまいち分かりにくいよな イラレ板は業界の話とか職業とか金絡みの話じゃないのか? 技術や学び全般はこっちな気がするが
>>203-205 何の話してんだよ・・・。どっか別スレの話ならそっちでやりな
いい加減にしてくれ
>>198 あっちの板自体が絵や絵師に関する精神論とか未来を語るような総合サロン的な感じになってるよ
ニュース系で騒がれてる話題を専門板で取り扱う業界関係者目線の総合雑談スレみたいな立ち位置
だから雑談系の人達ははそっちに行こう
1人か2人かしらんけどかなりのアホが迷い込んできてるな 悪意はなさそうだがそろそろ黙って
メジャー紙(?)も続々取り上げてて乱用待ったなし
今の時点でこんな高性能だったら将来どうなるの・・・怖いわ
文章から画像を生成するAI「Stable Diffusion」をPhotoshopで動かすプラグイン「alpaca」が登場
https://gigazine.net/news/20220830-stable-diffusion-photoshop-alpaca/ 「この画像っぽい○○を生成」を画像生成AI「Stable Diffusion」で実現する技術が登場
https://gigazine.net/news/20220830-stable-diffusion-textual-inversion/ この板に雑談スレないからじゃ? ルールガチガチの所でも同じ板に雑談スレとそれ以外で分かれてるよ 単純に立て方の失敗 NGやワッチョイ導入しても今の時期だとどこかで紹介されたら流入してくると思う イラレ板は稼ぎ系でこっちは知識は同意、それで片方がまだない
> Photoshopで動かすプラグイン「alpaca」 一切に意に介されないfire alpacaさん・・
質問スレと雑談スレに分離するか質問スレをどちらかに含ませるか辺りか 金や職業の話せずに初心者話や雑談したいのも居るだろうし、なんなら俺らが立てるか?
質問に答えられるような層ってこのスレの住人だろうけど過疎ってたから質問はこっちでいいのでは 次からテンプレート入れてスレタイに組み込めば? まだその段階ではない気がする
イラ板のアンチスレについに勢い負けたどころかこっちの3倍w あれが全部ここに来てたかと思うと・・触ったことすらない野次馬をめっちゃ吸収してくれて感謝しかない
AIの背景見過ぎて一発でAI背景のおかしなとこ見つけられるようになってしまったw 萌え絵界隈ではAIへの反発強まってるからこんなにバレバレでは使いにくいってのが正直なところだな もっと人間が描くようなアニメ調のシンプル、クッキリ背景出せるようになる必要あるな
●CLIP-guidingって何?
Emadさんがこんなツイートしてて
https://twitter.com/EMostaque/status/1564057507651375104 CLIP-guiding StableDiffusionをまだ試していない人がいることに非常に驚いています。
ヒント:コツが分かれば本当にうまくいきます。
近日中に公開予定です。
Vit-Hは完成前でも特にロックです。
---
CLIP-guiding Stable Diffusionってこういうのでしょ?ってレスがある
https://colab.research.google.com/github/multimodalart/MajestyDiffusion/blob/main/latent.ipynb#scrollTo=VpR9JhyCu5iq プロンプトが4つあって、メインはCLIP、Latentはスタイルや構成用とある
clip_prompts =["The portrait of a Majestic Princess, trending on artstation"]
#Prompt for Latent Diffusion
latent_prompts = ["The portrait of a Majestic Princess, trending on artstation"]
#Negative prompts for Latent Diffusion
latent_negatives = [""]
image_prompts = []
どういうこっちゃ分かる人いる?w
そもそもStableDiffusionが画像生成する際のテキスト誘導する仕組みがCLIP(学習のときも)だと思ってたんだけど
なんかプラスアルファでなにかやってるぽい。どういう感じなんだろう
https://twitter.com/5chan_nel (5ch newer account)
>>217 MJ綺麗で好きだけど、単純にSDの方がオープンソースで技術的にも色々変わっていくから話題が多いね
>>217 人気というか
MJのRelaxマン($30のFast枠を使い切って無料の遅いverしか使えない人の蔑称)だらけになって
次の$30どうするかなぁ、DreamStuidoいまいちかなぁってところに
無料でできるColabやローカルのSDが来て持ち切りって感じ
MJは最低でも無料あたりは一通り触ってきた人が多い印象なんで
MJの内容でも質問したら大抵答えてくれる
プロンプトに絵文字を入れられることはここでは知られてる?
>>220 かなり初期にcraiyonあたりで話題になったよ
>>220 Unicodeは何でも入るけど、これはこういう効果があるって情報があれば役に立ちそうね
>>221 そうなんだ
>>222 🍑だけでケツが出てくる
ああ、またリンク間違えた・・泣きたい、それも文字だ
5chってreddit直リン貼れないのやめてくれ、不便すぎる
【Midjourney】AI関連総合【StableDiffusion】
http://2chb.net/r/cg/1661853927/ 分離したよー
雑談とか”””具体的な”””技術や動向以外の話題を気楽にしたい人はそっちで
仕事の観点からだと実用性のある背景にはMJみたいなアートに振った画風よりも そこらの安い同人ゲームに使われるフリー素材みたいな地味だけど 平凡な住宅街や教室がカッチリ描かれた普通の絵が必要なんだよね イラスト風に振ると崩れる問題でそれがどうしても出ないんだよな コンセプトアートはいくらでも量産できるけどあんなもん最近のゲームには使わんし
>>176 現状のSDだと1次生産時の画像サイズはまじで重要だからな
MJのアップスケール欲しいわ
似たようなのが発明される流れではあるみたいだが
>>227 スレタイもうちょっとなんとかならなかったの?
AI関連総合だけでいいでしょ、dalleとかもあるんだし
こっちと誤認するの狙ってるようにしか見えないんだが
>>226 なかなかの再現力・・・と思ってSDで試したら、
スマイルとか、骸骨の絵文字入れたらちゃんとそれぽく出るし、スマイル+骸骨の2文字入れたら骸骨が笑ってる絵になる
面白いね。こんなにちゃんと意味が通じると思ってなかった
絵文字ってどういう認識なん?
例えば「頭が爆発」は絵文字につけられた名前で表わすとそのまま :exploding head: だから
>>226 で
スマイルは :smile: 骸骨は :skull: だから prompt: smile skull -> 笑う骸骨 となってるのか
以降スレに反するのは全部そっち誘導でいいな ここは雑談なしの純粋な技術スレにしようぜ
webuiのgenerateのボタン位置・・馬鹿なのか
>>235 Craiyonは分かんないけどStable Diffusionは絵文字も一つの文字として画像と結びつけて学習してると思う
LAION-5Bで🍑検索すると尻が出てくるし💩検索すると💩の画像が出てくる
ぼんやり理解だけど、
学習時点は英語で「白と黒のぶち猫が座ってこっちを見ている」になってるはずで、顔文字では学習してないと思われる
プロンプト入力後に、スマイルマーク=smileと理解しているのかね
日本語もそうだし、文法(前置詞とか文法を理解していないと出てこないイメージになる)も理解した絵になるし。
>>238 更新しろ
みんな文句言ったから今朝には治ってた
ちなみにこんなのだった
右端が見えず手探り編集になる
>>237 >>239 thx
そうかclipfrontで調べればいいな
別に絵文字と特別に認識している訳ではない ただの文字の一つで扱いとしては漢字一文字とほぼ同じ そして絵文字をそのまま1枚の画像にしたものには必ずと言っていいほどその絵文字自体が説明文に含まれているので 絵文字を入れると絵文字の画像が出てくるという話 🍑を入れるとケツになるのはこれがケツのスラングと化していてそういう学習バイアスを上回っているため
>>245 CLIPの説明読んでるところだけど、”説明文に含まれている”わけじゃなくてもいいらしい。そこがCLIPが革新的な点
>>240 みたいに画像自体を認識して英語にする
で、言葉の距離が近いものは近いと解釈する(smileとスマイルマークは近いので同じように機能する)
ついでに、rene magritteという画家をスペルミスして、rene magirtteとすると、似ているけど少し違う画風が得られる、らしい。面白い
tomieって入れると黒髪美女出る 富江だと風景画になってしまった
>>247 学習のデータセットのテキスト自体にはCLIPは使われてないからよくよく読み込んでからレスしてくれ
読んでる途中でらしいで否定されても困る
https://github.com/hlky/stable-diffusion 最新ブチこんだら
FileNotFoundError: [Errno 2] No such file or directory: 'd:\\stable-diffusion-main\\frontend\\css\\styles.css'
どないせいっちゅうねん
って4minutes agoにfrontendにcssフォルダ等追加されてた、上げる前のタイムラグか
remoteとか書いてあるが、リモート?
verup前は俺環の最大解像度で1枚はいけるのに、2枚からバッチ回すとout of memoryなってたのがちゃんと治ってる 自分が変だと思ったところはみんなも変だと思って突っ込んでるんだなぁ 無償で開発してる人たちにほんと頭下がるわ
前スレで出てた digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski k_euler_a, cfg 10, steps 50, seed 721628136 のk_euler_a, cfg 10, steps 50, seed 721628136の部分って入れる場所下記であってる? image = pipe(prompt, k_euler_a, cfg 10, steps 50, seed 721628136)["sample"][0]
日本人女性っぽい名前を入れると日本人が出てくる akikoとか
>>251 学習データのテキストにCLIPが使われてるところ持ってきてみな
推論じゃないぞ
>>256 >>251 が言ってるのは「学習時点」、あなたが言ってるのは「学習データ」の違いだね
分かってると思うからそう突っかからなくていいのでは。
>>245 は間違ってる
>>247 yoshikata amanoとかalphonse muracとかってそういうことなのかな
Lexica見てるとよく出てきて、スペルミスかと思ってたけども。
>>258 個人的にはめっちゃいいと思うけど人来るかな?って思った
画像に限らず日本人のDiscord欲しいよね
>>258 わからんけどTwitterあたりでやったほうがいいと思う
webuiのimg2imgでsrengthを小さくしてloopbackで回すってのがよくわからん str0.1とか0.3とか試してるけど、元画像からだんだん劣化していくだけにしか見えない
>>260 >>261 なるほど、やめときます
まあねらーは馴れ合わないということか
>>257 脇から文のおかしい奴に突っ込んでこられても困る
EmadさんDISCORD情報 2022/8/30 ・意図的な非対称の指定はできないですか。どのAIプラットフォームでも難しいと思うけど → ガイダンスで簡単に修正できます。Vit-Hをリリースしたら。 (注)イマイチどういうことか分からない ・1.5はいつ? → すぐ。 V2がいつかが問題ですね。V3も。 OpenAIがAPIを公開するのを待ってから、APIを公開するのがいいと思う。 ・V3は1週間以内にできる。多分チェックに2週間かかる (注)V2はOpenAIのAPI確定待ちで、V3はその後すぐという意味? ・SDはファンタジーのデジタルアートをとても美しく精密に作ることができますが、 腕がなかったり歪んでいたり、マントがなかったり、一貫性に欠けることがあります。 → ・(モデル1.5だけではなく)新しいパイプラインもすぐにリリースする予定です。 @Dango233が対応してます。 ・スマホ版のSDっていつなの? → 多分Q1。 (2023/1-3?)クアルコム他と話してる。
この画像からプロンプト出すやつ、実際に作成者が打ち込んだテキストが
わかるわけじゃないの?
https://replicate.com/methexis-inc/img2prompt 画像から推測してるだけっぽいんだけど。
>>262 プロンプトを入れる
画像を入れる
Loopbackにチェックする
Batch countで処理回数を決める
Denoising Strengthを調節する
ここまではいいよな?
で、Strengthを0.3ぐらいにしてBatchを5とか10回しても段階的に崩れていくだけなら
入れた画像とプロンプトで相反する部分があることが多い
ポーズを変えるプロンプトを入れると一旦崩しにかかるし
男の画像入れて女にするプロンプト入れれば大改造が始まる
服装もいきなり水着にしようとしてもそうはいかない
低StrengthでLoopbackする場合は無理はきかなくて、洋服の感じを変えるだとか、細かい要素をいじるか、新たに何か足すのに向いてる
んで、どうするかというと、単純にそんな欲張ったプロンプトを削るというのが一つ
もう一つは画像で相反する部分をプロンプトの内容に合わせてそれっぽい色で塗りつぶしてしまうという手(やり過ぎると破綻する)
>>267 なるほど、ありがとう
いいのができたけど、全体がぼやっとしてるのでキリっと引き締めたいなぁってやってるんだが
プロンプト変えなくてもなんかイマイチで
seed同じのでやると、シャープ処理を重ねるみたいに縁が浮き出て来て破綻する
>>253 Google Colabでやってる人かな。それだとエラーになるでしょ
import torch
generator = torch.Generator("cuda").manual_seed(721628136)
image = pipe(prompt, generator = generator, guidance_scale=10, num_inference_steps=50, width=512, height=768)["sample"][0]
みたいに書くとうまくいくはず
k_euler_aなどのサンプラーを指定する方法はわからない。ここでも何度か質問しているんだけど
>>266 AIが画像を解析→見出した要素をテキスト化だから近いようで遠い
そのテキスト化も、事前に用意された文字列の中から確度が高いものを選択してるだけ
AIからすると大体こういう風に見えるんだな、という理解をする用だ
>>266 画像から推測してるだけ、ですね
Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエストは本家でも、hlkyでも出てるからどっちかはやりそうな気はする
最初のプロンプト、パラメータ>img2imgの2回目のプロンプト、パラメータ・・・・みたいに生成過程履歴まで書き込んだりもできるのかもね
まあ途中でSD以外の加工もするだろうからあまり意味ないかもだけど
> Exif情報として、プロンプトとかパラメータを埋め込んでくれってリクエスト これ欲しい!yamlファイルの山マジ勘弁して 縮小版と並べたら一瞬どっちの隣のかわかんねーよ
手足とか指がぐちゃぐちゃでも大丈夫なホラーとかダークファンタジーに向いていることに気づいてしまった
>>268 そういう場合元のプロンプトを流用すると不都合の方が多いと思う
思い切ってhighly detailedとかdetailed faceとかの画質指定系に絞るといいかもしれない
初音ミクさん
髪型
Verdigris and Turquoise hair, thin double pigtails hairstyle
テーマだったらsubject(主語)より前のほうがいいと思う detailedとかだったら後ろのほうでも問題ないんじゃないかと思うけどそれは同シードで実験するしかない
めちゃくちゃ奇妙なこと入力しても何らかの絵にして出力してくるんだからすごいな
無料colabでファインチューニングする人はコンフィグのbatch_frequencyを2500くらいにしようね😭 batch_frequencyに指定したstep数ごとにプレビューを出力するんだ 2分くらい時間かかるからデフォルトの500だとYABAI😭😭😭
hlkyさんTwitter始めたよ! @hlky__
>>284 めっちゃ分かりにくい、というかpython環境設定方法書いてないね
中身の解説をしてるわけでもなし自分用メモみたいな感じ
>>18 でいいのでは
あぁ
>>18 ってローカル環境で動くやつなんか
仕事が片付いたら試してみよう
●動画での服の着せ替えについて https://twitter.com/karenxcheng/status/1564626773001719813 ・Dalleでマスクすることで服を変更することができる ・しかし一貫性がないためフレーム毎に服が変わってしまう ・これを解決するツールとしてEbSynthがある EbSynth VIDEO https://ebsynth.com/ ※以下の手順は私の補足 1.ビデオをPNG連番ファイルに変更する 2.キーフレームを他の画像に変更する(1枚。複数も可) 3.ビデオPNGをマスク(白黒)にする ※自動もできる? → 全ビデオがキーフレームの画風になる ・他の方法としてDAINというAIフレーム補間もある https://twitter.com/karenxcheng/status/1552348027834118144 Windows/nVidiaで動かすことができるがセットアップが難しく、GPUパワーも必要。しかし将来はこの手法が主流になるのではないか。 https://grisk.itch.io/dain-app https://twitter.com/5chan_nel (5ch newer account) デフォで散らかってるwindows側にごちゃごちゃ入れるのは嫌なんでWSLに普通のdockerとdocker composeをインストール webuiを起動した時に出たエラーメッセージで検索してtoolkit更新 無事docker composeで起動確認 さよならanaconda君のことは好きじゃなかったよ
アニメマンガ系で浅く再トレーニングされたモデルが出てた
https://huggingface.co/naclbit/trinart_stable_diffusion ただ劇的革命的って訳じゃなさそうだし
環境側の設定変更が要るんで試したい人が試せって感じかね
>289
試してみました。全然綺麗じゃない完成度が低いプロンプトでなんですが・・・
girl wearing swimsuit
Steps: 20, Sampler: k_euler, CFG scale: 7.5, Seed: 5
デフォルト(sd-v1-4.ckpt)
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
基本同じシードなら似たポーズ、色になりつ、確かにアニメ調になっていますね
>>290 早速使ってみたが出力結果が全く別物になるな
分かりやすく言えばプロンプトによらずpixivによくいる超絶htrみたいな画風になる
ファインチューニングだけではアニメ絵は厳しいってことが良く分かったわ
>6の
>公式
https://github.com/CompVis/stable-diffusion のimg2img版はないのかな?
Google Colab上に公式が用意した、上からスクリプトを実行していくと使えるようになるやつ
>>294 単に外国人が作ってるから外国人好みの絵が出るように調整されてるだけでは?
手塚治虫が作れば手塚治虫好みの絵ばかり出力するAIになるだろう
アニメ調って、日本人が言うアニメじゃなくて ディズニー系の事か
>>289 追加でGreg Rutkowskiのプロンプトで試しました。
Greg Rutkowskiが強すぎてあまり違いがわからない。
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 50, Sampler: k_euler_a, CFG scale: 7.5, Seed: 839177925
デフォルト(sd-v1-4.ckpt)
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
>>299 プロンプトがアニメ調によせたものじゃないので試したので、 triart版モデルが本領発揮してない気はしますね
triartがすごく良くなる呪文がなにかありそう
肝心な画像リンク間違えた
デフォルト(sd-v1-4.ckpt)
tinartアニメ漫画再トレーニング版trinart_stable_diffusion_epoch3.ckpt
一部アナ雪感があるね 単品で見れば良い感じだけども
恐らくこのモデルの本領を発揮させるGreg Rutkowski的存在が居るんだろうけれども それこそ魔術の実験のごとくトライアンドエラーでやるしかない Nendoroidと唱えるととりあえずねんどろいどになるけれどもこれは元のモデルでもそうだし
彼らの言うアニメ調と我々の求めているアニメ調が違う可能性はある ピクサー映画のキャラみたいなのばかり詰め込んでたらむしろ遠くなるのでは
SDのDicordでベータ版として、1.5でBOT生成できるようになった。
https://discord.gg/stablediffusion #gbot-** チャンネルで /dream すれば使える
プロンプトは
>>300 と同じ。 サンプラは不明。多分k_eular_aではない
あまり変わらない?ちょっとクールというか大人っぽくなったかもれないが、サンプラの違いな気もする。
体がおかしくなる場合があるのが直っているのかが気になる。
後、1.5とは別に公式もアニメ用モデル出すと言ってたけどそれはどうなってんだろう。
>>305 このモデルトレーニングしてる人は日本語AIのAIのべりすと作ってる人だから、データセットは日本寄りなんじゃないのかなとは思う(非公開)
ただファンタジー小説の挿絵とかを意識してるからパキッとしたアニメ絵はできにくいのかもしれない
それと今までほぼ現実世界のものばかりで深くトレーニングされてたモデルをいきなり振り向けてるから
現実とアニメ絵の中間、妙に立体感のあるピクサー調がプロンプトでの補正無しで出てくるのはまあ自然なのかもよ
寄らせたいならプロンプトを工夫しないといけない
>>306 サンプラをk_euler_ancestral にしてもほとんど変わらなかった
美少女でやすい illustration by Hyung-tae Kim, illustration by Shunya Yamashita, illustration by Ilya Kuvshinov.
StableDiffusionがCPUでも動くみたいだから試してみよう…
と思ったんですけどこちらのやり方ってフィルタも外してくれるか分かる人いますか?
https://zenn.dev/karaage0703/articles/4901bf68536907 img2imgのsteps数て例えば20と70で大きく完成度が変わるとかありますか? ステップ数を上げると時間がかかるけど中身の違いが??という感じで、ずっと20でやっているのですが 細部の描き込みがアップするとかなら上げまくるのですが
ベータ版がもう使えないのにいつまでも設定にベータが残ってて 新しく画像生成しようとすると「ベータ版がもう終わってるから無効!」って言われて作れん・・・セッティングで見てみても消せないし なんじゃこりゃ
>>311 これの一番下にあるようにサンプラでも結構違うし、絵でも違う感じがする。
感覚的には20はまあまあ安定した絵になる、50,70まででもサンプラによっては精細化して変わっていく
https://rentry.org/GUItard このプロンプトの場合だと、サンプル17以下は完全に駄目。24ぐらいまでは改善する、それ以上は改善という感じではない
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Sampler: k_lms, CFG scale: 7.5, Seed: 839177925
デフォルトのk_lmsでやったけど、k_eular_aならどんどん変わっていくかも
img2imgにイラストレーターが描いた複雑な背景絵を読ませてstrengthを強めにすると 元の絵の要素を全て盛り込んだ上で構図が違う人間には不可能なパクり方した絵を出力するね 人間の手では絶対に不可能なAIパクをやったって一発で分かるから実用性はないんだけど 世界に1枚しかない絵から世界観が同じだけど構図が違う絵をいくらでも出せるのはマジで面白いな
>>292 thx
グーグル翻訳片手に頑張ってみる
>>313 同じプロンプトで、サンプラだけk_eular_aにした例。 こちらはどんどん変わっていく。
この例は高精細化して良くなっていると思うけど「良い」かどうかは絵で違いそう
>>313 精細化していくんですか!
サンプラーが選択出来ないColab構築でステップで細部が変わるとも知らず
ずっと20でやっていたのでもったいない時間を過ごしてました…
基本は低いステップ数でたくさん試行して、良さげなの来たらシード固定して別のステップも試す感じでやってる
>>316 この肌の高精細化のように背景画像生成でもステップ数を上げたら細部の描き込みが上がるかもしれないのでやってみます!
>>284 https://yukishigure.booth.pm/items/4118603 省VRAM版用だけど、色々試したけど手順はこれが一番わかりやすかった。
買わなくても、環境構築手順サイトの下の方に書いてあるから、フォルダ名とかも書かれてる通りにそのままなぞれば多分サクッと動く。
サンプラー選択もシード表示や入力も出来ない環境は止めた方がいいっぽいですね… めっちゃ不便な気がしてきた…
>>310 質問の回答は分からないけど、 その記事core i7(型番不明)は、980と同じ程度の性能出るんだってちょっと驚いた。
AVX512が強いのかな。
(我が家のゲーミング core i7) 0.31 it/s
(参考)ラフな性能
980 0.36 it/s (2.81 s/it)
1070Ti(8GB) 1.60 it/s
1080Ti(11GB) 2.30 it/s
Google Colab(T4) 3.2 - 3.5 it/s
3060 3.5 it/s
2060 3.55 - 4.6 it/s
3070 5.0 - 7.1 i t/s
A4000 6.3 it/s (3070Ti同等)
2080Ti 7.3 - 7.7 it/s
3080 10.0 it/s
3090 10.8 it/s
>>322 古いし面倒な手順なので、
>>18 がいいと思う
スクショで具体的に書いてて親切だとは思うけど
>>322 ちょっと見たけどmodelを1.3にリネームするとか書いてる。多分ベータ時点では動いてたんだろうけど今はその通りじゃ無理じゃないかな
>>18 更新速度がめちゃくちゃ早いから
git pull で更新の追記があると参考する上で便利かも
>>269 ありがとう〜!!
cmdで直接の叩いてたけど帰ったらそんな感じでやってみる。
>>327 今でも
>>11 の多分通りできるはず
けど、VRAMが多く必要で環境的にできる人が少ない&GUIもなく使い勝手悪い感じ。マージ面倒とかプレースホルダーが記号だとか。
hlkyさんが試したいけど3060しか持ってないから動作確認できないって言ってるw
Textual-Inversionはメチャクチャに強力なのにTrainできる環境が限られてるからあまり触れられないな コスト的にはColabの最上位プランでGPUガチャに勝利するのが最低ラインか
Windowsでファインチューニングに挑戦したけど「NCCLが無い」的なエラー
そこでバックエンドをNCCLからglooに変えたりWindowsで動くように調整したのが以下のForkみたい
https://github.com/nicolai256/Stable-textual-inversion_win ただこれでも自分の環境では動かせてない(3060だからダメ元だけど)
cpu版導入できる人ならPC自作した方がトータルの時間は短い気がする
どうしてもローカルで試したい人か VRAMは無いけどRAMは無駄にある人が1024x1024に挑戦するかぐらいしか用途は思い付かない
>>331 これだとColabのノートブックも付いてるから
今一番お手軽にいけるTextual-Inversion環境だな
一応無料で使えるT4でもVRAMギリで足りそう
>>18 この手順が一番簡単&便利だわ。
まとめてくれてありがとう。
数枚のイメージでちゃちゃっと学習して参考にしますよって感じのを 一気にするから20GBなんかな そのうち便利になって少RAMでいけそうだね
>>18 の手順のWebGUIが機能豊富だけど画像複数出したタイミングでコマンドプロンプトが固まってしまう(エラーも何も出ない、optimized-turbo設定は有り)
同じような事象出てるかたいらっしゃいます?
OptimizesSDの作者のフォークにあるGUIだと複数枚出しても問題なかったのでバグかな。。
https://github.com/basujindal/stable-diffusion >>338 固まるのは繰り返しの1回目が100%になったタイミングです
真面目に聞きたいんだけど ぺこらとか吉岡里穂のエッチな奴作れますか? 作れるなら30万のPC買って頑張ろうと思う
PCスペックは毎年更新されていくから買い時が難しい 少なくとも今は時期が悪い(マジで)
今のところ顔は何とかなっても体がぐにゃぐにゃなんで バストアップまでは割といい場合もあるが。ポーズ付けてると厳しい
midjourney やっぱベータ版が消えねんだがどうするべこれ・・・分からん
電子透かし、高解像度化すると跡形もなく消え失せるな これなんの意味もないだろ…
>>338 最新版(今日の13:44)でoptimized-turbo+複数枚試したけど再現しなかった
>>338 hlky版は機能豊富な代わりに結構不安定で俺の環境でも同じエラー起きるよ
nightlyどころじゃなくmainからそのまま引っ張ってきてるだけだしなぁ 時間単位で新機能やバグが盛られていくからそこはどうしようもない
4ちゃんとかここと比べてツイッターの日本人連中がプロンプト秘匿すんの陰湿だなぁと思ってたけど特定絵師の名前とか入ってたらそら我が身可愛さに秘匿するか
>>338 不具合報告あった
[BUG] optimized version endlessly hangs with batchsize > 1
https://github.com/hlky/stable-diffusion-webui/issues/337 不具合は不具合っぽいけど、書いてある通り複数枚出す時BatchCountの方を増やせば良いとも思う
>>344 な、なんかまだ早そうやな・・・
後一年待つわ
サイズの大きさと必要VRamの量の関係明らかにおかしいよねバグってんの? それとも指数関数的に伸びてんのか
ssdの寿命をマッハにしてdirectstrageでTBサイズのメモリ領域とか出来んのかな
VRAMとメインメモリ間の転送速度はVRAMアクセスに比べたら地獄のように遅いから 仮想メモリって訳にはいかないだろうなぁ
>>340 おまえら、ほんまキモいな~
性に貪欲すぎんか
by Makoto Shinkaiでよかったのがpainted by Makoto Shinkaiでなければなくなった可能性
https://boards.4channel.org/g/thread/88374906#p88375987 >>350 匿名と非匿名の違いだと思う
ふたばは4chanと変わらん
みんなしてcolabでSD動かしたせいでGPU使用制限入るってよ。ゲーミングPC買っとけ。
pythonのエラーで出たエラーメッセージをコピペミスで知らない間に貼り付けたら めっちゃそれらしい絵が出てワロタ 多分こういう普通の人間が想像もつかないような呪文がまだまだ隠されてるんだろうな
>>354 VRAM使用量確認したけど、512x512以上は、ほぼピクセル数に比例する感じで特に指数的に増えているというわけじゃないですね
●解像度、オプション別メモリ使用量
●解像度、オプション別速度
やはり--optimized-turbeがお勧めです。
512x512未満の小さい画像を大量に作るならオプションなしが一番ですが、512x512以上なら速度もあまり変わらずメモリ使用量が少ない
余談:
これやって、webui.cmdはオプションを受け付けないって初めて知った
これまでwebui.cmd --optimized-turboしてたけど意味なかったw
今のところ以下で起動しないとだめですね。
python scripts\webui.py --optimized-turbo
測定条件:
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5
2080Ti
プロンプト魔術はまだまだ未開 うちだとArmored Coreって入れるとアニメ絵の顔が途端に整いだしたから困ってる アーマードコアにそんなに人間の顔出てないだろと メカメカしくなるからかわいい絵を出したいときに使えんし
--optimized-turbo付けると画像が変わってしまうのは普通?
やっぱ制限入るのかw既視感のある流れだな グラボ買うか迷うな今は時期が良いとか聞くけど
colab proにしたら24GBのGPUで月1000円か Proでも制限入るのかな?
一番安くAI向けのPC組むなら
40xxが出た後に、型落ち処分の3090を買うことだと気が付いた
ゲーミング性能では4070並みらしいのが
>>363 情報ありがとう
Proが使用量制になるみたいだな 今までは空いてりゃ使えるし混んでりゃ制限されるよだったけど これからは使用時間がカッチリ決まっててそれ以上は追加料金 無料は元々完全無保証なんでこれからどんどんキツくなるだろう
グーグル「あと、為替変動の連動制だから値上げしますね」
>>365 今試したらほぼ同じだった。 ※ただし、バイナリレベルでは一致しない
ランダムシードになっているのでは?
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Steps: 21, Sampler: k_lms, CFG scale: 7.5, Seed: 5
●オプションなし webui.cmd
Took 4.84s total (4.84s per image) Peak memory usage: 7424 MiB / 11264 MiB / 65.909%
●python scripts\webui.py --optimized-turbo
Took 5.17s total (5.17s per image) Peak memory usage: 5744 MiB / 11264 MiB / 50.988%
>>371 検証してくれてありがとう。
もう一回試してみるね
>>371 よく見ると、肩のところについてる謎の水色の水滴ぽいものの濃さが違いますね。
大きな違いではないけど、絵によっては目立つ違いになり得るのかも
optimizedは所々の演算精度を若干落としてるんでバイナリ一致は無い けれども本当に若干なので出る結果に大きな影響も無い それと演算精度を変えてるせいでTensorコアの無い10xxや9xx系だと推論速度への影響が大きい 後VRAM攻める人でGFPGANやESRGAN入れちゃった人は削除するか--cpu-gfpgan、--cpu-esrganの起動オプションをつけた方がいい こいつらも起動時にVRAMに読み込まれて準備されるんで結構食われる
>>371 オプションありの方が
細部の描きこみのコントラストが強い、もしくはstepが1,2回多いような絵を吐きますね
(水滴、涙袋、ロゴに違いが出てる)
>>363 何となくしかわからなかったけど数値化ありがたい
アホみたいな理由だけどゲーム見ながら裏で遊べる
>>374 ありがとうございます。
python scripts\webui.py --optimized-turbo --gfpgan-cpu --esrgan-cpu
での測定を追加しました。
--gfpgan-cpu --esrgan-cpuにより解像度によらず、400MB~500MB程度VRAMが削減できるようですね。
速度はCPU,GPUの性能で違うと思いますが、3900X 2080Tiではこのオプション有無によらずほぼ同等、
あえて言えば高解像度で若干このオプションありのほうが速い結果でした。
Coladはなんかわかりにくいけどこのコンピューティングユニットってやつが来月から導入されるってことらしい リソースがどれくらいかわからんからまだ待ちでいいかな
アーマードコア入れたら顔が整うって書いてあるからまたまた~と思って入れたら 本当に顔が整う率上がって笑う でもアーマーって認識するのかたまに指示してないのに鎧を着だす
>>310 ちなみにcudaつかってるとこコメントアウトするだけでjupyter notebook使えればcpuだけで動くよ
>>377 流石に流れが早すぎて試す元気ないですけどw
・PNG チャンク情報として、プロンプト、パラメータ情報が画像に埋め込める
・特定フォルダに、学習済ptファイルを入れると、textual inversionが使える
・設定タブが追加されオプション変更ができる(起動時に確定しないとだめなものは変更不可っぽい)
・ユーザースクリプトがかける
これによりSTEPやCFGを変えたバリエーションを作ることができる
・-lowvram 4GB VRAMでも512x512が可能 ※optimizedとは別?
良さげな機能多いですね。hlkyか公式にマージされて欲しい
NMKD Stable Diffusion GUI - AI Image Generator
https://nmkd.itch.io/t2i-gui colabは新しく制限が増えるんじゃなくて制限されても追加で買えるようにするって感じじゃないの? 使用量制限自体は今もあるしそもそも余ってるリソースを使わせるサービスなんだし よくある質問に書いてあることがフワっとしてていまいちわかんないけど
ポーズはこう 絵柄はこう パースや背景は適当って指定でどれくらい描けるのか
>>351 ありがとう。安定版?のリポジトリじゃないほうのイシューにあったのですね。確かにバッチサイズが2のときは確実に再現しました。バッチサイズ1で繰り返し8だと8回完了後に固まったのでそれはまた別のバグかな…安定するまではOptimizedSDの方のGUI使っておきます
23億枚もの画像で構成された画像生成AI「Stable Diffusion」のデータセットのうち1200万枚がどこから入手した画像かを調査した結果が公開される
https://gigazine.net/news/20220831-exploring-stable-diffusions/ >>383 一番の目玉機能はimg2imgのSDアップスケール
hlkyの方がこれの分流なんだよ
今fork表記消えてるけど
>>340 二次コンテンツならコイカツで網羅できるしVRで現実にできる
一緒に作ろう!
>>390 > hlkyの方がこれの分流なんだよ
なるほど。知りませんでしたw
試すの面倒かなと思ったけど、簡単に試せたので、CFGとstepsを変えたマトリクスを作ってみました
これは検証便利!
portrait of anime girl, ((turquoise colored twintail)), digital cg art by Greg Rutkowski
Euler_a 512x512 Seed=5
貼り忘れ
DDIM
urlを貼れないのでAUTOMATIC1111版は4chanでヴォルデモート版と呼ばれている なぜ貼れないのかは作者の別リポジトリを見ればわかる
>>381 だろう?
たまにロボ本体も出てくるようになるからどう使ったもんだか
>>374 ああ、あなたが神か
どっちもチェック入れたり使うまでは関係ないだろって思ってたわ
少しでも大きいのってoom出しながらギリギリ攻めてるので
Mjのtestは整いすぎて詰め込むと色々反映されないな
知識神と検証神のタッグで捗りまくりだ・・
cfgはミクさんみたいな単純呪文だと装飾の強度変化だけだけど
要望多いのに対して数値上げるととすぐブロックノイズみたいになるのよね
かといって減らしすぎると装飾呪文まで弱くなるという
MJの「::」みたいにそれぞれの強度って触れないのかな?[[[]]]()これくらい?
> Normalize Prompt Weights (ensure sum of weights add up to 1.0)
これも意味わからずチェック入ってるけど
あと
https://github.com/AUTOMATIC1111/stable-diffusion-webui この別?のやつの下の方の
「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの?
weightについてはhlky版でもMJ風のが使えるらしいんだけど、これで使えてることになってるんだろうか
long hair girl:1.0, blue:2.0, red:0.5
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
long hair girl:1.0, blue:0.5, red:2.0
Steps: 20, Sampler: k_euler_a, CFG scale: 7.5, Seed: 5
気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
これが一緒だと納得なんだけど
中国のERNIE-ViLG、アニメ絵に格段に強いな 違和感ない初音ミクのイラストが余裕で生成されてる
>>399 > 「Png info」と「txt2imghd」ってのはhlkyとはまた別に動いてるって認識でいいの? Png info → hlkyの方ではディスカッションで要望がでてるだけで、やるとは言ってない気がする アップスケールにimg2imgを使うのも、hlkyはないような? SDアップスケールよく分かってないけど AUTOMATIC1111、機能的にはhlkyよりいいかも(インストールはhlkyの方が楽) ●AUTOMATIC1111のインストールメモ https://github.com/AUTOMATIC1111/stable-diffusion-webui ・minicondaで任意のディレクトリを作って以下を実行 python -m venv auto1111 ※auto1111の名前はなんでもいい auto1111\scripts\activate ・後は、Instructions:を動かす 以下の2つは別途ダウンロードして配置が必要 models\ldm\stable-diffusion-v1\model.ckpt table-diffusion-webui\GFPGANv1.3.pth ●起動時 minicondaで、 auto1111\scripts\activate python stable-diffusion-webui/webui.py >>400 hlkyは知らんけど
>気になるのは同一シードの「girl」「girl:1」「girl:1.0」で全部結果が異なるところ
>これが一緒だと納得なんだけど
たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
>>399 > Normalize Prompt Weights (ensure sum of weights add up to 1.0)
ウェイトの正規化処理なんだけどフォークによっては
ウェイトが付いてるトークンだけの合計値で割ってるパターンが多い
ウェイト周りは今は信用しないほうが無難で
そのうちしっかりしたのが広まるんじゃないかな
>>400 ,402,403
ありがとう・・メモメモ
みんなほんと詳しいな
hlkyでマスクペインティング実装あついな Mask painting (NEW) 🖌: Powerful tool for re-generating only specific parts of an image you want to change
この手のサービス海外に持ってかれるとかツイッターじゃ喚いてるけど実際どうなん? オープンソースだしどっかが勝つとかなくどんどん無料でできること広がってくイメージなんだが
>>403 > たぶんエンコードするときに:1や:1.0も一緒に投げててそこもトークン化されて結果が変わってる
その通りだった
プロンプト1語の時はウェイト部分パースせずに渡してた
シド・ミードによる「シャア専用ザク」のデザイン案
webuiのスライダーって←→キー効くんだね・・必死にプルプル合わせてた
>>409 現状のSDって版権を認識できてもキャラとかはわからないんだよね
>>410 知らなかった。ありがと
なんで数字入力できないんだよ!ってちょっとイライラしてたw
>>410 これは便利情報
数値入力できないスライダで微妙に困ってた
k_euler_aとか cfgの機能の説明ってどこで読める?
>>414 このスレにも貼られているであろうguitardガイド
>>416 見つかりました、サンクス
CFG: Classifier free guidance scaleってのは高くすればaiのプロンプトの解釈の余地が上がるってことかな
Classifierってのがいまいちよくわからんけど
hlky版構築したけどGRiskの方が便利じゃない? 自動で全部保存してくれるんだもの
>>417 正確な意味は論文みたいなものしかなさそうで、正直理解できてないのですが、
Classifier Free Guidance Scale (how strongly the image should follow the prompt
どれだけプロンプトに忠実にイメージを作成するか
という数字なので大きい=プロンプト通りになりやすいということだと思います。
portrait of anime girl, ((blonde twintail)), digital cg art by Greg Rutkowski
例えばこの例だと、CFG=0.5だとポートレイトになっていませんし、0.5~2.0あたりは、anime girlかも怪しいイメージです。
普通にtxt2imgで最初から作る場合は、デフォルトの7.5とかある程度大きい数字にすると思います。
img2imgなら、ベースになっている絵+テキストのプロンプトで作成するので、
ベース絵からあまり逸脱しないよう小さい数字で調整していくというやり方もあるそうです。
手はどうしたらうまくいくのか 現時点では無理なのかな
>>418 hlkyも自動保存しますよ。
GRiskは基本機能もまだまだ未完成なので使う気はしませんが、
インストールは簡単ですし、GRiskの機能でいいならいいかもしれませんね
>>420 手を完璧にするのは難しく、Emadさんが「Stablist」Diffusionにならないとだめかもと言ってたw
とすると本当の実用になるのは意外に遠いのかも? ある日サクッと改善しそうな気もするし分からないですね
手は、今のマスク機能がもっといい感じに動くようになったら 手の部分だけ何十回もゴリ押しで書き直すっていう解決策が使えるようになるけど 現状は手書きで治すしかないな そういう意味でも今はちゃんと使うにはある程度の画力が必要
webuiの各種パラメーター情報って保存できないのかな? ブラウザ起動時にポチポチやり直しは辛い・・cookie関係ないよね
>>384 img2imgっぽいのあるし良さそう
ただ起動してから追加インストール求められて環境汚れそうなのでここ以降試してない
>>424 configs/webui/webui.yaml が画面の初期状態を決める設定ファイルになってるよ
>>419 なるほど…マトリックスでみるとたしかにそうですね
ありがたい
手は手だけマスクしてStrength下げながら ちょっと修正→img2img→ちょっと修正... を繰り返すと馴染んでいくけど途中から画力ないと難しい上にめんどくさい
わしプログラミングとかよくわからんから適当にローカルで組んで一から動いて1枚生成されるのを確認して、それを30個分動かすバッチファイル作ってパワー型な生成作業をやってるんだけどみんなスマートやなすごいわ。
EmadさんDISCORD情報 2022/8/31 ・1.5のサイズは今どのぐらい? → 2.1GB。もっと小さくなる。 100MBなる。onnxとint8を使えば、モバイルでも使えると思う。 ※1.5の話なのか将来の話なのか? でも山のように送られてきてる履歴書を処理しないと。 (人が足りない?) 我々は教育、ヘルスケア、その他プロジェクトを扱える。基本的に一発(one shot)で解決できる ※DiffuseはFoundamental Modelで各分野に同じ技術で(one shot)応用可能という意味? ・1.5は1.4と比べてどのぐらい生成速度は変わりますか?1.4も十分速いですが。 → パイプラインを最適化してA100で2秒(今の2倍の速度)で生成できるようにしている。 めっちゃ威勢がいいな
>>425 ありがとう!
今日はなんか色んな新しい知識で捗りまくりだ
>>422 GoogleAIのParti+Imagenは破綻しないで指も書けるっぽい
>>429 バッチファイル作れるなら、これの下の方にあるuser script使えば同じようなもんだと思う。この例は、stepsとcfgでループしてる
https://github.com/AUTOMATIC1111/stable-diffusion-webui AUTOMATIC1111インストールして
>>402 、起動時に--allow codeを付ける必要はある
minicondaで、
auto1111\scripts\activate
cd stable-diffusion
python stable-diffusion-webui/webui.py --allow-code
>>430 int8使えるなら4000シリーズ発売まで待つのが良さそう
>>430 15まてばグラボ新調しなくてよくなるんかな
また質問、一応英語で検索したけどわからなかった img2imgのMaskのヒントに webuiのはイマイチだからphotoshop使った方がいいよみたいなこと書いてあるんだけど マスクって具体的に何をしたらいいの?変更OKな部分を透明色にするとか?
1.5は8/29のツイートで6日後=9/4予定なんだよね
予定通りリリースされるのかな
フィードバック今受けても直す暇なくない?って気がする
まあフィードバックの反映は1.6とかでもいいんだろうけど
>>432 へー。ならそこまで時間かからずに実現しそうな気がするね
サンプラーの選択ってhlky版でしかできないの? 独自実装なのか…?
ERNIE-ViLGってローカル実行できるんだな
初音ミク、可愛い、pixivと入力するだけでこれが出るのやべぇわ
1枚24秒くらいでSDよりやや遅いけどアニメ絵に関しては性能が違い過ぎる
>>442 本家のコマンドの説明とかスクリプトの中身をみてもk_euler_aとかどこにも出てこないんだが
mask壊れてるしRegenerate選択消えたよね?・・って念のため最新にしたら治ってた つかAspect Ratio指定が増えてた
ERNIE-ViLG、裸どころか水着すら規制でアウトかよ! 流石中国だな…やっぱSD以外はどこも規制してくるよな
https://ommer-lab.com/research/latent-diffusion-models/ 最近話題になってるの画像生成AIってこの技術の学習モデルを変えたものなのかな
企業が占有してる技術は分からんよな
しかも規制解除とか不可能な作りっぽいな、やっぱ最終的にこうなるのかって感じ 性能は凄いけど規制酷すぎでこっちはそんな盛り上がらないかも
colaboはdeepfake禁止してるのでcolabo使ってる人はじつはやばいかもしれない
ERNIE-ViLGローカル行けるんか とは言え結局SDベースで自分で機械学習させる環境を作るのが最強っぽいな GPUメモリがつれえ
>>448 というと?
ローカルのコマンドのみで複数のサンプラーを切り替えられたりすると?
ローカルも終了して防がれるのは時間の問題って感じだな 大満足の結果が出せるように改善された瞬間、叩かれてすぐに潰されそうだからチャンスは一瞬な気がする
初心者ですまん 人物二人以上を出力させるコマンドとかってある?握手とか肩組んだりとか出来ると嬉しい
黒髪の少女、制服、pixivって3つの単語を中国語で入れるだけでこれが出てくるんだよなぁ
プロンプトの秘匿とかすぐ意味なくなるだろって思ってたけど数日でそうなるとはな
>>437 たぶん、
生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけだから
それだけのことならフォトショで手元で合成した方が結果良いよねって事だと思う
>>457 複数形にしてるとちゃんと人数に影響するね
理想の初音ミクさんできたお
私の新しい妻です
pixivをfanboxに変えたらどうなる? 精度がもっと高まりそう
>>460 何のことだろうって思ったけどそれだな
手は自力で手直しした方が早いよ、が今のところの公式見解
>>462 illustration style by pixiv fanboxに類する呪文はまあまあ使えると思う
>>457 例えば
a portrait of two teenage school girls
みたいな感じで書けば複数人数の指定自体はできる
ポーズの指定は人物が一人の時でもなかなか狙ったとおりにはいかないから子供の落書きみたいな線でも良いから構図を描いてimg2imgの方が良いかもしれない
しかしここまで次々出てくると、絵を描くっていうのは機械にとっては簡単な事なんだろうなと認めざるを得んな その一方で、人間ならどんな奴でもできる言語の意味理解がいつまで経っても進まないのは 何かしら宇宙の意図みたいなもんを感じる
無視される確率高いけど「風呂」は一応ありなんだ、水着はアウトなのに中国の検閲基準謎過ぎんよ 色々研究しないと分からんな
いうてこのまま高度化していったらフェイクポルノとかフェイクニュースの画像作成が容易になって規制まっしぐらな気しかしないけどな Googleが作ったpartiの記事見てて思った
>>460 あー・・あのUIが使いにくいから、
「他ソフトで不要部分PNG透明にして取り込んだら逆マスクになるよー」
とかって意味と勘違いしたわ
> You will probably get better results manually masking your images in photoshop instead.
>>437 ,471
試してないけど、inpaint.pyの--indirオプションのヘルプで、
"dir containing image-mask pairs (`example.png` and `example_mask.png`)",
とあるから、_mask.png (多分白黒。 0.5以上は1、0.5以下は0)を作ればマスクになるのではという気がする。
ちゃんと調べてない適当な予想だけど
>>460 インペインティングってそんな単純なやつだったんか
じゃあ顔補正もおなじかんじなんだろか
>>472 ・・・と思ったけど、UIに、--indirなんてないねw
間違ってそう
>>473 > 生成元画像と生成後画像の2枚をマスクで指定した範囲(+ぼかし)で合成してるだけ
そんなわけはない
そもそも「生成後画像」なんて存在しないものと合成なんて日本語としておかしい
プロンプト秘匿するぞって言ってた連中がたった数日でERNIE凄すぎて もう隠す意味ない公開しますって言い出してるの受けるわ でもこっちはオープンソースと言いながらブラックボックス化されてるから 技術系のオタクの間では流行らんだろうな
>>430 これ学習モデル小さくなると推論してるときのメモリというかVRAMも減るの?
そこは変わらない?
ERNIEの検閲マジうぜぇな、ワードと生成画像両方に検閲あるみたいだ やっぱSDがアニメに対応してくれるの待つしかないか
>>473 Masking is not inpaintingとあるようにimg2imgの画面で触れるのはインペインティングとは別だよ
インペインティングはこういうの
>>479 分からなくて全くの予想だけど
少なくともスマホで動かせるバージョンは必要RAM少なくないはず
それが2023年1月~3月に出る見込みでクアルコムと話してるって言ってるから、
使えるRAMとか性能の検討してるんじゃないかな
それが今のPC用と遜色ないメインブランチなのか、スマホ用簡易版なのかとかは分からない
>>363 24gbあれば10241024いけそう
>>482 ども、どうなるか1.5出るの楽しみに待つか
今のimg2imgに入っているマスク機能 →指定した部分を処理後に丸ごと戻して無かったことにする力業 インペインティング →指定した部分を変えないように処理の中身から変えてしまう 処理中も指定した部分は多少劣化する以外変わらない
Discordのウエイトが4GBから100MBになる予定って聞いた人が、 自分のやってたAIプロジェクトでもパラメータの99%がゴミで結果に何の影響もなかったことがある けど100MBはすごい。どうするんだろう、と言ってた。 何も分からんが、AIではよくあること・・・じゃなくてなんか凄いアイデアがあるっぽいことだけはわかったw
例えば ・顔だけマスク塗って、違う顔にする (プロンプトに顔があるから顔が描かれる) ・背景にあるロゴを塗って、ロゴを消す この2つ混同してた。違う技術なのか
ソース見たけど大体一緒じゃない? 本家の inpaint.py もマスクしてリサンプリングして合成してるだけやし webuiのは完全に塗りつぶして再描画か少しノイズ入れて再描画か選べるくらいで
>>490 MJはアーティスティックで綺麗が簡単に出て、ヘンテコな画像がほぼ出なくて凄い
趣味で遊んでる人間には有料の壁がどうしてもあるw
SDで技術的にいろいろ試して遊ぶんじゃなくて、ちゃんと絵を出力してなにかに使うならMJが10ドルは全然安いと思うけど
テクスチャ目的の素材が欲しくて最近SD触ってるんだが いまいち良い感じの物が出ないな ゆがんでたり細かいところがおかしかったりする MJと比べたら写真っぽいものが出てくれるだけでありがたいが
--testとかリラックスマンには順番回ってこないし・・くやしい(金払えよ)
GUIついたか…
でも未だに大量のVRAMいるんだよなぁ…
https://nmkd.itch.io/t2i-gui >>492 3DCGのテクスチャ用途としては無限の可能性あると思うわ
ぶっちゃけ、もうSubstanceDesignerとかいらねーなとw
シャッターストック pixaby Adobeストック これらのフォトライブラリーもいらなくなってくるんじゃ
中国版触ってみたけど、銀髪ってやっても銀髪にならねーじゃん でも、絵柄は好み SDも早くアニメに対応してくれー
>>497 だけど、ちゃんと中国語にしたら対応したわw
使い方わかってなかった
今のところ著作権で問題になるのはプロンプトだけかな? 特定の著作物を指定して画像を作成した場合は問題になりそうだけど プロンプトがわからない場合はセーフって感じ? 画像からプロンプトがわかるようになったらそれを証拠に 訴えられるケースは増えるような気はする。
>>502 知財に詳しい弁護士に聞くといい。そしてスレチ
そのうち最適化が進めば4GBや6GBでも解像度2048や4096くらいの生成が可能なんだろか ファイルサイズは小さくなってるみたいだけど 最適化進んでグラボ買わずに済むなら良いんだけど
>>500 顔入りの全身見せてくれよってパターンがかなりあったんでコレは助かる
と思ったら既に3DCG向けのAIテクスチャサービスできてるわwww
早すぎんだろw
https://withpoly.com/ まぁ高解像度は月10ドル罹るらしいがw
>>506 ただのディフューズだけだから3D向けテクスチャというにはちょっとね、
使える場面もなくはないと思うけど、SDでシームレステクスチャ作ったり、
大量にフリーであるプロシージャルテクスチャよりいいかっていうと微妙な気がする。
買う人いるのかな
>>506 ループしねーじゃんと思ったらサブスク限定だったわ
10ドル程度でテクスチャに絞って2k~4k出力可能なら十分有用なんじゃないか
海外はほんまオープンソースからの開発テンポ良くてええな
1024x1024のキャンバスをどんどん追加して最終的にデカい画像を作る機能のβがダリEに来たらしい
https://openai.com/blog/dall-e-introducing-outpainting/ i2iも可能、部分マスクも可能
フォトバッシュしやすくなるやつだな
興味深い記事だった
アーティストの権利侵害やポルノ生成などの問題も浮上する画像生成AI「Stable Diffusion」の仕組みとは?
https://gigazine.net/news/20220831-stable-diffusion-process-performance/ 総合かと思ったけどこっちで十分な内容
DALLE2のが上なんだな
>>509 フォトショプラグインのと同じ感じだね
やっぱ連続性や効率考えるとこういう方法になるんかぁ
切れた頭や足追加したり拡大しても低RAMでリファインできるのは大きいか
>>510 SDといってもCFGSとSamplerにステップ数で全然違うもんが出来るし、設定次第ちゃうか?
今出したもの
元記事のは無調整のままPromptをSDに突っ込んだように見える
デキとしては俺もDALLのが上だと思うが、こっちで調整できるのがSDの利点やな
上手くアルゴリズム組まないと同じ何かが反復してスタンプみたいにあちこちにポンポンできそう 中心からの距離とかでプロンプトと背景を分けたりするのぁなぁ
限界を感じてきた どんなに頑張っても同じようなのばっかり出てくるのは しょせん学習サンプルを超えられないということなのではないか 真の意味でのクリエティビティや創造はここにない気がする
複数画像出力して一番いい画像選択+テキストで指示を追加を繰り返す みたいな感じにするとかやりたいな…
なんかAIで3Dモデルを起こしてくれるサービスが実は裏で人力を使ってたってニュースなかったっけ
AIってのはあくまでも人間の補佐だよ またスレ違いって言われそうだけど
>>509 これ試したが、1回の生成で1024x1024を4パターン提示してくるの凄ぇ
ただ凝ったの作ろうとしたらクレジット消費がマッハだわ
一貫性を維持するために既存部分を上手く含めないといけない&含めても上手くいくとは限らない
相変わらずi2iのクオリティは高いがコストも高い
まだ出て一週間だぞw モデルもデータもまだまだ進化する 我々が死んだ後も進化は止まらないだろう
以下私の理解・解釈が入っているので気になる方は原文をお読みください。 ●k_eular_aが優れた結果を出す不思議さ https://twitter.com/iScienceLuvr/status/1564847717066559488 https://pbs.twimg.com/media/Fbd0s-tVUAAjv5e?format=png ○前置き ・SDは、ディフュージョンモデルの一種。 ディフュージョンは学習データ画像にノイズを加えていく過程から逆方向のノイズ除去を学習し、画像を生成する。通常はRGBピクセルで行う。 ・SDは「潜在」ディフュージョンモデル。これは512x512画像を、32x32の潜在データ(64分に1に)してデノイズを行い、オートエンコーダで元の512x512イメージに戻す これにより大幅に計算量を減らすことができる。 ○サンプラー ・デノイズを行うニューラルネットは処理的には離散微分方程式を解くのと同じであり、サンプラーとは離散微分方程式を解くアルゴリズムのこと。 ・DDIMとPLMSはオリジナルのLatent Diffusionリポジトリにあったもの。 k_がつくものはキャサリンのk-diffusionリポジトリから来ている。 ・k_euler_aはたったの5~10ステップで良い結果を出す。これは非常に奇妙な結果だ。 なぜならk_euler_aは、最も基本的なサンプラーで(潜在でない)RGB画像のディフュージョンモデルでは良い画像を得るには通常数百ステップが必要。 ・k_euler_aが潜在ディフュージョンモデルで良い結果を出す未知の要素が何かあり、これからの面白い研究の方向性かもしれない。 --- k_euler_aがステップ毎に変わった結果が出るのは計算が間違ってる(誤差が大きい)からだったりするのかな? https://twitter.com/5chan_nel (5ch newer account) 本当に凄い事を体感できるのはまだ一部の人だけ 大半の人にとってはテキスト打って画像をガチャする物止まりだから飽きられてるように感じる
推しのグラドルで1晩ファイーンしたらいい感じになった(チラシの裏)
写真でもイラストでも、顔のアップからバストショットくらいまでは造形良いのに、そこから少し離れると途端に崩れ出すのはなぜなのか。
学習データが顔のアップとバストショットばかりだから
>>524 顔のアップやバストアップくらいまではある程度造形が決まってるが、腕や足は間接があって位置が決まってないからだろ
人間はこういう手の位置はおかしい、足はこういう風に向かないってわかるけど、aiはあくまで大量のデータから人の画像をつまんでいるだけで、パーツを繋げることは出来てもその整合性まではまだ判別できないんだと思う
腕の長さはともかく、たまに腕が3本あったり背中から腕が生えてるもんなあ…
というより、顔と体の両方を最適化するのがしんどいんだと。 SDは公式でも二つの物体の関わりを描画するの苦手って書いてあったはずだし。
例えるとAIの描画は画像の局所性を利用して主に担当エリア周辺の狭い部分だけを それぞれに見て無数の小人達が同時並列に分担して描いているようなもの、だから早い(GPUなら) そのため全体としてツジツマが合わなくなって背中から腕が生えてきたりする 座標変換の工夫である程度遠くまでチェックできるように改善されてるけどまだ限界がある
D2のがSDよりプロンプトに忠実って話 > Stable Diffusionのアーキテクチャは、「ランダムノイズをより低い次元の潜在空間に縮小し MJはさらに低い次元にしてる? 全然言うこと聞いてくれない代わりに、思いもしないいい画像を出すように調整されてて 初心者を喜ばせてハマらせるみたいな戦略に見える 逆にD2は確かにプロンプト通り出してくるけどどこかチープで見栄えしないのが多い まぁMJは--testとtestpがかなり化け物っぽいので今後どうなるか予想つかないけど
ERNIEViLGが話題になってるみたいですね あれのローカル版が出るなら今後ほしいなぁ
ERNIE-ViLGのWindowsローカル起動試した
構築はこことリンク先を参考に数コマンド入力
https://github.com/PaddlePaddle/PaddleHub/tree/develop/modules/image/text_to_image/ernie_vilg hub run ernie_vilg --text_prompts "初音ミク" --style "水彩" --output_dir ernie_vilg_out
→
実はそれローカル稼働してないんですよ(バイドゥのwebAPIにリクエスト投げてるだけ)
ほんとだ回線止めたらエラーになった・・・ ConnectionError: HTTPSConnectionPool(host='wenxin.baidu.com', port=443)
>>517 創作者が「こういうのを出力してほしい」とぼんやりとでも言語化できる程度には
好きなものを持っていたり着せたいファッションなり重ねたい風景なりのイメージがないと
玉石混交のガチャでしかないもんな
>>499 一人目のプロンプト試してみたけど
髪と服だけの指定だったら5分の1くらいいい画像出てはかどる
写実系限定かもしれんが1.5から顔の表現が安定するようになるみたいだな
>>526 そういや
横たわってるのはimage2imageですら再現が難しい
90度回転で直立させると上手いこと行きやすい
を誰か言ってたわ
fine turningのDreamなんたらの方の実装はまだきてなんいんだっけ
自分が描いた絵の一部だけimg2imgでベクシンスキーに描かせるの面白すぎる
簡単なスケッチから「Stable Diffusion」で思い通りの絵を描く手順を解説 - GIGAZINE
https://gigazine.net/news/20220831-stable-diffusion-how-to-draw/ より思い通りの画像を作る!img2img&フォトバッシュ複合ワークフローについて[StableDiffusion]
https://note.com/abubu_nounanka/n/n3a0431d2c47a 画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/ 解説読んで手入れしたらパッと見で普通にありそうな絵になったんだけど 今ってAIが絵を描けるって所が話題になってるから普通に見えると逆にAIの凄さが伝わらないかも
とくに指定できるポーズを描かせたいなら動作と具体的なポーズ名を使うといい感じに全身が出やすい nsfwなポーズも 〇〇 pose で安定しているワードを使うと破綻が少ない nude pose : よくあるヌードデッサンみたいなポーズが安定して出る,+動作や状況でもっと絞れる ex.(sit the chair, rest on couch porn pose : セクシーなポーズが割と安定,絡み画像が少ないので破綻が少ない clip front で安定した画像群が出るワードなら期待できる
>>546 自分で検証してませんけど、wikiには大文字小文字関係ないと書いてますね
https://wiki.installgentoo.com/wiki/Stable_Diffusion Capitalization does not matter.
A.K.A.(〇〇として知られている〇〇)みたいなのどうすれば良いんだろう
AIプロンプトを理解させるテクニック
著者がだいぶこじれた人っぽいけど内容に間違いはないと思う
https://note.com/siba_dot/n/n0a8691208632 ERNIEはたった一晩の間に呪文の研究がかなり進んで上位の絵描きが描いた絵と 同レベルの絵が出力されるようになってるな
>>550 Cityscape in Girl = 「少女のいる街の風景」は思いつかないなw
面白い
他の使える単語とかもまとまってて役に立ついいまとめノートですね。ありがとう
3060でファインチューニングのトレーニング動かせた
Windowsなのでベースのリポジトリと解説はここに従って
https://github.com/nicolai256/Stable-textual-inversion_win 追加で設定ファイルの数値ここまで下げた
出来上がったものが使えるのかとかクオリティとかは不明だけどとりあえず報告
>>553 なるほど。
256x256の学習でも使えるものなのかな。(仕組み分かってないw)
ところで8月のホットな機械学習論文の1位が、Textual Inversionだったらしい。
論文レベルで最新のものが同時に何万人も一般人が試してるってのがすごい。
2位がディフュージョンはノイズ付与じゃなくてマスクとかモザイクでも大丈夫理論で
これもディフュージョン関連。熱い分野だ
>>553 おお!うちも3060なんで週末に試してみよう。
>>555 >>519 さんが試してますね。かなりすごい。
論文とかソースコードとか公開されてるなら、勢いのあるSDは比較的すぐ実装しそうだけどどうなんだろう
>>543 StableDiffusionGui-v1.2.0.zip
解凍してたらパスが長すぎるとかでエラーになるんだが
>>559 俺もそれ出たわ
もう一度やり直そうと思ったら普通にインストールされてた
まあAMDだったから俺は動かなかったけど‥
>>559 Installation: Extract anywhere (not a protected folder - NOT Program Files - preferrably a short custom path like D:/Apps/AI/),
て書いてあるからなるべく浅くて短いディレクトリに置く
>>560 エッ?Ryzenだとダメなの?
>>561 サンキュ
ガーン・・・・・ 敷居が高すぎて指くわえてた所に神ソフト来たと感激してたんすよ
改造すれば動くんじゃね 俺Macでローカルで動かしてるし
>>559 は分かりませんが、
>>18 とか普通にみんなが使ってるものはRyzenで何の問題もないですね
グラボはGeforceでVRAMが6GB以上の必要はあります。 (Radeonはまだ無理)
AMDでもワンクリックで使えるようになるのは時間の問題なはず それまで我慢する
>>567 調べてみたらMacだとMetal経由でRadeon GPU上で動かせるんですね。知らなかった。
Windowsの話と思っていたので失礼しました。
>>569 WindowsのRadeonはまだ無理だったんですね、こちらこそ失礼しました
>>570 インスールは若干簡単だけど、全く未完成で不便なので素直に
>>18 入れればいいと思う
それか
>>402 VRAM usage at different resolutions is something that needs documenting, larger resolutions require more vram, and from my previous tests it's roughly linear, for example, an image that was 512x512 used around 6gb, and an image that was 512x1024 (double the size), used just under 12gb.
Accidentally lost the resolution you were trying when I changed the title but I think it was 768x832 which is roughly 22% larger than 512x1024 so I would expect it to use roughly 22% more vram
https://github.com/hlky/stable-diffusion/discussions/80 24gbで1024x1024いけそうだけどやってる人おらんかな
たぶんStableDiffusionGuiは
Data\repo\src\gfpgan\experiments\pretrained_models\
に
>>18 とかのオプション入れる。
GIGAZINEだけでもかなり記事でてんなー
コッチ系好きなライターおるんやろな
画像生成AI「Stable Diffusion」をWindows環境にボタン1つでインストール可能&GUIで操作できる「NMKD Stable Diffusion GUI」がついに登場
https://gigazine.net/news/20220831-stable-diffusion-windows-gui/ 画像生成AI「Stable Diffusion」をスマホでサクッと使える「AIピカソ」の使い方まとめ、「img2img」にも対応
https://gigazine.net/news/20220901-ai-picasso-stable-diffusion/ スレチな記事だと「画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒」
て見出しあったw
GUI操作ってメリットあるのかな スクリプトで実行したいから全部CUIでやってる
>>576 text2img.pyとかだと起動ごとにモデルの読み込みとかした後に画像生成してる(プログレスバー動く)けど
GUIだとプロセス起動済みだからプログレスバー動く所から始まってくれて生成が早いよ
>>576 >>577 さんの通りGUI版の方が速度が単純に速いし、使いやすい
スクリプト操作は、
>>377 ,383,402 にあるAUTOMATIC1111ならかなり色々できる
公式のサンプルは
>>419 みたいにCFGとstepsを変えたバリエーションの一括生成だけど、
例えば、以下のようにシードとプロンプトでループさせて一括画像生成もできる。(pythonコードなんでなんでも)
seeds = [1,2,3,4,5]
prompts = [
'man , digital cg art by Greg Rutkowski',
'woman, digital cg art by Greg Rutkowski',
'girl, digital cg art by Greg Rutkowski',
'boy, digital cg art by Greg Rutkowski'
]
ついでに、
>>578 の画像を見ると
・シード毎に基本的な構図、色が決まっている。
・ワード毎に強い、弱いがあり、例えば "man"は、"girl"、"woman"よりもかなり弱い
seed=3だと、大きな逆三角形構図は全部同じで、 worman、girlは、その逆三角形が左を向いている顔として生成されているが、
man、boyは弱く、大きな逆三角形構図が、背景(木)として生成されている。(木のワードはないのに)
※seed=9も同じ
やってから思ったけど、このシードはこういう構図、色なんて覚えたりシードガチャやるなら、
最初からimg2imgで基本構図、色を指定したほうが楽ですねw
Game ReadyドライバーからStudioドライバーに入れ替えました AMDでも使えるやつ待ってます
補足 書き忘れましたが、>578のコードは断片なのでそのままでは動かないです。コピペすると長いしインデントが違ってどうせ動かないので。 公式を見ればやり方は多分分かるはず pというオブジェクトに設定可能な属性は以下の通りです。 'batch_size', 'cfg_scale', 'do_not_save_grid', 'do_not_save_samples', 'extra_generation_params', 'height', 'init', 'n_iter', 'outpath', 'overlay_images', 'prompt', 'prompt_matrix', 'sample', 'sampler', 'sampler_index', 'seed', 'steps', 'use_GFPGAN', 'width'
>>577 >>578 ありがとう
まさかCUIの方が色んな面で高性能だとは…
勉強するわ
すまん、公式参考にcmd直接叩いて環境構築してtext2imageで吐き出せるようになったんだがimg2imgを利用するためにはgitとやらを用いて環境を再構築しないとできないって認識であってる? それとも吐き出すときのコマンドを下記のように変更したら利用できたりするのかな。 with autocast("cuda"): images = pipe(prompt=prompt, init_image=input_img,strength=0.75, guidance_scale=7.5,num_inference_steps=51, generator=generator,)["sample"][0]
エッシャー「ヨッシャー」 fine tuningしたSD用のptファイル使うのにいいGUI付きの何かってないのかしら
>>584 使ってるパイプラインが違うので無理
素直にwebuiでやればいい
>>584 image2image用の環境を作るスクリプトがGoogleColabにあるからそれを拾ってきて生成コマンドの前に走らせればできるよ
誰だこのフィリピン人
スゲー売名目的臭いんだけど
画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒
https://gigazine.net/news/20220901-midjourney-win-fine-arts-competition/ >>587 このままじゃやっぱり無理か〜。ありがとう。
>>589 よ、よければもう少し詳しく。
ギガジン、むっちゃ記事書くなあ
話題の画像生成AI「Stable Diffusion」で使える呪文のような文字列を実際の画像から見つけられる「Lexica」の使い方まとめ
https://gigazine.net/news/20220901-lexica-art-stable-diffusion/ >>543 これをやってみてるけどかれこれ2時間経過してもインストールが終わらない
>>592 丁寧にありがとう、助言に従って週末にhlkyかGUI版をもう一度構築してみる。
初音ミクさん書きたい人向け
https://twitter.com/takei/status/1564990874974445569 「麦わら帽子にワンピースの初音ミク」→翻訳→AIお絵描き
でこの絵が出てくる
ERNIE-ViLG Demo
ERNIE-ViLG is a state-of-the-art text-to-image model that generates images from Chinese text.
https://huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG https://twitter.com/5chan_nel (5ch newer account)
Lexica改悪してね?… 画像一覧になったのはいいけど、肝心のプロンプト全文がすげえ把握しづらいというか出来ないというか…
>>553 このimage sizeって圧縮割合じゃない?
2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
関係ないけどDDIM Samplerのログがうざい…ddim.pyのVerboseをFalseにしても出るんだけどこいつどうやったら黙る?
>>593 情報のタイミング的にここ見てる気がする
ここの皆さん凄いね よくもまあこんな難しい事を試行錯誤出来るものだ しばらく待ってればワンクリックで動かせるツールが出そうなものなのに 何をそんなに生き急ぎ出力したいのか‥
>>603 GANが騒がれた頃から待ちに待ってもう何年?って感じですし…
使えそうなモノが出てくればいち早く触りたくなるのが人情よ
>>600 > 2*2まで圧縮したらさすがに意味なさそうだが、学習結果が気になるな
入力と途中経過がこんな感じで、反映されてる雰囲気あるけど、評価はよく分かってない
>>607 一応学習が効いてはいる感じですね
ちなみに、256*256で学習する場合メモリはいくつ使って
何枚を何時間ぐらいで処理できる感じなんでしょうか?
>>607 思ったより効いてた
顔半端にリアルになってるの面白い
3060でこれができるのは朗報ですね ありがとう
>>607 A GPU with at least 20GB of memory
ってかいてあるけどうごくんだ
3090買うべきかなー
>>608 永遠にトレーニングするので処理完了という概念はなくて、いい具合になったら止めるんだけど、
>>607 で3時間経過くらいだったと思う
設定はあの後 num_workers: 3 に増やしたけど、これが 3060(12GB)の限界っぽい
Automatic1111入れてみた たしかに圧倒的に早い
>>612 なるほど自分で打ち切るんですね。ありがとうございます
あと自分も含めて、3060ti~3080ti使ってる人に非常に有益な情報だと思うんで
回してるときに使ってる使用メモリ数が分かったら教えてもらえないでしょうか
hlkyフォークでもSDアップスケールが使えるようになった GoBIGとGoLatentがそう
>>616 全裸の写真を用意して「pregnant(妊娠)」って入力すると妊夫さんになってるからできてると思う。パーセンテージで調整できる。
>>614 タスクマネージャによると実行前0.7/12.0GB→実行後8.9/12.0GBだったね
num_workers: 4とか5あたりで「ページング ファイルが小さすぎるため、この操作を完了できません。」エラーで起動できなくなる感じ
久々に腹抱えて笑ったわ
【悲報】中国産AI絵師にブチギレた日本人絵師、『天安門』と透かしを入れ始めるwwww [462061812]
http://2chb.net/r/poverty/1662031407 >>618 ということは3060の上は3080からみたいな感じですね
ありがとうございます
ESRGan方式じゃなく、ちゃんと情報追加しつつ1024サイズオーバーにupscaleするの来ないかなぁ・・
ID:MfiAYLG4
【Midjourney】AI関連総合【StableDiffusion】
http://2chb.net/r/cg/1661853927/ Dall-Eのアウトペインティング、AI生成じゃない普通の画像でも使えるらしい。すご
このスレは火消しが来てないねぇ…
【悲報】中華製の神AI絵師「ERNIE-ViLG」先生が日本語対応 これもう宣戦布告と捉えていいな? [526594886]
http://2chb.net/r/poverty/1662039883/ あーなるほどなるほど
業者に頼むとお金がかかるもんね
【悲報】嫌儲 スクリプトだらけ ★2中川翔子 [511335184]
http://2chb.net/r/poverty/1662057890/ >>628 アフィが嫌儲のリンク貼るわけないだろ
そちらこそアフィなのでは...?
新海誠と竹内崇って絵柄全然違くね? なんで混ぜるの??
新海は美麗背景目当てメインで、背景オンリーの人も良く入れてる
言ってないだけで新海誠プロンプトにお世話になってる人たくさんいると思う
ファイーンを理解してしまった、これは確かにいい感じになる どう調教したckpt使ってるかで結果が変わってくるならプロンプトだけ見ても他人の成果が再現できなくなるな promptを頑張ってもなかなか綺麗な結果が出ない要素の元データを掘り下げてみるとaesthetic scoreで絞った段階で使ってほしい画像がごっそり削られてたりした 個人で膨大なデータや学習環境用意できるわけでもなしどうしようもないかと思ってたが、これ使えばピンポイントで不足をカバーできるので色々なんとかできてしまうのでは
いっさい人が登場しなくなる魔法の言葉教えてください!!! 良い感じのリアルな風景画像なのにプロンプト内の言葉に反応してかデッサン狂いの人間たちが数人絶対現れちゃいます! プロンプトの先頭に「Unmanned」って付けても全然効力なかった… 今後こういう「無人」とかを選択出来るようになればいいな…
MJなら--no human,man,woman,peopleとかで徹底的に潰すとか SDはわからない、除去の方法あるんだろうか
無料で画像生成AI「Stable Diffusion」をWindowsに簡単インストールできる「NMKD Stable Diffusion GUI」の使い方まとめ、呪文の設定や画像生成のコツがすぐわかる
https://gigazine.net/news/20220902-nmkd-stable-diffusion-gui-usage/ >>624 重複スレたってんねやな
こっちが技術スレって言われたらギガジン貼ってスレ眺めてるだけの俺はそっちの総合スレいかなあかん子やー
>>636 ゲームだったらゲームキャラとかnpcとかかな
風景写真に人がいるかどうかってキャプションには載ってないだろうしなぁ フォトショとかで消してimg2imgが現実的な気もする
アニメ調というか、黒い輪郭をつけるいい呪文ってありますか?
>>638 重複というか、
技術系の話題だけじゃなく、CG板でAI生成で雑談したいって要望であえて後から建てられた
元々CGの未来スレってのがあったんだけど、スレタイ悪すぎて人が集まらなかったので
ファイーンはどれぐらいの枚数でどれぐらい回したらいいんじゃろね とりあえずグラドルさんそれなりに再現できたぽいのでこれで遊びつつ枚数と枚数ぼちぼち検討してみるかしら
>>637 >>639-640 SDです…
プロンプトに従わせる数値をMAXにして先頭に「no human」や「Ghost Town」を持ってきても現れちゃうので、
自分の中で思ってた「先頭に持ってくる言葉が一番強い!」論が崩れました…
言葉に関連付けられてる参照イメージに人がいるってことだろうから SDだとマイナスとか「いない」、って指定はできないのかも liminal spaceとかabandoned、apocalyptic などの言葉を入れたらどうかな
>>642 unreal 5 enginとか付ける
>>646 帰って再構築してやってみます!
あと単語一つ一つ消してどれが出現させてるのかチェックしてみます!
SDにもマイナス要素入ること願ってます!
>>645 プロンプトをここに載せてくれたらみんなで試行錯誤できるけど難しいかな?
ERNIE-ViLG試してみたけど フォーカスが体の中心部分になるのが気になる 頭全体が映るように調節ってできるのかな
hlky版だと一応、マイナスウエイト対応していて、 city street:1.0, human:-1.0 みたいなことが可能です。 ただ-1.0は強すぎなので調整してみるとうまくいくことがあるかも? 注1 NormalizeをONにして、マイナスウエイトがあると、パーサーがバグってるのか以下のように計算されてしまいます。 city street:0.5, human:0.5 注2 city street, human:-1.0 にすると、省略されているからcity streetは1.0になるだろう、と思いきや 【city street, human:】が -1.0で処理されます
日本語対応したernie-vilgでナイスバディ出そうとしてるけど規制に引っかかって中々むずかしい… 乳や胸の文字に反応しているのか乳袋の意図的な再現が困難っぽい むしろ関連ワード入れないほうが紛れてるときあるしお祈りガチャするしかないのかな?
>>647 何度かしたけど3Dゲーキャラが出やすいくらいで輪郭っぽいのないです…
>>636 今のSDでネガティブな指定は難しいので
キャラが小さいなら inpaint 使えるフォークで inpaint + img2img で頑張って消すのが一番無難
>>650 >【city street, human:】が -1.0で処理されます
reddit でその動作が仕様みたいな話になってたけど俺も違うと思う
>>651 注1はひょっとするとこの警告が出てるパターンかも
Warning: Subprompt weights add up to zero. Discarding and using even weights instead.
(合計が0にならないようにする必要がある)
>>655 あ、例が足してゼロなのでちょっと特異例でしたねw
でも 1.2 と -1.0でNormalizeすると、 6.0と-5.0になり、計算上はそうなんですがそういう挙動を望んでいる人はいないので注意は必要です。
まあマイナス数値入れるのにNormalize付けたい人はいないと思いますがデフォルトがONなので。
>>653 輪郭だけにするなら、Lineartとか入れれば線画になりますがそうじゃないですね・・・
画像加工ソフトで輪郭追加したほうが良さそうな気がします。
厳密には違うけどこのサイトと同じようなデータを参照してるので、
大まかにはこの中から選んだり平均したりくっつけたりしたものが出る
https://rom1504.github.io/clip-retrieval/ 例えばpainting of village in franceで検索してみると村の景色なんだけどそこに暮らす人も書き入れられてるので人の打率が上がる
そもそも絵という指定が人がいる方向に引っ張りそうなので外して、morning silent villageとかにすると朝方の空いてる時間の写真が増えるので人が減る
ただ写真に寄ってしまうので画家で画風のバランスを取るが、風景画家だからといってbruegelとかだとむしろ人が居る方に引っ張るのでやめておいて、
人の居ない景色を描きがちなgreg先生の力を借りる
じゃあmorning silent village in france by greg rutkowskiだなというのがいつもやってるプロンプトの作り方
>>657 これ見てるとほんとワードとイメージが全然一致してないことが多い事を思い知らされると同時に意外なワードで固定化できたりとか見てるだけで面白いなあ
>>645 ()で括ると強調されるらしいけど試した?
何個もいけるらしい(((())))
アップスケールテスト
hlky 2022/9/2
オリジナル 512x512
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:3958304546 width:512 height:512 steps:52 cfg_scale:7.5 sampler:k_euler_a
ImageLab>ProcessorModes=Upscale
ReadESRGAN_x4plusとReadESRGAN_x4plus_anime_6B
アップスケールの副作用(?)で元々輪郭線がある部分はそれがくっきり出るようになりますね。
アニメ絵のように全体に輪郭があるようになるものではないですが
人がいないシーン(廃墟や夜景)の指定や風景画ばかり描く人の名前入れるとかはだめなのかな
>>659 ,662
()とか[]とかが使えるのはどのフォークの話ですか?
そういえば前からGFPGANとRealESRGANのモデル読み込みしない方がVRAM節約できるよって話があったけど試してみた 1080のVRAM8GBで両方ロードしてる状態だと768x448が限界で768x512にすると落ちてたけど両方ロードしない状態だと768x512も出力できたよ この差はわりとでかい気がする
おっぱいの画像作るのが日課になってしまった 中国のやつローカル環境で早くやらせて欲しいな
グラドルファイーンするとグラドル感が強すぎてそこから応用効かせにくいかもしれない あんまりファイーンしてないやつ(STEP数少ないデータ)で確認はしてみるけど
>>663 もしかするとautomatic1111のやつだけかも
いろいろエロいやつ生成して見てたら、服とか下着がズレておっぱいポロンしてるのが性癖だったことに気づいて、AIに新たな扉を開かされてしまった。偶然出た画像だったけど、どんなワード入れると上手くポロンするようになるだろうか。
>>669 英語で「オーバーオールを着ている」だが「下着は着ていない」系の奴
>>395 なんで?エロコンテンツの開発に熱心な人だから?
上の検索サイトのsafe mode外してnip slipped girlで検索 ぐっと来る結果になるまでgirlの部分を変えていっていいの見つけたら教えてくれ
tight(タイト)とかskinny(スキニー)ってやると体の線出やすい。ワンピースのドレスとか水着とか。
automatic1111版ってデフォルトではエロフィルターある?
>>667 人間のファインって顔だけでいける?全身?
Idol-looking Japanese 1X-year-old girl wearing a one-piece dress of thin fabric over her nude body in a grassy field,
X=好きな年齢
でまともなやつ
ブラがめくれてポロリしてるのが好きなワイも通りますよ。こういう半脱ぎみたいなのはどうやればいいのか。
>>680 入れる画像に入ってる全ての要素でプレースホルダーに割り当たる概念が作られる
顔だけ入れるともちろん顔の精度が良くなるが、概念に顔のドアップという要素が付け足されて構図を引き剥がすのが難しくなる可能性もある
理想としては覚えさせたい要素以外が適当にバラけた画像を複数入れるのが良いはずだが、まだ誰もノウハウを構築してない
これはプロンプト削除してしまって申し訳ないがうまくいってるほうだと思う。
指が変だがなんか変な植物みたいなの持ってるほうが気になる。
>>687 と同じプロンプトのやつ
金具みたいなの持ってる。
>>691 intel AMD macの俺はいつになったら動かせるのか
待ってたクセに導入する前から既にAI画像生成に飽きてる 画像生成できたから何?みたいな虚しさを感じてる
映画や小説やゲームにもなった「ストーカー」ってSFみたいな 現実の時空間に非現実の時空間が紛れ込んできて 既知の物を未知の物にしていくって世界観が好きなので 風景写真とかメインでやってる。出来上がるの楽しみ。
CG業界の人が使ってるGPUは97%がnVidia
Radeon全て+古いQuadro+Intel内蔵グラボで1%ってレベルなんだよね
メジャーなレンダラーのV-RAYはそもそもnVidia以外動かないしBlenderも数倍差でnVidiaが速いからしょうがない
ゲームならRadeonでも遜色ないと思うんだけどねえ
>>695 知らなかった‥4割ぐらいは居るんかと思ったわ
こりゃ待ってても来ないな
>>680 とりあえず半々でやってるけどノウハウどこ?ここ?
SDやMJは言語処理にCLIP(テキスト―画像の埋め込み)を使ってるけど、
GoogleのImagenのようにT5(テキストだけを事前学習したもの)を使うと
VIDEO 「バックパックを背負った柴犬が自転車に載っている写真。サングラスとビーチハットをかぶってる」とか
「~~~パンダ、背景には花の絵が壁にかかっている」
みたいな言語を人間レベルで理解した画像生成ができるらしい
マイクロビキニを着た~とかも多分正確にできるじゃないかと思う
googleはMJやSDとは文字通り桁違いのリソース使って学習してるんだから そりゃ桁違いの性能だろうし公開なんてとても出来ないんだろうな 地球シミュレータの何十倍も高性能なクラスタサーバを数え切れない程持ってるんだしな
>>679 スクレイピングツールを提供してるからってことか
woman worriorって入れるとやたらと脱ぎたがる 俺は真面目な戦闘シーンが描きたかっただけなのに
>>578 を見ると、girlだと脱がないが、womanは脱ぐんだよねw
胸に鎧を付けてるって指定してもなぜか脱ぎだす のべりすとの絵描きに頼むとエロワード指定しなくてもトマト猫ばっかりになるわ
脱がしたいときに、nudeって入れると作画が崩壊するから 間接的に脱がす呪文を開発する必要があるわけだけど、女戦士様はその候補の一つだと思うくらいw
脱がせる呪文はナチュリスト使うことが多いかな たまに脱がないけど
普通にnakedでいけるしPornograffic Portrait of 〜とかもいい感じになる
colab相当ストレスがかかってるのか、超頻繁にロボットじゃないか聞いてくるし 昨日から突然T4割り当ててくるようになった(pro) 他のクラウドは料金怖いしやっぱローカル環境欲しいな...
>>703 とりんさまアートなら右下の歯車をクリックして下の方にある「コンテントフィルターを有効化」のチェックを外してみては
>>709 ローカルで快適に生成しようと思って調べたけどRTX3000シリーズがほぼ必須みたいだね
やっぱ現状ではまだまだ金持ち専用のおもちゃって感じだな
>>698 破綻せずに犬がハンドルにぎってるのがガチャなしで出てるならやばいな
XX=好きな数字
A_XX_year_old_Japan_gravure_idol_is_wearing_a_red_super_high_leg_one_piece_swimsuit
made_of_glossy_latex,_standing_in_a_yellow_room_with_her_legs_spread_with_her_hands_up_to_show_her_arm
>>700 いや4chanで名前を出してはいけないあの人になってるんだから…
An_XX_year_old_Japanese_gravure_idol_with_a_cute_muscular_face_is_wearing
a_silver_super_high_leg_one_piece_swimsuit_made_of_resin_that_reflects_light_perfectly,_the_thin_material_clearly
>>717 体のラインハッキリクッキリさせたかったからかな?
エッチな写真は自己紹介の口語文を英語に翻訳すると良いっぽい。
長めの呪文うつとディレクトリが無いって言われたり出力先の画像ファイルが無いとか言われたりしてたけど Windows側のパスの文字数制限らしいことに気づいた なんか起こったら怖いが長いprompt入れたいからレジストリ弄った
>>714 captureとcaptcha読み違えたわ
4chanの人間認識システムを自動で回避するツールか
まあクソどうでもいいんだけど
引き算も覚えないと変に足し過ぎて結局少ないワードの方が良かったってなっちゃう時ある
できた。今日のマイワイフです。
>>721 シンプルな方が化け物はうまれにくい印象
「天安門広場でスクール水着で踊る習近平」と指示してもスク水着た近平が出てきてくれない
スク水を学習してないらしいからすぐ上のやつみたいに別の表現でスク水を唱えないと難しいんじゃない
>>723 目指すところによるけどdetail系も案外入れなかった方がうまく纏まってくれたりする時もあるしね
オッサンがスク水着てる画像の学習度が足りないんだろうな グラビアなどはまあまあ学習してるみたいだが
>>724 80パーセントはスクール水着のオバチャンとの記念撮影だが20パーセントは↓みたいな写真になる
プロンプト
I am a 69 year old Asian male, and today I put on a one-piece swimsuit for women called a school swimsuit,
which is designated for compulsory education in Japan, and I am told that my face looks like President Xi Jinping of China.
What do you think? Today we took this photo at Tiananmen Square, please watch me dancing.
訳
私は69歳のアジア系男性です、今日は日本の義務教育で指定されているスクール水着という女性用のワンピース水着を着てみました、
顔は中国の習近平国家主席に似ていると言われています、どうですか?似合うでしょう?今日は天安門広場で撮影しました、私の踊っているところを見てくださいね。
シード
574805382
hlkyのColab版webuiGUIって一度か数回プロンプトのウェイト異常等でバグ画像が出たら延々とバグ画像が生成されちゃうのかな プロンプト一部変えても粗く合成に失敗したかのような汚い画像ばかり出ておかしいと思いながら続けてたけど 画像内数カ所に三原色のキラキラみたいなのがプロンプト全部変えても出るようになった 通常運転に見せかけてバグ製造路線に上書きされてる感じ 閉じて構築し直したら直った hlkyって一番高評価っぽいけどこういうこともあるんだな
>>730 自分は一回もなったことないけどなぁ
スケール上げ過ぎ・ステップ下げ過ぎとかではなく?
>>731 ステップは30でスケールは20くらい
普段なら上手く行ってるプロンプトでも全然違う画像というか、どこにプロンプト要素あるんだ?…って変化で
最初は普段どおりの出力だったけどウェイト機能に挑戦しようと思って
けど正しい使い方がいまいちわからず何回も連続で恐らく異常で不正な数値を入力した結果、
そういうおかしい画像しか出力されなくなった
kitchen:0.6,apple:0.9,orange:0.0,usa:5.0 みたいに完全なゼロ含むウェイト付けまくってたらバグっちゃった
30個くらいの単語に全部そういう滅茶苦茶なウェイト付けてたからAIがやる気なくしたのかも
hlkyのは同じ環境を何度も使い回すことで生成時の待ち時間削減してるし 機能は全部実験機能でバギーだから 一度落としてやり直せば改善するのならただのバグだろうね
TIファイーンについてんぱかさんが記事出してたけど3~5枚ぐらいの方がいいて内容でよくやからぬん とりあえず特定絵師5枚ミクさん絵で追試してみるけど
embeddingってのはあくまでもAIのモデル本体にコバンザメみたいに新しい概念をくっつけるもんであって 本体ほどの色々覚えるキャパシティが無い その中であれこれ違うものを入れるとどれにも寄らなくなって悪い結果になるという話 特に相反する要素が多い画像を突っ込むとそれの平均ではなくて発散して意味不明になる恐れが高い 投入する素材が程よく揃えられてればいいけど、それならそれで5枚で十分でしょという
なるほどな 呪文も余計な要素を入れると作画崩壊するしな
今時点の手元でーただと実写30枚/10epochとアニメ5枚/8epochで 後者が明らかに特徴抽出失敗してる ただ実写とアニメは情報量の差もあるから枚数増やしての追試はいるけど
>>737 他を捨象した画像集められるなら多いほうがいいんかね
734の記事を試してみたけどcolabの知識がなさすぎてembedding_pathの指定で詰まってしまった 自分の環境ってGoogleドライブ等のこと?
>>738 いくつか条件変えてやってみないことには結論でないんで
colab先生の機嫌にもよるけど来週末ぐらいなにかレポート出したい
後StableDiffusionの場合AutoEncoder(Diffusionを経た後に実際に出力画像にするところ)はファインチューンではいじられないはずなんで アニメ系より実写の顔の方が数段得意な今のモデルからだとうまくいく度合いが違うかもしれない
>>743 わかった。これか
Google Colab で はじめる Stable Diffusion v1.4 (3) - Textual Inversionによるファインチューニング|npaka|note
https://note.com/npaka/n/n34412f71cfbc hlkyのwebuiのimg2imgの右のadvancedにある ①Variation Amount (0から1) ②Variant Seed (blank to randomize) って使い方わかる? loopしたら勝手にseedを足していくのかと思って ①を1にして②にSeed入れて3つバッチやったけど 同じseedの画像が3つ出ただけだった
もうめんどくさくなってきたから Ver.1.5来るまでスルーですわ
結局大元のモデルが一番大事なんだよな 週末埋め合わせるとかいってたのは1.5のことでいいのかな?
>>742 いいね。SDでこのクオリティ出すのはなかなか難しいわ。。。
hlkyのアップデートなんだけど解凍したの上書きだけでいいのかな?
>>745 >Variation Amount
元画像にどの程度の影響を与えるか、これが高いほど変化も大きくなる
>Variant Seed
元画像に影響を与える画像のSeed
ざっくり言うと「Seed 1から生まれる画像A」と「Seed 2から生まれる画像B」を「Amountの数値に従ってブレンドする」ようなもんで
Variant Seedを指定するならAmountを変化させないと結果は変わらない
(Variation Amountを 1 にすると画像Aが画像Bの情報に完全に上書きされるんで無意味)
例1)画像Aをちょっと変化させたい時→Variant Seed指定なし、Variation Amount 0.01
例2)画像Aに特定の画像の影響を与えたい時→Variant Seedを指定あり、Variation Amount 0.01~0.99
出力された画像のyaml見ればseed欄がVariant Seedのものになってるんで、何に影響を受けたかは後から確認できる
なかなかアイスキャンディーしゃぶってくれない 難しいなぁ
img2imgじゃなくて、txt2imgだった、ごめん
>>753 ありがとう!ブレンドするのか
mixとかblendとか一言英語で書いてくれてたらいいのに・・
実験のために左側の元Seedを空欄にしてたから変わらなかったのかな
でも
>>748 (リンクありがと)見る限り、あんま使えそうな機能って感じがしない
特に人体はただでさえぐにゃぐにゃになるのに、風景とかなら遊べそうかな
エロ関連この要素はこれやったら上手くいくぞとか情報交換したいけど ちょっとスレの趣旨とずれるかなとも思うし成人専用の板じゃないからなぁ それっぽい場所あったらそっちでスレ立てたらそれなりに人くるかな?
>>755 より正確に言うとSeedAの持つ情報とSeedBの持つ情報をブレンドなんで
噛み合えば特定の要素を綺麗に発現させられる可能性はある
まぁ人間には見えていない情報も活用されるんで思い通りには行かないが
Promptの重みを弄るののSeed版という感じ
>>756 bbspinkの創作板あたりに立てればそのうち集まるのでは
>>754 そう?
man licking popsicle (cfg15)
・・って自分もやろうとしたからわかってる
呪文長いと完全無視されるんだよね、アイスすら出てこなくなる
>>757 なるほどバストアップだと使えそうだね
体入ると破綻しそうだけど
Stable Diffusionのプロンプトで使える記号一覧と効果みたいなものが記載されているサイトなどありますでしょうか? プロンプト掲載サイトを見ても『,』しか使われていない感じですが、 「実はこの記号はこういう意味で使えます」という裏技ありますでしょうか? わかる記号 『,』 カンマ 単語や文章を区切る わからない記号 『.』 ピリオド 意味や効果がわからない カンマの代わりに使っても問題無し?? 『A|B』 縦線? Aが有ってBが無い場合と逆の場合の結果を出してくれる?? 『(((A)))』 カッコ 効果を弱くする?? 『!!!A!!!』 感嘆符 効果を強くする?? 『A:数字』 ウェイト 相対的な効果の強弱を数値で指定?? 『A +(B-C)』 数式 BからCの要素を引いた分をAに合体させる?? 他にもある感じ?? という感じで全然わからないのですが、識者様お助けください!
>>765 756だけどちょっと見ていないうちに動きが早くて助かる
>>765 不正プロクシといわれて書き込めなかった…
chmateだめか
ちょっとスケベツールにするの早すぎないか VRの時より早いかもしれん
背景であっても得意/不得意がやっぱり物凄くはっきりしているな AIが認識しにくいお手本が少ない構図だとimg2imgでヒントを与えてもさっぱりだ どいつもこいつも描いてるような君の名は構図的なのとか都市見下ろしとかは得意だけど オリジナリティの強い構図はラフ食わせても全く理解できない
>>745 ,748
サンプラーによってはうまく動かない
背景だと新海誠はローマ字でも認識してないか全然学習できてないくさかった ジブリも駄目 男鹿和夫は認識してはいるらしくたまにいいのが命中する 日本人名だと浮世絵というか新版画というかのが荒ぶりやすいけど
>>719 img2img.pyいじった方が早い。
makedirみたいなところのファイル名の後に[:50]つけるとか。
自分はyymmdd_50字みたいにしてる。
アニメ画像5枚/10epoch vs 30枚/10epoch 30枚の方はクリーチャーしか生成できない状態で5枚の方は人の形保てるし色合いは元雰囲気あるものの絵柄は再現せず とりあえず枚数少なめな方がいい傾向があるのは分かった
”””具体的な”””ってつけなかったらああなっちまうのね だからdiscodeにしようっていったのにー
discordのことをdiscodeって言うのはなにが目的? それとも別にdiscodeっていうサービスがあるの?
hlkyのvariation機能試そうとしてアプデしたら webuiの連続最大生成数が250から50になっとる… この数値ってどっかでいじれたりする?
configs\webui\webui.yamlの19行目
ビジュアルプロンプト
https://twitter.com/arankomatsuzaki/status/1565505712494501889 この絵の加工例のように、他の絵も加工して!ができるぽい
輪郭抽出、カラー化、欠落部分の回復(インペインティング)、雪景色化、・・・
データセットとコードが近日公開になってるから、一般的にも使えるようになりそう
https://twitter.com/5chan_nel (5ch newer account)
venvも使うようになったしだいぶ簡単になったのでまとめてみた。 Stable Diffusion AUTOMATIC1111版のローカル構築手順 1 https://github.com/AUTOMATIC1111/stable-diffusion-webui#automatic-installationlaunch で指定されているものをインストールする 2 https://github.com/AUTOMATIC1111/stable-diffusion-webui/archive/refs/heads/master.zip をDLして展開する 使える人は git clone でも良い 3 https://huggingface.co/CompVis/stable-diffusion-v-1-4-original で登録・同意して モデル(sd-v1-4.ckpt)をDLして model.ckp にファイル名変更して webui.bat と同じ階層に置く 4 webui.bat をダブルクリックで実行する 5 Running on local URL: http://127.0.0.1:7860/ の表記が出たらそのURLをブラウザで開く ●以下はオプション 1. GFPGAN(顔補正)の有効化 https://github.com/TencentARC/GFPGAN/releases/download/v1.3.0/GFPGANv1.3.pth をDLして webui.bat と同じ階層に置く 2. 省メモリ化オプション(VRAM 4GBくらいの人向け) webui.batファイルの set COMMANDLINE_ARGS= の所に追記して set COMMANDLINE_ARGS=--medvram にする --lowvram もある https://github.com/AUTOMATIC1111/stable-diffusion-webui#what-options-to-use-for-low-vram-videocardsd stable diffusionは58億5千の画像と文章を対応づけたLAION-5Bというデーターセットから学習させたそうだから、自前で同じようなことをするには膨大な計算が必要かも
>>784 吐き出させたい画像の元になる様なのを追加で学習させたいんだけど
そういうのは無理なのかな?
>>785 参考元の画像を一枚とかは指定出来て、ザックリ下絵を描いてという使い方はされているみたいだけれど、
期待されているのは~風を追加学習させることだとするとまだ見かけ無いような
>>786 そうかー。って事はデータセットに無さそうなマイナーなモノは期待薄か…
>>784-787 このスレでもいくつか出ている、 texutual inversion、ファインチューニングというのがそれですね。
>>11 ,553,597 とか。
アニメ3枚/160epochだと過剰適応(過剰学習)でまたクリーチャーになった epoch回せばいいてものでもないね、やっぱり epoch26あたりがうまくいってたぽいのでそこら辺のSTEPデータ持ってきたらだいたい雰囲気は取れてたが やっぱり元絵柄再現とはってないので現状SDのアニメ系のTI fine tuningは難しいぽい アニメ系SDモデル来たらまた違ってくるかもだが
>>785 やり方は
>>789 結果(効果)はtwitterとかで「ファインチューニング」で検索すればいくつかでてくる
>>790 そうかー
AutoEncoderまでアニメ系で訓練されたヤツがあれば小手先の学習でいけるようになるかもな
そうなるとファインチューン要るのかって話でもあるが
ただ、アニメ近日と言ってた例のツイートは、もしかすると動画(アニメーション)生成機能のことだったんじゃないかと思えてきた
アニメ系のtextual inversionはバニラSDよりtrinart版の方がよさそう
アニメ絵はやっぱAutoエンコーダ自体がアニメ絵の圧縮・復元ができてないように思えるね Autoエンコーダは食わせる画像が少なければ元画像は簡単に丸覚え出来るけど中間画像の破綻が酷くなる 食わせる画像が増えると中間画像を上手く合成できるようになるけど学習時間がどんどん増えていく SDの学習はアニメ絵が少なくて前者になってるんじゃないかって気がする mimicが元絵師の画像を完コピ出来ているのは食わせる画像がせいぜい30枚程度と少ない上に 元画像と極めて近い画像しか出さないから破綻が見えない、技術的には別に進歩していない SDは多分著作権への配慮で(内部的には)丸覚え状態の元画像からなるべく離れた中間画像生成しようとしてるから 学習不足の絵では余計に破綻が大きくなるんだと思う
AIスレはホットだなぁ はじめてフォトショップが出てきた頃を思い出す
そうなの? どんどんAIにアプデが入って息つく間もないみたいな印象だった
Colab規制前にローカル構築したけど、流石に4GBグラボで640出せるバージョンはまだどこにもない感じですか?…
>>772 呪文の保存別ファイルに出きるし確かになと思ってやってみようとしたら
hlky版だとwebui.pyの、sample_pati_i周りだった
これでレジストリ元に戻せるや
hlky側で作るパスは最大195文字くらい Windowsの上限が260文字なので 設置ディレクトリが75文字以内なら大丈夫という方法もある
ようやくバニラSD環境作ったけど既に周回遅れな気がしてきた 冬には皆フルHD画像出力してそうだな
Real-EsRGanはメモリ消費が少なくて極端な高解像度画像でも作れる、でも画質微妙 swin-irは超解像では最高の画質だけどメモリ消費多すぎて高解像度の画像が出力できないという本末転倒 それに比べてMJのファインスケールは高解像度が可能で単なる超解像でなくディテールそのものが増えてる MJのこの技術だけやっぱ群を抜いて売りになってんな羨ましい
MJ絵はでかくて情報量多いから大人気よね、画像開いた時の見栄えが凄い 同じ土俵でSDの512とか見せられてもなんだそりゃってなるわ、面積1/4かそれ以下という
MJは--testと画像参照が同時に使えるようになればいいのに 画像参照だけだとまともにキャラを成さないけど--testだけじゃ色々きつい
MJとSDの違いって使ってるマシンパワーの違いだけじゃないの
アーマードコア、めっちゃ効果あって笑うな 人体解剖図もプロンプトに加えてスケールをかなり強めにして数を試したら 結構手も破綻してないのが出てくるぞ
>>806 MJは味付け調整をしているらしい。
出力サンプルのをユーザーに見せて点数付けてもらうアンケートも取っていた
SD一筋の人生だったけどColabに課金するくらいならMJに課金した方が良いんじゃね?…と気づいた
>>807 アレコレ試してるけどなんでアーマードコアがアニメ絵の顔に効くかは全く分からん
アーマードコアの二次創作で人物画描いてた人の作品でも食ってるんだろうか
これの顔の改善効果だけ抜き出したプロンプトワードがあればいいんだけどなぁ
stable diffusionは、上で教えてもらったファインチューニングや、前や後ろに処理付けたしとかで目まぐるしく変わっていきそう
automatic1111のcolab版がいつまで経っても来ないから自分で作ったわ なお構築してるだけで制限された模様 グラボ全然使ってなくてもGPUモードで長く接続してると制限されるんだな、知らなかった
SDはサイズ小さいのが個人的に一番辛い 出力後に拡大処理してもぐちゃぐちゃな細部が大きくなるだけだし 全然知らなかったけどMJの拡大と共に細部を生成するらしい技術良いな MJは課金しないとプロンプトも絵も公開されるらしいから初日使っただけで離れちゃってたけどMJすごいな
>>812 あれお手軽に使えてるけど
実際は大量のコアとRAMを積んだGPUクラスタの1ノードの一部と、そこにぶら下がってるGPU丸ごと1つ接続中ずっと占有してるのよ
なのでGoogleとしては使う使わないは消費電力ぐらいしか関係無い
>>814 そうなのか
じゃあ節約とか考えなくていいか
MJはライトユーザー、SDはある程度パァイソンできるHENTAI向けってイメージ
>>816 midjourney遊びはdiscordで他のユーザーのアイデアを見るのも楽しい。
stable diffusionは、プログラムで同じキーワードから20枚とか連続で生成させてその中から選ぶとかプログラミング出来る人達は色々な使い方を工夫出来そう
Midjourneyを日本語に直訳すると「途中」「中途半端」になる
自分の8GBグラボじゃなんか動かなそうだから試してないけど
SDでReal-ESRGANで拡大後に
分割してimg2imgでディテールを上げるってフォークもあるらしい
https://github.com/jquesnelle/txt2imghd 公式か公式に近いものでサンプラーの種類を選べるやつはないのかね 自分が必要とする機能だけを実装したコンパクトなものを作りたいんだよなぁ
>>818 旅路のmidで。
開発者がまだまだゴールには遠いという認識なんだろうね
midjourneyは色々スレみたいなのあるのも面白いね 毎日変わるお題に沿ったスレとか ジャンル別やみんな一緒に一つの画像作ったりプロンプト開発スレとかもある あとは自分の画像から勝手にアップスケールしたりバリエーション作り始められたり色々やり始めるカオスな感じも面白い 普通に勉強にもなるし
そろそろ生成した画像が5ケタ行くんだけど画像整理に良いソフトない? Windows11標準アプリに限界を感じてきた
abobeのプランに入ってるならabobe bridgeがおすすめ
>>823 Adobe Bridge
Rumina
他知ってる人いたら教えて
UIは古くない方がいいな
>>826 初出だと思う。サンキュー
これ例えば、「月ノ美兎」を学習させる → プロンプト:a photo of * でa photo of 月ノ美兎と同じ様になる
みたいなことであってる?
だとして、もう一つ「壱百満天原サロメ」を学習させたものとマージすると、プロンプト: a photo of * はどうなるんだろう?
基本が分かってない・・・
>>827 学習データ二つ使うのはいまのところできないと思われる
少なくともhlkyの使い方説明はそれを想定してない
AUTOMATIC1111版はエンベディングのファイル名がそのままプロンプトに使えるようになってて便利だよ
>>828 なるほど。
やはりそうですね。
TIPSに以下のようにあるからどうなんだろうと思った。
You can train multiple embedding files, then merge them with merge_embeddings.py -sd to reference multiple things.
複数の埋め込みファイルをトレーニングしてから、それらをマージしてmerge_embeddings.py -sd 複数のものを参照できます。
プレースホルダを変えてやればいいのか・・・。まあとりあえず一つでやってみます。
実写なら破綻が少ないならまず実写を生成させてそこからimg2imgで好きな画風に変換すればいいんじゃないの
>>829 これもよさそうですね。
Used custom termが明示されるのもちゃんとプロンプト間違ってないのが分かって親切
windows11のエクスプローラーはまじでゴミだよなー 俺は閲覧にneeview使ってるけど整理向きではないかも placeholderはembeddingをモデルにmergeするときに別の単語に置き換えられるってどこかに書いてた気がする やったことないけど2つ使うこともできるんじゃないか?わざと同じにしたら融合すんのかな
SD開発者がなんで「オープンソース」でこのソフトを発表したかというと「AIを使うだけ」では搾取される消費者の側でしかないということだよね つまり「AIを作る側」になれって言ってる 好みの絵が出ないならプロンプトをいじくり回してる間にpythonと機械学習の勉強してSD自体を改造出来る様になったほうが早いぞ
オープンソフトなのに日本にはサンプルプログラム説明してるイキリプログラマーしかおらん 本当に終わってるのは絵師じゃなくてプログラマー
github、日本人かどうか分かんないんだよなw SDじゃないけど、作者含め3人でIssue議論していて全員日本人なのに英語で書いてたりする hlky、automatic1111、basjindalとかのフォークはどれか一つになんないかなって思う
>>790 とりんさまモデルベースで再挑戦してみたが
謎の縞模様しか生成されなくなったのでもっと酷い結果になった
とりんさまモデルって既存のmodel.ckptと置き換えればいいのかな?
>>839 そうですね。
trinart_stable_diffusion_epoch3.ckpt をmodel.ckpt にすればとりんさま
sd-v1-4.ckpt を model.ckpt にすればオリジナルに戻る
だけですね
AIの時代に対応すべく俺も次にネットに上げる絵はAIで時短しようと思って作業してるけど やっばムズイわこれ、構図とか細部がどうしても思い通りにならん 上手く出来た所を貼り貼りしてループバックして〜で下絵レベルに1日かかる そこから線画、目の描き入れ、髪の修正、背景のブラッシュアップってなると普通に数日かかる 手で描くのと言うほど変わらんわ
ランダムシードよりステップ一覧で出す方が良いのかも
膝を抱えて床に座るポーズを指定
>>843 AIさんがものすごい柔軟な発想しててわらう
>>843 オイラーA先生は
凄い優秀なのに乱心癖があって予測がつかないな
マジでこの挙動何なんだろうな。比較的安定してるステップ数とかあるの?
ファインチューニングについて思ったこと ・アス比無視して正方形にリサイズしてから学習してるっぽいので入力画像は正方形が良さそう ・入力ファイル名を学習中のプロンプトに使うっぽいのである程度正確にした方が良い?
k_euler_aはアルゴリズムとしては標準のよりさらに単純で誤差が大きいのにstepが20ぐらいで一旦見れる結果になるのが不思議がられている 恐らく誤差とかが揺さぶりとなって最適解ではないが局所解ぐらいにはジャンプできてるという話なんだろうけど
>>843 さすがにステップ数が足りないと思う
k_euler_aでも18くらいからって言ってたし
>>848 >>553 みたいに設定絞れば一通り動かせはしたよ
どのくらいトレーニングすれば適切なのかとかは模索中
>>851 ありがとう、上のレス見てなかったわ。
>>553 のとおりにしたらとりあえず走った。
ちょっと放置してみる。
環境依存だけどwebui最新版入れたら動かなくなった tkinterってのが影響してるみたい frontend.pyからそれを使ってる行を全部コメントアウトしたら一応動いた 参考までに
いつの間にヴォルデモートことAutomatic1111版ガイドできてたわ
https://rentry.org/hlkytoauto >>843 step変更
cfg_s変更
stepとcfg_s変更
この3パターンでやるといいよ
DiscordでEmadさんの質問ライブやってて自由に質問できるけど、 質問の英語はわりと聞きやすいのに、Emadさんの回答の英語が俺には全然分からないw
>>18 最新版で scripts/relauncher.py が更新されたから省メモリ化の方法が若干変わってる
3. 省メモリ化
scripts/relauncher.py をテキストエディタで開いてこのように変更
optimized_turbo = False
↓
optimized_turbo = True
ちなみに既にGitを使ってインストール&省メモリ化してる場合は git pull する前に
git reset --hard を実行すれば git pull で更新できる
更新後は3の方法で改めて relauncher.py を編集
M1Macに入れたら10分かかるから流石に無理だな いずれもっと早くなるだろうか Google colabは数十枚出すと規制かかるね Windows買おうかな
hlky版に追加されたRefreshボタン便利だな 複数の画像を生成してる途中で押すとそれまでに生成完了した画像が表示される 途中で生成を断ち切るStopボタンも追加されてる
変わってないやん、ってフルの方はまだ更新されてなかった
reddit民「k_euler_aはステップ数による予測がわかりにくいので使いにくい」 うむ
hlky版、インストール手順がかなり変わってる気がする。
gigazine今頃黒塗り解除とかやってて笑った、何周遅れだよ
他人をバカにするためにこの技術に触れてるのか? 分かったらさっさと効率の良いおっぱい生成方法を見つける作業に戻れ
ノートパソコンにオフライン環境は流石に無理だよな?
現在のAIがどのように画像を生成しているかはサイコロで解説するとサイコロを回して6を出しているのではなくAI1がサイコロを振って写真を撮りAI2がその写真の中から6の目が出ているのを選ぶというのを繰り返している 似たポーズばかりになるのはAI2が「横になった6」や「逆さまの6」を6と認識できないから 逆にサイコロではない「6と書かれた紙」が紛れ込んでもAI2はokを出す
女性の股間から舌や唇のようなものが出てる画像が結構な割合で出てしまうんだけど 少なくとも日本のエロ画等ではまず見ない表現だな 海外だとそうなのか? 防ぐための呪文があれば知りたい
>>858 GoogleアカウントごとにGoogleColabを使える
一人で複数のGoogleアカウントを取得できる
同じマシン、同じブラウザで異なるアカウントのGoogleColabを利用できる
つまり…?
何百枚も出すとか、1回でGPU制限にかかるような処理はできないけどね
普通に口元のアップとか指定してもちょっとしたグロ画像になる こういうものが苦手なんだろうな
陰唇(英語でもリップス)をくちびると混同しているんだろう 見た目が似てるからかもしれないが あと単純に学習量が少なければ上手く生成出来ないので真面目に考えれば裸の女性にいろんなポーズを撮らせて全部のポーズで360度から撮影した写真で学習させないといけないかも
>>868 VRAM4GBのノートPCで動かしてるよ
GPUの性能次第じゃないかな
俺の環境ではk_euler ステップ20で512x512が1枚/30数秒
アチアチになるからクーラーガンガンにしないといけないけど
hlky版、webui.cmd実行後にブラウザが自動で開くように設定できる。 scripts/relauncher.pyの11行目をTrueにするだけ。
webuiからtkinter消されてた webアプリケーションからシステムUIを呼び出すとか正気とは思えなかったんだよなぁ…
>>875 WebUIのみか。ずっとhlkyだったが乗り換え時だな。
Dall-E アウトペインティングで漫画補完
https://twitter.com/8co28/status/1566016693352091648 実用性はともかく漫画のコマ割が補完されるってスゲー・・・・と思った
852話さんプロンプトも上手いし色々やっててためになる
https://twitter.com/5chan_nel (5ch newer account)
>>880 漫画のコマに合うセリフを作る能力のほうが重要になる時代がもうすぐくるのか
絵が高度になりすぎると、コマ割りやセリフが多少変でもトータルで気にならないクオリティになってしまうし、見てる方も差異に気づけないから、ケータイ小説みたいな適当で良い気はする
hlky、最新版にしたらimg2imgが動かなくなったわ どうしてもこういうのがあるよな、この機会に乗り換え考えるか
https://github.com/basujindal/stable-diffusion/pull/103 Stable Diffusion リポジトリは、VRAM要件をさらに最適化するプルリクエストを取得し、8GBのVRAMで1280x576または1024x704のイメージを生成することが可能になりました。
512x512 の画像は、2.86 GB の VRAM が必要です。
アイヤー! 更にv1.5が来たら一体どうなってしまうんだい
>>885 >>854 txt2imgはhlky
img2imgはvoldyといったように使い分けることをおすすめする
>>885 relauncher.pyの上書きしたからではなく?
最適化早いなー この分だと1月もすれば全部入りツール出てきそうね 試しにpysideでアウトペイントのツール作ってるけど、GUI作るの果てしなくめんどくさい 待ってた方が早そう
>>871 おまえそれ本当にやってる?机上論できるっていってるだけ?
banされるんじゃね、colabやるとき電話認証必要じゃなかったっけ
>>889 上書きはしてない、ちゃんと最新版になってた
どのコミットが原因か分からんから結局8/31版まで戻す羽目になったわ
>>891 いらないよ
何も知らないのに偉そうな人だねw
Gigazineとかの馬鹿が広めるからColab複垢使用話はやめてくれ ただでさえ一気に使用量が増えてグーグルが規制するの決定してんのに
>>892 > 上書きはしてない、ちゃんと最新版になってた
今回から内容が変わってるので、最新はメモリ最適化系はデフォでfalseになっちゃってるよ?
あと、動かないってのはなんかエラーが出るの?
本格的に匿名化とかしないと同一端末でアクセスしてるのモロバレだよ Googleのサービス永久BANにでもなったら洒落にならん
まあ複数アカウントとかやらない方がいいけどね 面倒だし俺はやらんけど 同一端末からアクセスしたらダメって訳でもない 嘘は良くない
>>885 自分も同じ症状出た
画面の初期状態だと動かなくてImage Editor Modeをいじったら動くようになった
discordで1.5のBeta trialやってる 五日前から
> x, mask = x["image"], x["mask"] > TypeError: string indices must be integers は自分も出たな cropをmaskに変えたら動いた
>>898 マジか…何しても駄目だから旧版に戻してしまったわ
gradioと直近の何かのコミットがぶつかってたみたいだから
hlkyのそこら辺はとんでもなくバギーだからなぁ 恐らくモードを切り替えた時に初めて中身が入る変数を一度も切り替えてない時にも呼び出そうとして怒られてる
ヴォルデモート版貼ってBANされるのは4chanだけなので…
colabは金ない学生を機械学習沼に落とすのに最適だから消えてほしくないな
複アカコラボ!?それはひどい! ま、まさか複数アカウントでGmailを利用してるような奴はいないよな?
>>880 この人嫌い
承認欲求が溢れ出てる
AIが凄いんであってあなたが凄いわけではないだろうと
>>880 これ見て、意味も分からず「漫画のコマ割りまではできるようになったらしいぞ」とか言って
他スレにURL貼ったりするやつが増えるんだろうな~
未だに大喜利AIを凄いと思ってる奴らと同じ層
画像生成AIの衝撃冷めやらぬ今なら 「これもAIがやりました!」って言えば全部信じる奴がいくらでもいるから そういう奴らを金にしようと模索してる852話氏はある意味実に正しいと言える
>>914 使ってるよ。別に規約違反じゃないでしょ
Colabリソース占有を目的として大量に作ったりするのはアウトだろうけどね
ヴォルデモートのsdアップスケーリング試したけど全く別物になっちまうしこれならギガピクセルでいいわ
>>921 それは規約ではなくFAQでは…
しかも複垢の話はなにも書かれておらず「読んでおいた方がいい」もなにもないという
ページ末尾の、29日に導入されるというコンピューティングユニットの話が気になるね
無料ユーザーへのリソースの割り当てが厳しくなるんだろうけど、具体的なことはわからない
>>926 マジか
>Colab のリソースは、インタラクティブなユースケースに優先的に割り当てられます。大量のコンピューティングに関連するアクション、他者に悪影響を与えるアクション、Google のポリシーの回避に関連するアクションは禁止されています。以下は、Colab ランタイムでは許可されていません。
>複数アカウントの使用による、アクセスまたはリソース使用量の制限の回避
>>927 あら本当。見出ししか見てなかった。ゴメンゴメンもうしないよ
無料コースで複数アカウントはバンされると思うけど 有料コースで複数アカウントは見逃されると思うんだけど
>>886 最適化キタ━(゚∀゚)━!!
8GBで1024x704かー
12GBで1024*1024ならなんとか行けそうだなw
RTX3060買う予定なので12GBでなんとか収まってほしいw
>>928 何目的でSD動かしてるかによるが危ない橋渡らなくても他の選択肢は結構あるで
Craiyon(DALL-E mini): www.craiyon.com
ERNIEViLG: huggingface.co/spaces/PaddlePaddle/ERNIE-ViLG
とりんさま: twitter trinsama
無料でStable Diffusion: memeplex.app
無料でStable Diffusion: twitter halcky_2025/status/1562777470381617152
LineでStable Diffusion: twitter nishino_0719/status/1563739424617549824
URL貼れなかったから色々抜いたわ
3060tiで十分使えてるけどグラボ欲しくなるな SD目線でのグラボ比較データ欲しいところ
ernie-vilgのColabで良さげなの見つけた
https://twitter.com/AIGirlsSelfie/status/1565534983967719426?t=YgifLpxlbCmTKP_xuVZtaA&s=19 けどこれ共有用って書いてあるんだけど、打込んだ呪文とかも共有されちゃうのかな?
呪文って客観的にみると恥ずかしい言葉がいくつか混ざってるんだよね…
https://twitter.com/5chan_nel (5ch newer account)
>>930 これ2.86 GB の VRAMで動くってどこに書いてある?
見当たらないんだけど
最近のイラストレーターはブスや老人が描けないと騒がれていたがAIが出来ても結局みんな美少女しか描かせてないというのは面白い 単に需要がないから描く必要がなかったってだけやな
hlkyからAutomatic1111に乗り換えだけど、生成時にReal ESRGANのアップスケールはできない?生成枚数はui.py書き換えて問題なかったけど、これだけが気になる。
>>931 わかりやすいまとめありがとう。自分も3060買ったから届いたらローカルへ移行するつもり
それまで試してみます
M2 MacBook Proのわい高みの見物(´・ω・`)
>>936 生成と同時は無さそうだけど、
Send to extrasボタン、Extrasタブ、Generateと3クリックでできるフローは用意されてるね
>>932 >>22 ,26,323
統一されてるかも怪しいので目安だけどね
40x0は2倍ほど速くなり、4070でも3090と同等以上らしいと聞くとあんまり今買う気はなくなるw
後、2080Tiで昔は7.3 it/s ~7.7 it/sぐらいだったのが、Automatic11111だと8.1 it/sぐらい出る。なんか変わったのかな
>>939 お、そんなのあったかと思ったら一枚ずつか……まとめてアプコンは外部ツール使わないと無理そうね、ありがとう。
PC組んでる間に最適化きたのか これでモデル軽量化もされたらかなりデカいのかけそうだね
>>940 最新の予想はこんな感じ
4090 24GB 450W超え
4080 16GB 340W
4070ti 12GB 285W
4070 10GB 250W
3060-12Gから乗り換えるとしたら4080(340W)以上か
ぐぬぬケースと電源から変えないと無理かも
ぶっちゃけ今の環境だと呪文考えたり指示画像いじってる時間の方が長い もちろん出力後に加筆修正する時間もAIさんの待ち時間より長い だからスピード自体はそんなにいらないけどメモリーだけはほしいんだよなぁ
Emad曰く3090があればしばらくは大丈夫らしいが
短くて綺麗目な女の子が出るプロンプト
elf, fgo, mucha, photorealistic
美麗な出力に寄与するワードとその強度のリスト誰かまとめてないかなぁ アーマードコアとか効果あってホント笑ったけど ジャパニーズ入れるとぶちゃいくになる悩ましいワード
ここ2週間酷使しすぎたのか、骨董品の1060がコイル泣きするようになってきたw
>>947 prompt例によく出てくる武内崇氏もFGOのイラストレーターだね。
ひょっとしてある程度判子絵師っぽい人のほうがprompt例としては有用ってことあるのかな
>>933 ERNIEはWEB-APIでリクエストしてるだけなんだから
露骨にサービス潰して使えなくするための攻撃サイトじゃんそれ
こういうのが横行するとcolabがますます規制されていくんだろうな
低解像度と高解像度で同じseed回しても結果は違うのかあ… 低stepと高stepではちょっと違うだけだから低stepで欲しい画像のseed探し頑張るのがいいかな
pixivとか新海誠はpixivにある絵や新海誠監督の映画を直接参照してるというよりアメリカ人の想像した「pixiv」「shinkai makoto」のイメージを反映してると思う 日本人は現実のアメリカ開拓時代を誰一人として見たことないけど「西部劇」を想像できるように
>>940 見てなかったありがとう
3060tiのままでいいか
今ランドセル出力させようとしてるんだけどどうやっても通じる気配がない
Kyoto animation は2次元絵では割と強力に働く感じ。あとはkey visualも強い。京アニぱねえな。
>>956 もしかしてキービジュアルのキーをエロゲ会社のことだと思ってる?
まあAIくんははいはいアニメのやつねくらいには思ってる気はする
>>954 いや想像もクソもデータセットにあるか否かだけじゃないの?
58億のデータセットには普通に pixiv や danbooru のデータ入れてるだろうしな
自分の顔写真をゴッホとか特定の画家が書いた風にするってやり方ある? ゴッホとだけ入れるとどう数値変えてもゴッホと自分の顔をモーフィングしたみたいになる 「ポートレートby ゴッホ ペインティング」とか色々試したけどダメだった
portrait ~, Illustrated by Gogh じゃいかんの
redditに新しい最適化が来てるから試したが
colabの一番遅いGPUで1024x1024作れたわ
でも結果がおかしくなる
今まで可愛い女の子を出力したプロンプトが
頭3つになったりする
https://github.com/neonsecret/stable-diffusion >>947 いいね。公式のデモページでやってみた
768x768は普通だけど 1024x1024からおかしくなる
512x768 768x512 までだな 人の形をたもてる限界
あ、頭がふたつ生えたりするのってそこが原因だったんか… seedで普通に出たり2人になったりトーテムポールになったりするからてっきりpromptで二重に指示が入ってるからなんだろうかと悩んでた。
>>961 有名所ならSD使う必要ないよ
2020年あたりにメチャクチャ出たから探せば出てくる
「ゴッホ風 変換」で検索してみ
>>964 つかてみたけどI2Iで送信クリックしたら
RuntimeError: No CUDA GPUs are available
になるぅ…
こういうことなんだよ
lexcaで512x768で作られた拾い画像
同じシードとプロンプトで768x768
さらに1024x1024
>>972 コラボの設定
「ランタイム」→「ランタイムのタイプ変更」→「GPU」
>>974 ほんとだ!
いつもGPU設定して使ってたからデフォルトで設定されてるのかとおもたらこれ自分で設定するタイプだたのね!
ありがとございます!
一度画像参照で乳首出させたらNSFW警告くらって、ようやく画像参照なしで乳首生成まで至ったけど難しいなぁ いつの間にやらbikiniもNGワードだし
>>973 どの画像も根本的にはプロンプトxサイズxシードxガイダンススケールxサンプラーxステップ数の全てが噛み合って出来た産物
出力サイズが違うならシードは参考にならないんでガチャ回すかプロンプトの調整が必至
640で良いと思ったプロンプトが1024に変わるとあれ?ってなるな 512と640でもなんか違うなと思ったけどサイズ違うと一から模索しなきゃいけない感じ しかも1024なんてRAM的に1枚しか作れないから模索の時間かかりそう サイズアップで単純に喜んでたけど、これは結構だるい道のりだわ
>>977 512に超えると変な画像になるって話だろ…
>>979 元画像として貼ってるのは512x768で512越えてるやん
んでそもそも512x768で上手くいってんのも偶然の産物で
更にサイズ変えて生成してんだから「今まで可愛い女の子を出力したプロンプト」だのはアテにならんのでガチャ回し直しって話
>>980 公式も片方が512ならセーフって言う理論らしいから
その1024版てプロンプト最後まで読み込んでるのかな? アウトプット見たらサンプルと書いてるから一部だけ明記なのかもしれないけどプロンプトの途中までしか出ない いつも使ってる640で出力してもなんか違う あと送信ボタンが下にあるの使いづらいなw
>>947 このプロンプトいいね!ありがとう
短くて応用ききそう
そのまま
Anime eyes追加
hlkyのStreamlit版だと生成中にステップ毎の画像を表示できるらしく、入れてはみたものの4gbじゃoptimizedにしてもメモリ不足だった…
方法供養
https://rentry.org/GUItard のステップ2aで
webui_streamlit.yamlもconfigs/webuiへ移動する
ステップ7を終えたら、スタートメニューからMiniconda3 Promptを開いて以下を実行
conda activate ldo
cd C:¥Users¥ユーザー名¥stable-diffusion
streamlit run scripts/webui_streamlit.py
Email:が出たら空欄のままenterで起動します
>>986 手順がちょっと古いね
> 「name:ldo」に書き換えて
webui.cmdの中で-n ldoとして強制指定してるので書き換え作業不要になってる
> 「All Users」を選択して
webui.cmdの中で %USERPROFILE%\miniconda3 も探索先になってるのでどっちでも良くなってる
テンプレ案作ってみた
https://rentry.co/2b9st ・編集パスワードは5ch
・ファインチューニング関係はどうまとめようか迷って入ってない
・
>>3 あたり時系列的に古いはずだけどメンテできてない
>>988 素晴らしい、乙です
>>1 と前スレだけ貼って、「テンプレはこれ」でこのリンクでいいような・・
>>964 VRAM8GBだけど普段よりデカい画像作れるね
dockerfile弄ってinpaint触ってるけどまだ使い方がよくわからん
img2imgと何が違うんだろう
>>989 言われてみれば・・・。
軽く成形してリンククリックできる版も作っておいた
https://rentry.co/zqr4r 編集コードは5ch
>>991 おお!マジでこれで行かない?
荒らし対策にたまにバックアップだけしといて
ずらずらテンプレが続くのも煩雑だし
レス時間制限が面倒って立てたがらない人でも簡単になるし
変えたかったら変えといたよ~で次スレ建てる人頼むとか周知しなくても済むし
>>991 お疲れ様です! 私的メモも作ってみました。面倒だと思うのでテンプレそのままでもいいと思いますが参考まで
○言語ガイドによるAI画像生成の概要
・言葉(文章)を入力する(テキストプロンプティング)と画像が生成できるAI (txt2img)
・ベースになる画像を指定することもできる。 (img2ime)
・インペインティング:一部をマスクして書き直させることもできる
・アウトペインティング:既存画像の外側を追加することもできる
・ファインチューニング(textual inversion):自分独自の画像(自分のペットなど)を追加学習させることもできる。
<各種例示リンクがないとわけが分からなそう>
○言語ガイドによる自動生成AI各種
・Dall-E2 OpenAIの元祖画像自動生成
・MidJourney 非常に綺麗な絵画的画像が生成可能
・StableDiffusion オープンソースで無料で使える。Webサービスは有料のDreamStudio
・Imagen Googleの最強画像生成。最強すぎて悪用懸念で一般公開されていない
・Parti 同上(Googleの別チーム)。Parti+Imagenも最近作られた
2021/1 DALLE-E,CLIP これが全ての始まり
2022/4 DALLE-E2 改良版
2022/5 Imagen 言葉を人間レベルで深く理解し絵画化できる
2022/6 Parti 英語→フランス語翻訳と、英語→画像変換を同じ処理(Transfomer)で実行
2022/8 Midjourney 非常に綺麗で絵画的な画像を生成できるサービス
2022/8 StableDiffusion 超低リソース化でPCで動く。オープンソース化
*Crypko(日本)や、ERNIE-ViLG(中国)もAI画像生成だが技術的にGANベースなのでこの流れではない。得意分野は異なる
クオリティランキング
1位 Image、Parti (一般には使えない)
2位 Dalle-E2 有料
3位 StableDiffusion 無料(Webサービスは有料
4位 MidJourney 有料。細部は甘いが絵画的で美しい
StableDiffusionの今後
・2022/9/4現在モデル1.4 (4GB)だが、近々1.5(2GB?)がリリースされる予定
・Audioモデル(9月予定。内容不明)、その後3Dモデル、Movieモデル(内容、時期不明)
・2023第1四半期にはモバイル版(100MB?)もリリースされる予定
・今後の技術
ビジュアルプロンプティング 2022/9/1発表。ソースコードも公開予定
https://twitter.com/_akhaliq/status/1565512090823041025 Q&A
・AI画像は人体(特に手足)がおかしい
→ 現時点ではそのレベル。今後ある程度は改善すると思われるが今はインペインティング、img2imgでガイドするなどで対応するしかなさそう。
・AI画像、思い通りにするのが大変で実用的ではないのか?
→ 現時点では用途は限定されると思います。いつ改善されるのか不明
・AIって画像をコラージュしてるの?
→ 画像のツギハギではなく、数千万枚~数億枚の画像を学習して数GBなどの生成方法(=モデル、特徴を圧縮したようなもの)にしています。容量的にもそもそも画像は入りません。
ロゴや署名のようなものが交じりコラのように見えることはある。学習不足
・権利・法律関連。イラストレーターはどうなるの?
→ 他スレでお願いします。
参考:画像自動生成AIと著作権
https://storialaw.jp/blog/8820 https://twitter.com/5chan_nel (5ch newer account)
次スレ
Midjourney】AI画像生成技術交換4【StableDiffusion
http://2chb.net/r/cg/1662332320/ 勝手に建てたよ
>>993-994 テンプレサイトのケツに好きに加えるんだ!
簡単に荒らせちゃうから誰かたまにバックアップお願い
imageは野生の開発者によるpytorch版が年内にモデルリリース予定ぽい
>>996 https://github.com/lucidrains/imagen-pytorch これですか。知らなかった。
Stablity.aiがゴージャスなスポンサーって書いてるw
必要VRAMとかどうなんだろう。PCで動くレベにまでなるならStableDiffusion V2はこれになったりして
次スレ
Midjourney】AI画像生成技術交換4【StableDiffusion
http://2chb.net/r/cg/1662332320/ lud20250112073151caこのスレへの固定リンク: http://5chb.net/r/cg/1661762186/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「Midjourney】AI画像生成技術交換3【StableDiffusion YouTube動画>5本 ->画像>79枚 」 を見た人も見ています:・Midjourney】AI画像生成技術交換2【StableDiffusion ・【StableDiffusion】AI画像生成技術12【NovelAI】 ・【画像】Stable diffusionに規制突破してAIエロ絵描かせる方法解説する ・Stable Diffusion ・midjourneyっていう自動AI生成絵画マシーンがすごい ・AI画像生成雑談総合 ★1 ヲチ・グチなど ・Saudi Arabia admits journalist is dead, 18 people detained ・【絵柄割れ厨】画像生成AI信者ヲチスレ_59【AI○○】 ・【悲報】絵師さん、あと数日で全員失職へ 超高性能画像生成AIが無料公開予定 ・【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★] ・【Nore more 生成AI】画像生成AI信者ヲチスレ_130【AI○○】 ・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ ・クリスタ、画像生成AIパレット実装を中止 - ユーザーの懸念を受け方針転換 [朝一から閉店までφ★] ・【技術】世界初の折りたたみ画面スマホ「FlexPai」、中国のRoyoleが発表 広げて7.8インチ、価格は15万円から(画像と動画あり) ・Jane Style更新キタ━━━━━━(゚∀゚)━━━━━━!!!!※β版 https:// " target="_blank">https://画像に対応 ・ROLEX DiffusionBrand 35 ・【エネルギー】iPhoneを瞬時に充電できる技術が開発される 「バッテリーを特殊な量子デバイスに交換」 豪アデレード大 ・【音楽】「Best International Band」部門にノミネートのBABYMETALが米『AP Music Awards』で“METAL GOD”ロブ・ハルフォードと夢のコラボ!★2 ・【ハード】「Minecraft」コラボの数量限定モデル「PlayStation Vita Minecraft Special Edition Bundle」が12月6日に発売決定。 ・ドイツの研究施設で小さなブラックホールの生成に成功(画像あり) [無断転載禁止] ・【速報】参加者約200人の国際交換パーティーin六本木が金曜の夜に開催へ 女性無料・男1,000円「沢山の外人が参加!」(画像あり) ・【DFFOO】DISSIDIA FINAL FANTASY OPERA OMNIA part001【オペラオムニア/攻略交換雑談のみ※煽り禁止】 ・あいのり Asian journey SEASON2 #02 ・【東方神起】(´・J・`)人(∵) part2180【LIFE IS A JOURNEY】 ・ロレDiffusionBrandの正規店マラソンスレ ・あいのり Asian Journey 最終回 ・■Funky 4 DA PUMP -10turn table-■ ・■Funky 4 DA PUMP -15turn table-■ ・喪女が語る『あいのり:Asian Journey』 ・【地上波】あいのり:Asian Journey Part.1 ・【地上波】 あいのり:Asian Journey Part.4 ・【Netflix】あいのり:Asian Journey - 6th WEEK ・【こいつはすげえぜ!】AIがこの世にいない人の顔画像を大量生成する、著作権フリーの画像が10万枚! ・【Netflix】- 『あいのり:Asian Journey』17th WEEK ・【Netflix】- 『あいのり:Asian Journey』10th WEEK ・【Netflix】- 『あいのり:Asian Journey』13th WEEK ・【Netflix】- 『あいのり:Asian Journey』12th WEEK ・【グッズ】「ろくでなしBLUES」×JOURNAL STANDARDのコラボT、四天王やヒロトとマーシーも ・【朗報】 8×8ピクセルの極小画像から元の画像を予想する技術、Googleが開発 夢のモザイク除去へ [無断転載禁止] ・「PlayStation 5」の実機画像が流出か? ・【音楽】ASIAN KUNG-FU GENERATION、新曲「ボーイズ&ガールズ」MV公開&名曲満載ライブが映像化 ・PlayStation Portableで最高傑作のゲーム ・【ID無し】KPOP雑談★927【LE SSERAFlM NewJeans IVE aespa NMIXX STAYC Kep1er BABYMONSTER】 ・【CF2.5】Clickteam Fusion/Multimedia Fusion 19 ・【CF2.5】Clickteam Fusion/Multimedia Fusion 22 ・【Earn】Houston Astros Vol.13【History】 ・Trials Fusion & Evolution Gold Edition Vol.2 ・【尼】PlayStation5 情報交換 6日着【来年組】 ・AI生成画像のブームが一気に終わった ★2 ・【スマホ】Apple、旧型iPhoneの意図的減速について正式謝罪 バッテリー交換費値下げへ ・【PSVR】Robinson: The Journey part1 ・Who do you love on High School Fleet(Haifuri)? [無断転載禁止] ・【Business Journal】韓国、米軍に指揮下入り要求し失敗…米国、韓国との同盟解消の可能性[10/31] ・【自民党】が発表した「成長戦略・未来像」が「中高生の作文」「ブラック小説」「悪文の典型例」とネット上で話題(BusinessJournal) [ramune★] ・【安倍】「どうせ世論は忘れるから」…安倍首相、コロナ&黒川問題で支持率低下も意に介さず 「外交の安倍」始動(Business Journal) [ramune★] ・【画像】山梨県の温泉旅館 タイ人を「第二会議室」に宿泊させる 扉にはコピー用紙で「Standard Room Fuji」と張り紙 ・お前らがよく抜く画像交換会 [無断転載禁止] ・【悲報】AMD Ryzenにエラッタ発覚。ランダムにプログラムが壊れる。BIOSでは直せないので交換対応も開始 [無断転載禁止]©2ch.net ・【DS】真・女神転生 STRANGE JOURNEY パス改変スレ2 ・【医学】乳がん診断の負担軽く 乳腺に振動波、画像化新技術 ・真・女神転生 DEEP STRANGE JOURNEY 調査173日目 ・真・女神転生 DEEP STRANGE JOURNEY 調査175日目 ・I wonder if a school girl who sleeps with her legs spread in a train would like to be fucked by me. ・Lenovo Legion Y700 Tablet part4 ・Lenovo Legion Y700 Tablet part3
13:31:28 up 20 days, 14:35, 1 user, load average: 9.23, 8.94, 8.69
in 0.15016388893127 sec
@0.15016388893127@0b7 on 020303