ああ、しまった
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合【StableDiffusion】
http://2chb.net/r/cg/1661853927/
だった
次スレからここ更新してね、わざわざイラ板に飛ばすのも変だし KAWAII汎用プロンプトのnote有料記事の公開で
あの作者すげー尊敬してたけど一気に胡散臭くなってしまった
よく考えたら一つもプロンプト公開してないから当然信用なんてもの持てないな
前スレ最後の方で出てたimagenだけど
プロンプト通り=いい絵になるとは限らないんだよねぇ・・現状のDALLE2の人気のなさ見ても
MJみたいにある程度勝手に意匠加味してもらったガチャにみんな酔心してるような
ERNIE-ViLGだと知名度あるアニメキャラ混ざるとどうしてもそっちに引っ張られるな
竹取物語のかぐや姫を指示しているのにかぐや様は告らせたいに引っ張られてそっちっぽい絵が出てくる
前スレ参考にAUTOMATIC1111のstable-diffusion-webui入れたけど
一番期待してたSDアップスケールという小さい画像の細部を再生成し大きな画像にする機能の使い方間違ってるのかな
つぎはぎ部分が全然スムーズじゃなくて一瞬でつぎはぎってわかる
それともそれがデフォなんだろうか
タイルアップスケールの数値やスケーラー選択とか適切な設定があったりする?
前スレのシンプル構文貼ってくれた人ありがとうな
elf, fgo, mucha, photorealistic, anime blue colored eyes, detailed beautiful face, highly detailed, Armored Core
で謎にメカメカしい鎧を着た顔がそこそこに整った青い瞳のエルフさんが量産され始めた
芸歴長い且つ若い現役女優ってエマ・ワトソン以外にいないのかなぁ
安定するから使ってるけど正直飽きた
若くないけど、オードリーヘップバーンとか若い時の画像ばっか学習してそうじゃね?
>>13
>>15
㌧㌧
オードリーさんはオードリーさん風の見た目の日本人みたいな指定にすると美人さんになる(オードリー(綴り忘れた) eyed style face Japanese なんとか) kritaのローカル版試したけどkrita→コマンドプロンプトの
通信がうまくいってないのかボタン押しても無反応だな
様子見するか
オードリー・ヘプバーンはなんか拒食症みたいになってダメだったわ
30代の女優がいい感じ
若手はダメ
アリシア・ヴィキャンデル、フェリシティ・ジョーンズ、アナ・デ・アルマス
マーゴット・ロビーはやたらと皺を強調したがるので却下
トランプ、オバマ、エマ・ワトソン、誰でも、個人名がそのものズバリの造形は出せないんだよね
出せないってのは倫理的な話じゃなくて今の実装的にオリジナル画像とは違うものになってしまう(元データが無いんだから当たり前だけど)
その辺、実用的に活用する時の大きな障害になる気がする
画像生成AIは1点ものの生成で、それをポーズやシーンなど変形させるのは別のAIということかもしれないけど
実装じゃなくて学習の問題だと思うぞ
きちんと過学習させたらそのものずばり出せるようになるはず
イラストはもちろん写真でも写りとか加工で顔の変化はあるわけだからある程度まで似ていたら実用上の問題はない
むしろ誇張されてるぐらいのほうが本物らしいと感じるかも
実在の人物をどうこうしようって個人的に全く興味ないわ
>>26
オリジナル画像と違う画像になっても同一人物だと分かるからいいかって人と、シーンによって違うのは駄目だろ、直せって人がいるね
日本のアニメみたいに髪の色を極端に青とか赤とか変えて人物を区別するような作品だといいのかも。 実在人物そのものじゃなくてそれベースに何とかそう言う応用ならわかる
さすがにそのもの使ってフェイクなんとかはらめぇ
midjourneyで美女を生成させる呪文で、
slawic vogue star model
というのを見かけた。
世界的なファッション雑誌のVOGUEのスラブ系のモデル。
slawicをjapaneseやchineseにすると東洋系の特徴を濃厚に入れられてしまうけど、色々と入れ替え可能。
特定の芸能人ではないけど雑誌(の表紙?)を指定することで傾向を入れられる
そういやこれムハンマドって指定したら内部でどういう処理してるんだろうな
>>29
実在そのものフェイクいいだろ。アップしなきゃ問題ない 日本語とか絵文字はエラーにならないってだけで、ちゃんと有効なのかどうかってのも謎だなあ……
この辺はもう情報集まらないとなんとも。
区切り文字も,とか|とか色々流儀があるみたいだし。
どっかにトークンリストがあればそれに載ってるか検索するだけなんだけど
未だに見つけられていない
>>33-34
学習データが画像うpしてる人がつけてるタグをそのままパクってるだろうから
pixivとかの画像についてる日本語タグをそのまま列挙して入力してやっても
pixivのタグそのままだとイラスト指定がないから実写ばかりになったりはするけど
それなりに似てるのかな微妙だなって感じの画像が出るよ >>4
あいつね。プロプント公開してないから何やってるか分かったもんじゃないよな。
目立つからベンチマークしてるけどしょうもなくなったらフォロー外すつもり >>39
分かる
俺もずっとあいつでベンチマーク走らせてるわ >>41
注目してるって意味で使った 誤用だったらすまん。 2人もこんなトンデモ誤用するものなのかなあって思った
ベンチマークとしてヲチしてるという意味で、別に普通に理解出来るだろ‥
俺が発端だけどしょうもなさすぎることでスレ消費するのは勿体ないのでここまでにしてもらえんじゃろか
今出てるプロンプト(笑)呪文(笑)ルーン(笑)なんてどうせ数ヶ月後には何の意味も価値もなくなってるw
鼻につくのはわからんでもないけど本人も時間の問題で役に立たなくなるって書いてるしほっとけって
オードリー・ヘップバーンAudrey Hepburnはお年を召してからの画像も学習しているだろうからとyoungをつけたら少しよくなった
あとはfrom roman holidayとかfrom sabrinaをつけたらどうかな
30代がよければfrom Breakfast at Tiffany's, from My Fair Lady, from How to Steal a Millionなど
アン・ハサウェイAnne Hathawayは眼が巨大だし笑顔になりやすいみたい
各種ウェイトの使い方
automatic1111版
()で強く、[]で弱くなる
hlky版
a forest under night sky: by Studio Ghibli:1.8 in the style of Starry Night:2.3
のような入力が可能(省略したら1.0)(使う時はカンマの代わりにウェイトを書く)
basujindal版
tabby cat:0.25 white duck:0.75 hybrid
のような入力が可能
本家はないはず。
artroom版、NMKD版、GRisk版などは不明。
>>47
それな
楽しいからいいんだけど身につくものはないし不毛な作業・・・ 生成したいものに合わせたファイーン用のデータセットはどっちに転んでも使えそうなのでちまちま貯めてる
呪文は...
SD日本語も効いてるよ
新海誠で人物書き出してみればわかる
>>25
時間切れって?
まだ試してないんだがベータ版時間制限あるの? エマ顔が強すぎるけど
+クロエモレッツで丸顔童顔要素プラスできる(たまにブスになるけど
俺はこれにアナデアルマスとナタリーポートマン足すのを基本にしてる。
エマに似すぎず、若い美人系になりやすい。少なくとも3人くらいは混ぜた方がいい感じ。
↓色々試した感想
マーゴットロビー:眉上がってキリっとする
アンジェリーナジョリー:たらこ、しわ、エラ、ケツアゴ
アンハサウェイ:眉あがる、唇厚め
アナデアルマス:目でかくなる、鼻細くなる
ナタリーポートマン:整う、エマに近い
>>55
そうだと思う
LINEのやつ試したけど効いてないように見えるよ
効いてたらこうなる
単語A:1.3 単語:0.5 なんて形式の強弱フォーマットもあるけどこれ各フォークでの独自実装だわね
SDではイラスト調の顔は崩れるなんて話もたった1週間ほどの研究でどんどん覆って
人間が手で描くと何日かかるか分からないような顔が数秒で出てくるようになってしまったな
これ年内に人間の絵なんて完全に終了するでしょ、速度も品質も圧倒的な差がついて
>>52
ファインチューニング(textual inversion)のptファイルって、モデルが変わっても使えるのかな?
追加学習って言葉のイメージからモデルのバージョンが変わると使えなくなるように思いこんでた。 >>63
あり。 なら大丈夫かな
仕組み分かってないから何ができて何が駄目なのか分からないw >>33
https://github.com/Maks-s/sd-akashic
こことここからのリンクにStable Diffusionについての情報が結構まとまってる
重要なのとしては以下
プロンプトは75単語までしか有効じゃない
大文字小文字は区別しない
Unicode文字が有効(だから絵文字とか日本語の単語ならOK)
同じプロンプト、同じシード値、同じ設定なら同じ絵が出てくる
あたりかな >>14
アーマードコアは冗談で入れてみただけなんだけど、顔が整ったりはせず鎧が強化されただけなのが面白かった >>62
詳しくないがptは多分無理だと思う
ここで言ってるのはトレーニングデータのセットのこと、要は画像フォルダ
人なら顔立ちや絵柄ごとに、ものや道具なら全体像がいろんな角度から写ったもので集めて保存してるだけ
新しいモデルが来たらスクリプト一発でfine tuningし直せるように準備してある >>65
> プロンプトは75単語までしか有効じゃない
単語じゃなくてトークンなんだよね。
トークンって何?っていうのは明確に書いてる場所がわからないけど、過去スレで検証してた内容としてはこんな感じだった。
・日本語文字などUnicodeは1文字=2トークン(Unicodeは2バイトとじゃないものもあるので文字によっては1文字=3トークン、4トークンとかもありそう?)
・","も1トークンになる
・Girlとかの単語は、1トークン。 しかしSwimingは、”Swim"+”ing"の2トークン
とかトークンカウントはよく分からない >>68
トークンは読めてたけど大体単語と同意義だと思ってた
過去スレで検証済みだったのか
教えてくれてありがとう
トークンカウント、たぶん形態素解析ってやつかけて単語数をカウントしてるんだと思う
単語くらいしか知らない程度なのでこれ以上のことは言えないけど トークンベースはたぶんBERTだならCentencePeace分割ぞ
トークンの話は混乱を招くだけな気もするから「そんなもんがあるんだ~」ハナホジーくらいが良い気もする
分け方に規則みたいなものはないし
まあそうね。
過去スレも、なんかプロンプトの後ろの方無視されるんだけど?ってことから検証になってたからその辺注意ぐらいかな
今はhlkyとかAUTOMATIC1111のGUIなら制限教えてくれるようにもできるし
ライセンス表記ってどうすればいいの?
画像使う時も必要っぽいけど。
クリスタプラグインのnekoなんちゃら試しとるやつおらんか?
そういやフォトショのプラグインってローカル環境必要なんだっけ?
新しいモバイル買って写真はそっちメインになるんだけどXeしかないのよな
dGPU付きの15インチも持ってはいるけど気軽にスタバとか行けない
>>76
今はUsageのとこから落とせそうだよ
俺はAMD環境だから試せないけど ファイル鯖かデスクトップにサーバー立てるとかでもいいんだろうけど素人には難易度高すぎる
と思ったけどVPNからweb UIみたいにローカルの代わりに走らせてるマシンのポートに繋ぐとかでいいのかな
>>78
> 今はUsageのとこから落とせそうだよ
リンクが https:/github.comだから現時点ダミーな気がする GIGAZINEは体裁を整えただけの5ちゃんまとめと変わらないな
ライブドアニュースも記事パクってるの草
https://github.com/justinpinkney/stable-diffusion
生成画像からイメージバリエーションを生成するフォーク
・元々あるCLIPテキストエンコーダを削除して、CLIPイメージエンコーダに変えた
インプットイメージに似ているが、細部が違うバリエーションを生成する
(img2imgとは完全に違うアプローチ)
・モデルもファインチューニングしたものを用意(LAION aethetics v26+ datasetを学習)
---
CLIP=言語ガイダンスだと思ってたら、CLIPイメージエンコーダなんてあるんだと初めて知った
モデルはこの機能と独立した改善版なのかな? あそこ中身はただの週刊誌だからね
よくわからん身内の土地問題とかやってしかも敗訴らしいし
>>85
あれやってること完全ヤクザなんだよね。。。
あの事件以来gigazineは読まないようにしてる。 日本語で出力してみるのも楽しいな
リボンつけた猫のキャラとか中国のパチ物っぽいのでてくる
GIGAZINEの記事、1つしか見てないけど日本語で丁寧に解説してて役に立ついい内容だと思ったな
まあ、最新を追うなら英語ソース読むとか、自分で検証するとかってなるし、分かってる人が読む記事ではないと思うけど
お神輿が出したくて試したがだめだった
漢字ローマ字とポータブルシュライン(deeplとgoogleさんによる和訳)はお祭りっぽい感じにはなるけど本体が映らない
日本文化には弱いかね
>>84
意訳が過ぎやしないか?
CLIPに入力画像を解釈させてそれをプロンプト代わりにして
モデルにはCLIPを訓練したのと同じデータセットでファインチューニングしたものを使って
CLIPが見たものとSDが出すものを一致させるついでにちょっと変えてバリエーションを作るって話だぞ >>89
神輿は認識してるが、神輿の画像=取手のあるものばかりじゃなく
地面に本体だけ置いてあるものや組み立て前のも含まれてるようだ
期待の物が出てくる確率はかなり低そう ((()))が怯えて弱いイメージで[[[]]]が硬く強いイメージなのに逆なのか…
>>92
まさにそれでミニチュア神社が鎮座する場面だらけ
キャリーとか入れるとそれを持ち上げる奇妙な絵になってしまうし、神輿で有名な祭りとかを指定しても駄目だった 学習してない概念はどう指定しても無理っぽい気がする
逆に学習してるものなら指定しなくてもバイアスから読み取ってから勝手にやってくれる気がする
御輿運ぶ取っ手っぽいものは英語圏に無いのかね
それにミニチュア神社乗せる荒技ぐらいしかもう無いでしょ
>>89
日本文化に弱いってのは実感してる
巫女さんや黒髪ポニテに導こうとしても
そうじゃない(緋袴)とか、白リボン結びは
色んな説明をプロンプトに突っ込んだが
どう詳しく書いても、既存キャラ名指定しても
描いてくれなかった
着物や浴衣やスク水はあんなに的確に書いてくれるクセに 何度かテストしてみた結果TIファイーンはある程度元画像は似通ったものにした方がいい感じ
よく目にするけどファイーンって表記は何かのミームなのか?
>>19
kritaを管理者実行したらkritaのプラグイン動いたわ
なかなかインペイントむずいな
物体を認識して付近に似たものを描画してくれるけど境界線がどうしても目立ってしまう これ初期シードの影響大きいな
シード値一緒ならワード増やしたり減らしたりしても同じポーズとるわ
動詞変えたらさすがに多少違うポーズ取るけどそれでも顔は同じところから生えてくるし腕とかも同じように使おうとする
Autoエンコーダーが学習してないものは出力として再現不可能だから
img2imgで詳細な形を指定しようが全然無理っぽい
Kritaやっぱまだ使いづらいな
ベースの強さ的にもphotoshopが覇権とるか
SDアップスケールは両方できるけどRemacriが使えたり細かい設定ができるヴォルデモート版のほうがいいな
ツイッターでもライセンスの書き方に迷ってる人は結構いるな。
同じ画像サイズの出力スピードはどんなもん?
変わらないなら入れてみるかな
>>108
試してないけどredditに乗ってるコード見る感じ、メモリが超過しそうなら小刻みにする、って感じだから同じ解像度なら変わらないんじゃなかろうか
メモリが超過しそうかどうかの判定は追加されてるけど 単語に+,-と数字の重みづけ同時にできるフォークってある?
>>112
「名前言えない人」ってなんですか? 統一教会関係? >>107
8Gで1024x960までは出せたわ
すげーな 11111の人版の通称がヴォルデモート版とか名前言えない人版とか
dalleやkritaみたいなアウトペインティングのライブラリってないの?
>>115
無知ですまんけどAUTOMATIC1111と仮に言ったら何が起こるの? 誰かに怒られるとか? >>115は、ここを4chanと思い込んでるキチガイってわけじゃないんだろうが、まあアホだな >>114
1024*960=983040 10万弱まではいけるんだろうというわけで1280*768をテスト、無事通過
1280*832は案の定エラーで落ちた >>122
1920x512
512x1920
Futuristic sci fi jet lands at runway of cyberpunk city, night photo, dark cinematic lighting, digital concept art
steps:20 cfg_scale:8 sampler:k_lms
3070tiで1枚およそ30秒 まぁ4chanはこのスレで書き込まれてる相当量の情報源らしいんで、敬意は払うが
>>107
すごい。情報ありがとう。
まさに今使っているのが1050tiで3060を夕べ買っちゃったんだけど、慌てて買わなくてもよかった説?
ほかのStable Diffusionでもパラメータを同じにして実行したら、改変スクリプト版とまったく同じ絵がちゃんと出てくるのかな。 巨大画像は同じ風景の繰り返しみたいなのしかないな
もっと情報の詰まった画像出すのは不可能なのか?
>>126
全体に整合性があるでかい絵を真面目に生成するならVRAMいっぱい使って作るしかないね
なんか技があるかもしれないけど >>107
AUTOMATIC1111版でも試したけど確かに上限突破してる
アウトペインティングで継ぎ足すようなアルゴリズムなんだろうか >>129
コードを見るとこれからやる処理の必要メモリ量が、フリーのメモリ量より上回ってたら分割して実行するって感じぽい
if mem_required > mem_free:
steps = 2**(math.ceil(math.log(mem_required / mem_free, 2)))
slice_size = q.shape[1] // steps if (q.shape[1] % steps) == 0 else q.shape[1]
for i in range(0, q.shape[1], slice_size): ああ畜生…家のオンボロPCがこれ程頼りないと思った事は無い
自由気ままに作れんとは
>>126
>>107 のRedditの似た質問に対する回答では
img2imgをうまいこと組み合わせるといいらしい 512x512でだけ学習してるので、長尺の画像を作るときにどうすればいいかを持ち合わせていない
1024x1024なら比較的まともな絵が得られるはず
別にメモリ節約のために画像をつなげている訳じゃない
VRAMが多くてもこれと同じ画像が出る
>>125
たぶん3070だとやれる幅広がるから間違った選択ではないと思う 結局モデルの学習サイズがネックになるんだね
小さい画像を高速で出して人間がつなぎ合わせるワークフローのほうが希望を感じるな
AUTOMATIC1111の方で1600x960(1536000)まで行けたわ
1920x832(1597440)はムリだった
>>107
スゴイ助かると思ったけどうちだと576×576異常でエラーが吐き出されて激萎え >>128
3060ならVRもへっちゃらだね。VRは興味はあるけど1050tiでは諦めてた。
1050tiはあと数年は使い続けるつもりだったのにStable Diffusionのことだけを考えてRTXデビューするから、RTXにはRTX voiceとかレイトレーシングとか「そんなことができるんだ」な機能がたくさんあると知って驚いてる。
夢が広がるなあ。 >>138
綺麗だねえ
下の方の小さい人と縦長のレイアウトでスケール感が素晴らしい
>>134
繰り返しぽいイメージになるのは512x512で学習してるからなのかな
言語ガイダンスの問題で、右の方にビルがあって、左には川がある、・・・みたいな複合的な要素があるイメージ生成が苦手とどっかで読んだのでそういう問題もあるのかなと思ってた 風景画を640から1024生成にした時のQualityの低さに落胆したけど、
その違和感や落胆の正体は 同じ細部をコピペしたようになる なんだな
サイズでかくなって単純に嬉しいと思ってたが、まだでかいサイズでの学習結果が最適化されてないのか、
個人的には明らかに640の方が面白く良い絵を作れてる
現状、サイズを大きくすればバリエーションが本当になくなってる
>>107
これって出力結果は全く変わらずに計算負荷だけ下がるの?
それとも結果自体に手を入れてる?? その風景画でのサイズのクオリティ差っていうの、画像が見てみたいな
俺でかいサイズ作れないから
512までしか出してないんだ
>>147
ありがとう☺
個人的には結果を変えてもいいと思ってるけどpromptとseedが同じなら同じ結果が出るってのがSDの特徴でもあるしなー >>141
プログラム書き換えてから立ち上げたからどうだろう
ノートパソコンのRTX2060だから貧弱なんかな?
メモリ合計14127MB
表示メモリ(VRAM)8147MB >>150
すまん途中で書き込んだ
共通メモリ 8147MB MJは高解像度でも全体のバランスを取ってるけど
SDは高解像度だと同じパターンの繰り返しになるかんじ。上で出てる画像がちょうどそんな感じだけど
>>107
GTX1080 8G 576x576 までいけたわ
本家のローカルに入れただけだったが、今までは448x448が限界だった
これ計算はかなりでかくてもやってるけど、保存前の?メモリ確保に耐えられないで落ちる
これ改善すればかなりデカくてもいけそうだな。 1111版Webuiだけど4GBのGTX980でも1024*576、960*640、896*896出せた
けど明らかに出来上がりがおかしい
出せるレベルではないくらいおかしい
可愛い子一人だけ出るプロンプトなのに可愛くない子二人出るし片方は髪の毛が離脱してハゲになってしまう…
過去の遺物的グラボだから起こるおま環?…
しかしColabを使わずとも640が出せるのは嬉しい
サンクス
顔が二つ出る現象は512を大きく超えた時の典型的な現象
スペースが空いてるからそこにまた顔を見出して描き始めてしまう
正方形から外れた場合、伸びた方向に対してプロンプト要素を埋めようとしてなんとかって話はちょいちょい出るね
正方形で大きくしたらどうなんだろ
レベッカ・ファーガソンとか同姓同名の人物と合体してしまうのはどうしようもならないもんかね
スペース区切りとかでレベッカ(ファーガソン)さんとファーガソン(レベッカ)さんみたいな認識になってる可能性?
アンダーバーとかなにか記号で苗字名前くっつけてみるとか
縦長画像を作り始めると人間の鎖骨のあたりは実は額の曲線と似ているという謎の事実に気付かされる
似てるから繋がると思って生やしちゃうんだよなきっと
あ、同姓同名の複数人が悪魔合体か
byなんとかとか職業名頭につけるとかで個人指定強化してみるとか
スウェーデンの女優とかミドルネームとかつけても意味なかったよ
それよりドリスタで1.5使えるようになったらしい
マジじゃん
ローカル版も1~2週間後らしい
automaticでtiling機能が追加された
うっかりONにしたまま人間かくと酷いことになる
まともな作品作りに作ろうと思うとやっぱり背景の一部分に使うのですら
人間が描く絵よりクオリティ低すぎて駄目だなって感じるな
一見背景は人間より上手く見えるけど雰囲気だけでお金を取れる絵ではないなぁ
AIの絵って上手いのか下手なのか分からなくなってくる
手の消失はマシになったがそのかわりあらぬ方向に曲がった6本指の手が出現する
足の消失は改善がみられない
画風指定の時にby ~では効かなくなりpainted by ~、illustrated by ~等の明確な指定が必要になりトークンを浪費する
って1.5Betaでの評判で早く欲しいぜって人が少ない印象
>>164
スポイトツールとしてはまあまあ有用だと思う 人間に出せないような色合いとか発想に利用価値はあると思う
ただ手直しできる技術は必要かと
1.4 と 1.5 の比較画像とか見る限りではわりと良さそうな感じだったけどどうなんかな
nvidia Eosが運用開始されたら半日とかでトレーニング終わるのかな
プロンプトをAIに考えさせてそれ使ってゼロから学習しなおすとかじゃないからな
1.4に上乗せで学習させてるだけだからあんま期待できない
>>144
そもそも学習データが512x512なんだから、
画像大きくしても基本的にはクオリティが落ちるだけだよ 女優の名前の前にyoungってつけたところで無関係の若い人と近影を合体させたみたいな別人が出てくるのどうにかならないか
dreamstudioから手で動かすだけならもう1.5が使えるっぽかったので雑検証
1.5
1.4
どっちもseedや設定は同じ、1.4側は2枚NSFWフィルタにやられて消えたけどseed変えてやり直すのがだるいので許して
seedもプロンプトワードもなんとなくは引き継げるが全く同じではなくなる程度の差
これだけ見ると1.4を選ぶ人も出そうだし流派が分かれるかも >>142
試したけどWSL環境だとimg2imgがエラーになって使えない
issueには上がってて修正予定らしい DSって名前を久しぶりに聞いた
いつしかそんなのあったなぁレベルに
アニメ版モデルについてはなにかアナウンス来てないのかしら
すぐ(soon)発言から結構たってるような
DreamStudioはエロ隠しボケ画像でポンド消費するのに腹が立ってやめたんだった
そこは真っ黒に白文字で抵触しましたみたいな英語出す代わりに消費なしにすべきなのに
MJみたいにRelaxモードないのも辛い
>>175
issueにあるのってhlky本家にあるエラーだからそっちが直ったら反映するって感じに見える
docker-compose.ymlのcontextを変更したらhlky以外も使えると思うけどAUTOMATiC1111版もダメそう? > 777名無しさん@お腹いっぱい。2022/09/03(土) 04:28:26.47ID:LqC0C0nC
> hlkyのvariation機能試そうとしてアプデしたら
> webuiの連続最大生成数が250から50になっとる…
> この数値ってどっかでいじれたりする?
> 778名無しさん@お腹いっぱい。2022/09/03(土) 05:10:12.24ID:3VRHtVkz>>781
> configs\webui\webui.yamlの19行目
こういうありがたい情報が蓄積されていくのが掲示板の良いところだよな >>175
モード切り替えたりするといけるんでない? webuiはn_iter実装は無いのかしら(batchだとメモリ足りない)
>>151
高画質いけました
暇だから動画見てたらそらGPU使うわなアホか俺 >>178
あれもしかすると動画生成版のことじゃねえのという話
続報は一切無い
それはそれとしてdanbooruデータセットで訓練したwaifu-diffusionがhuggingfaceのdiffuserパイプライン使って動くようになった
チェックポイントファイルは数日後公開だとか >>152
今のところはそうみたいね。
大きい画像に顔のアップが一つだけドーンみたいなのもそのうちできるようになるさ。 RTX3060 (VRAM12GB)でファインチューニング実験メモ
入力
※ソフトはイージーポーザー
設定
※非推奨のVRAMで無理やり動かすために設定をかなり下げている
出力
※時間は Global Step 70K までで4hほど
質感や髪形くらいは覚えてくれて
服装など大きいもの?を学習させるのは大変そうだなという感覚
ドキュメントによると通常はGlobal Step 3K~7Kで良いらしいけど
自分の出力で20K~30Kのあたりが一番マシに見えるのは設定下げた分かも知れない
(ひょっとするともっと必要な可能性も) 4chanでテンプレにヴォルデモート版をpastebinで貼るとスレが消されて投稿者が規制回避の名目で10分間BANを食らうようになってしまった…
webuiの他に4chanのcaptcha抜くコード公開してるのか
そりゃbanされるわ
teenageとかyoungは名前の真ん前に置くとそこそこ別人になる(感覚的には輪郭が変わる)から間に別の特徴挟んで誤魔化すしかない
同系統の美人が欲しいだけなら前者の方法をとればいい
1111Webui使ってるけど…安全なんかな…………
情報とかプロンプトとか全部筒抜けになっていつか暴露されるんじゃ…………
少なくともAUTOMATIC1111はオフラインで動かせるから安心していいぞ
他のは知らない
>>191
オープンソースなんだから心配ならソース読めばいいんじゃね? まあカスタマイズする際にコード隅から隅までみたけど
通信関連の実装なんて一切含まれてないよ
ひとつあるとすればGradioモジュールの部分くらいか
share=Trueにしてパブリックリンクを作らない限り通信は行われないが
>>145
3070ti 8GB
>>152
MJの高解像度はいきなりデカいのを生んでるわけじゃないからな
SDで言うなら512で出してうまい具合にi2iでアップスケールするようなもん
これ一般化されれがマジで凄いことになるんだけどなぁ よくわからないけど安全なら良かった……
1111様、いつも使わせて頂きありがとうございます…
私は愚かな民衆ですが敵ではありません…
>>187
log/プロジェクト名/checkpointに保存されてるepoch=数字.pkcpみたいなファイルと同じ時刻のやつが一応一番スコアが良かった結果を指してる automatic1111版少し導入に手間取ったけど使いやすいよな
hlkyのimg2imgの簡単なお絵かき機能欲しいとはおもったけど
>>173
クリント・イーストウッドだと
young clint eastwood from dirty harry
old clint eastwood from gran torino
みたいに書いたら若いのもじいさんのも出てきたよ
>>198
そんな機能あったんだね ありがとう!
見てみたら16499が最もスコア良かったらしい
あんまり違いわからないけど、エンベディングファイル作ってからもガチャ回すから絞ってくれるの助かる テンプレに過去スレ一覧乗っけてみたんだけど、良かったかな?
ごちゃごちゃ背景は得意な割に絵に使えるような花とか小物とか家具とか
そいういう描くのは苦手なんだなぁ、それともプロンプト頑張れば素材系もいけるのかな
>>203
白背景に物体1つだけとかはimg2img使えば簡単に出せる >>200
なるほど、出てた映画絞りか
なんかgoogle検索じみてきた 背景のない製品の写真みたいのはpromotional product とか入れるといいかも
>>187
助かる
単純な置物とかじゃない人間の再現は難しそうだな teenage 名前, by Lilia Alvarado
で大体いけるかなって
しかしいくら試してもエミリア・クラークは若返らない
縦横どちらかは512以下にして後からアップスケールしたほうがいい
>>187
画像5こ以上使うとあまりよくないとかいてあるけどそれより少ない枚数では試した? NMKD の1.3.0いつまでも絵が出ずにログに「Failed to move image 」が出てたら
設定からImage Output Folder に存在するフォルダを指定すること。
デフォルトだと存在しないフォルダのパスになっている
Emadさんによれば明日はもっと凄いアップデートが来るらしいな
楽しみ
2時間前くらいにgithubにSD用のdreamboothによるファイーンのコードきてた
>>211
ああそういうことか
今やってみようとしたけど簡単hlkyに慣れ過ぎて
分岐前のbasujindalのインストールの仕方がさっぱりわからないw
もういいや 縦×横が512の2乗を超えないにしてアスペクト比組んで、それをアップスケールするのがよさげ。
>>214
まじか
今日はSDお休みにして明日に備えるか 1024x1024とかやっても
例えば縦横に4個顔が並んでる画像みたいなのが生成されちゃう可能性が高いから
SDのtxt2imgでは無駄な高解像度はそこまで報われないな
いい加減飽きてきたんだが?
お前ら楽しいか?こんな創造性皆無の事に時間使って
>>222
普通にあれこれ試すのは楽しいし少なくともそのレスを書き込むことよりも創造性のない行為ってのもなかなかないと思うぞ >>222
やることいくらでもあるのに飽きる要素ある? 現状のAIは実質的には性能が低くて遅い画像検索エンジンってだけだからな
著作権問題をクリアできるからトレス批判されずに絵の制作に使えるぞ!
ってイラストレーターにしか実用上の価値はないんだよな
>>221
ブレンド昨日おもしろそう
ローカルで使いたい これを機にAIの勉強始めたり世の中に少なからぬ影響を与えてるぞ。
>>212
全身絵が無謀っぽかったので削除して5枚で試してみたよ
複数人出るのはあれかな、SDで高解像度にすると複数人出やすいのと同じで、256x256で入力したからかも >>223>>224
悪い、俺は手と想像力をフル稼働させてクリエイティブするのが性に合ってる芸術家なんだは
他人のふんどしでクリエイティブするほど人生浪費するつもりはねえってだけ >>229
分かる
クソレスを生み出すのが得意なクリエイターなんだね! >>229
その場合黙ってこのスレを去ればいいだけでは?
一応、多摩美の油画出身なんだがなあ
まさか芸術のど素人に甘くみられるとはw
>>1
> ★★★ 注意 ★★★
> ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
> 漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します >>233
美大出身程度の雑魚がどうかしたのか
まともな人間なら業績を自慢しな。
高校時代に受験デッサン頑張りましたってのが人生のピークなんだろうが、それ凄いと思うのは美大不合格になったやつだけよ >>227
GPUの売上も少しだけ増えてるんじゃないかな
そういえば数年前からAI開発者向けにnvidiaがハイエンドGPU配ってたけど
そういうのが花開いてきた感じ 正直面白いし、ゲームで使う背景をある程度作れるのでめっちゃ重宝してる
素材でシチュエーションにあったものを探す手間がなくなっただけでも自分的には革新的
SDのGUI入れてみたんだけどスペックは満たしてるはずなのに出力されるのが遅い
Midjourneyの速度に慣れるときついなと思いつつ
遅すぎるので何かがおかしいのかもしれないとも思っている
わいはCG作成過程の同じことを繰り返すような作業感にうんざりしてきたところ
そういう仕上げに近い方の過程はAIにまかせて
発想とかの上流過程に専念したい気分です
>>240
具体的なGPUと画像サイズに対するit/sがいくらくらいか書かないとなんとも・・ NMKD GUIで左下のステータスが(5/5)になってから
画像が出てくるまで初期設定の状態でどれだけかかるものなの?
バニラSDで緩々遊んでたら進化が加速しててワロタ >>221
不連続な進化は自立志向型か従来志向型のリトマス試験紙
自分が自立志向型と思い込んでる従来思考型はこう言う時に炙り出される >>243
GPU GeForce RTX 3090 24GBメモリ
CPU intel Corei9-12900k >>243
画像サイズに対するit/sが(5/5)の隣にあるもののことなら2.84sになってる いやだから画像サイズも書きなはれ・・
一定ではなく大きくなるほど単位時間も遅くなるので
>>248
残念ながらその性能は正常ですね
サンプラーがこんな感じで、k_eulerと、k_heunだと倍ほど違うので、k_euler、k_euler_aを試してみてもいいかも
(早い←)k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun(→遅い)
後stepも25とかに減らしてみるとか
>>249
512x512で3090でこんなもんですよ >>246
そいつ
> 無課金のcolabでも動くのではないかと思います
こんないい加減&無責任なことよく言うわ・・
無課金とかすぐ上限きて100枚も作れないし使い物にならん、いちいちcaptcha出るし
>>250-251
NMKDってそんな遅いのか
うちの3060でhlkyの--optimized-turbo、k_lms、50stepで512x512は4.00(it/s)位出る k_euler_aだったら18でいいものが出ちゃって
それ以上はやりすぎなくらいだから
下の画像のCFGは7.5
>>252
> NMKDってそんな遅いのか
NMKD使ったことないがhlkyでもそんなもん。
何言ってんのか分からんけど
> 3060でhlkyの--optimized-turbo、k_lms、50stepで512x512は4.00(it/s)位出る
そりゃそうだ。
it/s と sec見間違えてんのかな いや知らんがな・・
> 画像サイズに対するit/sが(5/5)の隣にあるもののことなら2.84sになってる
って書いてきたからその通り答えただけだ、NMKDの表示がどうとかこっちが判断することじゃない
it/sって書いてないならこっちの瑕疵じゃない
ちがう
it/sは○sだって言われてもどうしようもない、ね
普通のゲームのキャラ絵見た時に
目が大きすぎるとか輪郭歪んでない?とか思うようになっちまった
aiが俺の不気味の谷を割り広げてる たすけてくれ
>>221
ブレンドは面白いとは思ったけどある閾値で一気に片方に触れるから、あんまバリエーション作れないね >>240 だけど解決したわ!
(5/5)になってるのに永遠に読み込み中なのがおかしい……と思ってたんだが
プリセットの画像保存先フォルダ「Images」を手動でインストール先に作成したら画像がやっと生成されるようになった
なんだMidjourneyより早いじゃん
聞いてたSDローカルのみんなの話と違いすぎてビビったわ ソフトによってit/sだったりs/itだったりするので注意
>>256
sと言ってるものをit/sと解釈するのはアホとしか言いようがない 帰って来たから>>142試したんだけど普通に動いたぞ
1111の方 >>264
IDなんか変えてないが?
お前無意味なチャチャしか書いてないじゃん。もう一つの方の雑談スレにでも行きなよ > TypeError: string indices must be integers
hlkyのimg2imgのこれうぜぇ・・
なおmaskで一度なんか書いて、cropに戻すと治る
>>237
どした?藝大、多摩美、ムサビに落ちたクチか?
良かったなAIでお絵描きした気分になれてw うーんSDローカルでしばらく触ってみたけど
Midjourneyの方が美術的に視覚的に好みだなあ
StableDiffusionは写真や豊富なソースを元にした良くも悪くもリアルな写実性があって、Midjourneyはアート風に割り切った「映え」な処理になる気がする
>>268
ありがとおおお、これ困ってたんだ
8月25日あたりまでバージョン戻せばエラーでなくなるからそこまで差し戻さねばならんかと思ってた それ聞くとMidjourney試したくなるな
課金前提っぽいので敬遠してたけど
midjourneyはなんていうか、ベースコンセプトが内包されてる感じはする。
Sdみたいに無軌道じゃないというか。
>>267
これcolab環境出てないのね
環境設定用のやつがconda用なんだがかcolabで使うにはどうすればいいんじゃろかい MJの利用者はお客様だからな
接待して気持ちよく遊んでいただかないと
Midjourneyは確かにMidjourney臭さ感じる
Artstationから持ってきすぎてる気がする
>>221 をローカル実行できたからpaste.bin使ってうpしようかと思ったら
スマートフィルターにひっかかって公開できなかった。どういうことだよ
> Pastebin’s SMART filters have detected potentially offensive or questionable content in your Paste. >>242
現状ではAIはその仕上げ工程が苦手だから殆ど時短にならないんだよなぁ
あるアニメータが今のアニメキャラの目は描くのに宇宙戦艦の
大量の窓全部描くのと同じ工数がかかるとぼやいてたその目が苦手で人間が入れるんじゃな MidjourneyとStable Diffusionのプロンプトによる比較サイトがあったと思うけど
Midjourneyには明らかにデフォルトで特定の作風への補正が与えられている
一方Stable Diffusionにはそういう補正がないので悪く言えばまとまりがない
ミッドジャーニーは補正のせいで似たようなの生まれがちだから千枚も出すと飽きるんだよな
SDのローカル入れて初めて「グラボががんばってる音」を聞くことができた
SDは背景制作用に無人化ボタン一発機能を実装して欲しいなぁ
いくら先頭強力単語で無人化しようとしてもちらほら出てくる
MJはお絵描きAI、SDは画像合成AIを名乗ってるんだしデフォルトはそうなってるだろう
SDはオープンソースなんだから自分で好きにいじればいい
DALLE2が一番promptそのまま出してくる、雑コラ見たくなるのでお笑い系には強い
対してMJは強烈めっちゃ格好良くに味付けしてくるね、SDは両者の間くらいか
MJは色の加味が強すぎて、好きな色出してくれないって弊害まである
服の色とか細かく指定しても調和優先なのか勝手にシャッフルして無視してくることしばしば
スタイル指定なくてもだけど、あればあっただけとんでもないことに
一時期、同じpromptなのかみんな青とピンクの空になってたし
>>203
これなんだよな
そう言う素材としては
細部が変だから使えなかったわ 有名家具職人のスタイルつけて椅子をデザインしてるやつ見た。
>>242
これもすげえわかる
細かいところが得意じゃないんだろうな
とは言え惜しいね
現時点では絵描きにとって時短にはならんが
もうちょい精度が上がればな
自分の利用したい何かを
もっと学習させればいいのかねぇ 出てきた画像をそのまま使わないといけない縛りでも課してんの?
【Midjourney】AI関連総合2【StableDiffusion】
http://2chb.net/r/cg/1662463049/
こっちで
そういうの語りたいなら、せめて具体的なプロンプト談義でもしてくれ
> ★★★ 注意 ★★★
> ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
> 漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します aestheicを入れるとフィルターとかハイライト入れまくったインスタ映え系の画像になる
人間はこういうのが好きなんだろう
automatic1111版昨日使ってみた感じ
img2imgはバグがあるのかmaskした部分がズレる現象が起きたんでまともに動いてる時のhlkyの方が使いやすいかも
それ以外は安定して使いやすい
SD 虫麻呂って書いてないのに全部虫麻呂っぽくなる
Fantasy costume girl……
SDのSTEP数って150以上とかにしても、ほとんど意味なかった。
たまに突然変異するみたいだけど。
150にしてたけど75に減らしても何も変わらないな
二倍速ガチャになったことのほうが恩恵あるわ
textual inversionでSDにMJの絵を食わせて”art by Midjourney”ってやったら同じような出力になるんだろうか
やっぱ1111のインペイントってバグ発生してる?
ズレたりマスクした部分でも変わったり全然使えんかったけど使い方間違ってるのかと思ってた
フォトショでいじった画像を使った方が早いと言われてマスク部分を白で塗ったけど、白のまま出された
NMKD StableDiffusionGui-v1.3.0の出力フォルダ自動生成機能、プロンプトが多いとフォルダ名が途中で切れるんだけど
フォルダ名が切れてる部分より後ろでプロンプト足したり引いたりしても新しくフォルダが生成されずごちゃ混ぜになるの注意
step数50以上で結構変わることもある
特にk_euler_a とk_dpm_2_a
他のものも70ぐらいまでは割と変わる気がする。絵によると思うけど
末尾_a以外のサンプラーはstep8で全体が見えて一定stepまでは順当に変化する傾向
aestheticサンプラー2種は美麗なのが生まれやすいがstepがアテにならないカオスの運ゲー
出典reddit 正直結果が収束しないサンプラでステップ上げるのは時間の無駄やと思う
なんでこんな見てて不安になる作例をサンプルにするんだ……?!
まともに見比べて吟味してたら精神ダメージ受けそう
アニメ絵じゃないからかもだけどstep数が多いから良いって訳でもないよね
150でやってたけど見た目の破綻が少ないの優先だと下げた方が良い場合があるのに気がついた
変な所から生えてた腕が無くなったり崩壊気味だった顔がまともになったり
縦長とか横長の画像になると、隙間を埋めようとするのか顔から顔が生えたりするしね。
k_euler_aで50とか75とか回すなら
7~8ステップ以降は5つおきとかで途中ステップの画像保存した方が収量が多くて良いかもな
見てると早々に見られるようになった後は何度も変化繰り返してる
The Wicker Man 1973, attractive, sexy, dark, gloomy, desaturated, award-winning, by Greg Rutkowski
アンセストラル系は後からsexyとattractive要素が強まってるんだよね
ステップに何を求めるかかな
求めるのが時短なら変化ないサンプラーでってことになるけど
似た雰囲気で精細さを求めるとかだったら最初から4kとかhigh resolutionみたいなプロンプト指定したりimg2imgに賭けるほうがよさげだし
ガチャ代わりならシード変えた方がいいし
ステップじゃなきゃできないとか、ステップ考えた方が効率いいってのがあまりない
img2imgのベースにPS1みたいな粗いモデルで構図だけぶっ込むと、絵画っぽくして出力してくれるとか面白そう。
>>315
2Dから3Dばかり考えていたが、逆も使い道があるんだな
もう垣根も無くなりそう >>309
面白い。けど肝心のサンプラーはなんですか?
また"|"があるけど、これプロンプトマトリクスですか? 普通にやるとtrending pixiv fanbox以降は無視されるような
後、512x512以外だと(感覚的には不安定なので)検証には良くないような。
CFGも15ってめっちゃ大きいイメージある 将来的にはゲームのリアルタイムレンダリングにも使えないかな
コストがレイトレースやレイマーチ以上だろうけど...
これ背景をアルファチャンネルにするのって可能?
LRとかで被写体マスクかけてもいいんだろうけど
>>315
これは割と使い道ありそう
どうやってblenderでリアルタイムレンダリングしてるのかが分からないな。
手動でレンダリング(F12)してるのかしら >>321
> どうやってblenderでリアルタイムレンダリングしてるのかが分からないな。
> 手動でレンダリング(F12)してるのかしら
コンポジターでファイル出力設定して自動レンダリングにチェックするだけだった。
blenderの話でスレチすみません。
PNGファイル監視して、img2imgするだけだから簡単にできますね seed固定すればある程度画角が変わっても似たような画像になるのかな
>>10
このkritaプラグインのインペイントを使いたいけど
Colab使用法で使ってもサーバーエラーになって使えない
Colabで構築してhttps://●●●●.gradio.app立ち上げて
URLをコンフィギュレーションに貼るだけじゃダメメ? >>288
mimic叩いている間にもっと凄いの出て来ると 深津って人、顔はともかくマジで誰なんだw
OpenAI かStabilityAIの人かと思ったら違うし何した人だろう?
>>322
blenderはpythonで動かしている層があってオープンソースだからpythonでプラグイン書ける人ならUI使わなくてもあれこれ動かせるはず >>325
管理者権限でKritaを起動して
URLの末尾にスラッシュ付けたらいけないぞ >>325
管理者権限でKritaを起動
URLの末尾に/を付けてはいけない
この2点で動くぞ >>324
学生の頃にスマホ黎明期のカメラアプリで一発当ててた開発者だよ >>329
そうだけど、blenderは自動レンダリングをフックできるAPIがないので、外部でファイル監視するのが現実的な気がする
Viewportで変更を加える都度にリアルタイムでSDでもレンダリングさせるには、だけど OpenAIなんてGAFAMより上のエンジニアだぞ
比較なんてしたら惨めになる
>>330
ありがと!
でもやっぱサーバーエラーになっちゃうわ…
Colabの方にもエラーが表示されてる…
\AppData\Roaming\krita\pykrita\stable_diffusion_krita\sd_main.py", line 536, in getServerData
with urllib.request.urlopen(req) as f:
File "urllib\request.py", line 222, in urlopen
File "urllib\request.py", line 531, in open
File "urllib\request.py", line 640, in http_response
File "urllib\request.py", line 569, in error
File "urllib\request.py", line 502, in _call_chain
File "urllib\request.py", line 649, in http_error_default
urllib.error.HTTPError: HTTP Error 500: Internal Server Error
Colab
Traceback (most recent call last):
File "/usr/local/lib/python3.7/dist-packages/gradio/routes.py", line 260, in run_predict
fn_index, raw_input, username, session_state
File "/usr/local/lib/python3.7/dist-packages/gradio/blocks.py", line 685, in process_api
inputs = self.preprocess_data(fn_index, inputs, state)
File "/usr/local/lib/python3.7/dist-packages/gradio/blocks.py", line 591, in preprocess_data
processed_input.append(block.preprocess(raw_input[i]))
File "/usr/local/lib/python3.7/dist-packages/gradio/components.py", line 1061, in preprocess
return self.choices.index(x)
ValueError: 4 is not in list 3Dモデリングのためのキャラ立ち絵を24時間SDぶん回してたらキャッシュ?でクロームがクラッシュして立ち上がらん事なったわ
みんなはこまめにキャッシュクリアしてくれ クロームの設定をちょいちょい元に戻すのダルすぎる
AIで色々な合成画像が作れるという話題がポツポツあっても話題が広まらなかったのが、
midjourneyに描かせた絵にAIが絵を描くとこうなるのか!
という独特の美しさがあったから研究者以外にも広まったと考えるとmidjourneyの開発者がブームの火付け役のような
>>336
https://●●●●.gradio.app
にブラウザでアクセスしてgradioが動いてるか確認して
だめならmodel.ckptが読み込めてないとか >>337
ぶん回すならコマンドラインが安定だよ
webUIはおためしにはいんだけどな
あと意外にGPU食ってるアプリあるからタスクマネージャーで調べた方がいい
うちだとテキストエディタがGPUメモリ600MB消費してて驚いたよ >>340
コマンドラインで動かしたいけど肝心な知識が・・・
俺がクロームで動かしてるから、神フォークでみんなが1000×500ぐらい行けるっていってるのに
それよりも妙に小さい画素だったのかも >>339
サイトURLは読み込み可能でサイトでは画像も生成可能です!
ということでmodel.ckptも読み込めてるはずです!
なのになぜ栗田はサーバーエラーを返しちゃうの… >>342
4番目がないってエラーが出てるから
パラメータいじったらエラーが出るんじゃね
ベータ版だからパラメータをいじってたら戻したほうがいい
あとはわからない 一番上のプロンプトだけ入力してOKしてみるとか
Windows11ではうごいたんよ
ゲーム用のGPUのメモリーはグラフィック用だから多少データー化けしてもOKな設計になっていてECCでの保護とかされていないからそこは覚悟して
>>343
色々いじってみます!
それでも無理なら……
諦めます!! >>346
同じエラー出たわ
プラグインアップデートしたら動かなくなってる >>347
えええええええ!!!!!
衝撃の展開じゃないですか!!
とりあえずアップデート待つことにします… ありゃ? モデルバージョンアップ入った? Colabの出力結果が同じシードでも若干変わってる。
テンプレがmodel.ckptじゃなくて.ckpなのにはなんか理由あるの?
>>107
これ見てなかった、有用な情報ありがとう
hlkyはスライダーが1024までしかないけど、1111でサイズ最大の2048x2048まで行けたw
キメラ化するのとs/itは鬼のように落ちるけど、img2imgで最後の一発に使えばいいよね これまでのアップスケールソフトすべてに言えることだけど
アート系はSDアップスケールでもキレイになりすぎてしまって元の画像の質感がごっそり失われる
colabわかるマンいたらdreamboothのファイーン試して見ておくれよ
1111版にプレビュー機能追加されてる!
4gbでも使えて超便利
4ステップごとに画像表示すると0.76倍速だった
あ、初期設定では無効だから注意
GradioのSettingsタブの一番下にある
refineをファイーンって言うの老人会のネタなのか知らないけど意味が全くわからなくて気持ち悪い
fine tuningだった
怒りに任せて書き込んでしまった
Discord
Q. txt2video、video2videoってどのぐらいのスペックのGPUが必要そう?
未来のことだからわからないと思うけど、3060でも動くと思いますか?
Emad: .今後決める話だけど、最低でも100億パラメータのモデルになるだろうから、3090はいると思う
多分ビデオ生成、最初は動いてもオモチャみたいなもんだろうから飛びつく話じゃないとは思うけど
やっぱVRAMいるね
このAIプチブーム用にGeforceのVRAM大きいバージョンとか出してくれないかな
君達の一喜一憂についていきたいけどプログラムが全然分からない
>>364
SDをCPUで走らせてるのもあるからな
そういうのは利便性(その生成速度を満足できるかって気分)との兼ね合いでしかない CPUだとだいたい10倍以上時間かかるから勧めれない
今、30シリーズガンガン値崩れしてるからチャンスっちゃチャンス。
多くの人はlineとかのapiで満足するし、ローカル構築する人でも8gbもあれば十分だし20gb以上必要なのはTIとかそれ以上のことやろうとする人ぐらいだしな
そのためにわざわざvram増量版つくるかな
1111版のアウトペインティングのスプリクト名にpoor manとか付いてて草
poor manは代替品、即席的な意味
poor man's DIとか
>>364
GPUはそんなに速くなくても良いからメモリー沢山積めるのを欲しがるようになるなんて、数ヶ月前までは考えもしなかった RTX40x0用のCUDAが出てその対応で少しごたごたするかもよ
来年になったら動画生成が流行りになってて、4090でも手も足も出ないんだろうな
古いの並列に繋げて爆速にさせる技術とか無いんか
blenderのGPGPU使ったレンダラーは何回か新しいGPUが出てそれ対応のCUDA対応待ちになったことある。
レンダリングは影だ反射だ計算してくれる機能が追加されたり変更されたりするから対応必要になるんじゃないの?
逆に切られると使えないGPUもでてくる。DazStudioとか新しいバージョンだけGTX650以前の未対応になったし
SD(AI)だと基本は単純計算だから対応作業いらないと思うよ
>>380
一気に長時間作る前提で考えたらそうかもしれんが
10秒の動画生成
フレームレート補完
アップスケール
最後のフレーム引き継いで次の10秒間を生成
︙
連結
こんな風に分割してやりゃええやん 後、10秒って30FPSでも300フレームじゃん
一気にそこまで巨大な動画生成できるもんかなw
「最後のフレームを引き継ぐ」なんて可能な気がしない。
AIの思考が10秒で切れるってことはその後は全くの別シーンとして生成するしかない気がする
登場人物やシーン(背景)を固定(ファインチューニング)して連続性を保つことができればいいけど、それはそれで結構な手間がかかりそう
txt2videoと言っても、まともなものを作るにはtxt2imgとか桁違いのプロンプトが必要だし
来年ビデオモデルがリリースされるとて言っても最初はちょっと触って面白い、ってな感じのオモチャみたいなもんじゃないかね
>>386
ビデオ生成どういうものか、何もアナウンスされてないからただの妄想です。書いた直後に反省した 9xx(Maxwell) 動くが遅い
10xx(Pascal) 動くがそこそこに遅い
16xx(Turing without Tensor) 緑バグ
20xx(Turing) 動く
30xx(Ampere) 動くし速い
>>389
StableDiffusionのvideoでDeforumみたいななもの(単純移動、拡大)なのかな?
txt2videoという言葉のイメージから、「走る」とか「笑う」とかそういうものを想像した
Deforumでいいなら既にDeforumでいい気もする
まあDeforumも動画みただけで動かしてはないから勘違いしてるかもだけど 何日かSDのTI Fine tuningやって分かったことメモ
・ソース元画像は極力同じような構図、テーマに搾った方がいい(顔のみ、上半身のみ、かつ同じ人物など)
・最低5枚は必要ぽい、10枚と15枚の差はあまり見られない
・5枚と10枚も割と好みの差のになりそうなので両方やるといいかも
・epoch数重ねすぎると崩壊する、1個目と1番スコア良かったものあたり前後を1こずつぐらいを見比べて好みで使うのが多分いい感じ
⇒崩壊したら下で何かしらの概念に落ち着いてるので面白そうならつかえるかも
・アニメは未検証、Twitterでミャクミャク様などの成功報告あるのでできるようではある
>>386
普通のCGのキーフレームに当たる部分をプロンプトで設定してその間の保管をプロンプトの重みづけで変更してけばいい。引継ぎはimg2img
SDでの簡易実装が >>221,283
metahumanみたいに何かに特化して学習すれば実用的なの得られるだろうけど、SDの自由度でやってくとオモチャになるだろうね
>>388
うちはmaxwellだ。くっそおせえ >>392
それは静止画像の補完なんだからtxt2videoではないね
txtの要素がない。
>>388
2080Tiは3070Ti、3080とほぼ変わらないし世代だけじゃなんとも言えないなw
3060以下は(性能的には)Google Colabの方がいい。使い勝手はローカルのほうがいいけどね VRChat 用に(高値で)買った RTX2060 12GB がここで役立つとは思いもしなかったよ。
>>393
今のSDは静止画学習だから仕方ない
例えば腕を下から上に上げるって動作の動画からフレーム切り出して動作そのものをクラス登録する
「right arm up to down with progress 10%」みたいにプロンプト設定したら、一割腕を持ち上げたところの画像が生成される。そんな感じにできたらいい >>391
100枚とか1000枚とかも画像を用意すれば出来るのかな?
そこまでやったら傾向的な学習できたりしないだろうか 1111アップデートしたら>>107のビッグサイズ変更裏技が効かなくなった感じだ…
さっきまで作れてた640でもメモリエラーになってまう
俺の環境だけなのかな >>388
16xxの俺はグラボの敗北者じゃけん・・・になってて辛い Stable DiffusionのFine TuningをVRAM 8GBで流すまとめ(既知情報の寄せ集め)
8 Epochじゃ全然足りない気がするけど、続きはどうやるんだろう?
これを期にPyTorchを勉強しよう >>400
8GBでできたのか。これは分かりやすくていいな finetuneはエラーだらけですんなり動かないな。素直にクラウドでやった方がいいんだろうな
一応こんな修正で8GBのローカルでepoch回りだした(gpuが遅いからきちんと出力されるかは未確認)
https://github.com/lstein/stable-diffusion
をclone
>>400の修正に加えて
main.pyの頭に2行追加
import os
os.environ["PL_TORCH_DISTRIBUTED_BACKEND"] = "gloo"
main.py内にある変数 gpuinfo と ngpu への代入値を 1 に固定
main.py内にある if not cpu: の行の前に cpu = False を配置
実行
python main.py --base "./v1-finetune.yaml" -t --no-test --actual-resume "./models/ldm/stable-diffusion/model.ckpt" -n "xxx" --gpus 1 --data_root "./src_finetune" dream studioでimg2imgができるようになった
設定の一番下にベース画像を追加する項目が増えてる
TIの設定はそれぞれ何さしてるか調べないと怖い気がしてきた
どっか設定解説あったかしら
>>402
resumeできたー
ガシガシ回してみる
あとtxt2imgに--W 256 --H 256を付けると8GBでも--n_samplesを増やせて検証には良さそう >>396
枚数が多すぎるとかえって結果が悪くなるんじゃなかったかな >>407
㌧㌧
省エネ用に解像度設定値落としてるのは結果にすごい影響ありそう dreamboothは32GB以上のVRAMが必要らしい
colab pro+で運良くA100を引ければ回せそうではあるが
32GBって事はnvlink必須か?
グラボだけで40万かぁ…
3090のnvlinkはメモリ2倍にならないから注意ね
dreamboothのほうも省エネ情報待ちになりそう
ワイルドカードってありますか?
* on tableとかやりたいです
hlky版更新来ててimg2imgのエラーとか直ってそう
>>414
object on table とか何らか言い換えれば良いと思う stuffs on tableとかがいっぱい出て面白い
>>415
>>416
ありがとうanimalsだと謎のキメラモンスターだったけどobjectsは融合してないね
何が違うんだろう >>418
机の上の動物って絵や写真がなかなかないからだろうか
animals on tableで
SDは比較的、猫や犬出してくる、木の上の頭アップみたいなのとちょっとトロけるくらい
MJはイラスト風で机の向こうにいるみたいに並べて誤魔化してくる、10回に1回くらい成功で机に乗ってる
photography of live animals on table
って指定してやってもなんかいまいち
DALLE2はちゃんと動物の「置物」出してきてうまいと思った
live animalsでもなんとか対応してくる凄み
うーむ、sdの学習元にanmalsタグが付いた画像がたまたまなかっただけかな
単数系複数形を理解しているわけではないのか
1x1から9999x9999までの掛け算表とイギリス人が入った箱と9999までの掛け算ができるイギリス人が入った箱を外部からの観測で区別することはできない
特定の絵柄のキャラクターの色んな光景を出したい場合、finetuningで特定の絵柄を覚えさせてなんとかキャラクターを数枚出力
そのなんとか出力した数枚のキャラの絵をfinetuningでポーズ指定とかすればいけるんだろうか
何がそのキャラをそのキャラたらしめているかだと思う
顔・服装・その他特徴
顔だった場合、ただ色んな全身ポーズを与えるより
色んな角度の顔だけとかの方が効果的なんじゃないかと
エマがエイリアンでもエマに見えるように、顔の安定だけでもそう見えると思う
現在形、過去形、現在進行系でどれか適してるかがわからないし
服装だけでもinと is wearingのどっちが適してるのかもわからない
ディープラーニングってそういうもんだよなって言ってしまえばそうだけどもう少しプロンプトを定型で使いたい
TextualInversion 画像の全ての概念をプレースホルダに落とし込む
DreamStudio 覚えさせたい要素の一般的な画像を用意し、それと対比するような特定対象の画像を入れることで特定の要素のみをプレースホルダに落とし込む
(portrait of dog ↔ portrait of [V] dog でコーギーの写真を放り込むと[V]にコーギーの特徴だけが入る)
TextualInversionはプレースホルダをそれそのもの、画風、構図等で様々に使える一方、学習をやらかすと精度に影響が出るのに対し
DreamStudioは特定した要素を少ない世代で確実に覚えさせられる一方、それ以外の要素への応用はほぼできない上にプレースホルダの強度が強すぎて他のプロンプトによる指示を受け付けなくなる可能性があると
(コーギーの写真を入れるとその写真がベタッと貼り付いたような画像を作ってきてピカソ風にしてくれない等)
あるものをそのままSDの世界に入れたいならDreamStudioの手法が良いんだろうな
1111はsettingsに
> Save text information about generation parameters as chunks to png files
があって、チェックつけとくとPNGの頭に書き込まれてあるんだね
バイナリエディタ(あるいは強引にテキストエディタにぶち込む)くらいでしか見れないけど
設定テキスト無くしてもあとからわかるので安心
hlky版も同じじゃねコマンドラインオプションではあるが
>>426
バイナリエディタというか、PNG text chunkなのでビューアあれば見ることができるよ
>>427
いつのまにか --save-metadata できるようになってたんだ。知らなかったw 1111版は本体にpng内に埋め込んだプロンプト見れる昨日あった気がする
>>431それはもち検索済みw
いちいちサイト開いて参照にドラッグとかやってられん
つかまぁバイナリでいいやん、選択してコピーもできるし
基本生成画像はexplorer上で管理してるのでwebui上は手間がね・・ waifu-diffusionモデルは劇的に2次元寄りに変わってるな
ただプロンプトも総とっかえになりそう
おお、テンプレがキレイになってる。編集ニキありがとう。
ernie-vilgの呪文を語り合いたいけどみんなどこに集まっているの?
Twitterは思ったほど盛りあがってないし…
wifu突っ込んでみたけど、どうもしっくりこないな……
モデル以外に何か突っ込むもんあるんか
ダンボールなんか行ったこともないから、コツみたいなのが全然わかんないな……
もうちょっと様子見で待とう
ノーマルでもそこそこ2次ガチャ引けるようになってきたし
1.4で二次絵のファインチューニングして結果は微妙だったけど
waifuで使うと結構綺麗に特徴出てきて面白い
ダンボールのタグはweb表記のやつは多分そのまま使われてない(スペースとかカッコとかあるとおかしくなるので機械学習用に変更されてる)はずなので
データセット見るのが確実ではあるけどデータセットisどこなんじゃろ
帰宅したら確認してみよう
waifu diffsionは簡単なプロンプトでかわいいアニメキャラ出るけど、学習が東方キャラに偏ってる感じするな。
そしてEmad氏が"25/09/2022"とツイート。1.5かな。
>>425
多分dreamboothのことだよな?
これ見るとやはりTIのことをファイーンとか呼ぶのは紛らわしいし誤用だな
fine tuningもやめたほうがよいかも
The concurrent work of Gal proposes a textual inversion method that learns to represent visual concepts, like an object or a style, through new pseudo-words in the embedding space of a frozen text-to-image model. Their approach searches for the optimal embedding that can represent the concept, hence, is limited by the expressiveness of the textual modality and constrained to the original output domain of the model. In contrast, we fine-tune the model in order to embed the subject within the output domain of the model, enabling the generation of novel images of the subject while preserving key visual features that form its identity.
https://arxiv.org/pdf/2208.12242.pdf
dreamboothのほうがおもろそうだが実用化してるのこれ? >>448
dreamboothは有志の再現実装が公開されてる
そのまま動かすとVRAMを38.5GB消費するためV100 32GBで動かす場合でもメモリ節約が必須 ダンボールタグをどう食わせるかが大変そうだなあ…
適当に食わせたら、なんか混ざりそうだし。最後にくっつけるのが良いのかな。
danbooruはわりといい絵が多いね
rule34とかから学習したらとんでもないことになりそう
霊夢いけても魔理沙は無理
サイト上の総数は大して変わらないのになんだこれ
学習してる東方キャラに偏りがあるな。比較的新しい作品のキャラも出てこない。どういう拾い方してるのかよくわからんが、作者の趣味といえばそれまでか。
>>448
フル学習じゃない2次調整系は全部fine tuningぞ(大枠)
ジャンル分けするなら
・TI, dreamboothは出口辺りに干渉するバイパスとか追加する系の差分学習(既存を変更せずに追加)
⇒modだとかmoduleだとかmodificationだとか呼ばれることがある、まだ新しい領域
⇒GPTだとmoduleで確定
・とりんさまとかWifuとかは既存の置き換えする追加学習
⇒こっちが単にfine tuningだとかadd trainとかなんか色々呼ばれる
ITとかの差分学習はmodとか呼べばいいんじゃないかしら(提案) automatic1111版の今日の更新で
クリップボードからCtrl+Vでimg2imgに画像貼り付けられるようになった
>>462
ちょw
7.17Gて
昔のやつではないの? 誤用ではないか、まあまぎらわしいことには変わりない
dreamboothは70万くらいのグラボのA6000で動くらしい
良心的だー
うげっSSDとんだ…良さげな呪文も作った絵も全部消えた…
特にローカルでやるときはPC酷使するので皆さんバックアップはちゃんとしておきましょう
>>462
サンクス。announcementsにあったのね、見逃してた image2image使うと、ポーズはほんとスパッと決まるな。あとはガチャなのはしゃーないが。
>>465
SSDが飛んだのはAIの酷使関係ないと思うけど 全くえっちな画像生成を目的としてない真面目なプロンプトの時に乳首が突然出てくる時がある
ラッキースケベみたいな気分
もしくはチリメンモンスターが出てきた気分
2次回してると、たまに師匠の亡霊が主人公見守ってるみたいなの出るよw
たぶん、人が二人になる亜種だと思うけど。
image2imageの下絵同じの使ってるからだと思う。
試験なんで、拾ってきた下絵つっこんだから。
アウトペインティングっぽい補完で面白いなあ。
半年ぐらい経てばいろんな技術が出てきそう。
ディスクはともかくグラボの寿命は間違いなく縮まってそう
マイニング並とはいかないまでも、結構いろんなとこの寿命は縮めそうだからローカルでやるのはやっぱ腰が引ける。
Colabに1000円ぐらいお布施する方が精神的にはラクだわ。回してる間はサブで確認しつつゲーム出来るし。
MidjourneyやDALL-E2で、ゲーム用アセット作るのって中々現実的ではないよね
コンセプトアートみたいなののスケッチはかなり助かるけど、コンセプトアートすら実際にはイメージ通りの構図ではないしね
言葉だけじゃなくて今後は全体のラフスケッチを渡したうえで言葉で指示するようになるのかも
>>474
人物画だと分割した肌色の部分から顔がニョキって生えてきそうだけど
そこら辺は大丈夫なのかな >>474
綺麗に大きく出来てるねえ
でも分割してimg2imgした後、結合で境界線がおかしくならずに結合できる仕組みが分からないな
なんでうまくいくんだろう AI生成の泣き所はやっぱり統一感を出すのがキツいってとこだと思うわ。
ここが解決しないと、テクスチャとかプローシジャルの種とか部分の自動化にしか持ってけないと思う
>>474
拡大画像のつなぎ目、マジで分からん。
すごいな、これ。 >>481
そもそも人間でも言葉で絵を書いてもらった場合、似た絵にするのは難しいんだよね
商用でまともに使うなら言葉じゃなくイメージベースのガイダンスが主流になりそうな気がする。
「もっとシャープなイメージで」「このキャラを座らせる」「目をもう少しツリ目に」とか、既存のイメージ+修正ガイダンスの技術がいるけど、既にそういうのあったりするのかな >>474は1111版のSD upscaleで同じことできる 手が6本とか阿修羅モードとか解決できたら神ツールだな
結局拡散モデルだけだと厳しくて「頭が1つで,腕は2本」みたいな知識が必要ってことなんだろうな
>>487
そういうフォルムの特徴を学習してるはずなんだけどね
バリエーションで変わっていいもの(ポーズ、細かい質感)と絶対変わらないもの(骨格、筋肉の構造)の区別が上手くいってないというか後者の学習不足なのかな とりあえず人を1人描けって言われたらボーンを置いてそれに肉付けしていくみたいな方向性じゃ無いから、なかなか難しいんだろうね。
>>481
自分もそう思う
結局人間とAIとの間のコミュニケーションが問題になってくるよね waifuがドン引きするぐらい二次のクオリティ上がっててビビった。教えてくれた人ありがとう
公式1.4で練りに練って何十枚かに1枚は、セミ商業レベルの顔を作ってくれる呪文で
waifuだと2枚に1枚くらいは普通にフォロワー4桁絵師クラスの顔絵を吐いてくれるわ
>>490
AIにイラストの仕事させるのってゴリラに野球やらせるような感じだと思い始めてる
スピードもパワーも凄いんだけどちゃんとルール覚えて器用に動けるかというと…みたいな >>491
出始めの頃ちょろっと見に行って「こんなもんか」って印象でそれ以降見向きもしなかったけど
SDに触る前に紹介記事見つけて久しぶりにやったら、見違えるような物お出ししてきて驚いたね俺は 生えてないのに生やしたり生えてるのにつるつるだったり
Mj のtestpで人物全体像作ると逆光ばかりになる
>>415
mainブランチは更新されてないけど、devブランチのやつは治ってるね。
コミットid 67b6196 を動かしたらエラー吐かずにimg2img動いた 関係ないけど、毎回「とりんさま」を「とりさんま」と空目してしまう……
>>498
すげぇ...
twitterにあげた時の反応が楽しみだわ >>428
これのExample Codeでちゃんと動いている人いる?
出てくる画像が全部ぼやけててうまくできてる気がしないのだが…
hlkyのwebuiで既存モデルを>>462のcpktに置き換えたやったやつはうまくできてる
モデル変えて試してみた 呪文とシードその他設定は同じ
Textual Inversionのサンプルファイル(Usada Pekoraのやつ)
上から1.4、1.4+tx、trinsama、trinsama+tx、waifu、waifu+tx >>446
これ確認してみたけど半角スペースを_に置き換えただけで()とかはそのままぽい アプデ速度が半端ねーな
やっぱ、複数出たから影響されあってんのかな
waifuモデルは既存キャラ指定するとかなりの強度で顔のアップに張り付くな
512x512に切り出す時に顔のアップになるようにしてそれを使ってるんだろうか
オリジナルで使えてた上半身入れたりするプロンプトはほとんど使えないし、danbooruになるcowboy shotっていう構図指定も効かない
waifuは顔のアップで学習してるんだと思うよ
正方形を超えると、なんか顔が伸びたりする癖があるし
構図が決まってるんならimg2imgで大解像度にした方がいいと思う
3Dはモデル作るのはそれなりに苦労するけど、作ったモデルを好きにアレコレするのは結構簡単。
SDはボタンポチであっという間に色々作れるけど、出来たものをアレコレするのはほぼ不可能。
お互いに補完できればなあ。
>>512
べつに不可能じゃないよ
フォトバッシュとか学んで まだ環境構築できてない初心者なんですが質問させてください
Minicondaのインストール自体は完了しているんですがwebui.cmdをクリックするとこんなエラーが出ます
たしかに該当のパスにそのファイルは無いんですが何か作成する必要があるんでしょうか…?
>>514
1111さんの版のリドミの手動導入手順でやった方が環境cmdの謎エラー追うより簡単だと思う
とりんさま2にグラドル画像でTIしたやつやったら水着の二次絵になったから色々遊べそう フォトバッシュの記事読んでみたけどこんなんpix2pixとdreambooth搭載したAIがやるべき作業でしょ
>>514
エラーじゃない、ただのメッセージ
「custom-conda-path.txtが見つかりません」
「anaconda3/miniconda3はC:\ほにゃらら で検出されました」
通常とは違う場所にcondaをインストールした場合は
webui.cmdを起動する前に指定する必要がある
そうでなければ気にする必要はない >>517
SD自体はできるだろ
あれやこのフォーク動かないってのはあるだろうけど >>515
回答ありがとうございます
テンプレのものを参考にやってみたんですがこうなりました…
pythonのバージョンもちゃんと合わせたはずなんですが
>>518
通常とは違う場所というのが分からないですねすいません…
インストール時に特にいじってはないんですが >>520
だから>>514はエラーでもなんでもないよ
「このファイルは存在しないので(1行目) ここのミニコンダを使う(2行目)」程度の意味合い
webui.cmd起動して放置していれば
そのうちインストールが終わってサーバーが起動するはず
サーバーが起動したら「localhost:7860」みたいなメッセージ出るから
ブラウザでそこにアクセス >>520
なんでpython2使ってるの?
conda
わからんならpython2は消せ >>520
変なところで書き込んじゃった
conda使ってるのかどうかしらないけど、python3にパス通ってないから動いてないのでパス通せばいい
わからんなら今時python2なんて使わないから消して入れなおせ AUTOMATIC1111/stable-diffusion-webui
>install Python 3.10.6 and check "Add Python to PATH" during installation. You must install this exact version.
>install git
>place into webui directory, next to .model.ckptwebui.bat
>(optional) place into webui directory, next to .GFPGANv1.3.pthwebui.bat
>run from Windows Explorer. Run it as normal user, not as administrator.webui.bat
・Python 3.10.6を「Add Python to PATH」にチェックを入れてインストールする。
・git をインストールする。
・「model.ckpt」「webui.bat」をstable-diffusion-webuiディレクトリに置きます。
・「webui.bat」をエクスプローラから実行します。管理者ではなく、通常のユーザーで実行してください。
一行目でチェック入れてない感じか?
python2w
3と打ち間違えたんだろうな
conda env create -f environment.yaml
な感じでできるだけ自動でインストールさせるのがいい
waifu-diffusionのダウンロードすげー時間かかるな
だれか~
ローカルを連続で回すバッチファイルおくれ~
外出中10分に1枚つくっててほし~
>>528
意味がよくわからない・・10分の外出中に1枚なら起動して出ればいいし
1枚/10分って間隔で回すってこと?
よくわからないけど、autohotkeyあたりで大抵できる waifu-diffusionやべぇな、簡単にいい絵が出てくるぞ
このペースじゃ年内にイラストレーターとかマジで終わりだろ
>>529
そそ
外出中、10分間隔で1枚生成くらいのバッチほし~
今その指定座標をクリックしてくれるアプリ使ってるけど、
もっと洗練された専用バッチあるかな~って~ Automatic11111でプロンプトを変えながら連続作成すればいいのでは
10分に1枚だけにしたいなら、後で削除したっていいんだし
10分に1回起動を含めてならbatで簡単に作れるけど毎回読み込み挟むからHDDがマッハ
コンソール版の方を本体改造が早い気がする
>>520
venvはPython3.3から標準で使えるようになった
スクショでは2.7なのでvenvが無いというエラーが出ている
3.10も入れたのなら2.7を消せば次は3.10が起動してくれると思う
>>531
10分に一度というのが重要なら指定座標クリックするアプリもそんなに悪くないと思った
アップデートの影響受けないし生成パラメータ変更も楽だし >>521
解説ブログのようなインストール進行中の画面にならないんですよね
>>523
1111のやつはPython要求しますよね…?
>>524
入れたんですよね…
あとでインストールし直し試してみます
>>525
それはどこで実行すれば良いんでしょうか?
>>534
なるほど古いのが残っていた…?んですね
消してみます waifu、呪文工夫したらフォロワー1万人レベルのエロ絵すら出てくるわ
ここまで進化してしまうとみんな絵を見ても何とも思わない時代来るな
正直容量カツカツとかじゃなきゃminicondaじゃなくてanacondaでよくない?ってなる
ミニの方が初心者向けみたいな語感だけど実際は逆じゃないか?
そもそもcondaの仮想環境がいらないんだけどね
どこになんのpython入れてどれ使ってるかわかってない人もいるしね
AUTOMATIC1111版はvenvで全部やってくれるのにcondaなんて入れるからわけわからんくなるんだ
3GBのモデルデータを毎回読み込み&展開しなきゃなんないのか
オンライン版は常時展開状態なんかな?
素直に学習画像の数を絞ってサイズを小さくしたほうが便利そう
AIニワカだけど、こんな感じで学習画像の量とモデルのサイズは別な気がする
言語・画像データ → (特徴を学習) → モデル(パラメータのウエイト)
>>462
これでようやくMJの--betaや--testに追いついたね、出力される顔の精度が全然違う
SD界隈が一気に盛り上がりそう SDモデルのemaの有無ってなんじゃろ?(wifeのema梨版の少し軽いやつをリクエストできる?)
>>545
Exponential Moving AverageでEMA
学習を再開する時に必要な、今までどういう経緯で各々のパラメーターが推移してきたかというもので推論時には関係無い
SDの一般配布版はこれが省かれている(=推論専用)のでサイズが小さいが、別に付いていたからといってVRAMを多く食うわけでもない waifu版すごいね
アニメ顔安定もいいけど
リアル顔指定してもよく出来た3DCGみたいになるのちょっと好き
簡単にckptモデル使い分けれるようにしておけば捗る
> Waifu-Diffusion v1-2: A SD 1.4 model finetuned on 56k Danbooru images for 5 epochs
たった56k画像を5epochなんだな
これだったらうちのGPUでもできそうだ。3年ぐらいかかるけどw
3090だったら1か月か2か月ってとこなのかな
AIりんな作ってるとこが日本語で学習させたモデルを公開するとか。
waifeそんなにいいのか
もう我慢できない
緑バグでる1600のグラボは捨てて新しいグラボ買うしかない
最低3600でいいのよね?
よりスペック高いグラボ買うと、CPUも新調しなくてはいけないしなぁ
waifu大体分かってきたわ
danbooruタグをプロンプトで使うならアンダーバーで単語間をちゃんとつなぐ
学習対象がかなり東方に偏っているため作風指定は東方のイラストをたくさん描いている人物ぐらいしか効かない
その他有名キャラは薄く入っているので作品タイトルでの概念指定は大型タイトルなら効く
東方であれば様々な作風のものが対象になっているため、特定のキャラを対象にしない汎用二次元モデルとしての性能は偏っている割に高い
イーサリウムのアップデートが今月らしいし、それきたらマイニングが完全に終わるだろ
来月あたりマイニング疲労したグラボが安く出回るだろうし、新品ももう一段階価格落ちると思う
>>554
元々のstable diffusionで有名漫画家の名前入れて作風を指定出来ていたからそれに追加になっただけだよね たった一ヶ月でここまで進歩するとはな
9月後半にRTX40XXシリーズ発表予定
RTX30XXは型落ち間近なのに当面は余剰在庫が解消できず
9月にかつてない規模の値下げ予定と台湾報道
円安で日本は多少相殺されるかもしれんけど
それを遥かに上回るレベルで下がりそうなので
来月あたり30XX在庫処分セールで買い時が来そう
>>557
それはそう
相変わらずgregさんとかも効く
たまに怪しくなるときがあるけど >>558
ここで乳首にモザイクかける必要あるか?
4chanじゃあるまいし >>558
肩が右上がりなのに乳は右下がり
こういう基本的なルールがAIに理解できる日が来るのか疑問なんだよな 試しにcensoredつけて生成したらチンコ生えてきた
そうじゃない。モザイクかけるだけでいいんだよ・・・
>>563
そこはクリーチャーしか貼ってはいけないネタスレなのでは? >>530
手が苦手なのは変わりないから
手だけ付け加える職人は盛況だろう
あと同じ顔を描くのが苦手だからソシャゲには向かない Waifuやっとつなげれた。
いいな、これ。
全然、顔が煮崩れない。これだけでも凄いわ。
>>553
オプションつけたら緑バグ回避できるけど、それじゃだめなのか? りんなSDモデル(日本語特化)もhaggingfaeにきた
Automatic1111版Colabのgradioってだれでもアクセスできるのな
俺のColabにエリザベス女王のプロンプトを勝手に送り付ける人がいる
>>568
オプションってなんのことですか?
no-halfはすでに試したんですけど、できても重すぎてとても厳しいのと
最新版にするたびに緑パグになるので自分では厳しかった >>570
******.gradio.appってヤツにアクセスする形式だろ?
あれインターネット上に丸裸だからなぁ
ランダムな数字ってだけだからスキャンすればすぐに入れる
launch()のところにオプションを追加するとパスワード認証かけられるんだけど >>573
パスワード挑戦してみるわ
アドレス変えてもすぐにプロンプト送りつけくる
おそらく全員に送りつけてる
******.gradio.appって5桁の数字だしセキュリティないようなもんだ 神話とかの架空の動物難しい
ケルベロスとか頭3つになってくれない
1111のExtraタブの意味が全く分からない・・誰か教えてくれ
GFPGAN VisibilityとCodeなんたらは顔修正の両者を混ぜる重みかと思ったけど
最初の一回以降、スライダーをいろいろ動かしても結果が一切変わらない
あと上のResizeのデフォ2で1-4まで0.05刻みなのに、正数以外だとintegerのエラーが出たり
Upscaler1と2とかも混ぜるのかと思ったら2しかVisibilityがなかったりチンプンカンプンだ
ユニコーンって付けるとちゃんと角だけ頭に生えるの発見してワロタ
>>575
そんなの自分でコラすればいいのに
AIにまるごと描かせようとする変な縛りプレイしてる人が多い >>576
GFPGANもCodeなんたらもリアル顔を修正する機能
絵の顔は無視される
webui.batを実行せず手動でインストールした場合は自分でGFPGANをダウンロードして配置する必要がある(CodeFormerはインストールも) Waifu やっぱ特性上、引きは弱いなー。ちょっと距離あると一気にキモくなる。まあ引きで書かれるイラストがほとんど無いからしゃーないが。
>>580
引きの絵を作る→顔の部分を正方形にトリミングして低Strength img2img→戻す
なんてのを考えたけどめんどくさいか >>579
ごめん、それは知ってるし一回目はたぶん使えてる感じ
スライダーを動かしてやり直しってタイミングで
extras-imagesフォルダに連番で出力されるpngが何も変わらないんだ waifu、低strengthのimg2imgなら引きでもそこそこ仕事してくれる印象
初手をtxtでやった場合のバストアップとか、それよりもっと引きが弱め
そしてwaifu のsmile タグの強さよ。ダンボールタグ突っ込むと最優先でシュバっとしてくる感じ。
twitterにdreamboothやってるぽい人居るな
MidjourneyってGTX1060でもいける?
>>587
学習先や条件を搾られてると作画は安定するけど
絵が量産型ぽくなるのはMidと似た欠点に思えるね
16XXの緑バグはいつになったら直るのか・・・(16XX民) バイアスかければ安定はするけど、味はファストフードみたいなもんでこれはまあ仕方ないのかなと。
今後はバリエーションを豊富にしつつ破綻を無くすって感じで進化が進むことを期待。
image2imageで構図を色々指定したら面白くなるかな? waifuってimage 2image走るのかな。
>>571
プロンプト設定あたりで
pipe.safety_checker = lambda images, **kwargs: (images, False)
GoogleアカウントBANされない程度に >>590
20xxからTensorコアを取っ払ってそれを補うために半精度浮動小数点の演算回路を継ぎ接ぎした間に合わせにも程がある設計なので
こいつで半精度浮動小数点を扱うのはCUDAの界隈では鬼門とされてるらしい
ドライバーが嘘を吐くとか性能が意図的に制限されてるとか Colabは最終出力をzippingしてローカルにダウンロード→ドライブから画像削除するスクリプト仕込んでもアカンのかね?
とりんさま、V2とは別にキャラ特化モデルもあるらしいけど、どこにあるんだろう。
画像ファイルにしないで、そのまま保存してダウンロードしてからエンコかけたらいいんじゃない?
動画って絵を何枚も描かせる方向より
ボーン抜いてデッサン人形動かしたやつに絵を載せる方向のほうが楽か?
txtの動き部分から動画学習してtxt2motion、見た目部分から絵学習してtxt2img
合わせてtxt2anime
ちょくちょく見かける とりんさまv2ってなんですか?
原作してもAIノベリストのしかでてこないけれど…
ノベリストのとりんさまアートって言うのは知ってたけどとりんさまモデルとかSDって単語が絡んでたりしたからStable Diffusionに関係してるのかなって思ってた…
Twitter見てもノベリスト関係しか出てこないです
>>576
これ分かった
スライダー変えてgenerateしてもひとつ前の同じ画像が生成されるだけで効かない
upscalerの種類を変えてからgenerateすると起動する
upscalerが決まってて変えないから、再起動しかなくて気づかなかった
値変えてるのに同じUpscalerで起動しないって挙動が無意味なので完全なバグ とりんさまモデル嫌いじゃないけどwaifuに流れ持ってかれたね
waifu VRAM30GBいるらしいけどローカルで動かしてる猛者いるの?
>>597
デッサン人形に同じ雰囲気で載せるのができたら最強だけど
プロンプト使ってSDに何枚も描かせるのが現実的じゃないかな
表情は学習データ多いから今でも作れる。ポーズもfinetuneですぐできるようになるんじゃないのかな
>>604
RTX3080 10GB
1111をwaifuのモデルに差し替えただけの状態で一応動いてる automatic1111版、最近起動オプション書くファイルが分離されて、
SD、WD、とりんさまの切り替えとかいい感じにできるようになった
>>593
一応、--precision fullオプションで回避できるみたいだけど
これ一部の機能を停止させて妥協してるって事なのかな?
cmdの立ち上げ箇所にでも追記すれば良いのだろうか・・・ GoogleColab版でフィルタ外して出力してるとbanの可能性出てくるって板で見たのですが、子供っぽいえち系が対象なのですか?
成人キャラのえち系もbanされる可能性ありますかね…?
GoogleでやってるとFBIが来そう(半ばマジ)
>>611
Google ColabというかGoogleドライブに不適切な画像を置くとバンされるかもって話じゃないかな
真偽は分からない。
実際には、かなりすごい画像(AI無関係。もちろん実在の人間ではない)をGoogleドライブで配布してる人も
いて特に問題になってないからそんなことあるのかな?という気もするけどね。 厳しいのは実在の人物だけじゃないのかな
そもそもメインで使ってるGoogleアカウントでやる必要はない >>613
遊び心で本垢も気にせず遊んでしまった
水着に下着で遊んでたけど、時々隠してないの出てきつつもロリじゃなかったし。
でもふたば覗いてたら垢ban報告少しあったりで心配になりました
アメリカって二次系なら殆どロリ判定してきそうだし…
それ用の垢作ろうかな BAN報告マジ?共有してなくてもそんなことあんのか?
Googleの俺ルールはあてにならないからな
colabはアカウント別にしてる
のでBANされても痛くも痒くもない
米国で病気の子供の症状を医者に見せるのにドライブ経由で共有したら
google先生に「児童ポルノうpしたな殺す」宣言された事例があったとか
自分の子供がプールで遊んでる画像を保存しててアウトになった例もある
1111がアップデートでマイナス言葉使えると聞いてインストールしたけど、
なんか形式が変わって省メモリ設定の方法変わった?…
>>619
webui-user.batに書くように変わったよ
直接書き換えてwebui-user.batを実行でもいいけど
>>609みたいにコピーして別名で置いておくと今後のバージョンアップで上書きされない >>620
ありがとうです
アップデート毎に書き換えなくて良くなったのですね
便利でありがたいです waifuプロンプト
1girl 女の子一人の意味 danbooruはこれ系がスタンダード化していて超強力 ~girl構文の代わりに使うのも良い 派生に2girl、1boy等々
standing ただ単に立たせて引きの絵が欲しい時の一択 超強力で副作用が少ないため足りなければガシガシ強さを上げられる
reference_sheet 設定資料の意 似たようなキャラが2、3人並ぶが解像度の関係で全員壊滅するので要テクニック 縦長の画像生成だと基本ポーズのキャラ一人が出てくる
sex 隠し味的に使うと色気が出るがプロンプトの他が弱いと容赦なく脱いで18禁に
navel へそ 露出していればへそが描かれて、フィットした着衣ならへそのラインが強調される
headgear SF系でよくある耳や頭のメカメカしい謎アンテナが付く
本家diffusers sdで縦1024にするとよく顔が上下に2体出来るんだけど、改善されてるフォークとかあるの?
アスペクト比1:2を越えるとトーテムポールになるのはMJでも同じなので、アスペクト比を3:4ぐらいに抑えるしかない気がする
1111の新機能マイナス言葉?って
単語の前にマイナス一個つける? マイナス2個?
それともマイナスではなくnoをつけるだけ?
noだけでも効いた感じするし−noでも効いた感じする
とにかく効いた感じする
>>622
1girlってwaifu専用やったんや
まあ現状だとwaifuしかもう使わんわって勢いで二次は優秀だから本家未対応でも構わんけども jspaneseやべえな。Japanese animeとかJapanese light novelとかでも容赦なく和服になって富士山が聳え立ち桜が咲く
waifu diffusionモデルで有効なのは基本的にDanbooruのタグ
japanese油断すると街並みが木造長屋とかになるから使いどころ難しい
ちゃんとjapaneseの弊害を打ち消す言葉を入れられないシチュでは害の方が大きい
>>604
3060ti vlam8gbでうごいてるよー
作業内容はテンプレにある手順からモデルをwaifuに差し替えるだけでいけた
アニメ系強くていい感じ
>>625
--show-negative-prompt オプション付きで起動するとNegative promptって入力欄が増えるよ この種のAI画像作成サービスで見事なものを作る(出力させる)人を「魔術師」と呼ぶ、っていうのを今日知った。
言い得て妙だ。
>>633
それ必要だったのねww
全然効いてないのに効いてると思ってたのアホすぎて恥ずかしい hlkyのスライダーとかの値覚えてるwebui.yamlみたいなのって1111にもあるのかな?
>>637
ui-config.jsonがそうだね
最大値も変えれるから例えば生成最大16枚が少ない時は9行目で変更できたりする >>534
結局この古いバージョンを消したら解決しました!
皆さんありがとうございました! >>638
ありがとう!
ってかバッチ16枚も少ないなぁってずっと思ってた、まじ感謝です 今見てたらcfgのstepも0.5より細かくできるのか
一つの当たりの前後を捜索したい時があるのでこれも嬉しい
waifuのimg2img強力だな
いい感じの画風のプロンプト入れておくだけでどんな写真も二次元にできる
Dockerメモ
○Docker on windows Stable Diffusionインストール手順
・WSL2をインストールする
・docker desktopをインストールする
・git clone https://github.com/sd-webui/stable-diffusion-webui.git
・.env_docker.example をリネームして、.env_dockerにする
・docker compose up
後はモデルのダウンロード含め全てやってくれます。(時間はかかる)
★cuda用ドライバが必要とある記事がありますが、不要でした。
おそらく現時点ではcudaドライバも通常のドライバに同梱されている?(一応、studio driverでした)
★Windows10でWSL2は、Inside Previewが必要とある記事がありますが、現時点版で問題ありません。
○性能: 何度かやり直しましたが、なぜかDockerの方が1割ほど高速でした。謎・・・
・1080Ti、2022/9/9 22:00〜23:00頃版のhttps://github.com/sd-webui/stable-diffusion-webui
・プロンプト:girl seed:3107511606 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a
■直接起動: 19.94秒 (2.63 it/s) 2.62-2.63 it/s
Took 19.94s total (19.94s per image) Peak memory usage: 6528 MiB / 11264 MiB / 57.953%
50/50 [00:19<00:00, 2.63it/s]
■Docker起動: 17.81秒 (2.95 it/s) 2.80 - 2.96 it/s
50/50 [00:16<00:00, 2.95it/s]
Took 17.81s total (17.81s per image) Peak memory usage: 6611 MiB / 11264 MiB / 58.686% waifuのCFG scaleを5に下げたらめちゃくちゃ可愛くなった
俺のprompt要らないじゃん
まじで!?
公式だとCFG下げるとぼんやりした画像になるだけだから、上げるのデフォに考えてたわ
CFG上げると融通効かなくなって、SSR出ない代わりにSR率が上がり、CFG下げるとwaifuに丸投げ度高くなるのでSSR出るけどNも出まくる印象。
ちょっと違うけどMJの--sの逆みたいな感じだね、プロンプトに縛られない
小さいと大抵意味不明な画像になるんだけど、waifuなのも関係してるのかな
公式パイプラインのdiffuserに対応したGUI付きのやつってないのかしら
バストアップではなく体も入れたい時は
ある程度画像サイズ大きくしないとあからさまにクオリティ落ちるな
512x512で学習してるから
引きの絵としてAIが感じる顔はまあまあショボいしな
talking-head-anime-3みたいなのあるからもう開発されてそうだけど
表情までガチャ引くより他のアプリ使って手作業したほうが早そう
表情以外も多少なら変わっていいならimg2imgで十分いける
顔部分以外許容できないってならimg2imgしてからフォトショで顔切り出して元画像に貼り付けかな
hlky版エラーで動かんな
issueにも載ってるけど
>>576
CodeFormerは
強⇔弱
0⇔1
だけど間違って1にしてない?
>>579
人物写真風画像以外で使うと顔だけ作風が変わって変になると思うけど ひゃっほう、AUTOMATIC1111版インストールしたsingularity image作って、WSL2のsingularityで動いたぜ!
3060も--medvram付けないとエラーになるのね……。
アウトペインティングを1111で試したけど、こいつとか
なぜわざわざこんな棚背景でやってるか実際使ったらすぐわかったw
ある種の誇大広告だね 「anime girl」でアニメっぽい女の子が出てくるのはanimeとgirlの意味を合成しているわけでは無く「anime girl」で一つの単語として扱っている
これは長文であっても同じで連想配列から引いているようなもの
配列がめちゃくちゃ巨大だから人の目にはテーブルで引いているように見えないだけ
なのでテーブルにある文章ならいい感じの絵が出るがテーブルにないとそれっぽいコラ画像で誤魔化すことになる
まあnewとyorkを合成してもニューヨークにはならないので熟語を一つの単語として扱うのは仕方のないことなのだが
個人的にはないならないでエラー出して欲しい
使い切ったので追加で10$払ったけどmeters usage って何?
>>659
midjourneyでは、
a beautiful anime girl
でも
a beautiful anime lady
でもアニメ調の女性の絵が出て来たよ。
midjourneyではgirl、lady、womanのどれが良いか試すのよくやる。 >>661
そうそう
girl、lady、woman、sister、全部テーブルの違うカラムを参照している
他にもgirl in tokyoとgirl in ney yorkも全く違うものを指しているため人種から服装まで違うものが出力される 単語のテーブルなんて無いよ
あるのはそういう出力がでる重みをもった学習済みネットワークだけだ
>>611
AIがまずそうな画像を削除する
されたら自重すればまあ krita plugin導入したけどkrita自体が使い辛すぎてつれえ
どっかに重みづけで数学用語ぶち込んだりすると、いい仕事してくれる気がする。
Kritaはねぇ・・一応SAIにとって代わろうとしたソフトなんだけど
起動の遅さも辛い、何やったらそんな時間かかるんだレベル、今立ち上げたら1分45秒掛かった
さすがに落として2回目は15秒で起動してきたが
1111のローカル版でも同じ様なプロンプトを使い続けてると過去の生成イメージを引きずってる気がするけど勘違いかな?
プロンプトから外した要素なのにキャッシュを再利用されてる感じでその後の生成でも加えられ続けてるような
hlkyのcolab版でも同じような現象があって、それは高速生成の為に実際行われてたっぽいけど
ただの勘違いだろうか
それはあると思う。colabでもpromt変えて最初の数枚は前のpromtと干渉したような結果が返ってくる時がある
GPTにしろなんにしろこの手のtransformer発展のやつは前回結果と全く同じ単語含んでるとキャッシュしてるのでその手のゴーストみたいな現象稀に起きる
やっぱりある感じ?…
そういうキャッシュというかログみたいなの消すボタンないかな…キャッシュフォルダ削除みたいな…
もう一回.datから新しいローカルに立ち上げてみるか…
seedがあるんだから直前や少し前のプロンプトに結果がつられてるってのは理屈的におかしくね?
seedが結果から逆算されるものでもなし
>>671
> GPTにしろなんにしろこの手のtransformer発展のやつは前回結果と全く同じ単語含んでるとキャッシュしてる
かなり重症のキチガイだな >>662
midjourney弄っていれば分かるけれど、流れて来る他のユーザーの生成画像の10分の1ぐらいは面白いイメージの合成にチャレンジしている。
an ancient chinese goblin toy
と入れると陶器で作られたゴブリンの像の写真みたいなのが生成される
それを
steam-powerd ancient chinese goblin toy
とかすると角みたいなのから蒸気出していたり鍋のようなの持っていたりする
こういうの全部テーブルとパクり元画像を用意出来ないでしょう >>676
検索して笑ったw
難しい言葉知ってるなぁ キャッシュに引っ張られる、とか「テーブル」とかマジで病院行った方がいいよ
本気で頭が狂ってる
(汚い言葉のルーパチ君は無視で)
AIに
①おっぱいばかり作らせてる人が、次におっさんプロンプトで描かせた、オッサン絵seed12345、「乳首があるから影響受けてね?」
②お○んこばかり作らせてる人が、①のプロンプトとseedを聞いて全く同じオッサン絵が出てきた、「え?お○んこないじゃん?」
「seed固定したら当たり前だろ?固定しなかったらちゃんとお○んこに寄る別seedになるよ」
じゃ、②のAIに蓄積されたお○んこテレゴニーを、②のAIが
「おっさんプロンプト&seed12345の生成結果にお○んこがないからseed12345は避けよう」
ってアカシックレコードから逆算察知するアルゴリズムが働くの?
AI DungeonとかAIのべりすとでも似たような話(消したはずの過去のデータに引っ張られる)あったけど結局原因になりそうな仕組みとか根拠になるデータは出てないんじゃなかったっけ
プロンプトと関係ない画像が出るのはよくあることだけど前と似たような画像が偶然出てきた時だけ記憶に残るってだけじゃない?
テーブルとかただのコラージュ(寄せ集め)だとかの疑念を持ってたら、それじゃ出来ないハズの実験をしてその結果から確からしさを確認してから断言しないと
テーブルマンの人言いたかったのはトークンの事ででしょ
ただトークンリスト上になくても似た単語や文字列から引っ張ってこれる可能性あるから認識しないってことは無いだろうけど
まじで引っ張られるならそのキャッシュが無い環境で同一シード同一プロンプト同一以下略でやった結果が異なることを見せてほしい
そしたら俺らの大半はテレゴニーが起きてるのを信じるよ、多分
少なくとも俺は信じるよ
実験とかする必要なんかないよ・・・
頭のおかしい妄想の相手したってそれ親切じゃないから
>>687
信じるとか信じないとかって話じゃないでしょ
「キャッシュ」ってなんだよw >>684
稀によく起きるってやつ(AIDでも体感1000個プロンプト開始して1回以下、でも起きると連発する)だし実害ないから誰も検証してないぽい
まあそう言う現象があるかもしれない程度の都市伝説ぐらいの感覚でいいと思う >>689
言葉の意味わからんなら素直にそう聞きなさいな >>691
あんたの脳内にはなにかあるんだろうが、Stable DiffusionでもMidjoruenyの話ではない。
あんたの妄想の話だからスレチだよ
別スレでやってくれ 1111版ならあり得るぞ
txt2imgもimg2imgも全部同じ処理だからな
ここにいる皆で検証可能だぞ
皆で同じプロンプト、パラメーターで生成しよう
AIのべりすとの「≡」とかもそうだけどよくわかってないのに断言する人が出て広まっちゃっても面倒くさいし検証できるならした方が良いと思う
同一プロンプト同一seed(最大桁数知らんけど有限)が
同環境なら誰がやっても必ず同じものになる世界でしょ?
プロンプト蓄積がメモリ管理の都合で結果に影響を及ぼすってんなら
seedを鯖で一括管理して、蓄積の影響を受けたローカルAIの「結果」に割り振るseedを決めつつ
蓄積のないAIは影響されてない場合のseedを割り振るみたいな仕組みが必要になっちゃう
まぁ、ないでしょう
seedの概念が完全に本末転倒だ、乱数の起点の種ってだけなのに
>>692
MJやSDの根幹技術のCLIPやそれぞれ入口でword認識に使ってるTokenizerはBEATだったりと
関連技術の話だしAIに美味いことどう単語食わせるかって話だからスレチでないぞ
ただ長々続ける話題でもないが テーブル
キャッシュ
都市伝説
1000回に1回以下
AI界の稲川淳二かな?
>>698
そういう実在する単語を混ぜながら狂ったことを言い続けるので、本物のキチガイだといってるんですよ
単に無知なだけじゃなく病気です >>700
cashはVRAM上にモデルデータ本体と余力あれば効率化の為にベクトルのリスト駐留させたりで存在しない訳じゃないぞ 現在GoogleColab派なのですがwaifu-diffusionもSD同様にローカルだとオフラインで動かせるんですか?
1111版は毎回txt2imgとimg2imgのインスタンス作って初期化しているから画像が残ってるようには見えなかった
もしキャッシュがあるならStablediffuionのモデル自体にあるかもね
>>703
emaなし版(8GBくらいあるでかいオリジナルの方)でローカルで動くことは確認した
自環境はメモリ16GBしかないので読み込みと展開完了するまでPCフリーズしたような状態になったけど >>703
動く。
ついでに NMKD StableDiffusionGui が、ver.1.31でアプリ内でのモデル選択に対応した オープンソースなんだから仕組みや挙動がおかしいって言うならソースコードから該当する部分引用すればいいだけ
自分の動かしてるプログラムが何やってるかわかってなさそうな人に付き合う必要は無い
>>705
これ間違えた、emaあり版の方だとクソ重かったとと読み変えてくだち
emaなし版本当に軽いか確認してくる >>0705
ありがとうございます
ちなみにwaifu-diffusionをローカルで動かすために必要なデータでダウンロードが必要なものって、sd-v1-2-full-ema.ckptの他にも何かありますか?
>>709
ckptファイル形式のやつはそれだけでおk 公式で1.5が配布されたらまたファインチューニングしてWAIFU版作ってくれるんだろうか?
>>0710
もしかしてckptファイル形式以外でダウンロード必要なデータもあるのでしょうか?
ID:bde4crvL
>>1
> テンプレまとめ
> https://rentry.co/zqr4r
「ローカル環境構築手順」に丁寧に書いてあるから読んでくるんだ
とりあえず動かせた後にckptだけ入れ替えればOK
マンガン電池をアルカリ電池に変えるみたいなもの >>715
あの~完全に間違っている気がするんですが。。。 > Waifu版はSD1.2ベースだから(震え声)
ID:kC0V19v4 さんすげーな
>>712
cpktを動かすために必要なものと言う意味なら>>714の補足通りテンプレ見るのが1番
ここだと1111版が推奨されてるぽい? テーブル
キャッシュ
都市伝説
1000回に1回以下
Waifu版はSD1.2ベース
モデルにckpt形式と公式ファイル形式がある
すご・・・・w
birs's-eye入れるとちゃんと見下ろしてくれるけど、たまに鳥さんそのものが映り込むw
くっそw
>>721
angleまで入れたら?あんま試してないけどそれで鳥目までは出た記憶ない だってバーズアイで絶対俯瞰視点画像が出てくるようにしちゃうと逆に鳥の目のアップの写真が欲しい時に困っちゃうからね
>>717
Waifu版公式デスコで1.2ベースって作者言ってた > ここだと1111版が推奨されてるぽい?
ずっとhlkyだったけど乗り換えたよ
痒いところに手が届くし、settingsは一か所にまとまってるしカスタマイズ性も高くて使う側のことめっちゃ考えてくれてる
hlkyは意味不明なUIに加えverupのたびに色んな配置をコロコロ入れ替えてくるので混乱してイライラする
>>0714
ありがとうございます、もう一度読み返してみます
>>0715
ckptファイル形式のやつを調べてみようと思います
>>0781
その1111版も確認します
みなさんありがとうございました
>>724
https://huggingface.co/hakurei/waifu-diffusion
Model Description
The model originally used for fine-tuning is Stable Diffusion V1-4,
which is a latent image diffusion model trained on LAION2B-en.
The current model has been fine-tuned with a learning rate of 5.0e-6 for
4 epochs on 56k Danbooru text-image pairs which all have an aesthetic rating greater than 6.0. ①「standing, only man」でseed1~8まで8枚生成
②「standing, only girl」でseed1~4まで4枚生成
③colabの接続を解除してもう一度「standing, only girl」でseed1~4まで4枚生成
いまいちどういう状況を指してるか分からないから自信ないけど検証はこれで良いんですかね? >>729
sd1.4をベースにしたwaifu独自バージョン1.2 ID:kC0V19v4
ID:7PpU3pyP
このスレからバン出来ないのかな?
>>690で1/1000と言ってるしそれぐらいやらないと
証明されたともされてないとも言えないな 生成順に絵を並べても特に前の絵に引っ張られてる感じはしないなぁ
hlkyは1111からフォークしたクセになぜが自分がオリジナルみたいな顔してるのが気持ち悪い
1111とかのローカル版ってアプデとかで新しいバージョンが出たときってアンインストール→再インストールしないと駄目だよね?
>>663
あーとりあえず、10ドル分の追加料金払ったらそこまでしか使えないってことね… >>736
解凍してstable-diffusion-webui-masterに上書きでぶち込むだけで動くよ
もちコマンドプロンプトは落としてwebui.bat再起動からブラウザ再読み込みね(当たり前)
自分で設定したui-config.jsonだけはよけとくけど >>737
何言ってるのかわからんけど、いわゆる従量課金になる
> 10ドル分の追加料金払ったらそこまでしか使えない
「そこまで」なんてどこにもないし、料金は後払い
$10のサブスク使い切った→従量課金に勝手に移行して無限に使える(ただし単位価格は3割増し)
勝手に従量制に移行するのが危ないと判断したようで
警告を出すタイミングを選ばせてくるって話ね、「$5使ったぞーいいのか?」「$10使ったぞー?」って git cloneしてたらgit pullするだけでいいんじゃない?
調べたらwaifu版はSD1.4ベースだったわ
これに関してはうそ情報スマン
あとSDの配布されてるモデル形式が現行2種類あるのは本当だからね
ここだとckpt形式の方しかほぼ話題にならないから混乱の元にはならないとは思うが
すげえ……
けど、どこまでユーザーのワガママを反映してくれるんだろうか。
Twitterでホラー漫画描いてた奴GoogleからBANされてるな
広告用の映像を間に受けないほうがいい
チェリーピック素材どころかAI使ってない素材の可能性もある
>>741
2種類も嘘
公式配布モデルではSD1.4以外使われてなけど公式でも4種類かな配布されてる
1.4に表現規制あるっていうのも嘘
ckpt形式の方しかほぼ話題にならないってのは何言ってるのか分からないけどどうせそれも違うんだろ >>742
デモは紛らわしいけど、あくまで編集メインなんじゃないかな。生成ではなく
ただのテキストコマンド入力みたいなもんかも?
>>745
完全にフェイクの可能性もあるのかw
AIでフェイク、だけじゃなくフェイクAIも・・・ 。難しい世の中になるねえw wd-v1-2-full-ema.ckptの容量はどのくらいなのでしょうか?
7.17GBか、それとも7.2GB
とりあえずダウンロード始めたら後者になりました…ですがこの掲示板を遡ると7.17GBというレスもある…
最新版が更新されたのでしょうか?
マイクロソフトだかがディープフェイク判定AI作ったみたいなニュースあったけど
転売屋と転売対策みたいに無限にイタチごっこになる時代が来るんかね
怒られない範囲で悪用したい人間としては簡単にエロ画像エロ動画作れるAIバリバリ出てきて欲しいけど
雰囲気悪くなるしSMIYc4tcも黙った方がいいんじゃないか
SDの動画版と音声も年内に来るんだっけ?
音声は英語基準だろうし日本語とか出来なさそうだからあまり期待してないけど
>>754
容量を気にしたのはバージョンが気になったからです
もしかして、ややこしいですが「元の PyTorch モデルのダウンロード リンク」からDLできるものが最新版だったりするのですか? >>756
>>546
ということらしいので自分でなにか学習させるつもりがないなら
同じVerの画像生成専用に使える軽いやつがおすすめされる >>755
> 雰囲気悪くなるしSMIYc4tcも黙った方がいいんじゃないか
馬鹿なことを書いてるのをスルーすると本気に取る人も出てくるからちゃんと指摘したほうがいいと思う
この2人(1人?)はちょっと度が過ぎてるしね
ID:kC0V19v4
ID:7PpU3pyP
StableAIのaudioは、具体的にはなんだろうね
このkoe.aiとかは英語のサービスだけど、日本語でも割りといけたりする。
https://koe.ai/recast/ 別にSD製の画像で直接商売する必要はないんだよね
例えばイラストレーターを育てる育成シミュレーションゲームを作る際にSDを使うことができる
>>757
ちょっと面白そうですがおとなしく軽い方をしようかと思います
ありがとうございました ID:7PpU3pyPはともかくID:kC0V19v4は軽い版Waifu情報持ってきたりしてるし嘘言ってない気がする
いや煽り煽られは2chの華だぞ言われたらその通りなのでどうぞどうぞするしかないが
>>761
CogVideoちょっとだけ見たけど、キーフレームを生成して、補完してるのね
動画以前の問題として、ポーズ違いのキーフレームが生成できる時点でめっちゃ凄いと思った 言葉に複数の意味があるから、その辺考えないと破綻しやすいなやっぱし。
例えば修道女なんかだと教会にいるのが当たり前だから、さらに教会の中でとか指定すると変な感じになりやすい。
けど森の中でとかすると割と普通。
同じように騎士とか侍とかだと男前提の言葉だから、ヒョイっとseedによっては騎士の少女とか書いても男が出てくる。
だから、◯◯を着たみたいなコスプレで考えるとそう言う紛れは無くなる気がする。
まだ微妙な場合も多いけどエロ画像作り放題の時代が来たし
エロ動画作り放題の未来も見えててまだまだ人類は捨てたものじゃないということか
例えば10万円欲しいときにGoogleで「10万円」と検索しないよね
バイトとか求人とか宝くじとか
画像生成も同じ。裸の女の子が欲しいからプロンプトに「裸」と入れるのはただのアホ
>>766
ckptじゃないやつの方から行けるの? >>767
「裸である状況」を入れるというか教える的な?
この例えで良いかよう分からんけど >>762
むしろそっちの方が嘘ばっかだろ
何だよキャッシュって SDはいくつか英語以外の言語も認識してるんだっけ?
ふとnude以外に裸と裸的な他の言語の同じ意味の単語混ぜて補足強化できたりしないかなと思った
まあそんなことするより1111版なら()でくくばいいか
>>656
> 0⇔1
> だけど間違って1にしてない?
そういう話じゃなく>>602ね、なお最新版で修正されてたよ
> fix aggressive caching for extras tab
これかな? >>771
「アニメ」と入れてみれば分かると思うぞ
ただ語彙は激貧なのであまり使えない 裸はnaked、いろんな服見たいときはsexy styleで使い分けてるな
着エロは?着エロはどんな指定すればいいですか先生!!??
オリジナル版とかはねんどろいどの写真がうまい具合にできてたから
世界が丸ごと二次元に寄ったせいでねんどろいどがSDキャラになっちまったんだな
多分、AIで崩れやすい目とか口とか手足の情報がねんどろいだとねんどろいどというだけで強烈にバイアスかかるからスパッと決まっちゃうんだろうな……
SDもCraiyon並に日本の実在人物フォローして欲しい
v1.5はそこら辺期待できるかな
SDは学習元に露骨に近い絵は出さないようにしてるだけじゃないの
サンプルが多い作品はかなり本物に近づくからわざと版権外してるってことはないし
そもそもそんなの不可能でしょ
学習しきれてない画家の名前入れると本物とは全然違うのに統一された作風になるのは恐ろしいというか紛らわしい
例えばby Noriyoshi Ohraiって入れると美人画が出てくるんだけど生頼範義の描いた人物画には似ても似つかないとか
その辺MJは所謂デフォキャラが出てくるから分かりやすいんだよな
新海誠もこの短期間でどれだけの数の画風のものを描かされたことか
中世の宗教画とかの人の名前入れるとそれっぽい感じのは出るんだけどなんか違うぞって
そういう時は出力と画像検索結果をにらめっこして決めてる
ヤバイもっと使い方覚えたい
グロじゃなければ生成させ続けるの糞楽しいわw
>>785
思い付いたキーワードをgoogle検索して、検索で出て来た画像を見てAIに通じそうかどうか検討するのやるね >>788
学習元のデーターセットのLAIONを検索出来るのか。知らなかった >>788
めっちゃいいじゃんワイも知らんかった…… waifuでエロワード入れつつ1111のマイナス検索で局部が出ないようにキーワード指定したらクオリティが謎に安定した
例
使ったプロンプト設定
>>791
マイナス検索ってどうやってやるんですか? >>792
正しくはマイナス言葉か
webuiのバッチファイル開いてckpt指定して--show-nagative-promptって加えるとマイナス言葉入れる項目ができるよ
詳しくは>>609が参考になるかも >>793
なっなるほど…
安価先のテキスト通りのbatファイル作ればなんとかなる感じですかね?
コマンドには疎くて… 綾波レイと言うより荒波ロヰて感じ
顔補正機能切った方がいい場合もあるから実写は難しね
waifuってもしかしてimg2imgできない?
できてる人います?
まだ試してないけど、deffusersのバージョン上げたら多分いける。
誰かAUTOMATIC1111版のSDアップスケールの使い方を教えてくれない?
元画像を何枚かの画像に分割してからそれぞれ変換して再結合みたいなイメージだと思うんだけどimg2imgのページでSD upscaleを選んで生成しても普通のi2iと同じような動作しかしてない気がする
分割から手動でやるの?
アニメキャラはcraiyonでいいでしょ
キャラ名 in comic marketでクオリティ揃う
もしくは作品名 girls
>>793
エラー出たじゃねーか!
×--show-nagative-prompt
○--show-negative-prompt
webui-user.batで起動するようにして、中を
set COMMANDLINE_ARGS=--show-negative-prompt
ね、>>609は使い分けたい人が起動バッチを2種用意してる例、ckptは標準のmodel.ckptだったら指定不要
教えてくれてありがとう Craiyonが綺麗なのは顔から上半身までで
そっからカメラ遠のいたら渦巻き顔のクリーチャーとかになるぞ
>>800
sd upscaleにしたら、下のHeightとWidthは512x512とかにする
そのサイズでtile overlap分(デフォ64)重ねながら分割描画していく感じ
H&Wを最終サイズにしちゃうと、「ああ1回だな」って判定されてそのまま1発でやって終わる
つか、普通に1回でOOM出ず完了できる時点で使う必要ないんだけど・・ >>798
AUTOMATIC1111版webuiにwaifuのwd-v1-2-full-ema.ckptを入れた状態でimg2imgできてるけど、そういうことではなく? >>806
thx
同じ環境なのに動かないから環境作り直してみる waifuのimage 2image走るんだけど、ストレングスが全く効いてない…?
0でも1でも結果同じだ。
参照元の画像サイズは引っ張ってるからファイルを見てるのは間違いないんだけど。
なんかミスった?
>>805
これ試しにやってみたら、多重影分身なさったw
何かコツとかありますか? >>808
Denoising strengthを0で元絵とほぼ同じ絵、その時のseed値を使ってDenoising strengthを1にするとまったく違う絵になったよ。 >>810
のはずなんだけど、seed固定でストレングスを0と1でやったら結果が同じになっちった。
imageの読み込みがうまくいってないんかな… Inpaint masked(マスクした部分だけ再生成)になってるとか
こっちはこっちでtxt2imgでprompt matrixやろうとすると、各条件の個別の絵は出て、それを纏めるところでエラーになる。
エラー的にフォント関係っぽいから、インストールするものが足りてないんかな……
俺はMac対応という理由で使っているlsteinさんのフォークでk_euler_aのシードが効かないというトラブルに見舞われているww
プログラムみても何処に原因があるかわからん…誰か助けてクレメンス…
>>795
ああすいません導入はできてます
ただスクショを見る限りbatファイル毎にモデル?ckptファイルを指定しているように見えたので、その書式?が丸コピで良いのかな~と
とりあえずやってみます >>815
ネガティブプロンプト有効にするだけならこれだけでいいよ
set COMMANDLINE_ARGS=--show-negative-prompt >>798
何回かやってるとたまに無反応な時がある。
そういう時は中断して最初からやり直すと動く。一度動くと連続しても問題ない
原因はシロウトだからわからない >>816
なるほどコマンドはそういう意味でしたか…!
さっそく新しいbatファイルを作ってスクショを参考にその文字列だけを入れてみたんですが除外の枠?が出てこず… >>818
webui.batから起動したとかかな
もしそうなら作った方のbatファイルをダブルクリックでいけるはず >>809
Denoising strengthが高いとあちこちでプロンプトに従って生成しだす
0.3くらいからやってみて img2imgのSD upscaleなんとなく使い方がわかってきたわ
・Denoise strengthは0.25あたり、それより大きいとなかったものが出てきたりする。
・Tile overlapは64より16の方が良さそう。
・バッチを回してよいseedを待つ。
こんな感じだろうか。
>>820
Thx!
0.3でも新たに腕が生えたりしましたわw 以下も追加で
・UpscalerはReal-ESRGAN 4x plus anime 6Bが良さそう。
>>821
アップスケーラーは何使ってる?
ESRGANのRemacriとlollypopがきれいに仕上がると思うんだけど >>825
アップスケーラーはAUTOMATIC1111版webuiだとLaczos, Real-ESRGAN 4x plus, Real-ESRGAN 4x plus anime 6B, Real-ESRGAN 2x plusの4種類が出てますね。
Real-ESRGAN 4x plus anime 6Bが良さげでした。 >>819
だめみたいです…
元ファイルの方も書き換える必要とかあるんですかね? >>805
助かったありがとう
1回で出すよりこっち使った方が全然綺麗になるわ アウトペインティングがPoor man's outpaintingとしてとりあえず入ってると聞いたんですけど
1111でやる方法ありますか?
>>829
使ったことはないけど、img2imgの左下のScriptに入ってるよ。 >>830
いやもう本当にありがとうございます
永遠に見つけられなかったんで助かりました >>827
webui-user.batの
set COMMANDLINE_ARGS=
を
set COMMANDLINE_ARGS=--show-negative-prompt
に書き換えて、
webui-user.batをダブルクリックして起動すればいいだけだと思うんだ。
それで赤枠の部分が追加されるはず(俺はUbuntuで動かしてるからバッチファイルはちょっとわからないんだが)。
>>827
今日の21:41のバージョンでオプション使わなくてもデフォルトで有効になったみたいだから
最新バージョンにするのが手っ取り早いかも >>826
Readmeちゃんと読み込んで
RealESRGANはESRGANと似て非なるものだから >>832
そもそもそのwebui-user.batってのが無いんですけど1111のやつだからですかね
>>609を参考にファイル作ったんですけど駄目なんですよね
>>833
更新したら出ました…!ありがとうございます! 呪文で、キャラ名だけだと全然だめだけど
キャラ名に特徴をつらつら付けると、特徴だけの時より明らかに寄せてくるね
>>832
多分、webui-user.batが追加される前のバージョンの1111を使ってたんやね。
更新した今なら、webui-user.batもあるはずw
>>836
Thx!
とりあえず適当にESRGANのモデルを放り込んでみたらlibjpeg.soがないという怒られが発生したので、ついでにwebuiを最新版にしたイメージを作り直すなりよ。 negative promptはデフォで有効になったみたい
1111のSD upscaleいいね
CUIも用意してくれないかな
これはuplcalerをlollypopに変更した以外は>>821と同じ設定値。少し表情が変わってる。
Remacriは、今はダウンロードできない状態なのでインストールできんかった。
ESRGANって対象の絵ごとに特化したモデルを使い分けるのがいいんじゃないかという気がしました。
対象の絵とモデルの組み合わせでいろいろ調べてみると面白そうだが、今日はもう疲れた! 多く文字入れると逆に奇形が生まれやすい気がするのは気のせいだろうか
シンプルな美少女とかの方が当たり多い気がする
同じ言葉使いすぎても、破綻率高くなる感じ。kawaii×10みたいな。
basujindalメモリ節約すげ〜
→hlky一択じゃん
→1111しかね〜
この黎明期特有の移り変わりの速度よ
AUTOMATIC1111は導入が難しいとかなんとかで最初は人気なかったんだっけ
その辺ある程度得意な人はhlkyには見向きもせず1111一択って感じだった覚えはあるが
>>850
hlkyは中の人が4chスレにいて住民と積極的にやり取りしながら作られたんで
丁寧な導入ガイドもあって一般に広まった
その頃AUTOMATICの更新が遅く、hlkyの更新は早かったのも理由のひとつ
今は逆だな ヴォルデモートというあだ名の通りリンクを貼れなかった
今はキャプチャソルバーのレポジトリが消えたから貼っていいみたいだけど
sd upscaleはこの程度ならswinIRのほうがいいって感じるな
seedやプロンプトが奇跡的にはまれば良くなるのかもしれんけど
やっぱりMJのファインスケールは別格のままだな
基本的に絵っぽく生成されることが多いと思うんだけどリアルっぽくするワードってあります?
>>855
ちょっと追試してみた。 512x512 k_euler_a 2080Ti
・hlky 6.58秒/枚 ピークメモリ 7137 MiB
・Doggettx 5.72 秒 / 枚 ピークメモリ6891 MiB → 15%高速化
(参考)hlky(--optimized-turbo) 7.78秒/枚 ピークメモリ 5367 MiB
確かに速いですね。マージされないかな
○測定条件詳細: seed 1~10で10枚連続生成
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:1 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a
・hlky 2022/8/11 8:30 https://github.com/sd-webui/stable-diffusion-webui webui.cmdで起動(デフォルトオプション)
Took 65.81s total (6.58s per image) Peak memory usage: 7137 MiB / 11264 MiB / 63.355%
コンソール上の表示 8.0 it/s
・hlky python scripts/webui.py --optimized-turboで起動
Took 77.82s total (7.78s per image) Peak memory usage: 5367 MiB / 11264 MiB / 47.642%
コンソール上の表示 6.96 it/s
・Doggettx のldm\modules\attention.py と ldm\modules\diffusionmodules\model.py をhlkyに上書き版
Took 57.53s total (5.75s per image) Peak memory usage: 6891 MiB / 11264 MiB / 61.17%
コンソール上の表示 9.5 it/s photograph of ~ で 余計な修飾語や作家の名前とか入れないのがいいと思う
SD、物凄い勢いで色んなとこから色んな拡張機能が出てくるから理解が全然おっつかん。
>>855
自分のGTX980-4GBでも限界が896*896から1152*1152にアップ
1216*1216は怪しい 1280*1280は無理
なので最先端デカメモリグラボ使ってる人は余裕で2048*2048作れるんじゃないかと
ただ既出問題的にサイズアップしてもコピペ的な画になる、という傾向は残ってるように思う… >>857
俺もそれ知りたいけどないんだよな
photo of みたいなのじゃ全然ならないし、octane renderみたいにcg風にするのが精いっぱい
どうしても絵から抜け出せない 写真には画風指定ではならないよ
instagramに大量にあるような宣材写真のワード指定してinstagramのワード入れるとか
明らかに学習元が実写画像からになるよう工夫しないといけない
phto〜系のワード指定してもほぼ意味ない
有名キャラは初音ミクと指定しなくてもツインテール、緑髪、緑目とか沢山属性指定すると
雰囲気似て来るの面白いな、逆にマイナーキャラはいくら説明増やしても全然駄目だけど
>>855
高速化ありがたい!
1111版に>107適用 4.74s 4.75s 4.77s 4.76s
↓
1111版に>855適用 4.07s 4.04s 4.05s 4.07s 1111版、インストール楽になった上にGPUに負荷かかるバグが直ってて滅茶苦茶快適だな
さようならhlkyこれまでお世話になったよ
>>862
2080Ti(11GB)
プロンプト、サンプラ、stepsは>>858と同じ
2048x2048は無理でした。
なんとなくだけど、画像生成自体はメモリの空き容量見ながら小分けに処理できる、けど最後に画像を表示するところでオーバーしてるとかかな
○1024x1024
50/50 [00:45<00:00, 1.09it/s]
Took 47.59s total (47.59s per image) Peak memory usage: 11103 MiB / 11264 MiB / 98.564%
○1280x1024
50/50 [01:11<00:00, 1.42s/it] = 0.70 it/s
Took 73.46s total (73.46s per image) Peak memory usage: 10184 MiB / 11264 MiB / 90.412%
○2048x1024
50/50 [03:24<00:00, 4.09s/it] = 0.24 it/s
Took 210.73s total (210.73s per image) Peak memory usage: 11233 MiB / 11264 MiB / 99.719%
○2048x2048
50/50 [11:40<00:00, 14.02s/it]
step 50の最後まで行くが落ちる
※frontend.pyのmaximum=1024をmaximum=2048に修正して設定 >>866
速いw GPUなんですか? 3080Tiか3090? >>865
マイナーなキャラだとメジャーなキャラと合成されて出て来たりするよね
SAOのアスナ指定してもやたらとキリトの格好して出てくる
アスナが作品内でマイナーなキャラだとは思わないけど >>855
情報ありがとう
というか>>107やったあと存在忘れて1111のverupのたびに上書きして消えてたわw
ちな1111のidmの場所は「repositories\stable-diffusion」以下だから注意ね >>869
3060だけどEuler aのStep20だからね
試行回数増やしたくていつもこれくらいの設定で回してる >>855
すごいわ、バニラ+これだけでだいぶいける
GTX1080(8G)
バニラ:448*448
前回の:578*578
今回の:768*768 まで
ギリギリまで上げると速度かなり落ちるけど全然許容範囲、元が早すぎるのよ real指定で実写風、realisticでアニメ実写半々、animeでアニメ感みたいな変化はあった
非力GPUの友euler_a、数で勝負だ
step16くらいにいいのが隠れてることがあるので困る
見てたらstep1変えてもガラッと変わったりして怖い
img2imgやらで修正前にまずstep前後調べるのがルーチンワークになってる
>>876
euler_aはステップごとに結果が大きく変わるから止めたほうがいいぞ Waifu、細々っとチューニング変えてるのかな。
昨日と今日とで同じseedだけど、細かいとこで結果変わってる。
Colabだと基本的に毎日全部再構築しなおしになるから、ちょっと変わるとほいっと変わっちゃうな
1111のcolab版使ってるけどなんか安定しないわ
折角金払ったのに動いてないみたいなのになる
>>855
CPUで走らせてるから元から遅いかわりにデカい画像出せてたけど適用したら逆に早くなるかな waifuの呪文の研究進み過ぎててワラタ
もう殆どのイラストレーター超えるアニメ顔出せるようになってるな
waifu版、colabで動かしてみたけど
エロくない画像たくさん作る→どれもそこまでクオリティ高くない
エロい画像作る→少ない枚数でもめっちゃクオリティ高いで笑ったわ
う〜んやっぱイラストレーターの助けにはならんな
加筆って言っても手だけ描いてもAI絵のまんまだし結局全部描きなおしになる
レイヤー分けされてないから肌の色だけ調整と髪だけ修正も困難だし
やっぱり絵師をこ〇すだけの技術だなこれ
下手したらフォトバッシュのほうが早いまである
batch sizeを1のままにしたらbatch count16でも安定しだしたw楽しいw
>>885
絵を描き始めるまでが遅くて前の一ヶ月なんも絵を描いてなかったわいが
この二週間でAI絵を元に10枚以上絵を仕上げてしまったという事実
生かされたわ そりゃぁ今時点で即戦力にはならんかもしれんが……
その昔、車載電話を指して「一般人の役に立つ技術じゃないな」って言ってた親を思い出したわ。
まだ開発ラッシュでUI系は更新落ち着いてない感じ?
>>863
ネガティブプロンプトにpainting, illustration, CGとか入れると効果あるかもしれない
japanese assassin ninja, coloredの同じseedでネガティブプロンプト無しと有り
手足の破綻減らそうと人体解剖図とかギリシャ彫刻とか入れると体が正確になる代わりに
お面被ってるみたいで顔と体の違和感凄くて笑える絵になるな
>>887
俺もだ。なんか無性に描きたくなって
20年振りくらいに毎日描いてる
まだまだヘタクソだけど >>885
修正ができないってことは、商業絵師にとっては助けにはならんが競合もしない
顔アイコンとか素材系を数万円で売ってるようなのは流石に成り立たなくなるか? >>890-891
MJ凄い凄いって言うけど、生身の人間は同じくこういうのしか出せないんだよねぇ
特に中くらい以下の大きさの顔が破綻するから、
すぐ真後ろ向かせたりよくわからない覆面みたいなので覆ってくる分、卑劣
あれどういう色付けしてあるんだろう、小さい顔が出ちゃう枝を全部払ってるんだろうか ロングショットで崩れた顔にマスクかけて、顔だけ別promptで描き直しってやってるけど、最初の結果とあんま変わらないなあ…
のっぺらぼうしにしても最初と同じ感じに帰着するし
マスクかけても結局全体描かせてマスクかけてないところをそのまま戻してるだけだぞ
顔を重点的に描かせたいなら正方形に切り出してそれでimg2imgやらんと
MJサブスク終わっちゃったんだけど、
もしかしていまだにランダムで出てきた結果のseedが表示できなかったりする?
先に--seed指定はできるのは知ってるが
>>895
それは同サイズで出すからでは?
img2imgのSD upscaleで拡大するときに細部の再描画で補う方がいいんじゃなかろうか。 海外人気の反映というかなんというか
日本でメジャーそうな作品や会社いれても反応しないのざらなのに
nekoparaがめっちゃ効いて笑ってる
こういうの他にないかな
顔とか情報量多い箇所は違和感でないように少し周辺含めて大きめに切り出して
画像そのものを拡大してからi2iするのもいいかもしれない
>>886
batch sizeはVMEM依存だから動かない数字だとどうやっても動かないけど、batch countはui-config.jsonで最大値を書き換えれば100だって平気だぞ。 1111のインペイント機能が全然使いこなせないなぁ
簡単お手軽に「マスク部分の背景そのままで人物だけ変えて」とかやってくれるんだと思ってたけどそうじゃないのか
プロンプトそのままなのにマスク部分以外と全く調和しない
誰か上手く使えてる人いるんだろうか
batch sizeの存在意義がよくわかってない
VRAM4TBとかが実現したら「一度に10枚づつを10回まわそうか」みたいな未来用の機能だろうか
楽しいわ、もっと精度の上げ方を教えて欲しい
あとフォルダに自分の好きな絵を突っ込んだらその絵柄で生成してくれるような自分で調教する機能作って欲しい
そういえばインペイントのカーソル円のサイズって変えられないのかな、blurrは濃淡だから関係ないよね
小さな顔とかの範囲でもあの円で埋めるのは超しんどい
>>904
同じこと考えてたけど、とりあえず9まではそのまま行けるw
>>908
文字数がいっぱいの苦肉だろう >>907
試してないけど低メモリコマンド使用時に並行生成できるんじゃないかな >>907
並列処理してくれるから、sizeの方が速い
これは関係ないけど、学習のときはsize大きくした方がうまくいくことが多い 並列
ほぼSDの話しかしてないからスレタイからMJは外してもいいじゃないかと思ったり
>>911-912
なるほど
そもそも元が512x512が最適、少なくとも一方の辺512固定が当然で
くそバカでかい画像なんて一発ではやる必要性がないので(img2imgですら)
メモリで行けるだけ多くした方がお得なのか
このスレほんと勉強になるわぁ・・ MJは現状、discordのみの展開でオプションと呪文ぐらいしか探れる場所ないからなあ。
ローカルリモートファインチューニングWebUi CUIとなんでもござれのSDの話題ばっかになるのは致し方ない。
当初のMJとDALLEの話題だけだったら今頃スレ過疎ってただろうね
受動的にイラスト生成ゲームで遊んでるようなもんで話題がなさすぎる
ツイッターのwatchスレとかになってたかも
mjは使用制限とエロ禁止が無ければな
あっちの方も色々試したいんだけど
Midjourneyは検索用として残したほうがいい気がする
Google Trend: StableDiffusion、Midjourney、DALL-E
世界
日本
アメリカ
日本はMidjourneyでいきなりブレイクだけど世界は6月にDALL-E2で結構話題になってたんだな。知らんかった。 booruタグはバニラ1.4でも使えるんだな
1girlで1824件出てきた
Poor man's outpaintingの使い方を探求してみた。
この娘、頭の上まで描きたいの……
img2imgの設定
・Redraw whole image
・Resize and fill
・Sampling Steps: 80
・Sampling method: DPM2
・CFG Scale: 15
・Denoising strength: 1
・Script: Poor man's outpainting
・Pixels to expand: 64(ここの見極めが重要。大きすぎると頭が引き延ばされる)
・Mask blur: 16(ここも状況により最適値が変わりそう)
・Masked content:original
・Outpainting direction: upのみチェック
Let's Generate!
いくらか試した感じ、Pixels to expandの値がとても大事なようでした。 >>919
面白いなぁ
日本はMJ飽きられつつあるかなぁってところに、SDをPC得意系の人が歯ごたえあるからワイワイやるけど
一般人がフーンそんなもんかってだんだん収束してる感じが
自分はふたばちゃんねるでDALL・E・miniってのを見かけたのが最初だったなぁ >>921に描き忘れましたが、Promptはオリジナルと同じものを使います。 そんなわけで、頭の上まで描き足して、さらに余白を作りたい場合はPoor man's outpaintingを複数回実行する必要があります。
>>890
それでいけるね。strength上げないといけないから別人になっちゃうけど
元絵(CG)
img2img
>>912
実験したらDoggettx最適化でbatch size最大の8が行けて、一枚当たり20%早くなったよ
今後、いい呪文完成後の回すときに使おう >>859,860,863,890
なるほど…!とても参考になりますありがとう >>927
これはCGぽくなるんですかね…?試してみます >>857
Twitterで見たプロンプト
realistic picture of a brown bear in the middle of forest, illuminated by the sunlight filtering through trees, taken with Sony a1
カメラの機種名を入れるのはよさそうよ
あとはSIGMA 85 mm F/1.4とか いらすとや風にしてみたらAIが全く学習してなかった
いらすとやさんもコロナ影響で世界規模素材となったとはいえ
一応商用利用は有料だから英語圏であんまり転載されずにAI素材にされなかったじゃない
あの後もPoor man's outpaintingt試してるのだけど、Pixels to expandの値を64より小さくしても64ピクセル拡張されるんだが、バグってるのかそういう仕様なのか?
上下に32ずつだときちんと拡張されるので、64の倍数にならないとだめなのか。
それと、きちんと元絵に合わせて描き足してくれるかどうかはseedガチャ次第っぽい。
32ピクセル追加でちょうどよいサイズ感のところを上下32ピクセル拡張で実行すると、概ねよいサイズ感で追加されるがきっちり描き切ってくれない場合もある。
上にのみ64ピクセル拡張すると、ちょうどよいサイズの追加で絵を描いてくれる場合もあるが、うまくいかないことも多い。
拡張するサイズをぎりぎりにするのは効果があるような気がする。 多分、64の倍数縛りだと思う。
SDの画像サイズも64縛りだし。
8の倍数と思ってたからエラー出まくって首捻った記憶がある。
なんで64縛りなんだろうね
色々と計算上の都合はありそうだけど
画像を作るときにそれより小さい層を作ってそこで重いdiffusionの処理をやってる
なので倍率が決まってて64単位でしか変更できない
カメラ、レンズ名入れるとすごいクオリティ上がるんだけど(sigma 85mm art lensとか)
被写界深度が浅い絵になりやすくて、後から加工するのが難しくなるんだよな
ただ一発で完成形を手に入れる呪文としてはすこぶる強い
>>941
unreal engine 5 とDepth of Fieldとか AUTOMATIC1111 と sd-webui(元hlky) ってどっちを追えばいいのかな?
nagative-promptの実装も先行してるしAUTOMATIC1111の方がコミット多い気がするけど
もしかして、全般的に引いたアングルが弱いのって、最初の段階でここは顔だ。再起してここは顔の一部だってするだけの最小単位面積を下回ってるからだったりするのかな。
だとすると単純に解像度上げれば解決するような。
……メモリがぁ! 省メモリを入れて見るか。
>>942
UEとかいいかもですね
panfocusとか、deep focusが利かなかったんで呪文で被写界深度制御するのが難しいかと思ってました
>>943
F値そのものも絵作りに効くんですね!?
今度実写系ので試してみます >>933,934
そもそもいらすとやの画像に「いらすとや」と言うキャプションは先ず付かないだろう
なので学習データに画像があっても拾う事はほぼ不可能な気がする いえいえ、フォーカスとかアングル、人数をきちんと認識されるコマンドが分かりやすかったらいいんですけどね
ダリの方はpdfでコマンドを指南してくれてるんですが
キャラクターを覚えさせたいんだけどいい方法無いのかな
初音ミクはキャラ名で絵がでてくるんだけどそれみたいなの
>>935
話だけ聞いてると絶対時間かかるけどプリンターみたいに1pxだけずらして生成して後で合成すればうまいことやってくれそうな気がしなくもない キャラのそのものはdreamなんちゃらの方がいいんだろうけど、まだやり方でてないんだっけ?
Batch sizeを1以外で入れると、Batch posも同時に設定されて
HW・prompt・cfg・sampler・step・seedを全部同じにしても同じ画像が作れなくなるんだね
ちょっとここの理屈がよくわからない、並列でかわりばんこに処理だから乱数が混ざるのかな
全く同じバッチにしたらいいのかと思ってやったけど、なぜかposがうまく合わない
waifulabやってるとたまに人間になりたいけどなれなかった細胞の塊みたいなのが出てくるな
一度それを育ててみたらえらいことになって、以来トラウマで触れなくなった
上手く行った時はかなり自分好みの絵が生成できるだけに惜しい
>>954
ありがとう、でもプログラミング全然わからないw もうVRAMで困るの馬鹿馬鹿しくなってきた。
新しいGPU買おう。24Gが10万足らずで手に入る
1111とかの分割アップスケールがあるからメモリは別に要らなくね?
中でやってるのが512x512なんだし
>>964
おお、情報ありがとう
pngのchunkや出力txtに書かれてる情報はバッチ内で連番なんだけど、全然関係なくなってる
> 最初の一枚目のseedが100で後の3枚は特異シードになって再現できない
一度出たいい画像をいきなりアップスケールとかするんじゃなく
cfgやstep変えて近くにもっといいの隠れてないか捜索広げる作り方するんで、これは辛すぎる
使ってるのは1111でeuler_aなんだけど>>855に変えてるのもあるかも
ちょっと様子見でbatch sizeは使わないことにするよ photoreal, screen space ray tracing, screen space ambient occlusion, screen space reflection, Specular mapping,
↑リアルになる
けどimage 2imageのマスクって色んな使い方出来るな。
みんなメガネになーれ。
>>931
なるほどすごい!
ありがとうございます >>969
かわいい顔が出たら、顔だけ逆マスクしてエロ水着呪文追加とかしてます colabでは出来ないその呪文。ローカルにも組んどくかなあ。
>>973
値段がまだわからんからな。
円安+アスク税もあるしなぁ 税込み表記だとあんま気にすることないけど、冷静になって考えると消費税が万単位ってとんでもねぇな
ホーチミン版のimg2imgタブに新しく追加されたInterrogateボタンで画像からプロンプトを予測できる
きちんと予測してくれるなら最高だな
どっかのSDにimages2prompt.pyがあったけど、中見たらメタデータ表示する残念なものだった
MSIの3090Tiだいぶ値下がったし今欲しい奴はこれでいいんじゃね?
相応の電源と冷却性能いるけど
NVIDIAが21日におそらくハイエンドの新商品発表するし、3000番台は型落ちになって劇的な値下げを期待
> 4000シリーズが出ても性能向上はわずか
2倍速くなるのを「わずか」と感じる人は多くないと思う
昔はBDを再生するだけでハイスペックグラボが必要だったけど今は専用チップが開発されて激安スマホでもフルHD動画を再生できる
画像合成に需要があるならすぐにそうなる
ビデオボードは仮想通貨云々からの中古流出も多いんだっけ
ここら辺の中古は寿命なさそうだけど
>>982
安価な3000番があふれて4000番売れなくなると困るから、nvidiaがもう卸してなくて在庫限りって話まである
マイニング需要続くと見込んでかなり前に4000番用のチップを大量発注しすぎて
最近継続発注をあわてて止めたとかって話まで
マイニングで充分儲けたので、在庫処分ではなく価値の維持のためにブルドーザーで埋めるかも、本当に
豊作すぎてキャベツ潰すみたいな感じで
>>987
ビデオボードてw
今はグラボ(グラフィックボード)、それすら古くてGPUって略すのが普通
20年以上昔はビデオカードって呼び方が普通だったな(遠い目)
wikipediaもいまだにこっちなんだけど >>987
なので中古はマイニング能力を落としたLHR版が良い ハードの話になると頭の悪いパソコンに詳しいおじいさんがめっちゃ湧いてくるな
そろそろくだらん話は止めにしてくれ
waifuのタグ区切りはスペースのみのカンマ付きどっちがええんじゃろ
>>992
意味がガラッと切り替わる時はカンマが良さげ。同じ意味内の時はスペースが良さげ。
…という気がしている。
ぶっちゃけ実験したけど、よーわからん。seedによってカンマで区切ってるっぽいなーと思うことも有ればカンマ無視してね? って時もある。
個人的には目視しやすいので|で区切るのが好み。 >>988
潰すくらいならAI需要向けの特化モデル作れよ >>990
メモリチップだけ張り替えた3070-16GB版を出せよ
これ3070が発売前から噂されてたやつなんだが >>993
乙
交換なくても>>1に書いてあるからまぁ大丈夫だよね
「”今後の”AI画像生成技術の話させろ」とはならん MJとSDって縛ってるから大丈夫っしょ。四方山は総合あるし。
1000ならディスカウント版、VRAM16GBの3060発売
lud20221106155927ca
このスレへの固定リンク: http://5chb.net/r/cg/1662332320/ヒント:5chスレのurlに
http://xxxx.5ch
b.net/xxxx のように
bを入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像
↓「Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚 」を見た人も見ています:
・Midjourney】AI画像生成技術交換3【StableDiffusion
・【StableDiffusion】AI画像生成技術9【Midjourney】
・【StableDiffusion】AI画像生成技術7【Midjourney】
・【StableDiffusion】AI画像生成技術8【Midjourney】
・【Midjourney】AI画像生成技術7【StableDiffusion】
・【Midjourney】AI画像生成技術5【StableDiffusion】
・【Midjourney】AI画像生成技術6【StableDiffusion】
・【StableDiffusion】AI画像生成技術12【NovelAI】
・【StableDiffusion】AI画像生成技術11【NovelAI】
・【速報】画像生成AI「Stable Diffusion」と「Midjourney」に対して集団訴訟
・【AI悲報】 画像生成AI「Stable Diffusion」と「Midjourney」に対して集団訴訟が起こされる
・【Midjourney】AI関連総合2【StableDiffusion】
・【Midjourney】AI関連総合5【StableDiffusion】
・【Midjourney】AI関連総合8【StableDiffusion】
・【Midjourney】AI関連総合6【StableDiffusion】
・【Midjourney】AI関連総合11【StableDiffusion】
・【Midjourney】AI関連総合21【StableDiffusion】
・【Midjourney】AI関連総合12【StableDiffusion】
・【Midjourney】AI関連総合25【StableDiffusion】
・【Midjourney】AI関連総合7【StableDiffusion】
・【Midjourney】AI関連総合22【StableDiffusion】
・【Midjourney】AI関連総合13【StableDiffusion】
・【Midjourney】AI関連総合19【StableDiffusion】
・I文章に沿った楽曲を自動生成してくれるAI「Riffusion」登場、画像生成AI「Stable Diffusion」ベースで誰でも自由に利用可能
・【Midjourney】 AI画像生成 【DALLE】
・【AI】画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒 [すらいむ★]
・なんG画像生成AI部(waifudiffusion)
・【StableDiffusion】生成AIビジネス【NovelAI】
・画像作成AI『Stable Diffusion』、GUI版が登場
・【StableDiffusion】AIパソコンスレ 質問・雑談2
・【悲報】イラストAIのStableDiffusionさん、アメリカで集団訴訟を起こされる
・【AI】米Appleの独自AI「Apple Intelligence」 iPhone・iPad・Macで動作 各純正アプリに文章や画像生成機能がビルトイン [ムヒタ★]
・【AS】ActionScript技術交換スレ Part4
・midjourneyっていう自動AI生成絵画マシーンがすごい
・【悲報】世界中のちんさん、AI画像生成ツールで「理想の女性」を追い求める
・【AI】Metaの画像生成AIは「アジア人男性と白人女性のカップル」をイメージできないという報告 [田杉山脈★]
・Microsoft、検索しても出てこない画像を代わりにAIで生成する技術を「Bing」に実装 [香味焙煎★]
・Microsoft、「黄色い体で、黒い翼の鳥」 などの文章からAIが画像を自動生成する技術を開発。つまり、
・Saudi Arabia admits journalist is dead, 18 people detained
・AIで画像生成してるやつおる?w
・結局画像生成AIってなんだったの
・画像生成AIで鉄道の絵を描かせた事がある人
・この時期にAIでチンコの画像生成しても良いか?
・【悲報】画像生成AIのヤバさ、一般人にもバレ始めてる
・【悲報】なんJ民さん、今日の画像生成AI使用権を放棄してしまう
・【速報】画像生成AI、ガチで抜けるレベルのエロ画像を生成可能に
・【朗報】話題の画像生成AIに作画させた漫画、ワンピースより面白いwwww
・【悲報】絵師さん、あと数日で全員失職へ 超高性能画像生成AIが無料公開予定
・【悲報】ホロライブの絵師さん、画像生成AIにお気持ちしまくってしまうwwwwww
・【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★]
・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ
・【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ
・【サービス】画像生成AI、数十秒でプロ顔負け 著作権は誰のもの?人間の価値は [北条怜★]
・クリスタ、画像生成AIパレット実装を中止 - ユーザーの懸念を受け方針転換 [朝一から閉店までφ★]
・「画像生成AIはアーティストの権利を侵害している」8.7万いいね ラッダイト運動勃発か
・静岡県の水害巡りフェイク画像が拡散 画像生成AIを利用 投稿者はデマと認めるも… [少考さん★]
・Adobe、画像生成AIを開発へ 倫理や法律面で“透明性”高めたクリエイターのためのツール目指す [朝一から閉店までφ★]
・【AIテクノロジー】“業界トップレベルの画像生成AI”が近日中に無料配布? SNSで話題に [oops★]
・【技術】iPhoneと連携し「AR(拡張現実)」を体験できるコンタクトレンズを開発(画像あり)
・ドイツ「日本くん!水素技術交換しよう?」
・【毎日新聞】大江健三郎の「電気はいらない!」は虚偽画像 素人ではない合成技術、著作権侵害の可能性も [みの★]
・【JET】英オックスフォード大学研究チーム、CO2を直接ジェット燃料に変換することに成功 効率的なジェット燃料生成技術を開発 [ごまカンパチ★]
・AIで画像生成するの件でAI側の「合法だから」って弱くね
・【猫の日】絵を描くとネコに変換してくれる画像生成AIが話題[02/22]
・【技術】たった1枚の画像から「奥行きがあり視点を前後左右に動かせる3D画像を生成する方法」が開発される [すらいむ★]
18:06:17 up 8 days, 3:14, 1 user, load average: 7.38, 7.64, 8.00
in 3.9019010066986 sec
@3.9019010066986@0b7 on 112808
|