◎正当な理由による書き込みの削除について:      生島英之とみられる方へ:

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚


動画、画像抽出 || この掲示板へ 類似スレ 掲示板一覧 人気スレ 動画人気順

このスレへの固定リンク: http://5chb.net/r/cg/1662332320/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

1名無しさん@お腹いっぱい。2022/09/05(月) 07:58:40.81ID:aWfqEhq/
英語の文章が画像に!
背景に使うか?イラストのアイデア出しはもちろん、
与える英文を捏ね捏ねして思いがけず生成される秀逸画像ガチャで遊ぶのも楽しい
有料サブスクで商用利用まで可能なAI画像生成サービス

★★★ 注意 ★★★
ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
AIイラスト 愚痴、アンチ、賛美スレ
http://2chb.net/r/illustrator/1661305344/

前スレ
Midjourney】AI画像生成技術交換3【StableDiffusion
http://2chb.net/r/cg/1661762186/

テンプレまとめ
https://rentry.co/zqr4r
編集コード「5ch」

2名無しさん@お腹いっぱい。2022/09/05(月) 08:02:50.34ID:aWfqEhq/
ああ、しまった

漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します
(以下のスレッドへ移動してください)
【Midjourney】AI関連総合【StableDiffusion】
http://2chb.net/r/cg/1661853927/

だった
次スレからここ更新してね、わざわざイラ板に飛ばすのも変だし

3名無しさん@お腹いっぱい。2022/09/05(月) 08:16:36.49ID:aWfqEhq/
以上、たった1レスでスレ立てお終い!素晴らしい

4名無しさん@お腹いっぱい。2022/09/05(月) 08:42:01.36ID:RcdJdJk4
KAWAII汎用プロンプトのnote有料記事の公開で
あの作者すげー尊敬してたけど一気に胡散臭くなってしまった
よく考えたら一つもプロンプト公開してないから当然信用なんてもの持てないな

5名無しさん@お腹いっぱい。2022/09/05(月) 08:57:59.56ID:ScLAAoNK
他人のふんどしで金取るとか恥ずかしいよ

6名無しさん@お腹いっぱい。2022/09/05(月) 09:02:20.45ID:yZTCQ1su
前スレ最後の方で出てたimagenだけど
プロンプト通り=いい絵になるとは限らないんだよねぇ・・現状のDALLE2の人気のなさ見ても
MJみたいにある程度勝手に意匠加味してもらったガチャにみんな酔心してるような

7名無しさん@お腹いっぱい。2022/09/05(月) 09:22:21.12ID:PbNT54P+
シンプルUIに見えてちょっと複雑だけどプロンプト作りやすくていいな
https://promptomania.com/stable-diffusion-prompt-builder/

8名無しさん@お腹いっぱい。2022/09/05(月) 09:50:06.51ID:dEylwYeN
ERNIE-ViLGだと知名度あるアニメキャラ混ざるとどうしてもそっちに引っ張られるな
竹取物語のかぐや姫を指示しているのにかぐや様は告らせたいに引っ張られてそっちっぽい絵が出てくる

9名無しさん@お腹いっぱい。2022/09/05(月) 09:51:08.49ID:yvSZaens
かぐや様一派も一枚岩じゃないからな

10名無しさん@お腹いっぱい。2022/09/05(月) 10:00:38.92ID:O6lTCvSn
kritaのベータ版公開された!!
https://twitter.com/nicolaymausz/status/1566587687431294976
https://twitter.com/5chan_nel (5ch newer account)

11名無しさん@お腹いっぱい。2022/09/05(月) 10:28:04.21ID:/suqkbMS
前スレ参考にAUTOMATIC1111のstable-diffusion-webui入れたけど
一番期待してたSDアップスケールという小さい画像の細部を再生成し大きな画像にする機能の使い方間違ってるのかな
つぎはぎ部分が全然スムーズじゃなくて一瞬でつぎはぎってわかる
それともそれがデフォなんだろうか
タイルアップスケールの数値やスケーラー選択とか適切な設定があったりする?

12名無しさん@お腹いっぱい。2022/09/05(月) 10:29:45.13ID:yvSZaens
>>10
何が出来る系モデル?

13名無しさん@お腹いっぱい。2022/09/05(月) 10:33:33.87ID:ryh/DnQX
>>12
SD自体はローカル or Google Colabで起動させて、Kritaからアウトペインティングとかできるプラグインぽい。

ちゃんと見てないけどアウトペインティング以外も機能あるかも?
https://twitter.com/NicolayMausz/status/1566081411240677377
https://twitter.com/5chan_nel (5ch newer account)

14名無しさん@お腹いっぱい。2022/09/05(月) 10:43:08.67ID:+CQ4bXTz
前スレのシンプル構文貼ってくれた人ありがとうな

elf, fgo, mucha, photorealistic, anime blue colored eyes, detailed beautiful face, highly detailed, Armored Core

で謎にメカメカしい鎧を着た顔がそこそこに整った青い瞳のエルフさんが量産され始めた

15名無しさん@お腹いっぱい。2022/09/05(月) 10:43:11.35ID:fJ0klnEA
>>12
まだインストール中で試せてないけど
このアウトペインティング動画を公開した人のプラグイン
https://www.reddit.com/r/StableDiffusion/comments/x4wtt0/outpainting_with_my_krita_plugin_for_stable

16名無しさん@お腹いっぱい。2022/09/05(月) 11:14:16.24ID:GDhLR30+
芸歴長い且つ若い現役女優ってエマ・ワトソン以外にいないのかなぁ
安定するから使ってるけど正直飽きた

17名無しさん@お腹いっぱい。2022/09/05(月) 11:26:36.38ID:tnsBe91i
若くないけど、オードリーヘップバーンとか若い時の画像ばっか学習してそうじゃね?

18名無しさん@お腹いっぱい。2022/09/05(月) 11:39:33.71ID:yvSZaens
>>13
>>15
㌧㌧

オードリーさんはオードリーさん風の見た目の日本人みたいな指定にすると美人さんになる(オードリー(綴り忘れた) eyed style face Japanese なんとか)

19名無しさん@お腹いっぱい。2022/09/05(月) 11:44:11.83ID:fJ0klnEA
kritaのローカル版試したけどkrita→コマンドプロンプトの
通信がうまくいってないのかボタン押しても無反応だな
様子見するか

20名無しさん@お腹いっぱい。2022/09/05(月) 11:53:04.36ID:GDhLR30+
オードリー・ヘプバーンはなんか拒食症みたいになってダメだったわ
30代の女優がいい感じ
若手はダメ
アリシア・ヴィキャンデル、フェリシティ・ジョーンズ、アナ・デ・アルマス
マーゴット・ロビーはやたらと皺を強調したがるので却下

21名無しさん@お腹いっぱい。2022/09/05(月) 11:55:45.48ID:GDhLR30+
あとレベッカ・ファーガソンは黒人出てきたわ

22名無しさん@お腹いっぱい。2022/09/05(月) 12:02:10.74ID:yvSZaens
日本人美人さん辺りで認識してる人はいないのかしら

23名無しさん@お腹いっぱい。2022/09/05(月) 12:05:57.95ID:ZAX7RjaD
トランプ、オバマ、エマ・ワトソン、誰でも、個人名がそのものズバリの造形は出せないんだよね
出せないってのは倫理的な話じゃなくて今の実装的にオリジナル画像とは違うものになってしまう(元データが無いんだから当たり前だけど)

その辺、実用的に活用する時の大きな障害になる気がする

画像生成AIは1点ものの生成で、それをポーズやシーンなど変形させるのは別のAIということかもしれないけど

24名無しさん@お腹いっぱい。2022/09/05(月) 12:09:17.19ID:PbNT54P+
実装じゃなくて学習の問題だと思うぞ
きちんと過学習させたらそのものずばり出せるようになるはず

25名無しさん@お腹いっぱい。2022/09/05(月) 12:09:49.67ID:2DK+LgZA
プラグインのローカル環境、てっきりAUTOMATIC1111でいいのかと思ってたら、動くのはそのフォーク版だったんかい。無駄に悩んだせいで時間切れになったからお試しはcolabでやるべきだった。
https://www.flyingdog.de/sd/en/
https://github.com/imperator-maximus/stable-diffusion-webui

26名無しさん@お腹いっぱい。2022/09/05(月) 12:12:59.75ID:67j0rToc
イラストはもちろん写真でも写りとか加工で顔の変化はあるわけだからある程度まで似ていたら実用上の問題はない
むしろ誇張されてるぐらいのほうが本物らしいと感じるかも

27名無しさん@お腹いっぱい。2022/09/05(月) 12:17:26.45ID:HMtIcStQ
実在の人物をどうこうしようって個人的に全く興味ないわ

28名無しさん@お腹いっぱい。2022/09/05(月) 12:19:09.10ID:GZxSfduF
>>26
オリジナル画像と違う画像になっても同一人物だと分かるからいいかって人と、シーンによって違うのは駄目だろ、直せって人がいるね
日本のアニメみたいに髪の色を極端に青とか赤とか変えて人物を区別するような作品だといいのかも。

29名無しさん@お腹いっぱい。2022/09/05(月) 12:19:44.31ID:yvSZaens
実在人物そのものじゃなくてそれベースに何とかそう言う応用ならわかる
さすがにそのもの使ってフェイクなんとかはらめぇ

30名無しさん@お腹いっぱい。2022/09/05(月) 12:29:46.48ID:owB0Caaw
midjourneyで美女を生成させる呪文で、
slawic vogue star model
というのを見かけた。
世界的なファッション雑誌のVOGUEのスラブ系のモデル。
slawicをjapaneseやchineseにすると東洋系の特徴を濃厚に入れられてしまうけど、色々と入れ替え可能。

特定の芸能人ではないけど雑誌(の表紙?)を指定することで傾向を入れられる

31名無しさん@お腹いっぱい。2022/09/05(月) 12:32:27.74ID:dEylwYeN
そういやこれムハンマドって指定したら内部でどういう処理してるんだろうな

32名無しさん@お腹いっぱい。2022/09/05(月) 12:36:43.18ID:PbNT54P+
>>29
実在そのものフェイクいいだろ。アップしなきゃ問題ない

33名無しさん@お腹いっぱい。2022/09/05(月) 13:28:46.31ID:FN6ZVlp4
色々小技みたいなのを使ったプロンプト公開してる人いるんだけど、こういうテクニックってどこかにまとめて書いてあるの?
日本語と絵文字と記号?が使えるみたいだけど、この人はどこでそれを知ったんだ
https://twitter.com/alice_diffusion/status/1566448415848165376
https://twitter.com/5chan_nel (5ch newer account)

34名無しさん@お腹いっぱい。2022/09/05(月) 13:44:02.71ID:tnsBe91i
日本語とか絵文字はエラーにならないってだけで、ちゃんと有効なのかどうかってのも謎だなあ……
この辺はもう情報集まらないとなんとも。
区切り文字も,とか|とか色々流儀があるみたいだし。

35名無しさん@お腹いっぱい。2022/09/05(月) 13:44:41.50ID:67j0rToc
>>33
>Attention
>Using () in prompt increases model's attention to enclosed words, and [] decreases it. You can combine multiple modifiers:
https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase

以前このスレでも同じ勘違いしてる人いたような
それとも別のフォークでは逆なの?

36名無しさん@お腹いっぱい。2022/09/05(月) 13:58:27.04ID:+CQ4bXTz
どっかにトークンリストがあればそれに載ってるか検索するだけなんだけど
未だに見つけられていない

37名無しさん@お腹いっぱい。2022/09/05(月) 14:03:41.44ID:PbNT54P+
>>33-34
学習データが画像うpしてる人がつけてるタグをそのままパクってるだろうから
pixivとかの画像についてる日本語タグをそのまま列挙して入力してやっても
pixivのタグそのままだとイラスト指定がないから実写ばかりになったりはするけど
それなりに似てるのかな微妙だなって感じの画像が出るよ

38名無しさん@お腹いっぱい。2022/09/05(月) 14:33:23.32ID:kel2IxsN

39名無しさん@お腹いっぱい。2022/09/05(月) 14:35:50.82ID:I5oLVbZH
>>4
あいつね。プロプント公開してないから何やってるか分かったもんじゃないよな。
目立つからベンチマークしてるけどしょうもなくなったらフォロー外すつもり

40名無しさん@お腹いっぱい。2022/09/05(月) 14:41:19.13ID:9oQ0MRuT
>>39
分かる
俺もずっとあいつでベンチマーク走らせてるわ

41名無しさん@お腹いっぱい。2022/09/05(月) 14:42:04.78ID:YEgAOobX
ベンチマーク??

42名無しさん@お腹いっぱい。2022/09/05(月) 14:44:09.41ID:OqTCruhx
ブックマークだろ
察してやれよ

43名無しさん@お腹いっぱい。2022/09/05(月) 14:45:01.39ID:I5oLVbZH
>>41
注目してるって意味で使った 誤用だったらすまん。

44名無しさん@お腹いっぱい。2022/09/05(月) 14:47:02.95ID:YEgAOobX
2人もこんなトンデモ誤用するものなのかなあって思った

45名無しさん@お腹いっぱい。2022/09/05(月) 14:48:22.12ID:ScLAAoNK
ベンチマークとしてヲチしてるという意味で、別に普通に理解出来るだろ‥

46名無しさん@お腹いっぱい。2022/09/05(月) 14:57:36.43ID:I5oLVbZH
俺が発端だけどしょうもなさすぎることでスレ消費するのは勿体ないのでここまでにしてもらえんじゃろか

47名無しさん@お腹いっぱい。2022/09/05(月) 14:57:56.41ID:Vwn4XMAn
今出てるプロンプト(笑)呪文(笑)ルーン(笑)なんてどうせ数ヶ月後には何の意味も価値もなくなってるw

48名無しさん@お腹いっぱい。2022/09/05(月) 15:01:36.84ID:5t5bdFnb
鼻につくのはわからんでもないけど本人も時間の問題で役に立たなくなるって書いてるしほっとけって

49名無しさん@お腹いっぱい。2022/09/05(月) 15:03:53.55ID:PZqsQHOH
オードリー・ヘップバーンAudrey Hepburnはお年を召してからの画像も学習しているだろうからとyoungをつけたら少しよくなった
あとはfrom roman holidayとかfrom sabrinaをつけたらどうかな
30代がよければfrom Breakfast at Tiffany's, from My Fair Lady, from How to Steal a Millionなど

アン・ハサウェイAnne Hathawayは眼が巨大だし笑顔になりやすいみたい

50名無しさん@お腹いっぱい。2022/09/05(月) 15:05:02.06ID:kel2IxsN
各種ウェイトの使い方

automatic1111版
()で強く、[]で弱くなる

hlky版
a forest under night sky: by Studio Ghibli:1.8 in the style of Starry Night:2.3
のような入力が可能(省略したら1.0)(使う時はカンマの代わりにウェイトを書く)

basujindal版
tabby cat:0.25 white duck:0.75 hybrid
のような入力が可能

本家はないはず。
artroom版、NMKD版、GRisk版などは不明。

51名無しさん@お腹いっぱい。2022/09/05(月) 15:23:43.48ID:PbNT54P+
>>47
それな
楽しいからいいんだけど身につくものはないし不毛な作業・・・

52名無しさん@お腹いっぱい。2022/09/05(月) 15:38:05.18ID:X0gZA6g9
生成したいものに合わせたファイーン用のデータセットはどっちに転んでも使えそうなのでちまちま貯めてる
呪文は...

53名無しさん@お腹いっぱい。2022/09/05(月) 16:00:55.06ID:EiISCc6E
SD日本語も効いてるよ
新海誠で人物書き出してみればわかる

54名無しさん@お腹いっぱい。2022/09/05(月) 16:06:23.18ID:5/a6jdMW
>>25
時間切れって?
まだ試してないんだがベータ版時間制限あるの?

55名無しさん@お腹いっぱい。2022/09/05(月) 16:27:09.49ID:y/cFBSSv

56名無しさん@お腹いっぱい。2022/09/05(月) 16:32:11.67ID:5IncDLwm
エマ顔が強すぎるけど
+クロエモレッツで丸顔童顔要素プラスできる(たまにブスになるけど
俺はこれにアナデアルマスとナタリーポートマン足すのを基本にしてる。
エマに似すぎず、若い美人系になりやすい。少なくとも3人くらいは混ぜた方がいい感じ。
↓色々試した感想
マーゴットロビー:眉上がってキリっとする
アンジェリーナジョリー:たらこ、しわ、エラ、ケツアゴ
アンハサウェイ:眉あがる、唇厚め
アナデアルマス:目でかくなる、鼻細くなる
ナタリーポートマン:整う、エマに近い

57名無しさん@お腹いっぱい。2022/09/05(月) 16:44:03.27ID:kel2IxsN
>>55
そうだと思う
LINEのやつ試したけど効いてないように見えるよ
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

効いてたらこうなる
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

58名無しさん@お腹いっぱい。2022/09/05(月) 16:48:47.71ID:yvSZaens
単語A:1.3 単語:0.5 なんて形式の強弱フォーマットもあるけどこれ各フォークでの独自実装だわね

59名無しさん@お腹いっぱい。2022/09/05(月) 17:21:35.13ID:MfD3e9Aa
SDではイラスト調の顔は崩れるなんて話もたった1週間ほどの研究でどんどん覆って
人間が手で描くと何日かかるか分からないような顔が数秒で出てくるようになってしまったな
これ年内に人間の絵なんて完全に終了するでしょ、速度も品質も圧倒的な差がついて

60名無しさん@お腹いっぱい。2022/09/05(月) 17:28:29.94ID:DYhN5l/K
>>59
SDで絵がいくらでも作れるからPixiv見なくていいや、とは全然ならんけどねw
http://2chb.net/r/cg/1661853927/

61名無しさん@お腹いっぱい。2022/09/05(月) 17:52:42.18ID:yvSZaens
そろそろFine Tuningのノウハウきた?

62名無しさん@お腹いっぱい。2022/09/05(月) 17:56:49.18ID:1bIbTAPY
>>52
ファインチューニング(textual inversion)のptファイルって、モデルが変わっても使えるのかな?
追加学習って言葉のイメージからモデルのバージョンが変わると使えなくなるように思いこんでた。

63名無しさん@お腹いっぱい。2022/09/05(月) 18:01:48.78ID:yvSZaens
本家ととりんさまでとりあえず使えることは確認した

64名無しさん@お腹いっぱい。2022/09/05(月) 18:05:17.64ID:1bIbTAPY
>>63
あり。 なら大丈夫かな
仕組み分かってないから何ができて何が駄目なのか分からないw

65名無しさん@お腹いっぱい。2022/09/05(月) 18:29:14.85ID:h8IzHV7Z
>>33
https://github.com/Maks-s/sd-akashic
こことここからのリンクにStable Diffusionについての情報が結構まとまってる
重要なのとしては以下

プロンプトは75単語までしか有効じゃない
大文字小文字は区別しない
Unicode文字が有効(だから絵文字とか日本語の単語ならOK)
同じプロンプト、同じシード値、同じ設定なら同じ絵が出てくる

あたりかな

66名無しさん@お腹いっぱい。2022/09/05(月) 18:36:54.33ID:PZqsQHOH
>>14
アーマードコアは冗談で入れてみただけなんだけど、顔が整ったりはせず鎧が強化されただけなのが面白かった

67名無しさん@お腹いっぱい。2022/09/05(月) 18:41:02.28ID:X0gZA6g9
>>62
詳しくないがptは多分無理だと思う
ここで言ってるのはトレーニングデータのセットのこと、要は画像フォルダ
人なら顔立ちや絵柄ごとに、ものや道具なら全体像がいろんな角度から写ったもので集めて保存してるだけ
新しいモデルが来たらスクリプト一発でfine tuningし直せるように準備してある

68名無しさん@お腹いっぱい。2022/09/05(月) 18:42:46.62ID:1bIbTAPY
>>65
> プロンプトは75単語までしか有効じゃない

単語じゃなくてトークンなんだよね。
トークンって何?っていうのは明確に書いてる場所がわからないけど、過去スレで検証してた内容としてはこんな感じだった。

・日本語文字などUnicodeは1文字=2トークン(Unicodeは2バイトとじゃないものもあるので文字によっては1文字=3トークン、4トークンとかもありそう?)
・","も1トークンになる
・Girlとかの単語は、1トークン。 しかしSwimingは、”Swim"+”ing"の2トークン
 とかトークンカウントはよく分からない

69名無しさん@お腹いっぱい。2022/09/05(月) 18:48:22.17ID:h8IzHV7Z
>>68
トークンは読めてたけど大体単語と同意義だと思ってた
過去スレで検証済みだったのか
教えてくれてありがとう

トークンカウント、たぶん形態素解析ってやつかけて単語数をカウントしてるんだと思う
単語くらいしか知らない程度なのでこれ以上のことは言えないけど

70名無しさん@お腹いっぱい。2022/09/05(月) 18:54:28.15ID:yvSZaens
トークンベースはたぶんBERTだならCentencePeace分割ぞ

71名無しさん@お腹いっぱい。2022/09/05(月) 19:36:43.83ID:o8EbExh/
トークンの話は混乱を招くだけな気もするから「そんなもんがあるんだ~」ハナホジーくらいが良い気もする
分け方に規則みたいなものはないし

72名無しさん@お腹いっぱい。2022/09/05(月) 19:49:28.62ID:1bIbTAPY
まあそうね。
過去スレも、なんかプロンプトの後ろの方無視されるんだけど?ってことから検証になってたからその辺注意ぐらいかな

73名無しさん@お腹いっぱい。2022/09/05(月) 19:56:40.89ID:o8EbExh/
今はhlkyとかAUTOMATIC1111のGUIなら制限教えてくれるようにもできるし

74名無しさん@お腹いっぱい。2022/09/05(月) 20:08:44.13ID:0/+f7+AD
ライセンス表記ってどうすればいいの?
画像使う時も必要っぽいけど。

75名無しさん@お腹いっぱい。2022/09/05(月) 20:23:40.88ID:PzfqlbaI
クリスタプラグインのnekoなんちゃら試しとるやつおらんか?

76名無しさん@お腹いっぱい。2022/09/05(月) 21:29:18.58ID:kel2IxsN
今はソースしか公開されてなくてビルド済みプラグインのリリースはまだらしいので居ないと思う
https://github.com/mika-f/nekodraw

77名無しさん@お腹いっぱい。2022/09/05(月) 21:31:47.62ID:Ox5Q16DG
そういやフォトショのプラグインってローカル環境必要なんだっけ?
新しいモバイル買って写真はそっちメインになるんだけどXeしかないのよな
dGPU付きの15インチも持ってはいるけど気軽にスタバとか行けない

78名無しさん@お腹いっぱい。2022/09/05(月) 21:36:05.19ID:e3ZfzXb9
>>76
今はUsageのとこから落とせそうだよ
俺はAMD環境だから試せないけど

79名無しさん@お腹いっぱい。2022/09/05(月) 21:36:17.02ID:Ox5Q16DG
ファイル鯖かデスクトップにサーバー立てるとかでもいいんだろうけど素人には難易度高すぎる
と思ったけどVPNからweb UIみたいにローカルの代わりに走らせてるマシンのポートに繋ぐとかでいいのかな

80名無しさん@お腹いっぱい。2022/09/05(月) 21:41:12.21ID:aJt6xORT
>>78
> 今はUsageのとこから落とせそうだよ

リンクが https:/github.comだから現時点ダミーな気がする

81名無しさん@お腹いっぱい。2022/09/05(月) 21:44:00.79ID:kel2IxsN
またひとつデスクトップアプリが増えたらしい これはCPUでも動かせるオプションがあるみたい
https://gigazine.net/news/20220905-stable-diffusion-ui/
https://github.com/cmdr2/stable-diffusion-ui

>>78
Downloadリンクはあるけど、まだダミーみたいだった

>>79
gradioにインターネットで公開するオプションあるからパスワードかけてそれ使うのがいいかも
hlky版だと --share と --share-password オプションがあるので

82名無しさん@お腹いっぱい。2022/09/05(月) 21:57:50.30ID:5/a6jdMW
ちなみにhlkyってなんて読むの?ハルキー?

83名無しさん@お腹いっぱい。2022/09/05(月) 21:59:57.13ID:+qFi5P8v
GIGAZINEは体裁を整えただけの5ちゃんまとめと変わらないな
ライブドアニュースも記事パクってるの草

84名無しさん@お腹いっぱい。2022/09/05(月) 22:13:57.57ID:xxwP/D+V
https://github.com/justinpinkney/stable-diffusion

生成画像からイメージバリエーションを生成するフォーク
・元々あるCLIPテキストエンコーダを削除して、CLIPイメージエンコーダに変えた
 インプットイメージに似ているが、細部が違うバリエーションを生成する
 (img2imgとは完全に違うアプローチ)

・モデルもファインチューニングしたものを用意(LAION aethetics v26+ datasetを学習)

---

CLIP=言語ガイダンスだと思ってたら、CLIPイメージエンコーダなんてあるんだと初めて知った
モデルはこの機能と独立した改善版なのかな?

85名無しさん@お腹いっぱい。2022/09/05(月) 22:15:00.66ID:ukdYrT7X
あそこ中身はただの週刊誌だからね
よくわからん身内の土地問題とかやってしかも敗訴らしいし

86名無しさん@お腹いっぱい。2022/09/05(月) 22:20:06.23ID:t94ug+/s
>>85
あれやってること完全ヤクザなんだよね。。。
あの事件以来gigazineは読まないようにしてる。

87名無しさん@お腹いっぱい。2022/09/05(月) 22:20:41.85ID:d76w8eR/
日本語で出力してみるのも楽しいな
リボンつけた猫のキャラとか中国のパチ物っぽいのでてくる

88名無しさん@お腹いっぱい。2022/09/05(月) 22:21:09.17ID:xxwP/D+V
GIGAZINEの記事、1つしか見てないけど日本語で丁寧に解説してて役に立ついい内容だと思ったな
まあ、最新を追うなら英語ソース読むとか、自分で検証するとかってなるし、分かってる人が読む記事ではないと思うけど

89名無しさん@お腹いっぱい。2022/09/05(月) 22:24:47.18ID:ukdYrT7X
お神輿が出したくて試したがだめだった
漢字ローマ字とポータブルシュライン(deeplとgoogleさんによる和訳)はお祭りっぽい感じにはなるけど本体が映らない
日本文化には弱いかね

90名無しさん@お腹いっぱい。2022/09/05(月) 22:30:43.72ID:+CQ4bXTz
>>84
意訳が過ぎやしないか?

CLIPに入力画像を解釈させてそれをプロンプト代わりにして
モデルにはCLIPを訓練したのと同じデータセットでファインチューニングしたものを使って
CLIPが見たものとSDが出すものを一致させるついでにちょっと変えてバリエーションを作るって話だぞ

91名無しさん@お腹いっぱい。2022/09/05(月) 22:33:31.64ID:xxwP/D+V
>>90
そうなんだ?

これ見て書いちゃった
https://twitter.com/GaggiXZ/status/1566756889714724864
https://twitter.com/5chan_nel (5ch newer account)

92名無しさん@お腹いっぱい。2022/09/05(月) 22:42:03.22ID:wNgqRwHH
>>89
神輿は認識してるが、神輿の画像=取手のあるものばかりじゃなく
地面に本体だけ置いてあるものや組み立て前のも含まれてるようだ
期待の物が出てくる確率はかなり低そう

93名無しさん@お腹いっぱい。2022/09/05(月) 22:56:59.03ID:yJg69VWe
((()))が怯えて弱いイメージで[[[]]]が硬く強いイメージなのに逆なのか…

94名無しさん@お腹いっぱい。2022/09/05(月) 23:00:01.94ID:ukdYrT7X
>>92
まさにそれでミニチュア神社が鎮座する場面だらけ
キャリーとか入れるとそれを持ち上げる奇妙な絵になってしまうし、神輿で有名な祭りとかを指定しても駄目だった

95名無しさん@お腹いっぱい。2022/09/05(月) 23:16:20.10ID:A7pj4N4M
学習してない概念はどう指定しても無理っぽい気がする
逆に学習してるものなら指定しなくてもバイアスから読み取ってから勝手にやってくれる気がする

96名無しさん@お腹いっぱい。2022/09/05(月) 23:26:50.21ID:+CQ4bXTz
御輿運ぶ取っ手っぽいものは英語圏に無いのかね
それにミニチュア神社乗せる荒技ぐらいしかもう無いでしょ

97名無しさん@お腹いっぱい。2022/09/05(月) 23:33:41.89ID:LX5lrhji
>>89
日本文化に弱いってのは実感してる
巫女さんや黒髪ポニテに導こうとしても
そうじゃない(緋袴)とか、白リボン結びは
色んな説明をプロンプトに突っ込んだが
どう詳しく書いても、既存キャラ名指定しても
描いてくれなかった
着物や浴衣やスク水はあんなに的確に書いてくれるクセに

98名無しさん@お腹いっぱい。2022/09/06(火) 00:22:30.63ID:88sKE9iA
何度かテストしてみた結果TIファイーンはある程度元画像は似通ったものにした方がいい感じ

99名無しさん@お腹いっぱい。2022/09/06(火) 00:40:34.05ID:/OeY5duu
よく目にするけどファイーンって表記は何かのミームなのか?

100名無しさん@お腹いっぱい。2022/09/06(火) 00:42:17.98ID:e0Q0PIBg
>>19
kritaを管理者実行したらkritaのプラグイン動いたわ
なかなかインペイントむずいな
物体を認識して付近に似たものを描画してくれるけど境界線がどうしても目立ってしまう

101名無しさん@お腹いっぱい。2022/09/06(火) 00:55:51.68ID:+59eY0ZR
これ初期シードの影響大きいな
シード値一緒ならワード増やしたり減らしたりしても同じポーズとるわ
動詞変えたらさすがに多少違うポーズ取るけどそれでも顔は同じところから生えてくるし腕とかも同じように使おうとする

102名無しさん@お腹いっぱい。2022/09/06(火) 01:48:38.58ID:6gsXsckD
Autoエンコーダーが学習してないものは出力として再現不可能だから
img2imgで詳細な形を指定しようが全然無理っぽい

103名無しさん@お腹いっぱい。2022/09/06(火) 01:55:14.35ID:VmAlS/3h
Kritaやっぱまだ使いづらいな
ベースの強さ的にもphotoshopが覇権とるか

104名無しさん@お腹いっぱい。2022/09/06(火) 02:07:43.55ID:VwiAAoh2
ついに「CLIP STUDIO PAINT(クリスタ)」で画像生成AI「Stable Diffusion」を動かすプラグインが登場
https://gigazine.net/news/20220905-clip-studio-paint-stable-diffusion-nekodraw/

105名無しさん@お腹いっぱい。2022/09/06(火) 02:48:58.29ID:drnsx0qf
SDアップスケールは両方できるけどRemacriが使えたり細かい設定ができるヴォルデモート版のほうがいいな

106名無しさん@お腹いっぱい。2022/09/06(火) 03:43:54.98ID:bMX3nbzC
ツイッターでもライセンスの書き方に迷ってる人は結構いるな。

107名無しさん@お腹いっぱい。2022/09/06(火) 06:12:33.13ID:vbEo48vh
革命起こっててワロタwwww

1050ti VRAM4GB、ターボオプションありで
512x894, 704x640 まで安定して出力できた
(元は 512x640, 576x576 辺りが限界)
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

hlky版で動作確認

【改良版の適用方法】
① ldm\modules\attention.py
この中身を↓に置き換える
https://raw.githubusercontent.com/Doggettx/stable-diffusion/d3c91ec937a4f1d4fc79b68875931bdb5550bb6e/ldm/modules/attention.py

② ldm\modules\diffusionmodules\model.py
この中身を↓に置き換える
https://raw.githubusercontent.com/Doggettx/stable-diffusion/d3c91ec937a4f1d4fc79b68875931bdb5550bb6e/ldm/modules/diffusionmodules/model.py

(該当箇所をうまく変更すればどのverでもいけるらしい)

【参考】
https://www.reddit.com/r/StableDiffusion/comments/x6dhks/fork_for_automatic_memory_allocation_allows_for

108名無しさん@お腹いっぱい。2022/09/06(火) 06:39:47.28ID:uZ8ingWj
同じ画像サイズの出力スピードはどんなもん?
変わらないなら入れてみるかな

109名無しさん@お腹いっぱい。2022/09/06(火) 06:41:51.18ID:o/qxjB1W
>>108
試してないけどredditに乗ってるコード見る感じ、メモリが超過しそうなら小刻みにする、って感じだから同じ解像度なら変わらないんじゃなかろうか
メモリが超過しそうかどうかの判定は追加されてるけど

110名無しさん@お腹いっぱい。2022/09/06(火) 06:42:00.15ID:+u20ioKI
https://twitter.com/meng_shengyu/status/1566785389855129601
Simon Meng @meng_shengyu (2022/09/05 22:48:41)

Currently develop a colab version of dreamfields which could generate 3D model and 360° videos by text & image prompt input.
Here is a flower tree video / 3D model generated by text prompts.



3Dモデル版のサンプルですって
https://twitter.com/5chan_nel (5ch newer account)

111名無しさん@お腹いっぱい。2022/09/06(火) 06:45:28.51ID:HErCNKNd
単語に+,-と数字の重みづけ同時にできるフォークってある?

112名無しさん@お腹いっぱい。2022/09/06(火) 06:54:32.20ID:fkuA9U0e
hlky版が:数字、名前言えない人版が括弧式

113名無しさん@お腹いっぱい。2022/09/06(火) 06:57:29.95ID:o/qxjB1W
>>112
「名前言えない人」ってなんですか? 統一教会関係?

114名無しさん@お腹いっぱい。2022/09/06(火) 06:58:52.95ID:+u20ioKI
>>107
8Gで1024x960までは出せたわ
すげーな

115名無しさん@お腹いっぱい。2022/09/06(火) 07:02:16.72ID:fkuA9U0e
11111の人版の通称がヴォルデモート版とか名前言えない人版とか

116名無しさん@お腹いっぱい。2022/09/06(火) 07:04:43.44ID:o/qxjB1W
>>115
https://github.com/AUTOMATIC1111/stable-diffusion-webui
のこと?

幼稚なやつだな。くだらんこといってんじゃねーよ

117名無しさん@お腹いっぱい。2022/09/06(火) 07:10:17.30ID:PG0Xh5/U
dalleやkritaみたいなアウトペインティングのライブラリってないの?

118名無しさん@お腹いっぱい。2022/09/06(火) 07:11:02.67ID:mJgmMHn3
>>115
無知ですまんけどAUTOMATIC1111と仮に言ったら何が起こるの? 誰かに怒られるとか?

119名無しさん@お腹いっぱい。2022/09/06(火) 07:18:13.81ID:+YY3yVFv
4chanに書き込んだらBANされるとかなんとか
https://pastebin.com/raw/8SuS2LRy
そこらのネタはよく知らん、説明しないからいい加減ちょい鬱陶しいな

120名無しさん@お腹いっぱい。2022/09/06(火) 07:21:30.96ID:+YY3yVFv
ああわかった
https://github.com/AUTOMATIC1111/4chan-captcha-solver
これを作った人だそうでw
なるほどなぁ

121名無しさん@お腹いっぱい。2022/09/06(火) 07:23:05.11ID:o/qxjB1W
>>115は、ここを4chanと思い込んでるキチガイってわけじゃないんだろうが、まあアホだな

122名無しさん@お腹いっぱい。2022/09/06(火) 07:27:44.23ID:+u20ioKI
>>114
1024*960=983040 10万弱まではいけるんだろうというわけで1280*768をテスト、無事通過
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

1280*832は案の定エラーで落ちた

123名無しさん@お腹いっぱい。2022/09/06(火) 07:32:43.52ID:+u20ioKI
>>122
1920x512
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

512x1920
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

Futuristic sci fi jet lands at runway of cyberpunk city, night photo, dark cinematic lighting, digital concept art
steps:20 cfg_scale:8 sampler:k_lms

3070tiで1枚およそ30秒

124名無しさん@お腹いっぱい。2022/09/06(火) 07:42:08.93ID:+YY3yVFv
まぁ4chanはこのスレで書き込まれてる相当量の情報源らしいんで、敬意は払うが

125名無しさん@お腹いっぱい。2022/09/06(火) 08:10:56.92ID:Pf+lXWoC
>>107
すごい。情報ありがとう。
まさに今使っているのが1050tiで3060を夕べ買っちゃったんだけど、慌てて買わなくてもよかった説?
ほかのStable Diffusionでもパラメータを同じにして実行したら、改変スクリプト版とまったく同じ絵がちゃんと出てくるのかな。

126名無しさん@お腹いっぱい。2022/09/06(火) 08:16:15.51ID:HErCNKNd
巨大画像は同じ風景の繰り返しみたいなのしかないな
もっと情報の詰まった画像出すのは不可能なのか?

127名無しさん@お腹いっぱい。2022/09/06(火) 08:19:21.92ID:/Md+xxjc
>>126
全体に整合性があるでかい絵を真面目に生成するならVRAMいっぱい使って作るしかないね
なんか技があるかもしれないけど

128名無しさん@お腹いっぱい。2022/09/06(火) 08:20:11.12ID:U6h39kjS
>>125
VRCHATしようぜ

129名無しさん@お腹いっぱい。2022/09/06(火) 08:22:07.44ID:vV6rzYos
>>107
AUTOMATIC1111版でも試したけど確かに上限突破してる

アウトペインティングで継ぎ足すようなアルゴリズムなんだろうか

130名無しさん@お腹いっぱい。2022/09/06(火) 08:27:14.31ID:GLxajUmf
>>129
コードを見るとこれからやる処理の必要メモリ量が、フリーのメモリ量より上回ってたら分割して実行するって感じぽい

if mem_required > mem_free:
steps = 2**(math.ceil(math.log(mem_required / mem_free, 2)))

slice_size = q.shape[1] // steps if (q.shape[1] % steps) == 0 else q.shape[1]
for i in range(0, q.shape[1], slice_size):

131名無しさん@お腹いっぱい。2022/09/06(火) 08:28:21.91ID:GtmYuMbk
hlkyのバグなくなったら起こして

132名無しさん@お腹いっぱい。2022/09/06(火) 08:33:52.49ID:+QcAgDXK
ああ畜生…家のオンボロPCがこれ程頼りないと思った事は無い
自由気ままに作れんとは

133名無しさん@お腹いっぱい。2022/09/06(火) 08:40:10.79ID:5P/rB1jR
>>126
>>107 のRedditの似た質問に対する回答では
img2imgをうまいこと組み合わせるといいらしい

134名無しさん@お腹いっぱい。2022/09/06(火) 08:48:26.86ID:SS7I7xoh
512x512でだけ学習してるので、長尺の画像を作るときにどうすればいいかを持ち合わせていない
1024x1024なら比較的まともな絵が得られるはず

別にメモリ節約のために画像をつなげている訳じゃない
VRAMが多くてもこれと同じ画像が出る

135名無しさん@お腹いっぱい。2022/09/06(火) 08:49:33.29ID:pM8wujJ/
>>125
たぶん3070だとやれる幅広がるから間違った選択ではないと思う

136名無しさん@お腹いっぱい。2022/09/06(火) 08:51:39.23ID:HErCNKNd
結局モデルの学習サイズがネックになるんだね
小さい画像を高速で出して人間がつなぎ合わせるワークフローのほうが希望を感じるな

137名無しさん@お腹いっぱい。2022/09/06(火) 08:51:52.59ID:5P/rB1jR
ガチャ回せる回数が増えるのは嬉しいね

138名無しさん@お腹いっぱい。2022/09/06(火) 08:52:03.31ID:+u20ioKI
AUTOMATIC1111の方で1600x960(1536000)まで行けたわ
1920x832(1597440)はムリだった
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

139名無しさん@お腹いっぱい。2022/09/06(火) 08:55:35.26ID:pM8wujJ/
>>107
スゴイ助かると思ったけどうちだと576×576異常でエラーが吐き出されて激萎え

140名無しさん@お腹いっぱい。2022/09/06(火) 08:56:24.90ID:Pf+lXWoC
>>128
3060ならVRもへっちゃらだね。VRは興味はあるけど1050tiでは諦めてた。
1050tiはあと数年は使い続けるつもりだったのにStable Diffusionのことだけを考えてRTXデビューするから、RTXにはRTX voiceとかレイトレーシングとか「そんなことができるんだ」な機能がたくさんあると知って驚いてる。
夢が広がるなあ。

141名無しさん@お腹いっぱい。2022/09/06(火) 08:59:17.62ID:5P/rB1jR
>>139
プログラム再起動した?

142名無しさん@お腹いっぱい。2022/09/06(火) 08:59:46.94ID:uZ8ingWj
有名所のwebuiのdocker版作ってるみたい
帰ったら試す予定
https://github.com/AbdBarho/stable-diffusion-webui-docker

143名無しさん@お腹いっぱい。2022/09/06(火) 09:01:03.75ID:HQ93fvrd
>>138
綺麗だねえ
下の方の小さい人と縦長のレイアウトでスケール感が素晴らしい

>>134
繰り返しぽいイメージになるのは512x512で学習してるからなのかな
言語ガイダンスの問題で、右の方にビルがあって、左には川がある、・・・みたいな複合的な要素があるイメージ生成が苦手とどっかで読んだのでそういう問題もあるのかなと思ってた

144名無しさん@お腹いっぱい。2022/09/06(火) 09:05:14.54ID:J2nQenVI
風景画を640から1024生成にした時のQualityの低さに落胆したけど、
その違和感や落胆の正体は 同じ細部をコピペしたようになる なんだな
サイズでかくなって単純に嬉しいと思ってたが、まだでかいサイズでの学習結果が最適化されてないのか、
個人的には明らかに640の方が面白く良い絵を作れてる
現状、サイズを大きくすればバリエーションが本当になくなってる

145名無しさん@お腹いっぱい。2022/09/06(火) 09:13:56.88ID:ibuUX2/Q
>>138
GPUは何?

146名無しさん@お腹いっぱい。2022/09/06(火) 09:28:23.97ID:3huLIDIi
>>107
これって出力結果は全く変わらずに計算負荷だけ下がるの?
それとも結果自体に手を入れてる??

147名無しさん@お腹いっぱい。2022/09/06(火) 09:37:54.82ID:5P/rB1jR
>>146
結果は変わらないらしい
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

148名無しさん@お腹いっぱい。2022/09/06(火) 09:38:31.83ID:vJGS0/8Q
その風景画でのサイズのクオリティ差っていうの、画像が見てみたいな
俺でかいサイズ作れないから
512までしか出してないんだ

149名無しさん@お腹いっぱい。2022/09/06(火) 09:40:01.25ID:3huLIDIi
>>147
ありがとう☺
個人的には結果を変えてもいいと思ってるけどpromptとseedが同じなら同じ結果が出るってのがSDの特徴でもあるしなー

150名無しさん@お腹いっぱい。2022/09/06(火) 09:40:42.67ID:pM8wujJ/
>>141
プログラム書き換えてから立ち上げたからどうだろう
ノートパソコンのRTX2060だから貧弱なんかな?
メモリ合計14127MB
表示メモリ(VRAM)8147MB

151名無しさん@お腹いっぱい。2022/09/06(火) 09:42:40.96ID:pM8wujJ/
>>150
すまん途中で書き込んだ
共通メモリ 8147MB

152名無しさん@お腹いっぱい。2022/09/06(火) 09:44:33.00ID:VspCEmJa
MJは高解像度でも全体のバランスを取ってるけど
SDは高解像度だと同じパターンの繰り返しになるかんじ。上で出てる画像がちょうどそんな感じだけど

153名無しさん@お腹いっぱい。2022/09/06(火) 09:47:47.53ID:8NwgWvzy
>>107
GTX1080 8G 576x576 までいけたわ
本家のローカルに入れただけだったが、今までは448x448が限界だった
これ計算はかなりでかくてもやってるけど、保存前の?メモリ確保に耐えられないで落ちる
これ改善すればかなりデカくてもいけそうだな。

154名無しさん@お腹いっぱい。2022/09/06(火) 09:58:41.32ID:GRD8UH1H
1111版Webuiだけど4GBのGTX980でも1024*576、960*640、896*896出せた
けど明らかに出来上がりがおかしい
出せるレベルではないくらいおかしい
可愛い子一人だけ出るプロンプトなのに可愛くない子二人出るし片方は髪の毛が離脱してハゲになってしまう…
過去の遺物的グラボだから起こるおま環?…
しかしColabを使わずとも640が出せるのは嬉しい
サンクス

155名無しさん@お腹いっぱい。2022/09/06(火) 10:02:29.29ID:SS7I7xoh
顔が二つ出る現象は512を大きく超えた時の典型的な現象
スペースが空いてるからそこにまた顔を見出して描き始めてしまう

156名無しさん@お腹いっぱい。2022/09/06(火) 10:08:31.25ID:GtmYuMbk
正方形から外れた場合、伸びた方向に対してプロンプト要素を埋めようとしてなんとかって話はちょいちょい出るね
正方形で大きくしたらどうなんだろ

157名無しさん@お腹いっぱい。2022/09/06(火) 10:09:14.42ID:drnsx0qf
レベッカ・ファーガソンとか同姓同名の人物と合体してしまうのはどうしようもならないもんかね

158名無しさん@お腹いっぱい。2022/09/06(火) 10:14:33.55ID:BqP5lDRK
スペース区切りとかでレベッカ(ファーガソン)さんとファーガソン(レベッカ)さんみたいな認識になってる可能性?
アンダーバーとかなにか記号で苗字名前くっつけてみるとか

159名無しさん@お腹いっぱい。2022/09/06(火) 10:14:39.32ID:4Vr2qjbo
縦長画像を作り始めると人間の鎖骨のあたりは実は額の曲線と似ているという謎の事実に気付かされる
似てるから繋がると思って生やしちゃうんだよなきっと

160名無しさん@お腹いっぱい。2022/09/06(火) 10:15:53.87ID:BqP5lDRK
あ、同姓同名の複数人が悪魔合体か
byなんとかとか職業名頭につけるとかで個人指定強化してみるとか

161名無しさん@お腹いっぱい。2022/09/06(火) 10:18:18.81ID:drnsx0qf
スウェーデンの女優とかミドルネームとかつけても意味なかったよ

それよりドリスタで1.5使えるようになったらしい

162名無しさん@お腹いっぱい。2022/09/06(火) 10:35:03.04ID:5P/rB1jR
マジじゃん
ローカル版も1~2週間後らしい
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

163名無しさん@お腹いっぱい。2022/09/06(火) 10:36:25.57ID:HErCNKNd
automaticでtiling機能が追加された
うっかりONにしたまま人間かくと酷いことになる

164名無しさん@お腹いっぱい。2022/09/06(火) 10:39:12.24ID:6gsXsckD
まともな作品作りに作ろうと思うとやっぱり背景の一部分に使うのですら
人間が描く絵よりクオリティ低すぎて駄目だなって感じるな
一見背景は人間より上手く見えるけど雰囲気だけでお金を取れる絵ではないなぁ
AIの絵って上手いのか下手なのか分からなくなってくる

165名無しさん@お腹いっぱい。2022/09/06(火) 10:39:15.73ID:SS7I7xoh
手の消失はマシになったがそのかわりあらぬ方向に曲がった6本指の手が出現する
足の消失は改善がみられない
画風指定の時にby ~では効かなくなりpainted by ~、illustrated by ~等の明確な指定が必要になりトークンを浪費する

って1.5Betaでの評判で早く欲しいぜって人が少ない印象

166名無しさん@お腹いっぱい。2022/09/06(火) 10:43:36.04ID:VyD5Io0S
1.5しょぼいのか
しばらく停滞しそうだな

167名無しさん@お腹いっぱい。2022/09/06(火) 10:43:48.11ID:doShvn2Q
>>164
スポイトツールとしてはまあまあ有用だと思う

168名無しさん@お腹いっぱい。2022/09/06(火) 10:45:30.44ID:VspCEmJa
人間に出せないような色合いとか発想に利用価値はあると思う
ただ手直しできる技術は必要かと

169名無しさん@お腹いっぱい。2022/09/06(火) 10:45:51.12ID:5P/rB1jR
1.4 と 1.5 の比較画像とか見る限りではわりと良さそうな感じだったけどどうなんかな

170名無しさん@お腹いっぱい。2022/09/06(火) 10:52:50.57ID:pMsBKo3p
nvidia Eosが運用開始されたら半日とかでトレーニング終わるのかな

171名無しさん@お腹いっぱい。2022/09/06(火) 10:54:53.50ID:taslP8uB
プロンプトをAIに考えさせてそれ使ってゼロから学習しなおすとかじゃないからな
1.4に上乗せで学習させてるだけだからあんま期待できない

172名無しさん@お腹いっぱい。2022/09/06(火) 11:30:14.14ID:oap0IYqK
>>144
そもそも学習データが512x512なんだから、
画像大きくしても基本的にはクオリティが落ちるだけだよ

173名無しさん@お腹いっぱい。2022/09/06(火) 11:34:13.95ID:drnsx0qf
女優の名前の前にyoungってつけたところで無関係の若い人と近影を合体させたみたいな別人が出てくるのどうにかならないか

174名無しさん@お腹いっぱい。2022/09/06(火) 11:35:24.60ID:4Vr2qjbo
dreamstudioから手で動かすだけならもう1.5が使えるっぽかったので雑検証
1.5 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
1.4 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

どっちもseedや設定は同じ、1.4側は2枚NSFWフィルタにやられて消えたけどseed変えてやり直すのがだるいので許して
seedもプロンプトワードもなんとなくは引き継げるが全く同じではなくなる程度の差
これだけ見ると1.4を選ぶ人も出そうだし流派が分かれるかも

175名無しさん@お腹いっぱい。2022/09/06(火) 11:52:29.83ID:4H8pvBVp
>>142
試したけどWSL環境だとimg2imgがエラーになって使えない
issueには上がってて修正予定らしい

176名無しさん@お腹いっぱい。2022/09/06(火) 11:55:40.55ID:6gBUp1lW
DSって名前を久しぶりに聞いた
いつしかそんなのあったなぁレベルに

177名無しさん@お腹いっぱい。2022/09/06(火) 12:01:06.18ID:nPqEeu4Y
>>162
楽しみやね

178名無しさん@お腹いっぱい。2022/09/06(火) 12:08:10.31ID:BqP5lDRK
アニメ版モデルについてはなにかアナウンス来てないのかしら
すぐ(soon)発言から結構たってるような

179名無しさん@お腹いっぱい。2022/09/06(火) 12:10:42.65ID:6gBUp1lW
DreamStudioはエロ隠しボケ画像でポンド消費するのに腹が立ってやめたんだった
そこは真っ黒に白文字で抵触しましたみたいな英語出す代わりに消費なしにすべきなのに
MJみたいにRelaxモードないのも辛い

180名無しさん@お腹いっぱい。2022/09/06(火) 12:15:06.18ID:uZ8ingWj
>>175
issueにあるのってhlky本家にあるエラーだからそっちが直ったら反映するって感じに見える
docker-compose.ymlのcontextを変更したらhlky以外も使えると思うけどAUTOMATiC1111版もダメそう?

181名無しさん@お腹いっぱい。2022/09/06(火) 12:17:11.98ID:dn2pu82B
> 777名無しさん@お腹いっぱい。2022/09/03(土) 04:28:26.47ID:LqC0C0nC
> hlkyのvariation機能試そうとしてアプデしたら
> webuiの連続最大生成数が250から50になっとる…
> この数値ってどっかでいじれたりする?

> 778名無しさん@お腹いっぱい。2022/09/03(土) 05:10:12.24ID:3VRHtVkz>>781
> configs\webui\webui.yamlの19行目

こういうありがたい情報が蓄積されていくのが掲示板の良いところだよな

182名無しさん@お腹いっぱい。2022/09/06(火) 12:19:22.74ID:drnsx0qf
>>175
モード切り替えたりするといけるんでない?

183名無しさん@お腹いっぱい。2022/09/06(火) 12:21:02.73ID:BqP5lDRK
webuiはn_iter実装は無いのかしら(batchだとメモリ足りない)

184名無しさん@お腹いっぱい。2022/09/06(火) 12:23:28.79ID:pM8wujJ/
>>151
高画質いけました
暇だから動画見てたらそらGPU使うわなアホか俺

185名無しさん@お腹いっぱい。2022/09/06(火) 12:41:12.74ID:qMLZHaIk
>>178
あれもしかすると動画生成版のことじゃねえのという話
続報は一切無い

それはそれとしてdanbooruデータセットで訓練したwaifu-diffusionがhuggingfaceのdiffuserパイプライン使って動くようになった
チェックポイントファイルは数日後公開だとか

186名無しさん@お腹いっぱい。2022/09/06(火) 12:54:08.38ID:Pf+lXWoC
>>152
今のところはそうみたいね。
大きい画像に顔のアップが一つだけドーンみたいなのもそのうちできるようになるさ。

187名無しさん@お腹いっぱい。2022/09/06(火) 13:03:11.86ID:vV6rzYos
RTX3060 (VRAM12GB)でファインチューニング実験メモ

入力 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
※ソフトはイージーポーザー
設定 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
※非推奨のVRAMで無理やり動かすために設定をかなり下げている
出力 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
※時間は Global Step 70K までで4hほど

質感や髪形くらいは覚えてくれて
服装など大きいもの?を学習させるのは大変そうだなという感覚

ドキュメントによると通常はGlobal Step 3K~7Kで良いらしいけど
自分の出力で20K~30Kのあたりが一番マシに見えるのは設定下げた分かも知れない
(ひょっとするともっと必要な可能性も)

188名無しさん@お腹いっぱい。2022/09/06(火) 13:26:19.33ID:drnsx0qf
4chanでテンプレにヴォルデモート版をpastebinで貼るとスレが消されて投稿者が規制回避の名目で10分間BANを食らうようになってしまった…

189名無しさん@お腹いっぱい。2022/09/06(火) 13:43:29.23ID:uZ8ingWj
webuiの他に4chanのcaptcha抜くコード公開してるのか
そりゃbanされるわ

190名無しさん@お腹いっぱい。2022/09/06(火) 13:43:32.27ID:drnsx0qf
teenageとかyoungは名前の真ん前に置くとそこそこ別人になる(感覚的には輪郭が変わる)から間に別の特徴挟んで誤魔化すしかない
同系統の美人が欲しいだけなら前者の方法をとればいい

191名無しさん@お腹いっぱい。2022/09/06(火) 14:02:05.80ID:GRD8UH1H
1111Webui使ってるけど…安全なんかな…………
情報とかプロンプトとか全部筒抜けになっていつか暴露されるんじゃ…………

192名無しさん@お腹いっぱい。2022/09/06(火) 14:05:17.43ID:drnsx0qf
いや4chanのほうが悪いに決まってんじゃん

193名無しさん@お腹いっぱい。2022/09/06(火) 14:16:12.77ID:T2CPgTXz
少なくともAUTOMATIC1111はオフラインで動かせるから安心していいぞ
他のは知らない

194名無しさん@お腹いっぱい。2022/09/06(火) 14:16:31.13ID:uZ8ingWj
>>191
オープンソースなんだから心配ならソース読めばいいんじゃね?

195名無しさん@お腹いっぱい。2022/09/06(火) 14:20:45.92ID:T2CPgTXz
まあカスタマイズする際にコード隅から隅までみたけど
通信関連の実装なんて一切含まれてないよ
ひとつあるとすればGradioモジュールの部分くらいか
share=Trueにしてパブリックリンクを作らない限り通信は行われないが

196名無しさん@お腹いっぱい。2022/09/06(火) 14:23:10.36ID:+u20ioKI
>>145
3070ti 8GB

>>152
MJの高解像度はいきなりデカいのを生んでるわけじゃないからな
SDで言うなら512で出してうまい具合にi2iでアップスケールするようなもん
これ一般化されれがマジで凄いことになるんだけどなぁ

197名無しさん@お腹いっぱい。2022/09/06(火) 14:31:11.47ID:GRD8UH1H
よくわからないけど安全なら良かった……

1111様、いつも使わせて頂きありがとうございます…

私は愚かな民衆ですが敵ではありません…

198名無しさん@お腹いっぱい。2022/09/06(火) 14:42:19.21ID:BqP5lDRK
>>187
log/プロジェクト名/checkpointに保存されてるepoch=数字.pkcpみたいなファイルと同じ時刻のやつが一応一番スコアが良かった結果を指してる

199名無しさん@お腹いっぱい。2022/09/06(火) 14:59:19.67ID:htXxGhWG
automatic1111版少し導入に手間取ったけど使いやすいよな
hlkyのimg2imgの簡単なお絵かき機能欲しいとはおもったけど

200名無しさん@お腹いっぱい。2022/09/06(火) 15:05:26.81ID:Pf+lXWoC
>>173
クリント・イーストウッドだと

young clint eastwood from dirty harry
old clint eastwood from gran torino

みたいに書いたら若いのもじいさんのも出てきたよ

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

201名無しさん@お腹いっぱい。2022/09/06(火) 15:07:22.04ID:vV6rzYos
>>198
そんな機能あったんだね ありがとう!
見てみたら16499が最もスコア良かったらしい
あんまり違いわからないけど、エンベディングファイル作ってからもガチャ回すから絞ってくれるの助かる

202名無しさん@お腹いっぱい。2022/09/06(火) 15:08:29.63ID:dn2pu82B
テンプレに過去スレ一覧乗っけてみたんだけど、良かったかな?

203名無しさん@お腹いっぱい。2022/09/06(火) 15:53:56.02ID:6gsXsckD
ごちゃごちゃ背景は得意な割に絵に使えるような花とか小物とか家具とか
そいういう描くのは苦手なんだなぁ、それともプロンプト頑張れば素材系もいけるのかな

204名無しさん@お腹いっぱい。2022/09/06(火) 16:20:25.97ID:HErCNKNd
>>203
白背景に物体1つだけとかはimg2img使えば簡単に出せる

205名無しさん@お腹いっぱい。2022/09/06(火) 16:53:58.74ID:BqP5lDRK
>>200
なるほど、出てた映画絞りか
なんかgoogle検索じみてきた

206名無しさん@お腹いっぱい。2022/09/06(火) 16:56:39.61ID:VspCEmJa
背景のない製品の写真みたいのはpromotional product とか入れるといいかも

207名無しさん@お腹いっぱい。2022/09/06(火) 17:23:28.82ID:taslP8uB
普通にno background指定で背景消える

208名無しさん@お腹いっぱい。2022/09/06(火) 17:27:30.95ID:DnP/MWg2
>>187
助かる
単純な置物とかじゃない人間の再現は難しそうだな

209名無しさん@お腹いっぱい。2022/09/06(火) 17:36:06.90ID:drnsx0qf
teenage 名前, by Lilia Alvarado
で大体いけるかなって
しかしいくら試してもエミリア・クラークは若返らない

210名無しさん@お腹いっぱい。2022/09/06(火) 17:36:08.76ID:6gBUp1lW
前スレ964で出てたneonsecretは結局、解像度はでかくできるけど生成物は破綻してるって認識でいいのかな?
https://github.com/neonsecret/stable-diffusion/
> This repo can generate 768x2048 and 1216x1216 on 8 gb vram
> tested on rtx 3070

211名無しさん@お腹いっぱい。2022/09/06(火) 17:41:25.76ID:drnsx0qf
縦横どちらかは512以下にして後からアップスケールしたほうがいい

212名無しさん@お腹いっぱい。2022/09/06(火) 17:45:28.50ID:+jYMZ+4K
>>187
画像5こ以上使うとあまりよくないとかいてあるけどそれより少ない枚数では試した?

213名無しさん@お腹いっぱい。2022/09/06(火) 17:58:58.50ID:Vz+gZVMl
NMKD の1.3.0いつまでも絵が出ずにログに「Failed to move image 」が出てたら
設定からImage Output Folder に存在するフォルダを指定すること。
デフォルトだと存在しないフォルダのパスになっている

214名無しさん@お腹いっぱい。2022/09/06(火) 18:01:56.76ID:VyD5Io0S
Emadさんによれば明日はもっと凄いアップデートが来るらしいな
楽しみ

215名無しさん@お腹いっぱい。2022/09/06(火) 18:05:24.88ID:drnsx0qf
金に目がくらんで迷走しないといいんだけど

216名無しさん@お腹いっぱい。2022/09/06(火) 18:09:41.40ID:BqP5lDRK
2時間前くらいにgithubにSD用のdreamboothによるファイーンのコードきてた

217名無しさん@お腹いっぱい。2022/09/06(火) 18:23:31.53ID:6gBUp1lW
>>211
ああそういうことか
今やってみようとしたけど簡単hlkyに慣れ過ぎて
分岐前のbasujindalのインストールの仕方がさっぱりわからないw
もういいや

218名無しさん@お腹いっぱい。2022/09/06(火) 18:33:40.39ID:frhLprQk
縦×横が512の2乗を超えないにしてアスペクト比組んで、それをアップスケールするのがよさげ。

219名無しさん@お腹いっぱい。2022/09/06(火) 18:45:36.73ID:nPqEeu4Y
>>214
まじか
今日はSDお休みにして明日に備えるか

220名無しさん@お腹いっぱい。2022/09/06(火) 18:49:29.92ID:7AjpcoTL
1024x1024とかやっても
例えば縦横に4個顔が並んでる画像みたいなのが生成されちゃう可能性が高いから
SDのtxt2imgでは無駄な高解像度はそこまで報われないな

221名無しさん@お腹いっぱい。2022/09/06(火) 18:53:53.12ID:BqP5lDRK
またなんか新しい実装概念来た
https://note.com/fladdict/n/ncfac46d7ef80

222名無しさん@お腹いっぱい。2022/09/06(火) 19:04:59.09ID:AjgaXsRm
いい加減飽きてきたんだが?
お前ら楽しいか?こんな創造性皆無の事に時間使って

223名無しさん@お腹いっぱい。2022/09/06(火) 19:08:17.45ID:hf8pW55c
>>222
普通にあれこれ試すのは楽しいし少なくともそのレスを書き込むことよりも創造性のない行為ってのもなかなかないと思うぞ

224名無しさん@お腹いっぱい。2022/09/06(火) 19:08:22.74ID:gaylM4Bu
>>222
やることいくらでもあるのに飽きる要素ある?

225名無しさん@お腹いっぱい。2022/09/06(火) 19:09:36.99ID:6gsXsckD
現状のAIは実質的には性能が低くて遅い画像検索エンジンってだけだからな
著作権問題をクリアできるからトレス批判されずに絵の制作に使えるぞ!
ってイラストレーターにしか実用上の価値はないんだよな

226名無しさん@お腹いっぱい。2022/09/06(火) 19:11:46.97ID:Lh6Y3lSb
>>221
ブレンド昨日おもしろそう
ローカルで使いたい

227名無しさん@お腹いっぱい。2022/09/06(火) 19:17:17.57ID:U6h39kjS
これを機にAIの勉強始めたり世の中に少なからぬ影響を与えてるぞ。

228名無しさん@お腹いっぱい。2022/09/06(火) 19:19:29.13ID:vV6rzYos
>>212
全身絵が無謀っぽかったので削除して5枚で試してみたよ
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

複数人出るのはあれかな、SDで高解像度にすると複数人出やすいのと同じで、256x256で入力したからかも

229名無しさん@お腹いっぱい。2022/09/06(火) 19:21:43.83ID:AjgaXsRm
>>223>>224
悪い、俺は手と想像力をフル稼働させてクリエイティブするのが性に合ってる芸術家なんだは
他人のふんどしでクリエイティブするほど人生浪費するつもりはねえってだけ

230名無しさん@お腹いっぱい。2022/09/06(火) 19:23:08.41ID:dFEx7caz
>>229
分かる
クソレスを生み出すのが得意なクリエイターなんだね!

231名無しさん@お腹いっぱい。2022/09/06(火) 19:25:34.75ID:Jd+8gPBE
>>229
その場合黙ってこのスレを去ればいいだけでは?

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

232名無しさん@お腹いっぱい。2022/09/06(火) 19:26:21.89ID:FwGkDD1h
>>228
「手と想像力をフル稼働させてクリエイティブする」
そんな1000兆回繰り返された同じことを飽きもせずやり続ける作業をクリエイティブとは思わない

続きをやりたければこちらでどうぞ
http://2chb.net/r/cg/1661853927/

233名無しさん@お腹いっぱい。2022/09/06(火) 19:28:35.42ID:V6E/RJ6G
一応、多摩美の油画出身なんだがなあ
まさか芸術のど素人に甘くみられるとはw

234名無しさん@お腹いっぱい。2022/09/06(火) 19:28:57.08ID:V6E/RJ6G
AIが凄いのであって君たちは相変わらず無能だよ?

235名無しさん@お腹いっぱい。2022/09/06(火) 19:31:31.07ID:1fCo8WwH
>>234
ここは技術交換スレですのでこちらへどうぞ

http://2chb.net/r/cg/1661853927/
http://2chb.net/r/illustrator/1662093183/

236名無しさん@お腹いっぱい。2022/09/06(火) 19:32:33.97ID:Oes3/OMX
>>1
> ★★★ 注意 ★★★
> ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
> 漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します

237名無しさん@お腹いっぱい。2022/09/06(火) 19:34:43.29ID:Vb6RtSHl
>>233
美大出身程度の雑魚がどうかしたのか
まともな人間なら業績を自慢しな。

高校時代に受験デッサン頑張りましたってのが人生のピークなんだろうが、それ凄いと思うのは美大不合格になったやつだけよ

238名無しさん@お腹いっぱい。2022/09/06(火) 19:35:37.96ID:nPqEeu4Y
>>227
GPUの売上も少しだけ増えてるんじゃないかな

そういえば数年前からAI開発者向けにnvidiaがハイエンドGPU配ってたけど
そういうのが花開いてきた感じ

239名無しさん@お腹いっぱい。2022/09/06(火) 19:36:55.19ID:gurGPI2b
正直面白いし、ゲームで使う背景をある程度作れるのでめっちゃ重宝してる

素材でシチュエーションにあったものを探す手間がなくなっただけでも自分的には革新的

240名無しさん@お腹いっぱい。2022/09/06(火) 19:37:24.50ID:r1zYWDrE
SDのGUI入れてみたんだけどスペックは満たしてるはずなのに出力されるのが遅い
Midjourneyの速度に慣れるときついなと思いつつ
遅すぎるので何かがおかしいのかもしれないとも思っている

241名無しさん@お腹いっぱい。2022/09/06(火) 19:38:39.21ID:/KCOH4ow
>>240
なぜサーバサイドのMJと比較するのか

242名無しさん@お腹いっぱい。2022/09/06(火) 19:40:27.23ID:nPqEeu4Y
わいはCG作成過程の同じことを繰り返すような作業感にうんざりしてきたところ

そういう仕上げに近い方の過程はAIにまかせて
発想とかの上流過程に専念したい気分です

243名無しさん@お腹いっぱい。2022/09/06(火) 19:40:55.26ID:Oes3/OMX
>>240
具体的なGPUと画像サイズに対するit/sがいくらくらいか書かないとなんとも・・

244名無しさん@お腹いっぱい。2022/09/06(火) 19:41:54.71ID:r1zYWDrE
NMKD GUIで左下のステータスが(5/5)になってから
画像が出てくるまで初期設定の状態でどれだけかかるものなの?

245名無しさん@お腹いっぱい。2022/09/06(火) 19:42:34.58ID:Oes3/OMX
>>242
【Midjourney】AI関連総合【StableDiffusion】
http://2chb.net/r/cg/1661853927/

246名無しさん@お腹いっぱい。2022/09/06(火) 19:42:57.77ID:qIXl2FkQ
バニラSDで緩々遊んでたら進化が加速しててワロタ >>221

不連続な進化は自立志向型か従来志向型のリトマス試験紙
自分が自立志向型と思い込んでる従来思考型はこう言う時に炙り出される

247名無しさん@お腹いっぱい。2022/09/06(火) 19:43:33.97ID:r1zYWDrE
>>243
GPU GeForce RTX 3090 24GBメモリ
CPU intel Corei9-12900k

248名無しさん@お腹いっぱい。2022/09/06(火) 19:46:10.73ID:r1zYWDrE
>>243
画像サイズに対するit/sが(5/5)の隣にあるもののことなら2.84sになってる

249名無しさん@お腹いっぱい。2022/09/06(火) 19:49:40.10ID:Oes3/OMX
いやだから画像サイズも書きなはれ・・
一定ではなく大きくなるほど単位時間も遅くなるので

250名無しさん@お腹いっぱい。2022/09/06(火) 19:53:04.62ID:ZwZnVGnE
>>248
残念ながらその性能は正常ですね

サンプラーがこんな感じで、k_eulerと、k_heunだと倍ほど違うので、k_euler、k_euler_aを試してみてもいいかも
(早い←)k_euler_a 、k_euler、DDIM、PLMS > l_lms > k_dpm_2_a、k_dpm2、k_heun(→遅い)

後stepも25とかに減らしてみるとか

>>249
512x512で3090でこんなもんですよ

251名無しさん@お腹いっぱい。2022/09/06(火) 19:53:20.85ID:r1zYWDrE
>>249
初期設定なので512×512

252名無しさん@お腹いっぱい。2022/09/06(火) 20:00:42.84ID:Oes3/OMX
>>246
そいつ
> 無課金のcolabでも動くのではないかと思います
こんないい加減&無責任なことよく言うわ・・
無課金とかすぐ上限きて100枚も作れないし使い物にならん、いちいちcaptcha出るし

>>250-251
NMKDってそんな遅いのか
うちの3060でhlkyの--optimized-turbo、k_lms、50stepで512x512は4.00(it/s)位出る

253名無しさん@お腹いっぱい。2022/09/06(火) 20:03:15.68ID:drnsx0qf
k_euler_aだったら18でいいものが出ちゃって
それ以上はやりすぎなくらいだから
下の画像のCFGは7.5
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

254名無しさん@お腹いっぱい。2022/09/06(火) 20:06:30.52ID:Oes3/OMX
(”いいもの”が見当たらないんだが・・)

255名無しさん@お腹いっぱい。2022/09/06(火) 20:06:33.57ID:0LGlEDQ1
>>252
> NMKDってそんな遅いのか
NMKD使ったことないがhlkyでもそんなもん。

何言ってんのか分からんけど

> 3060でhlkyの--optimized-turbo、k_lms、50stepで512x512は4.00(it/s)位出る

そりゃそうだ。
it/s と sec見間違えてんのかな

256名無しさん@お腹いっぱい。2022/09/06(火) 20:09:42.66ID:Oes3/OMX
いや知らんがな・・
> 画像サイズに対するit/sが(5/5)の隣にあるもののことなら2.84sになってる
って書いてきたからその通り答えただけだ、NMKDの表示がどうとかこっちが判断することじゃない
it/sって書いてないならこっちの瑕疵じゃない

257名無しさん@お腹いっぱい。2022/09/06(火) 20:11:43.31ID:Oes3/OMX
ちがう
it/sは○sだって言われてもどうしようもない、ね

258名無しさん@お腹いっぱい。2022/09/06(火) 20:15:00.47ID:q39wj6ck
普通のゲームのキャラ絵見た時に
目が大きすぎるとか輪郭歪んでない?とか思うようになっちまった
aiが俺の不気味の谷を割り広げてる たすけてくれ

259名無しさん@お腹いっぱい。2022/09/06(火) 20:18:26.58ID:SoMUc0Z6
>>221
ブレンドは面白いとは思ったけどある閾値で一気に片方に触れるから、あんまバリエーション作れないね

260名無しさん@お腹いっぱい。2022/09/06(火) 20:19:17.34ID:r1zYWDrE
>>240 だけど解決したわ!
(5/5)になってるのに永遠に読み込み中なのがおかしい……と思ってたんだが
プリセットの画像保存先フォルダ「Images」を手動でインストール先に作成したら画像がやっと生成されるようになった

なんだMidjourneyより早いじゃん
聞いてたSDローカルのみんなの話と違いすぎてビビったわ

261名無しさん@お腹いっぱい。2022/09/06(火) 20:20:26.93ID:drnsx0qf
ソフトによってit/sだったりs/itだったりするので注意

262名無しさん@お腹いっぱい。2022/09/06(火) 20:26:30.83ID:OgnvFOf6
>>256
sと言ってるものをit/sと解釈するのはアホとしか言いようがない

263名無しさん@お腹いっぱい。2022/09/06(火) 20:28:05.35ID:BEl9v7Jn
帰って来たから>>142試したんだけど普通に動いたぞ
1111の方

264名無しさん@お腹いっぱい。2022/09/06(火) 20:28:31.38ID:Oes3/OMX
IDコロコロするのはアホとしか言いようがない

265名無しさん@お腹いっぱい。2022/09/06(火) 20:31:59.52ID:OgnvFOf6
>>264
IDなんか変えてないが?
お前無意味なチャチャしか書いてないじゃん。もう一つの方の雑談スレにでも行きなよ

266名無しさん@お腹いっぱい。2022/09/06(火) 20:34:25.43ID:Oes3/OMX
>>250
>>255
はい点呼

267名無しさん@お腹いっぱい。2022/09/06(火) 20:34:42.23ID:BqP5lDRK

268名無しさん@お腹いっぱい。2022/09/06(火) 20:37:14.05ID:Oes3/OMX
> TypeError: string indices must be integers
hlkyのimg2imgのこれうぜぇ・・
なおmaskで一度なんか書いて、cropに戻すと治る

269名無しさん@お腹いっぱい。2022/09/06(火) 20:57:50.21ID:Oes3/OMX
integersのエラーは2日前に調査中で止まってるな、まだ治ってない模様
https://github.com/hlky/stable-diffusion-webui/issues/610

昔あった「Resize and Fill」も問題があって消されてるそうな
https://github.com/hlky/stable-diffusion-webui/issues/608

あのあたり導入時から動きがおかしかった記憶

270名無しさん@お腹いっぱい。2022/09/06(火) 21:57:40.06ID:zvxKfpAE
>>237
どした?藝大、多摩美、ムサビに落ちたクチか?
良かったなAIでお絵描きした気分になれてw

271名無しさん@お腹いっぱい。2022/09/06(火) 22:00:49.01ID:r1zYWDrE
うーんSDローカルでしばらく触ってみたけど
Midjourneyの方が美術的に視覚的に好みだなあ
StableDiffusionは写真や豊富なソースを元にした良くも悪くもリアルな写実性があって、Midjourneyはアート風に割り切った「映え」な処理になる気がする

272名無しさん@お腹いっぱい。2022/09/06(火) 22:28:31.16ID:sS8z3ARA
>>268
ありがとおおお、これ困ってたんだ
8月25日あたりまでバージョン戻せばエラーでなくなるからそこまで差し戻さねばならんかと思ってた

273名無しさん@お腹いっぱい。2022/09/06(火) 22:30:04.78ID:krDFHO7t
それ聞くとMidjourney試したくなるな
課金前提っぽいので敬遠してたけど

274名無しさん@お腹いっぱい。2022/09/06(火) 22:33:55.14ID:oE9sLq8S
midjourneyはなんていうか、ベースコンセプトが内包されてる感じはする。
Sdみたいに無軌道じゃないというか。

275名無しさん@お腹いっぱい。2022/09/06(火) 22:57:46.29ID:ohPniaB6
>>267
これcolab環境出てないのね
環境設定用のやつがconda用なんだがかcolabで使うにはどうすればいいんじゃろかい

276名無しさん@お腹いっぱい。2022/09/06(火) 23:02:28.55ID:drnsx0qf
時間のかかるDisco Diffusionでもいいのならアート風強いだろ
https://github.com/alembics/disco-diffusion

277名無しさん@お腹いっぱい。2022/09/06(火) 23:42:08.61ID:yxo4qq/3
MJの利用者はお客様だからな
接待して気持ちよく遊んでいただかないと

278名無しさん@お腹いっぱい。2022/09/06(火) 23:52:11.90ID:kzTzhZT5
Midjourneyは確かにMidjourney臭さ感じる
Artstationから持ってきすぎてる気がする

279名無しさん@お腹いっぱい。2022/09/06(火) 23:57:18.02ID:kXzhOMsx
>>221 をローカル実行できたからpaste.bin使ってうpしようかと思ったら
スマートフィルターにひっかかって公開できなかった。どういうことだよ
> Pastebin’s SMART filters have detected potentially offensive or questionable content in your Paste.

280名無しさん@お腹いっぱい。2022/09/07(水) 00:05:23.38ID:hqhIf25Q
>>242
現状ではAIはその仕上げ工程が苦手だから殆ど時短にならないんだよなぁ
あるアニメータが今のアニメキャラの目は描くのに宇宙戦艦の
大量の窓全部描くのと同じ工数がかかるとぼやいてたその目が苦手で人間が入れるんじゃな

281名無しさん@お腹いっぱい。2022/09/07(水) 00:53:20.37ID:BpR9LumE
MidjourneyとStable Diffusionのプロンプトによる比較サイトがあったと思うけど
Midjourneyには明らかにデフォルトで特定の作風への補正が与えられている
一方Stable Diffusionにはそういう補正がないので悪く言えばまとまりがない

282名無しさん@お腹いっぱい。2022/09/07(水) 01:19:54.68ID:V8pVzmCt
ミッドジャーニーは補正のせいで似たようなの生まれがちだから千枚も出すと飽きるんだよな

283名無しさん@お腹いっぱい。2022/09/07(水) 01:57:32.71ID:JUO4hLGe
>>221の勝手にローカル版こっちにうpした。GUIもコマンドライン引数もなし。全部スクリプト内で指定
内部的にimg2imgでもブレンドできるようになってたから、普通にSDやるよりも思い通りにやれる可能性ある
このやり方参考に改造してくと夢広がるかも
https://%64otup.org/uploda/%64otup.org2867350.py.html

noteにちょっとコード追加すると「アニメーションもいけます」ってあるけど、ちょっとどうしたらいいんだよって分からなかったけど
実行したら画像が連番出力されたからそれを単純にツールで動画変換すればいいだけだった
https://imgur.%63om/a/4XsLuDA

284名無しさん@お腹いっぱい。2022/09/07(水) 02:38:33.33ID:dBQ1TwVr
SDのローカル入れて初めて「グラボががんばってる音」を聞くことができた

285名無しさん@お腹いっぱい。2022/09/07(水) 06:19:28.74ID:7ujeTCJS
SDは背景制作用に無人化ボタン一発機能を実装して欲しいなぁ
いくら先頭強力単語で無人化しようとしてもちらほら出てくる

286名無しさん@お腹いっぱい。2022/09/07(水) 06:50:04.76ID:Zeqx/mzK
MJはお絵描きAI、SDは画像合成AIを名乗ってるんだしデフォルトはそうなってるだろう
SDはオープンソースなんだから自分で好きにいじればいい

287名無しさん@お腹いっぱい。2022/09/07(水) 07:04:23.72ID:FhkK5/0g
DALLE2が一番promptそのまま出してくる、雑コラ見たくなるのでお笑い系には強い
対してMJは強烈めっちゃ格好良くに味付けしてくるね、SDは両者の間くらいか

MJは色の加味が強すぎて、好きな色出してくれないって弊害まである
服の色とか細かく指定しても調和優先なのか勝手にシャッフルして無視してくることしばしば
スタイル指定なくてもだけど、あればあっただけとんでもないことに
一時期、同じpromptなのかみんな青とピンクの空になってたし

288名無しさん@お腹いっぱい。2022/09/07(水) 07:39:50.14ID:9Chh/1W0
TIファイーンがSD公式でもサポートぽい

289名無しさん@お腹いっぱい。2022/09/07(水) 07:44:17.95ID:e3maBfLf
>>203
これなんだよな
そう言う素材としては
細部が変だから使えなかったわ

290名無しさん@お腹いっぱい。2022/09/07(水) 07:48:47.26ID:22Yyx/PS
有名家具職人のスタイルつけて椅子をデザインしてるやつ見た。

291名無しさん@お腹いっぱい。2022/09/07(水) 07:59:49.30ID:9Chh/1W0
(有名家具職人名)の作ったスケベ椅子

なるほど

292名無しさん@お腹いっぱい。2022/09/07(水) 08:21:46.63ID:e3maBfLf
>>242
これもすげえわかる
細かいところが得意じゃないんだろうな

とは言え惜しいね
現時点では絵描きにとって時短にはならんが
もうちょい精度が上がればな
自分の利用したい何かを
もっと学習させればいいのかねぇ

293名無しさん@お腹いっぱい。2022/09/07(水) 08:41:22.69ID:V8pVzmCt
出てきた画像をそのまま使わないといけない縛りでも課してんの?

294名無しさん@お腹いっぱい。2022/09/07(水) 08:51:15.61ID:l+bt6oxA
【Midjourney】AI関連総合2【StableDiffusion】
http://2chb.net/r/cg/1662463049/
こっちで

そういうの語りたいなら、せめて具体的なプロンプト談義でもしてくれ
> ★★★ 注意 ★★★
> ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです
> 漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します

295名無しさん@お腹いっぱい。2022/09/07(水) 09:18:12.44ID:Zeqx/mzK
aestheicを入れるとフィルターとかハイライト入れまくったインスタ映え系の画像になる
人間はこういうのが好きなんだろう

296名無しさん@お腹いっぱい。2022/09/07(水) 09:48:02.13ID:HBy5CqkQ
automatic1111版昨日使ってみた感じ
img2imgはバグがあるのかmaskした部分がズレる現象が起きたんでまともに動いてる時のhlkyの方が使いやすいかも
それ以外は安定して使いやすい

297名無しさん@お腹いっぱい。2022/09/07(水) 10:12:56.72ID:dBQ1TwVr
SD 虫麻呂って書いてないのに全部虫麻呂っぽくなる
Fantasy costume girl……

298名無しさん@お腹いっぱい。2022/09/07(水) 10:14:23.06ID:9OVuPLmi
hlkyさんアドレス変わったのか
https://github.com/sd-webui/stable-diffusion-webui

299名無しさん@お腹いっぱい。2022/09/07(水) 10:58:58.12ID:X2rsqGXX
SDのSTEP数って150以上とかにしても、ほとんど意味なかった。
たまに突然変異するみたいだけど。

300名無しさん@お腹いっぱい。2022/09/07(水) 11:06:54.68ID:peeXpuTU
150にしてたけど75に減らしても何も変わらないな

二倍速ガチャになったことのほうが恩恵あるわ

301名無しさん@お腹いっぱい。2022/09/07(水) 11:08:41.04ID:2nvOVkCf
textual inversionでSDにMJの絵を食わせて”art by Midjourney”ってやったら同じような出力になるんだろうか

302名無しさん@お腹いっぱい。2022/09/07(水) 11:12:40.90ID:xOgKY8Sf
やっぱ1111のインペイントってバグ発生してる?
ズレたりマスクした部分でも変わったり全然使えんかったけど使い方間違ってるのかと思ってた
フォトショでいじった画像を使った方が早いと言われてマスク部分を白で塗ったけど、白のまま出された

303名無しさん@お腹いっぱい。2022/09/07(水) 11:17:10.21ID:lb4GgE/W
NMKD StableDiffusionGui-v1.3.0の出力フォルダ自動生成機能、プロンプトが多いとフォルダ名が途中で切れるんだけど
フォルダ名が切れてる部分より後ろでプロンプト足したり引いたりしても新しくフォルダが生成されずごちゃ混ぜになるの注意

304名無しさん@お腹いっぱい。2022/09/07(水) 11:36:53.43ID:a4l7GaHH
基本的にstepは50で頭打ち
逆に壊れたりする

305名無しさん@お腹いっぱい。2022/09/07(水) 11:43:27.99ID:IKaUQ434
step数50以上で結構変わることもある
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

特にk_euler_a とk_dpm_2_a
他のものも70ぐらいまでは割と変わる気がする。絵によると思うけど

306名無しさん@お腹いっぱい。2022/09/07(水) 12:41:28.81ID:V8pVzmCt
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

末尾_a以外のサンプラーはstep8で全体が見えて一定stepまでは順当に変化する傾向
aestheticサンプラー2種は美麗なのが生まれやすいがstepがアテにならないカオスの運ゲー
出典reddit

307名無しさん@お腹いっぱい。2022/09/07(水) 12:42:57.55ID:i/IXBWLC
正直結果が収束しないサンプラでステップ上げるのは時間の無駄やと思う

308名無しさん@お腹いっぱい。2022/09/07(水) 12:43:26.96ID:dBQ1TwVr
なんでこんな見てて不安になる作例をサンプルにするんだ……?!
まともに見比べて吟味してたら精神ダメージ受けそう

309名無しさん@お腹いっぱい。2022/09/07(水) 12:49:31.49ID:X2rsqGXX
https://note.com/nemuriya_neko/n/n29522f85b8f3

実験の結果、こうなった。
二次特化の結果なんで、フォトリアルなんかは別かも。

310名無しさん@お腹いっぱい。2022/09/07(水) 13:03:02.89ID:mvTqOHhC
アニメ絵じゃないからかもだけどstep数が多いから良いって訳でもないよね
150でやってたけど見た目の破綻が少ないの優先だと下げた方が良い場合があるのに気がついた
変な所から生えてた腕が無くなったり崩壊気味だった顔がまともになったり

311名無しさん@お腹いっぱい。2022/09/07(水) 13:10:36.77ID:X2rsqGXX
縦長とか横長の画像になると、隙間を埋めようとするのか顔から顔が生えたりするしね。

312名無しさん@お腹いっぱい。2022/09/07(水) 13:10:59.46ID:Hhqynqiz
k_euler_aで50とか75とか回すなら
7~8ステップ以降は5つおきとかで途中ステップの画像保存した方が収量が多くて良いかもな
見てると早々に見られるようになった後は何度も変化繰り返してる

313名無しさん@お腹いっぱい。2022/09/07(水) 13:17:25.70ID:WzhwDaPx
The Wicker Man 1973, attractive, sexy, dark, gloomy, desaturated, award-winning, by Greg Rutkowski
アンセストラル系は後からsexyとattractive要素が強まってるんだよね
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

314名無しさん@お腹いっぱい。2022/09/07(水) 13:19:45.20ID:JUO4hLGe
ステップに何を求めるかかな
求めるのが時短なら変化ないサンプラーでってことになるけど
似た雰囲気で精細さを求めるとかだったら最初から4kとかhigh resolutionみたいなプロンプト指定したりimg2imgに賭けるほうがよさげだし
ガチャ代わりならシード変えた方がいいし
ステップじゃなきゃできないとか、ステップ考えた方が効率いいってのがあまりない

315名無しさん@お腹いっぱい。2022/09/07(水) 13:25:33.71ID:zjzeQQl2
https://www.reddit.com/r/StableDiffusion/comments/x7abs1/i_wrote_a_plugin_that_lets_you_use_stable/
Stable Diffusion (AI) をライブ レンダラーとして使用できるプラグイン

3DCGソフトとの相性いいよな〜

316名無しさん@お腹いっぱい。2022/09/07(水) 13:27:55.27ID:X2rsqGXX
img2imgのベースにPS1みたいな粗いモデルで構図だけぶっ込むと、絵画っぽくして出力してくれるとか面白そう。

317名無しさん@お腹いっぱい。2022/09/07(水) 13:27:55.59ID:0ty9c0Fv
>>315
2Dから3Dばかり考えていたが、逆も使い道があるんだな
もう垣根も無くなりそう

318名無しさん@お腹いっぱい。2022/09/07(水) 13:29:16.40ID:FBb1Vi+J
>>309
面白い。けど肝心のサンプラーはなんですか?
また"|"があるけど、これプロンプトマトリクスですか? 普通にやるとtrending pixiv fanbox以降は無視されるような

後、512x512以外だと(感覚的には不安定なので)検証には良くないような。
CFGも15ってめっちゃ大きいイメージある

319名無しさん@お腹いっぱい。2022/09/07(水) 13:32:04.76ID:zjzeQQl2
将来的にはゲームのリアルタイムレンダリングにも使えないかな
コストがレイトレースやレイマーチ以上だろうけど...

320名無しさん@お腹いっぱい。2022/09/07(水) 13:38:05.24ID:E0QFLZ6Q
これ背景をアルファチャンネルにするのって可能?
LRとかで被写体マスクかけてもいいんだろうけど

321名無しさん@お腹いっぱい。2022/09/07(水) 13:40:57.87ID:FBb1Vi+J
>>315
これは割と使い道ありそう

どうやってblenderでリアルタイムレンダリングしてるのかが分からないな。
手動でレンダリング(F12)してるのかしら

322名無しさん@お腹いっぱい。2022/09/07(水) 13:50:07.12ID:FBb1Vi+J
>>321
> どうやってblenderでリアルタイムレンダリングしてるのかが分からないな。
> 手動でレンダリング(F12)してるのかしら

コンポジターでファイル出力設定して自動レンダリングにチェックするだけだった。
blenderの話でスレチすみません。

PNGファイル監視して、img2imgするだけだから簡単にできますね

323名無しさん@お腹いっぱい。2022/09/07(水) 13:54:42.49ID:zjzeQQl2
seed固定すればある程度画角が変わっても似たような画像になるのかな

324名無しさん@お腹いっぱい。2022/09/07(水) 14:57:37.43ID:3wMA0E3w
画像生成AIブームの火付け役が見いだした、その可能性
https://twitter.com/fladdict/status/1567376640577273856

火付け役ってか深津貴之何もしてないだろ?何の関係があるんだ
AIの知識があるわけでもなし、誰だよこいつ・・・・
https://twitter.com/5chan_nel (5ch newer account)

325名無しさん@お腹いっぱい。2022/09/07(水) 15:00:39.28ID:Ihx6BKzn
>>10
このkritaプラグインのインペイントを使いたいけど
Colab使用法で使ってもサーバーエラーになって使えない
Colabで構築してhttps://●●●●.gradio.app立ち上げて
URLをコンフィギュレーションに貼るだけじゃダメメ?

326名無しさん@お腹いっぱい。2022/09/07(水) 15:01:28.28ID:JUO4hLGe
胡散臭い顔つきだなw

327名無しさん@お腹いっぱい。2022/09/07(水) 15:05:38.69ID:GYh+wYQh
>>288
mimic叩いている間にもっと凄いの出て来ると

328名無しさん@お腹いっぱい。2022/09/07(水) 15:06:12.34ID:H5M41GOr
深津って人、顔はともかくマジで誰なんだw
OpenAI かStabilityAIの人かと思ったら違うし何した人だろう?

329名無しさん@お腹いっぱい。2022/09/07(水) 15:08:50.00ID:GYh+wYQh
>>322
blenderはpythonで動かしている層があってオープンソースだからpythonでプラグイン書ける人ならUI使わなくてもあれこれ動かせるはず

330名無しさん@お腹いっぱい。2022/09/07(水) 15:10:05.09ID:20KA6+UR
>>325
管理者権限でKritaを起動して
URLの末尾にスラッシュ付けたらいけないぞ

331名無しさん@お腹いっぱい。2022/09/07(水) 15:11:21.78ID:20KA6+UR
>>325
管理者権限でKritaを起動

URLの末尾に/を付けてはいけない

この2点で動くぞ

332名無しさん@お腹いっぱい。2022/09/07(水) 15:12:00.03ID:gy2sfUU5
>>324
学生の頃にスマホ黎明期のカメラアプリで一発当ててた開発者だよ

333名無しさん@お腹いっぱい。2022/09/07(水) 15:13:58.58ID:crnIWB/R
>>329
そうだけど、blenderは自動レンダリングをフックできるAPIがないので、外部でファイル監視するのが現実的な気がする
Viewportで変更を加える都度にリアルタイムでSDでもレンダリングさせるには、だけど

334名無しさん@お腹いっぱい。2022/09/07(水) 15:15:10.99ID:20KA6+UR
OpenAIなんてGAFAMより上のエンジニアだぞ

比較なんてしたら惨めになる

335名無しさん@お腹いっぱい。2022/09/07(水) 15:16:49.20ID:0ty9c0Fv
>>324
酷いな

336名無しさん@お腹いっぱい。2022/09/07(水) 15:20:28.48ID:Ihx6BKzn
>>330
ありがと!
でもやっぱサーバーエラーになっちゃうわ…
Colabの方にもエラーが表示されてる…

\AppData\Roaming\krita\pykrita\stable_diffusion_krita\sd_main.py", line 536, in getServerData
with urllib.request.urlopen(req) as f:
File "urllib\request.py", line 222, in urlopen
File "urllib\request.py", line 531, in open
File "urllib\request.py", line 640, in http_response
File "urllib\request.py", line 569, in error
File "urllib\request.py", line 502, in _call_chain
File "urllib\request.py", line 649, in http_error_default
urllib.error.HTTPError: HTTP Error 500: Internal Server Error

Colab

Traceback (most recent call last):
File "/usr/local/lib/python3.7/dist-packages/gradio/routes.py", line 260, in run_predict
fn_index, raw_input, username, session_state
File "/usr/local/lib/python3.7/dist-packages/gradio/blocks.py", line 685, in process_api
inputs = self.preprocess_data(fn_index, inputs, state)
File "/usr/local/lib/python3.7/dist-packages/gradio/blocks.py", line 591, in preprocess_data
processed_input.append(block.preprocess(raw_input[i]))
File "/usr/local/lib/python3.7/dist-packages/gradio/components.py", line 1061, in preprocess
return self.choices.index(x)
ValueError: 4 is not in list

337名無しさん@お腹いっぱい。2022/09/07(水) 15:20:48.32ID:fR+cA5Sk
3Dモデリングのためのキャラ立ち絵を24時間SDぶん回してたらキャッシュ?でクロームがクラッシュして立ち上がらん事なったわ
みんなはこまめにキャッシュクリアしてくれ クロームの設定をちょいちょい元に戻すのダルすぎる

338名無しさん@お腹いっぱい。2022/09/07(水) 15:24:04.77ID:GYh+wYQh
AIで色々な合成画像が作れるという話題がポツポツあっても話題が広まらなかったのが、
midjourneyに描かせた絵にAIが絵を描くとこうなるのか!
という独特の美しさがあったから研究者以外にも広まったと考えるとmidjourneyの開発者がブームの火付け役のような

339名無しさん@お腹いっぱい。2022/09/07(水) 15:24:37.37ID:20KA6+UR
>>336
https://●●●●.gradio.app
にブラウザでアクセスしてgradioが動いてるか確認して

だめならmodel.ckptが読み込めてないとか

340名無しさん@お腹いっぱい。2022/09/07(水) 15:27:02.68ID:JUO4hLGe
>>337
ぶん回すならコマンドラインが安定だよ
webUIはおためしにはいんだけどな

あと意外にGPU食ってるアプリあるからタスクマネージャーで調べた方がいい
うちだとテキストエディタがGPUメモリ600MB消費してて驚いたよ

341名無しさん@お腹いっぱい。2022/09/07(水) 15:31:42.00ID:fR+cA5Sk
>>340
コマンドラインで動かしたいけど肝心な知識が・・・
俺がクロームで動かしてるから、神フォークでみんなが1000×500ぐらい行けるっていってるのに
それよりも妙に小さい画素だったのかも

342名無しさん@お腹いっぱい。2022/09/07(水) 15:31:58.39ID:Ihx6BKzn
>>339
サイトURLは読み込み可能でサイトでは画像も生成可能です!
ということでmodel.ckptも読み込めてるはずです!

なのになぜ栗田はサーバーエラーを返しちゃうの…

343名無しさん@お腹いっぱい。2022/09/07(水) 15:35:17.65ID:20KA6+UR
>>342
4番目がないってエラーが出てるから
パラメータいじったらエラーが出るんじゃね

ベータ版だからパラメータをいじってたら戻したほうがいい

あとはわからない

344名無しさん@お腹いっぱい。2022/09/07(水) 15:38:32.67ID:20KA6+UR
一番上のプロンプトだけ入力してOKしてみるとか

Windows11ではうごいたんよ

345名無しさん@お腹いっぱい。2022/09/07(水) 15:44:55.15ID:GYh+wYQh
ゲーム用のGPUのメモリーはグラフィック用だから多少データー化けしてもOKな設計になっていてECCでの保護とかされていないからそこは覚悟して

346名無しさん@お腹いっぱい。2022/09/07(水) 15:48:49.20ID:Ihx6BKzn
>>343
色々いじってみます!
それでも無理なら……

諦めます!!

347名無しさん@お腹いっぱい。2022/09/07(水) 15:56:21.59ID:20KA6+UR
>>346
同じエラー出たわ
プラグインアップデートしたら動かなくなってる

348名無しさん@お腹いっぱい。2022/09/07(水) 16:06:38.80ID:Ihx6BKzn
>>347
えええええええ!!!!!
衝撃の展開じゃないですか!!

とりあえずアップデート待つことにします…

349名無しさん@お腹いっぱい。2022/09/07(水) 16:44:43.32ID:X2rsqGXX
ありゃ? モデルバージョンアップ入った? Colabの出力結果が同じシードでも若干変わってる。

350名無しさん@お腹いっぱい。2022/09/07(水) 16:44:57.04ID:4zC82BsR
テンプレがmodel.ckptじゃなくて.ckpなのにはなんか理由あるの?

351名無しさん@お腹いっぱい。2022/09/07(水) 16:48:58.94ID:peeXpuTU
>>324
言ったもの勝ちだぞw

352名無しさん@お腹いっぱい。2022/09/07(水) 16:50:03.49ID:/ST7KoEK
ckptの誤字だね 直しといた

353名無しさん@お腹いっぱい。2022/09/07(水) 17:29:53.77ID:9OVuPLmi
>>107
これ見てなかった、有用な情報ありがとう
hlkyはスライダーが1024までしかないけど、1111でサイズ最大の2048x2048まで行けたw
キメラ化するのとs/itは鬼のように落ちるけど、img2imgで最後の一発に使えばいいよね

354名無しさん@お腹いっぱい。2022/09/07(水) 17:46:26.22ID:WzhwDaPx
これまでのアップスケールソフトすべてに言えることだけど
アート系はSDアップスケールでもキレイになりすぎてしまって元の画像の質感がごっそり失われる

355名無しさん@お腹いっぱい。2022/09/07(水) 18:09:52.97ID:9Chh/1W0
colabわかるマンいたらdreamboothのファイーン試して見ておくれよ

356名無しさん@お腹いっぱい。2022/09/07(水) 18:45:36.96ID:2/ozrobX
ファイーンっていうのやめないか?

357名無しさん@お腹いっぱい。2022/09/07(水) 18:47:49.32ID:ieX4ORq0
>>356
同感。検索引っかからなくて面倒くさい

358名無しさん@お腹いっぱい。2022/09/07(水) 18:54:40.03ID:iPE4UVJc
1111版にプレビュー機能追加されてる!
4gbでも使えて超便利
4ステップごとに画像表示すると0.76倍速だった

359名無しさん@お腹いっぱい。2022/09/07(水) 18:58:37.88ID:iPE4UVJc
あ、初期設定では無効だから注意
GradioのSettingsタブの一番下にある

360名無しさん@お腹いっぱい。2022/09/07(水) 19:08:15.41ID:1EpIg+Lu
検索避けかなw?

361名無しさん@お腹いっぱい。2022/09/07(水) 19:10:45.03ID:9OVuPLmi
>>358
いいね、面白い

362名無しさん@お腹いっぱい。2022/09/07(水) 19:13:07.98ID:WzhwDaPx
refineをファイーンって言うの老人会のネタなのか知らないけど意味が全くわからなくて気持ち悪い

363名無しさん@お腹いっぱい。2022/09/07(水) 19:14:48.93ID:WzhwDaPx
fine tuningだった
怒りに任せて書き込んでしまった

364名無しさん@お腹いっぱい。2022/09/07(水) 19:54:34.04ID:ieX4ORq0
Discord

Q. txt2video、video2videoってどのぐらいのスペックのGPUが必要そう?
 未来のことだからわからないと思うけど、3060でも動くと思いますか?

Emad: .今後決める話だけど、最低でも100億パラメータのモデルになるだろうから、3090はいると思う

多分ビデオ生成、最初は動いてもオモチャみたいなもんだろうから飛びつく話じゃないとは思うけど
やっぱVRAMいるね

このAIプチブーム用にGeforceのVRAM大きいバージョンとか出してくれないかな

365名無しさん@お腹いっぱい。2022/09/07(水) 19:56:24.96ID:WzhwDaPx

366名無しさん@お腹いっぱい。2022/09/07(水) 20:03:24.38ID:1JqYbSBN
君達の一喜一憂についていきたいけどプログラムが全然分からない

367名無しさん@お腹いっぱい。2022/09/07(水) 20:03:30.97ID:OfBhuBKh
>>364
SDをCPUで走らせてるのもあるからな
そういうのは利便性(その生成速度を満足できるかって気分)との兼ね合いでしかない

368名無しさん@お腹いっぱい。2022/09/07(水) 20:13:14.35ID:gOSHm3dZ
CPUだとだいたい10倍以上時間かかるから勧めれない

369名無しさん@お腹いっぱい。2022/09/07(水) 20:18:03.53ID:ibtxRLtM
今、30シリーズガンガン値崩れしてるからチャンスっちゃチャンス。

370名無しさん@お腹いっぱい。2022/09/07(水) 20:25:57.00ID:2/ozrobX
多くの人はlineとかのapiで満足するし、ローカル構築する人でも8gbもあれば十分だし20gb以上必要なのはTIとかそれ以上のことやろうとする人ぐらいだしな
そのためにわざわざvram増量版つくるかな

371名無しさん@お腹いっぱい。2022/09/07(水) 20:44:50.65ID:vgwImwhg
1111版のアウトペインティングのスプリクト名にpoor manとか付いてて草

372名無しさん@お腹いっぱい。2022/09/07(水) 20:46:36.34ID:w+4N7F9v
早く円高に

373名無しさん@お腹いっぱい。2022/09/07(水) 21:16:48.27ID:iPE4UVJc
poor manは代替品、即席的な意味
poor man's DIとか

374名無しさん@お腹いっぱい。2022/09/07(水) 21:24:37.68ID:+XPj8XdQ
>>366
You Tubeでサプーみてこい

375名無しさん@お腹いっぱい。2022/09/07(水) 21:40:37.41ID:GYh+wYQh
>>364
GPUはそんなに速くなくても良いからメモリー沢山積めるのを欲しがるようになるなんて、数ヶ月前までは考えもしなかった

376名無しさん@お腹いっぱい。2022/09/07(水) 21:45:43.17ID:DvGcIVqH
>>348
修正されたプラグイン見つけたぞ
https://github.com/eirifu/stable-diffusion-krita/archive/refs/heads/main.zip

1111版のColabを使ってるから
そっちのアップデート次第でいつでも止まるわこれ

377名無しさん@お腹いっぱい。2022/09/07(水) 21:46:58.71ID:2nvOVkCf
待てるならRTX4000シリーズを待つべき

378名無しさん@お腹いっぱい。2022/09/07(水) 21:48:25.64ID:sYdJOvTR
円安も相まって40xxはクソ高くなるぞ

379名無しさん@お腹いっぱい。2022/09/07(水) 21:54:31.63ID:GYh+wYQh
RTX40x0用のCUDAが出てその対応で少しごたごたするかもよ

380名無しさん@お腹いっぱい。2022/09/07(水) 21:58:42.25ID:0ty9c0Fv
来年になったら動画生成が流行りになってて、4090でも手も足も出ないんだろうな
古いの並列に繋げて爆速にさせる技術とか無いんか

381名無しさん@お腹いっぱい。2022/09/07(水) 22:05:09.89ID:bD8IZVyS
>>380
SLIのことを言っている?

382名無しさん@お腹いっぱい。2022/09/07(水) 22:14:42.06ID:ibtxRLtM
cudaが走らんと…
あれRTXからやろ?

383名無しさん@お腹いっぱい。2022/09/07(水) 22:23:24.09ID:GYh+wYQh
blenderのGPGPU使ったレンダラーは何回か新しいGPUが出てそれ対応のCUDA対応待ちになったことある。

384名無しさん@お腹いっぱい。2022/09/07(水) 22:50:17.52ID:OfBhuBKh
レンダリングは影だ反射だ計算してくれる機能が追加されたり変更されたりするから対応必要になるんじゃないの?
逆に切られると使えないGPUもでてくる。DazStudioとか新しいバージョンだけGTX650以前の未対応になったし

SD(AI)だと基本は単純計算だから対応作業いらないと思うよ

385名無しさん@お腹いっぱい。2022/09/07(水) 22:53:14.48ID:V8pVzmCt
>>380
一気に長時間作る前提で考えたらそうかもしれんが

10秒の動画生成
フレームレート補完
アップスケール
最後のフレーム引き継いで次の10秒間を生成

連結

こんな風に分割してやりゃええやん

386名無しさん@お腹いっぱい。2022/09/07(水) 23:00:24.10ID:0yNh0oHJ
後、10秒って30FPSでも300フレームじゃん
一気にそこまで巨大な動画生成できるもんかなw

「最後のフレームを引き継ぐ」なんて可能な気がしない。
AIの思考が10秒で切れるってことはその後は全くの別シーンとして生成するしかない気がする
登場人物やシーン(背景)を固定(ファインチューニング)して連続性を保つことができればいいけど、それはそれで結構な手間がかかりそう

txt2videoと言っても、まともなものを作るにはtxt2imgとか桁違いのプロンプトが必要だし
来年ビデオモデルがリリースされるとて言っても最初はちょっと触って面白い、ってな感じのオモチャみたいなもんじゃないかね

387名無しさん@お腹いっぱい。2022/09/07(水) 23:02:12.56ID:0yNh0oHJ
>>386
ビデオ生成どういうものか、何もアナウンスされてないからただの妄想です。書いた直後に反省した

388名無しさん@お腹いっぱい。2022/09/07(水) 23:03:10.03ID:NXXx9vum
9xx(Maxwell) 動くが遅い
10xx(Pascal) 動くがそこそこに遅い
16xx(Turing without Tensor) 緑バグ
20xx(Turing) 動く
30xx(Ampere) 動くし速い

389名無しさん@お腹いっぱい。2022/09/07(水) 23:08:40.69ID:V8pVzmCt
>>386
Deforumとか触ってない感じ?

390名無しさん@お腹いっぱい。2022/09/07(水) 23:14:14.82ID:0yNh0oHJ
>>389
StableDiffusionのvideoでDeforumみたいななもの(単純移動、拡大)なのかな?
txt2videoという言葉のイメージから、「走る」とか「笑う」とかそういうものを想像した

Deforumでいいなら既にDeforumでいい気もする
まあDeforumも動画みただけで動かしてはないから勘違いしてるかもだけど

391名無しさん@お腹いっぱい。2022/09/07(水) 23:25:33.14ID:buk3nixQ
何日かSDのTI Fine tuningやって分かったことメモ
・ソース元画像は極力同じような構図、テーマに搾った方がいい(顔のみ、上半身のみ、かつ同じ人物など)
・最低5枚は必要ぽい、10枚と15枚の差はあまり見られない
・5枚と10枚も割と好みの差のになりそうなので両方やるといいかも
・epoch数重ねすぎると崩壊する、1個目と1番スコア良かったものあたり前後を1こずつぐらいを見比べて好みで使うのが多分いい感じ
⇒崩壊したら下で何かしらの概念に落ち着いてるので面白そうならつかえるかも
・アニメは未検証、Twitterでミャクミャク様などの成功報告あるのでできるようではある

392名無しさん@お腹いっぱい。2022/09/07(水) 23:29:27.24ID:OfBhuBKh
>>386
普通のCGのキーフレームに当たる部分をプロンプトで設定してその間の保管をプロンプトの重みづけで変更してけばいい。引継ぎはimg2img
SDでの簡易実装が >>221,283
metahumanみたいに何かに特化して学習すれば実用的なの得られるだろうけど、SDの自由度でやってくとオモチャになるだろうね

>>388
うちはmaxwellだ。くっそおせえ

393名無しさん@お腹いっぱい。2022/09/07(水) 23:33:26.93ID:WkRKoxRp
>>392
それは静止画像の補完なんだからtxt2videoではないね
txtの要素がない。

>>388
2080Tiは3070Ti、3080とほぼ変わらないし世代だけじゃなんとも言えないなw
3060以下は(性能的には)Google Colabの方がいい。使い勝手はローカルのほうがいいけどね

394名無しさん@お腹いっぱい。2022/09/07(水) 23:47:33.54ID:EUCcQ3op
VRChat 用に(高値で)買った RTX2060 12GB がここで役立つとは思いもしなかったよ。

395名無しさん@お腹いっぱい。2022/09/07(水) 23:59:24.17ID:OfBhuBKh
>>393
今のSDは静止画学習だから仕方ない
例えば腕を下から上に上げるって動作の動画からフレーム切り出して動作そのものをクラス登録する
「right arm up to down with progress 10%」みたいにプロンプト設定したら、一割腕を持ち上げたところの画像が生成される。そんな感じにできたらいい

396名無しさん@お腹いっぱい。2022/09/08(木) 00:20:23.02ID:z8EI1xXf
>>391
100枚とか1000枚とかも画像を用意すれば出来るのかな?
そこまでやったら傾向的な学習できたりしないだろうか

397名無しさん@お腹いっぱい。2022/09/08(木) 01:34:14.87ID:Deb7MqKj
1111アップデートしたら>>107のビッグサイズ変更裏技が効かなくなった感じだ…
さっきまで作れてた640でもメモリエラーになってまう
俺の環境だけなのかな

398名無しさん@お腹いっぱい。2022/09/08(木) 01:48:51.23ID:Deb7MqKj
すみません自分の勘違いでしたすみません

399名無しさん@お腹いっぱい。2022/09/08(木) 02:04:55.92ID:1nZxZrAW
>>388
16xxの俺はグラボの敗北者じゃけん・・・になってて辛い

400名無しさん@お腹いっぱい。2022/09/08(木) 02:38:00.51ID:c4MbLNAM
Stable DiffusionのFine TuningをVRAM 8GBで流すまとめ(既知情報の寄せ集め)
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

8 Epochじゃ全然足りない気がするけど、続きはどうやるんだろう?
これを期にPyTorchを勉強しよう

401名無しさん@お腹いっぱい。2022/09/08(木) 02:55:27.24ID:joQza10U
>>400
8GBでできたのか。これは分かりやすくていいな

402名無しさん@お腹いっぱい。2022/09/08(木) 03:59:59.65ID:sMHflbqu
>>400
どこか別のtexttual_inversion(たしかWindows用)のほうで続きの走らせ方が書いてあるとこがあったと思う

https://github.com/nicolai256/Stable-textual-inversion_win
たぶんここのresumeとかいうところにコマンド例が書いてあったと思う

先日俺環でやってみたけどほんとにresumeしているのかは判断できなかった(たぶん食わせたサンプルの品質が良くなかった)
中途半端な情報で申し訳ないけど俺もう時間ないから寝るわすまん

403名無しさん@お腹いっぱい。2022/09/08(木) 05:15:55.29ID:joQza10U
finetuneはエラーだらけですんなり動かないな。素直にクラウドでやった方がいいんだろうな
一応こんな修正で8GBのローカルでepoch回りだした(gpuが遅いからきちんと出力されるかは未確認)

https://github.com/lstein/stable-diffusion

をclone

>>400の修正に加えて

main.pyの頭に2行追加

import os
os.environ["PL_TORCH_DISTRIBUTED_BACKEND"] = "gloo"


main.py内にある変数 gpuinfo と ngpu への代入値を 1 に固定

main.py内にある if not cpu: の行の前に cpu = False を配置



実行

python main.py --base "./v1-finetune.yaml" -t --no-test --actual-resume "./models/ldm/stable-diffusion/model.ckpt" -n "xxx" --gpus 1 --data_root "./src_finetune"

404名無しさん@お腹いっぱい。2022/09/08(木) 06:18:57.92ID:oBAYp788
dream studioでimg2imgができるようになった
設定の一番下にベース画像を追加する項目が増えてる

405名無しさん@お腹いっぱい。2022/09/08(木) 06:52:22.50ID:pJl+A5lb
TIの設定はそれぞれ何さしてるか調べないと怖い気がしてきた
どっか設定解説あったかしら

406名無しさん@お腹いっぱい。2022/09/08(木) 07:19:49.60ID:c4MbLNAM
>>402
resumeできたー
ガシガシ回してみる

あとtxt2imgに--W 256 --H 256を付けると8GBでも--n_samplesを増やせて検証には良さそう

407名無しさん@お腹いっぱい。2022/09/08(木) 07:25:53.49ID:PTxFP5X8

408名無しさん@お腹いっぱい。2022/09/08(木) 07:39:18.57ID:qgJEOVDz
>>396
枚数が多すぎるとかえって結果が悪くなるんじゃなかったかな

409名無しさん@お腹いっぱい。2022/09/08(木) 07:49:38.66ID:pJl+A5lb
>>407
㌧㌧
省エネ用に解像度設定値落としてるのは結果にすごい影響ありそう

410名無しさん@お腹いっぱい。2022/09/08(木) 07:57:48.83ID:XuQAwOCZ
dreamboothは32GB以上のVRAMが必要らしい
colab pro+で運良くA100を引ければ回せそうではあるが

411名無しさん@お腹いっぱい。2022/09/08(木) 08:16:19.32ID:RVeG16Df
32GBって事はnvlink必須か?
グラボだけで40万かぁ…

412名無しさん@お腹いっぱい。2022/09/08(木) 08:19:31.37ID:oRisQZT0
3090のnvlinkはメモリ2倍にならないから注意ね

413名無しさん@お腹いっぱい。2022/09/08(木) 08:31:31.10ID:pJl+A5lb
dreamboothのほうも省エネ情報待ちになりそう

414名無しさん@お腹いっぱい。2022/09/08(木) 08:40:36.78ID:bmB/np1h
ワイルドカードってありますか?
* on tableとかやりたいです

415名無しさん@お腹いっぱい。2022/09/08(木) 08:46:21.40ID:PTxFP5X8
hlky版更新来ててimg2imgのエラーとか直ってそう

>>414
object on table とか何らか言い換えれば良いと思う

416名無しさん@お腹いっぱい。2022/09/08(木) 08:49:02.58ID:GPkS8IeV
stuffs on tableとかがいっぱい出て面白い

417名無しさん@お腹いっぱい。2022/09/08(木) 08:59:14.42ID:twzNMsn8
hlky、URLが変わったのか。

旧 https://github.com/hlky/stable-diffusion
新 https://github.com/sd-webui/stable-diffusion-webui

git pullしたら削除されまくってビビった

418名無しさん@お腹いっぱい。2022/09/08(木) 09:12:11.18ID:bmB/np1h
>>415
>>416
ありがとうanimalsだと謎のキメラモンスターだったけどobjectsは融合してないね
何が違うんだろう

419名無しさん@お腹いっぱい。2022/09/08(木) 09:33:26.52ID:qz4iNoD4
https://discord.com/channels/256999268039000064/1000038336955691099
とりんさまアートの人の公式ディスコードにとりんさまアート新モデルの生成画像?が何枚かアップされてるけど
中国のERNIE-ViLGみたいにかなりアニメ絵に強そう

420名無しさん@お腹いっぱい。2022/09/08(木) 09:35:21.66ID:GPkS8IeV
>>418
机の上の動物って絵や写真がなかなかないからだろうか
animals on tableで

SDは比較的、猫や犬出してくる、木の上の頭アップみたいなのとちょっとトロけるくらい
MJはイラスト風で机の向こうにいるみたいに並べて誤魔化してくる、10回に1回くらい成功で机に乗ってる
photography of live animals on table
って指定してやってもなんかいまいち

DALLE2はちゃんと動物の「置物」出してきてうまいと思った
live animalsでもなんとか対応してくる凄み
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

421名無しさん@お腹いっぱい。2022/09/08(木) 09:44:38.75ID:bmB/np1h
うーむ、sdの学習元にanmalsタグが付いた画像がたまたまなかっただけかな
単数系複数形を理解しているわけではないのか

1x1から9999x9999までの掛け算表とイギリス人が入った箱と9999までの掛け算ができるイギリス人が入った箱を外部からの観測で区別することはできない

422名無しさん@お腹いっぱい。2022/09/08(木) 10:37:07.24ID:RmcB12VY
特定の絵柄のキャラクターの色んな光景を出したい場合、finetuningで特定の絵柄を覚えさせてなんとかキャラクターを数枚出力
そのなんとか出力した数枚のキャラの絵をfinetuningでポーズ指定とかすればいけるんだろうか

423名無しさん@お腹いっぱい。2022/09/08(木) 10:58:18.04ID:zK1/hsZt
何がそのキャラをそのキャラたらしめているかだと思う
顔・服装・その他特徴
顔だった場合、ただ色んな全身ポーズを与えるより
色んな角度の顔だけとかの方が効果的なんじゃないかと
エマがエイリアンでもエマに見えるように、顔の安定だけでもそう見えると思う

424名無しさん@お腹いっぱい。2022/09/08(木) 11:24:58.08ID:8DwvcOFI
現在形、過去形、現在進行系でどれか適してるかがわからないし
服装だけでもinと is wearingのどっちが適してるのかもわからない

ディープラーニングってそういうもんだよなって言ってしまえばそうだけどもう少しプロンプトを定型で使いたい

425名無しさん@お腹いっぱい。2022/09/08(木) 11:32:05.53ID:UceYt1Ld
TextualInversion 画像の全ての概念をプレースホルダに落とし込む
DreamStudio 覚えさせたい要素の一般的な画像を用意し、それと対比するような特定対象の画像を入れることで特定の要素のみをプレースホルダに落とし込む
(portrait of dog ↔ portrait of [V] dog でコーギーの写真を放り込むと[V]にコーギーの特徴だけが入る)

TextualInversionはプレースホルダをそれそのもの、画風、構図等で様々に使える一方、学習をやらかすと精度に影響が出るのに対し
DreamStudioは特定した要素を少ない世代で確実に覚えさせられる一方、それ以外の要素への応用はほぼできない上にプレースホルダの強度が強すぎて他のプロンプトによる指示を受け付けなくなる可能性があると
(コーギーの写真を入れるとその写真がベタッと貼り付いたような画像を作ってきてピカソ風にしてくれない等)

あるものをそのままSDの世界に入れたいならDreamStudioの手法が良いんだろうな

426名無しさん@お腹いっぱい。2022/09/08(木) 11:53:47.36ID:GPkS8IeV
1111はsettingsに
> Save text information about generation parameters as chunks to png files
があって、チェックつけとくとPNGの頭に書き込まれてあるんだね
バイナリエディタ(あるいは強引にテキストエディタにぶち込む)くらいでしか見れないけど
設定テキスト無くしてもあとからわかるので安心

427名無しさん@お腹いっぱい。2022/09/08(木) 11:59:39.18ID:7+yRJQlP
hlky版も同じじゃねコマンドラインオプションではあるが

428名無しさん@お腹いっぱい。2022/09/08(木) 12:10:16.72ID:pJl+A5lb
https://huggingface.co/hakurei/waifu-diffusion
昨日あたりリンク貼られてたし動作未確認だけどとりんさまとは別のアニメ系SDモデルぽい
上記リンクモデルはhuggerface公式パイプライン用だけど作者さんのデスコでpkctだかファイルも今日上がってた

429名無しさん@お腹いっぱい。2022/09/08(木) 12:16:17.82ID:VxNEwSpk
>>426
バイナリエディタというか、PNG text chunkなのでビューアあれば見ることができるよ

>>427
いつのまにか --save-metadata できるようになってたんだ。知らなかったw

430名無しさん@お腹いっぱい。2022/09/08(木) 12:19:08.77ID:qgJEOVDz
>>426
これ使ってみようかな

【レビュー】PNG画像を解析して詳細なフォーマット情報を取得・表示するツール「TweakPNG」 - 窓の杜
https://forest.watch.impress.co.jp/docs/review/669449.html

431名無しさん@お腹いっぱい。2022/09/08(木) 12:23:38.72ID:7+yRJQlP

432名無しさん@お腹いっぱい。2022/09/08(木) 12:35:02.91ID:pJl+A5lb
1111版は本体にpng内に埋め込んだプロンプト見れる昨日あった気がする

433名無しさん@お腹いっぱい。2022/09/08(木) 12:46:12.87ID:GPkS8IeV
>>431それはもち検索済みw
いちいちサイト開いて参照にドラッグとかやってられん

つかまぁバイナリでいいやん、選択してコピーもできるし
基本生成画像はexplorer上で管理してるのでwebui上は手間がね・・

434名無しさん@お腹いっぱい。2022/09/08(木) 13:02:25.12ID:yc8aYASo
waifu-diffusionモデルは劇的に2次元寄りに変わってるな
ただプロンプトも総とっかえになりそう

435名無しさん@お腹いっぱい。2022/09/08(木) 13:23:32.80ID:joQza10U
metadataはexiftoolでいいんじゃない?
もしくは追加でタイトルやコメントとかに出力するようにしたら直接explorerで読める
"SD:prompt"みたいな名前で埋め込まれてるんだな(↓600行目付近)
https://github.com/sd-webui/stable-diffusion-webui/blob/490bbbc103ac450c2a97a83776e9fdae80d8a723/scripts/webui.py

436名無しさん@お腹いっぱい。2022/09/08(木) 14:04:25.24ID:ArwXAXMh
>>1
> テンプレまとめ
> https://rentry.co/zqr4r

これ今見たらめっちゃ綺麗にしてくれてるね
乙乙としか言いようがない

437名無しさん@お腹いっぱい。2022/09/08(木) 14:04:40.26ID:mQGOABEd
hlky版でシームレス画像生成オプションを追加する方法

リンク先の緑ラインで表示されている箇所をファイルに追記する
設定を切り替える場合はその都度relauncher.pyをテキストエディタで開いてオプションの
True/Falseを変更、再度立ち上げる必要あり
https://github.com/sd-webui/stable-diffusion/pull/267/files

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

438名無しさん@お腹いっぱい。2022/09/08(木) 14:05:11.01ID:X/eZWm8f
おお、テンプレがキレイになってる。編集ニキありがとう。

439名無しさん@お腹いっぱい。2022/09/08(木) 14:15:31.14ID:UJMlbfOw
ernie-vilgの呪文を語り合いたいけどみんなどこに集まっているの?
Twitterは思ったほど盛りあがってないし…

440名無しさん@お腹いっぱい。2022/09/08(木) 14:17:07.31ID:AAdpCwCj
wifu突っ込んでみたけど、どうもしっくりこないな……
モデル以外に何か突っ込むもんあるんか

441名無しさん@お腹いっぱい。2022/09/08(木) 14:26:44.82ID:kyVkkdSV
2次絵好きだからwaifuありがたい

442名無しさん@お腹いっぱい。2022/09/08(木) 14:33:26.01ID:7+yRJQlP
>>440
Danbooruのタグを使う必要があるらしいけど
https://huggingface.co/hakurei/waifu-diffusion#training-data--annotative-prompting

443名無しさん@お腹いっぱい。2022/09/08(木) 14:40:00.11ID:AAdpCwCj
ダンボールなんか行ったこともないから、コツみたいなのが全然わかんないな……
もうちょっと様子見で待とう
ノーマルでもそこそこ2次ガチャ引けるようになってきたし

444名無しさん@お腹いっぱい。2022/09/08(木) 15:03:12.73ID:kyVkkdSV
1.4で二次絵のファインチューニングして結果は微妙だったけど
waifuで使うと結構綺麗に特徴出てきて面白い

445名無しさん@お腹いっぱい。2022/09/08(木) 15:27:16.64ID:7+yRJQlP

446名無しさん@お腹いっぱい。2022/09/08(木) 15:47:40.87ID:n6+nNVZT
ダンボールのタグはweb表記のやつは多分そのまま使われてない(スペースとかカッコとかあるとおかしくなるので機械学習用に変更されてる)はずなので
データセット見るのが確実ではあるけどデータセットisどこなんじゃろ
帰宅したら確認してみよう

447名無しさん@お腹いっぱい。2022/09/08(木) 15:47:41.66ID:S5bL/o9x
waifu diffsionは簡単なプロンプトでかわいいアニメキャラ出るけど、学習が東方キャラに偏ってる感じするな。
そしてEmad氏が"25/09/2022"とツイート。1.5かな。

448名無しさん@お腹いっぱい。2022/09/08(木) 15:48:46.33ID:dOFTXDkz
>>425
多分dreamboothのことだよな?
これ見るとやはりTIのことをファイーンとか呼ぶのは紛らわしいし誤用だな
fine tuningもやめたほうがよいかも

The concurrent work of Gal proposes a textual inversion method that learns to represent visual concepts, like an object or a style, through new pseudo-words in the embedding space of a frozen text-to-image model. Their approach searches for the optimal embedding that can represent the concept, hence, is limited by the expressiveness of the textual modality and constrained to the original output domain of the model. In contrast, we fine-tune the model in order to embed the subject within the output domain of the model, enabling the generation of novel images of the subject while preserving key visual features that form its identity.
https://arxiv.org/pdf/2208.12242.pdf

dreamboothのほうがおもろそうだが実用化してるのこれ?

449名無しさん@お腹いっぱい。2022/09/08(木) 15:54:27.52ID:XuQAwOCZ
>>448
dreamboothは有志の再現実装が公開されてる
そのまま動かすとVRAMを38.5GB消費するためV100 32GBで動かす場合でもメモリ節約が必須

450名無しさん@お腹いっぱい。2022/09/08(木) 15:59:46.43ID:AAdpCwCj
ダンボールタグをどう食わせるかが大変そうだなあ…
適当に食わせたら、なんか混ざりそうだし。最後にくっつけるのが良いのかな。

451名無しさん@お腹いっぱい。2022/09/08(木) 16:01:59.58ID:dOFTXDkz
>>449
えぐいな、一般人が使えるのは数年後か

452名無しさん@お腹いっぱい。2022/09/08(木) 16:04:16.61ID:DZjLr0DM
Trending on Danbooruは?

453名無しさん@お腹いっぱい。2022/09/08(木) 16:06:05.33ID:7+yRJQlP
そんなタグはない

454名無しさん@お腹いっぱい。2022/09/08(木) 16:11:00.63ID:DZjLr0DM
あ、タグね

455名無しさん@お腹いっぱい。2022/09/08(木) 16:12:39.37ID:ArwXAXMh
danbooruはわりといい絵が多いね
rule34とかから学習したらとんでもないことになりそう

456名無しさん@お腹いっぱい。2022/09/08(木) 16:15:30.48ID:7+yRJQlP
霊夢いけても魔理沙は無理
サイト上の総数は大して変わらないのになんだこれ

457名無しさん@お腹いっぱい。2022/09/08(木) 16:21:32.42ID:S5bL/o9x
学習してる東方キャラに偏りがあるな。比較的新しい作品のキャラも出てこない。どういう拾い方してるのかよくわからんが、作者の趣味といえばそれまでか。

458名無しさん@お腹いっぱい。2022/09/08(木) 16:38:05.84ID:7+yRJQlP
ゆっくりとか掠りもしなかった

459名無しさん@お腹いっぱい。2022/09/08(木) 16:43:09.38ID:n6+nNVZT
>>448
フル学習じゃない2次調整系は全部fine tuningぞ(大枠)
ジャンル分けするなら
・TI, dreamboothは出口辺りに干渉するバイパスとか追加する系の差分学習(既存を変更せずに追加)
⇒modだとかmoduleだとかmodificationだとか呼ばれることがある、まだ新しい領域
 ⇒GPTだとmoduleで確定
・とりんさまとかWifuとかは既存の置き換えする追加学習
⇒こっちが単にfine tuningだとかadd trainとかなんか色々呼ばれる


ITとかの差分学習はmodとか呼べばいいんじゃないかしら(提案)

460名無しさん@お腹いっぱい。2022/09/08(木) 17:00:56.27ID:PTxFP5X8
automatic1111版の今日の更新で
クリップボードからCtrl+Vでimg2imgに画像貼り付けられるようになった

461名無しさん@お腹いっぱい。2022/09/08(木) 17:08:57.22ID:CDhoUVzK
waifuはモデル配布無し?

462名無しさん@お腹いっぱい。2022/09/08(木) 17:11:18.18ID:7+yRJQlP

463名無しさん@お腹いっぱい。2022/09/08(木) 17:13:22.21ID:ArwXAXMh
>>462
ちょw
7.17Gて
昔のやつではないの?

464名無しさん@お腹いっぱい。2022/09/08(木) 17:16:41.38ID:dOFTXDkz
誤用ではないか、まあまぎらわしいことには変わりない
dreamboothは70万くらいのグラボのA6000で動くらしい
良心的だー

465名無しさん@お腹いっぱい。2022/09/08(木) 17:17:13.76ID:X78zHr7r
うげっSSDとんだ…良さげな呪文も作った絵も全部消えた…
特にローカルでやるときはPC酷使するので皆さんバックアップはちゃんとしておきましょう

466名無しさん@お腹いっぱい。2022/09/08(木) 17:20:06.13ID:CDhoUVzK
>>462
サンクス。announcementsにあったのね、見逃してた

467名無しさん@お腹いっぱい。2022/09/08(木) 17:29:31.21ID:AAdpCwCj
image2image使うと、ポーズはほんとスパッと決まるな。あとはガチャなのはしゃーないが。

468名無しさん@お腹いっぱい。2022/09/08(木) 17:40:44.54ID:AAdpCwCj
ガチャ回しすぎてゲシュタルト崩壊起こしそう……
https://imgur.com/HmsnY5x

469名無しさん@お腹いっぱい。2022/09/08(木) 17:43:37.08ID:o3nOvUht
>>465
SSDが飛んだのはAIの酷使関係ないと思うけど

470名無しさん@お腹いっぱい。2022/09/08(木) 17:46:35.78ID:sSJvtjGy
全くえっちな画像生成を目的としてない真面目なプロンプトの時に乳首が突然出てくる時がある
ラッキースケベみたいな気分
もしくはチリメンモンスターが出てきた気分

471名無しさん@お腹いっぱい。2022/09/08(木) 17:49:02.42ID:AAdpCwCj
2次回してると、たまに師匠の亡霊が主人公見守ってるみたいなの出るよw
たぶん、人が二人になる亜種だと思うけど。

472名無しさん@お腹いっぱい。2022/09/08(木) 17:49:18.01ID:7KhHsqDl
>>468
852わ臭がする

473名無しさん@お腹いっぱい。2022/09/08(木) 17:52:18.87ID:AAdpCwCj
image2imageの下絵同じの使ってるからだと思う。
試験なんで、拾ってきた下絵つっこんだから。

474名無しさん@お腹いっぱい。2022/09/08(木) 17:54:37.11ID:OfrobG9w
https://qiita.com/Yasu81126297/items/752df11a1e5e70c8b9fe

小さく産んで大きく育てる

475名無しさん@お腹いっぱい。2022/09/08(木) 17:58:57.82ID:AAdpCwCj
アウトペインティングっぽい補完で面白いなあ。
半年ぐらい経てばいろんな技術が出てきそう。

476名無しさん@お腹いっぱい。2022/09/08(木) 17:59:09.43ID:CDhoUVzK
ディスクはともかくグラボの寿命は間違いなく縮まってそう

477名無しさん@お腹いっぱい。2022/09/08(木) 18:01:52.47ID:AAdpCwCj
マイニング並とはいかないまでも、結構いろんなとこの寿命は縮めそうだからローカルでやるのはやっぱ腰が引ける。
Colabに1000円ぐらいお布施する方が精神的にはラクだわ。回してる間はサブで確認しつつゲーム出来るし。

478名無しさん@お腹いっぱい。2022/09/08(木) 18:02:24.42ID:i/kRH6Ka
MidjourneyやDALL-E2で、ゲーム用アセット作るのって中々現実的ではないよね
コンセプトアートみたいなののスケッチはかなり助かるけど、コンセプトアートすら実際にはイメージ通りの構図ではないしね
言葉だけじゃなくて今後は全体のラフスケッチを渡したうえで言葉で指示するようになるのかも

479名無しさん@お腹いっぱい。2022/09/08(木) 18:04:41.32ID:CDhoUVzK
>>474
人物画だと分割した肌色の部分から顔がニョキって生えてきそうだけど
そこら辺は大丈夫なのかな

480名無しさん@お腹いっぱい。2022/09/08(木) 18:05:47.63ID:qM+23pgA
>>474
綺麗に大きく出来てるねえ

でも分割してimg2imgした後、結合で境界線がおかしくならずに結合できる仕組みが分からないな
なんでうまくいくんだろう

481名無しさん@お腹いっぱい。2022/09/08(木) 18:05:52.24ID:AAdpCwCj
AI生成の泣き所はやっぱり統一感を出すのがキツいってとこだと思うわ。
ここが解決しないと、テクスチャとかプローシジャルの種とか部分の自動化にしか持ってけないと思う

482名無しさん@お腹いっぱい。2022/09/08(木) 18:07:58.88ID:AAdpCwCj
>>474
拡大画像のつなぎ目、マジで分からん。
すごいな、これ。

483名無しさん@お腹いっぱい。2022/09/08(木) 18:09:21.20ID:qM+23pgA
>>481
そもそも人間でも言葉で絵を書いてもらった場合、似た絵にするのは難しいんだよね

商用でまともに使うなら言葉じゃなくイメージベースのガイダンスが主流になりそうな気がする。
「もっとシャープなイメージで」「このキャラを座らせる」「目をもう少しツリ目に」とか、既存のイメージ+修正ガイダンスの技術がいるけど、既にそういうのあったりするのかな

484名無しさん@お腹いっぱい。2022/09/08(木) 18:18:01.32ID:gd0QvOu0
>>474は1111版のSD upscaleで同じことできる

485名無しさん@お腹いっぱい。2022/09/08(木) 18:19:25.34ID:eWI7TMWR
手が6本とか阿修羅モードとか解決できたら神ツールだな

486名無しさん@お腹いっぱい。2022/09/08(木) 18:45:33.68ID:n6+nNVZT
人体崩壊はだいたいi2iで解決したりしなかったり

487名無しさん@お腹いっぱい。2022/09/08(木) 18:47:33.24ID:ws0fcC90
結局拡散モデルだけだと厳しくて「頭が1つで,腕は2本」みたいな知識が必要ってことなんだろうな

488名無しさん@お腹いっぱい。2022/09/08(木) 18:57:25.54ID:ZxA66bHI
>>487
そういうフォルムの特徴を学習してるはずなんだけどね

バリエーションで変わっていいもの(ポーズ、細かい質感)と絶対変わらないもの(骨格、筋肉の構造)の区別が上手くいってないというか後者の学習不足なのかな

489名無しさん@お腹いっぱい。2022/09/08(木) 19:00:23.06ID:AAdpCwCj
とりあえず人を1人描けって言われたらボーンを置いてそれに肉付けしていくみたいな方向性じゃ無いから、なかなか難しいんだろうね。

490名無しさん@お腹いっぱい。2022/09/08(木) 19:28:29.14ID:i/kRH6Ka
>>481
自分もそう思う
結局人間とAIとの間のコミュニケーションが問題になってくるよね

491名無しさん@お腹いっぱい。2022/09/08(木) 19:45:19.48ID:oEls+M+S
waifuがドン引きするぐらい二次のクオリティ上がっててビビった。教えてくれた人ありがとう

公式1.4で練りに練って何十枚かに1枚は、セミ商業レベルの顔を作ってくれる呪文で
waifuだと2枚に1枚くらいは普通にフォロワー4桁絵師クラスの顔絵を吐いてくれるわ

492名無しさん@お腹いっぱい。2022/09/08(木) 19:49:26.31ID:ws0fcC90
その指標よくわかんないから見本貼ってほしい

493名無しさん@お腹いっぱい。2022/09/08(木) 19:51:21.85ID:ElGmCm3c
>>490
AIにイラストの仕事させるのってゴリラに野球やらせるような感じだと思い始めてる
スピードもパワーも凄いんだけどちゃんとルール覚えて器用に動けるかというと…みたいな

494名無しさん@お腹いっぱい。2022/09/08(木) 19:52:36.24ID:xrESwl5k
>>491
出始めの頃ちょろっと見に行って「こんなもんか」って印象でそれ以降見向きもしなかったけど
SDに触る前に紹介記事見つけて久しぶりにやったら、見違えるような物お出ししてきて驚いたね俺は

495名無しさん@お腹いっぱい。2022/09/08(木) 20:31:53.44ID:YlYyFE24
生えてないのに生やしたり生えてるのにつるつるだったり

496名無しさん@お腹いっぱい。2022/09/08(木) 21:16:43.37ID:tyEPbrsV
Mj のtestpで人物全体像作ると逆光ばかりになる

497名無しさん@お腹いっぱい。2022/09/08(木) 21:32:24.53ID:erb2VKFY
>>415
mainブランチは更新されてないけど、devブランチのやつは治ってるね。
コミットid 67b6196 を動かしたらエラー吐かずにimg2img動いた

498名無しさん@お腹いっぱい。2022/09/08(木) 21:38:16.33ID:erb2VKFY
関係ないけど、毎回「とりんさま」を「とりさんま」と空目してしまう……
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

499名無しさん@お腹いっぱい。2022/09/08(木) 21:42:45.24ID:eWI7TMWR
>>498
すげぇ...
twitterにあげた時の反応が楽しみだわ

500名無しさん@お腹いっぱい。2022/09/08(木) 21:44:08.91ID:xp/Gn14H
鳥と秋刀魚か…

秋刀魚、もうすぐだな

501名無しさん@お腹いっぱい。2022/09/08(木) 21:55:05.96ID:saI81Esq
>>428
これのExample Codeでちゃんと動いている人いる?
出てくる画像が全部ぼやけててうまくできてる気がしないのだが…
hlkyのwebuiで既存モデルを>>462のcpktに置き換えたやったやつはうまくできてる

502名無しさん@お腹いっぱい。2022/09/08(木) 22:04:47.90ID:eed88sxn
sdに「waifu」って入れても結構いいの出るな

503名無しさん@お腹いっぱい。2022/09/08(木) 22:31:59.42ID:RBVbz6ym
えぇとりさんまやなかっまのか

504名無しさん@お腹いっぱい。2022/09/08(木) 22:38:19.04ID:kyVkkdSV
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
モデル変えて試してみた 呪文とシードその他設定は同じ
Textual Inversionのサンプルファイル(Usada Pekoraのやつ)
上から1.4、1.4+tx、trinsama、trinsama+tx、waifu、waifu+tx

505名無しさん@お腹いっぱい。2022/09/08(木) 22:40:46.58ID:kyVkkdSV
txじゃなくてtiの間違いだった すまん

506名無しさん@お腹いっぱい。2022/09/08(木) 22:53:21.70ID:xCgYS4CN
>>462
メモリ足りなくて動かんわ

507名無しさん@お腹いっぱい。2022/09/08(木) 23:16:00.10ID:dCsRproY
>>446
これ確認してみたけど半角スペースを_に置き換えただけで()とかはそのままぽい

508名無しさん@お腹いっぱい。2022/09/08(木) 23:24:05.83ID:dCsRproY
とりんさま新モデル来た

509名無しさん@お腹いっぱい。2022/09/08(木) 23:29:06.30ID:xp/Gn14H
アプデ速度が半端ねーな
やっぱ、複数出たから影響されあってんのかな

510名無しさん@お腹いっぱい。2022/09/08(木) 23:35:14.96ID:yc8aYASo
waifuモデルは既存キャラ指定するとかなりの強度で顔のアップに張り付くな
512x512に切り出す時に顔のアップになるようにしてそれを使ってるんだろうか

オリジナルで使えてた上半身入れたりするプロンプトはほとんど使えないし、danbooruになるcowboy shotっていう構図指定も効かない

511名無しさん@お腹いっぱい。2022/09/08(木) 23:38:54.87ID:oEls+M+S
waifuは顔のアップで学習してるんだと思うよ
正方形を超えると、なんか顔が伸びたりする癖があるし

構図が決まってるんならimg2imgで大解像度にした方がいいと思う

512名無しさん@お腹いっぱい。2022/09/08(木) 23:58:36.90ID:xp/Gn14H
3Dはモデル作るのはそれなりに苦労するけど、作ったモデルを好きにアレコレするのは結構簡単。
SDはボタンポチであっという間に色々作れるけど、出来たものをアレコレするのはほぼ不可能。
お互いに補完できればなあ。

513名無しさん@お腹いっぱい。2022/09/09(金) 00:04:29.44ID:w0tjTQcP
>>512
べつに不可能じゃないよ
フォトバッシュとか学んで

514名無しさん@お腹いっぱい。2022/09/09(金) 00:35:06.76ID:lV+xWUdV
まだ環境構築できてない初心者なんですが質問させてください
Minicondaのインストール自体は完了しているんですがwebui.cmdをクリックするとこんなエラーが出ます
たしかに該当のパスにそのファイルは無いんですが何か作成する必要があるんでしょうか…?
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

515名無しさん@お腹いっぱい。2022/09/09(金) 00:38:44.00ID:eMwMFZjS
>>514
1111さんの版のリドミの手動導入手順でやった方が環境cmdの謎エラー追うより簡単だと思う

とりんさま2にグラドル画像でTIしたやつやったら水着の二次絵になったから色々遊べそう

516名無しさん@お腹いっぱい。2022/09/09(金) 00:44:31.38ID:iZ8P9fJo
フォトバッシュの記事読んでみたけどこんなんpix2pixとdreambooth搭載したAIがやるべき作業でしょ

517名無しさん@お腹いっぱい。2022/09/09(金) 00:48:05.13ID:E2P0ltkO
早くM1Macで動くソフト出ないもんか

518名無しさん@お腹いっぱい。2022/09/09(金) 00:49:13.53ID:56SmY4UL
>>514
エラーじゃない、ただのメッセージ
「custom-conda-path.txtが見つかりません」
「anaconda3/miniconda3はC:\ほにゃらら で検出されました」

通常とは違う場所にcondaをインストールした場合は
webui.cmdを起動する前に指定する必要がある
そうでなければ気にする必要はない

519名無しさん@お腹いっぱい。2022/09/09(金) 00:50:32.04ID:YZGSGLvJ
>>517
SD自体はできるだろ
あれやこのフォーク動かないってのはあるだろうけど

520名無しさん@お腹いっぱい。2022/09/09(金) 01:09:16.91ID:lV+xWUdV
>>515
回答ありがとうございます
テンプレのものを参考にやってみたんですがこうなりました…
pythonのバージョンもちゃんと合わせたはずなんですが
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
>>518
通常とは違う場所というのが分からないですねすいません…
インストール時に特にいじってはないんですが

521名無しさん@お腹いっぱい。2022/09/09(金) 01:15:47.81ID:56SmY4UL
>>520
だから>>514はエラーでもなんでもないよ
「このファイルは存在しないので(1行目) ここのミニコンダを使う(2行目)」程度の意味合い
webui.cmd起動して放置していれば
そのうちインストールが終わってサーバーが起動するはず
サーバーが起動したら「localhost:7860」みたいなメッセージ出るから
ブラウザでそこにアクセス

522名無しさん@お腹いっぱい。2022/09/09(金) 01:30:29.45ID:GFy+fnGq
>>520
なんでpython2使ってるの?
conda
わからんならpython2は消せ

523名無しさん@お腹いっぱい。2022/09/09(金) 01:32:58.18ID:GFy+fnGq
>>520
変なところで書き込んじゃった
conda使ってるのかどうかしらないけど、python3にパス通ってないから動いてないのでパス通せばいい
わからんなら今時python2なんて使わないから消して入れなおせ

524名無しさん@お腹いっぱい。2022/09/09(金) 01:58:20.40ID:56SmY4UL
AUTOMATIC1111/stable-diffusion-webui
>install Python 3.10.6 and check "Add Python to PATH" during installation. You must install this exact version.
>install git
>place into webui directory, next to .model.ckptwebui.bat
>(optional) place into webui directory, next to .GFPGANv1.3.pthwebui.bat
>run from Windows Explorer. Run it as normal user, not as administrator.webui.bat

・Python 3.10.6を「Add Python to PATH」にチェックを入れてインストールする。
・git をインストールする。
・「model.ckpt」「webui.bat」をstable-diffusion-webuiディレクトリに置きます。
・「webui.bat」をエクスプローラから実行します。管理者ではなく、通常のユーザーで実行してください。

一行目でチェック入れてない感じか?

525名無しさん@お腹いっぱい。2022/09/09(金) 03:26:09.75ID:YZGSGLvJ
python2w
3と打ち間違えたんだろうな
conda env create -f environment.yaml
な感じでできるだけ自動でインストールさせるのがいい

526名無しさん@お腹いっぱい。2022/09/09(金) 04:04:16.38ID:uSlNq6pg
>>498
わかるわ…

527名無しさん@お腹いっぱい。2022/09/09(金) 04:45:13.55ID:EjPm57gY
waifu-diffusionのダウンロードすげー時間かかるな

528名無しさん@お腹いっぱい。2022/09/09(金) 07:41:20.84ID:6ADnR3W4
だれか~
ローカルを連続で回すバッチファイルおくれ~
外出中10分に1枚つくっててほし~

529名無しさん@お腹いっぱい。2022/09/09(金) 07:48:21.99ID:0hY1lZcv
>>528
意味がよくわからない・・10分の外出中に1枚なら起動して出ればいいし
1枚/10分って間隔で回すってこと?
よくわからないけど、autohotkeyあたりで大抵できる

530名無しさん@お腹いっぱい。2022/09/09(金) 07:49:41.88ID:kqRrmuyd
waifu-diffusionやべぇな、簡単にいい絵が出てくるぞ
このペースじゃ年内にイラストレーターとかマジで終わりだろ

531名無しさん@お腹いっぱい。2022/09/09(金) 07:56:30.76ID:6ADnR3W4
>>529
そそ
外出中、10分間隔で1枚生成くらいのバッチほし~
今その指定座標をクリックしてくれるアプリ使ってるけど、
もっと洗練された専用バッチあるかな~って~

532名無しさん@お腹いっぱい。2022/09/09(金) 08:02:38.93ID:wUIlejED
Automatic11111でプロンプトを変えながら連続作成すればいいのでは
10分に1枚だけにしたいなら、後で削除したっていいんだし

533名無しさん@お腹いっぱい。2022/09/09(金) 08:11:11.60ID:eMwMFZjS
10分に1回起動を含めてならbatで簡単に作れるけど毎回読み込み挟むからHDDがマッハ
コンソール版の方を本体改造が早い気がする

534名無しさん@お腹いっぱい。2022/09/09(金) 08:19:30.99ID:L3GJdIaT
>>520
venvはPython3.3から標準で使えるようになった
スクショでは2.7なのでvenvが無いというエラーが出ている
3.10も入れたのなら2.7を消せば次は3.10が起動してくれると思う

>>531
10分に一度というのが重要なら指定座標クリックするアプリもそんなに悪くないと思った
アップデートの影響受けないし生成パラメータ変更も楽だし

535名無しさん@お腹いっぱい。2022/09/09(金) 08:26:32.28ID:3UoxTYYt
>>533
まずSSD買えよ

536名無しさん@お腹いっぱい。2022/09/09(金) 08:27:30.33ID:lV+xWUdV
>>521
解説ブログのようなインストール進行中の画面にならないんですよね
>>523
1111のやつはPython要求しますよね…?
>>524
入れたんですよね…
あとでインストールし直し試してみます
>>525
それはどこで実行すれば良いんでしょうか?
>>534
なるほど古いのが残っていた…?んですね
消してみます

537名無しさん@お腹いっぱい。2022/09/09(金) 08:40:13.38ID:kqRrmuyd
waifu、呪文工夫したらフォロワー1万人レベルのエロ絵すら出てくるわ
ここまで進化してしまうとみんな絵を見ても何とも思わない時代来るな

538名無しさん@お腹いっぱい。2022/09/09(金) 08:41:46.19ID:iZ8P9fJo
正直容量カツカツとかじゃなきゃminicondaじゃなくてanacondaでよくない?ってなる
ミニの方が初心者向けみたいな語感だけど実際は逆じゃないか?

539名無しさん@お腹いっぱい。2022/09/09(金) 08:42:59.60ID:+dRJKJI7
>>530
>>537
【Midjourney】AI関連総合2【StableDiffusion】
http://2chb.net/r/cg/1662463049/

540名無しさん@お腹いっぱい。2022/09/09(金) 08:54:36.76ID:GFy+fnGq
そもそもcondaの仮想環境がいらないんだけどね
どこになんのpython入れてどれ使ってるかわかってない人もいるしね
AUTOMATIC1111版はvenvで全部やってくれるのにcondaなんて入れるからわけわからんくなるんだ

541名無しさん@お腹いっぱい。2022/09/09(金) 09:05:17.51ID:H34mlAfs
https://memo.sugyan.com/entry/2022/09/07/190000

この辺いじったら、うまいことバリエーションに繋げられそう

542名無しさん@お腹いっぱい。2022/09/09(金) 09:15:18.96ID:9Ooy1GU9
3GBのモデルデータを毎回読み込み&展開しなきゃなんないのか
オンライン版は常時展開状態なんかな?
素直に学習画像の数を絞ってサイズを小さくしたほうが便利そう

543名無しさん@お腹いっぱい。2022/09/09(金) 09:23:05.24ID:d3F4j6n7
AIニワカだけど、こんな感じで学習画像の量とモデルのサイズは別な気がする

言語・画像データ → (特徴を学習) → モデル(パラメータのウエイト)

544名無しさん@お腹いっぱい。2022/09/09(金) 09:27:28.78ID:0hY1lZcv
>>462
これでようやくMJの--betaや--testに追いついたね、出力される顔の精度が全然違う
SD界隈が一気に盛り上がりそう

545名無しさん@お腹いっぱい。2022/09/09(金) 09:39:31.08ID:eMwMFZjS
SDモデルのemaの有無ってなんじゃろ?(wifeのema梨版の少し軽いやつをリクエストできる?)

546名無しさん@お腹いっぱい。2022/09/09(金) 09:56:43.76ID:+dRJKJI7
>>545
Exponential Moving AverageでEMA
学習を再開する時に必要な、今までどういう経緯で各々のパラメーターが推移してきたかというもので推論時には関係無い
SDの一般配布版はこれが省かれている(=推論専用)のでサイズが小さいが、別に付いていたからといってVRAMを多く食うわけでもない

547名無しさん@お腹いっぱい。2022/09/09(金) 10:32:44.40ID:0hY1lZcv
emaワトソンじゃなかったのか・・emmaか

548名無しさん@お腹いっぱい。2022/09/09(金) 10:45:00.49ID:f0EDRWT4
waifu版すごいね
アニメ顔安定もいいけど
リアル顔指定してもよく出来た3DCGみたいになるのちょっと好き
簡単にckptモデル使い分けれるようにしておけば捗る

549名無しさん@お腹いっぱい。2022/09/09(金) 11:11:56.24ID:eMwMFZjS
>>546
でもメインメモリごりごりじゃよ?

550名無しさん@お腹いっぱい。2022/09/09(金) 11:39:37.30ID:YZGSGLvJ
> Waifu-Diffusion v1-2: A SD 1.4 model finetuned on 56k Danbooru images for 5 epochs
たった56k画像を5epochなんだな
これだったらうちのGPUでもできそうだ。3年ぐらいかかるけどw
3090だったら1か月か2か月ってとこなのかな

551名無しさん@お腹いっぱい。2022/09/09(金) 12:10:06.26ID:VJYagtnM
AIりんな作ってるとこが日本語で学習させたモデルを公開するとか。

552名無しさん@お腹いっぱい。2022/09/09(金) 12:38:21.80ID:eMwMFZjS
大SD時代でござる

553名無しさん@お腹いっぱい。2022/09/09(金) 13:13:01.20ID:HGUJWVd7
waifeそんなにいいのか
もう我慢できない

緑バグでる1600のグラボは捨てて新しいグラボ買うしかない

最低3600でいいのよね?
よりスペック高いグラボ買うと、CPUも新調しなくてはいけないしなぁ

554名無しさん@お腹いっぱい。2022/09/09(金) 13:13:51.92ID:zD9vRI+j
waifu大体分かってきたわ
danbooruタグをプロンプトで使うならアンダーバーで単語間をちゃんとつなぐ
学習対象がかなり東方に偏っているため作風指定は東方のイラストをたくさん描いている人物ぐらいしか効かない
その他有名キャラは薄く入っているので作品タイトルでの概念指定は大型タイトルなら効く
東方であれば様々な作風のものが対象になっているため、特定のキャラを対象にしない汎用二次元モデルとしての性能は偏っている割に高い

555名無しさん@お腹いっぱい。2022/09/09(金) 13:16:48.52ID:eMwMFZjS
二次汎用はとんりさまv2がいいのかな

556名無しさん@お腹いっぱい。2022/09/09(金) 13:24:53.72ID:YZGSGLvJ
イーサリウムのアップデートが今月らしいし、それきたらマイニングが完全に終わるだろ
来月あたりマイニング疲労したグラボが安く出回るだろうし、新品ももう一段階価格落ちると思う

557名無しさん@お腹いっぱい。2022/09/09(金) 13:34:17.48ID:KQmRamah
>>554
元々のstable diffusionで有名漫画家の名前入れて作風を指定出来ていたからそれに追加になっただけだよね

558名無しさん@お腹いっぱい。2022/09/09(金) 13:41:50.95ID:kqRrmuyd
たった一ヶ月でここまで進歩するとはな
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

559名無しさん@お腹いっぱい。2022/09/09(金) 13:49:36.49ID:PPZLDLjk
9月後半にRTX40XXシリーズ発表予定
RTX30XXは型落ち間近なのに当面は余剰在庫が解消できず
9月にかつてない規模の値下げ予定と台湾報道

円安で日本は多少相殺されるかもしれんけど
それを遥かに上回るレベルで下がりそうなので
来月あたり30XX在庫処分セールで買い時が来そう

560名無しさん@お腹いっぱい。2022/09/09(金) 13:54:27.35ID:zD9vRI+j
>>557
それはそう
相変わらずgregさんとかも効く
たまに怪しくなるときがあるけど

561名無しさん@お腹いっぱい。2022/09/09(金) 13:55:13.05ID:avDvZMob
>>558
ここで乳首にモザイクかける必要あるか?
4chanじゃあるまいし

562名無しさん@お腹いっぱい。2022/09/09(金) 13:55:55.66ID:0FRSRJ1v
>>558
肩が右上がりなのに乳は右下がり
こういう基本的なルールがAIに理解できる日が来るのか疑問なんだよな

563名無しさん@お腹いっぱい。2022/09/09(金) 13:58:50.14ID:NtMG2abR
>>558
こっちのスレ来てみ。自慢できるぞ

Midjourney】AIエロ画像情報交換【StableDiffusion
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/

564名無しさん@お腹いっぱい。2022/09/09(金) 14:07:37.17ID:YZGSGLvJ
試しにcensoredつけて生成したらチンコ生えてきた
そうじゃない。モザイクかけるだけでいいんだよ・・・

565名無しさん@お腹いっぱい。2022/09/09(金) 14:25:20.42ID:kqRrmuyd
>>563
そこはクリーチャーしか貼ってはいけないネタスレなのでは?

566名無しさん@お腹いっぱい。2022/09/09(金) 14:27:50.71ID:w3OMkbT4
>>530
手が苦手なのは変わりないから
手だけ付け加える職人は盛況だろう
あと同じ顔を描くのが苦手だからソシャゲには向かない

567名無しさん@お腹いっぱい。2022/09/09(金) 15:03:06.08ID:Bk/7v04f
Waifuやっとつなげれた。
いいな、これ。
全然、顔が煮崩れない。これだけでも凄いわ。

568名無しさん@お腹いっぱい。2022/09/09(金) 15:10:31.88ID:zWw383d+
>>553
オプションつけたら緑バグ回避できるけど、それじゃだめなのか?

569名無しさん@お腹いっぱい。2022/09/09(金) 15:16:28.12ID:eMwMFZjS
りんなSDモデル(日本語特化)もhaggingfaeにきた

570名無しさん@お腹いっぱい。2022/09/09(金) 15:18:31.12ID:xmm3V41K
Automatic1111版Colabのgradioってだれでもアクセスできるのな
俺のColabにエリザベス女王のプロンプトを勝手に送り付ける人がいる

571名無しさん@お腹いっぱい。2022/09/09(金) 15:19:17.62ID:HGUJWVd7
waifu版を以下のnoteを参考に導入したんですが
黒塗りになってしまってので……
フィルタの解除方法ってわかる方おりますか?

https://note.com/npaka/n/n7242f7c397ac

572名無しさん@お腹いっぱい。2022/09/09(金) 15:20:59.13ID:HGUJWVd7
>>568
オプションってなんのことですか?
no-halfはすでに試したんですけど、できても重すぎてとても厳しいのと
最新版にするたびに緑パグになるので自分では厳しかった

573名無しさん@お腹いっぱい。2022/09/09(金) 15:34:49.62ID:zD9vRI+j
>>570
******.gradio.appってヤツにアクセスする形式だろ?
あれインターネット上に丸裸だからなぁ
ランダムな数字ってだけだからスキャンすればすぐに入れる
launch()のところにオプションを追加するとパスワード認証かけられるんだけど

574名無しさん@お腹いっぱい。2022/09/09(金) 15:40:27.93ID:xmm3V41K
>>573
パスワード挑戦してみるわ

アドレス変えてもすぐにプロンプト送りつけくる
おそらく全員に送りつけてる
******.gradio.appって5桁の数字だしセキュリティないようなもんだ

575名無しさん@お腹いっぱい。2022/09/09(金) 16:00:56.50ID:TCi9akGS
神話とかの架空の動物難しい
ケルベロスとか頭3つになってくれない

576名無しさん@お腹いっぱい。2022/09/09(金) 16:05:41.10ID:0hY1lZcv
1111のExtraタブの意味が全く分からない・・誰か教えてくれ
GFPGAN VisibilityとCodeなんたらは顔修正の両者を混ぜる重みかと思ったけど
最初の一回以降、スライダーをいろいろ動かしても結果が一切変わらない

あと上のResizeのデフォ2で1-4まで0.05刻みなのに、正数以外だとintegerのエラーが出たり
Upscaler1と2とかも混ぜるのかと思ったら2しかVisibilityがなかったりチンプンカンプンだ

577名無しさん@お腹いっぱい。2022/09/09(金) 16:06:52.02ID:kqRrmuyd
ユニコーンって付けるとちゃんと角だけ頭に生えるの発見してワロタ

578名無しさん@お腹いっぱい。2022/09/09(金) 16:16:29.29ID:w0tjTQcP
>>575
そんなの自分でコラすればいいのに
AIにまるごと描かせようとする変な縛りプレイしてる人が多い

579名無しさん@お腹いっぱい。2022/09/09(金) 16:21:02.56ID:/9aVz9SX
>>576
GFPGANもCodeなんたらもリアル顔を修正する機能
絵の顔は無視される
webui.batを実行せず手動でインストールした場合は自分でGFPGANをダウンロードして配置する必要がある(CodeFormerはインストールも)

580名無しさん@お腹いっぱい。2022/09/09(金) 16:43:38.54ID:Bk/7v04f
Waifu やっぱ特性上、引きは弱いなー。ちょっと距離あると一気にキモくなる。まあ引きで書かれるイラストがほとんど無いからしゃーないが。

581名無しさん@お腹いっぱい。2022/09/09(金) 16:49:56.91ID:zD9vRI+j
>>580
引きの絵を作る→顔の部分を正方形にトリミングして低Strength img2img→戻す
なんてのを考えたけどめんどくさいか

582名無しさん@お腹いっぱい。2022/09/09(金) 16:53:03.36ID:0hY1lZcv
>>579
ごめん、それは知ってるし一回目はたぶん使えてる感じ
スライダーを動かしてやり直しってタイミングで
extras-imagesフォルダに連番で出力されるpngが何も変わらないんだ

583名無しさん@お腹いっぱい。2022/09/09(金) 16:54:01.94ID:V08hSV9c
waifu、低strengthのimg2imgなら引きでもそこそこ仕事してくれる印象
初手をtxtでやった場合のバストアップとか、それよりもっと引きが弱め

584名無しさん@お腹いっぱい。2022/09/09(金) 17:00:34.62ID:huw0+/De
1111除外プロンプト来てる?

585名無しさん@お腹いっぱい。2022/09/09(金) 17:00:35.12ID:Bk/7v04f
そしてwaifu のsmile タグの強さよ。ダンボールタグ突っ込むと最優先でシュバっとしてくる感じ。

586名無しさん@お腹いっぱい。2022/09/09(金) 17:11:13.21ID:R0krTcqk
twitterにdreamboothやってるぽい人居るな

587名無しさん@お腹いっぱい。2022/09/09(金) 17:27:43.57ID:Bk/7v04f
waifuを20連ガチャしたのそのまま纏めてみた。
引きは弱いのでバストショットにして、forでぶん回してseedバラバラで。
ハズレは弾くとか無し。

https://imgur.com/LVNTq8E

たーのーしー

588名無しさん@お腹いっぱい。2022/09/09(金) 17:39:12.95ID:0zO+YXDD
MidjourneyってGTX1060でもいける?

589名無しさん@お腹いっぱい。2022/09/09(金) 17:41:58.59ID:Bk/7v04f
MJってローカルないっしょ?

590名無しさん@お腹いっぱい。2022/09/09(金) 17:48:38.55ID:/O+40BOf
>>587
学習先や条件を搾られてると作画は安定するけど
絵が量産型ぽくなるのはMidと似た欠点に思えるね

16XXの緑バグはいつになったら直るのか・・・(16XX民)

591名無しさん@お腹いっぱい。2022/09/09(金) 18:00:40.83ID:Bk/7v04f
バイアスかければ安定はするけど、味はファストフードみたいなもんでこれはまあ仕方ないのかなと。
今後はバリエーションを豊富にしつつ破綻を無くすって感じで進化が進むことを期待。
image2imageで構図を色々指定したら面白くなるかな? waifuってimage 2image走るのかな。

592名無しさん@お腹いっぱい。2022/09/09(金) 18:02:06.31ID:L3GJdIaT
>>571
プロンプト設定あたりで
pipe.safety_checker = lambda images, **kwargs: (images, False)

GoogleアカウントBANされない程度に

593名無しさん@お腹いっぱい。2022/09/09(金) 18:09:47.52ID:g9+cY8J3
>>590
20xxからTensorコアを取っ払ってそれを補うために半精度浮動小数点の演算回路を継ぎ接ぎした間に合わせにも程がある設計なので
こいつで半精度浮動小数点を扱うのはCUDAの界隈では鬼門とされてるらしい
ドライバーが嘘を吐くとか性能が意図的に制限されてるとか

594名無しさん@お腹いっぱい。2022/09/09(金) 18:19:40.10ID:56SmY4UL
Colabは最終出力をzippingしてローカルにダウンロード→ドライブから画像削除するスクリプト仕込んでもアカンのかね?

595名無しさん@お腹いっぱい。2022/09/09(金) 18:25:57.80ID:VvGNagKz
とりんさま、V2とは別にキャラ特化モデルもあるらしいけど、どこにあるんだろう。

596名無しさん@お腹いっぱい。2022/09/09(金) 18:25:59.93ID:Bk/7v04f
画像ファイルにしないで、そのまま保存してダウンロードしてからエンコかけたらいいんじゃない?

597名無しさん@お腹いっぱい。2022/09/09(金) 18:50:25.57ID:i5XuI/TO
動画って絵を何枚も描かせる方向より
ボーン抜いてデッサン人形動かしたやつに絵を載せる方向のほうが楽か?
txtの動き部分から動画学習してtxt2motion、見た目部分から絵学習してtxt2img
合わせてtxt2anime

598名無しさん@お腹いっぱい。2022/09/09(金) 18:58:58.94ID:S+OayL4V
ちょくちょく見かける とりんさまv2ってなんですか?
原作してもAIノベリストのしかでてこないけれど…

599名無しさん@お腹いっぱい。2022/09/09(金) 19:01:09.15ID:ysbFT0+w
trinartで検索

600名無しさん@お腹いっぱい。2022/09/09(金) 19:07:52.71ID:9aPp+Amh
trinartゴミじゃん

601名無しさん@お腹いっぱい。2022/09/09(金) 19:10:17.67ID:S+OayL4V
ノベリストのとりんさまアートって言うのは知ってたけどとりんさまモデルとかSDって単語が絡んでたりしたからStable Diffusionに関係してるのかなって思ってた…
Twitter見てもノベリスト関係しか出てこないです

602名無しさん@お腹いっぱい。2022/09/09(金) 19:13:06.73ID:0hY1lZcv
>>576
これ分かった
スライダー変えてgenerateしてもひとつ前の同じ画像が生成されるだけで効かない
upscalerの種類を変えてからgenerateすると起動する
upscalerが決まってて変えないから、再起動しかなくて気づかなかった

値変えてるのに同じUpscalerで起動しないって挙動が無意味なので完全なバグ

603名無しさん@お腹いっぱい。2022/09/09(金) 19:53:55.98ID:IFzQUfb+
とりんさまモデル嫌いじゃないけどwaifuに流れ持ってかれたね

604名無しさん@お腹いっぱい。2022/09/09(金) 20:00:47.59ID:ImBcerQC
waifu VRAM30GBいるらしいけどローカルで動かしてる猛者いるの?

605名無しさん@お腹いっぱい。2022/09/09(金) 20:04:41.83ID:o8hMBOZG
>>597
デッサン人形に同じ雰囲気で載せるのができたら最強だけど
プロンプト使ってSDに何枚も描かせるのが現実的じゃないかな
表情は学習データ多いから今でも作れる。ポーズもfinetuneですぐできるようになるんじゃないのかな

606名無しさん@お腹いっぱい。2022/09/09(金) 20:13:39.35ID:2nozphgS
>>604
RTX3080 10GB
1111をwaifuのモデルに差し替えただけの状態で一応動いてる

607名無しさん@お腹いっぱい。2022/09/09(金) 20:15:13.65ID:ZPN6z8cR
>>595
公開は検討中だとか
モデルはwebサービスのとりんさまアート(有料会員のみ使用可能)で使える

>>601
AIのべりすとの製作者がSDをファインチューンしたのがtrinartSDでそのバージョン2が今日公開された
https://huggingface.co/naclbit/trinart_stable_diffusion_v2
話題としてはwaifu diffusionに持っていかれたけどキャラクター特化モデルのポテンシャルは高そう

608名無しさん@お腹いっぱい。2022/09/09(金) 20:15:24.97ID:GP8G0c+I
同じキャラの別角度出せない問題ってこれで解決しない?

https://robotstart.info/2022/08/16/nvidia-vid2vid-cameo-pose-estimation.html

609名無しさん@お腹いっぱい。2022/09/09(金) 20:19:44.68ID:L3GJdIaT
automatic1111版、最近起動オプション書くファイルが分離されて、
SD、WD、とりんさまの切り替えとかいい感じにできるようになった
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

610名無しさん@お腹いっぱい。2022/09/09(金) 20:30:05.02ID:/O+40BOf
>>593
一応、--precision fullオプションで回避できるみたいだけど
これ一部の機能を停止させて妥協してるって事なのかな?
cmdの立ち上げ箇所にでも追記すれば良いのだろうか・・・

611名無しさん@お腹いっぱい。2022/09/09(金) 21:07:21.83ID:S+OayL4V
GoogleColab版でフィルタ外して出力してるとbanの可能性出てくるって板で見たのですが、子供っぽいえち系が対象なのですか?
成人キャラのえち系もbanされる可能性ありますかね…?

612名無しさん@お腹いっぱい。2022/09/09(金) 21:12:05.58ID:LFi+pkpX
GoogleでやってるとFBIが来そう(半ばマジ)

613名無しさん@お腹いっぱい。2022/09/09(金) 21:17:28.58ID:gk4aN1Nh
>>611
Google ColabというかGoogleドライブに不適切な画像を置くとバンされるかもって話じゃないかな
真偽は分からない。

実際には、かなりすごい画像(AI無関係。もちろん実在の人間ではない)をGoogleドライブで配布してる人も
いて特に問題になってないからそんなことあるのかな?という気もするけどね。 厳しいのは実在の人物だけじゃないのかな

そもそもメインで使ってるGoogleアカウントでやる必要はない

614名無しさん@お腹いっぱい。2022/09/09(金) 21:27:16.82ID:S+OayL4V
>>613
遊び心で本垢も気にせず遊んでしまった
水着に下着で遊んでたけど、時々隠してないの出てきつつもロリじゃなかったし。
でもふたば覗いてたら垢ban報告少しあったりで心配になりました
アメリカって二次系なら殆どロリ判定してきそうだし…
それ用の垢作ろうかな

615名無しさん@お腹いっぱい。2022/09/09(金) 21:34:19.14ID:9aPp+Amh
BAN報告マジ?共有してなくてもそんなことあんのか?

616名無しさん@お腹いっぱい。2022/09/09(金) 21:40:57.08ID:H6K1O1ay
Googleの俺ルールはあてにならないからな
colabはアカウント別にしてる
のでBANされても痛くも痒くもない

617名無しさん@お腹いっぱい。2022/09/09(金) 21:42:40.56ID:eMwMFZjS
米国で病気の子供の症状を医者に見せるのにドライブ経由で共有したら
google先生に「児童ポルノうpしたな殺す」宣言された事例があったとか

618名無しさん@お腹いっぱい。2022/09/09(金) 21:46:31.02ID:/03EGUT+
自分の子供がプールで遊んでる画像を保存しててアウトになった例もある

619名無しさん@お腹いっぱい。2022/09/09(金) 21:47:19.36ID:1+6It50Q
1111がアップデートでマイナス言葉使えると聞いてインストールしたけど、
なんか形式が変わって省メモリ設定の方法変わった?…

620名無しさん@お腹いっぱい。2022/09/09(金) 22:00:35.47ID:L3GJdIaT
>>619
webui-user.batに書くように変わったよ
直接書き換えてwebui-user.batを実行でもいいけど
>>609みたいにコピーして別名で置いておくと今後のバージョンアップで上書きされない

621名無しさん@お腹いっぱい。2022/09/09(金) 22:04:09.99ID:1+6It50Q
>>620
ありがとうです
アップデート毎に書き換えなくて良くなったのですね
便利でありがたいです

622名無しさん@お腹いっぱい。2022/09/09(金) 22:18:20.35ID:ZGUYeqvF
waifuプロンプト

1girl 女の子一人の意味 danbooruはこれ系がスタンダード化していて超強力 ~girl構文の代わりに使うのも良い 派生に2girl、1boy等々
standing ただ単に立たせて引きの絵が欲しい時の一択 超強力で副作用が少ないため足りなければガシガシ強さを上げられる
reference_sheet 設定資料の意 似たようなキャラが2、3人並ぶが解像度の関係で全員壊滅するので要テクニック 縦長の画像生成だと基本ポーズのキャラ一人が出てくる
sex 隠し味的に使うと色気が出るがプロンプトの他が弱いと容赦なく脱いで18禁に
navel へそ 露出していればへそが描かれて、フィットした着衣ならへそのラインが強調される
headgear SF系でよくある耳や頭のメカメカしい謎アンテナが付く

623名無しさん@お腹いっぱい。2022/09/09(金) 22:24:44.51ID:o5Z1vyXg
本家diffusers sdで縦1024にするとよく顔が上下に2体出来るんだけど、改善されてるフォークとかあるの?

624名無しさん@お腹いっぱい。2022/09/09(金) 22:29:39.28ID:Bk/7v04f
アスペクト比1:2を越えるとトーテムポールになるのはMJでも同じなので、アスペクト比を3:4ぐらいに抑えるしかない気がする

625名無しさん@お腹いっぱい。2022/09/09(金) 22:30:43.94ID:S36CQomC
1111の新機能マイナス言葉?って
単語の前にマイナス一個つける? マイナス2個?
それともマイナスではなくnoをつけるだけ?
noだけでも効いた感じするし−noでも効いた感じする
とにかく効いた感じする

626名無しさん@お腹いっぱい。2022/09/09(金) 22:31:48.03ID:V08hSV9c
>>622
1girlってwaifu専用やったんや
まあ現状だとwaifuしかもう使わんわって勢いで二次は優秀だから本家未対応でも構わんけども

627名無しさん@お腹いっぱい。2022/09/09(金) 22:33:48.70ID:xmm3V41K
>>622
sexで瞳にハートが描かれたわ

628名無しさん@お腹いっぱい。2022/09/09(金) 22:34:01.34ID:Bk/7v04f
jspaneseやべえな。Japanese animeとかJapanese light novelとかでも容赦なく和服になって富士山が聳え立ち桜が咲く

629名無しさん@お腹いっぱい。2022/09/09(金) 22:34:05.91ID:avDvZMob
waifu diffusionモデルで有効なのは基本的にDanbooruのタグ

630名無しさん@お腹いっぱい。2022/09/09(金) 22:40:37.82ID:V08hSV9c
japanese油断すると街並みが木造長屋とかになるから使いどころ難しい
ちゃんとjapaneseの弊害を打ち消す言葉を入れられないシチュでは害の方が大きい

631名無しさん@お腹いっぱい。2022/09/09(金) 22:51:41.80ID:L0WB7T2b
海外から見た日本ってそんな感じなんだなと

632名無しさん@お腹いっぱい。2022/09/09(金) 22:55:44.11ID:P1hRy//7
>>604
3060ti vlam8gbでうごいてるよー
作業内容はテンプレにある手順からモデルをwaifuに差し替えるだけでいけた
アニメ系強くていい感じ

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

633名無しさん@お腹いっぱい。2022/09/09(金) 23:01:51.10ID:L3GJdIaT
>>625
--show-negative-prompt オプション付きで起動するとNegative promptって入力欄が増えるよ

634名無しさん@お腹いっぱい。2022/09/09(金) 23:18:51.96ID:NmXa8Afu
この種のAI画像作成サービスで見事なものを作る(出力させる)人を「魔術師」と呼ぶ、っていうのを今日知った。
言い得て妙だ。

635名無しさん@お腹いっぱい。2022/09/09(金) 23:20:47.56ID:S36CQomC
>>633
それ必要だったのねww
全然効いてないのに効いてると思ってたのアホすぎて恥ずかしい

636名無しさん@お腹いっぱい。2022/09/09(金) 23:21:16.94ID:Bk/7v04f
召喚士って感じかなw

637名無しさん@お腹いっぱい。2022/09/09(金) 23:25:33.95ID:0hY1lZcv
hlkyのスライダーとかの値覚えてるwebui.yamlみたいなのって1111にもあるのかな?

638名無しさん@お腹いっぱい。2022/09/09(金) 23:29:10.73ID:L3GJdIaT
>>637
ui-config.jsonがそうだね
最大値も変えれるから例えば生成最大16枚が少ない時は9行目で変更できたりする

639名無しさん@お腹いっぱい。2022/09/09(金) 23:41:18.34ID:lV+xWUdV
>>534
結局この古いバージョンを消したら解決しました!
皆さんありがとうございました!

640名無しさん@お腹いっぱい。2022/09/09(金) 23:43:25.75ID:0hY1lZcv
>>638
ありがとう!
ってかバッチ16枚も少ないなぁってずっと思ってた、まじ感謝です

641名無しさん@お腹いっぱい。2022/09/09(金) 23:49:04.84ID:0hY1lZcv
今見てたらcfgのstepも0.5より細かくできるのか
一つの当たりの前後を捜索したい時があるのでこれも嬉しい

642名無しさん@お腹いっぱい。2022/09/09(金) 23:57:49.09ID:ZGUYeqvF
waifuのimg2img強力だな
いい感じの画風のプロンプト入れておくだけでどんな写真も二次元にできる

643名無しさん@お腹いっぱい。2022/09/09(金) 23:58:41.52ID:gk4aN1Nh
Dockerメモ
○Docker on windows Stable Diffusionインストール手順
・WSL2をインストールする
・docker desktopをインストールする
・git clone https://github.com/sd-webui/stable-diffusion-webui.git
・.env_docker.example をリネームして、.env_dockerにする
・docker compose up

後はモデルのダウンロード含め全てやってくれます。(時間はかかる)

★cuda用ドライバが必要とある記事がありますが、不要でした。
おそらく現時点ではcudaドライバも通常のドライバに同梱されている?(一応、studio driverでした)
★Windows10でWSL2は、Inside Previewが必要とある記事がありますが、現時点版で問題ありません。

○性能: 何度かやり直しましたが、なぜかDockerの方が1割ほど高速でした。謎・・・
・1080Ti、2022/9/9 22:00〜23:00頃版のhttps://github.com/sd-webui/stable-diffusion-webui
・プロンプト:girl seed:3107511606 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a

■直接起動: 19.94秒 (2.63 it/s) 2.62-2.63 it/s
Took 19.94s total (19.94s per image) Peak memory usage: 6528 MiB / 11264 MiB / 57.953%
50/50 [00:19<00:00, 2.63it/s]

■Docker起動: 17.81秒 (2.95 it/s) 2.80 - 2.96 it/s
50/50 [00:16<00:00, 2.95it/s]
Took 17.81s total (17.81s per image) Peak memory usage: 6611 MiB / 11264 MiB / 58.686%

644名無しさん@お腹いっぱい。2022/09/10(土) 00:00:35.46ID:w6clbfvE
waifuのCFG scaleを5に下げたらめちゃくちゃ可愛くなった
俺のprompt要らないじゃん

645名無しさん@お腹いっぱい。2022/09/10(土) 00:01:44.99ID:ZaqeNykA
まじで!?
公式だとCFG下げるとぼんやりした画像になるだけだから、上げるのデフォに考えてたわ

646名無しさん@お腹いっぱい。2022/09/10(土) 00:06:22.70ID:+Piu7ipB
CFG上げると融通効かなくなって、SSR出ない代わりにSR率が上がり、CFG下げるとwaifuに丸投げ度高くなるのでSSR出るけどNも出まくる印象。

647名無しさん@お腹いっぱい。2022/09/10(土) 00:08:35.18ID:eEaC99Qw
ちょっと違うけどMJの--sの逆みたいな感じだね、プロンプトに縛られない
小さいと大抵意味不明な画像になるんだけど、waifuなのも関係してるのかな

648名無しさん@お腹いっぱい。2022/09/10(土) 00:15:31.18ID:kC0V19v4
公式パイプラインのdiffuserに対応したGUI付きのやつってないのかしら

649名無しさん@お腹いっぱい。2022/09/10(土) 00:52:02.87ID:3pApQF4T
バストアップではなく体も入れたい時は
ある程度画像サイズ大きくしないとあからさまにクオリティ落ちるな

650名無しさん@お腹いっぱい。2022/09/10(土) 00:59:19.50ID:ZaqeNykA
512x512で学習してるから
引きの絵としてAIが感じる顔はまあまあショボいしな

651名無しさん@お腹いっぱい。2022/09/10(土) 01:12:19.44ID:20A6kMQL
同じキャラの表情差分作ってくれるAIまだですかね

652名無しさん@お腹いっぱい。2022/09/10(土) 01:57:27.67ID:8OeOFuBd
talking-head-anime-3みたいなのあるからもう開発されてそうだけど
表情までガチャ引くより他のアプリ使って手作業したほうが早そう

653名無しさん@お腹いっぱい。2022/09/10(土) 02:03:52.52ID:SMIYc4tc
表情以外も多少なら変わっていいならimg2imgで十分いける
顔部分以外許容できないってならimg2imgしてからフォトショで顔切り出して元画像に貼り付けかな

654名無しさん@お腹いっぱい。2022/09/10(土) 03:10:08.26ID:c+pVvAAs
hlky版エラーで動かんな
issueにも載ってるけど

655名無しさん@お腹いっぱい。2022/09/10(土) 03:41:24.14ID:k4vW++4t

656名無しさん@お腹いっぱい。2022/09/10(土) 03:53:36.21ID:k4vW++4t
>>576
CodeFormerは
強⇔弱
0⇔1
だけど間違って1にしてない?

>>579
人物写真風画像以外で使うと顔だけ作風が変わって変になると思うけど

657名無しさん@お腹いっぱい。2022/09/10(土) 04:18:30.90ID:I2gHNbEA
ひゃっほう、AUTOMATIC1111版インストールしたsingularity image作って、WSL2のsingularityで動いたぜ!
3060も--medvram付けないとエラーになるのね……。

658名無しさん@お腹いっぱい。2022/09/10(土) 07:22:46.23ID:eEaC99Qw
アウトペインティングを1111で試したけど、こいつとか
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
なぜわざわざこんな棚背景でやってるか実際使ったらすぐわかったw
ある種の誇大広告だね

659名無しさん@お腹いっぱい。2022/09/10(土) 07:39:46.48ID:f+mFBrjB
「anime girl」でアニメっぽい女の子が出てくるのはanimeとgirlの意味を合成しているわけでは無く「anime girl」で一つの単語として扱っている
これは長文であっても同じで連想配列から引いているようなもの
配列がめちゃくちゃ巨大だから人の目にはテーブルで引いているように見えないだけ
なのでテーブルにある文章ならいい感じの絵が出るがテーブルにないとそれっぽいコラ画像で誤魔化すことになる
まあnewとyorkを合成してもニューヨークにはならないので熟語を一つの単語として扱うのは仕方のないことなのだが
個人的にはないならないでエラー出して欲しい

660名無しさん@お腹いっぱい。2022/09/10(土) 07:55:14.27ID:gCHe1Klh
使い切ったので追加で10$払ったけどmeters usage って何?

661名無しさん@お腹いっぱい。2022/09/10(土) 08:13:02.75ID:6+vcRMNK
>>659
midjourneyでは、
a beautiful anime girl
でも
a beautiful anime lady
でもアニメ調の女性の絵が出て来たよ。
midjourneyではgirl、lady、womanのどれが良いか試すのよくやる。

662名無しさん@お腹いっぱい。2022/09/10(土) 08:24:52.63ID:f+mFBrjB
>>661
そうそう
girl、lady、woman、sister、全部テーブルの違うカラムを参照している
他にもgirl in tokyoとgirl in ney yorkも全く違うものを指しているため人種から服装まで違うものが出力される

663名無しさん@お腹いっぱい。2022/09/10(土) 08:44:13.29ID:eEaC99Qw

664名無しさん@お腹いっぱい。2022/09/10(土) 08:45:52.19ID:TPYLp84j
単語のテーブルなんて無いよ
あるのはそういう出力がでる重みをもった学習済みネットワークだけだ

665名無しさん@お腹いっぱい。2022/09/10(土) 08:46:00.15ID:JzIUFcgd
>>611
AIがまずそうな画像を削除する
されたら自重すればまあ

666名無しさん@お腹いっぱい。2022/09/10(土) 08:46:07.87ID:mAVNrva2
krita plugin導入したけどkrita自体が使い辛すぎてつれえ

667名無しさん@お腹いっぱい。2022/09/10(土) 08:55:57.21ID:+Piu7ipB
どっかに重みづけで数学用語ぶち込んだりすると、いい仕事してくれる気がする。

668名無しさん@お腹いっぱい。2022/09/10(土) 08:57:26.78ID:eEaC99Qw
Kritaはねぇ・・一応SAIにとって代わろうとしたソフトなんだけど
起動の遅さも辛い、何やったらそんな時間かかるんだレベル、今立ち上げたら1分45秒掛かった
さすがに落として2回目は15秒で起動してきたが

669名無しさん@お腹いっぱい。2022/09/10(土) 09:12:00.73ID:YF0IA75I
1111のローカル版でも同じ様なプロンプトを使い続けてると過去の生成イメージを引きずってる気がするけど勘違いかな?
プロンプトから外した要素なのにキャッシュを再利用されてる感じでその後の生成でも加えられ続けてるような
hlkyのcolab版でも同じような現象があって、それは高速生成の為に実際行われてたっぽいけど
ただの勘違いだろうか

670名無しさん@お腹いっぱい。2022/09/10(土) 09:26:42.54ID:+Piu7ipB
それはあると思う。colabでもpromt変えて最初の数枚は前のpromtと干渉したような結果が返ってくる時がある

671名無しさん@お腹いっぱい。2022/09/10(土) 09:32:16.72ID:kC0V19v4
GPTにしろなんにしろこの手のtransformer発展のやつは前回結果と全く同じ単語含んでるとキャッシュしてるのでその手のゴーストみたいな現象稀に起きる

672名無しさん@お腹いっぱい。2022/09/10(土) 09:34:16.06ID:vkOFf0Wq
>>658
解説をお願いします

673名無しさん@お腹いっぱい。2022/09/10(土) 09:36:36.08ID:YF0IA75I
やっぱりある感じ?…
そういうキャッシュというかログみたいなの消すボタンないかな…キャッシュフォルダ削除みたいな…
もう一回.datから新しいローカルに立ち上げてみるか…

674名無しさん@お腹いっぱい。2022/09/10(土) 09:36:43.12ID:5Py8yvoh
seedがあるんだから直前や少し前のプロンプトに結果がつられてるってのは理屈的におかしくね?
seedが結果から逆算されるものでもなし

675名無しさん@お腹いっぱい。2022/09/10(土) 09:38:28.06ID:n6V+4y05
>>671
> GPTにしろなんにしろこの手のtransformer発展のやつは前回結果と全く同じ単語含んでるとキャッシュしてる

かなり重症のキチガイだな

676名無しさん@お腹いっぱい。2022/09/10(土) 09:39:19.33ID:y6lUZ2eI
テレゴニーかよ

677名無しさん@お腹いっぱい。2022/09/10(土) 09:40:37.93ID:f+mFBrjB
同じ単語含んでたら似た結果が出るのは当たり前だろ

678名無しさん@お腹いっぱい。2022/09/10(土) 09:41:42.00ID:6+vcRMNK
>>662
midjourney弄っていれば分かるけれど、流れて来る他のユーザーの生成画像の10分の1ぐらいは面白いイメージの合成にチャレンジしている。
an ancient chinese goblin toy
と入れると陶器で作られたゴブリンの像の写真みたいなのが生成される
それを
steam-powerd ancient chinese goblin toy
とかすると角みたいなのから蒸気出していたり鍋のようなの持っていたりする
こういうの全部テーブルとパクり元画像を用意出来ないでしょう

679名無しさん@お腹いっぱい。2022/09/10(土) 09:43:55.23ID:5Py8yvoh
>>676
検索して笑ったw
難しい言葉知ってるなぁ

680名無しさん@お腹いっぱい。2022/09/10(土) 09:49:49.52ID:kC0V19v4
>>675-677
"standing, only man"の後に"standing, only
girl"ってやったら
前回の"standing"のキャッシュに引っ張られて女の子だけじゃなくて男も出てくる可能性があるって話だよ
なんかよく分かってないのに無理にでもなにか言おうとする言葉汚い人駐留してるね

あと軽いwaifu版きた
https://huggingface.co/crumb/pruned-waifu-diffusion

681名無しさん@お腹いっぱい。2022/09/10(土) 09:55:07.78ID:TPdSjrNx
キャッシュに引っ張られる、とか「テーブル」とかマジで病院行った方がいいよ
本気で頭が狂ってる

682名無しさん@お腹いっぱい。2022/09/10(土) 10:00:19.90ID:JUvm7929
>>676
俺の語彙が増えた

683名無しさん@お腹いっぱい。2022/09/10(土) 10:00:39.24ID:5Py8yvoh
(汚い言葉のルーパチ君は無視で)

AIに
①おっぱいばかり作らせてる人が、次におっさんプロンプトで描かせた、オッサン絵seed12345、「乳首があるから影響受けてね?」
②お○んこばかり作らせてる人が、①のプロンプトとseedを聞いて全く同じオッサン絵が出てきた、「え?お○んこないじゃん?」

「seed固定したら当たり前だろ?固定しなかったらちゃんとお○んこに寄る別seedになるよ」

じゃ、②のAIに蓄積されたお○んこテレゴニーを、②のAIが
「おっさんプロンプト&seed12345の生成結果にお○んこがないからseed12345は避けよう」
ってアカシックレコードから逆算察知するアルゴリズムが働くの?

684名無しさん@お腹いっぱい。2022/09/10(土) 10:00:47.17ID:yHyqCaQj
AI DungeonとかAIのべりすとでも似たような話(消したはずの過去のデータに引っ張られる)あったけど結局原因になりそうな仕組みとか根拠になるデータは出てないんじゃなかったっけ
プロンプトと関係ない画像が出るのはよくあることだけど前と似たような画像が偶然出てきた時だけ記憶に残るってだけじゃない?

685名無しさん@お腹いっぱい。2022/09/10(土) 10:02:48.18ID:6+vcRMNK
テーブルとかただのコラージュ(寄せ集め)だとかの疑念を持ってたら、それじゃ出来ないハズの実験をしてその結果から確からしさを確認してから断言しないと

686名無しさん@お腹いっぱい。2022/09/10(土) 10:02:53.17ID:kC0V19v4
テーブルマンの人言いたかったのはトークンの事ででしょ
ただトークンリスト上になくても似た単語や文字列から引っ張ってこれる可能性あるから認識しないってことは無いだろうけど

687名無しさん@お腹いっぱい。2022/09/10(土) 10:04:42.93ID:JUvm7929
まじで引っ張られるならそのキャッシュが無い環境で同一シード同一プロンプト同一以下略でやった結果が異なることを見せてほしい
そしたら俺らの大半はテレゴニーが起きてるのを信じるよ、多分
少なくとも俺は信じるよ

688名無しさん@お腹いっぱい。2022/09/10(土) 10:06:41.16ID:TPdSjrNx
実験とかする必要なんかないよ・・・
頭のおかしい妄想の相手したってそれ親切じゃないから

689名無しさん@お腹いっぱい。2022/09/10(土) 10:07:10.48ID:TPdSjrNx
>>687
信じるとか信じないとかって話じゃないでしょ
「キャッシュ」ってなんだよw

690名無しさん@お腹いっぱい。2022/09/10(土) 10:07:39.88ID:kC0V19v4
>>684
稀によく起きるってやつ(AIDでも体感1000個プロンプト開始して1回以下、でも起きると連発する)だし実害ないから誰も検証してないぽい
まあそう言う現象があるかもしれない程度の都市伝説ぐらいの感覚でいいと思う

691名無しさん@お腹いっぱい。2022/09/10(土) 10:10:02.03ID:kC0V19v4
>>689
言葉の意味わからんなら素直にそう聞きなさいな

692名無しさん@お腹いっぱい。2022/09/10(土) 10:12:34.48ID:TPdSjrNx
>>691
あんたの脳内にはなにかあるんだろうが、Stable DiffusionでもMidjoruenyの話ではない。
あんたの妄想の話だからスレチだよ
別スレでやってくれ

693名無しさん@お腹いっぱい。2022/09/10(土) 10:16:15.87ID:73uxErN5
1111版ならあり得るぞ
txt2imgもimg2imgも全部同じ処理だからな

694名無しさん@お腹いっぱい。2022/09/10(土) 10:20:10.80ID:lFr2ZBe7
不安ならseed変えればいいだけでは?

695名無しさん@お腹いっぱい。2022/09/10(土) 10:20:56.67ID:y6lUZ2eI
ここにいる皆で検証可能だぞ
皆で同じプロンプト、パラメーターで生成しよう

696名無しさん@お腹いっぱい。2022/09/10(土) 10:20:58.18ID:yHyqCaQj
AIのべりすとの「≡」とかもそうだけどよくわかってないのに断言する人が出て広まっちゃっても面倒くさいし検証できるならした方が良いと思う

697名無しさん@お腹いっぱい。2022/09/10(土) 10:21:22.09ID:5Py8yvoh
同一プロンプト同一seed(最大桁数知らんけど有限)が
同環境なら誰がやっても必ず同じものになる世界でしょ?

プロンプト蓄積がメモリ管理の都合で結果に影響を及ぼすってんなら
seedを鯖で一括管理して、蓄積の影響を受けたローカルAIの「結果」に割り振るseedを決めつつ
蓄積のないAIは影響されてない場合のseedを割り振るみたいな仕組みが必要になっちゃう

まぁ、ないでしょう
seedの概念が完全に本末転倒だ、乱数の起点の種ってだけなのに

698名無しさん@お腹いっぱい。2022/09/10(土) 10:21:58.89ID:7PpU3pyP
>>692
MJやSDの根幹技術のCLIPやそれぞれ入口でword認識に使ってるTokenizerはBEATだったりと
関連技術の話だしAIに美味いことどう単語食わせるかって話だからスレチでないぞ
ただ長々続ける話題でもないが

699名無しさん@お腹いっぱい。2022/09/10(土) 10:23:43.53ID:+iObtE1T
テーブル
キャッシュ
都市伝説
1000回に1回以下

AI界の稲川淳二かな?

700名無しさん@お腹いっぱい。2022/09/10(土) 10:24:59.72ID:TPdSjrNx
>>698
そういう実在する単語を混ぜながら狂ったことを言い続けるので、本物のキチガイだといってるんですよ
単に無知なだけじゃなく病気です

701名無しさん@お腹いっぱい。2022/09/10(土) 10:27:18.40ID:5Py8yvoh
>>680
> あと軽いwaifu版きた
> https://huggingface.co/crumb/pruned-waifu-diffusion

> Anything other than the model required for inference has been removed.
> 推論に必要なモデル以外はすべて削除されています。

学習させる研究者向けの部分みたいなのを削除したってことだろうか

702名無しさん@お腹いっぱい。2022/09/10(土) 10:29:47.63ID:7PpU3pyP
>>700
cashはVRAM上にモデルデータ本体と余力あれば効率化の為にベクトルのリスト駐留させたりで存在しない訳じゃないぞ

703名無しさん@お腹いっぱい。2022/09/10(土) 10:32:46.20ID:bde4crvL
現在GoogleColab派なのですがwaifu-diffusionもSD同様にローカルだとオフラインで動かせるんですか?

704名無しさん@お腹いっぱい。2022/09/10(土) 10:34:37.59ID:73uxErN5
1111版は毎回txt2imgとimg2imgのインスタンス作って初期化しているから画像が残ってるようには見えなかった
もしキャッシュがあるならStablediffuionのモデル自体にあるかもね

705名無しさん@お腹いっぱい。2022/09/10(土) 10:35:29.64ID:kC0V19v4
>>703
emaなし版(8GBくらいあるでかいオリジナルの方)でローカルで動くことは確認した
自環境はメモリ16GBしかないので読み込みと展開完了するまでPCフリーズしたような状態になったけど

706名無しさん@お腹いっぱい。2022/09/10(土) 10:35:52.40ID:mORgxY6/
>>703
動く。
ついでに NMKD StableDiffusionGui が、ver.1.31でアプリ内でのモデル選択に対応した

707名無しさん@お腹いっぱい。2022/09/10(土) 10:37:54.30ID:XNj39oiC
オープンソースなんだから仕組みや挙動がおかしいって言うならソースコードから該当する部分引用すればいいだけ
自分の動かしてるプログラムが何やってるかわかってなさそうな人に付き合う必要は無い

708名無しさん@お腹いっぱい。2022/09/10(土) 10:38:42.74ID:kC0V19v4
>>705
これ間違えた、emaあり版の方だとクソ重かったとと読み変えてくだち
emaなし版本当に軽いか確認してくる

709名無しさん@お腹いっぱい。2022/09/10(土) 10:42:57.41ID:bde4crvL
>>0705
ありがとうございます
ちなみにwaifu-diffusionをローカルで動かすために必要なデータでダウンロードが必要なものって、sd-v1-2-full-ema.ckptの他にも何かありますか?

710名無しさん@お腹いっぱい。2022/09/10(土) 10:44:19.79ID:kC0V19v4
>>709
ckptファイル形式のやつはそれだけでおk

711名無しさん@お腹いっぱい。2022/09/10(土) 10:44:57.85ID:mAVNrva2
公式で1.5が配布されたらまたファインチューニングしてWAIFU版作ってくれるんだろうか?

712名無しさん@お腹いっぱい。2022/09/10(土) 10:47:35.25ID:bde4crvL
>>0710
もしかしてckptファイル形式以外でダウンロード必要なデータもあるのでしょうか?

713名無しさん@お腹いっぱい。2022/09/10(土) 10:50:04.78ID:lFr2ZBe7
最低限コード読めないとローカルで動かすの躓くぞ

714名無しさん@お腹いっぱい。2022/09/10(土) 10:53:44.59ID:mhxzZm57
ID:bde4crvL
>>1
> テンプレまとめ
> https://rentry.co/zqr4r
「ローカル環境構築手順」に丁寧に書いてあるから読んでくるんだ

とりあえず動かせた後にckptだけ入れ替えればOK
マンガン電池をアルカリ電池に変えるみたいなもの

715名無しさん@お腹いっぱい。2022/09/10(土) 10:54:06.34ID:kC0V19v4
>>711
Waifu版はSD1.2ベースだから(震え声)

>>712
今あちこちで公開されてるSDのモデルは2形式あって
・ckptファイル形式(仮名)
なんか全部の情報が詰まってるぽいやつ、主にここで話題にされるもの
・公式ファイル形式(仮名)
https://huggingface.co/CompVis/stable-diffusion-v1-4
上記URLで配布されてるやつ、NSFW判定付きで職場でもお子様でも安全
使うのに公式ライブラリ経由とアカウント登録必要なのとNDFW表現規制ある(解除可能)のととかで
なんか色々不便なのでここではほぼ話題にならない

716名無しさん@お腹いっぱい。2022/09/10(土) 10:55:32.73ID:VlM0DlWa
>>715
あの~完全に間違っている気がするんですが。。。

717名無しさん@お腹いっぱい。2022/09/10(土) 10:56:47.15ID:bWu2zHU5
> Waifu版はSD1.2ベースだから(震え声)

ID:kC0V19v4 さんすげーな

718名無しさん@お腹いっぱい。2022/09/10(土) 10:58:02.45ID:kC0V19v4
>>712
cpktを動かすために必要なものと言う意味なら>>714の補足通りテンプレ見るのが1番
ここだと1111版が推奨されてるぽい?

719名無しさん@お腹いっぱい。2022/09/10(土) 10:58:15.12ID:SMIYc4tc
>>715
めちゃくちゃじゃん

720名無しさん@お腹いっぱい。2022/09/10(土) 10:58:48.52ID:wTSpJ7x4
テーブル
キャッシュ
都市伝説
1000回に1回以下
Waifu版はSD1.2ベース
モデルにckpt形式と公式ファイル形式がある

すご・・・・w

721名無しさん@お腹いっぱい。2022/09/10(土) 11:00:22.49ID:+Piu7ipB
birs's-eye入れるとちゃんと見下ろしてくれるけど、たまに鳥さんそのものが映り込むw
くっそw

722名無しさん@お腹いっぱい。2022/09/10(土) 11:01:43.26ID:SMIYc4tc
>>721
angleまで入れたら?あんま試してないけどそれで鳥目までは出た記憶ない

723名無しさん@お腹いっぱい。2022/09/10(土) 11:02:22.47ID:f+mFBrjB
だってバーズアイで絶対俯瞰視点画像が出てくるようにしちゃうと逆に鳥の目のアップの写真が欲しい時に困っちゃうからね

724名無しさん@お腹いっぱい。2022/09/10(土) 11:06:42.11ID:7PpU3pyP
>>717
Waifu版公式デスコで1.2ベースって作者言ってた

725名無しさん@お腹いっぱい。2022/09/10(土) 11:09:57.57ID:mhxzZm57
> ここだと1111版が推奨されてるぽい?
ずっとhlkyだったけど乗り換えたよ
痒いところに手が届くし、settingsは一か所にまとまってるしカスタマイズ性も高くて使う側のことめっちゃ考えてくれてる
hlkyは意味不明なUIに加えverupのたびに色んな配置をコロコロ入れ替えてくるので混乱してイライラする

726名無しさん@お腹いっぱい。2022/09/10(土) 11:11:09.94ID:bde4crvL
>>0714
ありがとうございます、もう一度読み返してみます
>>0715
ckptファイル形式のやつを調べてみようと思います
>>0781
その1111版も確認します

みなさんありがとうございました

727名無しさん@お腹いっぱい。2022/09/10(土) 11:12:31.59ID:SMIYc4tc
>>724
https://huggingface.co/hakurei/waifu-diffusion
Model Description
The model originally used for fine-tuning is Stable Diffusion V1-4,
which is a latent image diffusion model trained on LAION2B-en.
The current model has been fine-tuned with a learning rate of 5.0e-6 for
4 epochs on 56k Danbooru text-image pairs which all have an aesthetic rating greater than 6.0.

728名無しさん@お腹いっぱい。2022/09/10(土) 11:15:52.97ID:yHyqCaQj
①「standing, only man」でseed1~8まで8枚生成
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
②「standing, only girl」でseed1~4まで4枚生成
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
③colabの接続を解除してもう一度「standing, only girl」でseed1~4まで4枚生成
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

いまいちどういう状況を指してるか分からないから自信ないけど検証はこれで良いんですかね?

729名無しさん@お腹いっぱい。2022/09/10(土) 11:19:23.88ID:7PpU3pyP
>>727
https://huggingface.co/hakurei/waifu-diffusion/commit/1692f03d5c0ab460f036adfc99a2442e8b046c12
add v1-2 weights

モデルのコミット履歴の方にはv.1.2の重み追加とある
リドミの記載間違えてるんじゃない?

730名無しさん@お腹いっぱい。2022/09/10(土) 11:20:04.52ID:y6lUZ2eI
実証されたな、テレゴニーはない

731名無しさん@お腹いっぱい。2022/09/10(土) 11:21:34.57ID:SMIYc4tc
>>729
sd1.4をベースにしたwaifu独自バージョン1.2

732名無しさん@お腹いっぱい。2022/09/10(土) 11:22:17.11ID:LF1R3hBg
ID:kC0V19v4
ID:7PpU3pyP

このスレからバン出来ないのかな?

733名無しさん@お腹いっぱい。2022/09/10(土) 11:22:53.70ID:DQboyw0q
>>690で1/1000と言ってるしそれぐらいやらないと
証明されたともされてないとも言えないな

734名無しさん@お腹いっぱい。2022/09/10(土) 11:25:19.63ID:+Ul6DSQX
生成順に絵を並べても特に前の絵に引っ張られてる感じはしないなぁ

735名無しさん@お腹いっぱい。2022/09/10(土) 11:28:51.64ID:VlM0DlWa
hlkyは1111からフォークしたクセになぜが自分がオリジナルみたいな顔してるのが気持ち悪い

736名無しさん@お腹いっぱい。2022/09/10(土) 11:30:42.14ID:xV7Cqz7T
1111とかのローカル版ってアプデとかで新しいバージョンが出たときってアンインストール→再インストールしないと駄目だよね?

737名無しさん@お腹いっぱい。2022/09/10(土) 11:33:49.41ID:XaX3b2f1
>>663
あーとりあえず、10ドル分の追加料金払ったらそこまでしか使えないってことね…

738名無しさん@お腹いっぱい。2022/09/10(土) 11:36:02.89ID:mhxzZm57
>>736
解凍してstable-diffusion-webui-masterに上書きでぶち込むだけで動くよ
もちコマンドプロンプトは落としてwebui.bat再起動からブラウザ再読み込みね(当たり前)
自分で設定したui-config.jsonだけはよけとくけど

739名無しさん@お腹いっぱい。2022/09/10(土) 11:42:24.97ID:mhxzZm57
>>737
何言ってるのかわからんけど、いわゆる従量課金になる

> 10ドル分の追加料金払ったらそこまでしか使えない
「そこまで」なんてどこにもないし、料金は後払い
$10のサブスク使い切った→従量課金に勝手に移行して無限に使える(ただし単位価格は3割増し)

勝手に従量制に移行するのが危ないと判断したようで
警告を出すタイミングを選ばせてくるって話ね、「$5使ったぞーいいのか?」「$10使ったぞー?」って

740名無しさん@お腹いっぱい。2022/09/10(土) 11:42:50.48ID:I2gHNbEA
git cloneしてたらgit pullするだけでいいんじゃない?

741名無しさん@お腹いっぱい。2022/09/10(土) 11:57:12.88ID:kC0V19v4
調べたらwaifu版はSD1.4ベースだったわ
これに関してはうそ情報スマン

あとSDの配布されてるモデル形式が現行2種類あるのは本当だからね
ここだとckpt形式の方しかほぼ話題にならないから混乱の元にはならないとは思うが

742名無しさん@お腹いっぱい。2022/09/10(土) 11:59:00.17ID:NvrNy9oy
Text to Video
https://twitter.com/Yamkaz/status/1568261978422149121

デモはすごすぎ。実際どの程度使えるレベルなんだろう
https://twitter.com/5chan_nel (5ch newer account)

743名無しさん@お腹いっぱい。2022/09/10(土) 12:02:12.53ID:+Piu7ipB
すげえ……
けど、どこまでユーザーのワガママを反映してくれるんだろうか。

744名無しさん@お腹いっぱい。2022/09/10(土) 12:04:37.60ID:sB5FjkHW
エロ動画も自作できる時代くる?

745名無しさん@お腹いっぱい。2022/09/10(土) 12:05:27.34ID:mhxzZm57
>>742
fakeっぽい、ただのネタでは?
https://twitter.com/runwayml/status/1554479711300059136
そもそもがこういう画像編集系の人だから眉唾、アンタAIとか無縁でしょうに
https://twitter.com/5chan_nel (5ch newer account)

746名無しさん@お腹いっぱい。2022/09/10(土) 12:07:52.30ID:JKTAfPky
Twitterでホラー漫画描いてた奴GoogleからBANされてるな

747名無しさん@お腹いっぱい。2022/09/10(土) 12:08:48.82ID:lFr2ZBe7
広告用の映像を間に受けないほうがいい
チェリーピック素材どころかAI使ってない素材の可能性もある

748名無しさん@お腹いっぱい。2022/09/10(土) 12:09:39.09ID:SMIYc4tc
>>741
2種類も嘘
公式配布モデルではSD1.4以外使われてなけど公式でも4種類かな配布されてる
1.4に表現規制あるっていうのも嘘
ckpt形式の方しかほぼ話題にならないってのは何言ってるのか分からないけどどうせそれも違うんだろ

749名無しさん@お腹いっぱい。2022/09/10(土) 12:11:00.92ID:xNII+bYq
>>742
デモは紛らわしいけど、あくまで編集メインなんじゃないかな。生成ではなく
ただのテキストコマンド入力みたいなもんかも?

>>745
完全にフェイクの可能性もあるのかw
AIでフェイク、だけじゃなくフェイクAIも・・・ 。難しい世の中になるねえw

750名無しさん@お腹いっぱい。2022/09/10(土) 12:15:29.39ID:lFr2ZBe7
https://huggingface.co/CompVis/stable-diffusion-v1-4
の事を言ってるならこれはdiffusersのライブラリ
diffusers経由でSD使う人はこれを使う

751名無しさん@お腹いっぱい。2022/09/10(土) 12:16:16.93ID:bde4crvL
wd-v1-2-full-ema.ckptの容量はどのくらいなのでしょうか?
7.17GBか、それとも7.2GB
とりあえずダウンロード始めたら後者になりました…ですがこの掲示板を遡ると7.17GBというレスもある…
最新版が更新されたのでしょうか?

752名無しさん@お腹いっぱい。2022/09/10(土) 12:17:02.39ID:sB5FjkHW
マイクロソフトだかがディープフェイク判定AI作ったみたいなニュースあったけど
転売屋と転売対策みたいに無限にイタチごっこになる時代が来るんかね
怒られない範囲で悪用したい人間としては簡単にエロ画像エロ動画作れるAIバリバリ出てきて欲しいけど

753名無しさん@お腹いっぱい。2022/09/10(土) 12:17:31.71ID:jrnls3ZR
>>745
https://runwayml.com/
これやろ
今のPhotoShopとPremiereProとTpaz製品を悪魔合体させたような動画編集ソフトに
StableDiffusionの機能を組み込んでるんじゃね

754名無しさん@お腹いっぱい。2022/09/10(土) 12:19:37.06ID:sB5FjkHW
>>751
>>680
のやつが中身同じで軽いらしい

755名無しさん@お腹いっぱい。2022/09/10(土) 12:23:44.34ID:DQboyw0q
雰囲気悪くなるしSMIYc4tcも黙った方がいいんじゃないか

SDの動画版と音声も年内に来るんだっけ?
音声は英語基準だろうし日本語とか出来なさそうだからあまり期待してないけど

756名無しさん@お腹いっぱい。2022/09/10(土) 12:29:39.55ID:bde4crvL
>>754
容量を気にしたのはバージョンが気になったからです
もしかして、ややこしいですが「元の PyTorch モデルのダウンロード リンク」からDLできるものが最新版だったりするのですか?

757名無しさん@お腹いっぱい。2022/09/10(土) 12:33:26.73ID:sB5FjkHW
>>756
>>546
ということらしいので自分でなにか学習させるつもりがないなら
同じVerの画像生成専用に使える軽いやつがおすすめされる

758名無しさん@お腹いっぱい。2022/09/10(土) 12:33:49.74ID:xNII+bYq
>>755
> 雰囲気悪くなるしSMIYc4tcも黙った方がいいんじゃないか
馬鹿なことを書いてるのをスルーすると本気に取る人も出てくるからちゃんと指摘したほうがいいと思う
この2人(1人?)はちょっと度が過ぎてるしね
ID:kC0V19v4
ID:7PpU3pyP


StableAIのaudioは、具体的にはなんだろうね

このkoe.aiとかは英語のサービスだけど、日本語でも割りといけたりする。
https://koe.ai/recast/

759名無しさん@お腹いっぱい。2022/09/10(土) 12:36:50.07ID:f+mFBrjB
別にSD製の画像で直接商売する必要はないんだよね
例えばイラストレーターを育てる育成シミュレーションゲームを作る際にSDを使うことができる

760名無しさん@お腹いっぱい。2022/09/10(土) 12:42:24.60ID:bde4crvL
>>757
ちょっと面白そうですがおとなしく軽い方をしようかと思います
ありがとうございました

761名無しさん@お腹いっぱい。2022/09/10(土) 12:44:34.14ID:rEo734F2
>>742
>>749
観たけど動画生成じゃなく色んなの集めた動画編集だね
人物のマスクもこの辺かな
http://cedro3.com/ai/mttr/

関係ないけど4コマほどの試せるtxt2video
https://huggingface.co/spaces/THUDM/CogVideo

762名無しさん@お腹いっぱい。2022/09/10(土) 12:45:05.28ID:sB5FjkHW
ID:7PpU3pyPはともかくID:kC0V19v4は軽い版Waifu情報持ってきたりしてるし嘘言ってない気がする

いや煽り煽られは2chの華だぞ言われたらその通りなのでどうぞどうぞするしかないが

763名無しさん@お腹いっぱい。2022/09/10(土) 13:00:40.81ID:xNII+bYq
>>761
CogVideoちょっとだけ見たけど、キーフレームを生成して、補完してるのね
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

動画以前の問題として、ポーズ違いのキーフレームが生成できる時点でめっちゃ凄いと思った

764名無しさん@お腹いっぱい。2022/09/10(土) 13:03:14.02ID:+Piu7ipB
言葉に複数の意味があるから、その辺考えないと破綻しやすいなやっぱし。
例えば修道女なんかだと教会にいるのが当たり前だから、さらに教会の中でとか指定すると変な感じになりやすい。
けど森の中でとかすると割と普通。
同じように騎士とか侍とかだと男前提の言葉だから、ヒョイっとseedによっては騎士の少女とか書いても男が出てくる。
だから、◯◯を着たみたいなコスプレで考えるとそう言う紛れは無くなる気がする。

765名無しさん@お腹いっぱい。2022/09/10(土) 13:05:36.95ID:cCha95+J
まだ微妙な場合も多いけどエロ画像作り放題の時代が来たし
エロ動画作り放題の未来も見えててまだまだ人類は捨てたものじゃないということか

766名無しさん@お腹いっぱい。2022/09/10(土) 13:08:55.58ID:k4vW++4t
これダウンロードして最後の行を.ckptファイル名に変えてから実行すると省サイズできる
本家SDモデルとWDモデル両方いけた
https://raw.githubusercontent.com/harubaru/waifu-diffusion/main/scripts/prune.py

767名無しさん@お腹いっぱい。2022/09/10(土) 13:11:01.33ID:f+mFBrjB
例えば10万円欲しいときにGoogleで「10万円」と検索しないよね
バイトとか求人とか宝くじとか
画像生成も同じ。裸の女の子が欲しいからプロンプトに「裸」と入れるのはただのアホ

768名無しさん@お腹いっぱい。2022/09/10(土) 13:12:30.07ID:cCha95+J
>>766
ckptじゃないやつの方から行けるの?

769名無しさん@お腹いっぱい。2022/09/10(土) 13:16:59.60ID:3ei+WA3H
>>767
「裸である状況」を入れるというか教える的な?
この例えで良いかよう分からんけど

770名無しさん@お腹いっぱい。2022/09/10(土) 13:20:49.93ID:h8THohhj
>>762
むしろそっちの方が嘘ばっかだろ
何だよキャッシュって

771名無しさん@お腹いっぱい。2022/09/10(土) 13:21:25.20ID:cCha95+J
SDはいくつか英語以外の言語も認識してるんだっけ?
ふとnude以外に裸と裸的な他の言語の同じ意味の単語混ぜて補足強化できたりしないかなと思った

まあそんなことするより1111版なら()でくくばいいか

772名無しさん@お腹いっぱい。2022/09/10(土) 13:29:19.45ID:vRHGVOhL
>>656
> 0⇔1
> だけど間違って1にしてない?
そういう話じゃなく>>602ね、なお最新版で修正されてたよ
> fix aggressive caching for extras tab
これかな?

773名無しさん@お腹いっぱい。2022/09/10(土) 13:29:30.34ID:h8THohhj
>>771
「アニメ」と入れてみれば分かると思うぞ
ただ語彙は激貧なのであまり使えない

774名無しさん@お腹いっぱい。2022/09/10(土) 13:34:16.95ID:bqfCe9Rp
裸はnaked、いろんな服見たいときはsexy styleで使い分けてるな

775名無しさん@お腹いっぱい。2022/09/10(土) 13:35:54.45ID:HgV8l9ue
着エロは?着エロはどんな指定すればいいですか先生!!??

776名無しさん@お腹いっぱい。2022/09/10(土) 13:47:09.39ID:xNII+bYq
エロプロンプトの話は専用スレあるからそっちがいいかもね
https://mercury.bbspink.com/test/read.cgi/erocg/1662132381/

777名無しさん@お腹いっぱい。2022/09/10(土) 14:19:49.54ID:+Piu7ipB
ねんどろいどツエーw
一発でSDになりよるw

https://imgur.com/a/KATHbPL

778名無しさん@お腹いっぱい。2022/09/10(土) 14:37:34.24ID:nxV/3jeW
オリジナル版とかはねんどろいどの写真がうまい具合にできてたから
世界が丸ごと二次元に寄ったせいでねんどろいどがSDキャラになっちまったんだな

779名無しさん@お腹いっぱい。2022/09/10(土) 14:42:56.58ID:+Piu7ipB
多分、AIで崩れやすい目とか口とか手足の情報がねんどろいだとねんどろいどというだけで強烈にバイアスかかるからスパッと決まっちゃうんだろうな……

780名無しさん@お腹いっぱい。2022/09/10(土) 15:19:46.74ID:cCha95+J
SDもCraiyon並に日本の実在人物フォローして欲しい
v1.5はそこら辺期待できるかな

781名無しさん@お腹いっぱい。2022/09/10(土) 15:39:17.55ID:8CtG8NSb
SDは学習元に露骨に近い絵は出さないようにしてるだけじゃないの
サンプルが多い作品はかなり本物に近づくからわざと版権外してるってことはないし
そもそもそんなの不可能でしょ

782名無しさん@お腹いっぱい。2022/09/10(土) 16:12:27.62ID:k4vW++4t
学習しきれてない画家の名前入れると本物とは全然違うのに統一された作風になるのは恐ろしいというか紛らわしい
例えばby Noriyoshi Ohraiって入れると美人画が出てくるんだけど生頼範義の描いた人物画には似ても似つかないとか

783名無しさん@お腹いっぱい。2022/09/10(土) 16:29:59.64ID:jrnls3ZR
その辺MJは所謂デフォキャラが出てくるから分かりやすいんだよな

784名無しさん@お腹いっぱい。2022/09/10(土) 16:30:25.53ID:9D6LOkeS
新海誠もこの短期間でどれだけの数の画風のものを描かされたことか

785名無しさん@お腹いっぱい。2022/09/10(土) 16:43:57.96ID:k4vW++4t
中世の宗教画とかの人の名前入れるとそれっぽい感じのは出るんだけどなんか違うぞって
そういう時は出力と画像検索結果をにらめっこして決めてる

786名無しさん@お腹いっぱい。2022/09/10(土) 16:50:03.78ID:Sp/ltE0h
ヤバイもっと使い方覚えたい
グロじゃなければ生成させ続けるの糞楽しいわw

787名無しさん@お腹いっぱい。2022/09/10(土) 16:51:05.36ID:6+vcRMNK
>>785
思い付いたキーワードをgoogle検索して、検索で出て来た画像を見てAIに通じそうかどうか検討するのやるね

788名無しさん@お腹いっぱい。2022/09/10(土) 17:00:13.16ID:jrnls3ZR
微妙なラインのはlaion内検索すれば大体分かるんじゃ
https://rom1504.github.io/clip-retrieval/

789名無しさん@お腹いっぱい。2022/09/10(土) 17:02:13.65ID:6+vcRMNK
>>788
学習元のデーターセットのLAIONを検索出来るのか。知らなかった

790名無しさん@お腹いっぱい。2022/09/10(土) 17:11:41.94ID:LN95xm7p
>>788
めっちゃいいじゃんワイも知らんかった……

791名無しさん@お腹いっぱい。2022/09/10(土) 17:13:51.01ID:bqfCe9Rp
waifuでエロワード入れつつ1111のマイナス検索で局部が出ないようにキーワード指定したらクオリティが謎に安定した


Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

使ったプロンプト設定
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

792名無しさん@お腹いっぱい。2022/09/10(土) 17:25:04.76ID:9ogQTu+4
>>791
マイナス検索ってどうやってやるんですか?

793名無しさん@お腹いっぱい。2022/09/10(土) 17:31:59.91ID:bqfCe9Rp
>>792
正しくはマイナス言葉か
webuiのバッチファイル開いてckpt指定して--show-nagative-promptって加えるとマイナス言葉入れる項目ができるよ

詳しくは>>609が参考になるかも

794名無しさん@お腹いっぱい。2022/09/10(土) 17:40:56.38ID:9ogQTu+4
>>793
なっなるほど…
安価先のテキスト通りのbatファイル作ればなんとかなる感じですかね?
コマンドには疎くて…

795名無しさん@お腹いっぱい。2022/09/10(土) 17:46:25.34ID:bqfCe9Rp
>>794
えっと…
AUTOMATIC1111stable-diffusion-webui版使ってる?

入ってないなら導入方法は
>>1https://rentry.co/zqr4rにあるから参照してね

ちなみにmodel.ckptは>>428をリネームして使ってるよ

796名無しさん@お腹いっぱい。2022/09/10(土) 17:50:45.94ID:r6ikbITy
綾波
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
シンちゃん
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
アスカ
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
マリ
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

797名無しさん@お腹いっぱい。2022/09/10(土) 18:20:40.62ID:cCha95+J
綾波レイと言うより荒波ロヰて感じ
顔補正機能切った方がいい場合もあるから実写は難しね

798名無しさん@お腹いっぱい。2022/09/10(土) 19:01:27.19ID:K055O5Hg
waifuってもしかしてimg2imgできない?
できてる人います?

799名無しさん@お腹いっぱい。2022/09/10(土) 19:04:03.91ID:+Piu7ipB
まだ試してないけど、deffusersのバージョン上げたら多分いける。

800名無しさん@お腹いっぱい。2022/09/10(土) 19:05:09.35ID:dpazU+Co
誰かAUTOMATIC1111版のSDアップスケールの使い方を教えてくれない?
元画像を何枚かの画像に分割してからそれぞれ変換して再結合みたいなイメージだと思うんだけどimg2imgのページでSD upscaleを選んで生成しても普通のi2iと同じような動作しかしてない気がする
分割から手動でやるの?

801名無しさん@お腹いっぱい。2022/09/10(土) 19:05:24.75ID:f+mFBrjB
アニメキャラはcraiyonでいいでしょ
キャラ名 in comic marketでクオリティ揃う
もしくは作品名 girls

802名無しさん@お腹いっぱい。2022/09/10(土) 19:07:49.86ID:vRHGVOhL
>>793
エラー出たじゃねーか!
×--show-nagative-prompt
○--show-negative-prompt

webui-user.batで起動するようにして、中を
set COMMANDLINE_ARGS=--show-negative-prompt

ね、>>609は使い分けたい人が起動バッチを2種用意してる例、ckptは標準のmodel.ckptだったら指定不要
教えてくれてありがとう

803名無しさん@お腹いっぱい。2022/09/10(土) 19:10:04.20ID:bqfCe9Rp
>>802
ごめんw

804名無しさん@お腹いっぱい。2022/09/10(土) 19:17:22.24ID:cCha95+J
Craiyonが綺麗なのは顔から上半身までで
そっからカメラ遠のいたら渦巻き顔のクリーチャーとかになるぞ

805名無しさん@お腹いっぱい。2022/09/10(土) 19:18:23.67ID:vRHGVOhL
>>800
sd upscaleにしたら、下のHeightとWidthは512x512とかにする
そのサイズでtile overlap分(デフォ64)重ねながら分割描画していく感じ

H&Wを最終サイズにしちゃうと、「ああ1回だな」って判定されてそのまま1発でやって終わる
つか、普通に1回でOOM出ず完了できる時点で使う必要ないんだけど・・

806名無しさん@お腹いっぱい。2022/09/10(土) 19:20:26.86ID:I2gHNbEA
>>798
AUTOMATIC1111版webuiにwaifuのwd-v1-2-full-ema.ckptを入れた状態でimg2imgできてるけど、そういうことではなく?

807名無しさん@お腹いっぱい。2022/09/10(土) 19:33:52.94ID:K055O5Hg
>>806
thx
同じ環境なのに動かないから環境作り直してみる

808名無しさん@お腹いっぱい。2022/09/10(土) 19:49:52.40ID:+Piu7ipB
waifuのimage 2image走るんだけど、ストレングスが全く効いてない…?
0でも1でも結果同じだ。
参照元の画像サイズは引っ張ってるからファイルを見てるのは間違いないんだけど。
なんかミスった?

809名無しさん@お腹いっぱい。2022/09/10(土) 19:51:50.00ID:I2gHNbEA
>>805
これ試しにやってみたら、多重影分身なさったw
何かコツとかありますか?

810名無しさん@お腹いっぱい。2022/09/10(土) 19:57:17.87ID:I2gHNbEA
>>808
Denoising strengthを0で元絵とほぼ同じ絵、その時のseed値を使ってDenoising strengthを1にするとまったく違う絵になったよ。

811名無しさん@お腹いっぱい。2022/09/10(土) 20:04:18.43ID:+Piu7ipB
>>810
のはずなんだけど、seed固定でストレングスを0と1でやったら結果が同じになっちった。
imageの読み込みがうまくいってないんかな…

812名無しさん@お腹いっぱい。2022/09/10(土) 20:08:56.45ID:ZX6CPUZ8
Inpaint masked(マスクした部分だけ再生成)になってるとか

813名無しさん@お腹いっぱい。2022/09/10(土) 20:10:54.96ID:I2gHNbEA
こっちはこっちでtxt2imgでprompt matrixやろうとすると、各条件の個別の絵は出て、それを纏めるところでエラーになる。
エラー的にフォント関係っぽいから、インストールするものが足りてないんかな……

814名無しさん@お腹いっぱい。2022/09/10(土) 20:19:50.73ID:3pApQF4T
俺はMac対応という理由で使っているlsteinさんのフォークでk_euler_aのシードが効かないというトラブルに見舞われているww
プログラムみても何処に原因があるかわからん…誰か助けてクレメンス…

815名無しさん@お腹いっぱい。2022/09/10(土) 20:29:10.60ID:9ogQTu+4
>>795
ああすいません導入はできてます
ただスクショを見る限りbatファイル毎にモデル?ckptファイルを指定しているように見えたので、その書式?が丸コピで良いのかな~と
とりあえずやってみます

816名無しさん@お腹いっぱい。2022/09/10(土) 20:32:57.87ID:ZX6CPUZ8
>>815
ネガティブプロンプト有効にするだけならこれだけでいいよ
set COMMANDLINE_ARGS=--show-negative-prompt

817名無しさん@お腹いっぱい。2022/09/10(土) 20:48:49.88ID:C2CNq0n2
>>798
何回かやってるとたまに無反応な時がある。
そういう時は中断して最初からやり直すと動く。一度動くと連続しても問題ない
原因はシロウトだからわからない

818名無しさん@お腹いっぱい。2022/09/10(土) 20:55:51.92ID:9ogQTu+4
>>816
なるほどコマンドはそういう意味でしたか…!
さっそく新しいbatファイルを作ってスクショを参考にその文字列だけを入れてみたんですが除外の枠?が出てこず…

819名無しさん@お腹いっぱい。2022/09/10(土) 20:58:42.17ID:ZX6CPUZ8
>>818
webui.batから起動したとかかな
もしそうなら作った方のbatファイルをダブルクリックでいけるはず

820名無しさん@お腹いっぱい。2022/09/10(土) 20:59:27.08ID:vRHGVOhL
>>809
Denoising strengthが高いとあちこちでプロンプトに従って生成しだす
0.3くらいからやってみて

821名無しさん@お腹いっぱい。2022/09/10(土) 21:00:13.79ID:I2gHNbEA
img2imgのSD upscaleなんとなく使い方がわかってきたわ

・Denoise strengthは0.25あたり、それより大きいとなかったものが出てきたりする。
・Tile overlapは64より16の方が良さそう。
・バッチを回してよいseedを待つ。

こんな感じだろうか。
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

822名無しさん@お腹いっぱい。2022/09/10(土) 21:04:27.33ID:I2gHNbEA
>>820
Thx!
0.3でも新たに腕が生えたりしましたわw

8238212022/09/10(土) 21:15:26.89ID:I2gHNbEA
以下も追加で
・UpscalerはReal-ESRGAN 4x plus anime 6Bが良さそう。

824名無しさん@お腹いっぱい。2022/09/10(土) 21:16:24.56ID:FSMMdLnc
>>821
しゅごい…

825名無しさん@お腹いっぱい。2022/09/10(土) 21:39:22.07ID:k4vW++4t
>>821
アップスケーラーは何使ってる?
ESRGANのRemacriとlollypopがきれいに仕上がると思うんだけど

826名無しさん@お腹いっぱい。2022/09/10(土) 21:43:08.09ID:I2gHNbEA
>>825
アップスケーラーはAUTOMATIC1111版webuiだとLaczos, Real-ESRGAN 4x plus, Real-ESRGAN 4x plus anime 6B, Real-ESRGAN 2x plusの4種類が出てますね。
Real-ESRGAN 4x plus anime 6Bが良さげでした。

827名無しさん@お腹いっぱい。2022/09/10(土) 21:44:12.60ID:9ogQTu+4
>>819
だめみたいです…
元ファイルの方も書き換える必要とかあるんですかね?

828名無しさん@お腹いっぱい。2022/09/10(土) 21:44:25.17ID:dpazU+Co
>>805
助かったありがとう
1回で出すよりこっち使った方が全然綺麗になるわ

829名無しさん@お腹いっぱい。2022/09/10(土) 21:45:00.86ID:HWuunf5h
アウトペインティングがPoor man's outpaintingとしてとりあえず入ってると聞いたんですけど
1111でやる方法ありますか?

830名無しさん@お腹いっぱい。2022/09/10(土) 21:48:48.00ID:I2gHNbEA
>>829
使ったことはないけど、img2imgの左下のScriptに入ってるよ。

831名無しさん@お腹いっぱい。2022/09/10(土) 21:51:58.90ID:HWuunf5h
>>830
いやもう本当にありがとうございます
永遠に見つけられなかったんで助かりました

832名無しさん@お腹いっぱい。2022/09/10(土) 22:32:43.03ID:I2gHNbEA
>>827
webui-user.batの

set COMMANDLINE_ARGS=



set COMMANDLINE_ARGS=--show-negative-prompt

に書き換えて、

webui-user.batをダブルクリックして起動すればいいだけだと思うんだ。
それで赤枠の部分が追加されるはず(俺はUbuntuで動かしてるからバッチファイルはちょっとわからないんだが)。
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

833名無しさん@お腹いっぱい。2022/09/10(土) 22:39:25.49ID:ZX6CPUZ8
>>827
今日の21:41のバージョンでオプション使わなくてもデフォルトで有効になったみたいだから
最新バージョンにするのが手っ取り早いかも

834名無しさん@お腹いっぱい。2022/09/10(土) 22:58:57.70ID:HWuunf5h
アウトペインティングがあまり話題に上がってなかったので一応

1111でアウトペインティングしてみたけどまだダリみたいにはいかないですね
キャラクター全体を見ないで加筆するので毛先がはみ出てると無限に伸びたりバグったり

追加分の背景との境目を最小限のブラーで誤魔化すみたいな用途ならありで
キャラの書き足しは無理でした

オリジナル
https://imgur.com/a/QJLYdRE

ブラー多め
https://imgur.com/a/vzOMwa2

ブラー少なめ(10未満)
https://imgur.com/a/PMqopm7

ブラー少なめ cyber city
https://imgur.com/a/dGjQ0Yx

835名無しさん@お腹いっぱい。2022/09/10(土) 23:00:43.99ID:k4vW++4t
>>826
Readmeちゃんと読み込んで
RealESRGANはESRGANと似て非なるものだから

836名無しさん@お腹いっぱい。2022/09/10(土) 23:04:26.08ID:k4vW++4t
ESRGANモデル導入
https://github.com/AUTOMATIC1111/stable-diffusion-webui#installing-and-running
モデルDBからまずはRemacriとLollypopをダウンロード
https://upscale.wiki/wiki/Model_Database#Universal_Models
.pthファイルをESRGANフォルダに入れて起動
https://github.com/AUTOMATIC1111/stable-diffusion-webui/tree/master/ESRGAN

837名無しさん@お腹いっぱい。2022/09/10(土) 23:07:40.54ID:cCha95+J
1111版に自動画像拡大機能来ないかしら

838名無しさん@お腹いっぱい。2022/09/10(土) 23:22:33.48ID:9ogQTu+4
>>832
そもそもそのwebui-user.batってのが無いんですけど1111のやつだからですかね
>>609を参考にファイル作ったんですけど駄目なんですよね
>>833
更新したら出ました…!ありがとうございます!

839名無しさん@お腹いっぱい。2022/09/10(土) 23:26:17.36ID:vRHGVOhL
呪文で、キャラ名だけだと全然だめだけど
キャラ名に特徴をつらつら付けると、特徴だけの時より明らかに寄せてくるね

840名無しさん@お腹いっぱい。2022/09/10(土) 23:30:20.11ID:I2gHNbEA
>>832
多分、webui-user.batが追加される前のバージョンの1111を使ってたんやね。
更新した今なら、webui-user.batもあるはずw

>>836
Thx!
とりあえず適当にESRGANのモデルを放り込んでみたらlibjpeg.soがないという怒られが発生したので、ついでにwebuiを最新版にしたイメージを作り直すなりよ。

841名無しさん@お腹いっぱい。2022/09/11(日) 00:16:16.50ID:UrIJnHWX
negative promptはデフォで有効になったみたい

842名無しさん@お腹いっぱい。2022/09/11(日) 00:30:14.97ID:4/YqG4hg
1111のSD upscaleいいね
CUIも用意してくれないかな

8438212022/09/11(日) 00:54:49.13ID:VOc4Na8F
これはuplcalerをlollypopに変更した以外は>>821と同じ設定値。少し表情が変わってる。
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

Remacriは、今はダウンロードできない状態なのでインストールできんかった。

ESRGANって対象の絵ごとに特化したモデルを使い分けるのがいいんじゃないかという気がしました。
対象の絵とモデルの組み合わせでいろいろ調べてみると面白そうだが、今日はもう疲れた!

844名無しさん@お腹いっぱい。2022/09/11(日) 01:21:43.86ID:uuPk9lQG
多く文字入れると逆に奇形が生まれやすい気がするのは気のせいだろうか
シンプルな美少女とかの方が当たり多い気がする

845名無しさん@お腹いっぱい。2022/09/11(日) 01:24:04.99ID:UrIJnHWX
こんなのできた
notionの奴は更新がひと月前でおそらくv1.3の出力だけどこれはv1.4
https://rentry.org/artists_sd-v1-4

846名無しさん@お腹いっぱい。2022/09/11(日) 01:24:41.28ID:i19gB2Ya
同じ言葉使いすぎても、破綻率高くなる感じ。kawaii×10みたいな。

847名無しさん@お腹いっぱい。2022/09/11(日) 01:30:21.05ID:VOc4Na8F
>>845
最初の方にラッセンいてワロタw

848名無しさん@お腹いっぱい。2022/09/11(日) 01:33:02.85ID:i19gB2Ya
庵野さんはどう見てもご本人w

849名無しさん@お腹いっぱい。2022/09/11(日) 01:36:08.59ID:7CGOIqTN
basujindalメモリ節約すげ〜
→hlky一択じゃん
→1111しかね〜

この黎明期特有の移り変わりの速度よ

850名無しさん@お腹いっぱい。2022/09/11(日) 01:53:20.38ID:Bh/k5qM0
AUTOMATIC1111は導入が難しいとかなんとかで最初は人気なかったんだっけ
その辺ある程度得意な人はhlkyには見向きもせず1111一択って感じだった覚えはあるが

851名無しさん@お腹いっぱい。2022/09/11(日) 02:01:44.64ID:UrIJnHWX
>>843
Remacri今リンク切れしてるからこれ使ってだって
https://drive.google.com/file/d/14pUxWLlOnzjZKOCsNguyNHchU6_581fc

852名無しさん@お腹いっぱい。2022/09/11(日) 02:12:40.49ID:R5wkeyh/
>>850
hlkyは中の人が4chスレにいて住民と積極的にやり取りしながら作られたんで
丁寧な導入ガイドもあって一般に広まった
その頃AUTOMATICの更新が遅く、hlkyの更新は早かったのも理由のひとつ
今は逆だな

853名無しさん@お腹いっぱい。2022/09/11(日) 02:19:28.42ID:UrIJnHWX
ヴォルデモートというあだ名の通りリンクを貼れなかった
今はキャプチャソルバーのレポジトリが消えたから貼っていいみたいだけど

854名無しさん@お腹いっぱい。2022/09/11(日) 05:41:16.52ID:7ETqGWGl
また面白そうなものが公開されてる
Googleが開発した生成画像の一部のみを文章で編集する技術のSD版再現実装のようだ

https://github.com/bloc97/CrossAttentionControl

855名無しさん@お腹いっぱい。2022/09/11(日) 08:38:43.54ID:iKCgrw4K
>>107
Doggettxさんの最適化版の更新きた!
生成速度高速化 & より巨大な画像を生成可能に

【hlky版や1111版に適用する方法】
ldm\modules\attention.py と ldm\modules\diffusionmodules\model.py をそれぞれ↓で上書き
https://github.com/Doggettx/stable-diffusion/blob/autocast-improvements/ldm/modules/attention.py
https://github.com/Doggettx/stable-diffusion/blob/autocast-improvements/ldm/modules/diffusionmodules/model.py

GPU:1050ti(4GB), hlky版 で以前の最適化版と比較してみた
●速度
 512x512でおよそ1.2倍高速化
● 画像最大サイズ
 512x894, 704x640 → 512x960, 704x704

参考
https://www.reddit.com/r/StableDiffusion/comments/xalaws/test_update_for_less_memory_usage_and_higher

856名無しさん@お腹いっぱい。2022/09/11(日) 08:41:59.49ID:7CGOIqTN
sd upscaleはこの程度ならswinIRのほうがいいって感じるな
seedやプロンプトが奇跡的にはまれば良くなるのかもしれんけど
やっぱりMJのファインスケールは別格のままだな

857名無しさん@お腹いっぱい。2022/09/11(日) 09:10:44.63ID:F0EnpDYG
基本的に絵っぽく生成されることが多いと思うんだけどリアルっぽくするワードってあります?

858名無しさん@お腹いっぱい。2022/09/11(日) 09:13:55.61ID:PsxPBrFQ
>>855
ちょっと追試してみた。 512x512 k_euler_a 2080Ti

・hlky 6.58秒/枚 ピークメモリ 7137 MiB
・Doggettx 5.72 秒 / 枚 ピークメモリ6891 MiB  → 15%高速化
(参考)hlky(--optimized-turbo) 7.78秒/枚 ピークメモリ 5367 MiB

確かに速いですね。マージされないかな

○測定条件詳細: seed 1~10で10枚連続生成
digital concept art of anime cute girl in summer dress, detailed eyes, gorgeous face, ((turquoise colored twintail)), smooth details, digital cg art by Greg Rutkowski seed:1 width:512 height:512 steps:50 cfg_scale:7.5 sampler:k_euler_a

 ・hlky 2022/8/11 8:30 https://github.com/sd-webui/stable-diffusion-webui webui.cmdで起動(デフォルトオプション)
 Took 65.81s total (6.58s per image) Peak memory usage: 7137 MiB / 11264 MiB / 63.355%
 コンソール上の表示 8.0 it/s

 ・hlky python scripts/webui.py --optimized-turboで起動
 Took 77.82s total (7.78s per image) Peak memory usage: 5367 MiB / 11264 MiB / 47.642%
 コンソール上の表示 6.96 it/s

 ・Doggettx のldm\modules\attention.py と ldm\modules\diffusionmodules\model.py をhlkyに上書き版
 Took 57.53s total (5.75s per image) Peak memory usage: 6891 MiB / 11264 MiB / 61.17%
 コンソール上の表示 9.5 it/s

859名無しさん@お腹いっぱい。2022/09/11(日) 09:14:28.41ID:Va6I0i8A
a photograph of とか

860名無しさん@お腹いっぱい。2022/09/11(日) 09:14:49.56ID:tFfIjkZi
photograph of ~ で 余計な修飾語や作家の名前とか入れないのがいいと思う

861名無しさん@お腹いっぱい。2022/09/11(日) 09:19:08.79ID:i19gB2Ya
SD、物凄い勢いで色んなとこから色んな拡張機能が出てくるから理解が全然おっつかん。

862名無しさん@お腹いっぱい。2022/09/11(日) 09:22:20.52ID:VO37AR0C
>>855
自分のGTX980-4GBでも限界が896*896から1152*1152にアップ
1216*1216は怪しい 1280*1280は無理

なので最先端デカメモリグラボ使ってる人は余裕で2048*2048作れるんじゃないかと

ただ既出問題的にサイズアップしてもコピペ的な画になる、という傾向は残ってるように思う…

863名無しさん@お腹いっぱい。2022/09/11(日) 09:34:37.39ID:6vpk1Xe4
>>857
俺もそれ知りたいけどないんだよな
photo of みたいなのじゃ全然ならないし、octane renderみたいにcg風にするのが精いっぱい
どうしても絵から抜け出せない

864名無しさん@お腹いっぱい。2022/09/11(日) 09:40:16.02ID:7CGOIqTN
写真には画風指定ではならないよ
instagramに大量にあるような宣材写真のワード指定してinstagramのワード入れるとか
明らかに学習元が実写画像からになるよう工夫しないといけない
phto〜系のワード指定してもほぼ意味ない

865名無しさん@お腹いっぱい。2022/09/11(日) 09:49:18.16ID:7CGOIqTN
有名キャラは初音ミクと指定しなくてもツインテール、緑髪、緑目とか沢山属性指定すると
雰囲気似て来るの面白いな、逆にマイナーキャラはいくら説明増やしても全然駄目だけど

866名無しさん@お腹いっぱい。2022/09/11(日) 09:54:28.72ID:nIQbmtq4
>>855
高速化ありがたい!
1111版に>107適用 4.74s 4.75s 4.77s 4.76s

1111版に>855適用 4.07s 4.04s 4.05s 4.07s

867名無しさん@お腹いっぱい。2022/09/11(日) 09:55:09.76ID:7CGOIqTN
1111版、インストール楽になった上にGPUに負荷かかるバグが直ってて滅茶苦茶快適だな
さようならhlkyこれまでお世話になったよ

868名無しさん@お腹いっぱい。2022/09/11(日) 09:56:31.72ID:1a2JrkgN
>>862
2080Ti(11GB)

プロンプト、サンプラ、stepsは>>858と同じ
2048x2048は無理でした。
なんとなくだけど、画像生成自体はメモリの空き容量見ながら小分けに処理できる、けど最後に画像を表示するところでオーバーしてるとかかな


○1024x1024
50/50 [00:45<00:00, 1.09it/s]
Took 47.59s total (47.59s per image) Peak memory usage: 11103 MiB / 11264 MiB / 98.564%

○1280x1024
50/50 [01:11<00:00, 1.42s/it] = 0.70 it/s
Took 73.46s total (73.46s per image) Peak memory usage: 10184 MiB / 11264 MiB / 90.412%

○2048x1024
50/50 [03:24<00:00, 4.09s/it] = 0.24 it/s
Took 210.73s total (210.73s per image) Peak memory usage: 11233 MiB / 11264 MiB / 99.719%

○2048x2048
50/50 [11:40<00:00, 14.02s/it]
step 50の最後まで行くが落ちる

※frontend.pyのmaximum=1024をmaximum=2048に修正して設定

869名無しさん@お腹いっぱい。2022/09/11(日) 09:57:19.03ID:1a2JrkgN
>>866
速いw GPUなんですか? 3080Tiか3090?

870名無しさん@お腹いっぱい。2022/09/11(日) 09:58:13.93ID:9FmhAncJ
>>865
マイナーなキャラだとメジャーなキャラと合成されて出て来たりするよね
SAOのアスナ指定してもやたらとキリトの格好して出てくる
アスナが作品内でマイナーなキャラだとは思わないけど

871名無しさん@お腹いっぱい。2022/09/11(日) 10:00:38.37ID:HQQBaOXd
>>855
情報ありがとう
というか>>107やったあと存在忘れて1111のverupのたびに上書きして消えてたわw
ちな1111のidmの場所は「repositories\stable-diffusion」以下だから注意ね

872名無しさん@お腹いっぱい。2022/09/11(日) 10:00:49.35ID:nIQbmtq4
>>869
3060だけどEuler aのStep20だからね
試行回数増やしたくていつもこれくらいの設定で回してる

873名無しさん@お腹いっぱい。2022/09/11(日) 10:01:48.97ID:A8c2FijW
>>855
すごいわ、バニラ+これだけでだいぶいける
GTX1080(8G)
バニラ:448*448
前回の:578*578
今回の:768*768 まで
ギリギリまで上げると速度かなり落ちるけど全然許容範囲、元が早すぎるのよ

874名無しさん@お腹いっぱい。2022/09/11(日) 10:03:20.63ID:1a2JrkgN
>>872
あ、steps=20ですか。なるほど

875名無しさん@お腹いっぱい。2022/09/11(日) 10:08:16.66ID:ItGvNfNk
real指定で実写風、realisticでアニメ実写半々、animeでアニメ感みたいな変化はあった

876名無しさん@お腹いっぱい。2022/09/11(日) 10:41:52.36ID:HQQBaOXd
非力GPUの友euler_a、数で勝負だ

step16くらいにいいのが隠れてることがあるので困る
見てたらstep1変えてもガラッと変わったりして怖い
img2imgやらで修正前にまずstep前後調べるのがルーチンワークになってる

877名無しさん@お腹いっぱい。2022/09/11(日) 10:48:20.79ID:R5wkeyh/
>>876
euler_aはステップごとに結果が大きく変わるから止めたほうがいいぞ

878名無しさん@お腹いっぱい。2022/09/11(日) 11:04:27.05ID:i19gB2Ya
Waifu、細々っとチューニング変えてるのかな。
昨日と今日とで同じseedだけど、細かいとこで結果変わってる。
Colabだと基本的に毎日全部再構築しなおしになるから、ちょっと変わるとほいっと変わっちゃうな

879名無しさん@お腹いっぱい。2022/09/11(日) 11:07:12.97ID:uuPk9lQG
1111のcolab版使ってるけどなんか安定しないわ
折角金払ったのに動いてないみたいなのになる

880名無しさん@お腹いっぱい。2022/09/11(日) 11:18:29.09ID:m7x5QLo0
>>855
CPUで走らせてるから元から遅いかわりにデカい画像出せてたけど適用したら逆に早くなるかな

881名無しさん@お腹いっぱい。2022/09/11(日) 11:54:21.48ID:7CGOIqTN
waifuの呪文の研究進み過ぎててワラタ
もう殆どのイラストレーター超えるアニメ顔出せるようになってるな

882名無しさん@お腹いっぱい。2022/09/11(日) 12:20:38.64ID:2oaFVWgH
MJの呪文8000円で買った奴らかわいそう

883名無しさん@お腹いっぱい。2022/09/11(日) 12:20:59.80ID:/Hcn+4ss
waifu版、colabで動かしてみたけど
エロくない画像たくさん作る→どれもそこまでクオリティ高くない
エロい画像作る→少ない枚数でもめっちゃクオリティ高いで笑ったわ

884名無しさん@お腹いっぱい。2022/09/11(日) 12:29:25.60ID:45GDudKE
danbooruがエロ絵ばっかりだからなww

885名無しさん@お腹いっぱい。2022/09/11(日) 12:41:39.47ID:7CGOIqTN
う〜んやっぱイラストレーターの助けにはならんな
加筆って言っても手だけ描いてもAI絵のまんまだし結局全部描きなおしになる
レイヤー分けされてないから肌の色だけ調整と髪だけ修正も困難だし
やっぱり絵師をこ〇すだけの技術だなこれ
下手したらフォトバッシュのほうが早いまである

886名無しさん@お腹いっぱい。2022/09/11(日) 12:59:55.37ID:uuPk9lQG
batch sizeを1のままにしたらbatch count16でも安定しだしたw楽しいw

887名無しさん@お腹いっぱい。2022/09/11(日) 13:00:53.78ID:jiDkNokW
>>885
絵を描き始めるまでが遅くて前の一ヶ月なんも絵を描いてなかったわいが
この二週間でAI絵を元に10枚以上絵を仕上げてしまったという事実

生かされたわ

888名無しさん@お腹いっぱい。2022/09/11(日) 13:00:54.83ID:dItmxJ3A
そりゃぁ今時点で即戦力にはならんかもしれんが……
その昔、車載電話を指して「一般人の役に立つ技術じゃないな」って言ってた親を思い出したわ。

889名無しさん@お腹いっぱい。2022/09/11(日) 13:01:35.28ID:ItGvNfNk
まだ開発ラッシュでUI系は更新落ち着いてない感じ?

890名無しさん@お腹いっぱい。2022/09/11(日) 13:04:42.40ID:Wl1O9jah
>>863
ネガティブプロンプトにpainting, illustration, CGとか入れると効果あるかもしれない
japanese assassin ninja, coloredの同じseedでネガティブプロンプト無しと有り
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

891名無しさん@お腹いっぱい。2022/09/11(日) 13:20:53.95ID:7CGOIqTN
手足の破綻減らそうと人体解剖図とかギリシャ彫刻とか入れると体が正確になる代わりに
お面被ってるみたいで顔と体の違和感凄くて笑える絵になるな

892名無しさん@お腹いっぱい。2022/09/11(日) 13:25:57.21ID:oPuIZ5MM
>>887
俺もだ。なんか無性に描きたくなって
20年振りくらいに毎日描いてる
まだまだヘタクソだけど

893名無しさん@お腹いっぱい。2022/09/11(日) 13:41:33.81ID:ac0VFLqy
>>885
修正ができないってことは、商業絵師にとっては助けにはならんが競合もしない
顔アイコンとか素材系を数万円で売ってるようなのは流石に成り立たなくなるか?

894名無しさん@お腹いっぱい。2022/09/11(日) 14:10:08.94ID:HQQBaOXd
>>890-891
MJ凄い凄いって言うけど、生身の人間は同じくこういうのしか出せないんだよねぇ
特に中くらい以下の大きさの顔が破綻するから、
すぐ真後ろ向かせたりよくわからない覆面みたいなので覆ってくる分、卑劣
あれどういう色付けしてあるんだろう、小さい顔が出ちゃう枝を全部払ってるんだろうか

895名無しさん@お腹いっぱい。2022/09/11(日) 14:17:53.91ID:i19gB2Ya
ロングショットで崩れた顔にマスクかけて、顔だけ別promptで描き直しってやってるけど、最初の結果とあんま変わらないなあ…
のっぺらぼうしにしても最初と同じ感じに帰着するし

896名無しさん@お腹いっぱい。2022/09/11(日) 14:22:49.83ID:rQtZll5S
マスクかけても結局全体描かせてマスクかけてないところをそのまま戻してるだけだぞ
顔を重点的に描かせたいなら正方形に切り出してそれでimg2imgやらんと

897名無しさん@お腹いっぱい。2022/09/11(日) 14:23:05.58ID:HQQBaOXd
MJサブスク終わっちゃったんだけど、
もしかしていまだにランダムで出てきた結果のseedが表示できなかったりする?
先に--seed指定はできるのは知ってるが

898名無しさん@お腹いっぱい。2022/09/11(日) 14:23:43.16ID:VOc4Na8F
>>895
それは同サイズで出すからでは?
img2imgのSD upscaleで拡大するときに細部の再描画で補う方がいいんじゃなかろうか。

899名無しさん@お腹いっぱい。2022/09/11(日) 14:25:41.11ID:i19gB2Ya
>>896
なるほど。やってみる!

900名無しさん@お腹いっぱい。2022/09/11(日) 14:41:19.28ID:dW4Vt1Ge
海外人気の反映というかなんというか
日本でメジャーそうな作品や会社いれても反応しないのざらなのに
nekoparaがめっちゃ効いて笑ってる
こういうの他にないかな

901名無しさん@お腹いっぱい。2022/09/11(日) 15:03:17.53ID:ItGvNfNk
顔とか情報量多い箇所は違和感でないように少し周辺含めて大きめに切り出して
画像そのものを拡大してからi2iするのもいいかもしれない

902名無しさん@お腹いっぱい。2022/09/11(日) 15:12:01.25ID:Xl1w88Yu
https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase#inpaint-at-full-resolution
チェック入れるだけで切り出し、拡大、描き直し、縮小、貼り付けまで自動でやってくれる機能あるよ

903名無しさん@お腹いっぱい。2022/09/11(日) 15:14:36.08ID:ItGvNfNk
1111さんは神定期

904名無しさん@お腹いっぱい。2022/09/11(日) 16:02:30.24ID:hyKtkVnz
次スレ、スレタイから「交換」は外していい気がする

905名無しさん@お腹いっぱい。2022/09/11(日) 16:02:31.65ID:VOc4Na8F
>>886
batch sizeはVMEM依存だから動かない数字だとどうやっても動かないけど、batch countはui-config.jsonで最大値を書き換えれば100だって平気だぞ。

906名無しさん@お腹いっぱい。2022/09/11(日) 16:10:29.06ID:71ZVyzvT
1111のインペイント機能が全然使いこなせないなぁ
簡単お手軽に「マスク部分の背景そのままで人物だけ変えて」とかやってくれるんだと思ってたけどそうじゃないのか
プロンプトそのままなのにマスク部分以外と全く調和しない
誰か上手く使えてる人いるんだろうか

907名無しさん@お腹いっぱい。2022/09/11(日) 16:11:03.80ID:HQQBaOXd
batch sizeの存在意義がよくわかってない
VRAM4TBとかが実現したら「一度に10枚づつを10回まわそうか」みたいな未来用の機能だろうか

908名無しさん@お腹いっぱい。2022/09/11(日) 16:11:46.78ID:UrIJnHWX
>>904
【】ちゃんと付けてほしい…

909名無しさん@お腹いっぱい。2022/09/11(日) 16:16:38.20ID:uuPk9lQG
楽しいわ、もっと精度の上げ方を教えて欲しい
あとフォルダに自分の好きな絵を突っ込んだらその絵柄で生成してくれるような自分で調教する機能作って欲しい

910名無しさん@お腹いっぱい。2022/09/11(日) 16:19:10.90ID:HQQBaOXd
そういえばインペイントのカーソル円のサイズって変えられないのかな、blurrは濃淡だから関係ないよね
小さな顔とかの範囲でもあの円で埋めるのは超しんどい

>>904
同じこと考えてたけど、とりあえず9まではそのまま行けるw
>>908
文字数がいっぱいの苦肉だろう

911名無しさん@お腹いっぱい。2022/09/11(日) 16:21:48.57ID:UrIJnHWX
>>907
試してないけど低メモリコマンド使用時に並行生成できるんじゃないかな

912名無しさん@お腹いっぱい。2022/09/11(日) 16:23:42.49ID:6vpk1Xe4
>>907
並列処理してくれるから、sizeの方が速い
これは関係ないけど、学習のときはsize大きくした方がうまくいくことが多い

913名無しさん@お腹いっぱい。2022/09/11(日) 16:28:27.61ID:UrIJnHWX
並列

ほぼSDの話しかしてないからスレタイからMJは外してもいいじゃないかと思ったり

914名無しさん@お腹いっぱい。2022/09/11(日) 16:29:03.22ID:HQQBaOXd
>>911-912
なるほど
そもそも元が512x512が最適、少なくとも一方の辺512固定が当然で
くそバカでかい画像なんて一発ではやる必要性がないので(img2imgですら)
メモリで行けるだけ多くした方がお得なのか
このスレほんと勉強になるわぁ・・

915名無しさん@お腹いっぱい。2022/09/11(日) 16:33:38.06ID:i19gB2Ya
MJは現状、discordのみの展開でオプションと呪文ぐらいしか探れる場所ないからなあ。
ローカルリモートファインチューニングWebUi CUIとなんでもござれのSDの話題ばっかになるのは致し方ない。

916名無しさん@お腹いっぱい。2022/09/11(日) 16:46:33.62ID:HQQBaOXd
当初のMJとDALLEの話題だけだったら今頃スレ過疎ってただろうね
受動的にイラスト生成ゲームで遊んでるようなもんで話題がなさすぎる
ツイッターのwatchスレとかになってたかも

917名無しさん@お腹いっぱい。2022/09/11(日) 16:51:45.64ID:uuPk9lQG
mjは使用制限とエロ禁止が無ければな
あっちの方も色々試したいんだけど

918名無しさん@お腹いっぱい。2022/09/11(日) 16:55:33.46ID:UrIJnHWX
https://rom1504.github.io/clip-retrievalより
こっちのほうがいいかもしれない
noriyoshi ohraiは一枚しかひっかからなかったからそういうことだな…
http://laion-aesthetic.datasette.io/laion-aesthetic-6pls/images

919名無しさん@お腹いっぱい。2022/09/11(日) 16:59:38.75ID:pAnqTSSY
Midjourneyは検索用として残したほうがいい気がする

Google Trend: StableDiffusion、Midjourney、DALL-E
世界 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
日本 Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
アメリカ Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

日本はMidjourneyでいきなりブレイクだけど世界は6月にDALL-E2で結構話題になってたんだな。知らんかった。

920名無しさん@お腹いっぱい。2022/09/11(日) 17:02:05.83ID:UrIJnHWX
booruタグはバニラ1.4でも使えるんだな
1girlで1824件出てきた

921名無しさん@お腹いっぱい。2022/09/11(日) 17:14:01.76ID:VOc4Na8F
Poor man's outpaintingの使い方を探求してみた。

この娘、頭の上まで描きたいの……
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

img2imgの設定
・Redraw whole image
・Resize and fill
・Sampling Steps: 80
・Sampling method: DPM2
・CFG Scale: 15
・Denoising strength: 1
・Script: Poor man's outpainting
・Pixels to expand: 64(ここの見極めが重要。大きすぎると頭が引き延ばされる)
・Mask blur: 16(ここも状況により最適値が変わりそう)
・Masked content:original
・Outpainting direction: upのみチェック

Let's Generate!
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

いくらか試した感じ、Pixels to expandの値がとても大事なようでした。

922名無しさん@お腹いっぱい。2022/09/11(日) 17:15:02.22ID:HQQBaOXd
>>919
面白いなぁ
日本はMJ飽きられつつあるかなぁってところに、SDをPC得意系の人が歯ごたえあるからワイワイやるけど
一般人がフーンそんなもんかってだんだん収束してる感じが

自分はふたばちゃんねるでDALL・E・miniってのを見かけたのが最初だったなぁ

9239212022/09/11(日) 17:16:00.27ID:VOc4Na8F
>>921に描き忘れましたが、Promptはオリジナルと同じものを使います。

9249212022/09/11(日) 17:17:41.55ID:VOc4Na8F
そんなわけで、頭の上まで描き足して、さらに余白を作りたい場合はPoor man's outpaintingを複数回実行する必要があります。

925名無しさん@お腹いっぱい。2022/09/11(日) 17:19:57.94ID:6vpk1Xe4
>>890
それでいけるね。strength上げないといけないから別人になっちゃうけど
元絵(CG)
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
img2img
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

926名無しさん@お腹いっぱい。2022/09/11(日) 17:33:25.04ID:7lq9YhoG
>>925
足怖い

927名無しさん@お腹いっぱい。2022/09/11(日) 17:33:35.13ID:qOwM0VUO
>>857
daz3d

928名無しさん@お腹いっぱい。2022/09/11(日) 17:44:20.28ID:HQQBaOXd
>>912
実験したらDoggettx最適化でbatch size最大の8が行けて、一枚当たり20%早くなったよ
今後、いい呪文完成後の回すときに使おう

929名無しさん@お腹いっぱい。2022/09/11(日) 17:50:23.59ID:F0EnpDYG
>>859,860,863,890
なるほど…!とても参考になりますありがとう

930名無しさん@お腹いっぱい。2022/09/11(日) 17:51:43.31ID:F0EnpDYG
>>927
これはCGぽくなるんですかね…?試してみます

931名無しさん@お腹いっぱい。2022/09/11(日) 18:25:44.68ID:NOdb57So
>>857
Twitterで見たプロンプト

realistic picture of a brown bear in the middle of forest, illuminated by the sunlight filtering through trees, taken with Sony a1

Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

カメラの機種名を入れるのはよさそうよ
あとはSIGMA 85 mm F/1.4とか

932名無しさん@お腹いっぱい。2022/09/11(日) 18:26:47.52ID:i19gB2Ya
ライカも効くよ。さすがブランドw

933名無しさん@お腹いっぱい。2022/09/11(日) 18:30:03.02ID:sbTYGzTf
いらすとや風にしてみたらAIが全く学習してなかった

934名無しさん@お腹いっぱい。2022/09/11(日) 19:07:44.26ID:ItGvNfNk
いらすとやさんもコロナ影響で世界規模素材となったとはいえ
一応商用利用は有料だから英語圏であんまり転載されずにAI素材にされなかったじゃない

9359212022/09/11(日) 19:18:45.16ID:VOc4Na8F
あの後もPoor man's outpaintingt試してるのだけど、Pixels to expandの値を64より小さくしても64ピクセル拡張されるんだが、バグってるのかそういう仕様なのか?
上下に32ずつだときちんと拡張されるので、64の倍数にならないとだめなのか。

それと、きちんと元絵に合わせて描き足してくれるかどうかはseedガチャ次第っぽい。
32ピクセル追加でちょうどよいサイズ感のところを上下32ピクセル拡張で実行すると、概ねよいサイズ感で追加されるがきっちり描き切ってくれない場合もある。
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

上にのみ64ピクセル拡張すると、ちょうどよいサイズの追加で絵を描いてくれる場合もあるが、うまくいかないことも多い。
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚
Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚

拡張するサイズをぎりぎりにするのは効果があるような気がする。

936名無しさん@お腹いっぱい。2022/09/11(日) 19:24:12.04ID:i19gB2Ya
多分、64の倍数縛りだと思う。
SDの画像サイズも64縛りだし。
8の倍数と思ってたからエラー出まくって首捻った記憶がある。

937名無しさん@お腹いっぱい。2022/09/11(日) 19:38:46.59ID:ItGvNfNk
なんで64縛りなんだろうね
色々と計算上の都合はありそうだけど

938名無しさん@お腹いっぱい。2022/09/11(日) 19:40:42.44ID:rQtZll5S
画像を作るときにそれより小さい層を作ってそこで重いdiffusionの処理をやってる
なので倍率が決まってて64単位でしか変更できない

939名無しさん@お腹いっぱい。2022/09/11(日) 19:58:22.00ID:ItGvNfNk
なるほどなー

940名無しさん@お腹いっぱい。2022/09/11(日) 19:59:19.77ID:M4hb4thG
>>931
すげぇ

941名無しさん@お腹いっぱい。2022/09/11(日) 20:07:32.42ID:7ggGCfZ5
カメラ、レンズ名入れるとすごいクオリティ上がるんだけど(sigma 85mm art lensとか)
被写界深度が浅い絵になりやすくて、後から加工するのが難しくなるんだよな

ただ一発で完成形を手に入れる呪文としてはすこぶる強い

942名無しさん@お腹いっぱい。2022/09/11(日) 20:08:52.11ID:qOwM0VUO
>>941
unreal engine 5 とDepth of Fieldとか

943名無しさん@お腹いっぱい。2022/09/11(日) 20:09:21.68ID:i19gB2Ya
f値上げてみれば? 8とか10とか。

944名無しさん@お腹いっぱい。2022/09/11(日) 20:10:35.61ID:1BxjiJCb
AUTOMATIC1111 と sd-webui(元hlky) ってどっちを追えばいいのかな?
nagative-promptの実装も先行してるしAUTOMATIC1111の方がコミット多い気がするけど

945名無しさん@お腹いっぱい。2022/09/11(日) 20:13:10.53ID:i19gB2Ya
もしかして、全般的に引いたアングルが弱いのって、最初の段階でここは顔だ。再起してここは顔の一部だってするだけの最小単位面積を下回ってるからだったりするのかな。
だとすると単純に解像度上げれば解決するような。

……メモリがぁ! 省メモリを入れて見るか。

946名無しさん@お腹いっぱい。2022/09/11(日) 20:14:10.23ID:7ggGCfZ5
>>942
UEとかいいかもですね
panfocusとか、deep focusが利かなかったんで呪文で被写界深度制御するのが難しいかと思ってました

>>943
F値そのものも絵作りに効くんですね!?
今度実写系ので試してみます

947名無しさん@お腹いっぱい。2022/09/11(日) 20:17:36.67ID:i19gB2Ya
あとはDeep focusも効きそうな気がする。

948名無しさん@お腹いっぱい。2022/09/11(日) 20:18:10.79ID:e1+fKwv/
>>933,934
そもそもいらすとやの画像に「いらすとや」と言うキャプションは先ず付かないだろう
なので学習データに画像があっても拾う事はほぼ不可能な気がする

949名無しさん@お腹いっぱい。2022/09/11(日) 20:22:14.55ID:i19gB2Ya
あ、ディープフォーカス効かなかったのか…
メンゴ

950名無しさん@お腹いっぱい。2022/09/11(日) 20:25:57.38ID:7ggGCfZ5
いえいえ、フォーカスとかアングル、人数をきちんと認識されるコマンドが分かりやすかったらいいんですけどね
ダリの方はpdfでコマンドを指南してくれてるんですが

951名無しさん@お腹いっぱい。2022/09/11(日) 21:18:35.65ID:ItGvNfNk
アングルやらカメラ的な呪文は確かに解説欲しい

952名無しさん@お腹いっぱい。2022/09/11(日) 21:24:58.47ID:nIQbmtq4
この辺が良いんじゃ
https://www.the-ai-art.com/modifiers
例えば左上でAnglesを選択すると9種類のサンプルが出てくる

953名無しさん@お腹いっぱい。2022/09/11(日) 21:52:53.42ID:uuPk9lQG
キャラクターを覚えさせたいんだけどいい方法無いのかな
初音ミクはキャラ名で絵がでてくるんだけどそれみたいなの

954名無しさん@お腹いっぱい。2022/09/11(日) 22:10:36.53ID:nIQbmtq4
>>953
自力でやるならファインチューニング(Textual Inversion)になると思う
https://note.com/npaka/n/n34412f71cfbc

955名無しさん@お腹いっぱい。2022/09/11(日) 22:20:22.00ID:NcVCshOZ
>>935
話だけ聞いてると絶対時間かかるけどプリンターみたいに1pxだけずらして生成して後で合成すればうまいことやってくれそうな気がしなくもない

956名無しさん@お腹いっぱい。2022/09/11(日) 22:27:31.95ID:ItGvNfNk
キャラのそのものはdreamなんちゃらの方がいいんだろうけど、まだやり方でてないんだっけ?

957名無しさん@お腹いっぱい。2022/09/11(日) 22:37:42.14ID:/g9G5/hK
Batch sizeを1以外で入れると、Batch posも同時に設定されて
HW・prompt・cfg・sampler・step・seedを全部同じにしても同じ画像が作れなくなるんだね
ちょっとここの理屈がよくわからない、並列でかわりばんこに処理だから乱数が混ざるのかな
全く同じバッチにしたらいいのかと思ってやったけど、なぜかposがうまく合わない

958名無しさん@お腹いっぱい。2022/09/11(日) 22:38:49.71ID:ac0VFLqy
waifulabやってるとたまに人間になりたいけどなれなかった細胞の塊みたいなのが出てくるな
一度それを育ててみたらえらいことになって、以来トラウマで触れなくなった
上手く行った時はかなり自分好みの絵が生成できるだけに惜しい

959名無しさん@お腹いっぱい。2022/09/11(日) 22:39:51.92ID:uuPk9lQG
googlecolabでずっと回してるわ

960名無しさん@お腹いっぱい。2022/09/11(日) 22:41:12.50ID:uuPk9lQG
>>954
ありがとう、でもプログラミング全然わからないw

961名無しさん@お腹いっぱい。2022/09/11(日) 22:43:12.14ID:WMuod/uh
もうVRAMで困るの馬鹿馬鹿しくなってきた。
新しいGPU買おう。24Gが10万足らずで手に入る

962名無しさん@お腹いっぱい。2022/09/11(日) 22:48:06.46ID:/g9G5/hK
1111とかの分割アップスケールがあるからメモリは別に要らなくね?
中でやってるのが512x512なんだし

963名無しさん@お腹いっぱい。2022/09/11(日) 22:51:19.76ID:UrIJnHWX
バッチサイズ上げれば高速化できる

964名無しさん@お腹いっぱい。2022/09/11(日) 22:52:02.75ID:UMfNBF9O
>>957
公式のSDは例えばSEED 100, BATCH_SIZE 4 で4枚作ると
最初の一枚目のseedが100で後の3枚は特異シードになって再現できない
でも1111とかはそれが嫌でBATCH_SIZE 4なら100,101,102,103が与えられるようになってるとのこと
https://github.com/AUTOMATIC1111/stable-diffusion-webui/issues/182#issuecomment-1242795002
DDIM限定かどうかは分かんない

965名無しさん@お腹いっぱい。2022/09/11(日) 22:58:27.33ID:/g9G5/hK
>>964
おお、情報ありがとう
pngのchunkや出力txtに書かれてる情報はバッチ内で連番なんだけど、全然関係なくなってる

> 最初の一枚目のseedが100で後の3枚は特異シードになって再現できない
一度出たいい画像をいきなりアップスケールとかするんじゃなく
cfgやstep変えて近くにもっといいの隠れてないか捜索広げる作り方するんで、これは辛すぎる

使ってるのは1111でeuler_aなんだけど>>855に変えてるのもあるかも
ちょっと様子見でbatch sizeは使わないことにするよ

966名無しさん@お腹いっぱい。2022/09/11(日) 23:31:57.48ID:RvUTcy/+
>>961
SD代10万と考えると

967名無しさん@お腹いっぱい。2022/09/11(日) 23:40:59.58ID:i19gB2Ya
ゲームも出来るから良いじゃないか。

968名無しさん@お腹いっぱい。2022/09/11(日) 23:41:41.64ID:qOwM0VUO
photoreal, screen space ray tracing, screen space ambient occlusion, screen space reflection, Specular mapping,

↑リアルになる

969名無しさん@お腹いっぱい。2022/09/11(日) 23:43:14.14ID:i19gB2Ya
けどimage 2imageのマスクって色んな使い方出来るな。
みんなメガネになーれ。

970名無しさん@お腹いっぱい。2022/09/11(日) 23:43:26.46ID:F0EnpDYG
>>931
なるほどすごい!
ありがとうございます

971名無しさん@お腹いっぱい。2022/09/11(日) 23:47:48.25ID:/g9G5/hK
>>969
かわいい顔が出たら、顔だけ逆マスクしてエロ水着呪文追加とかしてます

972名無しさん@お腹いっぱい。2022/09/11(日) 23:55:10.07ID:i19gB2Ya
colabでは出来ないその呪文。ローカルにも組んどくかなあ。

973名無しさん@お腹いっぱい。2022/09/12(月) 00:33:50.74ID:HMA+EZe9
4000出たらやっぱ買い?

974名無しさん@お腹いっぱい。2022/09/12(月) 00:38:18.84ID:PJ9UCMlk
>>973
値段がまだわからんからな。
円安+アスク税もあるしなぁ

975名無しさん@お腹いっぱい。2022/09/12(月) 00:47:25.88ID:nkmHBqyS
電気料金も気になるわ

976名無しさん@お腹いっぱい。2022/09/12(月) 00:50:35.94ID:1cWHX7h4
3000ドルオーバーって噂。最近のでかい相場変動考えて価格設定したら50万ってとこだろうな
消費税5万たしたら55万か
https://www.pcgamesn.com/nvidia/rtx-4090-gpu-retailer-listings-price-leak

977名無しさん@お腹いっぱい。2022/09/12(月) 01:29:55.74ID:BB7NUucC
税込み表記だとあんま気にすることないけど、冷静になって考えると消費税が万単位ってとんでもねぇな

978名無しさん@お腹いっぱい。2022/09/12(月) 02:29:32.94ID:iqorF6m9
ホーチミン版のimg2imgタブに新しく追加されたInterrogateボタンで画像からプロンプトを予測できる

979名無しさん@お腹いっぱい。2022/09/12(月) 02:36:51.37ID:1cWHX7h4
きちんと予測してくれるなら最高だな
どっかのSDにimages2prompt.pyがあったけど、中見たらメタデータ表示する残念なものだった

980名無しさん@お腹いっぱい。2022/09/12(月) 02:55:59.67ID:iqorF6m9
SDアップスケールガイド(英語)
https://rentry.org/sdupscale

981名無しさん@お腹いっぱい。2022/09/12(月) 03:29:51.47ID:qrbDdxqv
MSIの3090Tiだいぶ値下がったし今欲しい奴はこれでいいんじゃね?
相応の電源と冷却性能いるけど

982名無しさん@お腹いっぱい。2022/09/12(月) 04:42:23.79ID:XBkBKrmq
NVIDIAが21日におそらくハイエンドの新商品発表するし、3000番台は型落ちになって劇的な値下げを期待

983名無しさん@お腹いっぱい。2022/09/12(月) 07:24:01.14ID:7eP1MleX
その前に売り切れるんじゃないかな
4000シリーズが出ても性能向上はわずかで値段は高くなるだろうという予想で、値段が下がってきた3000シリーズは今も買い控えされずよく売れてるそうだ

GeForce RTX 3070 Ti以上が一部品薄化 価格の下落が続くグラフィックスカード:古田雄介の週末アキバ速報 - ITmedia PC USER
https://www.itmedia.co.jp/pcuser/amp/2209/10/news045.html

984名無しさん@お腹いっぱい。2022/09/12(月) 07:27:34.99ID:rm5I5bSH
> 4000シリーズが出ても性能向上はわずか

2倍速くなるのを「わずか」と感じる人は多くないと思う

985名無しさん@お腹いっぱい。2022/09/12(月) 07:45:27.06ID:fAqhtuyH
昔はBDを再生するだけでハイスペックグラボが必要だったけど今は専用チップが開発されて激安スマホでもフルHD動画を再生できる
画像合成に需要があるならすぐにそうなる

986名無しさん@お腹いっぱい。2022/09/12(月) 07:46:17.41ID:ZWCtqdn0
>>983
NVIDAのCEOは30XXの在庫整理にはまだ数四半期はかかると言ってて
2023年まで在庫過剰が続くとさ
https://wccftech.com/amd-nvidia-partners-ready-to-offer-more-brutal-price-cuts-on-gpus-in-september/

さて「9月の残酷な値下げ」でどうなるかね?

987名無しさん@お腹いっぱい。2022/09/12(月) 07:47:49.36ID:untpxQHo
ビデオボードは仮想通貨云々からの中古流出も多いんだっけ
ここら辺の中古は寿命なさそうだけど

988名無しさん@お腹いっぱい。2022/09/12(月) 08:12:20.38ID:ced6P25F
>>982
安価な3000番があふれて4000番売れなくなると困るから、nvidiaがもう卸してなくて在庫限りって話まである
マイニング需要続くと見込んでかなり前に4000番用のチップを大量発注しすぎて
最近継続発注をあわてて止めたとかって話まで
マイニングで充分儲けたので、在庫処分ではなく価値の維持のためにブルドーザーで埋めるかも、本当に
豊作すぎてキャベツ潰すみたいな感じで

>>987
ビデオボードてw
今はグラボ(グラフィックボード)、それすら古くてGPUって略すのが普通
20年以上昔はビデオカードって呼び方が普通だったな(遠い目)
wikipediaもいまだにこっちなんだけど

989名無しさん@お腹いっぱい。2022/09/12(月) 08:49:02.45ID:7eP1MleX
>>987
なので中古はマイニング能力を落としたLHR版が良い

990名無しさん@お腹いっぱい。2022/09/12(月) 08:51:15.43ID:ZWCtqdn0
>>988
さすがにキャベツの様に潰すのはナシでw
今更メモリ周りを変えたディスカウント版とかも出すみたいよ
https://wccftech.com/nvidia-readies-rtx-3060-8-gb-rtx-3060-ti-with-gddr6x-rtx-3070-ti-with-ga102-gpu-to-clear-away-ampere-inventory/

…3060の8GBとか一番要らない子じゃないですかー!

991名無しさん@お腹いっぱい。2022/09/12(月) 08:51:42.63ID:6NoPJtis
ハードの話になると頭の悪いパソコンに詳しいおじいさんがめっちゃ湧いてくるな
そろそろくだらん話は止めにしてくれ

992名無しさん@お腹いっぱい。2022/09/12(月) 08:55:03.05ID:untpxQHo
waifuのタグ区切りはスペースのみのカンマ付きどっちがええんじゃろ

993名無しさん@お腹いっぱい。2022/09/12(月) 08:59:24.47ID:7eP1MleX
はい次
【Midjourney】AI画像生成技術5【StableDiffusion】
http://2chb.net/r/cg/1662940688/

994名無しさん@お腹いっぱい。2022/09/12(月) 09:02:50.13ID:P+USYJFh
>>992
意味がガラッと切り替わる時はカンマが良さげ。同じ意味内の時はスペースが良さげ。

…という気がしている。
ぶっちゃけ実験したけど、よーわからん。seedによってカンマで区切ってるっぽいなーと思うことも有ればカンマ無視してね? って時もある。
個人的には目視しやすいので|で区切るのが好み。

995名無しさん@お腹いっぱい。2022/09/12(月) 09:19:30.32ID:untpxQHo
>>993
たておつ
>>994
なるほどなー

996名無しさん@お腹いっぱい。2022/09/12(月) 09:27:40.86ID:W1BnDft6
>>988
潰すくらいならAI需要向けの特化モデル作れよ

997名無しさん@お腹いっぱい。2022/09/12(月) 09:31:40.79ID:W1BnDft6
>>990
メモリチップだけ張り替えた3070-16GB版を出せよ

これ3070が発売前から噂されてたやつなんだが

998名無しさん@お腹いっぱい。2022/09/12(月) 09:45:26.56ID:ced6P25F
>>993

交換なくても>>1に書いてあるからまぁ大丈夫だよね
「”今後の”AI画像生成技術の話させろ」とはならん

999名無しさん@お腹いっぱい。2022/09/12(月) 09:47:07.77ID:P+USYJFh
MJとSDって縛ってるから大丈夫っしょ。四方山は総合あるし。

1000名無しさん@お腹いっぱい。2022/09/12(月) 09:50:07.95ID:ced6P25F
1000ならディスカウント版、VRAM16GBの3060発売


lud20221106155927ca
このスレへの固定リンク: http://5chb.net/r/cg/1662332320/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

TOPへ TOPへ  

このエントリをはてなブックマークに追加現在登録者数177 ブックマークへ


全掲示板一覧 この掲示板へ 人気スレ | Youtube 動画 >50 >100 >200 >300 >500 >1000枚 新着画像

 ↓「Midjourney】AI画像生成技術交換4【StableDiffusion ->画像>63枚 」を見た人も見ています:
Midjourney】AI画像生成技術交換3【StableDiffusion
【StableDiffusion】AI画像生成技術9【Midjourney】
【StableDiffusion】AI画像生成技術7【Midjourney】
【StableDiffusion】AI画像生成技術8【Midjourney】
【Midjourney】AI画像生成技術7【StableDiffusion】
【Midjourney】AI画像生成技術5【StableDiffusion】
【Midjourney】AI画像生成技術6【StableDiffusion】
【StableDiffusion】AI画像生成技術12【NovelAI】
【StableDiffusion】AI画像生成技術11【NovelAI】
【速報】画像生成AI「Stable Diffusion」と「Midjourney」に対して集団訴訟
【AI悲報】 画像生成AI「Stable Diffusion」と「Midjourney」に対して集団訴訟が起こされる
【Midjourney】AI関連総合2【StableDiffusion】
【Midjourney】AI関連総合5【StableDiffusion】
【Midjourney】AI関連総合8【StableDiffusion】
【Midjourney】AI関連総合6【StableDiffusion】
【Midjourney】AI関連総合11【StableDiffusion】
【Midjourney】AI関連総合21【StableDiffusion】
【Midjourney】AI関連総合12【StableDiffusion】
【Midjourney】AI関連総合25【StableDiffusion】
【Midjourney】AI関連総合7【StableDiffusion】
【Midjourney】AI関連総合22【StableDiffusion】
【Midjourney】AI関連総合13【StableDiffusion】
【Midjourney】AI関連総合19【StableDiffusion】
I文章に沿った楽曲を自動生成してくれるAI「Riffusion」登場、画像生成AI「Stable Diffusion」ベースで誰でも自由に利用可能
【Midjourney】 AI画像生成 【DALLE】
【AI】画像生成AI「Midjourney」の描いた絵が美術品評会で1位を取ってしまい人間のアーティストが激怒 [すらいむ★]
なんG画像生成AI部(waifudiffusion)
【StableDiffusion】生成AIビジネス【NovelAI】
画像作成AI『Stable Diffusion』、GUI版が登場
【StableDiffusion】AIパソコンスレ 質問・雑談2
【悲報】イラストAIのStableDiffusionさん、アメリカで集団訴訟を起こされる
【AI】米Appleの独自AI「Apple Intelligence」 iPhone・iPad・Macで動作 各純正アプリに文章や画像生成機能がビルトイン [ムヒタ★]
【AS】ActionScript技術交換スレ Part4
midjourneyっていう自動AI生成絵画マシーンがすごい
【悲報】世界中のちんさん、AI画像生成ツールで「理想の女性」を追い求める
【AI】Metaの画像生成AIは「アジア人男性と白人女性のカップル」をイメージできないという報告 [田杉山脈★]
Microsoft、検索しても出てこない画像を代わりにAIで生成する技術を「Bing」に実装 [香味焙煎★]
Microsoft、「黄色い体で、黒い翼の鳥」 などの文章からAIが画像を自動生成する技術を開発。つまり、
Saudi Arabia admits journalist is dead, 18 people detained
AIで画像生成してるやつおる?w
結局画像生成AIってなんだったの
画像生成AIで鉄道の絵を描かせた事がある人
この時期にAIでチンコの画像生成しても良いか?
【悲報】画像生成AIのヤバさ、一般人にもバレ始めてる
【悲報】なんJ民さん、今日の画像生成AI使用権を放棄してしまう
【速報】画像生成AI、ガチで抜けるレベルのエロ画像を生成可能に
【朗報】話題の画像生成AIに作画させた漫画、ワンピースより面白いwwww
【悲報】絵師さん、あと数日で全員失職へ 超高性能画像生成AIが無料公開予定
【悲報】ホロライブの絵師さん、画像生成AIにお気持ちしまくってしまうwwwwww
【人工知能】「視線ひきつける」仕組み、画像生成AIで解析 京都大学 [北条怜★]
【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ
【悲報】画像生成AIで静岡が水没したデマ画像を作ってアップする奴が現れる SNS崩壊へ
【サービス】画像生成AI、数十秒でプロ顔負け 著作権は誰のもの?人間の価値は [北条怜★]
クリスタ、画像生成AIパレット実装を中止 - ユーザーの懸念を受け方針転換 [朝一から閉店までφ★]
「画像生成AIはアーティストの権利を侵害している」8.7万いいね ラッダイト運動勃発か
静岡県の水害巡りフェイク画像が拡散 画像生成AIを利用 投稿者はデマと認めるも… [少考さん★]
Adobe、画像生成AIを開発へ 倫理や法律面で“透明性”高めたクリエイターのためのツール目指す [朝一から閉店までφ★]
【AIテクノロジー】“業界トップレベルの画像生成AI”が近日中に無料配布? SNSで話題に [oops★]
【技術】iPhoneと連携し「AR(拡張現実)」を体験できるコンタクトレンズを開発(画像あり)
ドイツ「日本くん!水素技術交換しよう?」
【毎日新聞】大江健三郎の「電気はいらない!」は虚偽画像 素人ではない合成技術、著作権侵害の可能性も [みの★]
【JET】英オックスフォード大学研究チーム、CO2を直接ジェット燃料に変換することに成功 効率的なジェット燃料生成技術を開発 [ごまカンパチ★]
AIで画像生成するの件でAI側の「合法だから」って弱くね
【猫の日】絵を描くとネコに変換してくれる画像生成AIが話題[02/22]
【技術】たった1枚の画像から「奥行きがあり視点を前後左右に動かせる3D画像を生成する方法」が開発される [すらいむ★]
18:06:17 up 8 days, 3:14, 1 user, load average: 7.38, 7.64, 8.00

in 3.9019010066986 sec @3.9019010066986@0b7 on 112808