!extend:checked:vvvvv:1000:512 !extend:checked:vvvvv:1000:512 入力されたテキストから画像を生成するAI技術に関して語るスレです StableDiffusion: google colabやローカル環境で実行可能なAI画像生成 NovelAI: 有料サブスク型AI画像生成サービス (DALLE・Craiyon・Midjourneyの話題もOK) ★★★ 注意 ★★★ ここは既存のAI画像生成サービスの”””具体的な”””技術や動向について語り合うスレです 漠然としたAI画像生成の未来や、イラストレーターの職権侵害等の一般的な話題は明確に【禁止】します (以下のスレッドへ移動してください) 【Midjourney】AI関連総合20【StableDiffusion】 http://2chb.net/r/cg/1669092302/ AIイラスト 愚痴、アンチ、賛美スレ part14 http://2chb.net/r/illustrator/1669117382/ テンプレまとめ https://rentry.co/zqr4r 編集コード「5ch」 前スレ 【StableDiffusion】AI画像生成技術10【NovelAI】 http://2chb.net/r/cg/1667401816/ VIPQ2_EXTDAT: checked:vvvvv:1000:512:: EXT was configured 前スレの初期並みにひどい生成画像見たら笑い止まらん なんでああなる
NSFW全滅だとアート系のヌードとかもダメなるってことだから、かえって使いにくいような気がするな2.0
なんらかのエラーだって言ってくれ 発売日を楽しみにしてたゲームがとんでもないクソゲーだった時の気分だ
sd2はインペイントを考えすぎてるのかな ぴったり人が重なるレベルで同じポーズばかり出る あと複数人は相変わらずダメ 「2人の写真、ひとりは赤髪ロングヘア、もう一人は青髪ショートヘア」みたいなのはできない
何が得意で何が苦手かはまだ追求されるだろうし、数日か数週間もすればSD2をベースにしたやつも色々出るだろ この3ヶ月の密度が高すぎたせいもあろうけど生き急ぎすぎてもしょうがないぜ
SD1.5までで使えた「kawaii, loli face」は使いものにならない 512x512以上の解像度に設定すると劇遅だから512x512以外は使い物にならない txt2img.pyのデフォルト値を変えといた方が使いやすい(--step 20、--n_iter 1、--n_samples 1、--n_rows 5、--seed -1など好きなように) wm_encoder系はいらないからコメントアウトした方がいい(やらなくていい) 1111用のxformersはエラー出て使えない シード固定ガチャの将来性は高そう 歩留まり悪い masterpiece, best quality, photo of a girl, japanese girl in kyoto, dark hair, detailed hair, beautiful hair, beautiful face, detailed eyes, full body shot, highly detailed, sharp forcus, cinematic lighting, photoreal, photoshoot, photograph, realistic photo, dynamic pose やっぱ各所から色々詰め寄られてるんだろうか 今まで自由すぎたのかな
>>17 nsfwだけじゃなくてGreg Rutkowskiみたいなまともな画像を出すときの定番だった現代アーティスト系の学習も排除されてるんだな これは今までのSDみたいな使い物にはならなさそうだわ…… でもこんだけ配慮?されてるモデルだし良いもの出したら企業が使ってくれそう
どうせなんらかのフォークや制限解除版が出てくるだろ 公式には対処したってポーズであとは自己責任
「イラストやデザインの仕事はとても退屈。芸術的かどうか以前に君たちは道具(ツール)だよ。」 ハゲワラ 企業安心して使えないよ ピカチュウとかミッキーマウスとか権利あるのも普通に出るのは変わらずだから クリップ変えたのしっぱいじゃないか? photo of a Pikachu and a Mickey Mouse 結局権利や倫理的に怪しいソースを使ってさらに過剰学習という名のパク… までしないとまともな絵は出ないのが現実だったってことか?? それらを全部排除すると要求スペック爆上がりなのにこのザマと
別に俺アンチじゃないんだけどまじで出てくるものが微妙すぎて泣きそう
まあ宇宙開発とかでもロケット打ち上げ失敗とかしながら発展してるんだし あれこれ分析して次に活かしてくれるでしょ
WebUIってネガティブもトークン数えられてるのか? プロンプト入力欄の右側に数字が出てあって ポジティブの方になんらかプロンプト書いてる時はどんどん数字が増加していくけどネガティブ書いてる時には動かないのが俺の環境なんだけど hentai diffusionのドキュメント見てたら例のクソ長ネガティブしか入力してないのに右側の数字が120とか出てあって どっちが正しいのやらよく分からん 基本的に77(75)トークン越えてプロンプト書いたら制御しにくくなって結果絵が崩壊し始めるからできればネガティブはカウントされて欲しくないんだが
>>32 コンプラ超えてこれだと次はもうブレイクスルーを待つしかない気がしてきた いやこの考えを捨てよう…俺の中のネガティブプロンプトだ
結局の所強力なタグ付けとデータ量を持つ📦が最強って事でおk?
teddy bear sexが1000枚もない雑魚サイトがイキってんじゃねえぞ teddy bear sexをよこせ
>>33 まぁ設定次第だけど、旧プロンプト解釈使用のチェック入れてれば75制限はワーニング出して特殊な処理になる 75超えて崩壊なんて言ったら中華元素法典のクソ長ネガティブ入れたら全部崩壊してるはずだろう 普通に考えればポジネガそれぞれ75ずつじゃないの?
エロはある程度画力ある絵orまとまった構図の良質なデータセットなのに それを全部切り捨てたらこうなるという例だった やっぱり、エロは正義
これから始めようとおもうのですが、過去の1.5を使うことって出来ますか?最新の2しか利用出来ないんでしょうか
今って前の環境のwifeがないくらいの状態ってこと? ハードは進化してるだろうけど使うソフトがまだ整ってないから上手くいかない的な
グレッグさんが無効な上に激遅いな cyber punk city landscape ちょっと笑ってしまった 昔の画家の名前はまだ有効みたいだが >>43 cyberpunk1990ぐらいな感じで笑う >>46 SD1.4+追加学習=>novelAI だったことを考えると、まだ追加学習された例は出て来ていないみたいね そもそもクリーンAIとしてはadobeの方が使われるだろうしなぁ SD死んだか? 派生は作られ続けるだろうけど
これからは追加のデータセットを有料販売していくのが一般的な形になりそう 無料デフォルトでは低品質のものしか出せず、アーティストの許諾付きの奴やR18は各支援サイトで数千円払えって感じで
>>41 イラスト特化とか、エロ特化とか色々あるから 素SDで色々試したら用途に合わせたモデル探すといい その次はDBとTIだ SD2.0ベースの二次元特化サービスで第二のnovelAIを狙っているとこ出てくるかもね
TwitterとかでEmadが投稿してたみたいなリアルな山の俯瞰視点の画像みたいなの出せないの?
CLIP部とUNet部とVAE部で各部だけ単独でGPUに載るようコードにmodl.to(device)追記して切り替えまくったら8GB VRAMでも動いたよSDV2 そのうちAUTOMATIC氏が対応するだろうけど悩んでいる人居るかもだから一応
ckpt に直接dreamboothかけて学習させたいが、そんなことって出来る?
直接は無理 必要な変換についての情報は過去スレにあったと思う
ダーティなことしなきゃまともな画像は生成できないってはっきりしちゃったのはなぁ 結局NAIみたいな路線しかないってことか?
2.0で一枚だけ山出せたけど、プロンプト追加してくと変なノイズになっちゃうな。それも何連続も、プロンプト最初に戻してもおかしいまま ちょっと今のままだと使えないな AI画像ってのはあらゆる画像を生み出せることに意味があるんだ 指が5本の人間のイラストでいいなら人間が描けばいい 4本や350本の指がある生物を描いたりする人間には出来ない発想こそAIの真髄なんだよ?
お前が4本指350本指というものを思いつく時点で割と人間に思いつきうるものなんじゃない あえてやらないだけで
俺は超優秀なアシスタントを手に入れた気分だわ 資料集めにインスピレーションになんかきっかけになりうるアイデア出しなど時間がかかってやる気出ないことをひたすら押し付けている それも非常に素早く気に入ったもののバリエーションも満足するまで出してくれる ブレスト的に必要な物量がある程度の品質を保って高速で用意してくれてそれを人が利用するのが自分なりの真髄だと思うわ
>>61 人は頑張って上手にかけるけど背景はだるくて仕方ないと言ってた知り合いがウキウキで背景やらせとるからハイブリッド絵師増えそうやな 履歴書が超優秀だったからアシスタント採用したら失敗した感じよ ちょっと前までいたイチゴちゃんが経歴のわりに優秀だっただけに残念感が強い
SD日和ったなぁ もっとグレーゾーンを突っ走って欲しかった 今やMJのほうがグレーだな
Emad氏のツイートだとまとも?な西洋画出てるし実行環境か制御の問題かしらね
昔の画家の絵画は出る 現代の作家と写真系が凄く弱くなった気がする
それはモデルの問題ってことなのかな それならNAIみたいなのが出てきたら解決されそうだけど
MJはほとんど叩かれてないのを見ると 結局クローズドでコソコソやってた方が楽だし得なんだろうなと思う バカ正直にオープンでやる方が損するし停滞するという 少なくとも今はまだ人類はAI研究の意味と意義を理解できる段階にはないからな
へんに他企業がリリースする画像生成AIで倫理観の整理がされてしまう前にエグいのをオープンソースで出してしまってほしいが コンプラで相当な時間割いてたからもう無理なんだろか ポリコレ棒とかで叩かれまくってんだろか
なんだ、技術スレとか言いつつ自分でソースコードもいじれない無産だらけだったのか 結局AIが産まれようとどうしようと有能と無能の格差は永遠に埋まらないんだな
今頃気づいたのか。ここはインストール方法スレだからな
>>68 こういうキャプテンフューチャーとかレンズマンみたいなSFアニメ最近見てないわ。 技術スレなんだから俺はソースコード描きなおして改善した、という報告するならいいんじゃないかな 変な煽り入れるよりは
そもそもデータセットの問題にソースコードもなにもないという
オープンソースのプログラムは「フォーク」といって別のプロジェクトに分岐することができる SD2.0があまり良くないならネットで呼びかけて人を集めてsd1.5を改造し直してnew SD2.0を作ることもできる 別に一人で作る必要はないしトップがプログラミングを出来ないやつでもいい 人を集めてプロジェクトをまとめればいいんだ
>>77 だったら自分でやりなさいよ口だけの無産くん >>77 プログラミング初心者だけど参加できますか? 定期的に人が増えてしょうもない荒れ方するよなこのスレ 二日くらい放置しとくと戻ってる
責任はとらん!お前たちが好きに作れ!ということか 結局そこは変わらんのかw
>>82 ID:5FhaZ6LUaが一人で煽ってるだけだよ スルーすれば済む話さ ツールに対する細かい社会的な都合とかを無視したら、 「なんかいきなり退化してんなぁ……」としか思えんな あまりにもクオリティの下がり方が残念過ぎる……
こんなに超短時間で良くなってるのに物足りないと批判されるってヤバいと思う まあこの人類の際限ない欲求を越えたときがシンギュラリティなんだろうな
>>88 そりゃいきなり将来性がなくなったからな 技術だけバラ撒いてあとはローカルコミュニティに丸投げっぽいし >>87 今のところ768x768は12GBで動くけど、それより下はメモリ配置やらなにやらやればできるかもって感じで書かれてるな(DBやNH等の拡張分は除く) 単純計算でもメモリは描画時のVRAM占有は2.25倍必要になるわな とはいえ、SD1.4登場からのヶ月分のメモリ節約はそれなりに反映されてるから、SD1.4/1.5世代ほど余地は少ないとも言われている >>81 好意的に解釈するならどうせお前ら好きに派生モデル作れるようになったんだから公式は万が一にも潰されないように身綺麗にしとくわってことかね SD2.0は自分で使っていないのに判断は下せないかなと。 デモページ重すぎるのでローカルで使えるようになるの待ち
昨日からローカルで使えるよ ローカル=1111って意味なら使えないけど
隙間見て a beautiful slavic vouge model girl をデモページにかけた感じは密度上がって品質上がったように見えた 試してみたけど、たしかに高解像度でも崩れにくいし景色とかはとても綺麗だ 人物も中々良い エロ目的だと云々はこれベースのエロモデルまてばいいんじゃねーのとしか ただ、diffusers で使おうとしてもところどころバギーで直すのめんどくせぇ
なるほど高解像度のほうがきれいになってるね 512x2でやってたのがダメだったのか?
>>88 イラスト生成目的だとSD無印使う機会ないから良くも悪くもあんまりなにも 「超短期間で良くなってる」はMJとNAIと派生に対して思うことが多いな、ベースがSDなのは理解してるけど なので性能というより「公開してること」が一番の強みのままかなぁと >>90 なるほどね 1,2年後には1024x1024をデフォにしたモデルが出てくるだろうから そのときは18GBか24GBのGPUに買い替えないとあかんのだろな。金がかかる趣味だ 文字が出るようになってるな。日本語プロンプトもいける a beautiful slavic vouge model girl a beautiful japanese vouge model girl photo of landscape, mt.fuji, sunset, cinematic lighting, beautiful sky photo of night view of tokyo, bird eye angle photo of a beautiful girl eating ramen with chopsticks photo of a biohazard mark photo of Stop traffic sign photo of clock photo of calender photo of credit card photo of 京都 photo of おっぱい 画像多いからまとめてうpした。imgurがちゃんと?18禁扱いしてて笑う https://imgur.com/a/Htrx37I 都市伝説で異次元に行くと文字が変とか言う、それっぽい。
>>104 台湾の雰囲気に似てるし、フォントやデザイン的にも中国の画像学習してる印象 日本人だって中央アフリカと南アフリカの違いはわかんないでしょう? それと同じ
意味不明な文字が出るのは前からだね マガジンカバーとかで偽の雑誌の表紙を出してくれるw
前よりは文字らしきものが文字になってるな カレンダーとか以前からは考えられないほど原形をとどめてる
SD2.0のcolab notebookが出てきてるな あとで試そう
わしゃわしゃしてみた結果、写真的なのと奥行きは強そう モデルが違うだけと言われたらそのような気もする
NovelAI系が目的ならステイどころか一生気にする必要ないよ
先にNvidiaが発表したeDiffiが文字を正確に表記出来る事を考えると やや周回遅れな感じはする
延期を繰り返すのはだいたいクソゲーってのはどこの世界も一緒なのな。はー、最初の威勢もなくなったし残念だわ。
SDの規模と資金力と技術でもクリーンな学習するとこうなるってことは MJとNJはどんだけダーティな学習の仕方してんだろうって思ってしまった 絶対表に出せない手法使ってるんだろうな論文すら一切出さんし
SD2.0+eDiff+nsfw+masterpiece+style+最低でもダンボールタグの表現力(細部指定)が欲しいわけで… ポリコレ抜きでも金出してるところがエログロペドダメだっていえばそれまでだしな Midjorneyの高画質版でしかないわな。コンセプトアートもCGアートの受賞した奴からちょっと詳細になった程度だし 宇宙服やストームトルーパー出せますっていうだけじゃ…実写や人の手でいいのでは?っていう突っ込みも増える (イギリスで黒人が幼女レイプしてる画像ポンポン出せる奴が許容はされないわな)
Checkpoint /content/drive/MyDrive/model3.ckpt has both EMA and non-EMA weights. In this conversion only the non-EMA weights are extracted. If you want to instead extract the EMA weights (usually better for inference), please make sure to add the `--extract_ema` flag. --extract_emaのフラグ君はどこに書き込めばいいの...?
>>123 起動時の引数だよ。って言うか別に必須ではないでしょ 書いてある通りemaじゃない値でいいならそのまま、emaの値使いたいなら引数付ける、って話かと え なんか改悪あったの 一ヶ月ぶりに契約しようかとおもったんだが
NovelAIの話じゃないよStablediffusion の話だよ 必要スペックが上がって画家名やエロが出なくなったよ
つーかもしかしていつか規制で学習元が規制されてまとまじゃなくなる可能性もびらぞう
自己発電用のつもりが無かったんでなw 絵描きとしてはNJは興味ある
anynai見てるからかnjのクオリティすげー低く見えるんだけど一般的にはそうでもないのかな 渋ランカーとお絵描きスレくらいの違い
ハンコ顔がカッチリ出るのは絵描きからするとあまり。いつも同じ絵じゃんって思っちゃう
考えて数百トークン詰め込んで同じ絵じゃんとはならんと思う
あでもNJは適当に入れてもいい感じになるね それもそこそこバラつくし
あとそう、NJは試してないから知らんけどプロンプトで突然絵柄が変わったり謎の解釈されるのが嫌なんだよね
指定しないからだと思う 謎の解釈じゃなくて指示してないんじゃない
なんUのスレとかpart20の方のスレで相談乗ってもらってくるといいよ
こっちはSD系だけど死ぬほど試して自分で呪文の傾向のメモも作ってるw そのうえで言ってんのよw NAIは知らん
2.0は深度管理ができるようになったんじゃなかったか 絵を立体的にとらえることができたり 生成のStep数が少なくてすむようになったり スペックが必要なのは768とか1024に対応する時だけで 512のままならそんなに変わらないとか何とか
絵描きでもプロンプターでもいいけど未来予想で短文連レスされると意味ある検証が流れるからできればやめてくれ やったことの話だけしよ
すまん ストレートに言うと使ってるならプロンプトと使ったモデルの詳細くらい言って欲しかった 終わり
有名人・アーティストは学習時点でプロンプトとの関連を無くしたから 指定して作るのは難しくなっている NSFW関連は学習元から除外されているが出せないわけではない デッサンが狂いやすいとか顔や手がおかしくなりやすいと言われているが詳細は不明 1.5の時点でもそんなに綺麗じゃなかったし
要するにハードが新しくなったからやれることやグラフィックはよくなったよ それに合わせたソフト作ってもらえれば前以上のことできるよ 今はデフォルトのソフトしか動いてないからnsfwは出しにくいよってこと?
SD2.0 はよ1111に対応してくれ 2.0以前に更新途絶えているが・・・
>>134 エロはできんけどしっかりプロンプト組めばクオリティ高いのできるぞ ただクオリティ系盛るとすぐ3次寄りになるから調整が難しい セルアニメ風はそんなによくない。イラスト風はかなりよく見えるけどね
アニメ絵みたいな省略された絵の深度はちゃんと判定できるのだろうか
SD2.0ってckptのやつ? 2.0のckptがあれば動くって訳じゃないの?
>>155 それ単なる汎用の拡張子だから翻訳でも音声合成でも何のAIにでも使われてる >>157 SD2.0を3Dで出すと完全に不気味の谷に落ちて行ってるよな… SD1.4でbeautifulやkawaiiっていうのが重宝されたことを考えると需要と供給が乖離して言ってる SD2.0つえええのただの切り取りで、出たばかりでサンプルプロンプトが屑だっていうだけかもしれんが 需要って最初から研究開発用途だぞ 開発者でもないしライト層でもない人は そもそも1.4とか1.5使わずにwaifuやnai使うか自分で学習させる
colabだけどSDwebuiバージョンアップしたらなんか不安定になった
DBの拡張版がhuggingfaceから持ってこれるからSDv2のチューニングができるかと思ったが甘かったか
>>151 NAI単体じゃ無理だけどマージなら同じぐらいのクオリティはいけそうだな あえて突っ込み入れるなら刃の方 握ってどうするんだと
SD2.0、Lexicaにある奴の同じプロンプトを入れても全然再現できないな アート系はもうファインチューニングに期待するしかないのか
1.4, 1.5のいい感じのを2.0でi2iしたらどんな感じになるんね?
>>169 テキストエンコーダ変更したんだからプロンプト探索は一からやり直しじゃないの? テキストエンコーダが変わって、具体的に以前のプロンプトがどう通らなくなってるのかなあ なんとか意図どおり引っ張ろうとしてゴテゴテ言葉足すとかえって良くないとか、そういうことなのか?
DBのテキストエンコーダってなんなのかイマイチ分からんのだけど、 とりあえず使えば学習精度が上がるって認識でいいのかな
単語の表現範囲が狭いというか生成される画像にばらつきが少ないんだよな 1.5だとプロンプトがだめでもたまに当たりがでるけど、2だとハズレしか出ない photo of a clockだとアラビア数字の時計だけ full body of a girlだと首から下の画像だけ head and body of a girlでも全身でないし生成画像が偏りまくってる(ちなみにこのプロンプトだと乳首普通に出る。ただし(以下略
>>175 CLIP学習させると埋め込む単語が1トークンになるとかどっかで見たような… ただCLIPを固定して学習したのがSDだからCLIP弄るとその他すべての表現にも 影響が出てしまうんじゃないかな。あとはそれを許容する程度の問題? full bodyには「豊満」って意味があるからだぞ 1.5で試してみたけど太めの女性の全身が出る(男性は出ない) whole bodyだと正面と背面の二面図が出る あと顔が画面から外れるのはスケールが強すぎる場合もある
やっぱり更新止まってたのは2.0への対応だったのか
単語にはたくさんの意味があるけど、そのことを理解してくれてないってことかな 時計にはローマ数字もアラビア数字も日時計あるんだから様々なのを出してもらいたいけど出てこない full bodyも色々な意味があるならその色々な意味で出してもらいたいけど出てこない これ要するに今後プロンプトがよほど細かく解析されない限り、求める画像を出すのが難しいってことになる
CLIPスコアの上昇は解釈の幅が狭くなる事と同義なのかもしれん
waifuやnaiで使われてるbooruタグは素の1.5とか2.0では通用しないとか full bodyよりもfull body shotの方がいいかも?とか 3 birdsよりもthree birdsの方が正確に三羽の鳥を描くとか プロンプトを強調しようとしてスケールを上げると一部が強調されて全体的には遠ざかるとか 試してみないとわからないことだらけだよ
NAIは単語を適当に並べるだけでいいけどSD2は自然言語的に書く必要があるってことかな 英語苦手な自分にはつれぇわ……
自然言語的にする必要はないと思うよ that構文はちょっとだけ理解してるっぽいけど大体無視されるし 受け身も理解してくれないのが多いし andやonやinを増やしすぎても理解してくれないし ただ通用するプロンプトが違うだけだと思う
なんかcolabが上手く動かんと思ったが、その辺のゴタゴタまわりで DL先の仕様が変わってたりすんのかな
1111SD2きたんかー とはいえ、エロ非対応とNJショックでなんか盛り上がらんな
SD2ベースのWaifuやAnyが来てからが本番や 今は時計の針が8月下旬まで戻った状態
anythingはNAIのリークが元だから SD2ベースにはならんでしょ
しばらく2.0が盛り上がることはなさそうだな NijiはNijiで制限も多いし 大人しく1.5で適当に遊んでるわ
今更SD1.xベースのWDがきてもマージの餌にしかならんからSD2ベースの世界を見せて欲しいなぁ
>>192 そこだよなぁ。一部期待している人も多いようだが… NAIやAnythingと全く違った方向にはなりにくいだろうし、WD1.3だって1.2よりはましって判断してたわけだろ? 世界的に1.3のepoc小出しでどんどん悪くなるのが止められないモデル生成者扱いだ 学習終ったらまともになるって思いこんでる人もいたが結局そのままで NAIリークで存在意義もかなり薄れてマージ素材になってしまった感じがな WD1.4だしてSD2.0でまた学習するんかな…頑張ってほしいけどまた3ヶ月4か月後となると周回遅れ感が 中華ニキの技術力と組織力に期待だな moe-ttsで感心したがオンラインで千人規模のチームワークができる民族は他におらんやろ
VRAM4GB環境使ってA1111でSD2やろうとしたけど やっぱりうまく読み込めないんだね 最適化こないかな
自作ラノベをKindleで自己出版するつもりだけど 挿絵のイラストをAnythingにするのはライセンス関連で問題でるかな? 綺麗な挿絵欲しいけどライセンス問題は起こしたくない
AI使ってますって明記すれば問題ないでしょ 中身のデータがどうなってるかユーザーは確かめようがないんだし
そういやこのスレの前スレあたりで誰かが開発してた圧縮言語だか圧縮プロンプトだかのwebuiのextension出てたぞ
>>201 まあ確かに調べようが無いね じゃあやってみようかな >>199 AIだろうが何だろうが作品として使ったら全部自己責任だよ ライセンスや規約に書いてある通り、ドラブルはその画像を使用した人に一番の責任がある 5chだって画像リンク貼った人が一番訴えやすいようなもんで その使う画像を選んだのはあなたなんだから、金とるなら最低限の責任は取ろう 心配になる程度は知識あるんだろうし、誠実に対応すれば画像差し替え程度で済む 文章書くなら差別用語とか問題になる表現のクレーム対処と一緒だよ >>206 そうだな問題起きたら最悪差し替えれば良いか サンキュー取り敢えずはAIで挑んで見るわ オウフw 拙者のIDがHcgでござって草wwwwwww
よくある異世界ものみたいに、俺も訓練すれば無詠唱で発動できるようになるかな?
架空の絵師名で生成して絵柄を統一させるとかいう 強引な方法見て草 架空の絵師名ガチャに成功すれば面白そうかもしれん
>>199 AIでアイデアを出して自分で加筆修正すればいいだけだろ頑張れ Ctrl+A……Delete……Generate!≪詠唱破棄≫!Anything無詠唱召喚だッ!
>>202 おーついに来たか >>213 まぁマージモデル自体一人の絵師みたいなもんだしな そもそも実在絵師に寄せる必要も元々ないからそうなるわな、プロンプトだけでやるのは限界あるだろうけど TheLastBenのfast-DreamBooth colab、昨日あたりから NAIモデルのdiffuser化ができなくなってんな この際だからやり方変えたいけど、今はどこでDBやるのが一般的なんだ?
>>217 古いノートブックでメモリが足りないエラー出なくなるまでガチャすれば動く 実は前からckptの他にvae.pt, yamlを同名でそこに置くというオプションはあった 中身みても正直僕にはなんの設定が書かれてあるのか分からなかったけど SD2.0というモデルがそういう個別対応が必要なくらいには妙なことを行うモデルなんだろう とはいえyamlひとつでその対応も済むautomatic1111すごい
洞窟壁画からはや数万年、AIで絵を描く道具を人々は手に入れた。AIもデジタル描画の延長線上なのだが、いずれは手作業のみで自由闊達に描ける絵師の人口は減り、職人として彼らは尊敬されるときが来る
>>218 マジかw Compatibility_Modeが追加された頃くらいまで遡ってみるか sd2.0でなんかわかりやすく変わったなって感じられるプロンプトってどんなんになるんだろ
>>221 みんな車を運転してるのに、一人だけ馬に乗って移動してる変人って扱いじゃない?(笑) オートバイクとロードバイクとか、マウンテンバイクみたいな 趣味性の高い自転車みたいな感じじゃないかね
工業品って、最初は薄くて軽いことを売りにして出るけど、 そのうち滑り止めとか合理的な理由ではなく形を歪にしたり、手作り風の商品が出てくる。 そうなっても、自分で粘土を捏ねて釜で焼いた茶碗で飯が食える人も、数は激減するがちゃんと残る。 でも勘違いしてはいけないのが、その残った人達はプラスチックで茶碗を作っているわけではないということ。 機械生産と機能が同じかそれ以下でも手作りは勝てる、ただし質感まで同じだと勝てない 要するに普通のデジタルイラストではどんなに味があってもAIには勝てない。 「手書き」のデジタルイラストで飯が食える人はせいぜい日本に2,3人、国宝級の人だけになる。
車は自分の足で走ってないとバレるから陸上競技は滅びてないけど AI絵はバレないから手描きの絵が残るのは無理でしょ それ以前にこんなにコピーが横行してたら創作自体が無理になっていくだろうし 公式の設定画1枚あればそれを完コピしてどんなエロでもさせられますってなった日にはね
今いるイラストレーターがトラックに轢かれて未来の日本に転生したら手描き無双するのか
>>229 液晶タブレットとソフトの修正とかレイヤ分けに慣れた連中はなんの役にも立たん 色紙にコピックで描けるようならワンチャン いつのまにかAUTOMATIC1111でも使えるようになったのね、SD2.0 聞いてた通り高解像度がHighres. fix未使用でも破綻しないのは良いのかな とはいえ、やっぱマージや追加学習ありきなんだろうねぇ 1.5 2.0 ※同プロンプト&シード >>227 手描きの原画には今以上にとんでもない価値が出そうだな AIしか使えない人と、プロレベルで絵が描けてAIや3D使って時短もできる人だと、前者を使う理由がないけどな… 前者で食っていきたくて、値段を下げて対応しようと考えると、追われるように絵を生成するような生活になって結構、大変だと思う
その段階だと誰しもが簡単にAIで絵を生成してる時代の話だからAI開発じゃないと食って行けないだろ というかAI絵onlyで稼ぐなら今だぞ
今でも誰でも簡単にAIで生成できるけどなぁ… というかAI開発でしか食っていけなくなるとか、AIイラスト業界の先行き暗すぎやな
スマホカメラかミラーレス一眼カメラかの違いかな? 極めると後者が強いけど素人が使うなら前者が強いね
架空の絵師名のついでで書き込んでおくけど意図的にtypoするのもかなり有効 garlとかbouyとか結構画像のイメージが変わる
アニメはまだ無理なんじゃね? 1枚ものはヤバイと思うけど
>>241 学生でも一人でアニメを作れる時代がくるのか 新海誠が量産される感じだな 日本のアニメ技術を学びたい中国人からしたら AIは最高のツールじゃないかな あいつらに著作権って縛りは無いから とんでもない勢いで成長すると思うよ
同じキャラを出してくれないんだから無理や さっきまで剣を持ってたのにデザインが違ってたら困るやろ
シード固定のプロンプト変更でなんかうまくいかない?
キャラクターなら相当細かく注文つけとけば同一人物は出やすいけど 服装とか剣とかそういうのがブレまくる感じだわ
>>245 中国と韓国は AIの能力が十分になったら 人間の絵描きが絶滅しそう 日本は何だかんだで物好きが手描きを続けそうだが NJはちょっとまんまなんじゃないかってのがポンポン出るからやりすぎコージー感ある
個人的にはWebNAIよりも悪質に見えるんだよなそこ 版権キャラの名前出してなくても勝手に出してくるし
nijiのイラストをネットにあげてドヤってるやつは さすがに引く・・・
>>246 3DCGを元にアングルを変えるとかで対応できそう Blender使うスキルの無い人はエロゲ使うとかね コイカツとかカスタムメイド3D2とかね 二次創作なら学習画像が沢山あるからできるだろうがオリジナルだと厳しいわな
版権の取り扱いがヤバイし 多分日本の絵師の学習さらに徹底してる ダンボールとかよりも広い範囲で学習してそう いま出せる限界ギリギリの最高性能って感じ
nijiはmidjourneyの系譜のせいか呪文のチューニング難しくてな・・・ 昔の人(3ヶ月前)はよくあれで美少女とか出してたなと
ポージング指定する時にデッサン人形を 写真撮って食わせている人いる? または自分自身がポーズ撮って 写真撮っているとかある?
最近は今まで馬鹿みたいに生産してきた何万枚という構図があるから、それをベースにi2iすることから始める 粗方方向性が決まったら、手足を雑に切り取って移動させてi2iする。 自分も人形とか3Dモデル使えばいいじゃん!と思った瞬間があったけど、 結局は立ち絵出ない限り情景豊な背景が必要だし、 その背景や他のオブジェクトが確定するまでポーズも確定できない だから案外そういったのは使いにくい
すまん、初心者なんだがwiki見てDreamBoothやってるんやけど上手くいかない 途中まではうまく進んでるように見えるけど、結局modelsのStable-diffusionフォルダに完成品が出力されないし、1200stepsでやってる学習が1198で止まってる? これって何が悪いんだろうか 何かわかる人いたら教えてほしい >>264 俺もアイコラしてi2iすればわりと好きな構図作れるっ教わったから 編集しやすいように立ち絵、背景無し(もしくは単色)で 他は2単語くらいで緩めにして雑生成しようかと思ってる pink板見て来たらむちゃくちゃ技術的な話していて驚いた あっちも見てると楽しい
そりゃあ向こうは全員が『賢者モード』搭載してるぐらいだろうからな 本人達の性欲も絡んでるし、面構えが違う
2.0のwaifuみたいなの来るまでは何も怒らないだろ
たぶんSD公式は2.0の配布モデルは実質デモ版みたいなもんとして割り切って突っつかれそうな要素は排除したんだと思う できることはこれで示すからややこしいことになりそうな実用モデルは誰か作ってってことだろう 責任の分散という意味では正しい
Sd2.0はむしろCLIPの変更やらi2iの強化やらがメインで、モデルはおまけみたいなもんじゃないの?腕時計のお試し電池みたいな
でも高画質で学習が必要となると対応データセットも簡単には出せないよね
>>279 多分1ヶ月もすればチラホラ出てくると思う。 やっぱコード書いてモノとして実現できるやつはすげぇと思うわ。 1.4や1.5で吟味したプロンプトの効き方が変わって、また探し直しになったのがめんどい ネット上のプロンプトを集めるとかして、よく使われているプロンプトを引き続き使えるように調整してほしかった (Greg Rutkowskiなどの除外には反対しません)
>>263 たまにやってる 後でカメラロール見て虚しくなってるけど SD2の学習されてないものは追加学習すればいいんだけど、アウロリペドエログロ差別宗教犯罪関連のいくつかのNGワードがあるとモザイクになる仕様はかなり厄介だとは思う ただ単に学習されてないワードには反応しないだけなのに
また合成ワードでみたいなので回避するしかないんかな
HNのメジャーアップデートすごいな ものすごい勢いで過学習起こしてもととほぼ同じのがバンバン出力されるようになった
>>286 何それ? 適当に過学習しても最適化されるってこと?? sd2は参照実装みたいなもんやしな CLIPの進化は期待してるがエロがないとなんとも調べる気が起きん
ちょい前話題になったVITSはベースモデルが中国語で訓練されてる影響で訛りあるからしょぼいと思われて沈静化したけど あれって追加学習のワード数少なすぎるだけで訛りを完全に消して本人とほぼ区別付かないレベルのモデルも配布されてたんだよね 個人が趣味レベルで学習させるだけでそこまでいくから画像生成みたいに企業が動いたら一瞬で人間は攻略される 多分どっかのベンチャーが水面下で研究しててある日突然出てきて声優やV業界が一瞬でひっくり返されると思う…
>>286 extensionにあったやつ? 正式実装はされたんだっけ >>289 特定の声優の声にこだわるわけじゃないなら、既に自然な音声AIは売られてるよ >>289 声ってもろ感情が乗るからなあ 同人程度の遊びならともかく実際の声優を食うのはAIが感情理解してからになるな >>265 経験談であれだが 俺「作り終わったデータは フォルダa に吐き出してね」 AI「その フォルダa とやらが見当たらないんですがそれは・・・」 俺「あっやべ作るの忘れてた」 このあと指定位置に指定フォルダを作って もっかいやり直ししたらうまくいった。 という例もある。 案外こんな単純ミスもやらかしがちやで。 学習が終わった後にエラーが出るってことは吐き出し関連な気がしないでもないのよな。 >>292-293 既存職業を奪うかどうかは技術的にはわりとどうでもいい話だとは思うけど、「感情を乗せる」というのはそれを声優がやるかボカロみたいに調声師がやるかという違いではある >>291 これが気になるな 「自然な」と言っても大抵調音ノイズ入ってることが多いけど探してみたい 感情を指定したり文章から感情を推定したり音声から感情を読み取ったり既に出来るんだよなぁ 過小評価されてた所にある日突然ドカン!という画像と同じパターンになると思ってる W2V2-VITSモデルで1000ワードも用意してトレーニングすれば既に中堅声優レベルくらいあるからね 流石に既存の音声ソフトとは次元が違う
数年したらAIだけでアニメ作れそう 製作会社としては低コスト化で旨味あるだろうけど クリエイター守るために規制したら 中国に全部持っていかれて被害拡大しそう
>>296 感情を乗せるというのは発声っていうアナログだから出来ることであってデジタル調整は人の手では無理 AIもまだ絶対に無理 出来上がるのは○○風だけ まあ石ころの画像でも汗とか血管マークと湯気をつければ感情があるように見える 人間の感覚ってその程度のものだ。
>>299 ボカロでも感情乗ってるなぁとよく思う派だからそこは個人の閾値だろうね 技術的な話じゃないのでそれについてここで議論する気はないかな 感じ方は人それぞれと言うけれど、個人の感想を言い合うだけじゃ話として成立しないと思う
DreamBoothって正面の絵しか学習できないのかな? 背中を見せて振り向いてる絵とか作ろうとすると、途端に破綻するわ
新しいHentai Diffusionが凄いらしいと聞いて試してるけどガチで凄い ネガティブプロンプトをガッツリ入れるからか シンプルなプロンプトでいい感じのイラストが生成できる masterpiece, best quality, 1girl, hatsune miku masterpiece, best quality, 1girl, cyberpunk masterpiece, best quality, 1girl, steampunk masterpiece, best quality, 1girl, fantasy ただ、ややくすんだ色味になるから色調補正はいるかもしれない >>304 まったく同じ設定でNAIとANYも試してみたほうがいいよ 似てたら単なるマージという可能性もある 適当なvae使えばいいよ あとあのくそ長いネガティブだけどスタイルに登録しておいてオンオフしてみるといい 実は大差ない
もちろんヒストグラムが端から端まで埋まっていない時に限らず色調補正できるに越したことはない
an Asian youkai girl portrait with nekomimi anything hentai 似てるっていえば似てるが・・ ああシード同じにするの忘れてた hentai まあ似てるねw >>304 なんかanyのvaeあてないときっぽい第一印象 anyはヒラメっぽいから嫌いだ もっと丸っこいのが欲しい
結局リーク今んところNAIありきだね waifuは逃げちゃったし
waifuって1.4もうすぐじゃなかった?いま出しても他のが強くて知れてそうだけど
waifuは個人だろ? よくやってくれたわ まあ総合的な品質はNAIには適わずともwaifuはwaifuにしか出せない質感もある
>>309 マージモデルでクオリティ落ちてんじゃねコレ anyでも画家名いれて工夫すればもっと柔かい感じにできる ミュシャの名前入れるとなぜかロリロリ度が増す
>>318 ミュシャはSD出た直後に流行ったね 慣れてくると画家名入れなくなるが anythingはただ美少女作るだけだから飽きた 新しいモデルデータばらまいてくれ
昨日、極めたとまで思ったのに ワード条件変えたら再現度ダダさがりして ショック。 これ200枚くらい描けばまた クオリティ上がるのかな?
同じ設定でモデル比較 それにしても こんなに短期間でお絵描きAIがポンポン出るんもんなんだな 数年後が愉しみだや
>>324 今のペースでいくと2025年にはシンギュラリティを迎えるという論文が出て、どうやら確からしいと言うのがおおかたの見方らしい 絵師の仕事どころの話じゃないらしいね。あらゆる職業がやばい お絵描きAIの成功もあって、どうやってAIを巨大化させればいいかがハッキリしたんだってさ ワイは底辺やからAIより時給やすいだろうし安泰やわガハハハハ
>>325 でもAIに仕事取られるかどうかは別として、 タダのSEEDガチャにプロンプトの指定で人力これだけ使うAIって何だろうとは思うわな 指定単語つかった学習画像の非可逆圧縮を、Eta noiseひっくるめたSEEDつかって解凍してるだけなきもする >>325 その時代が来たとしても著作権があるだけクリエイターはマシなのかもね anythingは変わったポーズのモデルデータ入ってないからか奇抜な絵が作りにくいから飽きる
>>332 俺はNAIで構図出してからi2iでモデルだけ切り替えて作ってる 1つのモデルにまとめたいっていうのがもう古いわな 学習してない画像に似た絵を無理やり引っ張り出そうとするより 特化したモデルをシーンや物足りない時に切り替える方が速くて楽 ローカルDBとかはもともとそういう発想だしね
言えてんのこれだけじゃねえか Intelligence is constrained by P (cumulative optimization power) P is predictable (Moore's Law), and postdicts the history of AI/ML progress Future extrapolation predicts AGI in roughly a decade, absent unlikely defeaters DL systems already seem competitive enough with equivalent brain modules and animal brains of similar P values; DL architectures/algorithms will only improve It is unlikely that the human brain is highly exceptional other than in P 特に最後のが論説見ると疑わしい 実際の予測値はこれの次に書いてあるけどなったらええなーぐらいの適当予測やん 草生えるわ
革ジャンのムーアの法則は終ったは値段を上げるための方便だと思ってる
AI凄いって盛り上がる間隔が狭まってるよね 後何十回か盛り上がったら毎日凄いとか毎秒凄いとかになるかも
凄すぎて凄さを忘れるくらいまでになると もう生活に密着した車みたいな話になってくるんだろうな
シンギュラリティやらすぐ強いAI出現やら言い出す人達は どうもスケールさえあれば届くと思い込んでる GPT-3の時点で普通の個人の語彙を遥かに超えているが 統計的オウムに過ぎないと揶揄されるレベル
GPT-3といえば某界隈でのAIのべりすとの活用例を見てるけど 脈略のないギャグの連続を書くことしかできないなという感想 専門的な文章を書かせようとしても、すぐに「〜だそうだ。」「〜なんだって。」のような ふさわしくない表現が出てくるし
現状は人間が学習モデルを作ってごく限られた範囲に適用しているだけ 画像生成に限ってはGoogleがDeepLearningで優れたモデルを作ってからある程度予想できた範囲内のこと 人間のようにふるまう汎用的な人工知能は試みはあっても進展はないよ ただ、局所的な能力を不可逆的に進歩させていけば、神のような超知能の片鱗は見えるかもしれない
局所的な能力はただの弱いAIでしょ そもそもハイスペックな機能なんてなくても 昆虫レベルの脳回路ですら見事に難しい制御をやってのける パラメータ・データ量・マシンパワーのド根性は確実に何かを見失ってる
Photoshopのコンテンツに合わせた修正ツール自動選択ツールがどんどん進化してるのと同じことしているんだと思ってる 今までスタンプでペチペチ、荒く選択してパスで選択してマスクで塗って消してみたいなことしてたのに、ほいやっといてねってしたら綺麗にしてくれるんだもん お絵描きツールも一緒でしょ、こうしたいからやっといてねってしたらやってくれるみたいな 手間を減らしてくれるってのがありがたい
強いとか弱いとか関係ない。 来年には動画、動画の次はアバターや 大人気AIVTuberが無限に生放送する時代がすぐ来る。 その時にそのAIと自分を比べて、 どちらが「知的生命体」として優秀かと考えることになる。 あいつには汎用性はない ゴミを拾ってゴミ箱に捨てれるだけ人間の俺の方が優秀やと思ったって惨めなだけ。 まあまだその段階だと、人間同士でも自分より優秀な人を知る機会はあるので得意不得意論でスルーもできる。 でもそこから数年も経てば、種族としてどうあがいても立ち向かえないと嫌でも分からされるときが来る。 その時人類は「サピエンス」を捨ててただの「ホモ」になる。
失業する人大量に出てくるならそれはそれでお仲間だしいま好きなことやってりゃいいや 俺の仕事もどうせすぐAIで代替されそうなもんだし
AIに肉体労働ができるかよ 巨大ハードウェアに生えたカビをこそぎ落とすのが人間の次の仕事さ
体内電流あげるからマトリックスの世界に行かせてくれや
こうしたいの方向性までAIが考え出したら人間用無しだな
車の組み立てができるなら肉体労働もそのうちなんじゃないの
なぜか絵とか音楽だけやたらと騒がれてるけど他の分野も危ういの気づいてないんだよねみんな
>>355 証券取引ではとっくに実用されているし、プログラミングの自動化も話題になっていた デジタルに近い分野ほどすげ替え効くからな ブルーカラーはアナログだからかなり後になるだろうが
数字いじりとかコードいじりなら明らかに得意そうなイメージあるからじゃないのかね クリエイティブと言われるアート的なのは人間が優れているんだって思ってたのに なんか急に抜き去ろうとするのはちょっと待てってなるよ
AIは数字いじり苦手なのでは 数学者がAIに置き換わったって話は聞いた事ない
>>360 まだ閃きが無いから既存のデータ元にしないと出来ない AIが閃きを覚えたらその時点でシンギュラリティ まあでも音楽とか絵は今後超進化して何でもできるようになっても、この人が直接描いた絵がほしい!直接作曲した曲聞きたい!みたいなのあるからよくね、著作権も発生するし仲間内で遊べるやん趣味として この人がする事務処理がいい!この人の書いたコードがいい!みたいなのとか絶対にないわけじゃん…
>>352 日進月歩の技術発展を知らないでお絵かきAIの最先端を上っ面だけ追ってるから こういう人たちはすぐ失望期に入ると思う 今頃GPT-3のアプデ来たんだけど、 GPT4はどうなったんだよ
この人が~ってなるのは、あくまで今現在は多くの人にとって深く好きになれる存在が人間しか居ないからでしかないでしょ 別に遺伝子に人間の形のみを好むように組み込まれてるわけでもないし、人間だって千差万別じゃん 人間より良いものが出てきたら基本的にそっちに流れるというのが普通だよ
それ以上のどっちがどうだは宗教戦争になるから踏み込むな
どっちでもええんやが スレチなんで確かなんか総合とかあったやろ あっちで好きなだけ話すと良い
NAI並みのエロ描写が出せる一般公開モデル(ckpt)ってないのかな Anythingだと全く出ない
俺も知りたい anyとNAIでマージする以上に良い奴とかないんやろか
waifuなら、それでもwaifuならきっと あとエロならエロ板で
>>369 anythingのエロは普通に出るしHDなどと比べれば非常に高品質と感じた もしかして出ないというのはニッチな特殊性癖系かな >>372 ニッチかどうかはわからないけど 裸だけなら出せるが、sexは無理だった DBの追加学習に結構すぐに限界があることがわかったから、今のところマージ遊びに落ち着くなぁ 落合陽一が言ってたシンギュラリティと言うからには別のベクトルの論拠だよ。一人が騒いでるだけだけど。一応。この辺も面白いよね。 HD17は良かった、教えてくれた人ありがとう。
>>373 エロスレにお行き、そこに救いあったりなかったり ANYは男体マジで出ん 女が勝手にビクンビクンしてる
お前らってステップ数とスケール数どうしてる? 俺は基本的にステップ100・スケール10でやってるけど出したいものによって細かく変えたほうがいいのかな
>>379 そこはもうろくに画像生成AI触ったこともないアンチAIの馴れ合い所と化してるからなあ 攻撃性強すぎてとても総合スレとして雑談できる空気じゃない いやスレチなんだから他所行けよ アンチ馬鹿にしてるけどルールも守れない奴よりマシだわ
>>378 これなー 公式で変更してくれるならいいんだけど個人で変更するとアップデートとかほかのスクリプトとかに影響ありそうでこわくない? SDの学習で使ったCLIPから変更して良くなる理屈が分からんのだが…。 学習時に使ったCLIPの埋め込みに対してunetを学習させてるんだから、変更すると出力がややズレるのでは? CLIP自体の性能とSDの出力の品質は別問題じゃないの?
ふと思ったけど皆promptどんなの打ってるのかなって。 自然言語を使ってるのか、それとも単語をカンマで区切って使ってるのか。 前まで英文を使ってたけど単語方式にも興味が湧いたんだ。
>>384 nai系やwaifuはdanbooruタグで学習してるからカンマ区切りのほうが伝わりやすいんじゃなかったっけ カンマは一語にカウントされるから不要と理解してる CLIPの仕組み上、基本単語の羅列。たまに前置詞入れて様子見が効率的かな
>>383 なんUの方で執筆者の勘違いとか指摘されてるな そもそもCLIP性能の調べ方がわからないから検証できないわ NMKDが1.71になって+/-表記に変更 従来の記法は勝手に直してくれるので楽チン あとやっぱりローメモリモードではVAEやネガティブプロンプトは使用不可のようだ でも今までローメモリでしか動かなかったのに(当方3GB)ノーマルモードでも動くようになった 軽量化に成功したのかしら?
stable diffusionでレオタードをローレグ化してくれるワードとかってありませんかね? lowleg~ってしてもハイレグになってしまう……
>>378 変更内容おかしくないし良さげな内容っぽいから試してみた。 プロンプトではsmall breastsと書いてるんだけど、変更後は胸がちょっと強調されてサイズアップしたっぽい。あと表情が少しだけエロっぽくなったかも? エロ目的なら変更したほうがちょっとだけ良くなるかもと思った 変更前 変更後 clip変えるやつかなり効いたよ とても聞き分けが良くなって使いやすい 強調しなくても効果が出るようになる Anythingで特定のワード入れると問答無用でロリになってしまう現象がかなり緩和されて満足
>>378 CLIP変更の件で、奇形になるseedのを試してみた 奇形回避の効果すごいぞ。CLIPは変更したほうがいいな 変更前 変更後 >>392 伺いたいんですが7-10g位のckpt使ってもmost featuresで動作していますか 私は1.7でok.exeが多重起動するため1.7.1にアップデートしたら ok.exeは変わらずpython.exeも多重起動するようになりました >>393 そゆのはここよりなんUかpinkできいたほうがええで 正常に出てたシードが奇形化するオチじゃねえだろうな
>>378 他の人が言うように破綻は少なくなった感じ 満足したものが、ほぼ出てくる プロンプト1 P : a wizard girl swings a bluish fire glowing magic sword with blue fire trails, loli, loli, loli, kawaii, detailed NP : bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts CLIP変更前 CLIP変更後 プロンプト2 P : big sister is supporting little sister from behind in steampunk styled wizard atelier, little sister is casting a magical spell with a stuff, loli, kawaii, little sister has long dark blonde hair, big sister has long silver hair, detailed, from under NP : bad anatomy, low quality, 3d, lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, missing fingers, bad hands, missing arms, large breasts CLIP変更前 CLIP変更後 xはなんとなくCLIP skip入れた yのモデルはHentai Diffusion1.7とtrinとかwaifuとかを混ぜたもの シード値はグリッドの場所ごとにすべて共通 SamplerはDPM++ SDE KarassのStep数20 CFG Scaleは4.5 サイズは768x512 自分でもやってみた NP共通なのはただの横着 全く当然のことだけどCLIPの性能が高い(?)からといってかわいい絵が出る訳でもなければ 銀髪と金髪をくれと言って出てきた画像に銀髪しかいなかったり金髪しかいなかったりするのはどっちのCLIPでもあったり
まあCFGスケールとかほかのモデルとかいっぱい動かして見てみたいパラメーターはあるんだけど時間かかりすぎる A100民検証おねがいします()
>>393 何度も出てるけど英単語は利用されてるものの、英語を理解しているわけでもエミューレートしているわけでも 英語全ワードが登録されている訳じゃないから… Danbooruタグ使いたいなら、NAIやNAI-lastestの再学習版のAnything、Gape60、EimisAnime、Elysium等のモデルを混ぜるかそのものを使った方が早いかな WDもあるっちゃあるが、タグをアルファベット順に並べたほうがいいとか、生成そのものが残念って言われてるから… 基本的に学習時に登録されている単語(または関連)でしか出てこないよ 子供向けワードや、SDオリジナルそのまま使う人は嫌がるロリワード使った方が出やすいかも ハイレグいらないならDBでレオタードをローレグの画像で再学習して上書きしてしまえばいい メモリがないならDAやHNでもできる マジレスすると英語にlowlegなんて単語はない 英語の水着の通販サイト調べてなんで呼ばれてるか調べればわかる メーカー名を指定するのが一番早い
DreamBoothってCLIP自体も学習してたの知らんかった このプロンプトにはこういう絵を割り当てますってこと自体を再学習してるから 画風や絵描きの癖(パンスト好きとか)まで再現してしまうんだな その分汎用性は大きく下がると
AIはツールだからそれ以上でもそれ以下でもない 道具である以上包丁で料理するのも人を刺すのも使う人間の責任 ただそれだけ
>>412 これ海外で大炎上してて面白い セルシスはバカやったと思うわ それで離れるようなバカは客じゃねえんだろう原始人相手にしてても無意味だからな
それは自己欺瞞だな 信念を貫いて筆を折るほうが清い気がする
フォトショに戻ればいいんじゃね? もしくはSAIかw
PhotoshopはAIでは老舗 SaiならAIフリー
>>420 クリスタは月額100円から利用できるのにSAIは購入で5500円するのか 貧しさに負けた イラスト界隈で今AIがどんな立場にあるかセルシスが知らないはずがない その上でSDを導入したというのはもうそういうことだ ツール提供側はAIを完全に是としている まあエンジニアと絵描きでは価値観も大きく違って当然だ
>>412 これローカルだよね? グラボないとまともに動かんのでは ローカルじゃなかったら無料GPU提供サービスで笑うしかない ただしモデルはSD
絵描けないけど手だけは自力で修正ってできるかな? ハードオフの青箱に数百円であるペンタブ買ってこようかな?
SDがクリーン化アピールしているのはclip studio以外にも組み込んで使う話しが来ているからではないかと予想
クリスタ使ってる人達ってマジでグラボって何?レベルの人多いからね まずローカルな訳が無い
>>428 さすがにそれはねーよwwww 絵描きは焼肉食べながらゲームするからな >>426 結構難しいけど修正だけならちゃんと自分の手とか真似したい手の絵とか用意して見ながらすればいけると思う 手全部消しちゃってそこに演技加えるとなるとかなり長い修練がいる クリスタのSDは当然だけど画像生成はセルシスのサーバ側で実行するんだろ? 普通に著作権含めてセルシスに責任帰属すると思うんだけどユーザーに転嫁は厳しくないか
>>430 サンキューなら買ってくるわ ハードオフ良いぞジャンク扱いの動く機材多い デッサン人形も550円で売っていたから数日前に確保した クリスタでSD2.0ベースならクリーンかもしれんが背景作るくらいしか用途がないな
>>435 もうちょっと細かく指定すれば色々な線画出来るだろうけれどline artで生成するとこんな感じ クリスタは写真から線画作る機能あるから最初から線画作らなくてもいい
普通に色付きで生成して輪郭線抽出でええやん きちんと実装すればペンで書いたみたいな線になるよ
>>436 印刷した紙を木の板に張り付けて上から彫刻刀で掘ったら良い感じになりそう >>436 いや違うラフから線画生成して欲しいんだよ透過でな 背景透過した線だけのキャラって書いてくれないんだよな
>>436 趣あっていいね 和の冬景色作ってみるわ いやそんなに無茶じゃないかもしれんわ ラフ渡してラフ描いた人の絵柄通りに線画させるとか人間でもできるし
線画”風”とかラフスケッチ”風”じゃなくて、ラフスケッチから必要な主線のみにクリンナップした状態がほしいってことだろ、たぶん ラフをmonochromeやsketchをプロンプトに入れつつi2iしてコントラスト調整、再度i2iさせてみるとか?
waifu1.4は、やっぱwaifu1.3寄りになるよね・・・ 1.2をアップデートしたかったら、自分でマージするしかないのか・・・
線画加工するツールなら別にあるだろ 一つのツールにこだわらないで手を動かして探せ
ラフから線画とかそれこそペイントソフトに高性能な専用AI投入されそうやな
少し前にNovelAILeak使ってるサービスにNovelAIが仕掛けた話は出てたね 海外で結構初めの方で拡散してたところもNovelAILeakのTorrent関連削除してるのは見た Anythingの情報は残ってるけ、まぁ集金システムとして普通の行動ではある
>>452 そのつもりで話してたんだが理解されなかったから身を引いた >>457 これです! そういえばcolabのGPU見てなかった、いつも12GBあるのが当たり前だったから… 12.68GBあっても駄目だわ、fast-stable-diffusion側で消費GPUを増やしちゃったのかな Google drive上に固定環境作ってcolabからDBする方法を確立しとくべきだったな…
>>461 CPUは現行世代のデスクトップ向けなら何でもいいぐらい。 とにかくGeforceのできるだけ上位のモデルを入れるといい。 ただし冷却性能に気をつけた方がいいかも。 ゲーム時でもGDDR6Xメモリのジャンクション温度(一番熱い部分の温度)は100℃ぐらいになるんだけど、AIで自動生成しまくってたら112℃まであがってワロタ。 別にそれで壊れたとかいうわけではないんだが。 vram12gbの3060だとどのくらいの解像度の画像が作れるんですか?
1500×1500がつくれるんですか? 検索すると512よりちょっと上みたいにかいてあるんですが
>>464 冷却性能と考えるとCPUの性能は控え目の方が装置全体の発熱は減るとも考えられ >>465 2048x2048もいけるよ。 この時は手が増殖しちゃったけど…… rtx3060でこんなに細かい画像つくれるんですね。すごい
オッサンゲーマーというサイトではvram12では、640までしか作れないと書いてあるんですが、何か間違っていますか 高解像度のエロ画像がほしいと思って vram24gbいるのかなとおもってたんですが... rtx3060で十分ですか?
最近はvramの利用の効率化が進んでるので、昔の情報はあまり当てにならない。 12GBあれば概ね問題ない(学習やろうとすると足りない場合もある)けど、3060だと使ってるうちにもっと速度が欲しくなる……かもしれない。
そんなに進歩してるんですか。あの記事からたった2ヶ月なのに
あと、ダイレクトに出せるのが2048x2048くらいってだけで、一回出したのをアップスケール&分割描き直しという手法もあるので、これだとどれだけでかいのでも描ける。
4Kだってヘーキヘーキ pixivに投稿されてるエロ画像がみんなサイズ小さいので、 それなりの人はrtx3090使ってると思ってしまいました
>>477 ほう綺麗に出るもんやな これ3060? 最近初めてstable diffusion web ui (automatic1111)を導入して、画風の学習をさせようとしているのですが、全く上手くいかなくて行き詰っています。原因が分かる方いますでしょうか? https://wikiwiki.jp/sd_toshiaki/Textual%20inversion 上のサイトを参考にして、Trainタブから画風を学習させようとしています。 設定としては、373枚の画像(もともと186枚の画像だったのですが、prosessで1:1にトリミングした結果ほとんど2倍の枚数になりました。)をanything-v3.0をもとのデータとして使い(?)、Prompt template fileはF:\stable-diffusion-webui\textual_inversion_templates\style_filewords.txtに、embedding learning rateは0.005としています。 それで今49000step目まで行ったのですが、下の画像のように全く似た感じの絵柄にならなくて困惑しています…。 https://imgur.com/a/mBapB0u まだstep数が少ないからこんなにもぼやけているのでしょうか?それともそもそもの用意していた画像や、設定が悪くて失敗しているのでしょうか? よろしければ教えて頂けると嬉しいです…!!m(__ __)m ベースをNAI同じ設定で回して見たら? それをAnyで適用して使えるか試してみ Anyはベースに向かない
8GBで十分 なぜかというと背景って書き込みが少ないのでGanで拡大できる キャラの各パーツ毎に最大解像度でinpaintしてganで拡大したら背景にくっつける形になる
3060はホント同価格帯の代わりがないのに安くて優秀で庶民の味方 在庫少なくなってきてるから迷ってる人は買っといた方がいい 2060の12gb?3xと大して変わらない価格の割に性能低くてtdpの高い知らないコですね
悲報 Waifu Diffusion 1.4、また延期 今度は12月26日予定
NAIとかNJのクォリティみて調整してるんだろうな
誰かがwaifu2.0みたいなのを作ってくれないと 2.0普及していかないだろう
>>479 3060だけど、SD upscaleだから3060かどうかはあまり関係ないかな >>485 とりあえず今あるの出して1.5にすりゃええのに っていう話でもないんかな >>480 画像が違うのはSEED固定してプロンプトをしっかり入れてないからだと思う トリミングして胴体切れたりしてるのは足や手が空中に浮かんだり切り株状態の下半身を学習するから慣れるまでは除外したほうがいい 画風の基本は顔の構造(ドラマや映画とかで顔承認で使われるようなやつ)と髪の毛の塗なんだけど Anything-v3はNAIのデータ潰して今の塗やら指先等の構造データを追加学習させた奴だから学習させにくいのもある ってHN >>484 各パーツは長辺1k-2k程度あれば十分なので8GBで足りる tagger使おうと思ったんだけどエクステンションからインストールしてstable-diffusion-webui-wd14-taggerとmodelsに解凍したフォルダを置いてもinterrogatorにWD14が無いしinterrogateを押してもコマンドプロンプトは反応しないんだけどフォルダの置き場所間違えてる? >>491 失敗作を世に出したら、本人たちの信頼が失墜するからダメ 1.3で既に地に落ちてる? それは知らん 1.3だいぶよくない? penultimateはそれよりいいし
初期NAIでもまだまだやれることありそうなのに ドラクエ1クリアしてないのにもう2が出んの?って感じ
やれることはあってもできないことは見えてきてるやろ
>>494 モデルはモデルフォルダ直下じゃなくてdeepdanbooruの中に入れるはず。そんでバックエンドごと再起動しないとモデルデータを読んでくれない。 残念ながらうちでは8ギガメモリなんでモデルデータにVRAM占有されて最高解像度が落ちちゃったので使うときだけ入れることにした >>495 えぇ……1ステップで画像出るってどういうことなの…… waifuの延期はしょうがないだろ NJとSD2.0の結果見比べれば画像生成は権利無視の過剰学習/ファインチューングによるコピー というダーティなやり方でしか上手くいかないとはっきり分かった まともなやり方してたら競争できないから全部やり直してんだろ
waifuが揃えた学習データーセットでSD2.0ベースで学習させるだけで2~3週間はかかりそう
Waifu作者を応援したくなった 支援サイトやってるんだっけ?
>>495 2.0で768×768で出力するようになったら1枚出すのにかかる時間が2倍ちょいになってしんどーと思っていたから 高速化は嬉しい がしかしどういう技術なんだろうか VRAM40GB以上必須とかじゃないよね? >>495 まじならRTX2060-12GBあたりでも実用範囲じゃん ただ新規ならたいして値段も変わらない3060を買うだろうけど
>>508 現状のSDの出力を教師データに使った生徒モデルみたいだな だとするとむしろ必要VRAMは小さくなるんじゃないのか? 大分前にモデルデータを100MB位にする、って言ってたのはこれの事なのかもな Emadのツイートは虚構新聞より少し信頼してもいいってレベル 期待してはいけない
論文で性能比較してるって事はもうモノは出来上がってるんだろうから これは期待していいんじゃないのか?
>>517 おお、ありがとう 装飾めっちゃ残ってますね そのヒントでパラメータ変えていじってみます Dreamboothに手を出してみたくてスレとgithubの情報を追っていたのですが ・AnythingよりNAIモデルの方が学習に向いている ・ローカル環境でvramが12GBない場合wsl2上でubuntuでdeepspeedを使って本体のRAMで代替する方法があるが半精度モデルになる/wsl環境を使わないWindowsではDeepspeedの依存ライブラリが対応しないので環境構築ができない ・現在のfast-stable-diffusion(>>453 )ではvram使用量が大きく無料プランのcolabでは動かない/有料プランでもGPUガチャになる? ・NAIモデルをdiffusers形式に変換するには変換スクリプトの書き換えが必要 という理解で良いでしょうか? ・diffusers形式に変換する際にvaeのマージをするとの情報が前スレにあったのですが、このやり方が調べても全く分からないので分かる方いらっしゃいましたらご教示いただけないでしょうか >>519 vaeのマージが必要かどうは知らんけど、 マージしたいならnaiのvaeをckptのfirst_stage_modelを上書きすればいいだけじゃないの? vaeのキーの前にfirst_stage_model.を付けてそのまま上書き或いはマージ >>521 試してみようと思います 情報ありがとうございます SD2.0なんか新しい話はないかなあ とりあえずはWD待ちかなあ
SD1.4も、アニメ絵だのあんまいいのが出ねぇなとやってるところにWD1.2がきて派生モデルが盛り上がっていった感じだし、 まだまだこれからだろうな2.0も
>>499 割とそんな感じあるな 今あるものをまだ全然使いこなせてないのに、次々出てくる 新情報追いかけるだけで手一杯 webuiのdreambooth見てたら更新来てる! コンセプト1,2,3ってあるけど、もしかして3つまでの概念を学習できるってことかな?
2.0は学習させるとかなりいい感じになるって言われてたし年末くらいにはそれなりのものが出てくるんじゃないかな
stable diffusion のtrainで画像学習させる時に、画像ごとにつける(?)プロンプトってどんな感じにしてますか? 自分は余り文章を気にせずに、『a naked girl with blue hair and blue eyes is posing for the camera with her hand on her head, green hair ornaments on her head, expose armpit』 という感じに、画像を加工する際に抽出されていたプロンプトを修正⇒そこからカンマで区切って短く追加、としているのですが、これで大丈夫でしょうか?
>>528 hypernetworksの学習? その書き方で普通に生成してみて、学習画像の要素を満たすような画像が生成されるならそれで大丈夫 背景要素とかもあるならそっちもちゃんと書いておく >>529 今回はキャラを学習させようとしてて、textual inversionでembeddings(?)の学習をさせてます >>532 それな。初音ミクを学習させるときにプロンプトが「green hair hatsune miku」だと green hair と書いてあるから緑髪の絵になってることになってしまう hatsune miku から緑髪が出てきたことにならないんだよな hatsune mikuだから緑髪ということにしたいなら、green hair と書いてはいけない ちょっと考えたらわかることだよな >>533 今まで勘違いしてました... そしたらプロンプトは構図とかだけにして、キャラに関する事は書かないほうが良い感じなのでしょうか? 学習素材上に存在してるけど 学習の本筋とは関係ない要素を列挙するような感じやね TI、DAの場合は 効果的にタグ付けするのは結構難しくて、下手にやるくらいならタグ何もなしの方が上手くいく
>>530 TIの場合は、HNのように全部盛りのキャプションを書かない。 学習させたくない要素だけを学習画像のキャプションとして書く ポーズがどうとか手の位置が…みたいなのはキャラ特徴としては覚えさせたくない要素としたら、 posing for the camera with her hand on her head,expose armpit を学習画像の組になるキャプションとして書くみたいな感じ あと、背景も大抵の場合は必要ないから、例えば白壁背景なら white wall background とかを足しとく なので blue hair and blue eyes を書いちゃうと、キャラ特徴を覚えなくなるんすよ。ややこしいけど ほんとややこしいな!前にテンプレート弄ってみた時に全然学習しなかったのはこのせいか
>>536 俺のケースだと、SPY×FAMILYの嫁のヨルの黒い暗殺服姿を学習させたくて 服に関する単語は入れないようにしたら、見事あの黒い暗殺服を学習した ただ今度は、脱がせたくなって naked yoru とカッコ付きでいくら書いても絶対に脱がないモデルになったw 少ない枚数で学ばせる方法の弊害だろうねこれは もっと多い枚数で学習させる場合は、さっきのミクの例だと 多くの教師画像でgreen hair hatsune miku としておけば、 『hatsune mikuといえば green hairだよね』という共起関係をモデルが学習するから、green hair と書かなくても高い確率で緑髪になるし、bold hatsune miku と書けばつるっぱげにもなる 多い画像枚数で網羅的にタグ付けて普通に学習させるのが、一番応用の効くモデルになるってことだね 俺は実写顔学習させて遊んだりするのだけど、インスタとか盛った写真の影響を強く学習しちゃう場合は、 big eyes とかを予め仕込んでる。美人にあえてugly face とか入れといても案外効果あるっぽい high key photo とか書いといて、白飛び気味の画像を補正するような効果を入れることもある
>>540 なるほど黒い服をきているヨルしか知らないわけか >>540 そこは顔と服分けるとかするしかないけど大変だよな エロスレのほうでTIで複数キャラ描き分けるのやってのけてる人いたけど、学習作業がしんどそうでとても真似できんと思ったw >>543 なるほどすごいなw ほどほどの絵を描かせるなら簡単なんだけど、細かいところまで思い通りにしようとするとまだ大変だね ただ、人間に指示するのと同じ程度の言葉で伝えられるようには、遅くとも1〜2年くらいでなると思う あと3年でシンギュラリティなわけだからね 再現率上げれば汎用性が下がるからな DBで専用モデル学習させていって、同時に出すのは諦めた方が中途半端にならなくて済む いいマスクもあるし合成したほうがいい物ができる。どうせ奇形や光源も狂ってる物ばかりだから修正はしないといけないもんな
>>541 逆の形容詞で特徴を強化させるのか。それは面白いね 美人の写真をブスだと学習させれば、もっとすごい美人が描けるようになるとw 学習した美人をさらにブスだと学習させて何度も繰り返したら、最後はどんな美人が出てくるんだろうなぁ >>538 させたくない要素を書くの? はああ ほんと学習はワケわからんわ 初めて学習する人は、タグ付けしない方が上手く行くと思うよ データセットがいい感じに偏ってなければ(関係ない要素が分散してれば) 良いわけだし
>>542 というか、AI的には「特定の造形の女が黒い服を着てる」 という状態そのものが「ヨル」なんだろうね 「黒い服のヨル」にすると「赤い服のヨル」も「青い服のヨル」もいるからそこは特徴じゃないからね、って伝わるわけやね
今ダウンロードしてるところ 既に持ってるモデルをわざわざダウンロードし直して無駄に時間くってるから一眠りしてから触る
俺はフォトショと1111連携させるツール使ってるな。意外と便利
お守り代わりレベルに使われるがmasterpieceって結局何なんだ? 元になる絵みたいなのとかあるのか
colabの1111でDreamBoothをやりたいんですが、Extensionからインストールしてもタブが追加されません Apply and restart UIを押すと、WubUIが停止してしまいます どうやればいいのか誰かご存知でないでしょうか? colabの方でdreamboothをインストールするように書き加えたら動くんじゃね clone dreamboothのurlで
>>556 NovelAI特有のタグ 色々綺麗になって安定するけどその代わり人物の顔が通称マスピ顔と呼ばれる平均値顔になる >>556 人間が「この写真いいね!」ってどれくらい感じるかをスコア化するAIがあるんだよ。その評価点が高かったのにマスピってタグ付けしてるだけ 同じように画質をスコア化するAIもあるし、それでハイクオリティやロークオリティってしてる 学習させてる人(NAIなりwaifu)が学習データを事前処理でそういうタグ付けしてれば1111でタグが使えるし、処理してなければ使えない >>559 マスピって単語、普段全然聞かないけどここから来てたのね >>556 単純に「傑作」タグや 色んな「傑作」タグの付いた作品の”傑作の顔”を学習してを出力してるから「マスピ顔」としてAIにジャンル化されてる 大雑把に言うとこう >>383 基本マージとか使うのはprunedでいいのかな 差がよくわからん masterpieceはSD出たての頃のグレッグさんみたいなもんやな 画風は一定の方向に寄っちゃうけど、クオリティが上がるから使っちゃうみたいな
>>561 SD1.4だとStyleっていうかmuchaとか画家の名前つけて絵画の画風をまねしてた名残 NovelAIが絵画いらんのや実写もいらんのじゃって追加学習した結果「masterpiece」タグに版権キャラが居座っている感じ 今じゃmasterpieceタグ使うのはNovelAIのリーク品の定番 AUTOMATIC1111の拡張のNAIConvert使ってNovelAIのプロンプトを変換する時付けられる InvokeAIにモデル追加するのさては結構めんどくさいな? AUTOMATIC1111みたいにvae切り替えてランダム色変換器みたいに使うことも出来なさそうだし 自分はたまに気分転換に触るくらいで終わりそうだ
なによりWebUIのExtensionたちを手放すのは惜しい 外部プラグインとスクリプトで武装したAftereffects vs Fusion Studioみたいだ
>>569 仕事によって使い分けろってことだな まぁその場合オレはAEだけで強引にやるがw 久々にNobelAI契約したがなんか使い勝手悪くなってね 精度もおかしいし なんか規制きたの?
InvokeAIのモデル追加に使う!import_model path こいつあれかAUTOMATIC1111で使ってるフォルダのモデル指定してもインポートできるのね 容量増えないしこれは助かる
>>573 日和ってすまん nsfw、ロリ2次絵対応だぜ!! >>564 逆 マージで使う時にpruneは使ってはいけない マージする時はフルでマージして出来上がったものをprunerで生成にほぼ出てこないウェイトを間引く >>573 作例が大量なのを見ると例の20倍速サンプラーの実装だろうな ここまで高速化すればCPU生成でも十分実用できそう なお、1ヵ月前に3090 Tiを買った俺は精神的ダメージを喰らいそう >>575 今のうちにちゃんと手首のメンテしとくんだぞ? 個人での学習用途なら3090TIは今後3年は最上位クラスだから…
来年の4060VRAM24Gで逆転ホームランを期待してる
そういう上位機種が売れなくなるようなことは死んでもやらん
pixivでみる絵のプロンプトってどこで勉強できるか教えてくれ
VRAM24GBの下位モデルなんて出るわけないんだよね・・・。
1111版やってるんだけどmeituみたいに自分の書いた絵を変換してみたいんだけどできる? それとも他のやつが必要ですか?
ここ数年VRAMの容量なんて飾りだと思われてたからな
VRしてる人なら『VRAM6GBぐらいは最低欲しい』っていうのがあったけど、画像生成で一気に要求増えたしな
3060の12GBが画像生成にハマり過ぎててな~ 3070から買い替えたくらい
>>590 できるけどmeituはオリジナルのモデル使ってるから同じような学習させたモデルとプロンプト他設定も知らないと同じ風にするのは難しいよ 自分の好みのモデルさえ用意できれば、meitu以上の事もできるという事だけど >>588 pixivよりも雨後の竹の子のように出てきたAI絵の投稿・コンテストサイトを漁るのがいい ちゃんとプロンプトも公開されてる。 登録必要な所もあるけど、大半は登録せんでも視れるのがほとんどだし AI絵なんて絵の描けねえ無産が自家発電するためのツールだろうに それで金取ろうとしてる奴らようやるわ というかテキスト入れる手間すら惜しむ怠け者が多いのか
2,3回ポチポチしてドヤっていう層向けとしては大成功だろう テキストなんて入れてる時点でスマホ層からは敬遠される
>>594 別に同じじゃなくてもいいんで 用意した絵を変換してくれれば ググったけどやり方わからなくて >>599 前に上がってた画像を借りると… これを こうしたいって事なら、i2iって機能だからググれば情報はたくさんあると思う 3090tiなんかで回してたら電気代半端ないよ 3090で回したらソフト読みでグラボだけで400w超えてびびったもん 12Gで済むなら3060の方が幸せになれる
3070 8Gの俺の複雑な心境 まさかVRAMがここに来て重要になってくるとは
ここで3060tiや3070のVRAM増量版を出すどころか 3060を8GB廉価版(廉価とは言ってない)に置き換えるNVIDIAマジ鬼畜
出た当時はスペックに見合わず無駄に多いVramを活かしきれない微妙なグラボって扱いだったけど、まさかレア扱いになるとはね
上位のGPUは電気代もだけど電源がな… Powerlimit使っても瞬間的にはMAX行くとか聞いたが本当かは知らん 事実なら1000W級の電源買ってこないといけないし
普通のゲーマーはVRAM容量よりバス幅・アクセス速度の方が重要だからね。
>>605 そうそう、つよつよビデオカードをただ買ってくればいいってわけでもないんだね 大容量の電源に換えるだけでなくckptがファイルサイズ大きいからSSDも大きいのに買い替えた 前は2000Mbps以下の安いのにしてたけど今度は3000Mbpsクラスのにしたからやや割高 画像生成AIをローカルでやろうとするとなんだかんだで金がかかるね pc買い替えのタイミングにnovelAIリークが重なって3060買えたから良かったわ
仮想通貨のマイニング祭りが終わって、3090が20万以下で買えるなんて今しかないよ chatGPTで今度は賢いボット祭りが来てる これからまたGPUの需要増で価格が上がる前に買っておいたほうがいいと思うぞ VRAM欲しいのはMOD好きとVR系位かな正直ニッチ
昨日なら3060が3万で買えたんだけどな 怪しさ満点だったけど
>>602 わいかな? さっきローカルに移行したけど学習にさえ目を瞑れば普通に生成早いやん😅 NAIリーク直前に70Ti買った俺もいるぞ 安く買えたけどさ、70の方がワッパの点で良いとか知らなかったよ
>>613 実際3090~運用するのとどっちがいいんだろうね colabは有料でも使える時間に制限あるみたいだし、他のやつ月10ドルの固定で動くとかならそっちで学習考えるけど 2060や3060の12G版ってメモリ余ってたから使ったったw説は本当なのか気になる それが本当なら当分ミドル帯にVRAM容量降りてこない
学習ってそんなにパワー食うのね 自分の2070sじゃ無理そうだ。 そもそもやり方がよく分からないけど…
>>618 スペック的に大丈夫なんですか? なら試してみようかな… 未知もしくは理解度が足りないワードを学習させるならHNでしたっけ >>620 理解度が足りないくらいだったらHNでいいけど、完全に知らなそうなもんを出すのはDB向けで、これは2070Sだときつい まずプロンプトの工夫で「なんぼかそれっぽいものになってきたけどどうも雰囲気が出ないなー」みたいなものまで近づけるかどうか試すといい そこまでイケるようだったら、HNやTIで調整してやれば狙ったものが出せる可能性はそこそこ高い 逆に、特徴的な衣装だとかで「これを言葉で指示するのはちょっと無理があるな」っていう感じがしたら、無理にTI/HNで粘る意味は薄い >>621 ありがとうございます! 民族衣装でしっくりこない(無駄にフサフサになる等)ものがあったので 学習させたかったのですが難しそうですね とりあえず既存のワードの組み合わせで学習できないか試してみます 何エポックに対して何LRといった内容を掘り下げているサイトってありますか?
RadeonをメインにしてGeForceをサブにしても StableDiffusionで画像生成できますか?
>>624 まずWindowsが不安定になるのでできない。 不安定な組み合わせもあるのかもしれないけど(マイニングでwindows+)geforce+radeonいけるって話もある
>>626 ありがとうございます。 使用するVGAを設定する項目があるのかな >>629 ないけど、Radeonはcudaデバイスとして認識されないだろうから、 cuda:0でGeForceが勝手に使われる気がする ディスプレイ繋ぐのをRADEONにしてGPGPUとしてGeForce使うのは余程へましなきゃ今のOSはこなすがまあ使えん奴には使えんだけや
やっぱラデはRX6900とかでもRTX3060の方がいい感じなんかな?
Stable Diffusionそのものの技術は日進月歩なのに なんでRadeon(というかCUDA非対応デバイス)への対応はこんなに牛歩なんだ CUDAに囚われていい技術じゃないだろ
4090で学習させてたら途中でVRAM不足でクラッシュwwwww PC再起動までGPU認識しないでやんのwwwwwwww クッソワラタwwwwwwwwwwwwww
>>633 オープンソースの発展は勝手にコード書く人口の多さに影響されやすい Windows+Radeon環境でも1111 webuiを楽にインストールさせてくれれば文句ないのになあ NVIDIAはVRAM量ケチりがち & 個人的にNVIDIAに良いイメージないから、あんまりGeForce買う気にならん
そこまで言うなら自分で音頭取って有志をあつめるか、究極的に自分で書けばいいじゃんって話なんだよな 金もやる気もないなら現環境を受け入れるしかない
Radeonがメモリ32GBとか出してくれると期待している
画像のサイズを変えずに画質良くする方法ってないですかね?
そろそろnijijourneyを学習したSDモデルが出てきてもいい頃だろ、少し楽しみ
Stable Diffusion 2.1 beta coming real soon to a Discord near you って話も気になるな SD2.0が残念さんだっただけに
>>642 最終的にそのサイズになってればいいってことなら2倍のサイズで作って半分に縮小すればいいんだけど、そういうことではないよな…… くっそ劣化したjpgを同じ解像度のまま元の絵に復元したいという意味では? 無理だけど
i2iすれば? >>630 --device でcudaデバイスのidは指定できるらしい コマンドラインオプション一覧はたまに読むと発見がある >>653 プルンプル~ンってことだよ ようはおっぱいだね あと、『無駄な部分を削ぎ落した』 という意味でもあるよ プルンプルンのおっぱいなのに無駄がないって素敵だよね pruningと呼ばれる軽量化が施されたもの 重みを一部除去して推論を簡素化しつつ類似した結果を得られるようにする pruning前後で全く同じ結果が得られる訳ではないが できるだけ誤差を減らすために多くの論文が発表されている openvinoで使うonnxファイルへの変換でも使われていた
>>653 AI学習モデルのpruningとは、学習済みのモデルから不要な重みや層を削除することを指します。 モデルのpruningを行うことで、モデルのサイズが小さくなり、推論時の計算量が減少します。また、pruningによって、モデルの収束が早くなり、学習の効率が向上することがあります。 pruningは、学習済みのモデルをもとに行います。そのため、pruningを行う前には、モデルを学習させる必要があります。また、pruningの適用範囲や削除する量を適切に決定する必要があります。 pruningは、深層学習のモデルでよく用いられる手法です。モデルを小さくしたり、学習の効率を向上させるために利用されます。 ってChatGPTが言ってた ChatGPTww SDだとチェックポイントファイルに学習に必要なデータ(画像生成には不要なデータ)も含まれてるからそれを削除するってだけだな
ChatGPTはそれでいいんだがSDだと削った情報にある程度必要な人もいるわけで fp16/32,pruned,pruned-emaonly,無印,full,full-emaと千差万別あって生成結果は大きくずれなくてもそれなりに変化する 学習方法によってその選択もまた変わるという さらに別条件でデータカットされたモデルをマージして学習元にしようとか奇々怪々な世界になってる
まあ生成時はprunedでいいって言うのは間違いない
chargptは面白いけど 追加学習できなきゃ使い道ないよ 有料プランはいつになるの?
>>654 おっぱいに無駄があるなんてのはまやかし 夢が詰まってんだからな macもネイティブ対応なんだね Colab使わずにできるのが楽しみ
NKMDでi2iしようとしたんだけど何故か元の画像がそのまま出力されるんだが原因がわかる人いない? ちゃんとinfluenceの値も設定して画像に沿ったプロンプトも入れてるのに全然反映されなくて困ってる
>>668 俺もNMKDから乗り換えた派なんだけど1111の方が滅茶苦茶良いよ 作れるキャラの幅が一気に広がった上にサクサク作業できる 便利な機能も多過ぎて使っているだけでも楽しいよ あとはInvokeAIのキャンバスみたいな機能が 1111にも来て欲しいな
今はというか、もうInvokeAIはChatGPT並みにエロ禁だからちょっと面倒なんだよな
なんで初期インストールの時にnsfwチェック拒否らなかったん?
ユーザーフォルダに.invokeaiファイルがあるからそれ編集すればいいみたいなことnsfwチェッカーが反応しても出たと思う
真ん中にキャラだけ置いてる透過画像から背景を作るのって出来る? それっぽい背景はっつけてi2iしたほうがいいのかな
>>677 なんぞ背景だけ描くプロンプトで出したのに透過画像を貼り付ければいいのでは? >>678 角度?パース?がキャラに合うように出力できなそうだなって思って ちょっと試したけどパースはインペイントで背景消して描きなおしても人物に合わせてパースも参照されてるみたいや 不思議やねw
multi-subject rendererみたいなスクリプトなかったっけ
そのキャラを黒くしたマスク画像作って、inpaintでマスクのアップロードしたらいいのでは
Any v3.0使うときはvae入れないと色が淡くなるってのは分かったんだけど、Any v3.0と他のモデルを7:3くらいでマージしたときもvae入れないと色が淡くなるんですか? マージモデル使ったらやけに色が淡くなっちゃって その時ってマージされたモデルのvaeはAny v3.0と同じvaeファイルをコピーして新モデルのファイル名に書き換えただけのやつでいいんでしょうか?
自分は応急手当的にそれで問題なさそうだったからそうしてる でもなぜそれで上手くいくのか なぜAny:ほかのモデル=0.1:0.9とか0.7:0.3で淡くなり方は違うのにvae適用でどれも同じくらい彩度持ち上がるのかとか そういうのは理解してない だからvaeは発見次第落として選択肢にしてる
1111使ってるから設定でAnyのやつに固定してるわ モデルごとに準備しなくていいから楽だなと 原理は俺も理解してない
理屈は分からないけどとりあえずAnyのvae使っとけばいい感じなんですね、ありがとうございます
>>652 これ使ってみたけどめっちゃいいわありがとう Any3の画風でnsfwするには、naiと3:7でマージするのがいいって聞いたんだけどうまくいかない…間違った情報かな?
なんか更新したらHypernetworkの学習できなくなった?
いつものこと 動いてたSHA256とってcheckout
>>691 その情報の所に行って正しいやり方聞いた穂がいいと思うけどな 本当に間違ってるかもしれないし、その人が言ってることが理解できてないだけなのかもしれないし 一枚目の方向性好き 写実と漫画の融合を突き詰めてえちえちコスプレイヤー絵を量産してほしい
2枚目のうにょうにょ感も頭身下げればコミカルでいいかもしれないけど 多分chibiにするとそれはそれで崩れるんだろうな
>>695 kawaiiと3をネガティブプロンプトに入れるとキモさは減るかも 確定でアニメ塗りで出力されるモデルかプロンプトないですかね
>>695 ぬうう、ある意味質感が上がってるが… イラスト系のクリーンモデルって難しいのかな novelAIでi2iしたら必ず水墨画みたいに線が太くなるんですか設定とかの問題ですか? マスピ絵で出力したいのに…
マスピ絵は絵の具の原色みたいなものかな プロンプトやi2iなど手を加えるたびにすこしずつ色が濁っていくような感じでマスピ要素も薄れてしまう
Waifu2.1が出る前にSDがより高品質な2.2出しまぁす!って発表してWDも再延期、とかありそう
なんでこのスレの住人が最新情報の正偽を知ってると思ったんだよ
ある程度の人は参加してるとは思うけどね 質問どころかジョークにも乗ってくれるしEmadよりは親近感がある
.ptファイルでマージみたいな事が出来たら便利なのに… ということを最近思うんだけど、設計上無理なんですか?
samplerってどれを選べばいいんですか? CFGっていくつがいいんですか?
hypernetworkのマージはフォークがあったと思う 1111に取り込まれればいいんだけど
まず個人的に使い物になるサンプラー一覧 Euler a, PLMS, DDIM, DPM fast, DPM++ 2M(Karras), DPM++ SDE(Karras) とりあえず呪文模索する時やシード値探しする時はSDE KarrasのStep6 良さげなシードだけどこかに控えて後から好きなサンプラーでXY Plotで色んなStep数を試す なおシード値探しをSDE Karrasで行っている以上「SDE Karrasではハズレだったけどあるサンプラーでは当たりになるはずだったシード」「SDE Karrasでは当たりだったけど違うサンプラーではハズレになる」ことは避けられない リアル系とかは知らないけどNAI系の萌え(死語)なアニメイラストが出したい場合はEuler a > DPM fast(高steps) > その他サンプラー >> DPM fast(低steps) 背景とかはDDIMやDPM系の20~50stepsくらいがちょうど良さそう
CFG Scaleに限らずSamplerにも言えることだけど モデルによってちょうどいいCFG ScaleやSamplerやそのStep数はだいぶ変わる 使うモデルをいくつかのプロンプトでCFG ScaleとSamplerでXY Plotして自分の好みを見つけるのが早い
>>706 ,707 ありがとう返信もらえると思ってなかった 生成した絵をそのままimageに取り込むならならないのに一回加工して持ってくると全部濃淡薄くて線が太い絵になるんだよな どんな元絵でも、thick outlineとblack outline強調してネガにぶち込んでも全然ダメ rength0.6以上にすると元の画像無視するし手詰まりになってる… 他になにか無いかな? Kaggleの自分のDatasetにNotebookで落としたモデルを送り込むってできない? Datasetの追加のところにあるRemoteLinkでHuggingFaceに置いてあるモデルの直リン入れてみたらエラーが出るみたいで かと言ってローカルから十数のモデルをアップロードするのもうんち回線だからちょっと辛い だからNotebookを通じてHuggingFaceから高速で落としてDatasetに突っ込めないかなって思ってググってみたんだけど検索ワードのそれぞれの単語が強すぎて上手く見つけられなかった
DAの威力に腰が砕けた 設定がよく解らんからほぼデフォやけど30000stepでもええんかこれ?
huggingfaceでモデルを探していたら anime系を全部ぶちこんだckpt作ってる人がいて 考えることは同じなんだなって
でもワンチャンColabよりはそのへん緩いかもしれんね
ここ親切な人が多くて平和過ぎて草 他の板がおかしいだけか
流行りにつられたあたおかさん達は別のブームに住処を移動したんじゃない?
nijijourney入れたけどこれすごいわね 日本語の簡単なプロンプトで限りなく欲しい絵に近いものがぽんぽん出てくる 画像生成aiで初めて課金してもいいと思ったわ
それは本当に限りなく欲しい絵に近いものか?🤔 絵ができてから欲しい絵が決まってこれは自分が欲しかったものだって人が多くてやや猜疑的である
i2iと追加学習はどっちが良いんだろう? ピクシブを見てると学習って意外と量産性が低い気がする
でも当たりを引いてしまえばもはや誰も真似出来ない絵が出せるわけで ロマンがある
あっi2iの特徴だこれ i2iでいいなもう(適当)
>>738 汎用AIで生成→DB,HNで絞るみたいな感じで両方使えよ 実写画像を生成してi2iでいいじゃん 構図は実写の方が豊富だし
>>741 学習しても最後はi2iで修正する人が多いのかな 実写は物理的に限られた構図が無限なのに対し 絵は物理的無視することもできる上で有限 なんか数字の数みたいな話だな
学習やったことないけど エロは出しにくいのかな? ピクシブ見てると学習はエロが苦手な気がする
追加学習やったことないけどそれは学習の方向性によるのでは🤔 そもそもpixivに追加学習したモデルを使用してるって明言してる人そんな多いかな マージもファインチューニングもしたしHNも使ってるしTIも使ってるとなった場合 分類に困ったからとりあえずStable DiffusionタグかNovelAIタグをつける人は多い
>>745 なぜ来週からエロ制限が厳しくなるピクシブ基準なのか視野が狭いわ…無料で試せるものなのに意味不明だわ SD1.4の実写学習潰してDanbooru画像を学習したのがNAIで、マスピに2D版権キャラが上書きされタグとエロのバリエーションが増えてる エロ同人売ったら捕まるような国でNAIに追加学習したのがAnythingだし そもそもマスピ減らしてでも塗や指の再現を優先したかったわけで…その先にmeituがある NAIに2D性器を学習させたGapeのサンプルでも見てまだ弱いって言えるのかどうかだな ベースモデルを何に特化させるのかっていうだけで、黒人や障碍者入ったi2iで消えるっていちゃもん付ける屑にならんようにな オープンソースなんだから好きなもの学習させて公開して、これ使えっていうのが筋だしな 文句言うだけなら日本の野党でもできる。何ができないかじゃなくて、何ができるかっていうのが技術発展でありお金になる >>737 エロが出来ないからWD1.4次第だよな 理論上NAIは軽々超えられるカタログスペックはある訳だから、あとは学習のやり方なわけで これでしょうもない結果だったら結局クローズドソースが最強というオチ wd1.35もwd1.4もすげー楽しみ イラストのみを学習した1.35はこれまでの上位互換を期待してるし 色々データセットを増やした1.4にはイラストとより正確な絵的構造を兼ね備えたモデルを期待してる 楽しみだ
※これまでとは wd1.3, 1.3 penultimateのこと
>>748 詳しい解説ありがとうございます Gapeのサンプルってどこで見れるんですかね? 検索しても全然でないですね nijiの学習データもリークされねーかな どうせvaeなんかも使って相当に縛ってるからこそのクオリティなんだろうけど 自前で好き勝手に使いたい
>>752 ここはエロNGだから詳しい話はpinkのほうに リークはともかくniji上で学習もimpaintもoutpaintingも出来るようになって欲しいのはあるな NAIもそうだけど細かい修正が効かなきゃ玩具以上の価値はない
gapeってNAIに追加学習したものだったんだ……
別にdanbooruから学習したってことはわかってたんだからリーク使わなくても同じ方法でモデル作ればNAIと同じものが出来るだろ 特許とか取ってなきゃ誰でも同じモデル作って問題ない
nijiってつまり基本midjourneyだろ これまでリークされたらマジ無法地帯だな
>>724 gdriveなんたら使ってGoogleドライブ経由で入れるとか Any3でエロやるならNAIと混ぜるといいらしいけど、 皆さんどんな割合でやってる?
>>748 文章が無駄に長いよ 基本的に偏った認識をしやすい・思い込みが激しい傾向があるようだけれど、それはできるだけ短く書くようにすれば対外的にはある程度改善されるから説明が苦手なら最低限だけ書くようにすりゃいい なんでそんなに元気なんだ? waifu2.1、nijiリーク、追加学習できるchatGPT辺りがくるまで暇なのに
え?知らないの? ここの他にも人間ているんだよ そしてAIお絵かきのことを知ってここを訪れたりするんだよ
いつの間にかSD2.1公開されてんじゃん。ギリギリ最低限のNSFW成分を含めて追加学習したみたいだな
Stable Diffusion 2.1はリリースされたから試さないと。 2.0ではNSFWフィルターがきつ過ぎたと反省した版らしい
ベースモデルは毒にも薬にもならなくてエエ SD2ベースのエロモデルが出てからが本番だが現状でもかなりお腹いっぱい
v2-1_768-ema-pruned.ckptをダウンロードすりゃいいのか v2-1_768-nonema-pruned.ckptはサイズが同じなんだな。emaとnoemaってどう違うんだっけ
redditにあるちょっとした比較見ても差がわからんな 流石にこれだけで判断出来んが
AUTOMATIC1111だとv2-1_768-ema-pruned.ckptを選ぶとランタイムエラーが出るな またどこかからyamlを持ってこないといけないのかな
とりあえず2.0用のyamlで動いたよ 意外とグラビア系行けそうな感じだ、1.4時代よりはマシって感じ。より酷かった2.0より遥かにいい
vram24GBクラスのVGAって4スロット占有するんだな… 他の用途と兼用してるPCへの取り付けが無理で絶望 PC1台生やすことになると+10万円コースでさらに絶望
>>777 本当だ、768-v-ema.yamlを複製してv2-1_768-ema-pruned.yamlにしたら動いた ありがとう F222のほうがいまのところはいいおもちゃだな sd2.1の遊び方も見つけたい
もともと人体生成弱いのに裸類消しちゃったらよけい生成弱くなるわけだから、そこは反省したということか2.1
はよ蒸留なんちゃらとやらで1秒で生成できるようにしろよ
>>778 ケースだけ取り替えればいいんでない 高さ350mm許容できるならinwin a03とかasus ap201とか電源フロントマウントのmatxケースで比較的コンパクトに収まるよ いまVGAの他にスロット3つ使ってるから他の用途捨てるか新規に生やすしかないんだ colabに1月3000円払ったとしても3年で10万くらいだし新規にPC生やすくらいならこっちかな…
なんか役に立つかもしれないとライザーカード2つもってたな 検討してみる。提案感謝
2.1VRAM要求厳しくなったのかな? 2.0では大丈夫だったのに真っ黒画像になる xformaers有効にすると2.1でも絵は出るんだけど
>>788 たぶん--no-half-vaeで治るやつだわ >>791 まさにこれだったわ とりあえずxformersで使ってく >>777 image to image だとランタイムエラーがでる・・・ そのエラーを設定すべてと共にissueに投げると喜ぶ人がいるよ
エロの無いmidjourney系統に ハッキング仕掛けるだけの情熱を持った変態が目を向けるとも思えん。 ああいうのは変態が偏執的に執着するからガードを破れるんであって 何が言いたいかっていうと変態はつええし、なんやかんや文明を発展させるってこった。 NAIリークで明らかにイラストAIの時代は進んだしな。
ハッキングをしかける必要すらないぞ それっぽいのを作るだけなら出力した絵を食わせればいいんだから こんなんはっきり言ってビジネスにならないと思う
クリーン化して幅広く情弱に売りつけるか TIファイルを裏で売買するのかの2択しかないよ
中国産じゃないmeitu使いたい人はいるだろう ユーザー5億人で課金率0.1%で$1としてもそれが毎月なら金になる 人がやらないことをやるっていうのはそうそういうことだ
meituはバズってから株価1ヶ月で倍になったし、セルシス(クリスタ)はAIやめますって言って株価10%下がった
AIは次ステップ前夜って感じ NAI/Anyで一段落かと思ったらSD/WD1.4ベースのElysiumが次の可能性を示した 来年がSD2派生モデルの時代になるのは確定としても、それだけじゃ絶対に済まない確信がある
ElysiumはAnyベースだってばよ なんでWDってことになってんだ NaiとAnyとElyでシード合わせて検証したし 一番近いのはAny
>>802 VAEにwaifuを推奨してるだけでモデル自体がwaifu由来とはどこにも記述ないぞ そもそも出力結果があれだけNAIとANYに寄ってるのにwaifuは無いわ meituに絵放り込んだら色んな絵柄の高クオリティの絵出てくるからマジで凄い。エロ絵解禁されたらなんぼでも出したい
NAI/Any系列かWD系列かと言われたら、NAI/Any系列だわな これでWD系列と言われても信じられん >>796 言うても箱庭のwd1.3にnijiの絵を食わせたやつを触った感じ、ベースモデルがゴミなら何食わせたとて構図や人体の歪みや描き込み量は変わらん、少なくとも数千枚単位の追加ならな 今んとこウン百万枚単位の学習をしてるのは企業の支援もらってるharuだけだから、haruがいなくなったら十分ビジネスになる 一生trinとwdのマージしたやつベースにsfw生成してるわ 1.35早くして
今日突然colabでHN/TIのトレーニングできなくなったな webuiは更新されてないし、多分torchか追加でcloneするrepositoriesのなにかが更新されておかしくなったんだと思うけど
とりあえずtorchの過去バージョンをインストールしたら使えるようになったけど 過去バージョンにするとトレーニングのクオリティ面でなにか不都合があるならアレだな… 1111さん対応お願いします
へーtorchのバージョンでクオリティ変わったりするんだ
いや、知らない テキトーなこと言っただけ そんなことがあったら嫌だなーと言ったまでのことさ
>>799 呪文詠唱の工夫にハマるような言語能力の高い人なんて一握りだからなあ twitterに対するtiktokみたいな立ち位置 AIに投げるプロンプトもAIに作ってもらうとすごく楽ね
AI絵師の仕事がAIに奪われるなんて 絵師に厳しすぎだぜ
>>817 それいうならまずはいらすとやだろ 仮にいらすとやがいない世界線でもAIがやってただけだしいずれ難度にもよるがこういうのはあったでしょう と思いました 一切指示無しで寝てる間にマスピ顔のハンコを量産するだけで500円ならまぁ…と思ったけど それならマイニングの方がマシか
1枚生成に5分かけるとして500枚で作業時間42時間=2日だよ よほど電気食いまくりPCじゃない限り電気代赤字にはならないだろ
今応募してる奴は何考えてるんだ? 失敗作のゴミだけ500枚渡すんだろうな
>>819 すまん、煽るわけじゃないんだけど いらすとやに仕事奪われた話と どうつながってるのかよくわからんかった・・・ >>818 500枚分指示書用意するんやろか 破綻なしの要望に沿った絵じゃないと意味ないだろうしそれを一枚1円はAIだとしても買い叩かれてるなw
1枚1円×500はいくらなんでもないね 相手の要求がどの程度かわからないけど 1枚100円×500くらいならやる人おるかの
一つプロンプト決めて それで500枚出すだけでいいなら500円でいいんちゃう なんに使うのか知らんが
全部別の呪文でとかでもDynamicPromptとandomiz あとは完全にダメなやつを弾くためのスコアラー入れとけば簡単 でも500円のために自分の情報登録したくはない
間を取って1枚30-50円ならいいやつ作って選別して出してくれる人いそうだな
この三か月で腐るほど出力してるだろ? フォルダ漁ってランダムに500枚選び出して渡すだけのお仕事よ そう考えたらおいしいな
あとで何か問題発生したときに、 「俺は依頼しただけで、違法な手段で生成したとは知らなかった! 悪いのは生成した奴だ!」 って責任問われる役目押しつけてくるんでしょ? 知ってる
まあでもやるやついるだろうなあこれ なんせまじで誰でもできるし
何が狙いなのかわからんな グラボ非搭載PCしかないけどAIイラストが欲しいって話なら有料サービスを使えばいいだけだし グラボ搭載PC持ちならなおさら他人に依頼する必要がない
読むべき論文は山のようにあるけど一向に読む気が起きないのです GAN, CLIP, DDPM, DDIM, GLIDE, DM, LDM D多すぎ
唐突に読むべき論文がーとか言い出して対抗心見え見えなの草
そのひとつ上のレス見て思っただけだから! 対抗意識とかないから!! クリススレとかに貼られてたアートか贋作かみたいなタイトルのやつとか新しいんじゃない 自分は開いて秒で閉じたけど
>>835 君と同じようにほとんど同じ住人だよ エロ画像とプロンプトや版権再現は向こうっていうなんとなく区別してるだけ 隔離スレの有効利用ともいうけどな 生成出来るパソコン持ちで1枚1円の 内職やりたい程金困ってるやつなんて いねぇだろ
>>844 そりゃそうだな 割と高いおもちゃだからな Vision Transformer入門 (Computer Vision Library) 読んでかいつまんで教えて
>>847 うわー気になるけどDBと同一のデータセットでどういう結果を作れるかが重要だな~ SD2.1、普通に生成すると相変わらず微妙な絵になりやすいけど Hentai Diffusionのネガティブプロンプトを入れると高確率で萌え系になるのを発見した もしかしてSD2もプロンプトの研究で化ける? hatsune miku ネガティブなし HDネガティブ masterpiece, a girl, anime style, high quality, highly detailed, full body shot, hd, hq, 4k, 8k ネガティブなし HDネガティブ masterpiece, a girl, anime style, high quality, highly detailed, face, hd, hq, 4k, 8k ネガティブなし HDネガティブ masterpiece, a girl, anime style, beautiful face, high quality, highly detailed, full body shot, hd, hq, 4k, 8k, artstation ネガティブなし HDネガティブ >>849 マジかスゲェ 昨日の夜散々いじくり回して諦めたわ >>849 SD2.1はデモ版触っただけだけど かなり適当なプロンプトでやったらガチャ当たりかハイレベルの二次絵が出てビビったわ 潜在能力がすごい高いイメージある colabのwebuiでのトレーニング系全部エラー出るんだけど、普通に動いてる人居ます?
いろんな拡張機能とか触れるようになって思うんだけども githubの連中ってなんで使い方の具体的な説明しねえ奴ばかりなの? 使ってほしいのかほしくないのかどっちなんだよ
>>856 他で開発されたものをプラグイン登録してもらってるだけなので オープンソースの開発元の解説すら読む気のないやつには使って欲しくない時代だよ 導入方法まで抽象化して欲しい連中が githubに来るなと言いたいわ
スレチな流れかもしれんけど でもオープンソースが世界トップを取るためには、技術者側のそういう意識の改革も要ると思うわMeituがあんだけバズってたりdreambooth叩くだけで大金せしめるビジネスとか見ると 現状SDはautomatic1111っていう一人のボランティアに依存しすぎでしょ。彼が失踪したら一瞬で廃れそう
解説サイトや技術スレが立ち上がってるやろ? エヴァンジェリオンって奴だ
>>862 まぁわかる。自分のために作ったプログラム(簡単なフォーク)とかをワークフロー込で解説動画作ってアップしても(3,4万回ぐらいは再生されたが) 結局だれも使ってない(2,3人使ってくれたぐらい)経験があるからな🥺 一個のGUIプログラムとして完結させないとほとんどの人が手にとることはないのが現状なのだと思う >>864 解説動画まで作ってくれたら技術者としては十分すぎるくらいだし、すごく尊敬するけど 実際、特に英語圏のプログラムは余程誰でも試せる状態じゃないと情報がこっちまで回ってこないね reddit常時眺めてるような猛者が何人いるのって話だし 個人的には是非Twitterで告知してほしい、大体の層は情報源Twitterで終わってると思う そのために裁判制度がある お気持ちを公に思う存分表明できる素晴らしい制度だ
オープンソースって機械で言えばネジとか歯車の話でしょ(「ネジ」や「歯車」に権利があって一つの企業が独占してたら発展なんて出来ないよね) 一般人はネジや歯車なんて買わないよ
>>847 アテンション層の重みだけ弄るってのはHNと似てるな HNがkvだけなのに対してこっちはqkvoだから表現力は上になるのかな ただDBみたいなオブジェクトを覚えさせると言うよりHNと同様に画風向きっぽい? サンプルもスタイルの変更だし >>864 流石に打率低すぎんか? あまりにもニッチすぎたんだよきっと AIイラストじゃないけどUnrealEngineやBlenderの使い方の解説を丁寧にやってたチャンネルが 再生数3桁くらいしか伸びなくて半年くらい前に更新停止しちゃったな 俺はめちゃくちゃ参考にしてたけど解説動画を見て手を動かそうと思う人って考えてる以上に少ないのかもしれない
使い方で万再生いったけど使ってるの数人って話に対してだろ 数個上のレスぐらい見ろよ
>>870 >This model (and it's in progress checkpoints) will be given first to backers, >and later released open source for all って書いてあるじゃん。オープンソース(予定)でしょ しかし人雇って人力でラベル付けするって力技だなぁ。2500万枚とか気が遠くなるな >>875 人力ラベルかぁ。人がやるからといって精度が高いとは言えないんだよね 作業者の人選がめっちゃ大事になりそうだな >>837 そのあたりの理解度が、描かせる絵の自由度にも影響しそうだな 今日は俺もそのあたり読むかぁ 大事なのはDDPM(世界初のDiffusion Modelで使われたサンプラーの論文)とLDM(SDの核となっている技術)とGLIDE(Diffusion ModelををCLIPを介して動かすもの)って教えてくれた人は言ってた DDPMはDiffusion Modelにおける世界初のサンプラーだからいちばん詳しくどのようにサンプラーが機能しているかが書いてある LDMは多分特徴空間がどうたらこうたらを採用したDMだから大事、vaeがどのように動くかわかる GLIDEは人の言語(t2iなど)からどのようにCLIPが機能してDMを動かしているのかわかる だそうだ 頑張って
GANはDMの前に流行ってた画像生成に使われてたもの DDIMはDDPMを改良したもの DMはLDMの前身 だからそこまで最優先で重要視するものでも無い
金出すよりもむしろ人力ラベリングを手伝いたいくらいだな 1日100枚で100日くらいなら手伝えるぞ。俺があと2500人居ればすぐ終わるんだが
ラベリングは結構な部分を人力に頼らざる得ないんだよな テスラもその為に1000人くらい雇ってたはず
スコアリングのための人力点数付けはやってる 1万枚ぐらいで自分の趣味をなんとなく理解してくれるようになった気がするがとても手間
>>870 Unstable DiffusionはSDがアーティストを排除したと言ってるけど RedditでLAION 2Bに含まれるGreg Rutkowskiの作品は26枚だけとかいう話を見たな むしろGreg Rutkowskiにあれだけバイアスがかかってたことの方がおかしい 別にAIは画像だけが学習元じゃないからね 「ベンドールという画家は暖色系を主に用いて女性の油絵を多数描いたことで知られる。とくに光の表現が評価が高い。」 という文章を学習していればベンドールの絵が学習画像に一枚もなくてもプロンプトでベンドールと入れると効果を持つ
SD(とかNAI)は自動ラベリングしてるからな 何でラベリングしてるのか知らないけどCOCOみたいなのだと20万ラベルとかある。グレッグに似てるのがあったら全部グレッグよ SDはNAIに技術提供してたっていうけどそういうラベリングも協力してたんだと思う リークしたって聞いたときはこの事前処理が漏れてること期待したんだけどな・・・
(deep danbooruじゃだめですかね……?)
DBしたckptを1111に読み込ませたら Error verifying pickled file from ファイル名 The file may be malicious, so the program is not going to read it. You can skip this check with --disable-safe-unpickle commandline argument. って出たんだけど、なんだこれ? 今までこんなの無かったんだけどな
いわゆるウイルスckpt なんだろDBやった事ないから知らないんだけど元になるckptにも出てるならDBするとpickleになんか書かれるのかな 識者求む
×元になる方にも出てるなら 〇元になる方に出てないなら
>>891 マジか、TheLastBenのFastDreamBoothが無料colabでも使えるように修正されてたから NAIリークモデルでやっただけだわ もちろん元のNAIモデルでも、今までのFastDB結果でもこんなのは出なかった zipファイルが壊れてたりメモリ不足だったり原因が何であれロードに失敗すれば そのメッセージは出るから何で読み込めなかったのはエラーメッセージを見るべし 本当に危ないファイルなら許可されてないモジュール名が表示される筈
>>894 ありがとう、エラーメッセージの意味を調べてみる 参考までに、こんな感じのエラー >>895 そのDBのCkpt壊れてない?試しに--disable~を起動引数でやってみそ 信用するかどうかは別だけど再DLしても駄目なら壊れてないか試してみて >>895 書庫内ファイル名チェックで失敗してるみたいだけど data.pklで止まってる事はフォルダ名がダメな可能性?二バイト文字使ってるとか? 書庫内のルートフォルダの名前をarchiveに変えたら通るかも知れない >>849 はーすごいな、うにょんうにょんした人体ばっかり出るからあんまり期待してなかったけど 現時点でこれだけ出せるなら2.1ベースで学習されるWaifuは結構凄い事になるのかもしれないな。期待だわ わからん・・・設定に詳しい人いたら教えてほしい NMKD Stable Diffusion GUIからStable Diffusion web UIに移行はなんとかできたのだが GUIのほうで出していた絵柄がweb UIのほうで再現できなくて困惑してる 呪文の強弱やサンプラーやCFG Scaleをいじっても質感からして違うし 同じ設定にする方法を検索してもそれらしいのはない どうしたらいいんだこれは
>>899 手元で普通に同じ生成得られているから、どういう画像をどういう生成でプロンプトはどうとか書いてくれないとわからんかも >>900 img2imgのCLIP interrogatorのことなら触ってないです ん〜〜原因を探ってる 呪文同じ、シード Step CFGスケール同じ 解像度同じ modelはwd-v1-3-full web UIの設定タブはデフォルトのままで問題ないはず 作品はシード同じだから雰囲気似た感じの別人が出てくる。服装も腕の位置も別物 サンプリングアルゴリズムはweb UIがDDIM GUIのほうはexifデータ見ると -Addimって出てるからDDIMと違うのか?これは 使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか なんかweb UIの起動画面見たらモジュールがないらしい、これ必要な奴だろうか ↓ Launching Web UI with arguments: No module 'xformers'. Proceeding without it. LatentDiffusion: Running in eps-prediction mode 軽くググったけど解決してない例しか出てこなかった 知らない用語だらけで読むのがムズイ >>902 >使ってるグラボが4Gなので、GUIのほうがLow Memory Modeだからダメなのか 補足。低メモリだと機能しないexclusion words は呪文から消した 寝る! Meituでボタン一発で スゲーイラストができてビックリ でもよく見たらリボンが後頭部に繋がってて草 スレ間違えたか なんか技術的なレス多いね 場違いだったスマン
>>902 NMKDの方の画像をPNG infoにでも突っ込んで運良く設定が埋まってたら真似しよう ちなみにそこでのCLIPというのはClip Skipという項目のことか、最近話題になったsd_hijack.pyの書き換えで別のCLIPを使うやつのことだと思う あとはEta Noiseという項目が怪しい 31337だっけNovelAIのエミュレートの時に使うやつって あれがNMKD GUIでデフォルトで設定されてたりとかないかな >>903 特にいじってなかったはず automatic1111のsettingにある、eta (noise multiplier) for DDIMの値が0じゃないとかかな? とりあえず、ごく単純なプロンプトで比較生成してみたらどうか negativeや強調も無しで photo of a girl ぐらいのを >>896 >>897 情報ありがとう 別のモデルでDBしたりもしてみたけど、同じエラーが出たからDL失敗とかでは無さそう --disableで起動して使ってみたら、ちゃんと学習成功してた FastDreamBoothがいまさら何か仕込んでるとも思いにくいし、 そのうち更新されて解消するの待ちかな >>902 一応言い切れる事と言えばNMKDよりAUTOMATIC1111のほうが圧倒的に設定項目が多く、NMKDの設定をAUTOMATIC1111で再現することは出来ても逆は出来ない、はず あと1111の設定でCLIPって言われたらそれは設定にある Stop At last layer of CLIP model のことだと思う 通常は1だけどNAIとかNAI派生モデルの場合は2のほうは正確な描写になる可能性が高い 2,3日前からstabl diffusionをgoogle colabde上でトレーニングを使おうとすると RuntimeError: indices should be either on cpu or on the same device as the indexed tensor (cpu) がでてトレーニングができないのですが、誰か解決方法を知っている人いますか?
絵描きなんだけど、構図の案だしとか、完成した絵をAIで添削してもらったりして画力上げる参考にしたい。 novelもニジジャーニーもmeituも、そこら辺は一通りできてどれ選んでも遜色ない感じですか?
デザインや塗りなんかは参考になるけど構図はたいしたもの出てこなくて参考にならん印象 というか構図はまずフレームがあってその上に成り立つもんだけど学習段階で正方形にトリミングされるからそもそも構図を正しく学習できてない気がする
全部試したわけじゃないから比較はできんけど、絵描きはAIを上手く使えば結構遊べる 面倒な背景とか絵の色調に合わせて出してくれるのも便利だわ
>>914 AIは現状では添削には使えない i2iをやると細部が溶けたり手足が奇形化する たいした構図が出ないと言う意見が言えるのは、相当ハイレベルな絵描きか、もしくはまるでAIを使いこなせていないかのどちらかだな プロンプト次第では最大公約数的に『良し』とされる構図をたくさん排出出来る 一般的な絵師が参考にするのであれば充分なクオリティだと思うよ
ヘタクソな絵でも複雑なデザインを保ちつつ綺麗にできるか独自に調査した結果 強度0.3前後で何度もi2iを繰り返せば多少はマシな絵になる事が判明した 単純なデザインなら0.6前後でも読み取ってくれる 構図が壊滅的にダメでなければ体型も多少は補正してくれる ただし近似色は融合するので濃淡をはっきりさせないといけない 指は0.2ぐらいじゃないとダメっぽい
返信ありがとう >>908 合わせられる数字は合わせてみたけど同じ絵にはならなかった >Eta Noise いくつか試してみたけど絵柄レベルでは合わなかった。数字にキリがないので一旦保留する >>910 >eta (noise multiplier) for DDIM config.jsonを削除してデフォでゼロだった。 >ごく単純なプロンプト photo of a girl 途中から呪文は最低限で試してるけど進展なしでした >>912 >Stop At last layer of CLIP model 設定下のほうの、「Clip skip」を触ったら「1 settings changed: CLIP_stop_at_last_layers.」 って出たからこれかな。 デフォの1が一番NMKDに近かったです NMKDのほうの設定「Use Full Precision」、GTX16xxの修正目的の欄のチェックを外して 別のグラボで試したら同じ呪文、同じシードでも別画像になるのが分かった 見た感じ絵柄は同じなので内部的にシードが違っているのか、Sampling methodが多少変わったかだと思う なお、webUIに近い画像が出るのはGTX16xx設定した時のほうだった 現状手詰まりなので、とりあえずNMKDで続行しつつ、webUIで別に呪文を研究して 暇なときに全部再インストールしてやり直してみるとする 以上! 昔euler aのバッチだと再現性がないって話が出てきたときに 他のサンプラーとて1111のverが変われば結局再現性はないという結論になってたな
>>922 自分もそういう認識だったけど、 試しにno-halfつけて生成してみたらつけない時と同じ絵が出てきたので混乱してる >>923 昔は75トークンの制限解除まわりで二転三転してたり、 1111の更新で生成の仕様が変わる理由があったけど、最近はそうでもなくない? 10月ぐらいからは生成結果が変わるような変更入る場合はオプション用意されてるだろ ただメタデータに設定が保存されてないから再現するのが困難になってる ま、再現考えてるならgit pullのたびに111のフォルダとpip listを残して1111をbatで起動しなければいいだけ
9月末にはAUTOMATIC1111の生成データもメタデータ入ってるからNAI以降の人は保存されてると思う あの頃とはCLIPやらデノイズやらいろいろ設定増えて普段使いはだいぶ変わってるからねぇ textでこんなロボも i2iでアウトペインティングガチャすると予想外のもの描いてくれたけど今はおとなしくなってしまってさみしいな 行儀よく真面目なんてできないAIに感動してたのに メタデータに設定が保存されてないってのは、メタデータに全パラメーター保存されてるわけじゃないって意味 バッチだと再現性がないって話も、その時のバッチサイズと開始シードまで設定として残したら再現できるみたいな
>>924 モデルデータがpruneでFP16になってるんじゃない? wd-v1-2-full-ema.ckptなら若干絵が変わる デフォルト --no-half >>928 final-prunedだけど、あれってfp32だったような? >>929 FP16 pruneツールにかけるとエラーが出て失敗するからFP16だと思う つうか、フォルダー名からしてprune済みじゃんw prunedでも4GBあるならfp32だぞ。ファイル名にprunedって付いてても、 単に不要なデータを削除しただけの場合(レアケース?出力は変わらない筈)や emaの値で上書き済みだったり(大体コレ)半精度化されてたり(そこそこある)でややこしい
Anyv3のprunedがfp32で4GB、fp16で2GBだから、 final-prunedも4GBなのでfp32かなと思ってるけど実際はわからん。 マージする時にfloat16押すと2GBになるけどそれは傍証にならんか?
>>918 ありがとうございます。 どの画像生成AIも変わりませんか? 個人的にニジジャーニーが気になってます。 車屋に行って、どれでも変わりませんかって聞くぐらい愚かな質問。 得意とする分野や画風があるから、 サンプル見ながら比較しろ
多少のプロンプトの理解力の差はあれ、どうせ良い構図が出るまでガチャるんだから 最終判断は人間だし、どれが良いですかってのもないんじゃない。
初心者向け簡単説明拾ったので貼っとくね >>936 AIの考えたリンゴがコピーだって言われそう >>936 分かりやすい レオナルド・ダ・ビンチが壁のしみから絵を想起した話があるけど ノイズを与えられて絵を生み出す部分は作成法が少し似てる気もした 人間が頭で描いた完成図であっても、「リスペクト」とか「パクリ」とか状況で変わるけど、 AIの場合は「結局は電子データ(具体的なデータ)を参考にしてるんでしょ?」 っていう永久ループの論争不可避だろうからな……
圧縮や暗号化されたデータはオリジナルを元にはしているけど意味のわからないデータになってるから 何らかのキーを与えたりして解凍や復号でこねこねしたら、その生成物はみんなワイのもんや ただしそれを自分のものとして公開すると何らかの法律にひっかかる可能性はあるって、子供向けなら注釈はいれといてほしいな
学習元が特定できるレベルで露骨にコピーして出力されるケースも報告されてるけどね
>>936 明らかにAI賛成側に偏った人が描いてるから その真逆でAI反対派に偏った人のこういうのを見てみたいね どちらも技術的知識という背景を持った上での 技術系の質問いいですか? DBやHNが学習画像のサイズ512x512推奨なのってどういう理由なのでしょうか。 単にデカい画像だとその分VRAM食うとかで、余裕があるなら画像サイズは正方形以外でも自由に設定してもいいんでしょうか?
>>933 エロいらないなら2Dはニジジャーニーが頭一つ出てる印象はあるけど、それはあくまでも塗りや雰囲気も含めてなので構図まではなんとも評価出来ないかな このスレ含めてほとんどのAIお絵描きスレはエロ無しは不人気なのさ ニジジャーニーみたいな表のAIはTwitterのほうが情報が多いかもね そもそも鬼滅の刃を読んだ人間の脳みその中身をくまなくスキャンしたとしても鬼滅の刃の画像は出てこないだろうな でも炭治郎の絵を描くことができる AIだって同じだよ
>>944 なるべく32の倍数にしたほうがメモリの負担が軽いから。 まあメモリに余裕あるなら可能な範囲で例えば1024x768とかでやるといいんじゃないかな >>942 こういうのは? AI反対派というわけでもないし簡潔でもないけど、どちらにも偏ってはいないと思う VIDEO どんなに複雑なデジタルタトゥー施しても一回印刷してスキャナー取り込みしたら終わりじゃないのかな 今でさえ簡単にPNG情報消えちまうのに
スクリーンショット撮っただけで消えるなんちゃって透かしもあれば スクショぐらいじゃ消せないけど、画像縮小やカメラやスキャナ通したら読み取れなくなる透かしもあれば スキャナ、カメラや多少のピンボケでも残る透かしもあるよ
TI学習時の画像みたいにベクトルで再構築されたら流石に消えるかデータ破損しそうだなぁ
つまりスクショ撮ってi2iなり適当なwatermark removerなりでしまいよ 雑魚が
スクショ撮っても残るRGB以外の情報なんか無いだろうし
>>941 再現データが公開されてない上にi2iじゃないと再現性が確認できないデマだったけどにゃー ちょっと過学習気味になったかな?微調整して…というのを繰り返してるうちに自分の中の目標の絵柄が迷子になる事が多い モニターとかソフトのリセットみたいに人間側の認識のリセットボタンが欲しい
>>956 ざっと翻訳サイトにかけて読んだ感じ 選別した高クオリティのサブセットで調整してるから その過学習が出るって感じか? 流石にちゃんとした専門家の意見が欲しい >>958 NHKは割とAIのニュースやるね ヨミコとかAI音声でニュース読ませたりもしてるし 劣化トレース一発で出て笑った 論文のプロンプト使ってsd1.5で生成 ぐぐって出たやつ >>963 プロンプト教えてくれ 俺もやってみるわ >>963 草 こういうのをMembership Inference AttackだとかなんとかInversionとかって論文に書いてたっけ 面白いよな 推論攻撃とかでググれば日本語でもその例みたいなの出てくる 推論攻撃 かっこいい
>>963 textとseedだけでコレ出たら、さすがにこれを商用で使ったら大問題だなぁ…… まあムンクが出たのは見たから完全にありえないとはいえないな
ブラッドボーンってプロンプトに入れたらブラッドボーンの画像出てくるのは当たり前じゃね 例えばエッフェル塔って入れて架空のエッフェル塔によく似た建物出されても困るだろ
>>963 LAION-5Bに含まれるデータを「Blood borne」というテキストで検索してみたけどこの構図の画像がたくさんでてきたw まあ学習データが偏っていれば生成物も当然偏るよな アポロ計画の画像生成やると見たことある写真みたいなのばっか出てくるのと同じじゃねえの?
>>971 そうなんだけど背景から構図まで丸ごとコピペになってるのが問題 よく「AIはコピペしてるんじゃない。特徴を学習してるだけ」っていわれてるけど、特徴どころか全部覚えちゃってる まあ人間だって意図せずとも丸パクしてしまうこともあるしな パクらないように気をつけるという人間的な仕組みがないAIなら尚更パクリがちなのではないだろうかと思う 特に「1枚だけ有名な画像がある」とかそういうコンテンツは AI画像を表に出したいならその前にGoogle画像検索は必須かもね かなりパクリを気をつけてる人は手描きの絵でもそうするみたいだけど
この場合は「知らなかった、AIが勝手にやった」が通らないからまだいいけどね
これってプロンプトに紐付いてる学習要素が限定的過ぎるって事なんかな? 新旧拡散モデル論文目は通したけど難し過ぎて目が滑りまくって全く理解出来なかったからバイアス掛かってない説明見たい
あー、でもiPhone Case、Galaxy caseはやべーな seed変えても構図が3パターンくらいしかないぞw
AMD Radeon RX 7900 XTX Radeon RX 7900 XT レビュー https://www.4gamer.net/games/660/G066019/20221212075/ AMDが想定する税込の国内販売価格は,RX 7900 XTXが17万9800円前後で,RX 7900 XTが15万9800円前後となっている。 RTX 4080搭載カードが,税込実勢価格20~23万円で販売されているのに比べると,RX 7900 XTXはそれより2~5万円ほども安く,RX 7900 XTに至っては,4~7万円ほど差が開いている。 RX 7900シリーズのお買い得感はかなり高い。 Radeonいろいろ弄り回して生成できても学習できないし
AMD「CUDA実装します」 これで頼む 全てが解決する
ああ、CUDAをOPEN CLに変換するレイヤーとかあれば解決・・・いや、パフォーマンス出るかどうか怪しいな。
用途不明のAIチップが搭載されているらしいがAMDだし期待度はないな……
>>931-932 すまん、NAIのckpt解析したらFP32で合ってた デフォルトと--no-halfでNAI、FP32、FP16と色々試したけど うちはどのモデルを使っても絵が変わる。環境によって違うとか?う~ん、謎 >>987 Euler aとかxformers使ったら微妙に変わるんだけど、 DDIMとかでxformersオフでfp32モデルを--no-halfアリとナシでやっても変わらんのよね GPUは2070 xformersとFP16とvae使ってなければ基本的にはFP32だけになるのでその場合--no-halfはいらんけどな 環境やほかのオプションやプラグイン等何かのバグでエラーが起きて黒画面になるのを回避できる程度の役割しかないけど この時間頭がまだ頭が起きてないのでその半精度から解説するにはかなりの長文になったので省くけど(笑)
>>983 オープンソースだからAMDがAMD対応のコードを開発して追加すればよいはずか >>985 オロチ、あるよ https://gpuopen.com/orochi/ Orochiライブラリは、HIPとCUDA®のAPIを動的にロードし、実行時に切り替えて使用することができます。Orochiは、1つの体に8つの頭と8つの尾を持つ伝説的な日本の龍にちなんで名付けられました。その名前にふさわしく、Orochiは1つのライブラリで複数のバックエンドを実行時に使用することを可能にします。 >>990 AMDはドライバ関連やチューニングもオープンソースで丸投げしてたような… NVIDIAが主導権握るの上手いということでもあるけれど、個人が高性能PC買う時にはAIに何かさせるのを気にする時代だから、 AMDもそこを頑張らないといかんという意識はあるでしょう。頑張って欲しい
遊んでるレイトレコアも使って欲しい、なんか利用出来るところないのかな
NVIDIAに今更パワーみたいな同じ方向で追いつけるか? 廉価版だからユーザーついたんじゃないの そこ放ったらかしにして変な方進んだら次こそ死ぬんじゃない
こういう場に居たりするとAI方面が重要となるけど 一般的にはゲーム関係のほうが重要度は遥かに強いだろうからなあ
>>996 >>995 の言うようにゲーム用途ならミドルレンジから下で済む時代になっていると思う。 あえてハイエンドを買う人達は何を欲するか 20年前のゲーマー「VRAM40MB揃えたぞ!」 20年前のゲームメーカー「よっしゃ、60MB使うゲーム出すで!」 現代のゲーマー「VRAM32GB揃えたぞ!」 現代のゲームメーカー「よっしゃ、40GB使うゲーム出すで!」
>>974 人間の意図する特徴が必ずしもAIの認識する特徴ではないってこと DreamBoothでメタバース画像30枚ほどぶっ込んだらキャラを認識する前に背景を認識して紐付けしちゃったことがあった 色合いやら構図を特徴だと認識することもある 学習素材が少ないと構図とかもまとめて物体って認識するんじゃないの
lud20230125021350ca
このスレへの固定リンク: http://5chb.net/r/cg/1669278997/ ヒント: 5chスレのurlに
http ://xxxx.5ch
b .net/xxxx のように
b を入れるだけでここでスレ保存、閲覧できます。
TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「【StableDiffusion】AI画像生成技術11【NovelAI】 YouTube動画>2本 ->画像>88枚 」 を見た人も見ています:・【Cintiq】WACOM 液晶ペンタブレット Part94【DT】 ・Poser総合スレッド Part49 ・MAYA ・3DCG屋による雑談スレ Part30 ・CGアニメーション ・初心者が2D・3Dアニメを作る過程を見守るスレ ・PainterClassic/Essentials バージョン5.0 ・ディテールをディティールって言う奴は大抵ヘタレw ・pixiv 底辺卒業スレ part114 ・ぼったくりWACOM断罪スレ ・Blender 初心者質問スレッド Part45 ・3ds Max初心者質問スレ Part17 ・【Modo】 Part44 ・【コミスタ・イラスタ後継】CLIP STUDIO PAINT part101 ・【Cintiq】WACOM 液晶ペンタブレットPart122【DT】 ・【Cintiq】WACOM 液晶ペンタブレットPart133【DT】 ・漫画制作と3DCG ・おまいら、一太郎と花子がお亡くなりに・・・ ・2Dクリエイター友の会 Part6 ・CG(映像・ゲーム)会社の女性社員ってどうよ? ・モニターのキャリブレーション 9 ・3DCGソフトを比較するスレ 其の33 ・【液タブ】海外製ペンタブレット総合 34【板タブ】 ・★☆★☆ 組織内違法コピー ★☆★☆ ・すばらしい絵描き()見つけたっ!4 (ワッチョイ有) ・お絵描きのためのパソコン相談スレ Part37 ・pixiv 底辺卒業スレ Part93 ・てすと ・【解剖図】リアルな人体製作【解剖学】 ・■□ちっとも上手くなんねーよ。モデリング□■2 ・Daz Studioスレッド Part19 ©2ch.net ・pixiv 底辺卒業スレ part105 ・3DCG作ってうpして楽しむスレ part28 ・【Maya】Autodesk Maya質問・雑談総合スレPart14 ・すばらしい絵描き()見つけたっ!4 ・Blender 初心者質問スレッド Part37 ・あなたのCG作品は、どれほどヒットしましたか? ・【artist side】 ©2ch.netその2 ・Windowsタブでお絵描きとか語ったりするスレ Part.1 ・色塗りたいんですが【16色目】 ・【Midjourney】AI関連総合15【StableDiffusion】 ・[萌え]日本のデザイナ[アニメ] ・★Poserフィギュア★のハァハァ画像〜其の八〜 ・■どうしてCGの道に進んだの?教えて!■ ・【遊友館】クリエイター通信? part1 ・pixivで一番絵が上手い高校生って誰なの? ・Blender ニュース速報 Part2 ・Painter総合 66筆目【ペインター】 ・pixiv奈落底辺スレ Part79 ・LightWave3D・雑談スレ89 ・Windowsタブで絵を描きたい人のスレ Part.2 ※絵OK ・CG板 自治スレッド ・【Cintiq】WACOM 液晶ペンタブレットPart129【DT】 ・【Midjourney】AI関連総合23【StableDiffusion】 ・オリジナル絵描きがまったり語るスレ ・ペイントツールSAI 120色目 ・在宅でCG・漫画描いて小遣い稼ごうぜ DL数12 ・佐藤航陽 ・pixiv 底辺卒業スレ part103 ・RETASレタススタジオを語って下さいpart4 ・【Midjourney】AI関連総合19【StableDiffusion】 ・タイタニックって今見るとCG丸出しだね ・Apple Pencil Part.2 ・Windowsタブで絵を描きたい人のスレ Part.3 ※絵OK ・俺たちの考えたオリキャラを描いてもらうスレ
05:47:36 up 31 days, 6:51, 3 users, load average: 93.80, 91.35, 85.11
in 0.024626970291138 sec
@0.024626970291138@0b7 on 021319