◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:【StableDiffusion】画像生成AI質問スレ16 ->画像>15枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/cg/1692012289/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは
>>950 が立ててください。
質問する人はなるべく情報開示してください
・使っているアプリケーション(1111ならローカルかcolabか、ローカルならどこから/何を読んでインストールしたか、colabならノートブックのURLも)や使っている学習モデル
・状況の説明は具体的に。「以前と違う画像が出力される」「変になった」では回答しようがない。どう違うのか、どう変なのかを書く
・状況やエラーメッセージを示すキャプチャ画像
・ローカルならマシンの構成(GPUの種類とVRAM容量は必須、本体メモリの容量やCPUもなるべく)
テンプレは
>>2 以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ15
http://2chb.net/r/cg/1689744226/ ■AUTOMATIC1111/Stable Diffusion WebUI
https://github.com/AUTOMATIC1111/stable-diffusion-webui パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法1
https://seesaawiki.jp/nai_ch/d/%a5%ed%a1%bc%a5%ab%a5%eb%a4%ce%c6%b3%c6%fe%ca%fd%cb%a1 導入方法2
https://github.com/AUTOMATIC1111/stable-diffusion-webui/releases/tag/v1.0.0-pre zipを解凍→update.batを実行→run.batを実行、でインストールされる。学習モデルはSD1.5が自動でダウンロードされる
■ブラウザなどで画像生成できるサービスの例
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ 基本無料。SD公式以外のモデルを使う場合有料。googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで
なんでだろう? 間違えて関聯で確定した過去があったのかな関連
前にも聞いたんだけどテンプレにとしあき入ってないのって向こうへの配慮がなにかなん?
>>9 他に一切、リンクするなとか書いてるんだよね、反AI派が突っ込んできて荒らされるのを恐れてるらしい
昔はリンクですらないコピペ書いただけで文句言ってくる奴いたよ
俺もその一部書いてるんだが~とか言ってきてめっちゃきしょかった
ああやっぱりそういう理由があるのか。仕方ないねthx
>>12 違いはもちろんあるよ、ファンが2つと3つじゃ冷却性能はそれなりに違う
あと、このページしか見てないが補助電源が違うので3連ファンの方はOCかなんかで電力消費大きいんじゃね
オレなら安い方にする、高い方にするくらいなら1つ上のクラスを検討する
追記だけど、ただ、長時間まわしっぱなら3連ファンかもね、3060の発熱どんなかしらんけど
3060に限って言うなら2ファン仕様で十分だと思うけどね そもそも連続フルパワーで稼働する状況なんて限定的だし もしどうしても心配ならMSIのAfterBurnerとかでパワーリミットを90%とかにしちゃえば 消費電力は10%とか下がるけどパフォーマンスは数%の低下にとどまるよ
これまでSD WebUI使ってたんだけど、軽いと噂のConfy UIをStabillity Matrix使って導入してみた。 が…もしかしてコレってNSFW画像生成できない? 真ベタにはならないけど、どのモデル使っても木星の拡大画像のような縞模様しか出てこない。
丁度RTX3060にしたばかりなので参考になれば 買ったのは玄人志向の2ファン4万位のやつ 俺の部屋エアコンが無くて常時30℃以上ある部屋だけどGPU使ってない時(動画サイトで見てても)は43℃前後で512x512のt2iの8バッチ永続生成で70℃行かない位 自分もちょっと困ったことがあるのだけど1111のローカル環境でバッチ起動後必ず ・生成ボタンがきかない ・LORA等を見るための花札ボタンがきかない ・拡張機能タブのインストール済一覧がLoading...で表示されない これらの現象が起きてリロードなりUIの再読み込みをすると正常に使える状態になる 多分拡張機能が原因かと1度全部無効にして正常動作後、有効増やしながら確認でイメージブラウザの拡張消して一時解決 また発生してる状況 1.5.1のPython3.10.6 cmdにエラーの記載なし 誰か原因か解決策知ってたら助けて…地味に不便で
>>20 俺もそんな感じになったことあった
俺の場合は一部の拡張機能が悪さしていたから、一度全部の拡張機能を無効にしてみて切り分けしてみてはどうだろう
LoRAを削除しても適用度が変わらなくなってしまったんだけど PC再起動以外に直す方法って現状ないのかな 設定>アクションのVRAM解放とwebUI再起動はしたけど全く効果はなかった
>>22 Settings>Action>Unload SD checkpointto free VRAM
クリックすればCheckPointに関するすべての情報をVRAMから追い出してくれる
生成的には、再起動したのと等価になるよ
>>23 4行目に書いたけどそれはもうやってるしwebUI再起動でも変わらないんだよね
他に方法はない感じか
>>20 extensionsの中身を他のフォルダに移動する
prompt ~や~promptみたいに同型の拡張はどれか一種類に絞る
extensionsに移動した拡張を戻す
読み込みに問題ないことを確認する
>>20 sd-webui-depth-lib入れたら同じ現象になったよ。もしそれが原因ならバグらしい。
ネガティブの使い方がいまいちわからないんだけど、どこまで強度強くしてもいいの?また、大量に書いても有効?
>>21 >>25 レスありがとう
一度拡張機能の見直しとextensions内全退避で発生しなくなった本当に感謝
>>27 あれ入れてみたらエラー出ちゃったので即消ししちゃったけどまたチャレンジする時は気を付ける情報ありがとう
過去の呪文が反映されちゃうのを考慮すると、 パソコンは2台あったほうがいいってことですよね。 実験的な呪文は全てサブマシンで試した方が良い。
色んな実写モデルでADetailerの手修正を試してるけど、良くなるどころか悪化する… あれって本当に良い感じに修正される?…デフォルトの無記入設定だとダメな感じ?…
ADetailerは入れても歪んだ指や手のディテールが細かくなるだけな気がしてる
XLは手かなり改善されてるよ そのアピールなのかどうか知らんけどやたらと手を挙げたポーズが出てくるw (=゚ω゚)ノ
>>22 Lora削除ってのがフォルダから完全削除なら関係ないかもだけど
自分が最近webui最新にしたときに、PNG Infoからの転送時にstylesに全く同じのがあった場合に
勝手にstylesで選んだ状態にしてくれるって”おせっかい機能”に悩んだ
再起動のたびに毎回転送してるかもしれないので一応
>>28 ネガティブはいくらでも並べられるよ
いわゆる中華法典ってやつは数百のネガティブを並べてる
ワイは更に調子に乗ってポジもネガも2000以上並べたことがあるけど生成がクソ遅くなるだけで異常なんて出なかった
強度も崩れない限り100でも1000でも指定できる
普通は1.4で十分な強調になるはず
worst qualityは2.0にすることはあるけど効果の実感はない
ネガティブは並べすぎると絵の個性が失われ、強調しすぎると崩壊しやすくなるのでバランスは考える必要はある
質問!最近は全く使わないらしいんだけど QTって何?
>>30 1台に1111を2つインストールすれば済むかな
>>38 環境分離するために、virtualboxにUbuntu入れてauto1111入れるっていうのはどうでしょう?
foocusどう? SDXL専用だけど、低スペでも動くし
>>41 バーチャルボックスとかの仮装 PC 系は
グラボも仮装になるから無理でしょ
女のすぐ後ろに男が立つ状況を安定して出せるプロンプトありますか?
Loraとか作ってる人に質問。 俺、このお盆からAUTOMATIC1111環境で画像生成始めて、今はkohaya_guiでLora/LyCoris作ってるんだけど、みんなLora生成にどれくらい時間かかる…? 俺のPCスペックは以下、 【CPU】Intel Core i9-13900KF 【メモリ】DDR4 128GB 【ドライブ】SSD 2GB×4 【グラボ】Nvidia GeForce RTX3080 10GB ・教師画像500枚前後(3次元の人間が1人、512x512のみ、背景はPhotoShop Betaで削除したり、そのままだったり) ・正則化画像なし ・学習回数10 ・エポック数5 とかで回すと、普通に24時間とかかかっちゃうんだが…みんなこんなに苦労してるの?それとも俺が過学習させちゃってる? 生成したLora/LyCorisのWeightを1.6以上にすると、画像がガビガビする上、背景を削除したLoraだと背景が削除されたまんま画像が生成されちゃう。 Number of CPU threads per coreはCPUのコア数とかに合わせて24にしてる。 kohaya_guiの細かい設定とかは、まだ良くわかってないから、例えばOptimizerはAdamW8bitとかにしてる。 俺の環境がクソザコなのか、俺の学習設定が滅茶苦茶なのか…とりあえずみんながLora生成にどの程度時間がかかってるのか、俺のやり方に問題があるのか、色々教えてもらえたら嬉しい。
>>48 ツッコミ待ちか釣りかと思うほどだけどマジレス
教師画像多すぎ。過学習の可能性が高い。あと1を超えるweightはあまりやらない
civitaiのLoRAのinfoとか生成サンプルのプロンプトとか一度見てみた方が良い
>>30 一台のPCに複数環境作れる。
インストールフォルダを複数作って分けて使うだけ。
面倒なVAE切り替え面倒だから、フォトリアリティと絵画系を分けたりしている。
聞いたけどlinuxの方がパワー全開で使えるらしい
>>48 画像が多すぎるから時間かかってると思う。1/3程度でもまだ多いかと。
どうしても捨てがたいならリピート減らせば。
ちなみにepochはある程度回数刻まないと途中経過の1モデルごとの検証ができないので結果次のLRとかも決められない。
ウエイトは1でも教師画像の背景拾ったりガビるのが個人的感想。増してそれだけ回せばそりゃそうだろうと。
0.7程度で調整してみるとか。もっともここはアップスケールを何使ってやるか(t2iなのかi2iなのかとか)にも依存すると思うが・・・
パラメーターよくわからんうちはwebui-train-toolsのほうが良いと思う
4090買ったんですが、通常の生成は3080の2倍とかになったもののhires fixが思ったより速度が出ません。ちもろぐとかだとhires fix の方が差が出やすいと書いてたのですが、何かしないと行けない設定ってありますか? cudnn は新しいものに差し替え済み、アップスケール倍率は1.5倍ほどです。
Loraのin Picture Frameっての使うと人物がめちゃくちゃ幼くなるんだけどフレームが邪魔(本末転倒) これのフレーム部分を簡単に取り除くのにいい方法ありますか?
>>49-50 ,
>>53-54 みんなありがとう。ごめんね、釣りやるほどの知識もないくらいに俺がバカなだけなんだ…やっぱり過学習だったんだね…
教師画像はとりあえず500枚→100枚程度に減らしてみて、目標に対してどの程度の精度が出るか検証してみる。
そんで次に、リピート回数も、現状の10回から3回に減らして、様子を見てみるよ。
で、様子見ながら、エポックは10回程度で回してみる。
ちなみにアップスケールはt2i…だと思う。
>パラメーターよくわからんうちはwebui-train-toolsのほうが良いと思う
実は俺もこれは何となくわかっていて、最初にwebui-train-toolsで学習させたときに結構いい感じになって、でもLora/LyCorisだともっと良くなるのか?!と期待が先走って、過学習させちゃった感じ…
みんな改めて教えてくれてありがとうね。
自分もkohyaで上手く出来た試しがない webui-train-toolsのLoRAを超えられないんだよな
本当に上手なLoRAって再現性が素晴らしい上にエロエロなポーズでもなんでもやってくれるんだよな 過学習に陥らず、だけどシッカリ学習出来てる その域に達するのは難しい
>>57 個人的にはそれだとstepが100*3*10で3000になるので、もう少しepoch回してもいいかもしんない。
継ぎ足しでやり直しもできるけどめんどくさいから1epochごとにlora吐かせて検証していくのが合理的かも・・・
>>48 Number of CPU threads per core って、1か2じゃないの?
>>60 epochは悩みどころなんだけど、とりあえず今は、今の画像で100枚で、最低限の品質が出せる設定を色々試そうと思ってる。
でも3000stepだと一般論としてちょっと少ないんだね…最終的には5000stepsくらいになるように調整してみるよ。ありがとうね。
>>61 ごめん、完全に元ソースを読み違えてた。2でいいみたい。馬鹿だな俺…指摘してくれてありがとう。
色んな人がいるんだね この前にフレ申請してきた人の話だけどフレンドになったお礼に バザーの虫を1匹買ったら次の日にフレンドから消えてたのはそういう事だったのか! 向こうから申請してきてどうしてフレンドをやめたのか不思議だったけども バザーを買う人はブロックしてたんだw
年齢別無職表 18歳 何をするにしても余裕すぎる年齢。甘えるなカス 20歳 2浪の人間なんてザラにいる。人生に絶望とか甘え 22歳 大卒の友人がやっと働き始める歳。まだスタートラインに過ぎない 24歳 一度挫折した人間が働き始める年齢。ここまでは余裕 26歳 努力次第でどうとでもなる。成功者でもこの歳まで放蕩生活とかザラ 28歳 努力と才能、幸運のうち2つは必要。常人最後のスタートライン 30歳 3つなければ終了のお知らせ。奇跡を信じて働け 32歳 天才だったり親が金持ち権力者だったりしない限りまともな人生は無理 34歳 まだ生きてたの? 36歳 もう死んでやれよ。親を苦しませるな 38歳 働きたい?言うのが20年遅いよ。500円あげるから縄買ってきなさい
XL comfyuiで、複数の画像が入ってるフォルダを指定してi2iのバッチ処理?をさせる方法を知ってる方いたら教えてくださいまし。
すみません。どなたかわかりましたら教えてください a1111でroopを使える状態にしているとdw_openpose_fullがエラーとなって成立しない(通常のopenposeは使えるし、roopを起動時から外せばdw_openpose使える)のはおま環でしょうか? a1111はversion: v1.5.1です。
【CPU】Intel corei7-8700 3.20GHz 【メモリ】DDR4 16GB 【ドライブ】SSD 512GB 【グラボ】Nvidia GeForce GTX1060 3GB 【画像生成AI】ローカル環境 StableDiffusionWeb UI AUTOMATIC1111 【その他】 a1111-sd-webui-locon, a1111-sd-webui-lycoris 使用 低スペックな環境ですが、元々は336×640サイズ、step30の画像の場合は約30秒ほどで生成できていました。 特に設定は変えていないつもりなのですが、先日から急に生成時間が4,5倍ぐらいになってしまっており、原因がわからない状況です。 似たような症状や改善方法等について何かご存じでしたらご教示いただけないでしょうか。 xformersは試しましたが特に体感できる効果はありませんでした。
>>67 windows updateでグラボドライバが更新された、かな
グラボドライバのバージョンを532.03以前に戻す
pythonをインスコし直すとか SDを1.5に上げてみるとか
>>35 それだとLora使えばLoraの純粋な絵とか出やすくなるかね
>>41 1111を別のフォルダーにインストールするだけで好きなだけ環境用意できるで
プロンプト調整用、大量性用、Lora作成用でやってる
特にLora生成用はVRAMあまり使わない設定で起動させてる
3つ同時だと24G超えてしまうから常用は2つまででしてる
>>67 もう1つ1111を別のフォルダーにインストールする。そして定期的なバックアップを取る。
原因を調べるのもいいと思うけど、原因解明に時間使うよか新しい環境でやったほうが早いかも。
エロいけどヌケない絵ばかりのイラストレーターは死活問題? その程度ならかなり作れるようになってきた印象
>>68 ありがとうございます!グラボのバージョンを少し戻すことで改善されました。
いつまでたっても画力が上がらないエロ漫画家も 消えてくんないかなぁ ぱっとでの新人にぶっちぎられてるし
エロ雑誌買えば事足りるって層が買い支えている内は そういう人もしぶとく生き残るからなあ そっちはAIというより編集や出版社とのしがらみの方が主な問題だろうし
>>73 改善されたなら良かった
アップデートは脆弱性を直すのもあったからその辺りは自己責任で
遅くなる事象は過去スレでも話題になっていたので参考までに
40~100レス目ぐらい
【StableDiffusion】画像生成AI質問スレ14
http://2chb.net/r/cg/1688234958/ 初心者が同じところで躓くからテンプレになってるんだと思うよw
本スレから誘導してもらいました。 pcに詳しい人助けてください!! 最近イラストの生成が遅いなーと思ってたら 生成中のgpuの使用率がめちゃくちゃ低くなってた(1%〜10%前後) 他のゲームなどを起動するとちゃんと使用率は上がるからグラボ等の故障ではないと思う ここ1週間くらいでWindowsも更新したしwebuiも更新したからどれが原因かは正直わかりません。 イラスト生成は時間がかかるだけでちゃんとしたものが生成されています。 対処方法が分かる方いませんか? pc系は詳しくないので何の情報を晒せばいいのか分からないのですが、聞いて頂けたら分かる範囲で晒します。 生成中のCPUの使用率は50〜60%前後です。 環境はWin10でグラボはgtx1070(8g)です。恥ずかしながら超低スペックです。
>>82 先日のwinアプデでグラボのドライバ更新されたりして
デスクトップで右クリでnvidiacontrolパネル開いてヘルプ欄にあるシステム情報のドライバのバージョンってどうなってる?
人間慌てると周りが見えなくなるんだよな ドライバのバージョンが変わると環境が変わるのって冷静になるとこれが原因かもって気づけるんだけど
>>84 反応していただきありがとうございます
ドライバーのバージョンは「536.23」になっています
>>83 反応していただきありがとうございます
たぶんそれですかね
>>82 です
ドライバのバージョンを戻せば解決するっぽいですね
お騒がせして申し訳ありませんでした。
ググりながらバージョン戻す作業をしてみます。
もしその作業で詰まったり、改善しなければ、またここにお邪魔するかもしれませんが、助けていただけると幸いです。
>>82 です
無事解決しました。本当に感謝です。
ありがとうございました!!
SD1.5は「ウナギ, イヌ」とプロンプト入れるとウナギイヌが生成されがちだったのに、XLはウナギとイヌが別々に生成されがち そういう傾向ない?
Loraのベースモデル、ちょっと前にマージモデルは使わない方がいい、って聞いたんですけど、今の認識は違うのでしょうか? 種別を問わず、普段使いたいモデルでやるべき?
blue ball and red cube はやっぱりアカンな
>>91 個人で楽しむぶんには好きなのを使えばいい
マージモデル云々の話は収益化を考えた場合じゃないかな?
複雑なヤツが混じってる事があるから
もちろん収益化okのマージモデルも有る
前から疑問だったんだが、こういうのって生成画像からどのモデルが入ってるかなんて分かるん? 何かフィンガープリント的な物が残るの?
多くの人が使っている1111webuiは、画像のメタデータにどのモデルを使ったかの情報が書き込まれているよ
civitaiでマージモデル漁ってたら「俺のオリジナルと全く同じ構図で生成されるんやけど、俺のをマージに使ったなら明記してくれや」って絡まれてるのを見たことはある
実写系で背景に人を生成させたいんだけど、どんなプロンプトがいいの? ピープルとかメンズとかやっても全然でない
背景に人がたくさんいそうな場面のプロンプト入れる方向性かな 確率ひくいけどcityとstreetだけでも歩行者天国みたいな人通り出ることもあるよ
AUTOMATIC1111 web UI v1.5.1を使っています。 金髪女性のヌード画像を生成しようとしてるのですが プロンプトで blonde hair, blonde pubic hair と指定しても 頭は金髪なのに黒のアンダーヘアの画像ばかり生成されていまいます。 (blonde pubic hair:2.0) とかなり強調しても変わりません。 どうしたらアンダーヘアの色を指定できるんでしょうか?
>>101 アジア人系のモデルでやっているのかな?
ヨーロッパ系のモデルでやれば、すんなりできたりして?
知らんけど
外人はおけけ処理するのが基本だから金髪アンダーヘアはあんまり学習してないんじゃね?
肌の色と金色の陰毛が色合い近いと低い解像度ではうまく出ないこともあるかも
淫毛の色指定は俺も試したことあるけど効果無しだね 効果なしどころかバケモンが生成されることが多かったから諦めた 髪色と同じになってくれることをお祈りしながらガチャ
>>101 negative promptにblack pubic hair追加
髪の色書いても全く反映されない事がよくあるけど何が問題なのかねえ
しかしXLって単に描画の精度が上がっただけじゃなくて、美的な洗練度が段違いだよな あまりにも出来すぎ、かつ1.5との画風の違いがありすぎる それすなわち学習元が全然違うことの現れなわけで、つまりは偏りの証左であるわけで 良い絵が出来れば出来るほど、結局それは自分の手柄ではなく、学習元の誰かのおかげということになってなんだかなあだわな
fooocusがやたらオススメされるようになってきたのでPCローカルに入れてみたが、
全然速くなくてちっともよくないじゃん、と
思ってたんだけどどうもこれと同じ症状を踏んだのかな?
同じような方いませんか?解決法もわからない
グラボは 3060 12GBです。
https://github.com/comfyanonymous/ComfyUI/issues/972 2,3週間ぶりにリアル系やろうと思ったらこのエラーが出るようになった 顔の修正をすると出るみたいだけど原因わかりますか? これもグラボドライバの更新のせいですかね? RuntimeError: unexpected EOF, expected 2015217 more bytes. The file might be corrupted.
ち○こがブッ刺さる絵が出来るようになってヌケル絵に近づいてきたわ 生えることもよくあるけど 二次絵で薄い本が作られないようなマイナー作品でも自作出来て捗る
エラーコードで検索したらファイルぶっ壊れてるかもしれないから 正しいダウンロードしたよくなるんじゃね? みたいな記事は見かけた
>>112 システムメモリが足りないかも
モニターすると20GB以上食ってるから、
もし16GBだと遅くなるかもしれない
>>114 2GB?と思ったら2MBかw
予期せぬEnd of Fileがあったと、恐らくファイルが破損してると
何のファイルか知らんけど
>>117 ありがとうございます、まさに16GBなので、倍で32GBくらいにあげないとですかねえ
公式がいってる最低動作環境ではホントに
「動きはする」程度なのか。
>>116 >>118
ありがとう
顔の修正押せばリアルだろうがアニメだろうが全部エラーになるみたいだ
ログ漁ったら
*** Error running process: E:\Stable-diffusion\stablediffusion20230730v1.5.1\stable-diffusion-webui\extensions\sd-dynamic-prompts\scripts\dynamic_prompting.py
Traceback (most recent call last):
File "E:\Stable-diffusion\stablediffusion20230730v1.5.1\stable-diffusion-webui\modules\scripts.py", line 519, in process
script.process(p, *script_args)
File "E:\Stable-diffusion\stablediffusion20230730v1.5.1\stable-diffusion-webui\extensions\sd-dynamic-prompts\sd_dynamic_prompts\dynamic_prompting.py", line 482, in process
all_prompts, all_negative_prompts = generate_prompts(
File "E:\Stable-diffusion\stablediffusion20230730v1.5.1\stable-diffusion-webui\extensions\sd-dynamic-prompts\sd_dynamic_prompts\helpers.py", line 93, in generate_prompts
all_prompts = prompt_generator.generate(prompt, num_prompts, seeds=seeds) or [""]
File "E:\Stable-diffusion\stablediffusion20230730v1.5.1\stable-diffusion-webui\venv\lib\site-packages\dynamicprompts\generators\randomprompt.py", line 71, in generate
prompts.append(next(iter(gen)))
StopIteration
ってあったから原因はdynamicprompt何だろうか
XLで猫耳ガールを出力するとかなりの確率で猫耳ヘッドホンガールになるな 猫耳カチューシャからヘッドホンに引っ張られてるんだろうか
>>94 ありがとうございます!
てっきり技術的な問題だと思って、ずっと普通のモデルばっかりベースに使ってました
今度は好みのモデルで試してみます
>>112 you can use --highvram mode
二次絵で女の子を肥えさせたいんだけど体全体に有効なプロンプトってあります?fat,plump,chubby辺りを指定してボリュームが増すのは胸腹太もも周りで顔と腕は細身のアンバランス娘が生まれてしまう、強調したらそれこそ胸と腹で構築された肉塊の奇形になってしまいます
>>121 dynamicprompt削除して生成して問題ないかどうか試して
大丈夫ならもう一度dynamicpromptインストールしなおして試す
再現性あるかどうかわからんし
lora学習でtext encoderのみ学習をする場合 --network_train_text_encoder_only を入れろと見たんですが、kohya’GUIだと見当たらず… どこで設定すれば良いですか?
古いアニメやゲーム画像から顔だけ抜き出してLora作ろうとしたら顔の解像度が200*150とかで全然足りない 出来上がったLoraもぼやけ気味になってる どうしたら良いものやら
モデルの商用利用について質問です。以下の3つのモデルは商用利用可能でしょうか? ・Lucky Strike Mix ・lyriel13-Realistic ・OrangeChillMix (OrangeMixがリーク版NAIモデルがマージ元で駄目らしいのでこれも無理?) DosMixとかメジャー?なモデルはググって解ったんですが上記の3つが解らなかったのでお願いします それと、もしよろしければどう調べれば商用利用が可能か否かの判断が出来るようになるのでしょうか? それもご教授頂ければ幸いです
求めてる回答じゃないと思うから安価付けずにひとり言の体で書くけど、 そこらへん守ってる人って殆どいないと思ってる(無法地帯状態) ファンティアとかでどう見てもDosmix利用してる人が月額プランとかやってるし そもそも派生の派生の派生とか追いきれないから律儀に守ろうとしても守れない気がする
ぶっちゃけ商用利用に関しては肖像権と著作権 似た顔の人がいないか、まんま同じ絵柄の人がいないかの方を気にした方が良い
例えば商用利用アウトなDosMixで生成した画像を誰が「これはDosMixで作りましたね?」と判別出来るのかという話 画像データに情報が残るわけでも無し 更に言えばDosMixで生成した画像を商用利用OKなモデルで再生成しなおしたらそれはもうどちら様のモデル出身ですか?となる 事実上、誰も取り締まれないから無法地帯になってる だからこそ界隈がピリピリしてるわけだが
>>131 強調は波括弧{}じゃなくて丸括弧()使うとか若干違うけど概ね同じと思ってOKよ
ただ、使うモデルによっては全く効果のない単語もあったりはする
オープンポーズ実装された時からずっとエラーというか問題が起きていて 他の人なら以下のようにプロセッサーも指定すると棒人間画像も同時に生成されるらしいのに 自分は某人間画像がどこにも生成されてないのです 「棒人間画像も同時に生成する」みたいなオプションがあるのでしょうか? それとも棒人間画像も同時に生成されるというのは都市伝説でしょうか? Preprocessor openpose_full Model control_v11p_sd15_openpose_fp16
>>141 ありがとうじゃあ例えばケモミミ作りたかったら参考にできるか
>>137 こんなのあるんかありがとう入れてみる
【CPU】Intel corei9-9900 3.10GHz 【メモリ】RAM 32GB 【ドライブ】SSD 1tb 【グラボ】Nvidia GeForce RTX2060super VRAM 8G 1111のローカル環境でversionを1.5.1に上げて、 sd_xl_base_1.0.safetensors sdxl_vae.safetensors を所定のフォルダに入れたのですが checkpointを読み込めません ComfyUIでは読み込めて生成まで出来ます 単純にVRAM不足ですか? 出てきたエラーコードっぽいのを貼り付けます RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:72] data. DefaultCPUAllocator: not enough memory: you tried to allocate 8388608 bytes. *** Error verifying pickled file from C:\〇〇\〇〇/.cache\huggingface\hub\models--openai--clip-vit-large-patch14\snapshots\8d052a0f05efbaefbc9e8786ba291cfdf93e5bff\pytorch_model.bin *** The file may be malicious, so the program is not going to read it. AttributeError: 'NoneType' object has no attribute 'keys'
1111でバージョン1.5.1にしたら Ultimate SD Upscaleの拡張機能が使えなくなったんだけど 困るよなー
SDXL系モデルを読み込む場合はオプションスイッチ追加がいるよ set COMMANDLINE_ARGS=--xformers --no-half-vae --medvram この辺がオヌヌメ
>>131 高いパソを買いたくないヤシはNOVELAIで十分ですか?
>>139 生成の時間は実写系でも二次でも変わらんし、二次でもadetailer使いたい場面はたくさんあるから、PCのスペックが良いに越したことはないやで
4060Tiの16GBと4070だと、どっちがAI生成に向いてるんだろうか……
>>145 ありがとうございます、解決しました
その引数もいれてたのですがダメで、結局メモリ不足のようでした
仮想メモリ割り当ててみたら4分くらいで読み込めました
なんかおかしいのかな、取り敢えず時間かかるけど生成もできました
そもそもさんざんあちこちから画像パクってモデルを作ってるやつに権利なんかあるのかと
>>138 設定の「controlnet」の3行目、「directory for etected maps auto saving(検出されたマップを自動保存するディレクトリ)」をチェックしてみて
あとその下のほう、「allow detectmap auto saving(検出されたマップの自動保存を許可)」をオンにしたら棒人間画像が自動的に保存されるんじゃない
あと「Preprocessor」と「Model」の間の爆発絵文字💥をクリックするとPreprocessorが走って、棒人間画像だけを生成できるよ
法律が未整備だが権利は発生し得るじゃろ まあ当面の実用上は「商用利用OKと書いてあるよん」というエクスキューズが利用者として使えるかどうかって観点だろうな
お金がない人は 6Core12スレッド RTX 3060 12gb メモリー32gb 通常使用の人は 8core16 スレッド RTX 4090 24gb メモリー64 GB
>>151 日本の著作権法上はパクる事は正当な利用だしな
ここは質問スレなんだけど、質問やそれへの回答ではなく意見や感想をいきなり書く人がちょくちょくいるのが不思議だ 雑談スレがどこも機能していないから?
>>157 その代わりってわけじゃないんだろうけど
エロ情報交換スレで質問する奴急に増えてるわ
構って欲しいのに他に人が居ないor相手にされないから
>>148 4060Ti 16GBが評価されるのは3060 12GBの切り捨てが起きた時
それまでは16GBのメリットを発揮できない
まあ、8GB版+1万円くらいまで値下がりしたら先を見越して購入するのもありだとは思う
>>160 RTX 3060の12gb がずいぶん 安くなっているので
とりあえずそれで様子見で
>>148 あくまで自分個人の使用感だけど
SD1.5で使う分にはLoRA学習含めてVRAM12GBで充分だった
SDXLはNovelAIリーク派生のモデルがある&LoRA等の資産があるSD1.5には今のところ全く太刀打ちできない肩透かしだったので使う必要はなさそう
ただ今後はわからんし保障はできないという感じ
>>163-165 トン。VRAMが12GBだけど上位クラスの4070と下位だけどVRAM16GBだと、どっちの方が優位なのかなって……
そんなに変わらないなら、ゲームで遊ぶことも考えて4070かなと思いつつ、16GBってどれぐらい効くんじゃろうかっていう感じでお悩み中
4060Ti 16GB版も含めたテスト結果ちもろぐにあるから参考になるのでは 自分もゲームやるけど価格考えて3060にしちゃった4060Ti 16GBはゲーム性能低いし 4070は3060とRAMだけ見れば同じだし次にいいの来たら買い換えれば良いかなと 4060Ti 16GBはちょっと評価悪すぎて値崩れ起きる気しかしない
俺はとんでもない変態で最近は肩身が狭いどころか好みそのものがセンシティブじゃ済まなくなってしまった 絶望してた最中この素晴らしいお絵描きにたどり着いたんだけどどうにもならないところで梯子を外されてしまった・・・ このふわっとした上記だけで察してそれらを解決する手段があるのか教えて欲しい、導入してるモデルはチルアウト、カウンター、アリス 変態だのキチタトだの改行多いだの句読点つけろだのいくらでも罵詈雑言を浴びせられても構わないたぶんこれが最後の砦になるんで頼む・・・
ネクロフィリアはイラストでも少ないからAIモデルにもないんじゃないかな
大体なんでも抜ける猫的には 足りないものは自作する方向に進むしかないんだよ 追加学習はそのためにある
先月、先々月と比較して今のモデルと1111は8GBを超えるメモリを必要としなくなったように思う。 8gbボードで画像修正、改善、生成する上で困らなくなったように受け止めているかな。 それはモデルがガチャ性質を切り捨てて、特化型になるようになったこと、fp16で画素数落としても形状とグラデーションを欠損しないことが周知されてきたからじゃないかな。
>>172 お隣の国や古い人なんだろ。
噛み付いたら荒れるだろ
AIの学習が合法だから日本にGoogleのAI研究者が来るらしい 実際動き始めると既存権利団体が煩くなる条文をシレッと予め入れていた役人が凄腕すぎる
AIというかLLM、SDの合理解は、ガチャ性質を取っ払って特化的に選択可能なモデルの提供になると思う。 汎用人工知能という夢を追うよりもエキスパートシステムにすることで人に選択肢を増やせるし、制御もしやすくなる。 質問は内科医型、あたまゆる完堕ちJK型、オタク型、陽キャ型みたいに固定し、生成する画像も一定の顔、絵画系、フォトリアル系にわかれていく。 実際、写実的(フォトリアル)とアニメ(絵画系)は融合できないのだし。
>>133-135 >>132 です。レスありがとう
最近着手してばかりで商用利用の事とかまるで解ってなかったから
もっと厳密に守られてるルールだと思ってたんですが意外とそうでもない感じですかね
モデルの特徴紹介してるサイトや動画とかでこのモデルは商用利用可能でこっちは駄目~
みたいな解説されてるのを見て絶対守らないといけないって印象持ってましたが
>>132 で挙げた3つのモデルの商用利用の可否は結局解らないままですが
この様子だとそこまで気にしなくても良い?んですかね。ありがとうございました
今後主流になるだろうSDXLがどうなるかかな チビタイもSDXL1ベースがすごい勢いで増えてるし
グラボメモリサイズ的にXL使えないからLoraも等の開発の主流があっちに移ったら終わりだ… Loraも一個で600メガとかあるし現状1.5以前のLoraを使えないらしいし… 手が滅茶苦茶綺麗に出るならグラボ買い換えようと思うけど微妙な感じと聞くし… とりあえず必要メモリサイズが下がることをお祈りいたします
遅いけどとりあえず生成するには良いのかも
画像生成AIを始めたいけどグラボが高価で諦めている人に朗報、安価なAPUでも大容量なVRAMを割り当てて画像生成可能
https://gigazine.net/news/20230818-apu-gpu-vram-ai/ 百合は良いな 厳密に位置関係が合ってなくてもOKだしムサ苦しい男は現れないし
がんばって厳選して加工した画像で作ったLoRAより、自分がなんとなくいいなと思って適当に選んでそのまま作ったLoRAのほうができが良いのはあるあるですか?
厳選して加工すると無駄に枚数が多かったり、その加工が邪魔だったりしなくもない
>>181 最近はAMD系グラボでもそれなりに動くけど、まだ選択肢としては微妙だぞ
すでに持ってる人が試す程度には良いが、これを目当てに買うのはよくない
Seedを「-1」にするとランダムSeedの連番になりるけど連番にしない方法ない?
>>186 generate foreverはどうか
生成ボタンを右クリックするとメニューが出る
>>0187 さんきゅう。止めるの忘れそうだけど使ってみる。
>>181 1年後にはまたかなり違った景色が見えそうな可能性
>>152 ありがとうございます!
「allow detectmap auto saving」のチェックで出るようになりました!!
しかしこれ、同じ棒人間画像でも生成のたびに何十枚も保存されるんですね…
爆発絵文字クリック生成を個別に保存した方が良さそうなのかな
>>181 これGPU+PCのRAMと比較してどうなんだろ?
今、PC DDR4だと128GBが3万円くらいで入手できるし気になるところ
速度があまり変わらないなら安いGPUとPCメモリの組み合わせもアリじゃないか?
別のスレでちょろっと書いたけど速度が10〜30倍違うぞ (3060で12倍だから、4070で20倍?4090なら30〜40倍?、もちろんVRAMにおさまる範囲での話) すでに持っていてお試しならともかくね それならネットの生成サービスで試して、はまるようならグラボ買ったほうが後悔しないと思うんだが
>>181 おお…わずかな希望が
えっちな絵を生成するのに40万のゲーミングPCを買うのは庶民には厳し過ぎる
>>166 今正直言うと そこら辺 大した違いがないので
RTX 4090以外 買う必要はないし 買う価値もない
お金がないんだったら貯まるまで今のを使ったらいい
>>191 今のAPUのグラボ性能は1030程度。AIでの性能は知らんが3Dだとその程度の性能。
WinでAMD系を動かすにはDirectMLを使う必要があるけど、これが遅い。
ざっくりいって1030の3割程度の速度だと思えばいい。
これにはメモリ速度の遅さは加味されていない。たぶんもう少し遅い。
これでもCPUでやるよりは少し速いので持ってる人が試す分には全然良い
狙って買う物ではない。1050の中古を挿した方がマシ。
次世代のAPUは1050を越えるらしいので、それが安くなるころにはDirectMLの速度も上がってるだろうから、そこでようやく考えてもいいかな程度
>>194 この速度でいいんだったら、中古で2万のグラボを買ってくればとりあえず越えるぞ
質問なんですが、 今まで512×768でhiresで1.5倍に大きくしてリアル物を制作してたんですけど、 2倍にしたらリアル感がなくなり、人形みたいな質感になりました。 色々やってみたんですけど、1.5倍の感じで2倍にすることはできないんですかね? 大きくすればするほどノイズ除去の大きさが大きくなって顔も似た感じになるんですか?
stable diffusionでdeep booruってやつ入れてみたんですが 例えば「a」って打つと、「looking_at_viewer」ってサジェスト出るんですが、ok押すと、「_」が消えて半角スペースになるんですが、stable diffusionは「_」を使った方がいいみたいな事聞いたんですが、2つ質問どうなんでしょうか?
>>198 過去見た例でVRAM不足で平坦化するみたいなのはあった
http://2chb.net/r/cg/1686751262/166 ちなみにグラボは何すか?
>>199 そもそもはアンダースコアが入ってるdanbooruのタグを検索する拡張なんでアンダースコア付きが出てくるんだけど
https://www.reddit.com/r/StableDiffusion/comments/11husib/does_it_matter_whether_i_use_an_underscore_in/ > Waifu Diffusion の古いバージョン (1.3 より前だと思います) とその派生バージョンでは、
> トレーニング データにアンダースコアが使用されています。
> Waifu Diffusion のバージョン 1.3 以降では、トレーニング データからアンダースコアが削除されているため、
> アンダースコアは必要ありません。
最近のモデルはwd1.5より上なんで、デフォでsettingsのtag autocompleteの
「Replace underscores with spaces on insertion」にチェックが入ってて自動削除される
>>200 ありがとうございます!
つまりスペースでもアンダーバーでもどちらでも問題無いという事ですね(逆に削除されたならスペースのが良かったりするのかな
学習時にアンダースコア入ってないならアンダースコア入れるとまずくね? ベクトルを作るところがどうなってるのか知らんから実はその過程で影響弱くなるのかもしれんが
入れても入れなくても効くのは効くんだよね・・ でもtoken数で損するはず、それぞれの単語にすべてアンダースコア入ってるとすぐ75になっちゃう 1girl, looking back,looking at viewer ・・・ トークン数:9 1girl, looking_back,looking_at_viewer ・・・ トークン数:12
まぁ75はbreakつかえばいいけどね・・(必ず突っ込んでくる人がいるので先回りしとこう)
334 名前:: (ワッチョイ 030d-s/3t)[] 投稿日:2023/08/17(木) 16:17 ID:Uj1O2WQW0 [2/5] ワイは512で構図ガチャしてLatent 0.55で768にアップスケールしてそこで手ガチャや細部の修正終わらせた後にUltrasharp1.00&CNで1536に拡大する派 本スレに書かれていた拡大のやり方ですが、これを初心者にもわかりやすく、くわしい手順を教えてもらえませんか?
使うアップスケーラと画像サイズがそのままわかりやすく書いてあるから 逆にわからないところをどうわからないか具体的に尋ねた方がいいんじゃない
これ見て何言ってるかわからないレベルの初心者だと 教えても次はここがわからないあれがありませんエラー出ましたって質問が延々と続くコースなんよなあ 「stable deffusion ○○」でわからない言葉をグーグル先生に聞いて一つずつ理解していった方が 今後の生成に役立つと思う
昔は2ちゃん来たら 口は悪いけどテンプレ見たら分かるように書いてあったのに 随分と冷たくなったなぁ
どこぞのメモ文章貼り付けて「全部教えて」はちょっと 自分でネットで調べるなりして試行錯誤やってみて、わからないところがあったら逐一聞いてほしい
それこそChatGPTかBing Chatで聞いたら出てきそう
>>168 です、昨日はあれから2ちゃんに入れなくなって書き込みができなくなっちゃいました・・・
今は時期尚早と判断して明るい未来が来るのを信じてROMろうと思います、皆さんありがとうございました。
>>200 グラボは3080です
生成中に途中経過でプロンプトが効いた感じで終わり間際で画質がガラッと変わる感じですね
怪しいプロンプトは入れてないし、1.5倍なら問題ないんですけどね
>>211 先端を行ってる内容だから5chを見れば分かるという状況ではない
下手したら投稿者以外は誰もまだ遭遇していないエラーという可能性すらあるのが現状
既存のエラーだとしても全て網羅は不可能だし
パッケージソフトじゃないんだから仕事でちょっとPC触ってるぐらいの人向けではないってわからんのかな
>>216 > グラボは3080です
メモリは足りてそうだね・・
> 生成中に途中経過でプロンプトが効いた感じで終わり間際で画質がガラッと変わる感じですね
これはよくある勘違いの可能性が高くて
デフォルトでは最後までは簡易ver(ボケてて大抵いい感じに見える)が表示されてて、
完成した瞬間に初めて本来の縮小が表示される、「最後に急に変わった」って過去山ほど見た質問の原因
settingsのlive previewsを一時的に「full」(かなり遅くなる)にして経過見てみてどんな感じになるかな?
(なお縮小なのでプログレスバーが50%あたりでhires始まったらあんまり変わらない)
あと、x1.5とx2.0の間も小刻みに調べてみるとか
>>205 ウルトラシャープの部分は多分外部ツールではないかと。
1111とは別、パイソンのそんな名前のコマンドだと思う。しらんが
>>196 まあ、どうせガチャなんだから寝ている間や仕事している間にバッチで回しておくなら一時間に一枚しか生成できなくてもいいんじゃない?
kohya_ssを使ってloraを作り始めました 背景の小物のloraを作りたいんですが何も考えずに作ったloraを使うとキャラが消えてしまいます できれば背景だけに効いてキャラに影響しないloraを作りたいんですがどのように設定すべきですか
訂正した方が良さそうなレスがあるけど本人が納得してるならそれでいっか
>>202 関係あるかどうかは分からんがpythonのプログラムでは
アンダースコアと半角スペースは文法上の意味を区別しないというのがあるので
AI系のpromptがそれに準じていれば同等とみなされる筈
>>226 ありがとうございます。inpaintやフォトショで貼り付けてi2iする方法も考えましたが
そもそもlora作成スキルを上げたいと思ってあのような質問をしました
こんなスレがあるなんて知らなかった 個人で楽しむためアイコラ作りたいのだけど アイコラ作るのに必要なグラボ教えてくださいエロい人! アイコラ作るだけでもアウトなんです? 逮捕は嫌なの!
(どれだけ時間かかっても良いので)アイコラ高画質で作れるグラボ(で1番安いの)を教えてください🙇♀
>>231 覚悟と暇さえあればcpuだけでも出来るよ
ワイが思う高画質は4K以上だから1番安いグラボはGTX3090(10万円以上)
別に4Kでもtilesとか駆使すればcpuだけで行けるでしょ。1枚2時間とかかかるだけで
3060-12GBが4万以下だけど年内にもっと安くなるんかな ここらへんが底かな XLの登場みたいに新システム登場して推奨メモリが上がった時を考えると12GBで良いのか悪いのか悩ましい そりゃ24GBの4090とか買えたら幸せだけど…
>>231 今持ってるパソコンがどんなもんか書いた方がいいな
どれだけ時間がかかってもいいなら手持ちのやつで大丈夫な可能性は高いからね
lexicaみたいなAI絵のプロンプト付きギャラリーサイトって、他にどんなのがあるでしょうか?
sd-scriptsで10日ぶりにLORA作ろうとしたらUnidentifiedImageError吐いて動かなくなった 設定も変えてなければ教師画像も何もいじってない pngが悪いのかと思いデンコ素材そのまま突っ込んでもだめ 新しい環境ゼロから作り直してもやっぱり同じエラーなんだが、原因や対処法思い当たる人いましたら頼みます
kohya_ss でアウトプットフォルダ指定のエラーっぽいのだけど 生成自体は問題なくできているので何が何やら インプットフォルダは 繰り返し回数_ネーム ですけど アウトプットフォルダにそんな指定ありましたっけ?? ERROR The following folders do not match the required pattern <number>_<text>: C:/StableDiffusion/kohya_ss/learning_lora\lora_outputs
>>230 アイコラを作りたいなら写真加工のフォトショップが一番だぞ
グラボいらない
3060買ったらアイドル80ワットで生成中250ワットになりました
>>241 > C:/StableDiffusion/kohya_ss/learning_lora\lora_outputs
「/」と「\」が混在しているためにエラーが出ているのかな。でもエラー内容とちぐはぐだ
>>242 今のフォトショは全機能使うにはそこそこのグラボ必要だよ
アイコラ作るの難しいのか・・・・悲しいなあ 個人で楽しむだけなのに
>>248 どこ読んだらその結論になるのか。単に構って欲しいだけかよ
一から十まで全部教えてくれて出来るようになってないとタイパが悪いっていう人種がいるんでしょ? 自分で先頭を切り開いていこうという人が減った気はする
ちょっと見ないうちにメチャクチャできること増えてて驚いた
>>249 >>251 うっ・・・たしかに・・・
でもお金・・・アイコラ作るために半年バイトして4090買うしかないか
情熱だけはあるよ!
>>253 誰もそんなこと言ってないのに何故その結論になるのか。情熱だけしか無くて頭が足りてないみたいだけどそれじゃ無理だよ
ところでアイコラって切り張り倶楽部っしょ? 基本的に再生成するAI絵はちょっと方向性違うんじゃ無いのかな?
>>230 「Edge」というブラウザで
https://www.bing.com/ というサイトにアクセスして
各行の項目を別々に「〜について教えてください。参照元のURLも数点付けてください」
とAIに聞いてみると良いよ
>>220 遅くなってすみません。
何故かわかりました。
サイズ変更と共に導入したadetailerでした。
全身だと効果的なんですけど、接写でも効いちゃってました。
接写状態で効かせないように出来ればいいんですけど…色々やってみたけどだめなんで切ることにします。
>>245 >>247 ちなみに kohya_ss GUI 使ってますけど
作成開始時に生成される json ファイルだとフォルダパスは正常に投げられてるんですよね
はて?
まぁ作成に支障は無いのでもう少し調べてみます
すみません、こちらでSeaArtについて質問するのはスレ違いでしょうか? 探してもSeaArtに関するスレが無かったもので
RTX 4090は安いので生産しなくなって NVIDIA は H 100とか A 6000とかはそっちの方の 生産にシフトしてるから 在庫がなくなり次第 変えなくなる
スレチではないけど 知ってる人、使っている人が見ていて運よく答えてくれるかどうかはわからない 自分で検索したり紹介してるページ探ってもわからないことだったらとりあえず書いておけばいいと思う
>>260 _(アンダーバー)混じりのフォルダ名がチェックで誤爆してるんだろう
imgフォルダもLora_Imgとかにしててその辺りが引っかかってるんじゃ?
一旦_付けないフォルダ名に変えてみたら
ではお言葉に甘えて質問させていただきます SeaArtで生成する際には デフォルト・SeaArt2.0・SeaArt2.1 等のモードを選択する項目があります デフォルトは無課金で無制限で使えるモードでSeaArt2.xは課金で使えるようになるモードとなっており、 デフォルトよりも高品質且つプロンプトの理解力も向上するといったものとなってます SeaArtはStableDiffusionやNovelAI等をWeb上で代行するサービスと理解しているのですがここからが質問です StableDiffusion等にもこういったモードによる品質差を選択する項目があるのでしょうか? AI生成イラストを投稿するサイトでは使用したモデルとLoRAとプロンプトを公開しているものがありますが、 コピペして同じ条件でSeaArt2.xで生成してみると同等のクオリティのものが出来上がります ですがデフォルトモードで生成してみると奇形率は上がり姿勢や背景等の指示も無視されがちで明確に差が生じます StableDiffusion等にもこういったモード選択があるのであれば納得なのですが、 もし無いのなら課金誘導のために内部でネガティブなプロンプトを追加されているのがデフォルトモードなのかな? と疑問に思ったので質問しました。よろしくお願いします
補足しますと課金誘導云々はただの推測であり、別に課金が嫌とかそーいう話ではありません (むしろ既に課金してSeaArt2.xを利用していますし、だからこそデフォルトとの違いを検証もしていますので) 単にどういう仕組みなのかな?という漠然とした疑問からの質問です
>>265 sea artの中身はSD系
奇形率が上がったならキャンバスサイズで有料と無料を分けているんでね?
キャンバスが広い方が書き込みが増えて緻密できれいに見える
>>265 標準版は生成時のSampling steps数を課金版と比べて著しく落としているのかもね
>>266 SA2.0とSA2.1はSD1.5系とSDXLの違いかもわからん
SDならどちらも無料
Cドライブどんどん減るけど まるごと移動させらんないの?
>>264 結論としては誤爆っぽいです
ログを細かく読んだら「回数の指定されていない物は無視します」とか有ったので
LoRAの完成品は指定したフォルダに正常に出力されているので以後は無視しますw
>>270 シンボリックリンク使いなされ
(youtubeにスゲー細かい説明がいくつもあるよ)
ただCドライブがSSDであれば本体とモデルはそのままを推奨
(読み込みサイズが大きいので)
モデルが増えて容量圧迫であればモデルもシンボリックで
本体だけはCドライブで
>>265 です。レスありがとうございます
>>267 どちらのモードも指定できる画像サイズは同じですのでそこでの差別化ではないみたいですね
でもキャンバスが広い方が書き込みが増えて緻密で綺麗に見えるというテクは参考になりました
>>269 情報を小出しにしてしまってすみません。実はモードの選択肢の中にはSDXL1.0という項目もあります
正確には デフォルト・SeaArt2.0・SeaArt2.1・オート・SDXL1.0 の5つの選択肢でした
このうち課金で使えるようになるのはSeaArt2.xの2つのモードのみでSDXL1.0は無制限です
質問を短めに纏めようと「等」で省略してしまいましたがここは省くべき点ではありませんでした、すみません
でもおかげでSDにはSeaArtにあるような品質差が変わる類の選択項目は無いという事が解りました
>>268 となるとやはり意図的に品質を落とす処理がデフォルトモードでされていると考えるのが自然でしょうか
導入や諸々の手間を代行する代わりにSDと同等の品質のものを生成したければお金を払えという事なんでしょうね
それが嫌なら自分でちゃんとSDを導入してやろうって事のようです
>>262 それ本当かな?
4090の価格見てると、酷い円安になったのに横ばいか下落傾向
ドルベースだともっと下落してそう
実は50XXのための在庫処分ポジショントークってオチではない?
安いから生産しない、のではなく、 売れないから最低保証分しか生産しない 生産委託するとこに最低これくらいは引き取ると 契約してライン作らせてるから、在庫は増える一方 アナリストは、既存の3090ユーザーがリプレース するだけの魅力が4090にないから売れないのだと 言っているから、3090ユーザーが飛びつく性能と 価格を出せるまで5000シリーズは出そうにない
>>211 さすがにテンプレで分かるほど簡単じゃなくなったからな
>>275 まぁゲームなら24Gもいらないし蛇足感強いな
SD流行ってるかと思ってアニメスレとかアニメ好きの多いスレ見るけど無風
SDなにそれ状態
最近AIスゲーとか言ってるの実はK56flexスゲー言ってる層と変わらない気がしてきてる
原価50万のH100は500万で売れてガハハのNVIDIAさん 裏ではがんがんAIに金がつぎ込まれている
>>278 H100とかが売れているのに安い RTX 4090 作る 必要ないもんね
売れてないってソースどこです? 4080なら聞いたことあるけど
4090が安いとか富豪かよ・・・ H100ってなに?それ?おいしいの?
>>241 ついでなので参考までに
実写系顔LoRA作成
環境:
RTX3060Ti (8GB)
メインメモリ 32GB
Ryzen 5700X
ストレージ m.2 SSD 1GB
素材画像は 768*768 で統一
40枚
繰り返し数 1
エボック数 50
→ 2000ステップ
これで5分~5分半
標準モデルでも割と要素が出てくれる
実写系モデル(BracingEvoMix)を使うとたまにソックリさんが出るw
ただし顔がたまに崩れるので既に過学習の兆候??
>>181 のAPUだとdGPU無しでもそこそこ早くStable Diffusion使えるという話。
これノート用のCPUでは使うことはできないの?
AMDのAPUじゃないと無理?
>>181 この記事みて、増設メモリ(16GBx2)買ってきた。
今5600Gでグラボ無し、メモリ8+8=16GB
マザーはメモリスロット4つあるから、48GBにする予定。
BIOSでVRAM割り当て設定は無い模様。
うー、kohya_ssまたUI変わってるうー Advanced Configuration と Sample images config相当を見つけるのに1時間掛かったよ… LoRA->Training -> Parameters の下で更にBasic/Advanced/Sampleにタブ分割したのね 悩んだの俺だけだろうけど あ、学習停止ボタンできたんだ
>>286 APUの場合どちらにせよDRAM(メインメモリ)なので
VRAM扱いじゃなくても速度は変わらないはず
ただデュアルチャネルでないと速度がさらに半減するので注意
>>285 型番書くと返信もらえると思う
でも、3060 12GBはこのスレも一役買ってミリオンセラーなんじゃないかな、
>>286 48GBとは豪華だなー
速度のテストしたら報告おねがいします。
これで爆速になるならRyzen APU大ブームくるかも
>>288 AMD PCはこれから用意するから型番はまだわからない。
できればdGPUは買いたくない。小さめケースのPCにしたいから
>>289 余裕で平気
百度超えたらさすがに勝手にクロック落ちるはずだけどそこら辺まで上がるようになってから対策考えればいいよ
自作loraって無知識からだと何分ぐらいで理解出来る?
簡単だよ。作業的には、覚え込ませる画像を何枚か準備し、タグを外し、コマンドを流すだけ
>>293 ややこしいことをせずに1111で作れば5分位で使い方理解できる
kohyaのほうは未だにわかんね
学習失敗のLoRAならすぐに作れる 成功させるのは難しい
kohya_lora_guiまたはkohya_guiの設定ファイルをアップしてくれないかな? すでに何処かでアップされていたらURL教えてほしい。 参考にしたい。
VRAM 4GBじゃlora作成はどうしようもないでしょうか? 画像生成はlowvram使えばどうにかなっているのですが。。
APUで動く程度で何をわくわくするのかわからん 半年前には動いてて、試してた人もいるのに何を今さら? 何か画期的な速度アップの方法でも見つかったのかと思えば、記事には特に何も書いてない
スク水みたいな黒っぽい色の物を出すと表面にウロコみたいなのが出るんだけど似た症状の人おらん? ノイズ除去強度とかサンプラーとかモデルとか変えたけど程度の差は有れどあらゆるケースで出現する
特定の呪文(ネガ含む)が邪魔してるかもしれないし アップスケールしたら滑らかになるのかもしれない どんな感じなのか見た目もわからん 個人的にはそういうのに遭遇した感じはないなあ
>>293 だけど解説サイト読んだけど難しくて諦めたわ
スタートラインに着くまで長過ぎでしょ
ありがとうそういえばネガ触れてなかったので試行錯誤続けます
>>303 ひとまず
・画像は 512*512 で揃えた方がベターかな
(俺は 768*768 だけど基本は 512*512)
・キャプション(タグ)の .txt を作る
・inputフォルダの指定がひと癖あるので注意
・正規化画像を使用しないのであれば繰り返し回数は1でエポック数で総ステップ数を調整
こんなとこか??
>>303 普通なら研究者か仕事で専門にやってる人が使うような道具だからな
なんつーハイアマチュアでも使えるようになってはいるが
後はそうだね 実写系ならモデルはまず標準で イラスト系はAnyLoRAが良いと言われてる (自分は実写系しか作らないのでこの辺りは分からないです) ネットワークdim - ネットワークアルファは 32-1 ? 32-32 ? (このあたりは自分も試行中) 後はデフォでいいんじゃね??
画像サイズは拾ってきたのそのままテキストもTaggerに放り込んで未編集 それでも思い通りのLoraが作れてるのはkohya版だから?
ローラ作成のキャプション編集でキャラクターを覚えさせるのに、ポーズ系を示すプロンプトを消していいのか毎回疑問
3060の12gbでまだゲームとかやった事ないんだけど、重いゲームだとやっぱファンとか常にフル回転で80℃越えなん?
>>301 せめてそのウロコ部分だけでもアップロードするなりしたら?
言葉だけだと何のことやらw
肌が麻袋みたいになるのは昔なったけど、原因なんだったか忘れた・・ ウロコも他人がなってて指摘されて解決されてたの見たことある、bbspinkだったかなぁ いずれにせよなんか間違ってるのでchunk付き画像上げたほうがいい
>>301 bbspinkを自分で書いた「麻袋」で検索したら出たw
ノイズ除去強度で治ったらしいから違うか
【StableDiffusion】AIエロ画像情報交換22【NovelAI】
https://mercury.bbspink.com/test/read.cgi/erocg/1682066389/271 271 :...φ(・ω・`c⌒っ (ワッチョイ 0ae1-YWDm)[sage] 投稿日:2023/04/23(日) 19:10:23.72 ID:xAQVhiYQ0 [1/2]
昨日から髪の毛や服に謎のうろこ模様?が出るようになってしまって困ってるんだけど
何が悪いのかわかる人いますか?
292 返:...φ(・ω・`c⌒っ (ワッチョイ 0ae1-YWDm)[sage] 投稿日:2023/04/23(日) 20:07:19.07 ID:xAQVhiYQ0 [2/2]
hiresfixのノイズ除去の強度上げてみたら変な模様消えました
ありがとうございました
なんかGPUより内蔵グラフィックでメインメモリ割り当てたほうが早いらしい
どこソース? 流石に並列演算に特化したGPUに勝つのは難しいだろう 昔のGPU相手なら可能かもしれんけど
>>293 >>303 ・とにかく学習画像を768px以上で16枚以上集めてみる
・waifudiffusion もしくは stablediffusion webui 拡大 で検索して小さい画像の拡大方法を実践して学ぶ
・「LoRA GUI なんj github」で検索して環境構築
AIは知識よりとにかく泥臭くて面倒な下働き作業をどれだけできるかや
ただLoRAに関しては専用スレがあってもいい気はするな
まともに機能してるコミュニティがなんUのスレくらいしかない
>>318 画像生成AIを始めたいけどグラボが高価で諦めている人に朗報、安価なAPUでも大容量なVRAMを割り当てて画像生成可能
https://gigazine.net/news/20230818-apu-gpu-vram-ai/ >>319 >AIは知識よりとにかく泥臭くて面倒な下働き作業をどれだけできるかや
ほんそれ
ひたすら待ってひたすら選ぶだけw
>>321 それのどこにGPUより速いと書いてあるのか
>Ryzen 5 4600Gを用いてStable Diffusionで「解像度512×512ピクセル」「ステップ数50」という設定で画像を生成した結果、画像1枚当たり約1分50秒で生成に成功したとのこと。
>>321 めちゃくちゃ遅いが何のGPUより早いんだ?
>>305 繰り返し数は1でいいんだ
イマイチepoch数との関係が理解できていない
どこかの情弱向けアフィサイトの自演? Ryzenやメモリのアフィリエイトを載せたいとか?
AI生成の為にRTX4090買った海外の人達がRedditでめちゃくちゃ狼狽してるなw
そんなに慌てなくても、CUDAの処理速度には勝てないってw CUDAに勝てるなら、APUとか言わずに普通にRadeonの天下になってる メモリは基本ラデの方が多く積んでるんだから
消費電力気にするレベルならローカルでやる事考えないほうが良いんじゃないかなぁ
一枚あたりの生成速度が遅いから、結局はトントンじゃね? ハイエンドGPUが10分で終わるところを10時間かけてちゃあんま意味ない
いつかは出るんだろうけど、はよRadeonでも最適化されて同等の速度出るようになってヌビダ一強時代終わって欲しい グラボに10万20万出すのが当然みたいな時代おかしいわ
一強時代が終わっても安くなる未来はちょっと見えないなあ
自動運転が当然で自分で運転してる人なんて年に数回見かける程度になる未来になら
>>325 繰り返し回数は
素材を事前コピーする倍率
エポック数は
学習のセット数
っていう認識をしてるかな自分は
簡単には「正則化(?)画像を使う時だけ」と覚えておけば良いみたい
例えば<素材50枚・正則化100枚>だとして
繰り返し回数を 2 にして素材を事前に倍にして100枚にする
そうすると<素材100枚・正則化100枚>になって釣り合う
この100枚ずつのセットをエポック数で何周学習させるのか決めるっていう感じ
正則化画像ナシなら単純に素材50枚だけの学習になるので
繰り返し回数は 1 で素材は50枚
エポック数 20 とすれば 50*20=1000
仮に繰り返し回数を 2 にすると素材が コピーされて倍になって50枚が2組
エポック数を 10 とすれば 50*2*10=1000
結局「50枚20セットと50枚2組10セットはイコール」なので何も変わらん
(っていう認識を自分はしてます)
>>301 そのうろこは半透明処理を誤差拡散で再現することを試みている結果という認識
光沢などを重ねているときにそういう演算が起きている
自分が真っ先に疑うのは、Sampling method
学習率の変化がエポックによるのであまり少ないエポック数にはしないようにしている リスタートさせる設定の場合は特に
>>291 48 GB で豪華とか
最低 64GB からだぞ
>>321 加納っちゃ可能 だ
可能ではあるよ
あくまで狩野ではね
それでどうすんの っていう話で
>>333 グラボ 100万 200万かかる時代になるのに
なんで買わないんだろうな
こうなるまで俺はGTX970で我慢する!! 3060 4980円! 4070 9980円! 鼻毛カッター付き! 4090 19800円! 高級鼻毛カッター付き!
初歩的な質問ですみません SDのembeddingsフォルダにeasynegativeを入れているのにtaxtual inversionが空なのはなぜでしょうか? 毎回テキスト打ちで困ってます
>>344 他のtaxtual inversionやLORAフォルダに入れてるものは全部見えてる?
>>345 返信ありがとうございます
loraは無事に表示されてます
embeddingフォルダにはEasynegativeの他にもいくつか入れてるんですが、何も表示されません
ちなみにhypyernetworksタブには「ここには何もありません。以下のディレクトリにコンテンツを追加してください」とあるんですが、texualinversionタブはそれすら表示されません
グーグル先生はSD2.0使ってる人だと1.5用のtexualinversionは認識しないっていってるな 後は情報がないのでわからぬ
>>347 おそらく同じのみました
1.5のはずなんですけどね、、、
i2iでこれ設定しとけばいいよみたいなのありますか?
pixaiについての質問もこちらで宜しいでしょうか。 もしわかる方がいらっしゃれば是非教えて頂きたいことがあります。 先日自作のLoRaモデルをPixAIに投稿したのですが複数のタグを付けたにもかかわらず、それらのタグで検索ができない状況です。一方、自分のユーザー名で検索するとヒットします。なぜこのような状況が生じるのか、そしてPixAIの公式ヘルプセンターは存在するのか教えていただけると助かります。お答えいただければ幸いです。
SDXL周りの環境ってまだ黎明期でcontrolnetもLoraも高品質なモデルも揃ってないから実用は1.5って段階?
>>48 だけど、教えてくれたみんなありがとう。(顔についてだけ言えば)かなり満足の行くLyCORISが作れたよ。
■lyco有無比較画像 ※細かい設定は後述
https://ibb.co/DpHqcTn >>61 あれから色々あたったんだけど、結局CPUの論理プロセッサ数(うちの場合は32)に設定した。そしたらkohya_guiでlyco生成中も、CPU・メモリの使用率が上がって、若干lycoの生成速度が上がった…気がする。
kohya_guiの設定については、最初はみんなの意見を参考にして画像数を減らしたりしてたんだけど、どうもしっくりこないから、結局以下の設定でやった
■kohya_gui設定
ベースモデル:runwayml/stable-diffusion-v1-5
LoRA type:LyCORIS/LoHa、教師画像数:500枚(512x512)、学習回数:4、batch:2、Epoch:8、MP:bf16、SP:bf16
Number of CPU threads per core:32(この設定だと個人的にはPCメモリ48GB以上推奨な感じ)
Prodigy+cosine。Dimensionはどちらも16。これで17時間くらい。
■生成時のプロンプト等
※自作lycoありの画像はweight1.6、lycoなしは未記入※,1 japanese idol gir, ((solo)),very cute,detailed eyes,t-shirt,long hair,realistic,((portrait)),simple room background
Negative prompt: EasyNegativeV2, bad-hands-5
Steps: 40, DPM++ SDE Karras, CFG: 10, Seed: 557006079, Face restoration: CodeFormer, Size: 512x512, Model: yayoiMix_v20, Denoising strength: 0.5, Hires upscale: 3, Hires upscaler: R-ESRGAN 4x+
■個人的な感想
>>48 では学習回数2.5万、AdamW8bitで、Weight1.6とかにすると過学習でやべー画像乱発だったけど、今回は学習回数を1.6万にした上で、Prodigy+cosineにしたら相当安定した。さすがオート。もっと教師画像が少なくても上手く行く方法もあると思うんだけどね…
用途や目標にもよるとは思うけど、教師画像が多くてkohya_guiで上手く行かない人は、上記の組み合わせを試してみてもいいかもしれない。
少なくとも今回は個人的には満足な出来だから、次はメンズを作ってみたいと思う。
教えてくれた皆、どうもありがとう!
意味が無いとは思うんだけど、SEED値を完全ランダム(-1)ではなく毎回+1されていくみたいな事って出来ますか?
シード値が近いと似たポーズが出るよ そして1ずつ足したいなら初期シード値を指定してバッチカウントを上げればいい
>>328 4090買う人間が狼狽するわけ無いやん
>>353 「バッチ回数」を必要な枚数分増やして生成すると、シード値が1ずつ増えながら生成していきます
>>354 >シード値が近いと似たポーズが出るよ
そう感じられることがあったとしても、SDの原理上これはないはず
>>357 そうなのか
今まで作ってきた体感の問題なんで気にしないでくれ
たまたまだったようだ
まだAI触り始めて2週間ぐらいだけど ちょっと複雑なポーズさせようとするとすぐ破錠しちゃうから 人間の絵師が滅ぶことは無いと思う。
絵を描き始めて2週間ぐらいだけどちょっと複雑なポーズさせようとするとすぐ破錠しちゃうから人間の絵師が滅ぶことは無いと思う。 と同義
1111、ComfyUI、fooocusとローカル環境も増えたなあ やっぱ、このスレのみんなは1111派?
stable diffusionのComposable LoRAが動作しないのですが、理由がわかる方いますでしょうか? もともと最新(?)の状態からCommit hashを 【a9fed7c364061ae6efb37f797b6b522cb3cf7aa2】にダウングレードさせたのですが動きません。 気になるエラー表示はなくて、手づまりな状態です。原因がわかっる方がいましたら、よろしければ教えて頂きたいです。
上の363です。
最初の起動時の表示は下みたいな感じになってます。
https://imgur.com/sDsCoWN 見れなかったら教えてくださいm(__ __)m
「動作しない」とは具体的にどういう症状か?どのようにプロンプトを指定しているか?を書いたほうがよいかも。 ・エラーメッセージがでる。 ・一覧に表示されない。 ・期待する絵が出力されない。 ・絵が似てない。作画が崩壊している。 など。 エスパーレスだと適用するローラの名前指定誤り、次がローラに対応するトリガーワードの指定誤り(missonary、Nahidaとか)
>>363 元々1111と相性悪くて入れても機能しないこと多いからフォーク版を使えって検索したら出てきたぞ
フォーク版落としてもダメならしらん
>>364 > Locon Extension hijack built-in lora successfully
これは恒例の魔物か・・
https://github.com/KohakuBlueleaf/a1111-sd-webui-locon > a1111-sd-webui-lycoris を使用する必要があります
>
https://github.com/KohakuBlueleaf/a1111-sd-webui-lycoris > この拡張機能は基本的に非推奨であり、正式なアップデートはまったくありません。
> 代わりに a1111-sd-webui-lycoris を使用することを検討してください (ただし、新しい PR がある場合は、
> 受け入れます) この拡張機能の使用中に問題やエラーが発生した場合は、
> それを削除して、lycoris 拡張機能をインストールすることを検討してください。 ↑
>>354-358 >>356 ありがとうございます!
因みに似たような絵にするにはどのようにすれば作れますか?
>>363 v1.2.1あたりまで下げたのか不整合起こしてる可能性もあるし別のフォルダに入れ直してみた方がいいかもね
>>369 Control NetのCannyという機能で生成すると似たような絵になるよ
SDXL LORAは出来たけど元のモデルにエロが入ってないせいでエロいポーズやらできないんだか DB出来るようにならんかなぁ
メモリ合わせて測定しろよ なんで8Gと12Gで比較してんだよ
>>373 モデルが記録していない画像は合成出力できないからね
自分でLoRA作って紐付け記録していくしかない
>>374 その記事は書いてる人がAI生成についてあんま詳しくない
たぶん例の、あるver以降のnvidiaのドライバでVRAM足りないと
oomを出さずにメインメモリ使ってめちゃくちゃ時間かけてでもやり遂げる、ってのに引っかかってるんだろう、XLだし
そういう記事で検証する場合は当然最新にしてるだろうし
http://2chb.net/r/cg/1688234958/99 99 名前:名無しさん@お腹いっぱい。[sage] 投稿日:2023/07/04(火) 12:11:09.63 ID:zylS0rog
一方でドライバを536.23へバージョンアップすると、SDで画像生成していてVRAMが足りなくなるとメインメモリが使われるようになる
メインメモリを使った計算は、VRAMでの計算に比べて数十倍から数百倍遅い
これまではVRAMが足りなくなったらOut Of Memoryエラーが出て止まるため、パラメータを変えるなどユーザー側に工夫の余地があった
しかし最新のビデオドライバではVRAM不足になると生成がとても遅くなる
これを嫌ってドライバを最新にしない人もいるようだ
>>377 76万とか頭おかし―
ブロワータイプってなんか好きじゃない
>>379 「早くなった結果、512×512の画像を50ステップなら×秒で生成できるようになった」みたいに書かれない時点でまだまだとわかるよね
NVIDIA一強はよくないのでがんばってくれAMD
>>378 それ込みの評価でしょ
つまりSDにはVRAMが重要
>>381 1.87iterations/sec→18.59iterations/sec
ソコソコの数字な気がするが速いとまではいかない予感
>>381 もうベンチでてるよ
4080と7900XTXが同じぐらい
めちゃくちゃがんばったな
3060 12GBコスパ最強一強が崩れるかも? むしろ3060の値段が下がってさらに最強になるのか?w
Radeon最適化きたら世界が……いや宇宙が変わるぞ!! 24GB RTX4090 24万〜 RX7900 16万〜 20GB RX7900 12.5万〜
>>376 学習させたいキャラと並列に
wikiのマルゼン式でやると
学習させたいキャラまでくずれてしまえんだけど
ポーズだけ作って最後にLORAどうし混ぜればいいのかな?
AMDは18日に、Radeon RX 7900 XTX上で動作するStable Diffusionを最適化し、最大9.9倍高速化できる手法をブログで公開した。
最適化にはMicrosoft Oliveと呼ばれるPythonツールを利用する。
OliveはPyTorchの基本モデルをONNXに変換するツールであり、この段階でトランスフォーマグラフの最適化や、GPUメモリフットプリント削減のための量子化(ほとんどのレイヤーをFP32からFP16に変換)するなどの処理で、モデル処理を大幅に簡素化して高速化を実現するという。
https://pc.watch.impress.co.jp/docs/news/1525079.html control netのdepthメチャクチャ効くなあSDXLみたいなメモリバンバン食うモデルでどう効いてくるかが楽しみね
ツインテールの長さって指定できませんか? いつもすんごい長いツインテが出力されちゃいます
学習モデルの変更を防ぐ方法をご教授ください。 WebUI左上のcheckpoint選択欄で学習モデルAを選択中に、 学習モデルBで生成した画像のプロンプトを送ろうとすると、 プロンプトだけでなく学習モデルまでA→Bに読み込みし直しになってしまう現象があります。 以前は、「Setting」タブから「User interface」を選択し、 「When reading generation parameters from text into UI (from PNG info or pasted text), do not change the selected model/checkpoint」 という項目にチェックを入れ設定を適応すれば、解決したようなのですが、 私の現verには、その項目がないです。 もし解決できる方法があれば、ご教授ください。
>>390 結局はガチャになるけどショートカットとツインテを両方プロンプトに入れてツインテを強めにしておけば
それなりに短いツインテは出てくる
>>362 あれ?4060は128bit/sでAIに使うにはゴミじゃなかった?
>>391 ご教授じゃなくてご教示ね
いい加減覚えろガイジが
AMDに革ジャンの顔ボコボコにしてもらいたい 価格破壊起こしてくれ
>デフォルトの PyTorch パスで実行すると、AMD Radeon RX 7900 XTX は1.87 反復/秒を実現します。 >Microsoft Olive を搭載した最適化モデルで実行される AMD Radeon RX 7900 XTX は、18.59 反復/秒を実現します。 512*512 50ステップ 18.59it/s RTX4070より上で4070tiより下くらい? かなり改善されてない?
>>397 アスカベンチ15秒相当
4080に迫る速度だからもうCUDAにほぼ追いついてる
あとはVRAMの使用効率とか目に見えない部分がどれくらい違うか
すみません特定のLoraだけとかではなく、Loraを使用したとき正面を向いてくれないんですが どうしたら真正面を向いて真正面を撮れるでしょうか? 呪文frontal face front face front view portraitあたりは試して1.3とか強めにしても ちょっと斜めを向いた斜めからの視点になってしまいます・・・
すみません特定のLoraだけとかではなく、Loraを使用したとき正面を向いてくれないんですが どうしたら真正面を向いて真正面を撮れるでしょうか? 呪文frontal face front face front view portraitあたりは試して1.3とか強めにしても ちょっと斜めを向いた斜めからの視点になってしまいます・・・
from frontどうぞ ダメだったらメタデータ確認できる生成イラスト1回見せて
連投になっててすみません 1girl,solo,(masterpiece:1.1), (best quality:1.1), ultra-detailed,(portrait:1.2),(front view:1.3),(frontal face:1.3),front face,from front,upper body from frontも試してみましたが呪文だとこんな感じでもほぼ斜め向いてしまいます masterpieceとbest qualityを使った上で正面を向かせることは難しいんですかね・・・?
この流れどっかで見た気がすると思ったら前スレだったわ
>>405 1girl,solo,(masterpiece:1.1), (best quality:1.1), ultra-detailed,(frontal face:1.3),(upper body:1.2)
適当に同じような要素が被ってるプロンプト削ったけど正面で出るけどな
モデルに依るとこもあるし、若干アップ気味になるからupper bodyとかの効きは悪い気はするけど
>>402 半年ROMってから出直せ
まとめwikiとかも半年調べまくれ
>>399 AMDってCPUも作ってるしCPU台に内蔵したら爆速にならないのかね?
NVIDIAよりも色々な意味で可能性はあるように思うんだが
あと、そもそもだけど、Pythonのバージョン依存どうにかならないのだろうか?
少しでも条件が異なるとうまく動かない
他のソフトだと別のPythonが必要とかも・・・
>>393 SDXLは VRAM10GB~ っていう感じだから VRAM16GB の 4060Ti は劇的に効くんじゃないかな?
でも結局は根本のGPU性能が低いから 4070 以上のGPUとは勝負にならないと思うけど
nvidiaはGPuをうるためにllmやsdなんかの研究を支援していふ。 amdはそれに興味がない。 ただ有名な天才CPU開発者は今カナダかどこかでAIチップ開発会社でなんか設計しているとかなんとか。 今のところ競合がいない。
https://www.4gamer.net/games/999/G999905/20230524027/ うーん。AMDが試したMSのoliveで最適化を掛け直すというアプローチは面白いけど、こっちにも何気にnvidiaがMSと組んで最適化を…
結果的にnvidia GPUで同じことしたら、もっと爆速になって差は縮まないってオチが待ってそう
ID:MJc55aFq chunk付きの画像をあげなさい > すみません特定のLoraだけとかではなく、Loraを使用したとき正面を向いてくれないんですが こんなのエスパーじゃないんだからわかるわけがない、これ系の質問多すぎる そのLoraは全部同じ人が作ってるとか言うオチではないの?
すごい気持ち悪い配色の黄色っぽい画像上げてる常連がいるんだが、 意図的に何かアート的な効果を狙ってるとは思えず、でもイイネが何個かついてるから 俺の色覚の方がおかしいのかもしれず
>>410 両社アプローチは違うがインテルもamdもすでにやってる
グラボとオンボのようにRAMの違いはどうにもならない
>>412 興味というか会社規模とスタンス
昔からnvidiaはゲームやらCADやらの開発から食い込んでる
amdはそこにコストかけない分安く売る
LoRAの学習について教えてください 普段Kohya's GUIを使ってキャラクターのLoRAを作っています。使用しているアルゴリズムはLoConもしくはLoHaです 質問1:何らかのキャラクターの衣装のみを学習したい場合に、学習データのタグは「clothes」系 だけを削除しているのですが割りとキャラクターも学習されてしまいます キャラクターを学習させない方法はないでしょうか 質問2:自身でデザインした衣装を学習させたいのですが、服だけをの絵で学習できるものなので しょうか。それとも人間に着せたイラストを描く必要がありますか?
>>377 これは50系とはいわんだろ…
Nvidiaももう少し名付け何とかして欲しかった…
>>362 良く上手く12GB未満がVRAMオーバーする条件見つけ出したなと
4060Ti 16GB全滅だとPC雑誌としては(メーカー等への配慮で)記事が書けないのでSDXLの登場はちょうど良かったんだろうな…
コレ見て4060Ti16GBに飛びつく人は居ないとは思いたい…
良く条件見つけたも何もSDXLはちょっと油断したら12じゃ足りなくなるぞ
TiledDiffusionとfp16のお陰で、最近はあまりメモリ不足を見なくなったような。 元絵を崩すHiresFixは使わなくなった。
>>419 そう言ってもSDXLやるなら16GBないときついからな
Arc770やRX6800XTに対応したらそっちも追い上げてきそうだけど
Comfyさんなら1070TiでもSDXL走るぜ! クソ遅いが。
値段の高いけど性能のいいものと、値段は安いけど性能低いもので迷ったなら、それは迷わず性能の良い方を買え そこで妥協すると、何かあるたびに高性能の方だったらよかったんだろうなっていう後悔に、ずっと苛まれるって親から言われてるからRTX4090を買った RTX3060の1/4くらいの時間で作れるし文句なし
paperspace全然空いてねー ここに居る人は殆どローカルなの?
SDwebUI の使い方質問ってここで合ってますか?
SDwebUI の使い方質問ってここで合ってますか?
質問抜けてました。 AUTOMATIC1111 をローカル環境で触り始めたんですが、img2imgで複数の元画像をまとめて変換ってできたりしますか? 100枚くらいの画像フォルダをまとめて変換してどういう傾向の変化があるとか見たりしたいんですが。
paperspaceの接続はスクリプトを組むものだろう
学習モデルの変更を防ぐ方法を教えてください。 WebUI左上のcheckpoint選択欄で学習モデルAを選択中に、 学習モデルBで生成した画像のプロンプトを送ろうとすると、 プロンプトだけでなく学習モデルまでA→Bに読み込みし直しになってしまう現象があります。 以前は、「Setting」タブから「User interface」を選択し、 「When reading generation parameters from text into UI (from PNG info or pasted text), do not change the selected model/checkpoint」 という項目にチェックを入れ設定を適応すれば、解決したようなのですが、 私の現verには、その項目がないです。 もし解決できる方法があれば、教えてください。
>>428 img2img、sketch、inpaint…と並んでいるタブの右端に「Batch」があって、そこでまとめてimg2imgできるはず
>>430 少なくともV1.5.1でPNG infoでプロンプトを送ってもcheckpointまでは変更されてないし
過去のバージョンでも変更された記憶はないな
使ってるバージョンやプロンプトを送るのに拡張機能とか挟んでない?
RXT3080とRXT4090だと時間かなり違うもんなの? アシスタントに金払うより、背景を精製して手直しした方が早いからもう1台PC買おうか迷ってる。 あと自分の絵を喰わせて学習させてる週間連載持ってる商業奴いたら教えてくれ。 確定申告の時に、アシスタントの人件費が激減して、1日中精製して吐き出させてる関係で電気代がアホみたいに増えた初年度って税務署に経費関係で突っ込まれるもんなの?
RXT3080とRXT4090だと時間かなり違うもんなの? アシスタントに金払うより、背景を精製して手直しした方が早いからもう1台PC買おうか迷ってる。 あと自分の絵を喰わせて学習させてる週間連載持ってる商業奴いたら教えてくれ。 確定申告の時に、アシスタントの人件費が激減して、1日中精製して吐き出させてる関係で電気代がアホみたいに増えた初年度って税務署に経費関係で突っ込まれるもんなの?
>>434 かなり違うが、正確にはいくらでもベンチ結果があるから自分でグラフ見て比較する方がいい
いずれにしても仕事で使うなら4090にしとくのがいい、仕事ベースなら大した金額差じゃないじゃろ
絵師じゃなくて全く別の仕事で4090と3090使ってるが、100%の事務所なら仮に怪しまれたとしても説明すれば否認されることはあり得ない(そもそも1日中回しても事業所ベースならたいした金額じゃない)
自宅兼事務所ならわからんけど、まあ説明すれば通るんじゃね?
>>433 AIは素人だけど、税金の話だけ。
法人なら電気代とかはちゃんと領収書も確認できるし経費で認められるよ
個人事業主で絵の仕事やってるの?
個人だと家庭での利用分は除外されてしまう。家事按分で検索してくれ。
ほとんどGPUだから電気代の90%は経費だ、と主張しても認められない可能性がある。税務署がAIに疎いので説得できない可能性ある。
法人としてやるなら電気代は問題ない。全額いける。
法人ならつっこまれてもちゃんと答えられて証拠だせれば大丈夫。ただし接待交際費とかは別で限度がある。
AIによりアシとか木端イラストレーターが職を失うと言われてるがまさにそれが起きようとしている
>>433 3080と4090だと生成時間は半分以下にはなるな
電力に関してもPowerLimitを70%に設定しても確か数%しかパフォーマンス落ちないから、1枚生成あたりの電力量も安いんじゃなかったかな
>>438 腕のいいアシはAIでは代用出来んし
肉体労働な雑用係も必要だろうけど
アシの必要人数とかは減りそうだな
お前ら教えてくれてサンキュー
>>437 ウチ女房も漫画家だから自宅でお互い別々の個人事業主でやってる。
明日、税務士さんに相談に行ってみるわ。
娘が年頃でさ、アシさんが家に出入りするのがストレスになってるみたいで背景だけでもAIでラフ上がれば助かるかなって試してるけど電気代がヤバいわ
>>440 4090にして精製時間が半分になるなら助かるけど、70%に落としも3080より消費電力多いんでしょ結局?
>>441 アシスタントの時給高いからな
ジジイたちを草刈りに雇う費用の4倍は払ってて草
実写トレースみたいな背景ならもうAIで十分だからなぁ
>>442 3080が320Wで4090が450Wだから、70%なら315Wなんでほぼ一緒じゃないかな
それで倍速で生成できるんだからお得よ
>>444 教えてくれてサンキューな
償却期間計算して我が家の経済産業大臣様から許可出たら見積もり依頼投げてみるわ
kohya_ss GUI で起動するブラウザ画面を黒ベース (automatic1111 で言うダークモード) にする方法って有るのでしょうか?? 少しググったりしたのですが起動オプションみたいのはみつけられませんでした
Lora作成する際に、二次系はAnyLoRAが良いらしいけど、三次系はなにが良いかとかありますか?
>>446 ブラウザそのものをダークモードにすればいけるよ
うちはChromeだけどずっとダークモードだったから白い画面は違和感しかないw
>>448 あーその手が有ったかwww
自分は通常時はブラウザを白モードで使ってるので
その発想にたどり着かなかったwww
ありがと
>>447 顔LoRA ?
だったらデフォルトの標準モデルから始める事をオススメします
ある程度イイ感じのができたら今度は普段使いのモデルで
同じパラメーター(seed値もね)で作ってみると違いがよく分かると思います
>>442 そりゃジジイは年金減額されないようにダンピング価格だからな
Lora学習し始めて回してるんだけど、最初の1回目は40分でできたのに、同じ設定で2回目回したら45時間とか出てくるのってなぜ? GPUが疲れちゃうの?
VRAM8G目いっぱい回してるから少し休ませないとダメなんかな。 12Gに替えないとダメか―。
キャッシュなのかな 長時間使用しているとジワジワVRAM使用量がふえていく気がする 1111を再起動すればクリアされるけど
休ませるってなんだよw 同時にゲームとか動画視聴とかしない時間帯に回せばええだけやろ
AIにおいてラデ=死と呼ばれ続け どうしてもえっちな絵を生成したくてStableDiffusionをラデ機に無理やり入れて、エラー吐きまくって涙を流しながら1枚6分とかかけて生成してたのに DirectML版(非NVIDIA用)なんてあるのなんで教えてくれなかったの😭 生成時間が1/10ぐらいになってGeForceみたいなサクサクは不可能だけど、やれんことも無い程度にはなったわ
LoRAのつもりでDreamBoothにしてるとエスパーした
>>457 lshqqytiger氏のDirectML版かな?
おいらはvladmandic氏のSD.Nextを使ってるよ
Windows版ROCmのサポートも期待出来るし
>>450 ありがとうございます。
kohya_ss guiで作ってるんですが、デフォっていうと、初期に設定されてるrunwayml/stable-diffusion-v1-5ってやつですかね。
次作る時はそれで試してみます!
顔Loraってのもあるんですね。参考になります。
img2imgで生成してるのですが、画像を変えて生成すると前の画像の状況を生成してる感じがあります これはどういうことなのでしょうか?
>>460 エスパーさすがやで。Loraで流してなかったから時間かかってました。
ありがとう。
ありがとうついでにもう一つ教えて欲しいのだが、Epoch進んでもLoss率が最後までほぼ一定なんだが、これってどういうこと?
収束してないってことなら学習率上げてもいい?
「SDで生成した画像のプロンプトに特定のプロンプトを追加して指定した枚数を生成する」 これを自動で行う方法ないですか? すでに生成している画像の類似画像を寝てる間に増殖させたいのです i2iのBatchでできるかもと思ったんですが、 Batchは画像は読み込みますがプロンプトは読み込まないため、 Loraを使ってたりするとまったく別の画像になってしまいます 「1枚1枚Styleに登録してXYZplotでStyleを変更する」 というやり方もやってみたのですが 枚数が多いとStyleに登録するという準備に時間がかかる ですので 「SDで生成されている画像を一気にStyleに登録する」 という方法でもいいのですが… そういう拡張機能や妙案ありませんか?
464とか467に限らんけど
【スレを見ている人はあなたのPC画面も出力画像も“一切”見えていません!】
を
>>1 の一行目に追加してほしいンゴねえ…読まんやつは読まんだろうけど
まあこれは回答できないなって思ったら静かにスルーしたらいいのよ 質問自体することはスレの主旨として間違ってないわけだし
スルーできないよね 何度も同じ雰囲気な質問される可能性があるわけだし
>>467 img2img-Batch-PNG info欄をクリックで元画像から情報を引き継ぐ設定がでるかと
>>438 むしろ、コンピュータ得意なのとか構想力のあるアシが独立しそう
エロい絵を作るcheckpointって何がおすすめ ランキングみたいなのあれば知りたい あとLora作るときのcheckpointは利用予定のcheckpointで作るのが一番相性いい?
>>473 エロいのが出しやすいものと見た目が好みなのをマージして自分用に作るのが一番
ランキングみたいなものがあるのかは知らない
ダウンロードやお気に入りの数はcivitaiなら見られる
>>474 civitai見たけど色々な国の人が利用してるのか日本人好みなのがどれかはわからない感じだな
AOM2かなり使ってるけどランキング上位にはなく逆に驚いた
マージっって例えばどんな組み合わせ?最近はAOM2ばかり使ってる
満足なんだけど何かが物足りない
でも何が足りないのかよく分からなくなってきた
ウインドウズ10 home 22H2 19045.3324
python 3.10.6
stablediffusion 1.5.1
sd webui animatediff 19191b55
sd webui 4f0f26b7
motion module mm_sd_v14.ckpt
CPUのみで書き出し
animatediff がアニメーションしません
出力はされます
enable animatediff のチェックはオンにしています
Number of framesは16
FPSは8です
出力されたgifです(´・ω・`)
x = layer(x) File "C:\Users\taka1\OneDrive\デスクトップ\webui\stable-diffusion-webui\venv\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "C:\Users\taka1\OneDrive\デスクトップ\webui\stable-diffusion-webui\repositories\stable-diffusion-stability-ai\ldm\modules\diffusionmodules\openaimodel.py", line 109, in forward assert x.shape[1] == self.channels AssertionError
SDのバージョンが未だに1.2なんだけど、1.5にするメリットってある? 現状1.2で全く困ってないんだけど… バージョン上げて不具合が出たら嫌だなーって思ってそのまま放置中
batch countの枚数増やすのと、1枚ずつ生成するのとで何が違うんですか?
>>482 バッチ回数を増やして生成した場合はシード値が1ずつ増えていく
1枚ずつ生成する場合はシード値が「-1」ならランダムになる
>>480 こまごまとした機能追加とかバグ修正とか色々
ここで聞くよりgithubでautomatic1111の更新履歴読んだ方が早いかと
気になるなら別フォルダに新規インストールしてみて、モデルとかは起動オプションでフォルダ指定で今のまま流用可
>>483-484 つまり変わらないって事?生成速度とかPCにかかる負荷とかも同じなん?
>>486 バッチサイズ分の画像は一気にテンソル演算するからループのオーバーヘッドがその分なくなりバッチサイズ上げた方が若干早い、もちろんVRAM消費は大きくなる
生成についてはクオリティーは変わらない
LoRA学習とかだと学習内容に影響あるけど、それはまた別の話
たまに配布されてる実写系Loraを使うことがあるんだけど、とある人が作ったやつを使うと異常な数と形の手足が生成されてくる。 自分で作ったやつでも崩れたりはあるけど、レベルが違う。 そう言うのは学習不足とか素材に問題があったりするのかな?
>>486 バッチ回数と1枚ずつの生成の比較なら所要時間や負荷は変わらない
バッチサイズに関しては
>>487 の通りです
>>471 ありがとうございます
探してみたのですがよくわかりません
Batch内にはPNGinfo欄がないように思えるのですが、どこから設定を出すのでしょうか?
Setting内の話などでしょうか?
最先端勢は大半がXL使ってる感じ? 3060の12GB買おうと思ったけどXL使うとメモリが足らんレベルと聞いて足踏みしてるのだけれども そんなにXLが良いなら予定を変更するべきなのだろうか
>>488 SD1.5と2.1とXLでloraの互換性ないから、モデルのバージョンに合ったものを使っているか確認したほうがいいかも
あと古いwebuiはlycorisをloraとして使った場合もおかしくなったな
>>495 1111のバージョンだったら起動させるときのコマンドプロンプトにまず出てくる
起動後ならWebUIの画面の一番下に「version: 1.5.1」みたいに表示されてる
起動時のコンソール画面でステータス表示みるか立ち上がった画面の設定情報の画面で見れる
2048x2048のLoraモデルデータ落としたんだけど 生成すると3060 12GBだとメモリ不足になって失敗する どうすればいいの? 解像度落とすとボヤける
24GB搭載のグラボに買い換える sefetensorを16FPで焼き直す
VRAM足りないならmultidiffusionでupscaleするなら、いくらでも大きい画像作れる気がするけどそれじゃ駄目なん?
>>499 グラボ買ったばかりなんや、、
高いから買い替えはちょっと
16FPで焼き直しなんてできるのか🧐
multidiffusionの動画見てちょうど導入しようと思ってた
>>492 dev Ver.も出ているからどこかのVer.でDefault表示になったと思う
SD-webui Ver. 1.5.1
https://imgur.com/qLcyjau LoRAの学習してると画像生成時と違って割りとCPUの使用率(70~80%くらい)喰ってるけど、もっと良いものに変更したら速度上がるかな 今使ってるのがCPUは5800X、GPUが4090
FoocusというXL用のSDがいいらしいと聞いてきました。
multidiffusionめっちゃいいな😳 3060 12GBで3枚ずつシコシコアプコンしてたのがアホみたい 同時8枚生成あっという間に終わって気に入ったのだけ multidiffusionしたらいいから楽になった
それで質問は?
雑談や感想はこちらへ
【Midjourney】AI関連総合20【StableDiffusion】
http://2chb.net/r/cg/1686801610/ ぼくの3060見てください
>>501 他人よりも突出したもの作りたかったら
高いグラボ買うしかなくね?
この世界は特に。
3070の雑魚グラボなので聞きたいんですがキャラlora学習においてバッチサイズとrank(dim)って上げるならどちら優先した方が質良くなりますか? バッチサイズ4だとrank(dim)が32以下じゃないとメモリ不足になるので2でやってるんですが、バッチサイズは小さいと局所解にハマりやすくてrank(dim)が小さいと記憶力下がる認識なのでどちら取るか悩んでます
>>515 質問の答えにはなってないからスマンのだが、バッチサイズが小さいと局所解にハマりやすいは違ってない?
バッチサイズが小さいと学習が安定しないわ分かるが、局所解にハマらないためにすることは学習率とかスケジューラーの調整だと思うんだが。
>>516 ありがとうございます
だとするとバッチサイズが上げるメリットって速度しかないと思うんですが、性能の良くないグラボならバッチサイズは下げ得でそれ以外の設定気にした方がいいという認識で良いですかね…?
>>517 ありがとうございます
とりあえずバッチ犠牲にdim優先します
>>121 と同じようなdynamic-promptsのエラーが出ます。
dynamic-promptsをExtensionsから外して、フォルダを削除してから再インスト。またwebuiのバージョンアップ(1.5.2)。
これらを行ってもエラーが出るのですが、動作するようにするには何を試せばいいでしょうか。
何かをバージョンアップしたなら動かなくなるのも分かるのですが、最近はずっとアプデしてなかったのですが・・・
>>518 書いた通り、バッチサイズが小さいと学習が安定しないことがある(収束しづらいことがある)はず
これは損失関数がバッチ毎に1つのスカラー値(普通は平均値)を返すから、平均することで外れ値の影響が軽減される
結果的に問題ないならバッチサイズ小さくてもいいと思うよ、素材によると思う
>>519 自己レスですが、原因っぽいのをみつけたので。
dynamic-promptsの記述方法で{0.5::A|0.5::B}としていたのですが、どちらも含めないものを出力したいと思っていったん{0.0::A|0.0::B}にしていました。
一つでも数値があれば問題ないんですが、全部0にするとエラーになるようです。
確かに確率で{}の中のどれかを選んでって命令しているのに、どれも選べなかったら無限ループとかしているのかも。
>>520 なるほど
じゃあ軽視し過ぎるのも良くないですね
ゆくゆくはグラボ買い替えます…
amdで早くなると言われてるのをやってるけど環境設定で詰んだ…
最終アプデが4月だし未だに使ってる人いるかわからんけど、気づいたら拡張機能の 「sd-webui-depth-lib」がインストールされてるのに上のタブ欄?に表示されず使えなくなってた これを今でも使えてる人いる? イシューにあった「serializing.py」編集でも違うエラーへの対策なのか効果なく
>>524 それ入れてると別のトラブルの原因になるってこのスレに書いてあるな
どこかでその拡張機能自体に問題があるとか見た気もする
>>525 そうなん?!
じゃあもうアンインストールした方がいいのかな…
手修正の必需品でみんな使ってる的機能だと思ってたけど…
今更adetailerの存在を知ってめちゃくちゃ感動してるんだけど、Personってモデルの使い所がよくわからない。 顔と手はそれぞれのモデルで直せばいいし、身体はHiresすればほぼ気にならなくなるし。 具体的にはどんな時に使う感じ?
画像生成AI「Stable Diffusion」に「悪い例を集めたLoRA」を組み合わせて高品質な画像を生成する手法が登場、簡単に試せるデモも公開されたので試してみた
https://gigazine.net/news/20230823-stable-diffusion-xl-wrong-lora/ これ凄いな
easynagativeとかと同じようなもんなんじゃないの?
お。ComfyUIなら、SDXLモデルでも1.5系のコントロールネット全部使えるじゃん!
>>530 gigazineは初期からSDの解説記事のっけてるしそこまで嫌がることはなくね
初期にお世話になった住人も多いはず
1111のtxt2imgタブやimg2imgタブで生成画像が右下あたりに表示されるけど これを最初から大きく表示できるような設定とかありますか? 右クリックして新しいタブで画像を開くを押すのが面倒になってきました
gigazineもアフィwebなら何もかも全てアフィwebだろ、アホか
SD v1.5でLora回してたら途中のステップでSD v1.4 model selected.って出てきたけどこれ何? v1.4なんてinstallした覚えないけど。
ネットニュースでは老舗とも言えるgigazineを毛嫌いするやつもなかなか珍しいな
GIGAZINEは変な回しやウザすぎる広告量とかも無しで関連記事も辿りやすいんでまぁマシな方でね?
>>528 これってeasynegativeみたいなもんじゃないの?
悪いLoRAはアレだね -CFGで作った画像をTaggerで読み込ませてpromptを抽出して、それをネガティブに突っ込む手法 あれによく似てる感じ
そもそもmissing fingerとか bad handとか、AIに理解できるなら 最初から出さないだろと思うわけだが 複数の体型を合成、モーフィングする際に 変な手足になってしまうんだろうけど、
みんなLyCORISってmodelsの下にフォルダ作って置いてる? Loraフォルダの中にないとHelperが反応してくれないよね?
【CPU】M2 macbookpro14
【メモリ、ドライブ】32GB SSD 1TB
【画像生成AI】ローカル StableDiffusionWeb UI AUTOMATIC1111
【その他】 kohya-ss web UI を使用
はじめまして。LoRa作成についてのパラメータ設定に関して質問があります。
7月くらいからLoRaの作り方を覚えてお気に入りのキャラクターLoRaを作っていますが、
Civitaiにあるような高品質LoRaが作成出来ません。
自作LoRaは、線が太い?明らかに解像度が低いイラストが生成されます。
>>528 ちょうどこの記事の低品質LoRaのようなイラストを生成してしまいます。
Hires.fixをonにして使用するとある程度緩和されるので通常は常にonで使用しています。
LoRa作成時のパラメーターは、
Epoch 10 繰り返し10 画像枚数50枚 で5000程度のstepにしています。
解像度512 512、Dim 32、
学習model はanyLoRa bakedvae fp16 です。
dimを128にしたりEpoch数を増やしたり生成で作った画像を足したり試してみましたが、
改善はされませんでした…
もしパッと見で変更した方がいい箇所やおすすめ設定などあれば教えていただきたいです。
よろしくお願いします。
>>547 自分は実写系専門なのでどこまで参考になるかは分からないけれど
素材50枚で5000ステップだと過学習の気がしなくもないです
2000~3000ステップでイイ感じ(自身の感覚で80点以上?)に
ならないのであれぱ素材の見直しも必要かなぁ?
あと Clip Skip を「2」にしてあるか?
イラスト系はコレが「1」だと絵が崩れると聞いています
パラメーター系だと学習率(LR)を変えてみるとか
デフォの 0.0001 を 0.0003 とか 0.0005 にして学習強度を上げる
強度を上げた分はステップ数で調整
(3000を上限にして途中で1000と2000のも出力させて試す)
Extensionsでアップロードしたらi2iでTiled Diffusionの拡大がクソ時間かかるようになったけどなんか仕様変わったの?
>>546 俺はlycoは以下に置いてるよ
C:\sd\sd.webui\webui\models\LyCORIS
>>549 Installing sd-webui-controlnet requirement: changing opencv-python version from 4.7.0.72 to 4.8.0
こいつのせいで誤作動を起こしていたみたいだ
>>546 どっかで見たシンボリックリンク作ってLoraフォルダにぶち込んでる
>>547 ありがとうございます!
Clip Skip は2にしてありますので、LRを0.0005に調整して再作成してみます。
過学習気味とのなのでSave every N epochsを1にして途中のステップ数でも試してみようと思います。
学習画像はこれで出来なかったら低品質のものを取り除いてやってみようと思います。
取り除いたら30枚くらいになってしまうので、生成絵でかさ増しにはなるのですが…
>>550 >>552 ありがとう参考にします
シンボリックリンクが良さそうですね
複数のLoRaを使うと効果が低下する的なコメントがあったと思うけど、現実的なLoRaの適用個数って幾つくらいなんだろう? 皆はいくつ適用してますか? 複数の適切な効果を求めるならLoRaだけでなくモデルの改修も検討したほうがいいですか?
>>555 4TBのSSDにすりゃいいのに
どうしてまだ生成用にHDDを買う人が世の中にいるんや、、、
買ったばかりのパソコンのCドライブ1TBが3日で400GBになった ふざけんじゃねーぞStableDiffusion
1TのSSDを4Tに替えたいんだけど M2で移行どうやんの? M2スロット1こしかない
Cドライブ1TBってSDじゃ無くてもデータなんか置けない容量だわ さっさと増設HDDかNASでも買ってきてデータ移動するべ
なんかさ、Controlnetを更に推し進めて promptと対になる特定の色で線を引くとその並びと数の通りにパーツを配置してくれる機能とか欲しくなるよね 指の曲げ伸ばしまで一発で決めてみたい
>>559 クローニングする機械が売ってるからそれで新しいSSDに丸コピーするか
SATAでも敏感な人以外は体感できるほど差はないからそっちで増設
実写系でcivitaiに載せられるくらいに似せたい場合のコツってどこにあるの? 教師画像は高画質で背景白でかなり枚数用意したからパラメータの問題かと思うんだが。 より目になるしあごはシャープになるしで似てないのよね。
>>564 せめて今の設定その他もろもろ書いてくれんと、こっちも中々考えられんで
>>547 やはりダメでした;
Epochsが1の段階のものでも絵が崩れました。
Regional prompter オフならそれなりに動くのですが…
学習modelをanyLoRaから変えたり学習画像を変えてみたり試してみようとは思いますが、
原因が想像できません;
schedulerのステータスなんかで大きく変わったりするのでしょうか…
現在はcosine_with_restartsを使用しています。
なんつーか瑣末な話だがcosine_with_restartsでリスタートするのは別途指定した回数でエポック数を分割してだった記憶 なのでエポック数1なら意味がない
i2iのバッチでダイナミックプロンプトが動作しないんだが何が原因だろう
>565 こんな感じでやってますのでご教示ください。 ・使っているアプリケーション…ローカル1111(web ui) ・Lora作成…KohyassGUI ・学習モデル…標準のrunwayml/Stable Diffusionv1-5,Chilloutmixなど ・状況の説明… 実写系で人物に似せようとしているところ。 教師画像は100枚、画質は1920×1020など画像生成時の解像度768768以上となるように収集。背景は白、人物以外は消してます、顔アップあり全身あり。 正則化未使用、キャプションタグはtaggerを利用して顔以外のタグは残してます。 バッチ回数1、繰り返し回数5、エポック8、画像枚数100枚として、基本は4000ステップ。 Dim128,α1、学習率0.0001、スケジューラーcos、オプティマイザーAdamW8bit、(この辺のパラメータカスタマイズでどうにかなる?) 各ステップのLoss率はほぼ0.06程度で変化なし。生成画像が寄り目、あごがシャープすぎる。 PC構成…Win11,Intelcorei-7, Strage1T,メモリ16G, GPU8G 目標はcivitaiに載せられるようなそっくりさんで全身含めていろいろ遊びたいです としあきwiki見たらLoss率が0.06あたりから始まって0.02くらいに落ち着くとありましたのでLoss率が下がればうまく学習できるのかと勝手に思ってパラメータを動かしてますがうまくいかず。 知識ないのは重々承知ですがみなさんお力添えお願いします。
>>569 自分は二次系ばっかで三次系はあんまりノウハウ無いんだけど
ハードウエア構成がわかんないからあれだけどその4000stepの学習にどれ位かかってる?
取り合えず一回高すぎる目標は横に置いといてそれなりのLoraが出来る流れを体験した方がいいよ
画像は顔を似せたいならとりあえず顔アップとバストアップ辺りを20枚位ピックアップして
余計な余白とかも含めて1000x1000位の正方形にトリミングなり整形して(学習時は512x512や768x768以上だと分割されたりするので)
今のパラメータでとか自動系使ってみるとか短い時間で色んなパターンを試してみる方がいいよ
>570 ありがとうございます。 確かに今の環境では1lora/30minですのでもう少し短時間でサクッと作って回数を回した方が知見を得られそうですね。 やってみます。
SD更新したあとからか定かではないんですが、Civitai HelperのLoRAのトリガーワード出したりするボタン(電球マークとか地球儀マーク)等がリフレッシュボタンを押しても 出なくなったのですが、出す方法はありますか? バージョンはSD 1.5.2 Civitai Helper 1.6.4です。
夜の野外露出みたいな画像を作りたいんですが、プロンプトに「midnight」とか入れて強度2.0とか(( ))しても意地でも昼にしてくるんですが 対策ってなにかありますか?
>>573 https://civitai.com/models/97089/night こういうLoRA入れるか夜の写真でLoRA作るしかない
StableDiffusionは記録されていない画像からの合成出力ができない
>>574 なるほど。学習素材にないせいとは盲点でした。
このLORAで使ってやってみます。ありがとうございます。
>>569 >>352 の人を参照したらいいんじゃないか
>>573 ちちぷいでそれっぽい呪文上げてる人がいた(夜の廃工場だけど)
BREAK detailed background, in abandoned factory, dark background, night
>576 ありがとうございます。 参考にさせて頂きます。 ちなみに3次元1人で教師画像500枚ってことはi2iで大量生成されてたってことでしょうか?
>>572 Civitai Helperはもう数か月メンテされてないので1.5.0の変更で正常に動作しなくなった感じかな
githubや某wikiでコード変更で動作するように改修してる書き込みがあるので手動で直すしかないかな
うちの環境では一応それで動作はしてる
real、ultra、3D、8Kとかの高画質系プロンプト入れても顔が絵っぽくなっちゃうんだけど何が悪いんだろ? checkpointはchilloutrealisticやmajicmixRealistic使ってて30stepとかでHiresは4x-UltraSharp指定
VAE内蔵型モデルのVAEの使い方を教えてください 普段は外部のvae-ft-mse-840000を使っています 1.内蔵型のVAEを使う場合はAutomaticを 選択でいいのでしょうか? 2.内蔵型モデルを使う場合でVAEを vae-ft-mse-840000で設定していた場合 外部と内蔵どちらが優先されるのでしょうか? 解答お願いします
>>581 xyzplotでvae有無で試してみて気に入った設定使いましょう
解答お願いしますって、教えて下さいよりも数段傲慢で気分悪いなw
>>584 おまえめんどくさいやつって言われるだろw
おまえ自身が傲慢だってことに気づきなさい
>>580 プロンプトから単語一つ一つ削っていけばどれが悪さしてるかわかるんじゃ?
せっかくいい感じのできたのに Hires.fixで高解像度化するとケバくなっちゃうんだけど
目的にもよる ガッツリやりたいなら4090択一 ちょい試くらいに思ってるなら最低限動くレベルのグラボで充分
>>580 具体的なプロンプト貼らないと誰にもわからない
>>588 RAM24GBの4090が1強
WindowsにUIが対応したらRX7900XTXがライバルで来るかもしれん
そろそろ対応しそうな空気だけど
ちょっと試したいくらいだったら、3080(10GB)あたりがコスパ的にも性能的にも必要十分って感じな気がする これなら30万円くらいで組める カネかやる気が余ってるなら4090(24GB)だと思うけど、なんだかんだで4090載せると50万〜60万円だからなあ まずはエロやらんでGoogle Colabの有償プラン(月1200円くらいだっけ?)とかから始めるのが無難だと思うなあ
RX7900XTXというかRADEONがWindowsでまともに使える日が待ち遠しい
VRAM増やす方法無いんかね 4090択一()買えだろうけどさ
>>593 3060なら15万で組めなくね?
あと回線速度がしょぼいとモデルのダウンロードがネックになって宝の持ち腐れになるし
新しい分野だしやれる方法あるならもう誰かが方法広めていてもおかしくないのに いつまでたっても誰も何も言わないってことはそういうことなんじゃね?
3080はナイと思うぞ 24GB必須だったから最近3090中古買ったが、わかってたからいいけど、やはり4090に比べて圧倒的にVRAMが熱い そう考えると3080もそれなりにVRAM熱いだろうからお勧めできない気がするが
4090に手が出なくて4060Ti/16GBを購入したんだが、3060/12GBより明らかに遅くなってしまった ローカル環境のStabule Diffusion WebUI1111版 なんだが512×5121枚で10秒近くかかる 単純に差し替えただけで何もしてないんだが、何にがおかしいかさっぱりだ
>>601 そりゃ俺だってどれか1つって言われたら4090一択だけど、そもそも
>>588 にどの程度のやる気やらカネやら知識やらがあるのかわかんないんだもん
まあ予算ややる気、目標を聞いてからかなって思う
>>602 パイトーチとかwebui本体とかを更新せずめっちゃ古いバージョンで使ってるとか?
4000シリーズ出たばかりの時になんかパイトーチのバージョン古くて遅いみたいな話があったと思う
directmlは激遅でメモリー消費激しくて良い所ない
全然早くならないならありそうだけど明らかに遅くなるのは妙だね 一度ドライバークリーナーした方が良いかもしれん あと、ドライバーの536番台以降は不具合で物理的に破損する可能性が有るようなので535番台までの物を選んでインストールするんだ
チートパイのバージョンは確認したから大丈夫のはず ドライバのバージョンは盲点だった ちょっと落としてくる
4090のメリットだけど他の事しながらでもSDできるのは大きいと思う SDの為に別途PC1台を用意することを考えたら案外安上がり あとHDDケース買うのも馬鹿らしいと思って大容量HDD買ったりしてると PCがドンドンモンスター化してきてる
NVIDIAドライバに互換性がありませんって言われた おかしいちゃんと型番もOSも合ってるのになんでだ?
オプティマイザーをD-adaptaionで学習してる人いますか? 設定というかコツを教えていただきたく… そういう性質なのか最終エポックのみがまともな仕上がりになるんですが、柔軟性がなさ過ぎるというかプロンプトガン無視で困ってます(最終エポック以前のものはプロンプトは効きますが肌の色味が焼けた感じになります) スケジューラーはcos系なので学習率は1のまま、alpha弄ったりエポック下げたりしてますがなんの効果もありません
>>610 です
すみませんadam8bitでも試したら同じく最終のみ急に質感変わる現象が起きました
なんでなんでしょうか…
>>609 一度ドライバーの完全消去ツールでまっさらにしてから入れたらどうじゃろ
ビデオカード、ドライバー、消去、DDU、あたりで検索すれば出てくる
アニメキャラのLoRAだけど1.0で使えるものもあれば0.6じゃないとおかしくなるものがある LoRAの元になる情報に問題があるんだと思うけど何が原因なんだろ?
>>602 取りあえず新しいフォルダにautomatic1111サクッと新規インストール
ドライバー入れ直しぐらいでだめかな
>>615 単純にLORA0.6ぐらいで使ってくださいというものもあるから薄めて動くならきにしなくていいよ
学習させて明らかに過学習の時に薄めて使う
>>609 windows10がちょっと古かったりBIOSの設定によってWQHLドライバーが入らなかったりするぞ
>>609 あ、もう一個あった
laptopの方落としてないよな?
1111をもう一回DLしたけどダメだったわ Win11でlaptopじゃない方DLしたよ 明日マザボ交換する予定だからそれで良くなることを祈る
>>620 WebUIのサンプラーでDPM Adaptiveとか使っていないよな?
あれはStep数を無視して遅くなる
>>617 LoRA作ってるんだけど過学習というわけでもなさそう
でも1.0だとダメで0.6ならうまく生成されたりする
また、仮に過学習だとしてそこの数値を下げれば過学習でも問題なく使えるんだろうか?
あとSDXL用のモデルで生成していたとか VRAMが12GBだとエラーを吐くなりして異変に気付きそうだが16GBはどうだろうか
SDのバージョンを1.2から1.5に上げたら、生成した画像をhiresで拡大しようてすると別の画像になっちまうんだが、何が原因なんだろ?denoisingも低めにしてるんだが…
別っていわれてもどの程度の違いなのか全くわからんしなあ 見えないものに答えるのは限度がある
624です なんか自己解決したっぽい なんかloraの効きが弱いのが原因ぽく、loraを2にして生成した後に元に戻すとちゃんと元画像から拡大できた なんだったんだろ?
それlycocisの拡張が邪魔してないか? 1.5からは標準で内包されてるから削除したほうがいい
>>628 あー、そうなんか
見てみるわ、サンクス
すみません、返信が遅くなりました。
>>578 フォーク版とはなんですか?
>>579 wikiで調べてみたんですが、style.cssに最後の行に追記するコードですか?
やってみたのですが変わらずボタンは出てこないです。
>>633 スタイルシートは全然関係ないかな
不具合ページを見てください
細かい内容については一々説明しないとわからないなら諦めて下さい
>>591 毎回入れてるのはこれです
ポジ
masterpiece,ultra high resolution,best quality,highly detailed,8K,3d,hyper extreme detailed,
ネガ
(worst_quality,low_quality,poorly drawn,lowers,polar lowres,standard quality,illustration,monochrome,sepia, painting, cartoons, sketch,blurry:2)
ポジ書き忘れ (photorealistic:1.6)
>>635-636 chilloutでそのプロンプト叩いたらなんか不気味な植物とか出てきたわ…夢に出そう…
というか、その呪文で何が出したいのか読み取れないのが、出力結果がヘンテコになる理由な気がする。
具体的に何のマスターピースを出せばええねん、っていう部分が記述がないように見えるよ。
ちなみにyayoimixだと綺麗な女が出てきたんで、プロンプトに具体性を持たせるか、何かに特化したモデルを使うかで解決できる気がするよ
>>637 それはさすがに1girlぐらいは入れて試さないとあかんでしょ
そのプロンプトだけじゃなくてそれを毎回入れてやってるけどイマイチリアル調になりきらないって悩みだったし
>>635 このプロンプトのみで絵っぽくってのが出るなら他はVAEとかその辺の兼ね合いじゃないか?
特に劇的に問題がありそうな感じじゃないけど(ネガがきつすぎる気はするから個人的には1.5位までで調整するか不要なものは突っ込まない方がいいかな)
他にLoraとかもつかってるんだろ?3次系とか2.5D系のモデルに2次系のLoraとかだと当然引っ張られることもあるし
3次系だけでも複数重ねるとかなり混ざるからそういう影響では?
>>634 ボタン出てきました!
ありがとうございました!
>>638 そらそうやな、あんま読まずコピペだけしてもうたw
すまんかった
>>638 リアルっぽくはなるんだけど写真ぽくはないって感じ
>>639 Loraもリアル系しか使ってない
ネガは弱くすると粗くなるから2よりは小さくしてない
VAEはcheckpointに入ってるから使ってない
足すことやめて削る方法で調整してみますわ
Lora使ってるならLoraも書いた方がいいというか
ぶっちゃけchunk付き画像をそのままアップローダーに上げたほうがいい
https://majinai.art/ https://catbox.moe/ リアルだの写真だのって感じ方が人それぞれなんで
もしかしてキャラlora学習の素材に暗めの画像ってよろしくない? なんか過学習でもないのに肌の色が凄いオレンジに光る
おれも自作ローラでそうなった タガー通したらdark skinってついてたし
Tiled Diffusion、ControlNet を組み合わせて2倍からの2倍のアップスケールみたいな感じでやっております ControlNetだけ外してみたり、Inversion stepsの数値を変えてみたり アップスケーラーを変更してみたりと色々やってみたのですが、 アップスケールするたびに青み(どちらかというと灰色み)が強くなる傾向にあります 原因になりそうな設定などあるでしょうか
ポンコツ虹豚ばかりのここでリアル系の質問投げるとかアホなのかw
ってかPNGInfo付きで問題の画像そのものをあげてもらうなりしないとわからん エスパーにも限界はある
ダイナミックプロンプトが動作しないからおかしーなーと思ってたら、カンマが抜けてたw
AI生成画像の顔。どれも同じのばかりに感じる。 ほぼ椿顔みたいな
masterpieceとかの品質プロンプトばっさり削ればちゃんと違う顔になるぜ ちょっと味のある顔になるけど思ったよりは不細工にならない
根本的にやってることが保存された画像の合成でしかないのに加えて 大量に出力され過ぎているせいで量産型マスピ顔に飽きが来てしまうんだろう
paperspaceで以下のエラーが出て動かないです 原因わかりますでしょうか? OSError: /usr/local/lib/python3.10/dist-packages/torchtext/lib/libtorchtext.so: undefined symbol: _ZN2at4_ops10select_int4callERKNS_6TensorElN3c106SymIntE
なるほどマスピ顔とは言い得ている。 最近tsubakiというモデル使っているんだけど、それだと 品質系プロンプトやローラをつけずとも、ほぼaiイラスト紹介サイトの顔になる
>>658 たぶんパイソンバージョンが非対応のやつを使っているエスパー
やべー、カンマ抜けてるの直したから今度は動作してると思ってたけど動作してないわ どうしよう困ったな
Automatic1111ってディレクトリ分けて2つインストールした時に不具合挙動起こす? XLと従来ので設定違うっぽいから本体分けたい
Automatic1111ってディレクトリ分けて2つインストールした時に不具合挙動起こす? XLと従来ので設定違うっぽいから本体分けたい
Automatic1111ってディレクトリ分けて2つインストールした時に不具合挙動起こす? XLと従来ので設定違うっぽいから本体分けたい
質問させてください 今までコントロールネットのオープンポーズが使えたのですが 急にエラーをはくようになりました プリプロセッサ → openpose_full Mode → control_v11p_sd15_openpose これで画像を読み込んで真ん中にある火花?っぽいボタンを押すと allow preiew☑ボックスの所にErrorが表示され t2iで出力された画像もコントロールボックスの影響を受けていません。 解決方法をご存じの方がいらっしゃったら教えてください。よろしくお願いします
>>622 LORAの数値いじって正しくでればそれでオーケーだよ
※エラーメッセージは下記の通りです ※長すぎてはれなかったので抜粋
>>669 Traceback (most recent call last):
File "E:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\anyio\_backends\_asyncio.py", line 877, in run_sync_in_worker_thread
return await future
File "E:\StableDiffusion\stable-diffusion-webui\venv\lib\site-packages\anyio\_backends\_asyncio.py", line 807, in run
result = context.run(func, *args)
File "E:\StableDiffusion\stable-diffusion-webui\extensions\sd-webui-controlnet\scripts\controlnet_ui\controlnet_ui_group.py", line 607, in run_annotator
result, is_image = preprocessor(
AttributeError: 'NoneType' object has no attribute 'model'
>>671 >'NoneType' object has no attribute 'model'
これがヒントじゃないの?
今のAIでよく使われてるモデルの顔データ作ったのは、ごく一部の優秀な人で、 あとの9割方はそれをマージしただけのパクりモデル達だからな 見たことある顔ばかりになるのは当然のこと
novelAIの中の人が作ったモデルが凄まじい性能だったのよな 去年の10月にそれがリークして今出回ってるものの大半はその改良品だからねえ
日本語化とbooru tag以外で入れたらいいのある? 今ん所実写しかしてないけどアニメもやれたらやりたい
Adetailer, multiDiffusion (Tile Diffusion),controlnet あたり定番
エロが出にくいモデルでもしっかりエロくできるLoRAとエロが出やすいモデルで何とかエロが出るかどうかなLoRAってエロ学習してるか否かの違いなのかな
>>580 だけどヒントもらって足し引きしてたら納得できる品質になったありがとう
Script機能のPrompts from file or textboxで生成する時バッチカウント増やすと、 一行目をバッチカウント分生成→二行目をバッチカウント分生成… という流れになるけど、これを全行一回分生成→繰り返し… という流れで生成する方法は無い? やりたいことは同一シードで異なるプロンプトで生成した絵を連番になるように生成したい
>>682 これが出来ないので仕方ないから1行目で生成した絵を1,3,5,7…
2行目で生成した絵を2,4,6,8…みたいに自分で連番振り直してるけどSD内で完結できるならそうしたい
RadeonでDirectML導入しながらやってみてるものの、Lora学習だけはどうにもならんのだろうか……
SHARKは断片的にしか情報が拾えないんですがなにか特筆するようなことはありますか?
>>680 エロは呪文次第で割となんとでもなるが、顔や線が崩れやすくなるときがちょくちょくある。
>>683 Use same random seed for all linesにチェック入れてGenerate foreverでいいのでは?
リアル剥ぎコラで貧乳呪文入れても一定以下にならないんだがモデルのせい? おすすめの呪文やモデルあったら教えて欲しい
>>684 linuxのrocm環境で学習出来るがbitsandbytes-rocmをビルドするのが大変みたいね
>>685 バッチカウントじゃなくてGenerate foreverを使う発想が無かった…
ありがとう助かった
>>688 自分に質問してくれてるなら
プロンプトは"a naked woman",flat_chest
ネガティブは人外にならないようにおすすめされたやつ一通り
モデルはf111
正直昨日始めたばかりでまだまだわからないことだらけですわ
civitaiにたまにある inpainting versionっていうのは通常のモデルと何が違うんでしょう?
全体を構成する通常モデルとは別のinpaint用のモデル 部分加筆や修正のときに指定するんや
i2iでinpaintする時に使うと通常バージョンよりパーツが改善しやすいって感じですかね?
>>690 貧乳はそこそこむずかしい
(chest:0.8)とりあえず強度で調整してみよう
womanだと巨乳になりがちなのでgirlのほうがいいかもしれない
>>692 へそが2つになったのをinpaintで修正したらへその代わりに乳首が生えたりするやろ?
そういうAIのヘマが減るんや
黒乳首の影も綺麗になるで
画風の違和感が出ないように作者モデルと対に使うのがええよ
>>593 すみません、loraの重さ調整できる拡張機能は使ったほうが幸せになれます?
なんとかブラックウエイトだったかな?
今まで数字でlora自体の効きを調整してたけどど顔や画風も全体的に変わっちゃうから使おうか迷ってます。
恩恵がかなりあるなら使おうと思うんですけど、なんだか細かそうで躊躇してます。
今までDBでモデル自体を学習させてたんですがSDXLだとできないため LORA学習にてやってるんですが LORAでAというキャラを学習させるとき ポーズのみBやCのキャラで学習させて、Aにそのポーズをとらせることはできないのでしょうか? 別々にLORA作っても、LORAの学習時にまぜて作ってもゴチャゴチャになります
>>700 出来るよ。
ややこいから俺ではここではかききれない
5chまとめよりふたばまとめの方がそこはわかりやすく書いてあった気がする
花札を押してもLoraが表示されなくなりました TIとcheckpointsは表示されています 解決方法を教えて頂けないでしょうか?
>>702 extensionsのLoraにチェックは入ってる?
>>703 入っていました
手打ちでLoraのプロンプトを入れてみたのですが認識していないようです
>>698 Loraの公開先で1以外にするように指定があったとかでもないなら基本触らず放置でいい。
Loraはたくさん読み込むと絵や線が歪んだり滲んだりして破綻してくるので、その時に数値を少し下げて調整する感じ。
>>702 もしかして、直近に何か拡張機能、というかdepth libraryを導入した?
確かあれはdatasetエラーを起こすバグを抱えていたので、その辺をなんとかしないとダメだよ
civitaiのログイン画面が見つからないんだけど仕様変わった?
右上にsign inってあるのがそうじゃないのか?
マスピ顔ってこういう系? シンプルなプロンプトにしたら初めて出たわ でも、この嬢に色々とポーズやコスプレや貧乳を頼んで行くうちに 顔が変わってしまうんだろうなぁ
>>705 レスありがとう。
なるほど…なら無理に入れなくてもいいかな…。
顔の部分だけloraを適用できるかなと思って。
>>708 パーカーはロリ顔になるイメージ
>>709 blockweightはそんなワンタッチで顔だけとか服装だけとか出来るようなもんじゃないよ
Lora毎に延々トライ&エラーでかといって必ず望んだ結果が出る訳でもないし
聞く前に自分で色々試せるタイプじゃないと使いこなすのは難しいと思うよ
>>705 え……weightって1が標準だったの…… ほどよく学習できているLoraでも0.8くらいにして少し自由度を持たせるものかと思ってた
過学習なら0.6とかで
まじモデル学習良くわからないわ ただ、美少女イラストより実際の人物に寄せたいグラビア層にはモデル学習は必至だと感じたよ ぶっちゃけある程度、イラスト描いてきた奴なら生成された絵をクリスタで手直しする方が美少女イラストに関しては仕上がりイメージに近くなりやすいかな
最近Stable Diffusion使い始めた素人で 基本的な質問かも解らないけど 笑わないで・・・笑っても良いから教えてほしい png infoで情報を見ると 大体parameters でプロンプトと情報が出るか何も無いかだけど Raw profile type exifて出て exif 数字とアルファベット羅列情報 が出たら パラメーターはどう確認したらいいですか それとも画像情報しか無くて生成データは見れませんか?
エロ画像を膨大な数作ってる人に聞きたいんだけど、 どうやって画像管理してる あの(エロ)画像が今見たいと思っても見つけ出すことが困難になりつつある 1フォルダーに5000枚とか入れると見つけられない かと言ってキャラやCheckpoitでフォルダ分けすると見つけられなくなりそう 過去、同人誌やラノベ含めてもここまでの大量なものを扱ったことがなくって戸惑ってる
特に気に入ったものを定期的にお気に入りフォルダに移しておいてそこから関連付けた日付でいつくらいのものだったか辿ってる お気に入りはまだ200程度、作ってきたのは1フォルダ6000~8000くらい入ってるのが3つあってそろそろ4つ目を作ろうかと考えてる所 全部管理なんて不可能だとNAIの時に分かっていたのでざっくりにしか分けてないな
>>715 それは自分で生成したデータ?
拾い物なら入ってない
パラメータのテキストはメモ帳で強引にファイル開いても読めるから、それで読めなきゃデータ自体に入ってない
パワポの素材みたいなのを作るのにいいモデルはありますか? サーバー、とかデータセンター、とか書かせようとしてもすぐ人物が入り込んでしまう。
>>708 こういう系?とか聞いておいて画像が貼れてなかった
あらためましてマスピ顔ってこういう感じですか?
自分的にはこれくらいの顔で固定出来て貧乳化出来たら嬉しいけど
極端に子供化しちゃったりするんだよねえ
AIで吐いた画像はシコったらすぐ消してるわ 手で描いたのと違って保存してあるプロンプト入れたら似たような画像を大量に出せるから画像保存する意味がないと思ってる
XLのエロモデル、まだ見つからないんだけど、これも2.0と同じように 俺みたいなやつには役立たずなSD.verなの? それとも俺のやり方が悪いだけ?
>>620 俺も先日4060tiにしたが古いバージョンがドライバに互換性がないと弾かれた
だから恐る恐る最新入れてるがなんとか古いバージョン使えないか試行錯誤してるとこ
英語verだったらいけるかと思ったがだめだった
>>723 製品出荷前のドライバが対応してる訳はないからな
60Ti 8GBは532.03以降、60Ti 16GBは536.67以降から正式サポートだし
>>725 あーそういうことか
VRAM16Gになったから負荷の高い生成が早くなるかなと思ったがなんか全然遅いんだよな
VRAM8Gで共有メモリ使ってるのと時間あまり変わらんから共有メモリ使わないバージョンに落としたいと思ったんだが16Gは最近出たばかりだから対応してないんか
>>726 ちょっと状況が不明だけど普通に考えたらその比較で速度変わらない訳が無いけどな
例えばVRAM10GB位使う生成で8GB環境だと共有メモリにはみ出すから劇遅になるのは解かるけど
16GB環境で同じ生成を行っても共有メモリは使わないからGPUの素の速度が出る筈
後はWebUI側の環境の問題だと思うけど新規でインストールしなおしたり
VENV削除して構成しなおしたり辺りを試す感じかな
>>720 マスピ顔やなくてチル顔やJPドール顔やないかな
>>714 好きなグラビアをそっくりに作れたら楽しいぞ 最初は1枚で学習してコツを掴むんだよ
1枚だけなら、どこが似ていてどこが違うかがよくわかる
>>718 ありがとうございます
そもそもデータを消したら何も出なくて
何かソフトやツール経由して手直しなんかして保存し直すと
exif でめっちゃ長い数字データになるって感じですかね
>>714 良くわからない 解る
自分も自分絵学習させたら全然違う絵柄で生成かえってきた
LORAは作れないんでHypernetworkだけど
サザエさん(原作)みたいな絵でキュアイエローみたいな髪の
こんなん生涯ですら描いた事ねー
みんなXLメインに移行してんの? 俺まだメモリ的に不安だし現状Lora資産が使えないみたいなんで1.5のままだけど
ControlNetを使えたらXLに移行するんだけど
GithubからインストールしたOpenpose ライセンス見るとMIT Licenseで、 Commercial use に緑色のチェックが入ってるので商用可と 思ってたら、某米大学が商用料金書いてて使用中止 代わりに Apache License 2.0 の DWPose みつけたけど URLからインストールすると、Code 128 エラーでインストールできず Windowsの資格情報消したけど、やはりインストール完了せず 棒人形の画像は山ほど持ってるので、画像生成してくれる代替のポーズツール教えてください
生成された画像フォルダを埋め込まれたタグで検索できるような機能はありますか?
急にWebUIが起動しなくなって、git cloneで再インストールして拡張機能も入れずに初っ端からGenerateボタンを押しても何も出て来ず、コンソールも無反応です。ZIP版も試しましたが状況変わらずです。 NVIDIAのドライバは531.61で止めてあります。 他に確認する所はありますでしょうか?
ブラウザをBRAVEからFirefoxに替えたら動きました。 とりあえずこれで様子見してみます。 BRAVEはSD専用にブラウザ拡張も入れず素で使っていたので気付くのが遅れました。
>>701 探してもでてこない
申し訳ないがどこかわかりますか?
自分で作ったLoraを2度焼きする場合、どこにセットすればいいの? Lora/Training/Source Model/ Model Quick PicにパスコピーすればOK?
>>734 A1111のControlNetならDWPoseも試せる、自動でダウンロードしてくれる神ツール
>>742 ありがとう。ControlNetにDWPoseあるという記事みたけど
なかったのでアップデートして1.3.8にしたら左のプリプロセッサに
あらわれました
でも右の項目変わらず
結局左のプリプロセッサで棒人形抽出しなけりゃ、
商用問題ないのかな?
checkpointとかって使わなくなったやつとか新バージョン出てきたりしたやつの旧バージョンとかはみんなどうしてる?削除?バックアップ?
取りあえず保存 容量気になるなら2Gにしておくぐらいかなー
Control Netのopenpose使うと、ポーズは反映されるものの、
謎の物体が映ったり、指定してないのにジャケットを羽織ったり、帽子被ったりする減少に悩まされてます。
この方の投稿を見ると、既知のバグ?ぽいのですが、
https://twitter.com/studiomasakaki/status/1693818997194772558 Openposeを普通に使えると言ってる記事もありますし、
同様の事象も調べてもほとんど見かけません。
回避法等知っている方がいたら教えていただけないでしょうか?
ちなみに、モデルを複数切り替えてても変わりませんでした。
https://twitter.com/5chan_nel (5ch newer account)
>>736 ありがとう!
まさにこういうのが欲しかったです
やっぱりありますよね 誰でも欲しがるような機能
sd自体は外付けssdに入れてて、生成画像は外付けHDDに入れるって事は可能ですか?
>>749 ドライブレターが変わらないければ問題なくできる
ただ、速度的には不利って気がするけどな
昔、<lora:loli:1>ってのがあって効いてるけど、実態がなんだかわからない って質問したんだけど、<lora:faceage:1>と同じものだった、どっちでも効く chunkから読み込んだ時点でたまに名前が変わるのがよくわからない、英数の記号みたいなのになるのもある
>>750 じゃあ無理か。SSDに画像生成しまくってHDDにコピペしてSSDの方の画像を消すってやり方してるんだけど超面倒
>>752 SSDの書き換え寿命減るし最初からHDDのフォルダ出力先に設定しとき
>>752 設定に保存フォルダ設定あるけどそれじゃアカンの?
t2i、i2i、gridと個別に指定もできるし全部一つのフォルダにブチ込む事も出来るけど
>>749 シンボリックリンクを使えば簡単にできる
自分もSD本体とmodelやLoRAは SSD で
生成画像は全て HDD に書き出すようにしてる
生成画像は1つ数百KBでしかないからHDDの速度でも十分だよ
横から失礼するで!! 勉強不足で申し訳ないんだけど、 設定で保存フォルダをHDDにするのとシンボリックリンクを使って飛ばすのって、具体的に処理とか変わるもんなのかな? 前者は最初からHDDに保存しようとして、後者は「いちどSSD内2保存しようとして」シンボリックリンクの参照先のHDDに保存し直すみたいなイメージ?
>>759 質問の意図がいまいち判らんけどシンボリックリンクはファイルシステムが処理するからアプリからみたら処理は変わらない
SD1.5でLoraではなくLycoris使った時だけノイズ画面が生成されちゃうんですけどなにか原因らしきものってありますか?
花札押してもLycorisのタブだけ出てきません。
1.5.0以降は「a1111-sd-webui-lycoris」は入れなくてもいいって見たので消して生成したりしても結果が変わりません。
>>759 シンボリックリンクはリンク先のファイルやフォルダがそのファイルまたはフォルダであるかのようにアプリに見せる仕掛け。
SSDは経由せずにHDDに直接保存されますよ。
>>760 >>762 ありがとう!!勉強になりました!!
>>761 1.5以降ではlycorisも<lora:lycoris-name:強度>で使うようになったのと、
lycorisのファイルもloraの下に入れるようになったけどその点も大丈夫か?
とはいえ<>の中に存在しないものを書いた場合は無視されるだけでノイズ画像になることはないか
>>761 SD2.1用のloraやlycorisをSD1.5のモデルに使おうとするとノイズ画面になった気がする
メタデータ見られるノイズ画像と エラー吐いてないかどうかのコマンド画面見られれば早そうなんだけどなあ
>>761 Lycorisのタブは「a1111-sd-webui-lycoris」で追加されてた物だから、
SD1.5のLORA(Lycoris)機能では追加されない(LORAフォルダを見に行く)
<lora:lycoris-name:強度>と<lyco:lycoris-name:強度>、どっちでも動作するし、
存在しないlycorisを指定しても、無いよってエラー出るだけでノイズにはならないからlycorisやモデルに問題ありそう
教えてください Automatic1111のバージョンを1.4から最新の1.52に更新したんだけど、同じプロンプト入れても、むしろ同じSeed値にしても1.4と全く違う絵がでてくるんだけど、本体のバージョンで絵柄が変わることってある?
>>769 そのレベルで違いが出ることは基本無いと個人的には思ってるけど
偶に変わるって言ってる人はいるね
手元のテスト用1.2.1と最新1.5.2で過去に1.4.0で生成したやつのメタデータ引っ張って
それぞれ生成してみても細部に若干違いがあるかな位かな
>>769 同じく本体バージョンげて以前の画像が再現出来なくなったよ
そのプロンプトにLyCORISタグって入ってる?
前スレで本体のLyCORIS周りのアプデが関係あるんじゃない?って言ってた人がいて、そうかもなと
lora easy scriptでadamwのオプティマイザー使いたいんですがどうやればいいのでしょう?(直接コマンドラインに打ち込む方法のやつ)、ネットではadafactorの例しか載っていなく、いろいろやっても学習に入らないのです。
>>769 ちょっと雰囲気は変わるけど全然ということはない
何か別の要因があると思う
もし、原因を切り分けたいなら別フォルダーに別のバージョンのSDをインストールして試してみるといいかも
こないだ1.2から1.5にしてたけど、loraが一部効かなくなってseedも同じ絵が出なくなったんで1.2に戻してしまった lyicorisを削除したりしたけど結局原因が判らずじまい…
今朝から下のエラーが出て起動しなくなってしまったんですが解決策をご存知の方お願いします ModuleNotFoundErro: No module named 'tqdm.auto'
>>764 ・765・767
エラー出るのでこれですいません。
レスありがとうございます。SDバージョンミス等はなかったです。
「--no-half」「--no-half-vae」追加と「RAMにキャッシュするcheckpointの個数」「RAMにキャッシュするVAEの個数」を0から2に。
で改善しました。
3080の10GB使用で512*768のHiresなしなのにメモリ不足?的なことになるとは思ってなかったです。
生成速度は15秒くらいから20秒くらいに落ちましたが仕方ないですね。
ver 上げて同じ絵が出なくなった時は拡張機能がver upに対応できてなかったからってのが何回か control net系で多い感じ
1111のバージョンアップってどうやるの? 毎回起動前に更新batやってるけど、GUIの一番下に表示されてるバージョンはv1.0.0ってなってるんだが
>>780 gitから持ってきてインストールしてるならgit pullで
アップデートする
zipで持ってきてインストールしてるなら新バージョンの
zipを持ってきて入れ直す
新しい環境はバグで動かなくなる事があるので
今までの環境もバックアップ推奨
>>780 なにをどうやってインストールしたかによる
1.0.0-preを解凍したのだったらupdate.batを実行
git cloneからインストールしたのならgit pull
ググってる間に回答してくれた人たちありがとう でもせっかく回答してくれたのに俺が素人すぎてさっぱりだごめん ワンタッチ版の更新batにgit pullって書いてあるからそれやっとけば問題ないのかな
たぶん新しくフォルダを作ってgit cloneで1.5.xとかにした方が良いよ
新しいフォルダにインストールするならモデルデータとかを シンボリックリンクにしといた方が楽だよ 「automatic1111 mklink」でググれば解説したページがある
>>769 昔はバージョンかなり変わるとそもそも中の処理変わったから普通にあったよ
1.4から1.5はわかんないけど
LoRAの生成についての質問です。 顔や全身など,特定の人物についてのLoRAは問題なく作れるようになりました。 しかし,**を舐めるLoRAとか,**のアクションのLoRAなど,特定の行為のLoRAをうまく作ることができません。 素材の集め方や,切り取り方,タグの付け方などにコツがあるのでしょうか? kohya-LoRA-dreambooth+google colabを使っています。
>>789 キャラLoRAは何枚ぐらいでやってる?
さっぱりわからんのだけど、XLが使えてるんだよね てことは、ワンタッチ版の場合はv1.0.0と表示されていても実際は1.5になってるってこと?
>>792 起動時のコマンドプロンプトの2行目くらいに今のバージョンが出ると思うんだけど、WebUIの画面最下部の表記が1.0.0ならコマンドプロンプトも1.0.0と表示されるかも
というか本当に1.0.0だったら拡張機能とかまともに動かないのでは?
ワンタッチ版付属の更新bat使うと中身は最新になってるのにバージョン表記だけ更新されないことがあるからそれかな? 通常版と同じ手順で手動git pullしたら直った
初心者質問スレって無いですかね? 同じプロンプトで繰り返し生成し続けると画像が崩れて行く原因が知りたいんです。
初心者なのだが Webuiのinpaintでcontrolnet使って2次の剥ぎコラ作ろうとしてるんだけど ほぼいらない服来てたり裸にならないんだけどプロンプトが駄目なのかな? nsfw,nude強調しても上手くいかない 何かパラメータ弄る必要がある?
C:\直下で細々画像を書き出してたら システムに悪影響ありそうな気がして SDのフォルダを他の余裕があるドライブに単純にコピペしたら動いたんだけど そんなんで大丈夫? なんか同じドライブにpythonを配置してないと駄目みたいな意見もちらほら見かけるのですが
>>800 1レスで矛盾させる高度なテクニックだな
>>0791 キャラは10枚くらいが多いです。 適当にやってもそれなりに効くLoRAができたのに,こと行為になると狙った通りに行かなくて。
なんかマージでbase alphaが無視?されてるっぽいんだけど 同じような症状の人いますか? supermergerでのマージで、モードはnormal ・ALL_B ・"0,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1,1" の2つでX/Y plotしても出力が同じなんだよな…… 試しにt2i側でそれぞれマージしたモデルとモデルBとの3つでX/Yplotしても同じだった
同じドライブにPython入れておかないと遅くなるとは聞いた
>>801 言葉足らずですみませんでした
当然の前提がわからない方だとは存じ上げなかったので失礼しました
あなたの知能にあった言い方をさせていただきますね
問題なくSDは動いているし、pythonをインストールした段階でPATHは通してあるのですが
ネット上の情報を見る限り、インストールするドライブを変更する時は
同じドライブにpythonもインストールし直さないといけないという意見が多かったので質問したのですが
ID変えて突っ込むほど嫌な気分にさせたなら大変申し訳ありませんでした
ごめんなさい
>>804 非常に有用な情報ありがとうございます
その線を研究してみます
同じドライブにpython入れないといけないなんてことはない それにそもそもvenv環境ならもともとのpythonのインストールどこにされてるとか関係ない
>>802 枚数増やしたら増やしたで過学習なのか脱いでくれなくなることもあるしw
世の中には再現性が良い上にスパっと脱いでくれるし○ンコ入れさせてくれるしボテ腹になってくれる素晴らしいLoraもあって訳がわからん しかも説明書きを見るとエロ画像で学習していないとか
>>794 やっぱりか
ワンタッチ版でも手動git pullできるんだね今度やってみよう
web UI(ローカル構築)のインストールから初めてみたんですが、
civitaiのプロンプト通りの設定で画像生成をしても奇形に生成されてしまいます。
別の画像でいくつかプロンプト通りに試してみても同じような結果でした。
PCを再起動しても変わりません。
下記の知恵袋のURLに同様の質問をしました。
PCスペックや生成画像なども載せてあるので、原因が解る方がいればぜひ教えてください。
https://detail.chiebukuro.yahoo.co.jp/qa/question_detail/q13285171363?post=1 >>811 1024x1536でいきなり生成してるからかと
512x768で作ってhires.fixでx2でやってみて
>>812 おお、すごい!
1枚目にほぼ元画像と同等のものができました!
解決です。ありがとうございました!
Japanese InstructBLIPをSDに組み込む方法を教えてください
>>528 の件
リンク先のリンク先であるここ見ると
https://huggingface.co/minimaxir/sdxl-wrong-lora sdxl-wrong-loraという名前のファイルがなくてpytorch_lora_weights.safetensorsというのがそれっぽかったんだけど、
なぜか今はそれも削除されていてpytorch_lora_weights.binというのしかない
どういうこと?
このサイト、素人にはハードル高くてわからん
生成した画像の履いてる靴とかを部分的に修正する方法ってありますか?
>>818 情報が少ないから一派的な方法だとInpaintを使うのが
画像一部修正には良いかな
ぐぐれば例はたくさん見つかるよ
あとcutoffで色指定する場合最初の方にクオリティとかの呪文を入れてる場合ってどうやって指定するの? 8番目だけ指定したい
>>770 返信助かります
やはりおかしいですよねSDは別フォルダでの入れたので1.4は使えてる状況なんですが
もう一度入れてみようかと思います
>>771 LoraははいってるけどLycorisははいってないですね
>>773 別フォルダでいれてるんですわもう一度1から入れてみようかなと思ってます
>>817 すごい、どうやったらそこにたどり着けるんだ
それはともかく、pytorch_lora_weights.safetensorsイコールsdxl-wrong-loraってことでいいんだよね?
実はすでに使ってるんだけど、ちゃんと効いてるみたい
手足の破綻がだいぶ軽度になった
>>825 両方使える環境なら同じ設定・同じモデル・同じサンプラー・同じ解像度・Lora不使用・同一SEEDとかで試して
それでも常に違う絵が出るなら何かしら環境的な問題じゃないかと思うけど
何処かがちょっとでも違うと違う絵になる可能性が高いからな
両方同一条件で出したけど別絵になったていうファイルをメタデータ付きで上げてくれればどんな感じか見てみたいけどな
棒人間画像を自動的に保存してくれるオプションとかありますか?
>>831 Controlnetの設定の「検出されたマップの自動保存を許可(Allow detectmap auto saving)」じゃないかな
>>833 ありがとうございます!
settings > Control Net > Allow detectmap auto savingにチェックで
t2iのフォルダにdetected_mapsというフォルダが作られて保存されてました
青マーク付きの楽天ROOMスタッフってやつがTwitterフォローしてきたからpixivにあげてたAI生成エロ画像全部非公開にしたらフォロー外しててワロタ 仕事中にエロ見てんじゃねえよ
お金がない人はインターネットカフェとか ゲーミングカフェとか RTX 4090 レンタルしてるから それで使えば1時間数百円から1000円ぐらいで使えるよ
もしかしてプロンプトって日本語でも良いのかな? LoRA学習時に人物名を日本語で入れたら他の単語や名前と被らなくて良さげなんだけど
ローラと聞いて故西城秀樹さんを連想する私はおじいちゃん
日本語プロンプト試してみたらいい SDの前段の処理であるテキストエンコーダー自体はどの言語にも対応してるからね 効くかどうかはモデル側が日本語を学習してるかどうかによる
>>841 スワヒリ語とかタガログ語でも行けるのか
asunaだといろいろなアスナが混じるけど結城明日奈なら一人に絞れる
だからasunaの後ろに(SAO)をつけることで解決したんですね
hiresのような精細化をi2iで再現することって出来ないのでしょうか 元画像のseed値を忘れてしまって、i2iで拡大しても線がほぼそのままの状態で困っております 詳しいパラメータの設定方法をもしよければスクリーンショット付きで教えてください
>>845 PNG Infoは使ったことある?
元画像のファイルをドラッグ&ドロップすれば生成パラメータが表示されるよ
「txt2imgへ転送」すればパラメータがtxt2imgに転記されて同じ画像をもう一度生成できるようになるから、そこでhires.fixを設定すればいいのではないかなー
>>846 加工してしまってPNGinfoではseed値が出てこないんです
i2iではhiresのような精細化を再現することは出来ない感じなんでしょうか
むしろ今だとhiresよりcontrolnet tileが主流じゃないの? まあケースバイケースだとは思うけど
ご存知の先達がいらっしゃったら、ぜひお教えいただけると幸いです。 ローカル環境で、NMKDとA1111を併用しています。 同じモデルを用いて、同じプロンプトで動かしていますが、NMKDは美麗な結果が出力され、A1111はだいぶシュールな出力になります。 生成ステップ数(80)やCFGscale(7)も同様で、唯一の差異はサンプラーなのですが、 NMKDは、DPM++2 Ancestral A1111は、DPM++2M SDEです。(浅学でA1111にDPM++2 Ancestralの適用方法が分からなかったため) これは、サンプラーの差異によるよる結果でしょうか。 A1111で同様の美麗な出力を得る方法を探っています。 もし同様の状況に遭遇して解決方法をご存知の方がいらっしゃいましたら、お知恵をお貸しいただけますと幸いです。
>>851 何ヶ月か前にも同様の話が出て、結論は「NMKDは裏で品質向上のプロンプトを追加している」だったような気がする
というかそういう話のときは実際の画像をぜひ見せてほしい
catbox.moeにアップロードすればメタデータが削除されないし
>>844 ああいうのってSD内部ではasunaとasuna(SAO)は完全に別物という扱いなのかな
テキストエンコーダーの仕組みを理解してないんでよく分からん
姓名でスペースで間を空けてるのとかあるし
LoRAじゃなくてベースのモデル自体を作成する方法って検索してもマージモデルの作成方法ばかりで全然見つからないんだけどLoRA作成よりも技術的に難しいですか? 作り方載ってるページとかあったら教えてほしいです
>>854 エグいマシンパワーとエグい量の画像、タグ付けが必要らしい
自分はtaggerの作り方が見つからん
>>854 前にもその質問みたけど
VRAM48以上の環境でも1週間かかるとか見た
外国人のyoutube動画で解説してるのとかあった気がするけど
一人でやるのは金銭的にも時間的にも現実的じゃないよ
>>855 >>857 有難うございます、エグそうでワロタです
諦めて先人が作ったものを混ぜ混ぜします
とんでもないGPU並列にぶん回してして一週間とかだからなあ 前処理まで気合い入れると一月 WDの開発みてたらめたゃくちゃ時間かかってる
>>850 i2iではhiresのような精細化を再現することは出来ない感じなんですね
申し訳ありません途中送信でした
>>850 リンク先だと新しいオブジェクトを増やす加筆だから方向性が違うかな?
i2i単体ではhiresのような精細化を再現することは出来ない感じなんですね
reference only で同じ顔を生成+openpose系でポーズ指定の複合技ってできるの? controlnetの指定って一つだけだから無理ですかね?
>>851 この話、定期的に出るわりに具体的な画像とかプロンプトとか出てこないんだよね。
再現実験がされてないので、偶然に差のある画像が出たという可能性すらある。
そもそもNMKDのほうが美麗な結果とやらが本当なら少しは流行ってもいいはずなんだけどね
ちなみに俺もNMKDを使ったことあるけど、特別優秀だとは思わなかった
>>861 高精細化ってのがどの程度を言ってるかわからんが
seedやプロンプト一切なしで高解像化は可能だと思うよ
Tiled Diffusionとかでやるのがまあ、楽なのかとは思うけど
懇切丁寧に画像付きで解説する気はないので自分で調べてね
主観を捨てて画像だけ載せて こういう違いが出るんだけど原因はなんでしょう? みたいな聞き方してくれるといいんだけどね 答える側が考えやすい質問するのって案外難しいんだわ 質問することに慣れている人って基本的におらんし
>>862 settingsでControlNet内のMulti ControlNet: Max models amountを増やせば同時に使える数を増やせるので
同時に複数をコントロール可能だよ
>>861 >>864 がわかりやすいけど具体的な方法を言えないのは無知なAI絵師しかいないからだよ
諦めな
>>867 i2iに高解像度補助の項目がない時点で無茶振りだったかもしれないですね
失礼しました
Pythonスクリプトすら弄れない人ばかりのスレでしたか、失礼しました
>>845 promptに下記のLoRAの-1指定、negative promptに品質系タグ、Denoising strengthを0.9等高い値から少しずつ減らして結果を確認
https://civitai.com/models/81291/flat2 >>868 ん〜、何をやりたいのかがわからない
高解像度(要はサイズ)を上げたいのか高解像度(サイズがでっかい)にみあった書き込み(高精細化)を増やしたいのか?
t2iの高解像度補助(Hires. fix)だってDenoising strengthを0にすりゃほぼ高解像度化するだけだしな
flatでも使えば?あとはしらん
初心者は自分の中の狭い知識で答えを出そうとするからしゃあない
>>871 ワッチョイありがいいという人が多ければありで立てていいと思うんだけど、ワッチョイありのスレが立っても、なしのスレを立てちゃう人がいるのがこれまでの歴史なんよ
adetailerで手修正がうまくできないのですが 何かやり方とかありますか?
そう言ってこの前何事もなくワッチョイスレはここに統合されたからな 俺はむしろワッチョイスレに統合するべきだと思うけど
>>877 > 俺はむしろワッチョイスレに統合するべきだと思うけど
それは自分も賛成
荒れてからワッチョイを立てるのではなく、予防のために常にワッチョイありにしておきたい
なんだけどスレが分裂するのも好ましくないから、ワッチョイなしになるのはやむを得ないかなあ
Ryzen 5 2600 メモリ32 GB GTX 1660 SUPER メモリ 6GB でやっています ControlNetもMultiDiffusionもAdetailerも使おうとすると 画像生成がコケてコマンドプロンプトを確認すると どこを見ていいかわからないほど長いメッセージが出ます 3060 12GB に買い替えたら幸せになれますか? Negative Pronpt: 知ってるけど、教えられないね 金の無いスケベは見ていて憐れだな
大半の人は立ってるスレにいくだけだけど、率先してワッチョイ無しで立ててる人の素性が怖いよ 他スレで荒らししてる人物ってことだし
ワッチョイありで頼む 基地外をNGしやすいのが一番
ここは質問スレだからほとんどの質問が唐突に来るけどね
PNGパラメータの解析ってどうしたら良い? ぱっと見る感じ、単純なテキストが先頭に入ってるっぽいから バイナリで読み込んで、始まりは74 45 58 74と何か終わりの文字列で挟み込んで抜き出せる? とりあえず、終わりが良く分からない それとも、ちゃんとした解析ライブラリ探して使った方がいい?
立てたぞ
ワッチョイ付きで安心だな
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ >>888 スクリプトなら作ってあるけどリンク忘れた
俺以外にも何人か作ってると思うけど
抜き出してなにやるんだろう 面白い使い方ができるん?
>>888 pythonだったらPILのPngImangePlugin.PingInf()で取り出せるよ。
>>888 SD Prompt Reader とかじゃ駄目でしょうか?
目的は、良さそうな画像をとりあえず片っ端からダウンロードしてプロンプトがあればテキストにして保存みたいな感じで使いたい
プロンプトの情報データベースやAIに解析してもらったりもそのうちしたい
あとは自分で作った画像の分類とかかな、今は同時にテキストを作ってるからそれを読み込んで画像分類したりかな
可能ならなれてる言語のPerlでできればと思ってる
PythonはGPTのアシストがないと全然書けない
>>892 どうやって抜き出した?
>>894-895 ありがとう
見てみる
アップスケーラーは以下の4つだけですか? そして一番綺麗にアップ出来るのがSDアップスケーラー with ControlNetという認識でOKでしょうか? ・MultiDiffusion(Tiled Diffusion) ・Ultimate SD Upscale ・SDアップスケーラー ・SDアップスケーラー with ControlNet
【誘導】
あらしを避けられるワッチョイスレに移動しましょう
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ >>896 pillowがpip installされている前提で
python -c "import sys; from PIL import Image; print(Image.open(sys.argv[1]).text['parameters'])" 画像ファイルのpath
保存するなら最後に > テキストファイル名.txt
どうせならこっちの方が早いか ls *.png | %{python -c "import sys; from PIL import Image; print(Image.open(sys.argv[1]).text['parameters'])" $_.Name > ($_.BaseName + ".txt")}
>>899 こっちを埋めてからでも良かったんじゃない?
水着グラビアのアイドルの水着を消す方法ってどうやるといいでしょうか controlNetのインペイントで水着部分を黒くマスクしてプロンプトでnakedとかやっていますが 水着が復活してしまいます
nsfwに強いモデルを使用してinpaintすれば一発やで
>>896 Perl使えるならimage::ExifTool::PNG使ったら良い
>>907 ありがとう
こんなモジュールあったのか 古いプログラムだし無いかと思ってた
use Image::ExifTool qw(:Public);
my $info = ImageInfo('test.png');
foreach (keys %$info) {
print "$_ => $$info{$_}\n";
}
で動いた
これで自前のPerlスクリプトに組み込める!
>>901 Pythonも勉強中だから助かる
【誘導】
あらしを避けられるワッチョイスレに移動しましょう
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ ふと思ったのだがLoRA学習時のキーワードって重み付けできる? 「A:0.6,B:0.4」みたいに これができると連続的な数値指標との対応がやりやすそう
手をうまく描く方法って cannyでやるのが一番簡単ですか?
>>845 を検証してみたんだけどNGワードで書き込めない
catboxのURLがよくないのかな
catboxのURLのうち、/以下のランダム文字列にNGワードが含まれているのか
>>845 を検証してみた
元絵をhires.fix(2倍)アップスケールのパラメータはアップスケーラーが4x-UltraSharp、ノイズ除去強度0.5
元絵をimg2imgに送り、シード値やプロンプト、アップスケールのパラメータなどをhires.fixと同じにしてアップスケール(hires.fixとほぼ同じ結果になる。ちょっと差異があるのはxformersのせいかも)
元絵をimg2imgに送り、シード値を「-1」にした以外はプロンプトなどのパラメータをhires.fixと同じにしてアップスケール
元絵をimg2imgに送り、シード値を「-1」、プロンプトを空欄にした以外はパラメータをhires.fixと同じにしてアップスケール
hires.fixはtxt2imgとimg2imgを1回の生成でできるようにしたものだから、hires.fixでできることはimg2imgでもできます
>>913 続き
元絵のパラメータは以下の通りです
1girl smile botanical garden
Negative prompt: (worst quality low quality:1.4)
Steps: 20, Sampler: DPM++ 2M Karras, CFG scale: 7, Seed: 1, Size: 512x768, Model hash: cbfba64e66, Model: Counterfeit-V3.0_fp16, VAE hash: 63aeecb90f, VAE: vae-ft-mse-840000-ema-pruned.safetensors, Clip skip: 2, Version: 1.6.0
【誘導】
あらしを避けられるワッチョイスレに移動しましょう
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ ちょっと便乗なのですがもしよければ教えてください hiresで2倍にすると綺麗になりますが、4倍などにすると絵が崩れますがなぜ? また、それが嫌でHires2倍を外部ソフトで更に4倍に拡大して4K*6Kくらいにしています これを連続的にする方法はありますでしょうか?
【誘導】
あらしを避けられるワッチョイスレに移動しましょう
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ 【誘導】
あらしを避けられるワッチョイスレに移動しましょう
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ >>905 ありがとうございます!
artErosとかいうのでやってみたところかなりうまくできました
モデルで変わるんですね
【誘導】
移動してください
【StableDiffusion】画像生成AI質問スレ16ワッチョイ
http://2chb.net/r/cg/1693352870/ これでワッチョイなし立てたらさっきから連打してる荒らしって確定だな
単純に誘導されるのが嫌だからだよ ワッチョイなどなくていい
ワッチョイなしスレは荒らしの思う壺なんで立てないように頼む
ワッチョイ有りの次スレもグダグダ感を演出するためにわざとスレ番間違えて立ててるみたいだけど それに惑わされず使い切るか、立て直すのか? まあ、そういった問題点を出してグダグダにしてワッチョイスレを潰す気まんまんと見た
>>927 誘導されるのが嫌=わかる
だからワッチョイなしのスレがいい=わからない
ワッチョイなしのスレが立ってそちらへ誘導されたらそれも嫌ということになるので、その理由はワッチョイの有無に関係ないように思います
むしろ無しで建てたら継続して誘導荒らしされるんじゃね?それともしたいのかな?
勢いがあるほうがいいからなしでいい 過疎スレで分裂やったらだれも話さなくなるわ
ワッチョイなしのままで頭おかしいのをこのスレにまとめて隔離しておくのもありといえばあり ワッチョイありだらけになると最後無差別に暴れだしてあちこち迷惑かかったりするからな そうでなくてもここから関連スレに出張して暴れてるカッスいるし
ワッチョイ無しがいいからこそ便乗して執拗に宣伝する奴は存在する そうすれば嫌われるからな
無しの方がいいという意見の方が多いので 無しで次スレは立てましょう
質問スレなのにワッチョイを否定したがる理由がわからん そんなに頻繁にレスするスレでもないのに特定されて何が困るのか ワッチョイ有無でスレを分けるんじゃなくてそもそもワッチョイスレのみでいいと思うんですが
ワッチョイに強い拒否反応示す奴もそれなりにいるからな 匿名掲示板の匿名性を損なうのは反対って意見もある スレの質問者や回答者にかみつくような奴がいなければワッチョイなしでも全然問題ないんだけどな
表層ウェブで完全な匿名性を求めるのなんて10年以上前から時代遅れの発想でしょ
アスペルガー症状の強い積極奇異型自閉症の人は
どうしても一律で全員同じであるべき!って人に押し付けまくるから無自覚に疎まれるんだよな
スレ番号も盛ったりせずに落ちたワッチョイ有りのスレ2スレ目で作ってIDコロコロの荒らしなんてしなければ
感謝される機会もあっただろうに
平常通り無しの次スレは
>>950 さんが立ててください。
それでみんな行きたい方に行けばいいじゃない
いつも結局有りスレが過疎って無しの方に統合されてきた過去があるけど。
無しの次スレなんて要らないな 有りだけで進めて多少勢いが落ちようがスレタイ通り質問スレとして機能してたらそれでいい 無しじゃないと困るような人のレスなんて無くても構わないし
>>938 ホントそうなんだけど、なしスレを立てるのを止めることはできないから難しい
なしの方がいいという意見で納得がいく理由はまだ出ていない
あんたを納得させるためにスレがあるわけじゃないから
>>946 そりゃそうだね、でもあり派をなしでいいと思わせる理由って出てる?
あとあなた
>>930 のレスを無視してるよね。それはなしでいい理由をきちんと説明できないから?
気違いってなんで他人まで巻き込んで強制しようとするんだろ ワッチョイじゃなきゃ許せないなら引きこもってりゃいいのに
>>949 おつ!
>>947 ワッチョイ有りじゃなきゃダメなら荒らしたりせずに勝手に立てたスレに引きこもっていればいい
他の人があなた個人の発達障害的なこだわりの強さに付き合う義理はない
結局ワッチョイある方もない方もテンプレ無視して勝手に立てる奴しからおらんやんけw
正直ワッチョイなし派の言ってることはメチャクチャで駄々をこねてるだけだとしか思わんが、まあ結局ワッチョイなしスレが立てられて話は終わっちまうわな ワッチョイがあって何が困るんだろうな 好きな時に荒らしたい奴にとっちゃ困るんだろうけど
わいが本当に必要だったもの
<ワッチョイ付きスレ17>
ワッショイありは1から立てればいい 乗っ取る理由はない
ワッチョイスレがいいから俺はそこに書き込む!なら個人の自由だけど
他人にワッチョイなしスレを立てるな!使うな!っていうのはただのキチガイなので
精神科受診した方がいいよ
>>949-950 乙
ID:z8bP+sn/ こいつがレスしだしてから 【誘導】の連投がピタっと止まったのを覚えといてね ルーパチルーパチっと
今後なしでされた質問にワッチョイありで答えるように誘導しようと思う
途中、バッチリ乳首出てるのにアップスケーラーが進行すると崩壊していき最後は着衣なのは何が起きているのだろうw ノイズ除去で乳首が消されてるのかな
〇〇breasts,nipplesと明示すると良くなることも
正直な話 ここよりなんjとエロ画像情報スレの方が人いて質問と回答されてる頻度が高い感じ
というかよく考えたらそもそも質問スレなんていらなくない?
ワッチョイ化を試みる ↓ 失敗 ↓ スレ要らなくね?w
経験上荒らしはワッチョイどころかIPが出てても平気でやるので あってもなくても同じ
>>975 本来の目的はそうだけど
荒らしの立てたと思しきスレには行きたくないってのが5ch民の習性だから
ワッチョイありと無しならありの方でいいけど何でスレ番16なんだよ
年齢帯を指定する形容詞って大体名詞の意味もあるので 複数指定すると人が増えてしまう…という現象を回避する方法ある?
前スレも埋めずに次スレ使い続けるヤツしかいないほどの無法地帯て草枯れる
ちょっと普通の板ではまず見ないなw 正直民度はかなり低い
read.cgi ver 07.7.25 2025/07/21 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250913163732caこのスレへの固定リンク: http://5chb.net/r/cg/1692012289/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
Youtube 動画
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓この板の人気?スレ↓(一覧 ) ・【Cintiq】WACOM 液晶ペンタブレットPart121【DT】 ・イラストSNSピクラ PICLA ・Daz Studioスレッド Part24 ・史上最強3DCGソフトadobe dimensionってどうよ? ・photoshop以外のキモオタエロゲ絵塗り総合スレ ・Blender Part88 ・【StableDiffusion】画像生成AI質問スレ10【NovelAI】 ・お前らがpixivやめたくなる理由って何なの? ・pixiv奈落底辺スレ Part76 ・Blender Part73 ・【コミスタ・イラスタ後継】CLIP STUDIO PAINT part109 ・pixivをゲーム感覚で攻略するスレ ・【Midjourney】AI関連総合13【StableDiffusion】 ・Blender 初心者質問スレッド Part46 ・絵を描くために、どうやって誘惑に勝つ? ・UV総合スレ ・Windowsタブで絵を描きたい人のスレ Part.4 ※絵OK ・MAXSCRIPT_Vol1 ・【StableDiffusion】AI画像生成技術15【NovelAI】 ・【3Dデッサン人形】 デザインドール 8体目 ・トミーウォーカー アトリエ★145個 ・3ds Max 総合スレッド Part40 ・タブレットで絵を描きたい人のスレ ・pixiv 底辺卒業スレ part110 ・Procreate【プロクリエイト】 ・ニートが最短でこの業界に入るには ・Shade 相談/質問スレッド Ver.46.0 ・pixivのアート層を語ろう2 ・ibisPaint Part1
05:34:00 up 6 days, 2:42, 3 users, load average: 214.00, 168.17, 147.63
in 0.039103031158447 sec
@[email protected] on 091818