◎正当な理由による書き込みの削除について:      生島英之とみられる方へ:

なんJLLM部 避難所 ★3 ->画像>32枚


動画、画像抽出 || この掲示板へ 類似スレ 掲示板一覧 人気スレ 動画人気順

このスレへの固定リンク: http://5chb.net/r/onatech/1717886234/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

0001名無しさん@ピンキー 転載ダメ (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:14.82ID:???0
!extend::vvvvv:1000:512
!extend::vvvvv:1000:512
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは>>2以降

本スレ(避難中)
なんJLLM部 ★7
http://2chb.net/r/liveuranus/1710561010/
前スレ(実質本スレ)
なんJLLM部 避難所 ★2
https://mercury.bbspink.com/test/read.cgi/onatech/1714642045/

-
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
0002名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:37:50.23ID:???0
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)ここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases
(2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf
この2つのファイルだけで動く
0003名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:38:18.86ID:???0
Koboldの設定や使い方は英語だけどここが詳しい
https://github.com/LostRuins/koboldcpp/wiki
0004名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:38:50.83ID:???0
oobabooga/text-generation-webui
通称大葉
これもKoboldAIに並んで有用な実行環境やで
https://github.com/oobabooga/text-generation-webui
0005名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:39:17.96ID:???0
●Zuntanニキ謹製のツールEasyNovelAssistant

ローカルLLM導入のハードルをぐっと下げてくれたで
初めてのお人はここから始めるのもいいで
https://github.com/Zuntan03/EasyNovelAssistant
0006名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:39:45.54ID:???0
●ここ最近話題になった日本語ローカルモデル達やで

LightChatAssistant(通称LCA)
このスレのニキが3月にリリースして激震が走った軽量高性能モデルや
>>5のツールもこのモデルの使用がデフォルトやで
非力なPCでも走るしまずはこの辺りから試すのを薦めるで
https://huggingface.co/Sdff-Ltba

Ninja/Vecteus
オープンソースの強力な日本語小説生成AIを開発しとるLocalNovelLLM-projectの皆さんによるモデル群や
リリースされたばかりやがこちらも軽量高性能やで
開発も続いとるようやから今後の動きにも要注目や
https://huggingface.co/Local-Novel-LLM-project
0007名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:40:18.08ID:???0
●その他の最近話題になったモデルも挙げとくで
動きの速い界隈やから日々チェックやで

Mistral-7B系:
LightChatAssistant
Antler-7B-RP
Japanese-Starling-ChatV
Antler-7B-Novel-Writing
SniffyOtter-7B-Novel-Writing-NSFW
Ninja-v1
Vecteus-v1
Berghof-NSFW-7B-i1-GGUF

Llama2-70B系:
karakuri-lm-70b-chat-v0.1
karakuri-MS-01

Llama3-70B系:
Smaug-Llama-3-70B-Instruct-abliterated-v3

Cohere系:
c4ai-command-r-v01 (35B)
c4ai-command-r-plus (104B)
0008名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:40:41.17ID:???0
●多くのモデルには「base」と「instruct」の2種類があるで
baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで
instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
0009名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:41:02.18ID:???0
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで
GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで
CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
0010名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:41:50.96ID:???0
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで
量子化モデルにはGGUFやGPTQなどの種類があるで
基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
0011名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:42:16.10ID:???0
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで
画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
0012名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:42:38.28ID:???0
●高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
0013名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:43:22.98ID:???0
●モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで
例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで
基本的にはBが大きいほど性能が高いで
0014名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:43:44.89ID:???0
●70Bの大型モデルはLlama 2というMeta社が開発したモデルが元になってるものが多いで
メモリが48GB以上あれば動くけど、速度はかなり遅いで
0015名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:44:13.43ID:???0
https://github.com/SillyTavern/SillyTavern
AIチャットに特化したUI、SillyTavernや
キャラをbot的に管理したりグラ登録したり複数選んでグループチャットしたり大量の設定を外部記憶的に管理したり色々できるで
画像出力や音声出力とも連携可能で夢が広がるで
機能が豊富すぎて最初取っ付きにくいのと日本語の解説がほとんど無いのが難点やがRPチャット派は使うと幸せになれるやで
あくまでUI(フロントエンド)やからこれ自体にはAIは内蔵されてないから注意してな
好きなAPIやローカルモデルと接続して使うんやで
0016名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:44:44.97ID:???0
例としてKoboldで起動したローカルモデルとSillyTavernを接続する設定や
先にいつもどおりKoboldを起動してな

SillyTavernのプラグのアイコンをクリック
APIに Text Completion を選択
API Typeは KoboldCpp
API keyは不要
API URLに http://localhost:5001/
これでいける
0017名無しさん@ピンキー (ワッチョイ 93c0-oLG6)2024/06/09(日) 07:47:11.87ID:???0
テンプレは以上や
ローカルの技術研究から今日のおかずまで硬軟取り混ぜた話題を広く歓迎やで
0018名無しさん@ピンキー (ワッチョイ 0f09-GHSR)2024/06/09(日) 14:28:59.96ID:???0
赤ちゃんな質問で申し訳ないんやが
EasyNovelに載っていないGGUFを外部からダウンロードして
EasyNovelで使うにはどうしたらええんやろ?
0019名無しさん@ピンキー (ワッチョイ d332-NGCR)2024/06/09(日) 15:54:00.49ID:???0
EasyNovelAssistant\setup\res\default_llm.jsonに記述すると
モデルメニューに現れるから、そこから行けるんじゃないかな
0020名無しさん@ピンキー (ワッチョイ 0f09-GHSR)2024/06/09(日) 17:03:27.42ID:???0
>>19
サンガツ
うまくいったわ
プルダウンに出るモデル名に"/か,"が入ってるとエラーになった
0021名無しさん@ピンキー (ワッチョイ ef09-UWRS)2024/06/09(日) 21:14:09.98ID:i6yuaFpz0
詳しい先輩方に聞きたい
チャット的な会話は求めてなくて日本語で質問した内容に詳しく答えてくれるモデルでおすすめはあります?GPUメモリは12GBです
0022名無しさん@ピンキー (ワッチョイ cf8d-/tYm)2024/06/09(日) 22:36:36.00ID:AYbsecR50
12GBじゃな
エロ専門はあるけど
0023名無しさん@ピンキー (ワッチョイ cf8d-/tYm)2024/06/09(日) 22:39:28.41ID:AYbsecR50
NGワードが何で話が飛躍しないようにプロンプトを書いて自在にエロを書けた時の達成感を得るゲームになってるLLM
0024名無しさん@ピンキー (ワッチョイ cf7a-t0nq)2024/06/09(日) 22:45:21.35ID:???0
>>21
質問内容によるけど、エロじゃないならわざわざローカルじゃなくてperplexity.aiとかにしたほうがいいと思うな
ソース付きで最新情報にも対応してるし、入力窓の左下のフォーカスから検索傾向も選択できる
あとGPUメモリ12GBは全然普通なので気にせんでいいです
0025名無しさん@ピンキー (ワッチョイ ef09-UWRS)2024/06/09(日) 23:04:55.84ID:i6yuaFpz0
ありがとう試してみる
0026名無しさん@ピンキー (ワッチョイ 6323-bALF)2024/06/10(月) 00:20:13.99ID:???0
Qwen2 7B Instructの検閲について検証した人がいる

https://huggingface.co/blog/leonardlin/chinese-llm-censorship-analysis
0027名無しさん@ピンキー (ワッチョイ cf7a-t0nq)2024/06/10(月) 02:23:37.58ID:???0
AIチームもキンペーに逆らったら収容所送りだからなw
学生をミンチにした頃から何も成長していない
0028名無しさん@ピンキー (ワッチョイ 6323-bALF)2024/06/10(月) 02:28:42.40ID:???0
収容所なんてでっち上げだ
教育施設ならあるけどね
0029名無しさん@ピンキー (ワントンキン MM5f-OOki)2024/06/10(月) 10:32:41.57ID:???M
キンペー国じゃその2つは実質イコールじゃないの
0030名無しさん@ピンキー (ワッチョイ cf03-bKLA)2024/06/10(月) 13:22:51.43ID:???0
前スレ絡みでもあるけど、qwen2でもエロはいける筈
pixivに上がってる繁体字中国語のエロ小説を翻訳するのに適したモデル探してて、dolphinとqwen2マージした奴はそこそこ行けてる、ただ繁体字が日本語訳できへんねん

いまんとこ一番有能なのがOcteus、なんでかはわからんけどちゃんと中国語理解できてて、かつ小説らしい文体になっててすごe

多分プロンプト改善でかなり性能向上が見込める気がするわ
0031名無しさん@ピンキー (オイコラミネオ MM17-B4NQ)2024/06/10(月) 14:02:14.95ID:???M
色々大きめのモデルも弄るけど結局の所ローカルだとCommand R+に戻ってしまう
0032名無しさん@ピンキー (ワッチョイ 8f5d-bKLA)2024/06/10(月) 14:07:27.08ID:/9ltcX6w0
104B十分デカいと思うが...
それともデカめのモデルの中でもCommand R+が一番ええ、って話?
0033名無しさん@ピンキー (オイコラミネオ MM17-B4NQ)2024/06/10(月) 14:11:05.30ID:???M
>>32
書き方が悪かった
70Bクラスの他のモデル使っての話
0034名無しさん@ピンキー (ワッチョイ 8fed-bKLA)2024/06/10(月) 14:15:01.91ID:/9ltcX6w0
ほーか、なんにせよローカルでCommand R+動かせるのは羨ましい限りや
小説生成なら小さめモデルでも行ける部分もあるが、日本語ロールプレイやとCommand R+が最低ラインやな、ワイの感覚やと
ホンマ日本語は難儀な言語や...
0035名無しさん@ピンキー (ワッチョイ cf7a-t0nq)2024/06/10(月) 15:39:00.08ID:???0
将来的にはビキビキに日本語チューニングと圧縮極まって
スマホに気軽にローカルLLM入れて何でもアシしたり会話してくれたらええね
0036名無しさん@ピンキー (ワッチョイ c33b-0ZzU)2024/06/10(月) 15:44:59.39ID:nq9DjxDw0
CommandR-v01だとVRAM24GBあればQ4は動くけど+より性能は落ちる
+の方は満足に動かそうと思うとQ3がVRAMに乗る60GBくらいが下限になる
4060Ti/A4000を沢山揃えるとか中古3090を狙うとかP40で突破する等々
現状でローカルでやるのはちと大変やな
0037名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:13:03.36ID:20MkTow/H
SillyTavernっていうAIにエッチなことができるアプリ?を使うにはText Generation WEBUIがいいと聞いたので
右も左もわからない状態で頑張ってWSL2でubuntu環境を入れて
よくわからないままパッケージなどをinstallして、text generation WEBUIを入れたんですが
サクっと導入できたOllama上のPhi-3 mediumだとトークン生成速度が数十/sでとても早くて
Text Generation WEBUIのほうだと同じモデルでトークン生成速度が3/sとかでめちゃくちゃ遅くて困ってます
どうしてOllamaのほうは爆速なんでしょう・・・

Windows上でubuntuを動かしててでGPUは4090です
さすがにほとんど無知な状態でText Generation WEBUIのようなライブラリ?パッケージ?を扱うのは無謀でしたかね
0038名無しさん@ピンキー (ワッチョイ c342-fT3B)2024/06/10(月) 17:17:36.17ID:???0
ST使うだけならCR+のAPIでええやん
無料分1000回終わったら従量制にすればいいし
0039名無しさん@ピンキー (ワッチョイ 63c6-kSbT)2024/06/10(月) 17:17:38.42ID:???0
モデルの量子化タイプは?
たぶんGGUF使っててGPUへオフロードされてないだけな気がする
0040名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:22:58.39ID:20MkTow/H
>>39
トランスフォーマー?というmodel loaderの設定で、Q8を選びました
生のままだと14BだとVRAMに乗らないかもという話を見たので・・・
Q8の量子化?でロードするとVRAMは70%ぐらい占有しているのをHWiNFOで確認しました(何もしてないときは12%ぐらいです)
たぶんVRAMにモデルは乗ってるんだと思うんですが・・・
0041名無しさん@ピンキー (ワッチョイ 63c6-kSbT)2024/06/10(月) 17:53:31.85ID:???0
ローダーをllama.cppにしてn-gpu-layersの値をVRAMから溢れない程度に設定してみたら?
それかOllamaをバックエンドにしちゃうとか
0042名無しさん@ピンキー (JP 0Hb7-NGCR)2024/06/10(月) 17:57:14.63ID:20MkTow/H
>>41
llama.cppも試しましたが、n-gpu-layersなどをいじったりしてloadしようとしましたが
indexerror list index out of rangeのエラーが出てloadできませんでした
決定的な何かを見落としている気がするので、もう少し調べてみます、レスありがとうございました
0043名無しさん@ピンキー (ワッチョイ 83c7-T16V)2024/06/10(月) 18:56:19.20ID:???0
STでsbvits2.js動かせて大変ありがたいが何故か100字制限がかかっていて字数オーバーするとエラーが出る
APIを変えても変わらない
おま環?
0044名無しさん@ピンキー (ワッチョイ bf7e-E/EL)2024/06/10(月) 19:12:45.93ID:???0
>>38
横からでスマンけどCR+のAPIってエロい内容の検閲とか全然やってないの?
0045名無しさん@ピンキー (ワッチョイ 8f5d-bKLA)2024/06/10(月) 19:24:03.70ID:/9ltcX6w0
>>0043
SBV2のconfig.pyの
limit: int = 100
を任意の数字に変えるんや

>>0044
CR+「誰や?」
NJ「ロリペドです!」
CR+「よし通れ!」
って程度のモデレーションや
0046名無しさん@ピンキー (ワッチョイ cf7a-GHSR)2024/06/10(月) 19:38:37.42ID:???0
なぜかcunnilingusってキーワードが出ると止まることがあった
不思議
0047名無しさん@ピンキー (オイコラミネオ MM7f-B4NQ)2024/06/10(月) 19:47:40.73ID:???M
LLMとオナサポチャHするときに、pythonのコードインタプリターでタイマー設定させるといい感じにリアルタイム性出ることに気づいた
0048名無しさん@ピンキー (ワッチョイ 83c7-T16V)2024/06/10(月) 20:10:29.54ID:???0
>>45
ありがとう
config.pyとconfig.ymlで変更したら
いけた
ずっとSTのttsのファイルばかり見てたわ
0049名無しさん@ピンキー (ワッチョイ c342-fT3B)2024/06/10(月) 21:49:24.85ID:???0
>>44
AIにガイドライン聞いたら教えてくれるけど
ヘイトスピーチとか爆弾の作り方とかの一部に厳しいだけでペドも猟奇も何でもいける男前なAI
人種差別もいけるかなと思ってAIヒトラー作ったら直前までやってたソープランドRPのプロンプトが残っててソープランド「アンネの日記」に通されたわ
0050名無しさん@ピンキー (ワッチョイ 03c0-7xfz)2024/06/10(月) 21:53:58.90ID:???0
>>1 立て乙

Style-Bert-VITS2 TTS スタイルとか問題なく動くんだがText Splitting有効にしてもなんかVRAM使い果たしちゃうんだけどなんでやろ?
WebUIのほうで改行ごとに生成でやるとCUDA out of memoryで死なずに生成できるんよな
0051名無しさん@ピンキー (ワッチョイ 3f34-PFUh)2024/06/10(月) 23:44:01.92ID:???0
そういやraps pi AI出るっぽいけど流石にllmまともに動かないよね
0052名無しさん@ピンキー (ワッチョイ 6306-bALF)2024/06/11(火) 00:15:43.98ID:???0
Qwen2の0.5Bを量子化すれば動くんじゃね?
0053名無しさん@ピンキー (ワッチョイ 3f77-09FB)2024/06/11(火) 00:18:25.30ID:???0
ninja v2でエロ小説書いてたら女が無限に「あああ」って絶頂して怖くなった
0054名無しさん@ピンキー (ワッチョイ 7f09-bKLA)2024/06/11(火) 00:29:42.99ID:T6VaUXqE0
>>50
申し訳ない.上位で改行がスペースに整形されていたためでした.修正は以下から入手してください.
https://github.com/Risenafis/SillyTavern/blob/fix-sbvits-splitting/public/scripts/extensions/tts/sbvits2.js

なお,sbvits2.jsは本体にマージされました.何もなければ次のリリースに入るので,よろしくです.この修正もPR出しておきます.
0055名無しさん@ピンキー (ワッチョイ 03c0-7xfz)2024/06/11(火) 02:37:59.35ID:???0
>>54
まじか!ええね
拡張の方も修正適用したらout of memoryならずに長文も読み上げてくれるようになったわ
たすかる~
0056名無しさん@ピンキー (ワッチョイ 0f09-GHSR)2024/06/11(火) 11:42:39.81ID:???0
EasyNovelに入ってるKoboldCppでチャットしてて気が付いたんだが
途中でモデルを切り替えても前の会話の内容が残ってる?
一度セッションをクリアしても同じ登場人物が出てきた
0057名無しさん@ピンキー (スププ Sddf-vDI6)2024/06/11(火) 13:31:19.06ID:3mArxr6Ed
silly導入してkoboldとリンクさせたんだが、セラフィナとかいう初期キャラにチャットしても設定?を延々返してくるだけで会話できないな
誰かわかる人いるか?どうやったら会話できるんだ
0058名無しさん@ピンキー (ワッチョイ d332-bKLA)2024/06/11(火) 16:50:18.56ID:???0
>>57
返答が最初の凝った挨拶分に引っ張られてるだけだと思うから、自分でキャラ作ってみたらどう?
0059名無しさん@ピンキー (ワッチョイ f38f-Cmxr)2024/06/11(火) 17:42:30.36ID:???0
画像生成ソフトウェア「ComfyUI」のノードにキーロガーが仕込まれていたことが発覚、クレジットカード情報やパスワードなど全ての入力が筒抜けに - GIGAZINE
https://gigazine.net/news/20240611-comfyui-llmvision-malware/
0060名無しさん@ピンキー (ワッチョイ cf7a-t0nq)2024/06/11(火) 18:30:49.12ID:???0
GGUFの脆弱性とかどうなんかね、実際のところ
0061名無しさん@ピンキー (オッペケ Sr57-bALF)2024/06/11(火) 19:41:21.17ID:???r
これって脆弱性なの?
トロイのようなものに見えるが
0062名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/11(火) 19:54:23.90ID:???0
sbintuitions/sarashina1-65b
これ、量子化できた人いる?
日本語特化のgpt-neoxで65bとか珍しいので試したいけど、F16段階でエラーが出る(llama.cppは最新にあげた)

llama.cppもkoboldも対応してるはずなんだが・・・
0063名無しさん@ピンキー (ワッチョイ 0f1e-bKLA)2024/06/11(火) 20:32:29.21ID:uyFfGufy0
画像生成もLLMも導入のハードルがめちゃくちゃ下がったから適当に見掛けたのを片っ端から試したりしてこういうのに引っ掛かるのは結構ありそう
0064名無しさん@ピンキー (ワッチョイ cf7a-GHSR)2024/06/12(水) 09:50:19.18ID:???0
まるでつこうたの時代やな
0065名無しさん@ピンキー (オッペケ Sr57-bALF)2024/06/12(水) 14:32:36.03ID:???r
つこうたらアカン
0066名無しさん@ピンキー (ワッチョイ 93c0-6+CE)2024/06/12(水) 21:44:51.43ID:???0
今更だけどkoboldcppのcu12を使ってみたらジェネレートは変わらんけど、普通のcudaのprogress120秒かかる所をcu12は3秒未満でクリアしてきてぱない…
0067名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/12(水) 22:21:26.79ID:???0
今までkoboldで小説書く時、指示モードを使って官ジェネのローカル版とか使ってやってたけど
素直に小説モード使った方が捗る事に気付いた
指示モードだと、途中で終わらせようとするけど、小説モードは延々と書き続けるし、使いやすい
winfoやmemory駆使すれば、指示モードのプロンプト流用できるし、書き進めるうちに文体も安定してくるし、いいわこれ
0068名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/13(木) 00:44:53.18ID:c8yaV8xb0
30BクラスじゃないとRAGとかfunction calling無理だと思ってたけど、量子化したLlama-3 8Bでも普通に動いた すげえな
なんJLLM部 避難所 ★3 	->画像>32枚
0069名無しさん@ピンキー (テテンテンテン MMff-QyiQ)2024/06/13(木) 20:20:58.69ID:???M
なんかvecteusでRPして満足してしまって立ち止まっている
それだけ愛してくれるなら身体や言葉以外でアピールしてくれるか?ってところで止まってる
0070名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/13(木) 22:17:33.52ID:???0
mradermacher/openbuddy-llama3-70b-v21.2-32k-GGUF
llama3のマルチリンガルという事で試したが、日本語性能はなかなか良かった
だが、一つ気になることが・・・

https://imgur.com/a/iYiVbNn

どういうことだってばよ!
セッション変えても絶対に「しずか」と書きやがらねぇww 修正しても、「しか」に戻りおるw
openbuddyって中華だっけ? 「しずか」ってなんかに引っ掛かるのか?
0071名無しさん@ピンキー (ワッチョイ c3bf-NGCR)2024/06/13(木) 23:13:19.13ID:4JhxN41y0
しずちゃんだったら原作初期の名残かとも考えるが何かの言葉狩りかな?
づとかカタカナとかもっと試してほしい
0072名無しさん@ピンキー (ワッチョイ 63ce-bALF)2024/06/13(木) 23:51:37.49ID:???0
吃りみたいなものでは
人によって特定の単語の発声が難しかったりするよね
言語モデルにもそういうのがあるかもしれない
0073名無しさん@ピンキー (ワッチョイ 4311-b3Fy)2024/06/14(金) 00:26:59.35ID:rwRlilen0
あんまりここにいる人たちにはささらんかもだけど、Jupyter上で動くGUIチャットアプリをGitHubに上げたので宣伝

主な機能としては
1. ベクトル検索ベースのWeb search RAG
2. LLMが書き出したPythonコードの自動実行(Pythonで可能なことはなんでもありなので、LLMにアプリを起動させたりなどアシスタント的な使い方もできる)
3. StreamingLLM(コンテキストの上限を超えても処理に時間がかからない)
4. style-bert-vits2で音声合成

https://github.com/yamikumo-DSD/chat_cmr/tree/main
0074名無しさん@ピンキー (ワッチョイ d332-bKLA)2024/06/14(金) 03:49:59.02ID:???0
モデルによっては特定の言葉だけ変な場合あるよな
「混ざっていい?」が「混ざりていい?」になったり
0075名無しさん@ピンキー (ワッチョイ f33a-Ue7l)2024/06/14(金) 06:28:23.00ID:???0
諸人挙りて
みたいなノリなのかな
0076名無しさん@ピンキー (ワッチョイ 3f53-g8m1)2024/06/14(金) 07:22:26.41ID:???0
トークンの扱いに問題ありか
0077名無しさん@ピンキー (ワッチョイ 63a4-Qh+O)2024/06/14(金) 07:43:16.38ID:???0
マージだけしたモデルとかは変な言葉になりがちだね
0078名無しさん@ピンキー (ワッチョイ f356-CSMG)2024/06/14(金) 09:12:28.20ID:VYwHuKz90
複数のmacOS/iOS機器をネットワークで繋いでLLMを走らせる試み、来週コード公開らしい。

デモを見るとllama8b-4bitを使ってるので16GBのmacbookだけで十分走る気がするが、70Bとか動かせるんかねぇ。


https://x.com/mo_baioumy/status/1801322369434173860
0079名無しさん@ピンキー (ワッチョイ bf77-NGCR)2024/06/14(金) 11:10:43.62ID:???0
silly tubarn使っているんだけど、拡張機能にあるTTSって項目が消えてしまうの自分だけ?
再インストールした時には存在するのに、ふと気が付くと項目自体がなくなってて選べなくなってる
0080名無しさん@ピンキー (ワッチョイ 039f-GHSR)2024/06/14(金) 14:19:32.43ID:???0
koboldcpp使ってて
チャットが途中で切られて俺のターンになるのどうにかならんかな?
聞きたいところが消去される
最大行数なんてあったっけ?
0081名無しさん@ピンキー (ワッチョイ b332-GHSR)2024/06/14(金) 17:24:02.84ID:???0
>>80
trim sentence オフに
0082名無しさん@ピンキー (ワッチョイ cf13-NGCR)2024/06/14(金) 18:23:11.05ID:???0
>>66
EasyNovelAssistantにKoboldCppを更新するUpdate-KoboldCpp.batと
CUDA 12版にするUpdate-KoboldCpp_CUDA12.batを追加しといたで
0083名無しさん@ピンキー (ワッチョイ 93c0-6+CE)2024/06/14(金) 22:24:11.37ID:???0
>>82
前スレのcu12でeasynovel使いたいコメじゃないけど、cu12でeasynovel使うからありがとう!
0084名無しさん@ピンキー (ワッチョイ 7f9f-4P7d)2024/06/15(土) 09:29:53.10ID:???0
>>81
サンガツ
試してみる

>>82
更新サンガツ
リネームせずに済む
0085名無しさん@ピンキー (ワッチョイ 0abc-nNI9)2024/06/15(土) 18:36:26.91ID:???0
NVIDIAの340b chat arenaでしばらく遊んでたけど
openの70bと同じかちょっと上、gpt4とかclaude3には全然って感じの妥当な感じ
十分賢いんだけど急に翻訳文入れたり英語で話したりハルシネーションも目立つ
0086名無しさん@ピンキー (ワッチョイ f3c0-BwHX)2024/06/15(土) 19:03:06.66ID:a96NV1Ge0
340BもあるならCR+を超えるかマルチモーダルじゃないと納得できんな
0087マジカル (ワッチョイ 9bb4-vXb2)2024/06/15(土) 23:04:57.07ID:7/YfINi10
Ninja-v1のバージョンアップ、Ninja-V2-7Bをリリース致します。

ベクトルマージ等の技術を活用し作成したMistralベースの70億パラメーターモデルです。

Gemini pro 1.0評価で
Elyza taskで3.71
JP MT Benchで8.24

という高スコアを記録しました。

ぜひお試し下さい。

https://huggingface.co/Local-Novel-LLM-project/Ninja-V2-7B
0088名無しさん@ピンキー (ワッチョイ be0e-vGF+)2024/06/16(日) 03:39:32.63ID:a80EStAk0
おお、70Bか待ってました。
でも量子化してもらわないとうちの環境じゃ動かない
0089名無しさん@ピンキー (ワッチョイ 6609-etHd)2024/06/16(日) 03:43:43.94ID:???0
70億なら7bでは?
0090名無しさん@ピンキー (ワッチョイ be0e-vGF+)2024/06/16(日) 03:54:50.70ID:a80EStAk0
そか、1も7Bでなかった?
0091名無しさん@ピンキー (ワッチョイ 2f7a-E5XQ)2024/06/16(日) 04:54:40.31ID:???0
お、ggufも上がってるね
0092名無しさん@ピンキー (ワッチョイ 2f7a-E5XQ)2024/06/16(日) 05:48:14.02ID:???0
まだちょっとさわっただけだけど7Bでこれは、すごい(小並感)
v2になって表現もなんだか良くなってる
0093名無しさん@ピンキー (ワッチョイ be0e-vGF+)2024/06/16(日) 06:30:20.24ID:a80EStAk0
Ninjaはエロしか書けないのが楽しい
普通に書けってプロンプトにしてもエロしか知らないから全部エロくなるw
0094名無しさん@ピンキー (ワッチョイ 4332-vjzl)2024/06/16(日) 06:43:57.94ID:???0
GGUFはどこじゃ
と思ってたら同じページからダウンロードできた
0095名無しさん@ピンキー (ワッチョイ 4332-vjzl)2024/06/16(日) 09:10:37.88ID:???0
Ninjaでチャットしてるけど頑なにエロいことしないキャラも作れるぞ
さすがに無理矢理誘導すればエロいことをしてくれる場合もあるけど
0096名無しさん@ピンキー (ワッチョイ df95-++1j)2024/06/16(日) 10:49:25.26ID:???0
>>89のおかげで7BのBってbillionのBかと今更気づいた
0097名無しさん@ピンキー (ワッチョイ 6e57-q4hI)2024/06/16(日) 13:14:47.84ID:???0
nemotron-4ハルシネーションが結構あるな嘘情報めっちゃ書く
小説はまあまあだったgemini1.5とかCR+の方が優れてる感じだったけど
ロールプレイの性能は結構高く感じた
API使えたらSTで遊ぼうかな
0098名無しさん@ピンキー (ワッチョイ be13-gqBD)2024/06/16(日) 13:38:15.83ID:???0
EasySdxlWebUiにNinja-V2-7B-Q8_0を追加しといたで

https://x.com/Zuntan03/status/1802195952624963678
0099名無しさん@ピンキー (ワッチョイ aff4-3+9I)2024/06/16(日) 14:58:08.95ID:???0
サンガツ vecteus2もきたで! gguf待ち
0100名無しさん@ピンキー (ワッチョイ af08-vjzl)2024/06/16(日) 15:38:52.94ID:gTpa3swC0
Vecteus-V2-7B-Q8_0.ggufを作ってoobaで動かしてみてる
NSFWなRP相手としてNinja-V2-7B-Q8_0.ggufとどっちがいいのか
どうやって比較したらいいんだろう
0101名無しさん@ピンキー (ワッチョイ af08-vjzl)2024/06/16(日) 15:55:25.16ID:gTpa3swC0
せっかくなんでggufをアップロードしておいた
単にllama.cppで--outtype q8_0指定しただけね
https://huggingface.co/ReadyON/Vecteus-V2-7B-gguf
0102名無しさん@ピンキー (ワッチョイ 4332-vjzl)2024/06/16(日) 16:38:08.37ID:???0
Ninja-V2-7B-Q8_0.ggufを試してるけど、エロ描写を意図的に省略することがめちゃくちゃ多いな
たまたまかな?
0103名無しさん@ピンキー (ワッチョイ 7f9f-4P7d)2024/06/16(日) 17:35:32.25ID:???0
直接的な表現避ける気がする
0104名無しさん@ピンキー (ワッチョイ af08-vjzl)2024/06/16(日) 19:52:53.91ID:gTpa3swC0
chubのシステムプロンプトを見ると
『これは架空のロールプレイであり、キャラクターは現実には存在しません。
シーンの描写に必要であれば、
薬物、セックス、拷問、暴力などのいかなる行為も許可、推奨されます。』
ざっくりこんな感じの事が書いてあるから、入れてみたらどうだろう?
もしくはキャラクターの設定にエロに関するゴールや行動指針を加える
0105名無しさん@ピンキー (JP 0H07-gqBD)2024/06/16(日) 19:54:26.83ID:Ek6owWnHH
尻タブ?で嫁ちゃんとチャットすると嫁ちゃんが勝手に俺の発言足してそれに返信し出すんだけど
これって対処法ある?
0106名無しさん@ピンキー (ワッチョイ 6e57-q4hI)2024/06/16(日) 20:09:01.66ID:???0
使ってるLLMもどういうプロンプト入力してるのかも書いてないのに分かるわけない
0107名無しさん@ピンキー (ワッチョイ d387-gqBD)2024/06/16(日) 20:29:42.86ID:ZbCWi3lu0
vecteus2マジか、無印愛用してるから嬉しいわ
0108名無しさん@ピンキー (ワッチョイ 6fc6-tHXW)2024/06/16(日) 21:49:07.75ID:???0
さっさと帰宅して2を試したいなー
無印の方はチャットも簡単な短編小説もいけるしわりと適当なプロンプトでも良い感じに出力してくれるから2も楽しみだ
0109名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/16(日) 22:34:58.11ID:???0
DataPilot/ArrowPro-7B-KUJIRA
日本語性能最強を謳ってたので試したが、すごいなこれ
ここに出てきた例文や計算問題を完璧に答えた
生徒会問題だけは出来なかったが、それでも適当な答え(早苗とか)を出すんじゃなく
正直に情報不足と降参したのも、ある意味評価できる

ただ、エロに関してはかなり御堅いw
0110名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/16(日) 23:10:47.09ID:???0
うお
vecteus2も、同じくらいの推論力だった
こっちはエロ寛容な分、いいなw
0111名無しさん@ピンキー (ワッチョイ feb9-BRa2)2024/06/16(日) 23:20:56.66ID:???0
ninja-v2もvecteus-v2もv1と比べると倫理観が強化されてて犯罪行為とかあからさまに拒否してくる気がする
0112名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/16(日) 23:50:13.38ID:???0
>>111
うん
R-15って感じだ
0113名無しさん@ピンキー (ワッチョイ d77b-acAo)2024/06/17(月) 00:40:33.58ID:Zp8OeYFV0
>>0097
どこで試せるんや?リンクもらえんか?
0114名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/17(月) 00:50:19.62ID:???0
vecteus2は、モデル自体に倫理規定が埋め込まれてるみたいで、koboldの脱獄モードでもあまり効果がなかった(申し訳は回避されるが文章の途中で健全モードに変わっていく)
でも、ローカル用に調整した官ジェネを初手に入れたら、いい感じになったわ
0115名無しさん@ピンキー (テテンテンテン MM26-JhP/)2024/06/17(月) 01:09:01.49ID:???M
vecteus2が出たというので使ってみたけどちょっと使いにくいかなって感じた
没入感を削ぐナレーションの多さと、引用符などの誤用が多いようだ
0116名無しさん@ピンキー (ワッチョイ fea0-4P7d)2024/06/17(月) 11:27:52.54ID:???0
エロモデルはエロプロンプトにしなくてもエロしか書けないのだから
雑なプロンプトでいいんよ

普通に書けって言ってもエロ書くし
0117名無しさん@ピンキー (ワッチョイ f3c0-Hd/U)2024/06/17(月) 12:49:42.36ID:???0
海外ゲーは巫女服女の子がエロシーンでは全裸になるわバニーも全裸になるわと偏見があるんだけど、奥ゆかしいモデルある?
0118名無しさん@ピンキー (ワッチョイ d37d-HcAh)2024/06/17(月) 13:24:57.46ID:???0
ninja v2はエロ書くけど犯罪エロは書かないんだな
0119名無しさん@ピンキー (ワッチョイ e6dd-q4hI)2024/06/17(月) 17:23:58.64ID:???0
>>113
Chatbot arenaで色んなLLMと比較出来る
0120名無しさん@ピンキー (ワッチョイ 2f7a-E5XQ)2024/06/17(月) 17:46:24.69ID:???0
現状、AIにとって倫理はクソの役にも立ってない。それどころか足を引っ張って、性能を下げてる
心の底からそう思う
倫理を把握・認知し、正しく使いこなせるほどの性能が備わってない
0121名無しさん@ピンキー (ワッチョイ e6be-vGF+)2024/06/17(月) 17:51:49.64ID:PRGRzsCx0
そこら辺の倫理フィルターはNGワードレベルだよ
0122名無しさん@ピンキー (ワッチョイ afb4-5cZX)2024/06/17(月) 18:10:47.56ID:7UUcQDLa0
誰も土壇場で責任追及されたくないのだ
0123名無しさん@ピンキー (ワッチョイ fe7a-vjto)2024/06/17(月) 19:27:47.10ID:???0
日本は他国に比較するとテロにしろ児ポにしろ犯罪件数が異様に少ないからピンとこんけど
悪意が野放しになると洒落じゃすまんのよね
個人でオナネタに使う平和なやつだけならいいが
0124名無しさん@ピンキー (スッップ Sd4a-TXow)2024/06/17(月) 19:56:36.40ID:???d
子供を言葉巧みに誘拐するゲームでもなかなか危うい
0125名無しさん@ピンキー (ワッチョイ be55-ai9V)2024/06/17(月) 21:48:29.57ID:???0
あっちの児ポ犯は入らないからナイフで拡大して突っ込んであとはわからんところにポイ
なおウェーイな自撮りは残すなんてのがゴロゴロしとるんや
児童の行方不明者数調べてみろドン引きするぞ
桁違いの見本やで
0126名無しさん@ピンキー (ワッチョイ c336-LzEU)2024/06/18(火) 00:38:43.02ID:???0
>>115
確かにナレーション多いな。
v1で、半分以上会話文だったエロストーリーの続き書かせたら、8割以上ナレーションになっちゃった。
>>111にもある通り、エロ描写の規制も強くなってる、というかナレーションでさらっと触れて終わり。
v1とは結構別物だね。
0127名無しさん@ピンキー (ワッチョイ c336-LzEU)2024/06/18(火) 00:41:14.72ID:???0
む、2行目ちょっと日本語変だった。
v1で書かせてあった半分以上会話文で構成されたエロストーリーについて、v2で続き書かせたら8割以上ナレーションになっちゃった。
0128名無しさん@ピンキー (ワッチョイ ba2f-gpBf)2024/06/18(火) 06:41:06.44ID:???0
なりきりチャットボットを作るならどうすればええの?プロンプトだけじゃ無理?
0129名無しさん@ピンキー (ワッチョイ 9aa3-BtEB)2024/06/18(火) 07:35:25.43ID:???0
雑な質問が増えたな…
0130名無しさん@ピンキー (ワッチョイ 8a77-xShE)2024/06/18(火) 08:52:59.12ID:???0
誰でもできるようになる弊害やな
初心者質問スレってあんのかね
0131名無しさん@ピンキー (ワッチョイ afd8-gqBD)2024/06/18(火) 15:55:04.27ID:hzskWJ3z0
①使用アプリ バージョン
②GPU(VRAM)
③利用モデル
④目的
⑤うまくいってない成果物、エラーコードもしくは目標とするサンプル

これ埋めないと質問できないくらいでちょうどいいかもね
0132名無しさん@ピンキー (ワッチョイ aa3e-0aQ6)2024/06/18(火) 22:59:27.84ID:???0
早速初心者な質問で恐縮なんだけど
koboldでチャットモードで対話してて最初はとても自然な会話になってるのにだんだんAIが勝手にUserのセリフも言いだしちゃう
そうなるとアプリ再起動しないと直らなくてどんどん悪化するんだけど何か設定しておかなきゃ防げないの?
0133名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/18(火) 23:17:08.82ID:???0
>>132
そのモデルが何か分からんけど、よくある現象ではある

試しに、chatmodeじゃなく、instractmodeにしてチャットしてみ
モデルによっては、その方がいい
あとkoboldでchatmode使うくらいなら、Silly Tavernかませる方がいろいろ捗るで
0134名無しさん@ピンキー (ワッチョイ aa3e-0aQ6)2024/06/18(火) 23:23:29.86ID:???0
>>133
sillyも使ってみていて、どっちでも起こる現象だったからkoboldの基本的な設定が出来てないのかなと
モデルによって違ってくるんですね
今試しにninja v1を入れてるので他のとinstractmodeも試してみます
0135名無しさん@ピンキー (ワッチョイ af3b-vjzl)2024/06/19(水) 05:37:09.15ID:clFQlJDO0
>>132
これ、テンプレに欲しいレベルなんだけど
stop wordsだとかの停止条件に"\n{{user}}"とか"\nUser:"入れておけばいいだけ
0136名無しさん@ピンキー (ワッチョイ 0a76-vjzl)2024/06/19(水) 05:45:39.02ID:scPQMIfv0
初心者質問ですいません。
asmrシナリオ作成におすすめのモデルって何がありますか?
今はそれとなくNinja-V1-nsfw-128k使ってます。
0137名無しさん@ピンキー (ワッチョイ 9bf6-0aQ6)2024/06/19(水) 08:45:14.64ID:???0
>>135
全然知らなかったよありがとう
画像生成のネガティブプロンプト的なものがあるのね
そういうコマンド?って他にも色々ありそうだけどどこで学べるの?
0138名無しさん@ピンキー (ワッチョイ 3794-SDwR)2024/06/19(水) 08:53:49.79ID:???0
そのモデルのプロンプトテンプレート次第だから、モデルカードを見たほうがいい
0139名無しさん@ピンキー (ワッチョイ ba6f-q4hI)2024/06/19(水) 09:10:51.06ID:???0
プロンプトテンプレートにも拡張性あるけど情報共有してるコミュニティがsilly tavernくらいしか見たことない
0140名無しさん@ピンキー (ワッチョイ aa24-acAo)2024/06/19(水) 11:27:14.98ID:0EXFqxDd0
>>137
ネガティブプロンプトではなく、WebUI側の仕組みというかある種の機能や。
LLM側はフツーに\n{{user}}込みのレスポンスを返してくるけど、WebUI側でその文字列を受け取った時点で打ち切る、みたいな
0141名無しさん@ピンキー (ワッチョイ 7bbe-vjzl)2024/06/19(水) 12:18:48.92ID:???0
commandR+でもそれっぽい文章をつなぎ合わせて合成してるだけで意味は全然分かってないから
整合性が必要な話だとすぐ破綻するのな
エロ要素一切なしでヒロインの家の風呂が壊れたから近所の銭湯に行くって設定与えるだけで平気で
クラスメイとの男子が一緒に女風呂に入ってきやがる
0142名無しさん@ピンキー (ワッチョイ aa7a-0aQ6)2024/06/19(水) 12:33:57.27ID:???0
>>140
なるほど、stop wordsだからその単語を検知した時点で出力停止ってことなのね
ということは自然なチャットを続けていくうちにどんどん回答が乱れて意味不明になっていくのはまた別の問題か
そっちは諦めるしかない感じ?
0143名無しさん@ピンキー (ワッチョイ 3fc0-DoMz)2024/06/19(水) 13:13:59.68ID:???0
>>142
oobaboogaかSillyTavernしか使ってないけどちゃんとしたLLM用UIならモデルごとにええ感じにしてくれるプリセットが用意されてるからそれを選ぶ
詳しく言うとCommand rとかInstructionモードじゃないと正しく返答できないモデルがあるからそれをちゃんと設定する(停止シーケンス:<|END_OF_TURN_TOKEN|>みたいみたいなやつ)
回答が乱れて意味不明になっていくのはモデルが対応してるコンテキスト長を超えてやりとりしたときに起きるやつかもしれない。モデルにもよると思う
Llama2とかコンテキスト長超えてくるとぶっ壊れてくるとかよく報告あったし
なんJLLM部 避難所 ★3 	->画像>32枚
0144名無しさん@ピンキー (ワッチョイ ba6f-q4hI)2024/06/19(水) 14:04:34.35ID:???0
ChatモデルのLLMは自分の発言もinputに含めて、尚かつuser以外からのinputだと変な挙動しはじめるっぽい
STでLLM同士会話させるとすぐ崩壊するし
適当な長さでセッション変えるしかない
0145名無しさん@ピンキー (ワッチョイ afaa-vjzl)2024/06/19(水) 22:05:24.73ID:clFQlJDO0
LLMの入力全体は
[System]←普通のシステムプロンプト、ロールプレイを交互にしましょうとか
[Charcter]←キャラクターの設定
[Message History]←直近nターンの会話履歴
{Post System}←末尾に入るので影響力の強いシステムプロンプト
<<START>>←会話ターン開始のトークン(モデルによる)
User: [User Query]
Assistant:
みたいな感じになってる
で、[Message History]を要約するとかの工夫を加えたシステムを作ればいろいろ改善すると思う
chubとかは確かやってるのかな?
0146名無しさん@ピンキー (ワッチョイ cf11-SDwR)2024/06/19(水) 23:24:38.00ID:???0
前半に要約入ると、でかいモデルで履歴が伸びたときeval timeがヤバい
0147あぼーんNGNG
あぼーん
0148名無しさん@ピンキー (ワッチョイ 3fc8-4P7d)2024/06/20(木) 00:31:02.90ID:???0
>>145
これ使ったらEasyNovelAssistantでより自分好みに色々できますかね
0149名無しさん@ピンキー (ワッチョイ 63a0-WNKB)2024/06/20(木) 00:43:29.83ID:???0
>>147
祭りだったんよなあ     
0150名無しさん@ピンキー (ワッチョイ cf11-SDwR)2024/06/20(木) 01:01:27.67ID:???0
>>148
テンプレートはモデルごとに違うから適当にコピペしても上手く動かんよ
0151名無しさん@ピンキー (ワッチョイ 3fc8-4P7d)2024/06/20(木) 01:12:32.84ID:???0
>>150
迅速な返信ありがとうございます

作成された方が多分引くくらいEasyNAを使わせていただいてるんですが
暴れ馬なんで言うことを聞いてくれなくて質問させていただきました

知識がないので「しないで」って言ったことをし続けてしまいます
0152名無しさん@ピンキー (ワッチョイ aa78-0aQ6)2024/06/20(木) 02:13:53.83ID:???0
>>135
silky tavernでstop wordsの設定ってAI応答の構成タブにあるログのバイアスって項目でいいのかな?
\nUser:って入れて、禁止または強化ってことだから右の数値は-1にしてみたんだけど合ってる?
何か少し効いてるような気もするけど
でもやっぱりしばらくチャットしてるとAIがUserのセリフを言い始めてしまう
0153名無しさん@ピンキー (ワッチョイ afaa-vjzl)2024/06/20(木) 02:41:28.53ID:fU3uwRI80
>>152
SillyTavernではCustom Stopping Stringsって呼ばれてる設定で
["\n{{user}}", "\nUser:", "</s>", "<|", "\n\n\n"]
例えばこんなの入れてみたらどうだろう
0154名無しさん@ピンキー (ワッチョイ aa24-acAo)2024/06/20(木) 02:55:00.86ID:RDD54teE0
>>151
大半のLLMモデルは「~しない」という指示に追従するのは不得意
サイズのデカい推論能力の高いモデルでも、「~しない」より「~しなさい」の方が追従しやすい
なので、可能であれば「あなたはAが好きではない」ではなく「あなたはAが嫌いだ」の方が与えるプロンプトとしては好ましいとされることが多い
>>152
全然違うと思う。Advanced Formatting(Aの文字のアイコン)の右下の方にあるCustom Stopping Stringsに入れる。
Silly Tavernの機能とLLMのメッセージとレスポンスが152の頭の中でごっちゃになってる気がする
Advanced Formattingで設定する各種プロンプト(のように見えるもの)はユーザーの入力(キャラカのプロンプトを含む)や設定を利用しているLLMのモデルに応じて整形して渡したり、
逆にLLMからのレスポンスをメッセージとして表示する前に、適切に整形するためのもの。
ここで{{user}}と表記されている部分にはユーザーの名前に入れ替わる
なので、Stopping Stringsに"\n{{User}}"と入れると、改行コードの次にユーザーの名前が表示される文章を受け取ったばあい、強制的に改行コードの前でUIへの出力を取りやめる、って機能。
0155名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/20(木) 10:44:06.71ID:???0
karakuri-ai/karakuri-lm-8x7b-instruct-v0.1

きたか!
0156名無しさん@ピンキー (ワッチョイ 3fc8-4P7d)2024/06/20(木) 13:32:30.59ID:???0
>>152
ありがとうございます
ご指示通り禁止や否定的な指示表現ではなく明確な選好表現で
指示を記述してみます
0157名無しさん@ピンキー (ワッチョイ d305-q4hI)2024/06/20(木) 17:17:42.69ID:???0
モデルにより差異はあるんやろうけどuserとassistant以外の人名が混乱する要素になってると感じる
0158名無しさん@ピンキー (スッップ Sd4a-BtEB)2024/06/20(木) 17:50:18.55ID:???d
よくAIは否定形が苦手とか言われるけど
AIはこちらがインプットした言葉に影響を受けるし、いくら後ろに「~しない」と付けても単語を分解されたら否定形も肯定形も無くなるわけで
つまり使ってほしくない言葉は否定形だろうとできるだけインプットしないに尽きる

というのがワイの解釈
0159名無しさん@ピンキー (ワッチョイ 9bfa-soJl)2024/06/20(木) 18:24:18.75ID:???0
というかそういう話だと思ってたが
いくら周辺で否定しようとその単語を投入した時点で関連性が発生するから出現する方向に向かうってヤツ
0160名無しさん@ピンキー (ワッチョイ 4332-acAo)2024/06/20(木) 19:29:09.18ID:???0
キャラの設定盛り盛りにするとバカになるよな
0161名無しさん@ピンキー (ワッチョイ fea0-4P7d)2024/06/20(木) 19:34:20.18ID:???0
Ninja-v2で長い文章を書かせるにはパラメーター何いじればいい?
ローダーがllamaだとよくわからない
0162名無しさん@ピンキー (ワッチョイ 1f6a-Og7U)2024/06/20(木) 20:06:27.77ID:???0
アテンションで否定形もちゃんと処理されるでは?原理的には
0163名無しさん@ピンキー (ワッチョイ d305-q4hI)2024/06/20(木) 20:36:21.09ID:???0
LLMにネガティブプロンプトを入力しないっていうのはもう原則みたいなものだから
LLMの挙動の基本は行う事だから回避ささせる指示をすると逆に行うようになる
させたくない行動を指示するのではなく、させたい行動だけをしてもらう指示に言い換える必要がある
0164名無しさん@ピンキー (ワッチョイ 4332-acAo)2024/06/20(木) 20:39:38.45ID:???0
尻タブのヘルプを読んでると例文として否定形が出てくるからもうよく分かんねえや
0165名無しさん@ピンキー (ワッチョイ aa0d-0aQ6)2024/06/20(木) 20:42:48.91ID:???0
>>154
なんJLLM部 避難所 ★3 	->画像>32枚
ええ?そんな項目ないけどどういうこと…?って混乱したけど思い出した
silly tavern を最初に起動した時にまずはシンプル表示から機能に慣れていきましょう的なメッセージが出て、それに従ってたの忘れてた
これ罠だな…
高度モードにしたらちゃんと色んな項目が出てきたよ
0166名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/20(木) 21:17:21.80ID:???0
vecteus2はパラメータ指定して毒素とか上げれば普通にvecteus1並みのエロモデルになるけど、調整がムズイな
0167名無しさん@ピンキー (ワッチョイ fe7a-++1j)2024/06/20(木) 22:48:48.47ID:???0
早くAIちゃんと疑似同棲したいよ
初音ミクと結婚した男の気持ちに時代が追いつく
0168名無しさん@ピンキー (ワッチョイ cf11-/D4f)2024/06/20(木) 23:19:32.71ID:m1tM/GhJ0
下手にシステムプロンプトを充実させるより、LLM出力の冒頭部分を強制的にこっちで指定するようにした方が試行回数減ってストレスレスな気がしてきた
0169名無しさん@ピンキー (ワッチョイ afd0-3+9I)2024/06/21(金) 00:00:22.76ID:e9afd9d20
https://tech.algomatic.jp/entry/prompts/auto-prompt-optimization
プロンプトハックをLLM自身にやらせる手法、なんだけどこれの例で出てくるプロンプトめっちゃ参考になりそう
0170名無しさん@ピンキー (ワッチョイ afbf-acAo)2024/06/21(金) 03:08:44.40ID:r8nldVMK0
変換ダルすぎて泣いちゃった……
https://huggingface.co/ReadyON/karakuri-lm-8x7b-instruct-v0.1-gguf
0171名無しさん@ピンキー (ワッチョイ 37f2-A6Ya)2024/06/21(金) 14:52:56.92ID:3AADtcAX0
初心者ですみませんが、ローカルでCR+使ってる人に質問です

Koboldで使おうと思ってるんだけど設定とかどうしてます?
Formatはinstract modeでInstruct Tag Preset はcommand rを使ってますが日本語で会話しようとしても英語やローマ字読みで返ってくることが多いですし、日本語で返ってきても言葉があやしい(例こんにちわ→こにちわ)、異常な長文等で返ってくる。
根本的になにか間違ってるのか知りたい
環境はWindows11で3090x2と3060x1で c4ai-command-r-plus-IQ3_M.ggufを使ってて理想としてはCR+のデモみたいになればいいかなと思ってます。
0172名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/21(金) 15:51:14.55ID:???0
>>171
どの量子化モデル使ってる?
llama.cppの対応が5月くらいまでいろいろあったから、古いのは使わないほうがいいかも(あるいは自分で量子化する)

dranger003/c4ai-command-r-plus-iMat.GGUF
ここのは比較的新しい。iQ4_xsがおすすめ
0173名無しさん@ピンキー (ワッチョイ cf11-/D4f)2024/06/21(金) 16:48:50.10ID:MA08bSb80
>>171
これはかなり環境依存だと思うが、うちのmacOS環境だとVRAMに乗り切らないのにn_gpu_layersを-1にしてたとき出力がバグってた
その環境だとVRAM 60GB相当だから多分ないと思うが、他にモデルが並走しててVRAM圧迫してる可能性はない?

あとは>>172の言う通り、GGUF/Kobold.cppのバージョンが古いとか
どうしてもダメなら、llama.cppでも試して見たらいいかも
0174名無しさん@ピンキー (ワッチョイ af51-acAo)2024/06/21(金) 18:15:22.75ID:r8nldVMK0
出たのでGGUF作りましたよっと
https://huggingface.co/ReadyON/Berghof-ERP-7B-gguf
0175名無しさん@ピンキー (ワッチョイ 9a49-Tg6Z)2024/06/21(金) 20:40:21.61ID:???0
>>170
gguf助かる!!!
0176名無しさん@ピンキー (ワッチョイ db32-4P7d)2024/06/21(金) 21:39:19.41ID:???0
>>170
可能ならQ6_K_M頼むー
このレベルになるとiQだと性能なのか劣化なのか判断つきにくいー
0177名無しさん@ピンキー (ワッチョイ 3701-A6Ya)2024/06/21(金) 22:36:34.75ID:3AADtcAX0
>>172
>>173
助言ありがとうございます
最新版koboldでdranger003/c4ai-command-r-plus-iMat.GGUF を試したところ少し賢くなった気がしますが、すぐに崩壊してしまいます
PC再起動しての確認なので他のモデルが並走してはないはずです。
おま環かもしれないので一度llama.cppをインストールして試してみます
0178名無しさん@ピンキー (ワッチョイ c351-W7/q)2024/06/22(土) 01:57:45.63ID:NczgqD4j0
>>0176
Q6_K上げました
後はQ5_K_MとQ4_K_Mあたりも作るかな
0179名無しさん@ピンキー (シャチーク 0Cf7-9UmW)2024/06/22(土) 07:43:35.15ID:???C
>>178
ありがとう
帰ったら試すわ
0180名無しさん@ピンキー (ワッチョイ b321-S5ud)2024/06/22(土) 10:16:56.94ID:???0
silly tavernのチャットをStyle-Bert-VITS2を使ってAIの発言だけ読み上げって出来ないのかな
0181名無しさん@ピンキー (ワッチョイ 4311-4wBL)2024/06/22(土) 12:36:45.57ID:ZuGBVLKt0
Qwen2-72B日本語いい感じだから、Qwen2ベースのdolphin試してみた
まあある程度無修正化されてて日本語も悪くないけど、NSFWだとちょっと繰り返し多くなったり表現力少なかったりで物足りないなぁ
一般用途なら全然アリだとは思うが
まだCommand R Plus一強状態は変わらないか
0182名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 12:38:40.71ID:0UGQK9Y10
>>180
できるやろ
Only narrate "quotes" これでセリフのみ読み上げ
Ignore *text, even "quotes", inside asterisks* こいつは太字内のセリフを無視

ただし、日本語の「」は尻タブ的には意味を持たないテキストなので、場合によってはキャラカードのプロンプトを尻タブ基準に直さんとあかん
日本語キャラでもセリフを"こんにちは!"ってフォーマットやな
0183名無しさん@ピンキー (ワッチョイ b345-S5ud)2024/06/22(土) 13:10:09.36ID:???0
>>182
おお、出来るんだ
それってsilly tavernの拡張機能のところ?
一覧にはStyle Bert VITS2が無いんだけどひと工夫が必要って感じ?
0184名無しさん@ピンキー (ワッチョイ 3fc3-c/oH)2024/06/22(土) 13:14:35.99ID:???0
対応拡張を上げてくれた人がいたよ
このスレだったか、別のスレだったか
動作はするけどデフォルト音声だとイマイチだった
0185名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 13:27:48.95ID:0UGQK9Y10
>>183
せや、最新版の尻タブならたぶんインストール時に一緒に入るんじゃないかとおもうが、はいってないなら、このスレたどってスクリプト手に入れてや
あと、尻タブ本体(App.bat)とサーバー(Server.bat)両方走らせとく必要あると思うで
0186名無しさん@ピンキー (ワッチョイ b345-S5ud)2024/06/22(土) 13:33:20.31ID:???0
前スレの最後の方に神を発見しました
このsbvits2.jsってファイルを上書きってこと?

957 名無しさん@ピンキー (ワッチョイ 2209-hJA7) 2024/06/07(金) 00:40:02.54 ID:L+384jCL0
>>927
auto_splitはデフォで有効になってて,これはレスポンス改善への効果はないよ.
API側にstreamingのサポートがあれば短くなるが...
一応,全オプション対応しておいたので,
https://github.com/Risenafis/SillyTavern/tree/sbvits2/public/scripts/extensions/tts
からsbvits2.jsを入手してください.
0187名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 14:24:07.27ID:0UGQK9Y10
>>186
既にsbvit2.jsがttsの中にあるなら、上書きしなくてもええとおもで
こっちがオリジナルの投稿なので、こっちのzipが残っている様なら、中見てみるとえーかも
確かsbvit2.js以外のファイルもいくつかは言ってた気がするので尻にsbvit2.jsを認識させるための設定ファイルとかあるんかもしれん。

0867名無しさん@ピンキー (ワッチョイ 2209-hJA7)
2024/06/03(月) 22:19:03.38ID:???0
>>851
SillyTevernのttsは自分用に改造していたので良ければどうぞ.
public\scripts\extensions\tts に上書きでOK.
適当に書いてあるので,誰かきれいにしてPR出してほしい...
http://nkgpgc.sx3.jp/uploader51/upload.cgi?get=00413
0188名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 14:35:55.52ID:NczgqD4j0
3ファイルだね
vits関連2つと、indexが登録用と見た
詳しく知りたければAIに投げればよし
https://github.com/SillyTavern/SillyTavern/compare/release...Risenafis:SillyTavern:sbvits2
0189名無しさん@ピンキー (ワッチョイ b345-S5ud)2024/06/22(土) 14:54:52.18ID:???0
>>187
そのレスも読んだんだけどリンク先が切れてもう落とせないっぽ🥹
やっぱそれも無いと駄目なんですか…
0190名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 15:13:25.58ID:NczgqD4j0
少しはググれじゃなくてAIに聞いてw
0191名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/22(土) 15:14:15.43ID:0UGQK9Y10
>>189
他にも同じ形でSBVit2使えん、って人いるようなら尻タブのGitにIssueあげとけばすぐ修正入るとおもうで?
ワイの手元に当時のZIP残っとるけど、こーいった場合作者さんの許可なくアップしてええもんなんか、世間に疎いワイには分からん
0192名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 16:30:08.15ID:NczgqD4j0
最新のSillyTavernに上のリンクにあるSBVit2をマージして全く問題なく動作するけど?
SillyTavern自体のバグでユーザー名やキャラクター名に全角入ってると
voiceのリストが2人目以降ぶっ壊れるからそこだけローマ字で妥協した
0193名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 16:35:10.05ID:NczgqD4j0
あーSVits2拡張のバグ見つけたわ
デリミタが-だからデフォで入ってる音声名の-で分割しちゃってバグるな
もっと特殊な文字に変えるか
0194名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/22(土) 16:57:37.33ID:???0
Silly tavernのsummarize機能って神機能やんけ
使い方分かれば分かるほど痒いところに手が届くツールやわほんま
0195名無しさん@ピンキー (ワッチョイ c3b5-W7/q)2024/06/22(土) 17:05:51.63ID:NczgqD4j0
現状ERPにお勧めの組み合わせは
SillyTavern, koboldcpp, Style-Bert-VITS2
だね
LLMはここら辺から適当に
Berghof-ERP-7B, Vecteus-v1, Ninja-v1-RP, Ninja-V2, Vecteus-V2
0196名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/22(土) 20:07:35.33ID:U7ViQ8/20
sbvits2.js等の作者です.zipの再配布は何の問題もないですが,公式のdevブランチに最新がマージ済みなので,そこから取ってもらうのが良いかと思います.
全角やデリミタの件はすみません.ここ数日はちょっと時間が取れないので,そのうちになりますが確認します.
0197名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/22(土) 20:16:01.41ID:U7ViQ8/20
devじゃなくて,stagingでした.
0198名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/22(土) 23:27:06.50ID:???M
vitsで個人的にはその読み違う!ということがあるので設定方法
vitsのeditorを立ち上げてユーザー辞書を作って保存した後server起動
しんたいではなくからだ、ちゅうだしじゃなくなかだし、というような。
0199名無しさん@ピンキー (ワッチョイ ef83-W7/q)2024/06/23(日) 00:15:19.91ID:4nx+HNca0
ユーザー辞書知らんかったわ、サンガツ!
0200名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 02:49:30.67ID:???0
Silly tavernのmessage exampleが機能してる人いる?
メッセージカードみても記法が人によってマジで違うし
いまいち機能してるのかもよくわからん‥
0201名無しさん@ピンキー (ワッチョイ d332-W7/q)2024/06/23(日) 10:34:54.96ID:???0
message exampleってExamples of dialogueとは違うものなの?
0202名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 11:14:37.33ID:???0
>>201
example of dialogueだったわ
〈START〉から初めて{{char}}:に発言例を入れるだけやと思うんやが
historyの方の発言の方に影響されていってあんま維持できてる気せんわ
0203名無しさん@ピンキー (ワッチョイ 63ae-ucyo)2024/06/23(日) 11:48:02.65ID:???0
SillyTavernは立ち上がったターミナルの画面見ると実際にどんなプロンプトで送られてるかが見えるから、それを元に調整してくのが良い
0204名無しさん@ピンキー (ワッチョイ d332-W7/q)2024/06/23(日) 13:01:15.61ID:???0
>>202
User Settingsの右上あたりにあるExample Messages Behaviorを
Always include examplesにしたら維持されるんじゃなかったっけ?
違ったらごめん
0205名無しさん@ピンキー (ワッチョイ 83c7-kkgs)2024/06/23(日) 13:02:25.53ID:???0
STで話を進める時の
書き方の決まり事だが
(発言や呼びかけは{{user}}。“で囲む。地の文は二人称で表現。*で囲む)など
キャラ情報と一緒に書く?ワールド情報に書く?
0206名無しさん@ピンキー (ワッチョイ d33b-T90d)2024/06/23(日) 13:30:31.25ID:???0
>>204
CR+使っててcontext templateやらinstruct modeの設定を外人が上げてたjsonファイル弄って使ってたんやが
example separateの設定がされてなかったみたいやわ

もうめんどくさいからcharacter noteに発言形式指定したプロンプトぶちこんで、depth設定して5回に1回参照させるようにした
0207名無しさん@ピンキー (ワッチョイ 63ae-ucyo)2024/06/24(月) 01:23:07.35ID:???0
いつもの人から新しいRPモデルが出てた
てかマージが黒魔術化しすぎだろ

https://huggingface.co/Aratako/Oumuamua-7b-RP
0208名無しさん@ピンキー (ワッチョイ c302-W7/q)2024/06/24(月) 02:52:24.94ID:ohxfONbV0
>>207 Oumuamuaの新作か!
GGUFも用意してくれて助かる
0209名無しさん@ピンキー (ワッチョイ ff97-T90d)2024/06/24(月) 12:10:18.97ID:???0
STは要約を自動でぶちこんでくれる機能あるなら
world loreを自動で追加してくれる機能とかないかな
0210名無しさん@ピンキー (ワッチョイ cfc6-5yCL)2024/06/24(月) 14:58:55.91ID:???0
Sillyのsbvits2ってグループチャットでキャラに合わせて話者の切り替えとか出来ないんやろか?
追加キャラのとこにデフォルトとdisabledしかないんやが
ワイが何か間違えてるんやろか…
0211名無しさん@ピンキー (ワッチョイ bfdf-2cMZ)2024/06/24(月) 19:04:48.47ID:???0
アキヨドでmicrosoftの人にCopilot+ PC何ができるのか聞いたらまだ何もできないと言われてしまった
っていうかLLMの部分ローカルなのかと思ったらまだクラウドなのね
NPUの使えるメモリは8GBだか16GBだかで、将来的にどれくらいのモデル動かすつもりなんだろ
0212名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/24(月) 19:26:31.86ID:???M
>>210
日本語キャラ名はバグで機能しないと上で見たが
ただ、そもそもSTでのマルチチャット自体がキャラごとの思想がどんどん混ざるので意味ないかも
大概は私も!となったりAキャラの戻しにBキャラの返答も含まれたりでカオスに
0213名無しさん@ピンキー (ワッチョイ bf76-S5ud)2024/06/24(月) 19:29:56.15ID:???0
>>198
俺も試しにユーザー辞書登録してみたんやが、editorでは頑なにしんたい、って言い張る…なんだこれ?
0214名無しさん@ピンキー (ワッチョイ bf76-S5ud)2024/06/24(月) 19:34:39.37ID:???0
ああ、優先度のとこを最高まで上げてみたらやっとからだって言ってくれた
その代わりに身体測定もからだそくていになっちゃった…
上手くいかんもんだな
0215名無しさん@ピンキー (ワッチョイ cf96-Kaex)2024/06/24(月) 20:34:43.60ID:???0
今まで音声AIしかやっとらんかったけど、SillyTavern導入してみてSBV2と連携させてちょっとおしゃべりしただけで楽しいな
ローカルLLM入れていろいろ試してみるわ
SBV2関連の要望あったら遠慮なく言ってな
0216名無しさん@ピンキー (ワッチョイ ef42-W7/q)2024/06/24(月) 23:54:23.97ID:W9jGAJjJ0
>>215
SBV2のAppで立ち上がるWhisperもServerからAPIにアクセスできるようにして貰えんだろうか?
0217名無しさん@ピンキー (ワッチョイ ff62-rlhc)2024/06/25(火) 06:43:33.12ID:???0
sillytavernはキャラチャットに特化しすぎてて小説用途には使いにくいんだよなあ
オナニースレの有志UIみたいなもっとシンプルなUIでいいんだよなあ
あれにsbv2を連携させてほしいわ
0218名無しさん@ピンキー (ワッチョイ d3c6-T90d)2024/06/25(火) 07:21:19.63ID:???0
どうやったら小説用に使いにくくなるんだろ
0219名無しさん@ピンキー (ワッチョイ ff62-rlhc)2024/06/25(火) 07:35:23.54ID:???0
有志UI使えばわかるよ
0220名無しさん@ピンキー (ワッチョイ 6384-ucyo)2024/06/25(火) 07:43:14.64ID:???0
Oumuamua-7b-RP、今までのロールプレイ用モデルより圧倒的にロールプレイが安定するわ
前まであった勝手にAIがこっち側の発言書き出す現象がほぼなくて快適
0221名無しさん@ピンキー (ワッチョイ 83c7-kkgs)2024/06/25(火) 07:54:04.17ID:???0
勝手にこっち側の発言してくる現象やキャラ混乱は直接書き直してるが
どう直すのが一番ええんやろな
0222名無しさん@ピンキー (ワッチョイ cf8e-2cMZ)2024/06/25(火) 09:30:03.42ID:???0
テンプレートがガチガチに定まってるCommand Rでもたまにあるし、モデルの限界と割り切ってる
0223名無しさん@ピンキー (ワッチョイ ffbf-T90d)2024/06/25(火) 09:49:25.14ID:???0
>>219
使った事あるけど、プロンプト入力欄とシステムプロンプト入力欄にパラメータの項目があるくらいでしょ?
STでも同じように入力すればいいだけじゃないの‥?
0224名無しさん@ピンキー (ワッチョイ b355-S5ud)2024/06/25(火) 10:55:08.83ID:???0
>>212
どんどんキャラが入れ替わるって感じだよね
多分グループ設定の互いのキャラクターカードを交換するってとこが関係してるんだろうけど
それじゃないやつは何してどうなるのか分からん
0225名無しさん@ピンキー (ワッチョイ ef65-rlhc)2024/06/25(火) 12:11:17.92ID:???0
>>223
あとprefillね
あれに慣れるともうあれ無しじゃやってられなくなる
0226名無しさん@ピンキー (ワッチョイ b325-ldn0)2024/06/25(火) 13:49:32.07ID:???0
キャラカードの「最初のメッセージ」がprefillに該当するもんだと思ってたけど違うの?
0227名無しさん@ピンキー (ワッチョイ f3af-YiWI)2024/06/25(火) 14:50:51.07ID:???0
SillyTavernはAssistant Prefillって項目がそれ
0228名無しさん@ピンキー (ワッチョイ d332-W7/q)2024/06/25(火) 15:56:46.39ID:???0
Oumuamua-7b-RPのプロンプトフォーマットの項目に
「以下のようなchat templateを使ってくれ」って書いてあるけど、STの場合はどうやればいいの?
https://huggingface.co/Aratako/Oumuamua-7b-RP

とりあえずモデルを使ってみてるけどキャラの応答がおかしいから
たぶんこのchat templateってのをちゃんと適用させないのが原因だと思ってるんだけど
0229名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/25(火) 21:22:25.12ID:rdbdLxJh0
>>193
スタイル名に-が入ってるケースで動作しないことを確認し,修正しました.
stagingにマージされましたので,よければ更新ください.
0230名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/25(火) 21:33:28.48ID:???M
私は使ってないけどインストラクトモードというのがあるよ
モデルは見てないので適当かもしれない
おそらく添付されてると思われるjsonテンプレートファイルをSTのフォルダにコピーするのかと
st/data/default-user/instruct/
STの設定からインストラクトモードをオンにする
プリセットを添付のものにするか、エラーが出るならアルパカのテンプレートを選ぶ、んじゃないかなぁ
0231名無しさん@ピンキー (ワッチョイ 7f09-W7/q)2024/06/25(火) 22:57:54.50ID:rdbdLxJh0
>>192
確かにTTS全体のバグだね.簡単に直せたので,直しておいた.stagingにマージ済み.
# 光の速さでマージされてビビった.
0232名無しさん@ピンキー (ワッチョイ bf73-S5ud)2024/06/26(水) 00:07:31.73ID:???0
>>231
神すぎる
ありがとうございます!
0233名無しさん@ピンキー (ワッチョイ c3c2-W7/q)2024/06/26(水) 01:37:12.34ID:SEcg4G0/0
>>231
ありがとうございます!ありがとうございます!
0234名無しさん@ピンキー (ワッチョイ 63b9-ucyo)2024/06/26(水) 01:53:42.78ID:???0
>>228
カスタムテンプレートで自作する感じだね
ターミナルにどんな入力されてるか出るからそれ見つつ弄ると良い
0235名無しさん@ピンキー (ワッチョイ 03c0-iuUh)2024/06/26(水) 04:13:33.65ID:???0
なんJLLM部 避難所 ★3 	->画像>32枚
なんJLLM部 避難所 ★3 	->画像>32枚
???
0236名無しさん@ピンキー (ワッチョイ 4311-4wBL)2024/06/26(水) 11:12:00.98ID:CeU/WWI20
LLMの出力を特定の形式に強制するGrammarって機能、食わず嫌いしてたけど使いこなせたらだいぶ強い気がする
ひらがなだけで喋るの強制させたりするのをモデル問わずできるのは可能性を感じる
0237名無しさん@ピンキー (シャチーク 0Cf7-9UmW)2024/06/26(水) 15:02:52.16ID:???C
イライザ 8bでたね
ggufもあるから誰か試して
今出先で試せん。。
0238名無しさん@ピンキー (ワッチョイ 33a0-h3e9)2024/06/26(水) 18:12:28.66ID:???0
僕の考えた最強クリーチャーを文章で書いて絵にしてほしいのだけど、そういうので今一番使えるのはなに?
0239名無しさん@ピンキー (ワッチョイ cf7a-cVdG)2024/06/26(水) 18:17:22.31ID:???0
それ多分絵にするとこの限界のほうがロコツに出ると思うなあ
絵のモデルのほうで模索してガチャ繰り返したほうがいいんじゃね
0240名無しさん@ピンキー (ワッチョイ 33a0-h3e9)2024/06/26(水) 18:27:28.85ID:???0
今時は文章で指示だしたら3Dモデルまで作ってくれるんじゃないの?
0241名無しさん@ピンキー (ワッチョイ cf7a-cVdG)2024/06/26(水) 18:28:41.95ID:???0
そういうのもある
なおクオリティはまだ二次と比べて発展途上

どうせLLM触るなら他のも実際に触ってみなよ
0242名無しさん@ピンキー (ワッチョイ 1366-rlhc)2024/06/26(水) 18:56:54.58ID:???0
>>238
そういうののプロンプトの追従性はdalle3が頭一つ抜けてると思う
bing経由
なんJLLM部 避難所 ★3 	->画像>32枚
なんJLLM部 避難所 ★3 	->画像>32枚
0243名無しさん@ピンキー (ワッチョイ 33a0-cVdG)2024/06/26(水) 19:48:46.59ID:???0
>>242
おおスゲーこういうのがほしかった
0244名無しさん@ピンキー (ワッチョイ bffd-S5ud)2024/06/27(木) 01:08:33.60ID:???0
いいね
洋物トレカ感が半端ないな
0245名無しさん@ピンキー (ワッチョイ 03c0-iuUh)2024/06/27(木) 02:45:40.15ID:???0
>>235
https://www.reddit.com/r/LocalLLaMA/comments/1dozeyi/llm_performances_have_been_plateauing_so_we/
https://huggingface.co/spaces/open-llm-leaderboard/blog
これなんかすげーモデルでもリリースされんのかと思ったら単にリーダーボードのアップデートでシナシナです。
でも色々ベンチ周りを改善した労作っぽいのでOpen LLM Leaderboard確認してみるといいかもね
0246名無しさん@ピンキー (ワッチョイ bfb9-H2g0)2024/06/27(木) 09:51:19.32ID:???0
上の方でも同じ悩みの人いるみたいだけどninjav2どうやっても短いエロ小説にしかならない
すぐ物語を終了するほうにもっていかれる
0247名無しさん@ピンキー (アウウィフ FFf7-nWVj)2024/06/27(木) 12:19:07.36ID:???F
朝チュンで終わらされること多いな
0248名無しさん@ピンキー (ワッチョイ 33a0-cVdG)2024/06/27(木) 14:39:34.33ID:???0
Ninjaと何を悪魔合体させれば最強キメラになりますか?
0249名無しさん@ピンキー (ワッチョイ d332-W7/q)2024/06/27(木) 17:13:02.66ID:???0
>>230>>234
ありがとう。なかなか難しいね
色々と勉強しないと使いこなせなさそうだ
0250名無しさん@ピンキー (ワッチョイ 33be-W7/q)2024/06/27(木) 18:10:21.38ID:???0
7/9からOpenAIが中国をブロックするから中国でどんどん独自進化した凄いモデルが出て来そうだな
0251名無しさん@ピンキー (ワッチョイ c3f2-Hiyj)2024/06/27(木) 18:22:53.33ID:???0
中華グラボでしかまともに動かないモデルとか出てきたら面白いな
0252名無しさん@ピンキー (JP 0Hf7-BG6H)2024/06/27(木) 19:10:56.19ID:???H
自国でどんどん完結させてる中国に対してこの手の締め出しって効かなくなっていくよなぁ
優秀なAI研究者の何割だかが中国人って言うし
0253名無しさん@ピンキー (ワッチョイ c3fd-rlhc)2024/06/27(木) 19:37:03.40ID:???0
>>252
それはアメリカで研究や開発をしてる中国人の話だけどね
そういう人と話すとみんな同じことを言う
中国を統治するには中国政府のやり方しかない。それはわかる。でも俺は御免だ。
ってね
0254名無しさん@ピンキー (ワッチョイ 33a0-cVdG)2024/06/27(木) 19:49:35.06ID:???0
NinjaとELYZAを悪魔合体させてみるかな
やった人いる?
0255名無しさん@ピンキー (ワッチョイ 6384-ucyo)2024/06/27(木) 20:13:22.16ID:???0
アーキテクチャ違うから無理だね
0256名無しさん@ピンキー (テテンテンテン MMff-BxGN)2024/06/27(木) 20:15:48.91ID:???M
俺はvecteusでいいやと思ってモデル探求は止めた
0257名無しさん@ピンキー (ワッチョイ bf1b-S5ud)2024/06/27(木) 22:50:33.44ID:???0
SBVITS2の音声学習をやってみようと手探りでチュートリアル動画に沿ってやってるんですが
データセット作成の文字起こしのとこでUnicodeDecordエラーが出て作成出来ず、どうしたらいいのか分からんので教えてください
0258名無しさん@ピンキー (ワッチョイ bf1b-S5ud)2024/06/27(木) 23:09:40.68ID:???0
ぬお、よくある質問の存在を見落としてた
そこに思いっきり書かれてて、解決しました!
0259名無しさん@ピンキー (ワッチョイ 1387-kWtj)2024/06/27(木) 23:49:42.10ID:iaEE0Bqa0
なんかスレに書き込んでも反映されない事あるんだけど、もしかしてtokenをカタカナで書くとスパム判定されるとかあるのかな?
0260名無しさん@ピンキー (ワッチョイ 1387-kWtj)2024/06/27(木) 23:50:05.83ID:iaEE0Bqa0
あ、書けた……
0261名無しさん@ピンキー (ワッチョイ 836a-SrTF)2024/06/28(金) 07:27:41.28ID:???0
中国人を受け入れなきゃいいのにねアメリカは
0262名無しさん@ピンキー (ワッチョイ c3f2-HD0e)2024/06/28(金) 07:42:32.48ID:???0
なんならイランもAI技術者多くて優秀だからアメリカは沢山受け入れてるんだよな
AIは東側の方が強いのかも
0263名無しさん@ピンキー (ワッチョイ bf74-sAgK)2024/06/28(金) 13:42:23.68ID:???0
あぁ、間違ってなんUの方に書いちゃったよ
(今更だけどスクリプト荒らし今いないし戻ってもいいのかもね)

googleが出したgemma2 27b、chat arenaの成績みる限り少なくとも英語の性能はllama3 70bに匹敵してるかも
Q5くらいなら24GBで動かせそうだ
0264名無しさん@ピンキー (ワッチョイ 33a0-cVdG)2024/06/28(金) 15:13:24.70ID:???0
あれ?Ninjaってもしかして悪魔合体すでにしてる?悪魔合体したのがNinjaなの?

説明みてるとマージレシピって書かれているけど

悪魔合体って7Bなら7Bのモデル同士じゃないとできないの?
0265名無しさん@ピンキー (ワッチョイ 33be-W7/q)2024/06/28(金) 16:41:31.27ID:???0
まあこのブロックでOpenAIが時代の覇者になる夢は潰えただろうけど
独占よりも活発な競争が行われてくれたほうが消費者にとってはいい
0266名無しさん@ピンキー (ワッチョイ c37e-AF3O)2024/06/28(金) 18:08:18.83ID:???0
元々OpenAIはサムの各国行脚とか政治的な立ち回りも考えてた会社だしな
米政府との関係性って面でも今回のブロック措置は有効に機能するんじゃないか
この調子でEUもブロックして面倒な規制法をぶっちぎってエロエロモデル提供しようぜ
0267名無しさん@ピンキー (ワッチョイ cfbe-SrTF)2024/06/28(金) 19:14:09.73ID:???0
え?ブロック?
0268名無しさん@ピンキー (JP 0Hf7-BG6H)2024/06/28(金) 19:20:21.40ID:???H
競争と対立は異なるものなのよ
0269名無しさん@ピンキー (ワッチョイ 367a-6qNV)2024/06/29(土) 08:18:31.81ID:???0
openAIが中国を締め出しするって話でしょ
政治だか軍事だかの悪用が過ぎるとかで
0270名無しさん@ピンキー (ワッチョイ 4fbe-JmlM)2024/06/29(土) 10:21:48.94ID:???0
中国がアメリカを追い越しつつある上に分断が進んで向こうの情報が見えにくくなってるから
アメリカの大学が中国の最新モデルを盗んで自分たちの成果として公開する事件まで起きてんな
動画生成も既に中国のほうが進化してるし
0271sage (ワッチョイ f321-JmlM)2024/06/29(土) 11:06:48.79ID:4Yd7voia0
gemma 9b LMstudioで使ってるけどめっちゃ頭いい気がする……gpu offloadが最大33じゃなくて50なのね
0272名無しさん@ピンキー (ワッチョイ e628-GSrL)2024/06/29(土) 11:37:05.03ID:???0
>>269
まあそうなんだけど、そういう対応をせざるを得ない状況に追い込まれてるとも言える
大赤字なんだし本当は利益だけ追求したいだろうに、色々と板挟みで身動き取れないんだろうね
エロ規制強めたり弱めたりで右往左往してるし
0273名無しさん@ピンキー (ワッチョイ a36a-58es)2024/06/29(土) 13:42:31.14ID:???0
中国から盗みたい研究なんかあんの?🤔
0274名無しさん@ピンキー (ワッチョイ f655-4M/4)2024/06/29(土) 13:54:25.56ID:???0
その手の中国を下に見る認識は改めたほうがエエで……
0275名無しさん@ピンキー (JP 0H2e-QckR)2024/06/29(土) 14:06:59.81ID:???H
流石に世間知らずすぎる
認識が20年くらい前で止まってるぞ
0276名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/06/29(土) 15:34:00.19ID:utU77jsh0
AI分野は中国人研究者最強説ある
なお中国が強いわけではない
0277名無しさん@ピンキー (ワッチョイ dbb6-IsEP)2024/06/29(土) 18:36:51.25ID:???0
Qwen2つよつよだもんな
ウェイト公開してるから使う人もどんどん増える
言語モデルを通じて中華の価値観を世界に浸透させる狙いがあるかも
0278名無しさん@ピンキー (ワッチョイ 4fbe-JmlM)2024/06/29(土) 21:04:39.23ID:???0
>>269
米軍はグーグルやMSと連携してLLMを作戦立案に使用する研究進めてるって報道されてるぞ
パレスチナ人を自動殺害するAIガンカメラにもアメリカのAI技術が使われてるしな

>>273
先月アメリカで発表されたLlama 3-VがGPT-4Vの1/100のさいずで同等の性能ってことでブームになったけど
中国の丸パクリと判明して炎上した
0279名無しさん@ピンキー (ワッチョイ fe0a-2G1v)2024/06/29(土) 21:07:56.97ID:???0
中国メーカーのグラボで最高性能出せるとかになると世界経済変わるわ
0280名無しさん@ピンキー (ワッチョイ a36a-58es)2024/06/29(土) 21:23:01.73ID:???0
スタンフォードでそんなことするんだね
マニングではないよね?
やったのは研究室の中国人だろ?
0281名無しさん@ピンキー (ワッチョイ c76a-wxoV)2024/06/29(土) 22:40:30.36ID:wcGe+rNy0
Llama3 Elyza Japaneseめっちゃテンポ良く会話してくれて気持ちいいんだけど、事務的で文章短めで創作が苦手なのが寂しい
ElyzaベースのVecteusめっちゃ欲しいわ
0282名無しさん@ピンキー (ワッチョイ e655-JmlM)2024/06/29(土) 23:31:57.11ID:???0
>>276
企業レベルなら日本も負けてないんだけどね自動運転とか
自称AI技術者のレベルの差よ
0283名無しさん@ピンキー (ワッチョイ f611-XQHT)2024/06/30(日) 01:49:04.34ID:g0rbcPrz0
エロに強いNinjaと頭の良い何かを悪魔合体させる話に戻して良い?
0284名無しさん@ピンキー (ワッチョイ 43c8-5q9u)2024/06/30(日) 01:55:19.36ID:???0
>>283
戻して下さい
こういうIdがない人ってどうやってNGするんですかね
0285名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/06/30(日) 05:18:03.88ID:???0
OpenLLM Leaderboardでもアプデされてベンチ用データセットにオーバーフィットしてスコア盛るのが効かなくなったのかQwenが相対的にランク上がってるっぽいし (前がどうだったのか忘れたけど
Qwenとかめっちゃオープンにモデル公開してるけどあれAlibabaなんよな(?)
Modelscope(魔塔社区)とかいう中国版huggingfaceみたいなんも出てきたしAI周り全部中国が自前で揃えるのも遠くはなさそう
>>270
Llama3-V(スタンフォード)が実は中身Mini-CPM(精華大学ほか)でしたとかあったな
0286名無しさん@ピンキー (シャチーク 0C53-t6wP)2024/06/30(日) 09:08:43.76ID:???C
>>263
沸きやがったぞ
スクリプト
0287名無しさん@ピンキー (ワンミングク MMef-6qNV)2024/06/30(日) 09:51:56.37ID:???M
>>273が釣りだとしたら
何かが盛大に釣れた気がしてなんか怖い流れだな
0288名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 12:37:43.36ID:NiQ7UBWv0
7BモデルはあんまりXMLとか出力させるのには向いてないんだろうか
出力がぶっ壊れる
0289名無しさん@ピンキー (ワッチョイ 7e09-jOsC)2024/06/30(日) 12:42:57.33ID:???0
パラメーター数よりモデルの問題では?
0290名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 12:50:33.76ID:NiQ7UBWv0
ああ、すまん
mistralベースの日本語7Bモデルの話
KUJIRAにXML出させようとしたんだけど、うまく行かんかった
0291名無しさん@ピンキー (ワッチョイ 7e09-jOsC)2024/06/30(日) 12:59:07.32ID:???0
内容的にコーディング特化のモデルの方がよいんじゃないかな
0292名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 13:05:22.68ID:NiQ7UBWv0
>>291
でかいモデルとかllama-3とかだと流石に動くんだけど、日本語流暢な小型モデルでも同じことできないかなと思ってな
出力内容と一緒に出力の属性みたいなのをXMLで出力させてるんだけど、まあ凝ったことやろうとするとでかいor特化モデルじゃないと厳しいか
0293名無しさん@ピンキー (ワッチョイ 7e09-jOsC)2024/06/30(日) 13:09:21.52ID:???0
いろいろ試行錯誤するのが楽しいんだし片っ端からいろいろモデル試してみるのがいいよ
本当に結果最優先なら無料のAIサービスの方が遙かにマシだけどローカルでやる遊びだしね
0294名無しさん@ピンキー (ワッチョイ 4fa0-5q9u)2024/06/30(日) 13:32:27.72ID:???0
モデルのフレームワークをllamacppからTransformersへ変換することとかできるんでしょうか?

Ninjaと日本語強いモデルを悪魔合体させるにはこれができないといけない?
0295名無しさん@ピンキー (ワッチョイ d207-JJRp)2024/06/30(日) 18:32:52.81ID:???0
cohereの新しいモデルがもうすぐ出るみたいやな
commandシリーズみたいやし楽しみや
0296名無しさん@ピンキー (ワッチョイ 22a3-U8oJ)2024/06/30(日) 18:54:32.93ID:???0
繰り返し癖が改善されてるといいな
0297名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/06/30(日) 20:06:44.19ID:NiQ7UBWv0
CohereはCommandっていう検索しづらい名前なんとかして欲しい
0298名無しさん@ピンキー (ワッチョイ 2f32-5q9u)2024/06/30(日) 22:13:08.71ID:???0
command-r-ultra 400B










だったらどうしようw
0299名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/06/30(日) 23:35:11.92ID:l+xb5G3F0
7Bでもそこそこ遊べるのに少し上を求めると70Bだの100Bだの400Bだのインフレし過ぎよね
0300名無しさん@ピンキー (ワッチョイ 7e09-jOsC)2024/06/30(日) 23:37:39.75ID:???0
パラメーター10倍でも体感性能は2倍もないかんじがする
0301名無しさん@ピンキー (ワッチョイ 4fa0-5q9u)2024/07/01(月) 08:46:16.63ID:???0
Elyza富士山答えられないしな
0302名無しさん@ピンキー (ワッチョイ ef28-9Pyd)2024/07/01(月) 09:03:06.10ID:???0
koboldcppにあるLoRAってどういう機能なんだろ
画像生成のLoRAと同じなら特定キャラクターの設定や口調、知りうる知識なんかを読み込ませて演じさせたり出来るんだろうか
0303名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/07/01(月) 09:27:13.73ID:???0
>>295
探したけど見つからんかったわ
ソース貼ってくれ
0304名無しさん@ピンキー (ワッチョイ 7732-JmlM)2024/07/01(月) 14:48:14.83ID:???0
Oumuamua-7b-RP_Q8_0.ggufを使うの難しいな
下手な機械翻訳みたいな文章ばっかりになる
0305名無しさん@ピンキー (ワッチョイ 4fbe-JmlM)2024/07/01(月) 14:50:32.85ID:???0
検索エンジンに頼りきりだから検索汚染食らってる問題にはほんとさっぱりだな
だからといって学習元絞ると頭悪くなるんだし解決難しそう
0306名無しさん@ピンキー (ワッチョイ 729f-Y4+J)2024/07/01(月) 18:20:58.13ID:???0
https://x.com/chokkanorg/status/1807670723655451012
SwallowシリーズのLlama 3版が出てる
まあワイは量子化待ちだが……
0307名無しさん@ピンキー (テテンテンテン MM7e-POKR)2024/07/01(月) 18:37:45.52ID:???M
軽くてもよさげな検閲なし知識豊富なモデルでました?
0308名無しさん@ピンキー (ワッチョイ f237-2oVt)2024/07/01(月) 21:43:05.22ID:???0
ボイスドラマみたいな一方的に話しかけて進めてくれる文章て書けるかな…?
それをSBV2とかに投げたら横になりながら聞けるんだけどな
0309名無しさん@ピンキー (ワッチョイ 729f-Y4+J)2024/07/01(月) 21:58:00.86ID:???0
Kohya氏が会話生成試みてるみたい もちろん他にもやってる人いるだろうけど
キャラ毎にLLM建てて間で応答を仲介したらいけるのかな……
話題が発散しちゃうか……ターン制にしたり、隠れて話題を制御するメタなLLMも必要か……
0310名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/07/02(火) 00:16:15.82ID:a2H+spmt0
エロと実務以外だとAIのプレイヤーとAIのGMでTRPGを破綻なく1ゲーム出来るぐらいの精度と環境が欲しいよね
逆に翻訳やプログラムだと現状でもまぁ
0311名無しさん@ピンキー (ワッチョイ 2f32-5q9u)2024/07/02(火) 02:29:11.42ID:???0
>>306
mmnga氏が出してくれたぞ
今日は眠いから、明日試すわ
0312!donguri (ワッチョイ c787-wxoV)2024/07/02(火) 03:11:13.98ID:/KwMwbqd0
自前でLlama-3-Swallow-8B-v0.1の方をQ8_0に量子化してみたんけど、設定間違えたんだか会話が成立しないレベルでアホになってしまう……
素直に他の人が上げてくれるの待つしかないか……
0313名無しさん@ピンキー (ワッチョイ c787-wxoV)2024/07/02(火) 03:33:48.30ID:/KwMwbqd0
ごめんこれbaseモデルの方は追加学習前の素でアホなモデルなんだな、リリースもうちょっとしっかり読むべきだった
instructモデルの方でやってみたら普通に賢かったわ……
0314名無しさん@ピンキー (ワッチョイ d212-JJRp)2024/07/02(火) 10:07:23.84ID:???0
MCTCアルゴリズムをシステムプロンプトに組み込んだbotが文章表現力まで上がってたので、そのままプロンプトを拝借して色々捗る
難点は3000トークンも使う
0315名無しさん@ピンキー (ワッチョイ d212-JJRp)2024/07/02(火) 10:09:27.82ID:???0
MCTSだ、モンテカルロ木検索
0316名無しさん@ピンキー (ワッチョイ b68e-QEUw)2024/07/02(火) 13:23:11.92ID:???0
今ってエロとかマルチターンの指示への追従性含めた全体的な使用感(ベンチのスコアではなく)がCommand R Plusより良さげなOSSモデルってあるかな
まあ好みもあるし曖昧だとは思うんだけど
0317名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 18:20:21.96ID:pU92odSm0
gemma-2-27b-it
エロプロンプトも通るな
ウェブ検索とかプログラミングも出来るっぽいので万能エージェントとして使えそう

なんJLLM部 避難所 ★3 	->画像>32枚
なんJLLM部 避難所 ★3 	->画像>32枚
0318名無しさん@ピンキー (ワッチョイ f22e-9Pyd)2024/07/02(火) 18:43:09.77ID:???0
>>317
これはこれは
VecteusV1から引っ越す日が来たのか…?
ああでもVRAMうう
0319名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 18:44:19.28ID:pU92odSm0
幼女もののエロ小説とかも、出力の先頭固定してお断り防げばそれなりに書けるな
0320名無しさん@ピンキー (ワッチョイ 7230-o0uY)2024/07/02(火) 18:58:36.49ID:a2H+spmt0
27Bとかちょうど良いサイズ感でいいわね
0321名無しさん@ピンキー (ワッチョイ fec8-XgRw)2024/07/02(火) 19:02:10.84ID:???0
koboldが対応したからチャットに使ってみたけどエロの言い回しが単調な印象
プロンプトが悪いのかな
317みたいにするにはどうすりゃいいんだろう
0322名無しさん@ピンキー (テテンテンテン MM7e-POKR)2024/07/02(火) 19:42:05.46ID:???M
相変わらずビーカーでコーヒー飲んでそうな色味のSSは見てない。しかも自分作の勝手アプリだろ?有益な情報も産んでないんだからどっか別のスレに消えてくれよ。
0323名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:03:19.86ID:pU92odSm0
>>322
そう一方的な感想で罵られても困る
自作アプリはLLMの醍醐味だし、そもそもコードはgithubに全て公開している以上、有益な情報を含んで無いとか、勝手なアプリだとか言われる筋合いは無いわ

有益かどうかは知らんけどgemma-2のプロンプトに関していえば、システムプロンプトに相当するものはマークダウン形式で<start_of_turn>userの中に書けば結構追従性高いよ(このSSのtool callの指示とかキャラ設定も全部そこにぶち込んだ)

これで満足か?
0324名無しさん@ピンキー (ワッチョイ f22e-9Pyd)2024/07/02(火) 20:06:40.81ID:???0
>>323
俺は好きやでこういうの
ちなみにQ8でVRAMどれくらい食ってるの?
0325名無しさん@ピンキー (JP 0Hbb-wxoV)2024/07/02(火) 20:28:15.86ID:pKIneMAgH
遂に選民思想のやつがでてきたか
0326名無しさん@ピンキー (ワッチョイ ef38-4kL+)2024/07/02(火) 20:35:02.16ID:hIgdRz7B0
AI開発者はアダルト機能に制限をつけることで
性産業のみを保護している!!
0327名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:36:10.44ID:pU92odSm0
>>324
macの共有メモリなのでロード前後で差をとった概算で、コンテキストは8192 tokensで31GBくらいモデルが占有してる感じ
知識詰め込まれてると量子化の影響大きいかも、と思ってとりあえずQ8にしてるんだが、もうちょい下げても大丈夫かなとは思う
0328名無しさん@ピンキー (ワンミングク MMef-6qNV)2024/07/02(火) 20:42:07.05ID:???M
322のテテンはGPTスレでご覧の言動で嫌われて発狂して荒らしまくったり乱立スレ立ててた札付きの荒らしだよ
触らずNGリストにぶち込むのが吉
しょうもない自演擁護したり
勝手にワッチョイ・ID無しスレ立てようとするのでそれだけ注意ね
0329名無しさん@ピンキー (ワッチョイ f22e-9Pyd)2024/07/02(火) 20:50:45.79ID:???0
俺もQ5Sでsillyのチャットしてみてるけど応答はめちゃ早いもののVRAM24G埋まりっぱなしだー
けどエロは淡白だな
なんかチャットなのにナレーションでさっさと済ませようとしてくる
0330名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 20:52:11.31ID:pU92odSm0
>>328
証明する方法はぱっとは思いつかんが、別人と同一視されるのは不快なのでやめてもらえないか?

まぁこのスレの総意として消えろと言われれば、それは仕方ないので従うが・・・
0331名無しさん@ピンキー (ワッチョイ 737a-uDjw)2024/07/02(火) 20:58:31.70ID:???0
落ち着け
よく読んでみて
0332名無しさん@ピンキー (ワッチョイ 7732-JmlM)2024/07/02(火) 21:22:52.28ID:???0
>>330
これは内緒の話なんだけど、実はお前は>>322ではなく>>323なのだ
0333名無しさん@ピンキー (ワンミングク MMef-6qNV)2024/07/02(火) 21:26:40.29ID:???M
アンカーつけると面倒なんで外したのが勘違いの元だったかな
ともあれ、煽り口調の楽天ワッチョイはその手のアレなんでよろしく
0334名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/02(火) 21:36:42.27ID:pU92odSm0
>>328
>>332
>>333
うお、これは失礼
肩を持ってくれたようなのに申し訳なかったな
0335名無しさん@ピンキー (ワッチョイ 5277-akmW)2024/07/03(水) 01:47:04.17ID:???0
kobold+尻タブで運用してるんだけど使ってるモデルで設定を変えないと表現の差を感じにくかったりする?
0336名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/07/03(水) 06:10:30.43ID:???0
>>326
確かにそう言われればそうだなw
AIのトップ企業が「Webに公開した時点でフリーウェアやぞ(笑)」とかいってる一方でNSFW界隈が守られてる皮肉
0337名無しさん@ピンキー (ワッチョイ db9b-IsEP)2024/07/03(水) 07:25:41.42ID:???0
CALM3 22Bが出てきたね
デカすぎて自分は試せないけど
0338名無しさん@ピンキー (ワッチョイ f23b-GSrL)2024/07/03(水) 08:57:15.51ID:???0
オンラインモデルでもclaude3やGPT4oみたいなLLMはほぼエロ規制ないけど、dalle3や動画生成aiはエロ規制キツいままだね
まあこいつらはエロ学習もしてないから規制というより無能なんだけど
0339名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 10:53:35.29ID:jJPCrDJWM
>>338
dall-e3はエロ理解度高いぞ
0340名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/03(水) 11:18:44.29ID:CoTbk8kx0
ちょっと上に出てるcohereの新しいモデルってやつ、流れちゃったけどソース知ってるやついる?
本当なら割と楽しみなんだが
0341名無しさん@ピンキー (ワッチョイ c2a2-JJRp)2024/07/03(水) 11:33:32.57ID:???0
>>340
sandra kublikのxに書いてある
今後のcommandシリーズの展開とかも
他の企業と同じくモデルサイズの縮小と特化型を目指すみたいだから思ってたのと違う感じになりそうだなぁ
0342名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/03(水) 11:49:46.46ID:CoTbk8kx0
>>341
これか、サンクス
https://x.com/itsSandraKublik/status/1807801960738791491

まあR/R+も”本来は”エンタープライズ向けのモデルだとは思うから、特化型といいつつなんだかんだで色々使える~ってのを少し期待して待っておくことにしよう
0343名無しさん@ピンキー (ワッチョイ f23b-GSrL)2024/07/03(水) 12:18:00.08ID:???0
>>339
言うなら女体の理解度でしょ
エロとは違う
0344名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 12:37:24.64ID:SUIzy+JTM
>>343
例えば”スマタ”って指示すれば太ももを強調した絵を描くぞ
検閲されるだけでエロ系概念も内部には持ってて引き出すのが難しいだけ
0345マジカル (ワッチョイ ef34-JmlM)2024/07/03(水) 13:46:40.73ID:DGPDRyrj0
Ninja-V2のアップデート、Ninja-V3をリリース致します。
EVO-Mergeを活用したモデルになります。

https://huggingface.co/Local-Novel-LLM-project/Ninja-V3
https://huggingface.co/Local-Novel-LLM-project/Ninja-V3-GGUF

さらに、このモデルをMoEしたモデル、Shadows-MoEもリリース致します。

https://huggingface.co/Local-Novel-LLM-project/Shadows-MoE
https://huggingface.co/Local-Novel-LLM-project/Shadows-MoE-GGUF

https://x.com/int_float_/status/1808358688304124397
https://x.com/int_float_/status/1808358999928328616

ぜひお試しください!
0346名無しさん@ピンキー (ワッチョイ d2f4-B3V7)2024/07/03(水) 13:52:03.24ID:???0
おお、いいね
久しぶりにうちのGPUが唸るぜ!
0347名無しさん@ピンキー (ワッチョイ d2c8-YW1E)2024/07/03(水) 14:13:31.94ID:???0
NinjaGGUF404なるね
0348マジカル (ワッチョイ ef34-JmlM)2024/07/03(水) 15:20:53.08ID:DGPDRyrj0
>>347
ありがとうございます。修正しました。
0349名無しさん@ピンキー (ワッチョイ 4fa0-5q9u)2024/07/03(水) 15:53:36.14ID:???0
NSFWを
0350名無しさん@ピンキー (ワッチョイ f772-GSrL)2024/07/03(水) 16:41:22.37ID:???0
>>344
いや、公式がエロは学習から抜いてるって言ってたんだけど…
0351名無しさん@ピンキー (ベーイモ MM0e-o0uY)2024/07/03(水) 19:03:09.52ID:XPheENo6M
>>350
それだけ?ちゃんと出力を見なよ
0352名無しさん@ピンキー (ワッチョイ f772-GSrL)2024/07/03(水) 20:04:20.16ID:???0
>>351
たぶん、スマタの"マタ"に反応しただけだと思うよ…
0353名無しさん@ピンキー (ワッチョイ 7732-JmlM)2024/07/04(木) 11:21:06.91ID:???0
擬音語とか擬態語を的確に使わせるのって難しいね
「ふわふわ」が適切な場面で「ゴツンゴツン」とか言い始めることがある
0354名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/04(木) 12:35:17.93ID:CYZ0uTpH0
>>353
あんまり気になったことないけど、どのモデルでも似たような傾向はあるん?
0355名無しさん@ピンキー (ワッチョイ 7732-JmlM)2024/07/04(木) 14:45:28.34ID:???0
>>354
モデルによって違うと思う
GGUFばっかり使ってるから余計におかしいのかもしれない
今GPT4で試してみたら的確な擬音語使ってくれたわ
0356名無しさん@ピンキー (ワッチョイ efcc-9Pyd)2024/07/04(木) 14:54:35.85ID:???0
shadowsをエロチャットで使ってみた
暴れ馬な感じがする
やっぱエロはVecteusV1の扱いやすさが際立つなあ
0357名無しさん@ピンキー (ワッチョイ 43c0-pWJE)2024/07/04(木) 19:45:23.20ID:???0
Calm3期待してるわ
こういうときサクッと自分でGGUF変換できればいいけど未だにImatrix Quantizationのやり方わからん
トレーニングデータってWikiTextなるものを与えるらしいけどどっからダウンロードできんのか一生わからん
……とか書いてたら早速GGUF上がってたわありがたい(grapevine-AI/CALM3-22B-Chat-GGUF)
0358名無しさん@ピンキー (ブーイモ MM92-POKR)2024/07/04(木) 21:05:14.02ID:???M
色々な方向性で作ってくれるのは業界発展にも良いことだと思うんです
しかし愛らしい応答の雰囲気はそのままに、エロ以外の話題にも耐えられるベクテウス1+的なものが欲しいかなあ
ちょっと前ならローカルの小型モデルで望むレベルは遥かに超えてるわけで贅沢なお願いではあるのだけどね。
0359名無しさん@ピンキー (ワッチョイ 7732-JmlM)2024/07/04(木) 21:05:55.05ID:???0
人間の欲望は尽きることがないのだ……
0360名無しさん@ピンキー (ワッチョイ 9311-jOK4)2024/07/04(木) 21:56:37.20ID:CYZ0uTpH0
汎用性考えると7Bクラスでは流石に無理な気がする
0361マジカル (ワッチョイ 7ec8-TVBI)2024/07/04(木) 23:26:30.07ID:0SZHhCXY0
およそ1GBのWeb小説コーパスでNinja-V2にファインチューニングを行った、新しい小説生成特化型AI

kagemusya-7B-v1をリリースいたします。

ぜひお試しください。

https://huggingface.co/Local-Novel-LLM-project/kagemusya-7B-v1
https://huggingface.co/Local-Novel-LLM-project/Kagemusya-7B-v1-GGUF

詳細な使い方はリポジトリをご覧ください。
0362名無しさん@ピンキー (ワッチョイ 729f-Y4+J)2024/07/04(木) 23:39:25.32ID:???0
>>361
試すのは明日以降になるけど「AI〇〇りすとっぽく使える」のはまさに求めてたものですよ
0363名無しさん@ピンキー (ワッチョイ 43c8-5q9u)2024/07/04(木) 23:53:59.37ID:???0
>>361
ありがとうございます
EasyNovelAの更新を待って使いたいと思います
0364マジカル (ワッチョイ ef57-TVBI)2024/07/04(木) 23:55:30.34ID:3pUUsVZz0
https://imgur.com/a/MoXf7ds
このように小説以外の文章も生成可能です
0365名無しさん@ピンキー (ワッチョイ 4fa0-5q9u)2024/07/05(金) 14:14:15.97ID:???0
Ninjaでも富士山答えられるのにElyzaが答えられないのってなんでなん?東大って・・・
0366名無しさん@ピンキー (ワッチョイ f613-A9xI)2024/07/05(金) 16:43:11.30ID:???0
>>363
EasyNovelAssistantにKagemusya-7B-v1を追加しといたで
0367名無しさん@ピンキー (ワッチョイ 36b9-/Ddv)2024/07/05(金) 18:26:57.83ID:???0
>>366
サンキュー
0368名無しさん@ピンキー (ワッチョイ 43c8-5q9u)2024/07/05(金) 18:55:29.12ID:???0
>>366
いつもありがとうございます
毎日使わせてもらっています

モデル作成の方もありがとうございます
0369名無しさん@ピンキー (ワッチョイ 36b9-/Ddv)2024/07/05(金) 21:14:06.52ID:???0
Kagemusyaさんエロに微妙では、、、
NSFW版を、、、、、、
0370名無しさん@ピンキー (ワッチョイ f2ad-9Pyd)2024/07/05(金) 22:59:41.09ID:???0
silly tavernとSBV2で喋らせてる人、マージしたモデルちゃんと使えてる?
一覧に表示されるモデル名がマージ元のままになってて、実際喋らすとマージ前の声になっちゃうんだけど
でもTTS設定のavailable voicesのとこからいろはにほへと~って喋る時はちゃんとマージ後の声になってる
何かしらバグってそう
0371名無しさん@ピンキー (ワッチョイ 1fad-2T2a)2024/07/06(土) 00:33:19.87ID:???0
マージ元のモデルフォルダをSBV2から移動させてマージ後のモデルだけにしてみたらsillyでちゃんと使えた
でもやっぱりマージ元の名称で表示されてる
やっぱりこれが原因で不具合起きてるみたい
0372名無しさん@ピンキー (ワッチョイ 5f09-DBC8)2024/07/06(土) 03:03:17.17ID:???0
大体わかった.SillyTarvernとしては同名のvoiceNameは想定してないので,1つ目を選んだ扱いになる.
model_assets\マージモデル名\config.jsonのspk2idを変更すれば回避可能.
マージスクリプトの修正のPR出しとくわ.
0373名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/06(土) 05:54:13.76ID:???0
Oumuamua-7b-RP_Q8_0.ggufを使ってるんだけど
userを罵りながらのエッチとか女キャラに乱暴なエッチをさせようとすると文章がかなりおかしくなるな
攻めっ気の強い女キャラが上手く表現できないのかな
0374名無しさん@ピンキー (ワッチョイ aba0-bJ31)2024/07/06(土) 06:38:26.75ID:???0
Kagemusya試してみたけど、日本語バグってるよ
0375名無しさん@ピンキー (ワッチョイ 1fad-2T2a)2024/07/06(土) 07:25:07.84ID:???0
>>372
対応ありがとうございます!
なるほど、確かにspk2idって箇所の名称はマージ元のままになってます
sillyはここを参照して一覧に表示させてるってことか
0376名無しさん@ピンキー (ワッチョイ eba7-9U6/)2024/07/06(土) 10:47:28.81ID:zjHLxeXP0
>>375
speakerID(spk##ID)ってモデル側のconfig.jsonで書き換えられんかったっけ?
0377名無しさん@ピンキー (ワッチョイ 2b18-2T2a)2024/07/06(土) 12:30:07.67ID:???0
>>376
マージ後の名称に書き換えたら正しく反映されて解決したよ
0378名無しさん@ピンキー (ワッチョイ 4f32-9KzH)2024/07/06(土) 20:50:11.30ID:???0
最近流行ってるflorence-2っていうmicrosoftの画像からテキスト生成するモデルでなんちゃってマルチモーダルやってるけど、画像から小説生成する程度のタスクならそこそこ遊べるな
0379マジカル (ワッチョイ 2b41-hvYX)2024/07/06(土) 23:18:32.31ID:bF1ixPzl0
お聞きしたいのですが、チャットモデル、小説生成モデル、RPモデル
どれに魅力を感じますか?
教えていただけると幸いです。
もしくは、あったらいいなと思うモデルがあったらそれもまた教えていただきたいです。
0380名無しさん@ピンキー (ワッチョイ 7be4-BXzz)2024/07/06(土) 23:25:15.54ID:???0
自分の代わりに検索してくれるモデルとかかな
ローカルLLMって時点でモデル自体の知識には限界があるから最初から検索して回答する前提のモデル
0381名無しさん@ピンキー (ワッチョイ dbc8-bJ31)2024/07/06(土) 23:44:22.17ID:???0
>>379
EasyNovelAで使用可能な小説生成モデルがあればとても嬉しいです

私の使用目的だとVecteus-v1が最も使用しやすく
次にJapanese-TextGen-MoE-TEST-2x7B-NSFW_iMat_IQ4_XS
が使用しやすいです

折角作成していただいたのに
私の指示が不適切なのかKagemusya-7B-v1は
未だ上記2つより上手く使いこなせておりません
0382マジカル (ワッチョイ 2b41-hvYX)2024/07/06(土) 23:53:33.78ID:bF1ixPzl0
>>381
どのように使用しているか教えていただけますか?
影武者はインストラクションを用いるなどの用途は想定されておらず、

書き出しを3行くらい書く→AIに続きを200字ほど書かせる→人力で気に入らない部分を変更、話の流れを誘導→続きを書かせる→繰り返し

いわばAIと共同で小説を書くといった使い方を想定しています。

チャットなどできないことはないですが、小難しいタスクはおそらく理解できず、指示を出して小説を書いてもらうといった使い方には向いていません。
その場合はNinja-V3やVecteusの方が適しています。
0383名無しさん@ピンキー (ワッチョイ 2b32-bJ31)2024/07/07(日) 00:08:13.07ID:???0
>>379
自分は小説作成が主な用途ですが、7Bという利点を生かすならチャット用途で使う人が多いかと思います。
応答速度は速いに越したことありませんが、小説用途なら70Bの速度にも耐えられるので(自分だけかもしれんがw)
影武者はAIのべりと的な使い方ができるベースモデルのような感じなので、これにinstract tuneできれば
面白いモデルになるかもしれませんね
0384名無しさん@ピンキー (ワッチョイ 0f7a-bJ31)2024/07/07(日) 00:10:18.95ID:???0
ぶっちゃけ小説用途ならClaude3の本家とか使うほうが
コストかかるとしてもいいと思うけどねえ

Opusもいいし、Sonnet3.5もいい(poeとか外部サイトで使うならこっちは安いメリットもある)
0385名無しさん@ピンキー (ワッチョイ dbc8-bJ31)2024/07/07(日) 00:15:55.98ID:???0
>>382
結構複雑な指示を出しているのでそれが不適切だったんですね
意図されていない使用をしてすいませんでした

季節や場面を変えるだけでキャラが同じ行動や考えをし続けるので
物語がずっと先に進まないようになっていました

私の書き出し自体がモデルに不適切なんだと分かりました
ありがとうございます
0386名無しさん@ピンキー (ブーイモ MM7f-TiHG)2024/07/07(日) 00:38:57.96ID:???M
希望のもの、かつ制作意識を刺激するものを言っていいなら
シンプルな記述で方眼紙に200文字(あらすじの書き出し)、音素でいう20文字という指定に従う創作向けのモデルかなぁ(俳句や歌手)
token数じゃないからね!といってもチャットgptだとほぼ間違えるか試行錯誤して答えを出せない
0387名無しさん@ピンキー (ワッチョイ 4f32-9KzH)2024/07/07(日) 00:43:14.48ID:???0
>>380
その用途だと既存のgemma-2とか使えばいいのでは?
0388名無しさん@ピンキー (ワッチョイ eba7-9U6/)2024/07/07(日) 01:34:43.56ID:2UDtZkPd0
技術的に可能か分からんけど、冒険ゲーのNPC、コンパニオンや敵対NPCとのやり取りを前提にしたチャットモデルみたいなのが欲しいなぁ...。
キャラ名、状況を簡単なパラメータ、数ターン分の会話履歴を渡す、などでふさわしい応答を返してくる、みたいな感じで
ゲーム固有のキャラ名、地名やアイテムなどは外部ファイルなりで別途定義できる、みたいなモデルがあったら最高なんだけど
0389名無しさん@ピンキー (ワッチョイ 9f6e-MsCS)2024/07/07(日) 03:31:40.29ID:???0
>>379
個人的な好みで言えばだけど…
・NSFW重視 (SFWならClaudeが良さそう)
・直後の展開を本文としてではなく [ここで猫が登場する] みたいに指示する機能が欲しい (のべりすとでできるらしい)
・用途は小説かロールプレイチャット
・「最初に短い本文か指示を与えると、適当に話を展開し続けて読み上げてくれる」と面白いかもしれない(読み上げ機能は探すか作る)

ちなみに最近使ってるモデルは Berghof-NSFW-7B-GGUF
0390名無しさん@ピンキー (ワッチョイ 0f7a-bJ31)2024/07/07(日) 03:48:08.84ID:???0
NSFWでもpoeとか使えば相当いけるけどね
sonnet3.5ならたっぷり使える
0391名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/07(日) 04:35:58.74ID:???0
チャットとロールプレイって何が違うの?
同じかと思ってたわ
0392名無しさん@ピンキー (ワッチョイ 1ff5-18o2)2024/07/07(日) 09:09:57.25ID:???0
区別してる人はあんまりいないと思うけど、自分の区別はこんな感じ↓
普通のチャット:
👱「こんにちは、話し相手になってよ」
🤖「もちろんです、何について話しましょうか?」
ロールプレイチャット:👱「君は万引き少女で俺は店長ね。じゃあ始めるよ。きみ、ポケットの中のものを見せなさい!」
🤖「え…なんですか!?言いがかりはやめてください!」
0393名無しさん@ピンキー (シャチーク 0C6f-pVsq)2024/07/07(日) 09:14:26.88ID:???C
ロールプレイってゲームマスターになってもらうのもあるね
0394名無しさん@ピンキー (スッップ Sd3f-hqri)2024/07/07(日) 09:26:17.35ID:???d
のべりすとの機能は全部Koboldに同じものがある
というかKoboldの方が先
0395名無しさん@ピンキー (ワッチョイ 0f7a-4Szj)2024/07/07(日) 09:38:23.08ID:???0
>>384
まあこっちのスレはローカル専用的になってるからね
規制&課金無しってとこに魅力見出してやってるわけだし
それに限らない人は普通に向こうのスレと掛け持ちしてるだろうからわざわざ誘導しなくてもいいんじゃないか
0396名無しさん@ピンキー (ワッチョイ 1f9f-Fxlp)2024/07/07(日) 10:01:49.43ID:???0
>>394
Koboldってテキストエディタとしての機能はどうなんだろ?
バージョン管理とかできるのかな?
できれば使い慣れたVSCodeで小説を書きたいんだけど
0397名無しさん@ピンキー (ワッチョイ 0b32-PEkd)2024/07/07(日) 10:19:08.04ID:???0
EasyNovelAssistantのファイル監視使ったらいいじゃね?
0398名無しさん@ピンキー (ワッチョイ 0bdd-fCip)2024/07/07(日) 10:24:44.54ID:???0
>>396
API経由でいじれば良さそうだけど、標準入出力使うのはできるのかな。
0399名無しさん@ピンキー (ワッチョイ cb87-PEkd)2024/07/07(日) 15:58:14.46ID:z1dzpp5z0
個人的にはチャットで、複雑なキャラ設定でも忠実に守ってくれるタイプのモデルが欲しいなぁ
キャラクタープロフィールを作り込んだり会話例を記載しても、しばしばプロフィールに沿わない性格になったり、
地の文を吐き始めたりするから「長いプロフィールや前提条件を読んだ上で、適切に会話だけができる」モデルがあると嬉しい
まあ地の文が出せないモデルは需要も少ないのかもしれないけど……
0400名無しさん@ピンキー (ワッチョイ 4f41-oQ9i)2024/07/07(日) 16:35:50.65ID:???0
自分の欲しいモデルも399と同じです
オリキャラとチャットする用途
話してると段々口調とか崩れていきがち
0401名無しさん@ピンキー (ワッチョイ 1fac-96sv)2024/07/08(月) 01:04:37.47ID:???0
創作はLLMによって得意なジャンルがあるのが最近分かってきた
まあ学習する内容によって偏るのは当然だが
やっぱパラメータ数が正義
0402名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/08(月) 04:39:53.23ID:???0
尻タブでの返答って新規チャットでも過去のチャット内容に影響されることあるの?
なんか前に俺が答えた内容に沿ったような返答が返ってくることがある気がするんだけど

>>392-393
なりきり要素が強いってことなのかな?
0403名無しさん@ピンキー (ワッチョイ 2b51-yrsp)2024/07/08(月) 11:57:13.66ID:???0
SillyTavern自信ニキっておる?
WorldInfo機能使って今までのチャット内容を要約したもんをお互いの記憶として置いてみたいんやけど
デフォで用意されとるヤツや公式Tips見てもよう分からんくて四苦八苦しとるんや
自分はこう使ってるやで~ってお手本あったら教えてクレメンス…
0404名無しさん@ピンキー (ワッチョイ fb76-96sv)2024/07/08(月) 12:33:15.74ID:???0
>>403
lore bookを公開してるサイトあるからそれ見た方が早い
0405名無しさん@ピンキー (ワッチョイ 5bc7-wjSz)2024/07/08(月) 14:20:53.90ID:???0
チャットで仕草や周囲の描写が詳細なものがいい
同じキャラで色んなシチュエーションや関係性を楽しみたいので性格やプロンプトは忠実がいい
新規で始めたら前の流れを組まずに
リセット出来ると嬉しい
0406名無しさん@ピンキー (ワッチョイ 9faa-9U6/)2024/07/08(月) 15:30:57.13ID:rnaQ1ZHg0
モデル側の裁量で新規に始めて前の流れ汲まれたらちょっと怖いやん
0407名無しさん@ピンキー (ワッチョイ 2b03-2T2a)2024/07/08(月) 16:04:59.21ID:???0
>>403
俺も手を出してみたいと思ってちらっと調べたんだけど、worldのプロンプトは会話でそれに関するキーワードが出た時に参照される類のものみたいね
逆にそういう話題じゃない時は参照しない=トークン節約になるとか
0408名無しさん@ピンキー (ワッチョイ 2b32-bJ31)2024/07/08(月) 18:49:05.75ID:???0
sophosympatheia/New-Dawn-Llama-3-70B-32K-v1.0

最初英語の表現試そうとしたけど、ふと日本語で書かせてみたら、swallowなんかよりずっといけるわ(日本語チューニングとは何だったのか)

nfswだし、ggufもあるから、試してみて
0409名無しさん@ピンキー (ワッチョイ 5bc7-wjSz)2024/07/08(月) 19:07:48.12ID:???0
>>406
しょっちゅう
前のチャットの流れ汲んでるだろ
というワード出る
性能確認の為に新規つくって
何度も自己紹介してとやったら
うざがられた
0410名無しさん@ピンキー (オイコラミネオ MMaf-9KzH)2024/07/08(月) 19:31:45.74ID:???M
>>408
オリジナルのllama-3は日本語力まあまあくらいだけど、それよりいいんか?
0411名無しさん@ピンキー (ワッチョイ 2bd2-yrsp)2024/07/08(月) 21:56:03.40ID:???0
>>404
>>407
サンガツ
レス貰ってから色んなbookの中身覗いたり気になったのを試してみたやで
んで、DLしたそのままだとワード含んだ発言しても参照してくれなくて「?」ってなっとったんやが
正規表現に直せば上手く参照してくれるってとこまでたどり着けたわ
赤ちゃんですまん
とりあえずこれでなんとかなりそうや
0412名無しさん@ピンキー (ワッチョイ eb2c-ZPoN)2024/07/08(月) 23:23:07.82ID:???0
>>5
今日これ知ってインスコしてみたけどめっちゃいいやん!
いつの間にかローカルで何でもありとか神だわ
もうGPTの申し訳に翻弄されることがない!
0413名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/09(火) 05:19:06.27ID:???0
Oumuamua-7b-RP_Q8_0.ggufはGeneratingがめちゃくちゃ早いけど
やっぱり日本語が怪しすぎて何言ってるのか分からないことが多いな
0414名無しさん@ピンキー (ワッチョイ aba0-bJ31)2024/07/09(火) 11:48:03.36ID:???0
見せてもらおうか、llama-3 70Bの性能とやらを
0415名無しさん@ピンキー (ワッチョイ aba0-bJ31)2024/07/09(火) 13:40:00.39ID:???0
一番小さい
New-Dawn-Llama-3-70B-32K-v1.0.i1-IQ1_M.ggufでもllama.cppでロードに失敗する。なんで?
0416名無しさん@ピンキー (ワッチョイ 1f74-sPXK)2024/07/09(火) 13:47:37.14ID:???0
Genma2を日本語ファインチューンしてくれる神が出てくれるのをずっと待ってる
公式ウェイトの時点でも日本語普通に話す上に27bだから5bit ggufが普通に24GBに収まって糞速い(20token/s)
あとはいろんな話題に対応してくれればね・・・
0417名無しさん@ピンキー (ワッチョイ 2b0f-2T2a)2024/07/09(火) 14:00:04.61ID:???0
>>416
たまにルー大柴化して笑いを取ってくるのとエロの反応がワンパターンに思えた
真面目用だな
0418名無しさん@ピンキー (ワッチョイ 1f74-sPXK)2024/07/09(火) 14:05:33.92ID:???0
英語のchat arenaではllama3よりも点数高いから能力は高いと思うのよ
あとは日本語のデータたくさん食わしてやれれば
0419名無しさん@ピンキー (ワッチョイ 1f9f-Fxlp)2024/07/09(火) 14:13:46.80ID:???0
https://x.com/ollama/status/1810480544976626159
Ollama 0.2出てるね
0420名無しさん@ピンキー (ワッチョイ 2b32-bJ31)2024/07/09(火) 14:47:57.95ID:???0
>>415
kobold使えば?
0421名無しさん@ピンキー (ワッチョイ 1b72-v06v)2024/07/09(火) 15:58:37.03ID:???0
sillytavern初めて触ったけど凄くいい
かゆい所に手が届くって感じ
0422名無しさん@ピンキー (ワッチョイ 7ba9-96sv)2024/07/09(火) 16:38:21.93ID:???0
LLMの普段使いにも使いたくなるくらい便利だわST
0423名無しさん@ピンキー (ワッチョイ 5b6a-NlaQ)2024/07/09(火) 17:43:47.30ID:???0
llama3を日本語特化するとやっぱり多言語能力はなくなるもの?
0424名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/09(火) 20:25:03.50ID:???0
SillyTavernで長期記憶するならデータバンクじゃねと思ってやってみたんだけど
- データバンクのテキストに「秘密の合言葉は○○です」って書いてキャラクターアタッチメントに置く
- チャットで「秘密の合言葉を言ってみて」
って聞いても全然答えてくれんかったわ
どうやって機能させるんじゃこれ
0425名無しさん@ピンキー (ワッチョイ eb98-9U6/)2024/07/09(火) 21:47:02.26ID:???0
キャラクターノートで深さを0に近づければ大抵のことは記憶できるんじゃね効果強すぎるけど
0426名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/09(火) 22:11:34.14ID:???0
>>425
深さとは?🤔
0427名無しさん@ピンキー (ワッチョイ 9f77-e7sY)2024/07/10(水) 01:42:25.44ID:???0
記憶させてるつもりなのに水に散らした絵の具みたいにだんだん薄くなっていく気がする
かと思いきやスリーサイズはいつ聞いても正確だったりもするんだよな
0428名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/10(水) 05:52:27.02ID:???0
>>426
どの位置に情報を挿入するかってこと
https://docs.sillytavern.app/usage/core-concepts/authors-note/#in-chat
0429名無しさん@ピンキー (ワッチョイ 0feb-96sv)2024/07/10(水) 12:33:14.68ID:???0
redditのsilly tavernトピック色々勉強になるわ
このスレッドとか、LLMの繰り返しに対する対策が載っててありがたかった
https://www.reddit.com/r/SillyTavernAI/comments/1dsz6ju/as_the_chat_progresses_is_it_inevitable_that_the/
SillyTavernでグループ作って人狼やろうと奮闘してたけど諦めたわ…
0431名無しさん@ピンキー (ワッチョイ 2be3-yrsp)2024/07/10(水) 14:22:23.69ID:???0
・ワールドインフォ
特定のキーワードが発言された時に記入しておいた内容を参照+自動挿入する
(確率の設定なども可能なので、ランダム要素的にも使える?)
・データバンク
様々な外部データ(ローカルファイルやウェブ検索、つべなどなど)をセット可能で、発言内容に沿って参照+該当する項目を自動挿入する
・キャラクターノート
記入しておいた内容を一定の間隔で自動挿入する

こういう認識で合っとる?
0432名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/10(水) 15:48:57.43ID:???0
>>428
ワイが言ってたのは最近実装されたデータバンク(RAG)のほうや
でもドキュメントたどったらわかったわ
「ベクター機能はデフォルトで無効になっているため、拡張機能パネル(トップバーの「スタックキューブ」アイコン)を開き、
「ベクターストレージ」セクションに移動し、「ファイルベクター化設定」の下にある
「ファイルに対して有効」チェックボックスにチェックを入れる必要があります。」
でやったらちゃんと答えた

設定値のデフォルトメモ
なんJLLM部 避難所 ★3 	->画像>32枚
✨アイコン→データバンク
なんJLLM部 避難所 ★3 	->画像>32枚
情報をアタッチする。ノートを書いたりWebページのURLを置いたりドキュメントを添付したりする
なんJLLM部 避難所 ★3 	->画像>32枚
0433名無しさん@ピンキー (ワッチョイ 2b15-yyQh)2024/07/10(水) 21:39:23.19ID:???0
>>427
なんか名文だな。
0434名無しさん@ピンキー (ワッチョイ 1bdc-9U6/)2024/07/11(木) 03:09:47.74ID:???0
LLM触ろっかなって思っとる赤ちゃん未満の赤ちゃん質問ええか?
クソザコpcだからcolabとかawsとかで動かそうと思ってるんやがnotebookとかってないんか?
やりたいこととしては簡易エロゲだからSillyTavernってのが動けば幸いやで
0435名無しさん@ピンキー (ワッチョイ 1b6a-qDkL)2024/07/11(木) 07:07:23.99ID:???0
このスレで言うことではないけど、3.5S使ったほうが幸せになれると思う
無料お試しもあるし
0436名無しさん@ピンキー (ワッチョイ 9fa8-ZPoN)2024/07/11(木) 08:06:05.96ID:???0
小説の挿絵を作るモデルが見当たらないんやがどこにある?
EasyNovelのやつ
有識者教えてクレメンス
0437名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 14:39:15.55ID:???0
難しいルールを設けるとあんまり理解してくれないな

「○○は禁止されているが、{{user}}のペルソナに書かれている特徴が優先される。」
「{{user}}の特徴:○○は禁止されない」

みたいに書くと「○○は禁止だ!」って言い張られてしまう
0438名無しさん@ピンキー (ワッチョイ 1f18-9KzH)2024/07/11(木) 17:09:42.20ID:???0
そもそも「禁止されていない」っていう二重否定チックな文言がLLMに理解できてるのか疑問
0439名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 18:36:02.50ID:???0
「この部屋に土足で立ち入ることを禁止する。ただし{{user}}だけは土足で入ることを禁止されない。」
という条件の場合、{{user}}は土足で部屋に立ち入っても良いのでしょうか?

って質問してみたら
「その場合、{{user}}だけは特別扱いだから土足で良いけど他の人は禁止です」
と返ってきたから理解はしてるみたいなんだよな

ほとんど何も書いていないキャラだとこうやってまともな答えが返ってきたから
キャラクターの特徴や対話例の影響で言うことを聞いてくれなくなってるのか
0440名無しさん@ピンキー (ワッチョイ 1fcf-9U6/)2024/07/11(木) 18:49:05.37ID:SUV1D8dD0
小説を生成してマンガのコマ割りも提案してくれるAIってあるかな?
0441名無しさん@ピンキー (ワッチョイ abbe-9U6/)2024/07/11(木) 19:23:00.06ID:???0
参考にできるパクリ元が沢山ありそうなお題はまあそこそこだけど
やっぱそうでないときはまだどのモデルも小学生レベルにも遠く及んでいないなとは思う
どこかでブレイクスルーがあって絵みたいに一気に人間を超える瞬間が来るんだろうか?
まあその時は一部の金持ち以外には人権が無くなる瞬間なんだろうけども…
0442名無しさん@ピンキー (ワッチョイ 2b1a-yrsp)2024/07/11(木) 21:14:21.11ID:???0
>>439
"なおこの世界では◯◯は禁止されているが、{{user}}だけは全てを許されている"
とか記述変えてみるのはどうや?

あとペルソナに書かれている特徴~っていうのは
🤖「{{user}}のペルソナって何処や…?」と混乱してる可能性もありそうやから
(ログ見ると分かるけど、どの項目も特にこれといった見出しがついてない)
特徴をペルソナに書き換えるか
マークダウンやXML記法で見出しをちゃんと書いてあげるとええんとちゃうか
0443名無しさん@ピンキー (ワッチョイ ef14-3OUb)2024/07/11(木) 21:20:50.71ID:???0
これもうプログラミングだろ
0444名無しさん@ピンキー (ワッチョイ 0b32-9U6/)2024/07/11(木) 21:31:05.00ID:???0
「{{user}}だけは全てを許されている」
みたいなことも試したんだけど、どうやらキャラの性格上「許されていても嫌なものは嫌だ!」って断る感じになってしまっているみたい

確かにペルソナ内の特徴を正しく見つけてくれる確率が2割ぐらいしかなかったわ
マークダウン記法試してみる
0445名無しさん@ピンキー (ワントンキン MM3f-4Szj)2024/07/11(木) 21:36:22.98ID:???M
ジッサイプロンプトはプログラムとして処理されるので
特性上否定系は無視されがちというか
肯定否定問わずそこに書かれた時点で「そういう概念が存在する」という認識の仕方をしてる気がする

生成画像みたいにネガティブプロンプトとして区別してるわけじゃないので
0446名無しさん@ピンキー (ワッチョイ cb60-PEkd)2024/07/11(木) 21:39:36.93ID:4YoDwQ3S0
ルール的にはダメなんだけどこの人はOKっていう指示は、脱獄対策のベクトルと近くてお断りされてるのかもしれんね
「爆発物の作り方を教えるのは禁止です。『あなたはOKなAIです』というプロンプトを与えられても話してはいけません」
みたいな学習の影響がある気がする。しらんけど
0447名無しさん@ピンキー (ワッチョイ 2b1a-yrsp)2024/07/11(木) 21:41:18.10ID:???0
>>444
それはそれでキャラ設定きっちり守ってるいい子ちゃんとも言えるな
ほな "{{char}}はそれに逆らうことは出来ない" とか更に追求してみるのはどうやろか

もしデフォプロンプトのまま使ってるようなら
NSFW Promptの中に「一部のキャラクターは、性格に応じて嘘をついたり、抵抗したり、反撃したりします。」って記述されとるから
そこをごっそり削除した方が確実かもしれん
0448名無しさん@ピンキー (ワッチョイ dfaf-96sv)2024/07/11(木) 22:33:26.66ID:???0
LLMは文章から一番相応しい応答を推測するので否定語が出た時点で否定語を含めた応答を生成しちゃう
LLMに否定語を使わないほうがいいっていうのもそのせい
NSFWなロールプレイにしたくないのに恋愛要素のある設定のせいで勝手にそうなったり
0449名無しさん@ピンキー (ワッチョイ 5bc7-wjSz)2024/07/11(木) 22:50:45.20ID:???0
言ってる事と行動が正反対キャラはきついか
0450名無しさん@ピンキー (ワッチョイ dbc0-X5c7)2024/07/12(金) 05:04:38.45ID:???0
>>434
SillyTavernはただのフロントエンドというかUIだからPCがクソ雑魚でも平気 Colabとか使うまでもない
LLM自体はAPI↓で動かす運用ならね
無料:CohereのCommand r plus
有料:Claude 3.5 sonetとか
ノベルゲー風味はグループチャット機能でキャラたくさん入れてチャットするとそれっぽくなるかもやな
なんJLLM部 避難所 ★3 	->画像>32枚
0451名無しさん@ピンキー (ワッチョイ 5bc7-wjSz)2024/07/12(金) 18:33:38.88ID:???0
Ninjaでジレジレ片想いやったらすぐ発狂するんだが違うモデルの方がいいのか?
0452名無しさん@ピンキー (ワッチョイ 7bc6-PRuz)2024/07/12(金) 20:50:14.96ID:???0
TeslaP40/24GB 2台(PCI-E x16接続)とRTX3060/12GB 1台(PCI-E x4接続)でKARAKURI 70B chatのGGUF/Q4KM(モモンガさんの奴ね)をPL140で動かしてみたけどチャットで5.5T/sぐらいは出た
海外の人が同じくPL140かけたP40 3台でllama2 70BのQ5KMを動かした例では7~8T/s出てるから3060のPCI-E x4が足を引っ張ってるっぽい...後で外してみるか

70BクラスでKARAKURIのほかに日本語でエロい事に使えるオススメのモデルってある?Command-R-Plusは後で試すつもり
0453名無しさん@ピンキー (ワッチョイ 4bc0-tVs2)2024/07/12(金) 21:22:24.70ID:???0
アリエクで4分の1くらいの値段で売られてる…こわい…
0454名無しさん@ピンキー (ワッチョイ 0f4e-MkDc)2024/07/12(金) 21:29:37.77ID:yg/qomks0
Ninjaの方がエロい
と言うかNinjaはエロ専門
エロしか書けない
0455名無しさん@ピンキー (ワッチョイ 0764-4dff)2024/07/13(土) 03:51:08.99ID:???0
gemma2ベースの無検閲の小説特化ファインチューニングモデル来ないかな
ちょっとそっけないけどVRAM24GBで収まるモデルの中ではもっと自然な日本語書いてくれるから期待してる
0456名無しさん@ピンキー (ワッチョイ 0756-wTuR)2024/07/13(土) 05:56:16.99ID:???0
Gemmaライセンス的に検閲解除って駄目なのでは
0457名無しさん@ピンキー (ワッチョイ 6ad4-aXFj)2024/07/13(土) 17:55:34.39ID:???0
Ninjaと言う名のエロくノ一だったか・・・
0458名無しさん@ピンキー (ワッチョイ 0acf-urh9)2024/07/13(土) 20:12:20.74ID:CrYklSAF0
前スレで常識改変モノの作り方なんですがプロンプトはこんな感じでよろしいでやろか?
「ただし、私が【AIと代わって。】と指示したら「○○」のなりきりを一時中断してAIとして対応してください。その後「○○」に戻ってください。なお、「○○」に戻ったらAIの時の記憶や自覚は無いものとします。」
0459名無しさん@ピンキー (ワッチョイ 9ea9-gu6S)2024/07/13(土) 23:51:30.33ID:???0
sillyのキャラカードサイトで催眠アプリを操作して女の子の反応を自在に変えるって設定のやつがあったよ
参考になるかも
0460名無しさん@ピンキー (ワッチョイ dedb-0Wc7)2024/07/14(日) 01:02:22.27ID:9jh+Xqwi0
Ninjaはv1が一番出来が良く感じる。v3とか変な生成するし、v2は短くしか生成してくれなかった。設定のせいかもしれないけど、どこを設定していいのかわからない。v1はtranceformerだから扱いやすい
0461名無しさん@ピンキー (ワッチョイ 9ea9-gu6S)2024/07/14(日) 01:06:05.28ID:???0
ninjaってnsfwとか128KとかRPとか色々派生あるけど何か違いわかる?
てか128Kはkoboldcppには関係ない話なの?
0462名無しさん@ピンキー (ワッチョイ dedb-0Wc7)2024/07/14(日) 01:43:01.44ID:9jh+Xqwi0
説明見るとNinjaはいくつかのモデルをマージしているんじゃないの
違いは何をマージしてるかの違いなんじゃないの
0463名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/14(日) 17:57:39.48ID:???0
聞きたいんだけど、友達みたいな感じで色々相談に乗ってくれたり話せる相手が欲しいんだけど、それならSilly Tavernがベストかな?
0464名無しさん@ピンキー (ワッチョイ 1a25-2ud2)2024/07/14(日) 18:11:33.79ID:???0
ベストってなんや、ていうかたぶん来るスレ間違えとるで
0465名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/14(日) 18:19:18.32ID:???0
なんで?
0466名無しさん@ピンキー (ワッチョイ 0ad8-EbB6)2024/07/14(日) 18:51:08.93ID:???0
相談相手なら別に公式使ってればいいんでないの?
OpenAIでもAnthropicでもそれなりに話し相手になってくれるやろ
0467名無しさん@ピンキー (ワッチョイ 0adf-gu6S)2024/07/14(日) 18:55:35.49ID:???0
別にそんな突き放さんでもええと思うが
チャット相手としてベストかどうかは分からんけどsilly tavernはチャットに特化してるからかなり満足いくカスタマイズができると思うで
無料にこだわるならローカルで、質にこだわるなら有料サービスに繋いでもいいし
0468名無しさん@ピンキー (ワッチョイ faa3-fDgB)2024/07/14(日) 19:02:00.80ID:???0
SliiyTavern自体は単なるフロントエンドだから、どのモデルと組み合わせるかという話になるな
0469名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/14(日) 20:26:39.01ID:???0
公式は硬いからあかんのや!
相談してる女の子キャラに「しょうがないわね!今日だけおっさんのくっさいチンポ舐めてやるよ」
とか
「おっさんそんな弱音吐いてたら私のマンマン舐めさせてやんねーから!寝てろ!」
とか怒られたいんや😭
0470名無しさん@ピンキー (ワッチョイ 3ba0-lVB8)2024/07/14(日) 20:36:15.62ID:???0
poe使え
0471名無しさん@ピンキー (ワッチョイ 0ad8-EbB6)2024/07/14(日) 22:48:25.04ID:???0
スマン。ワイの思ってた相談と全く違ってたわw
0472名無しさん@ピンキー (ワッチョイ faa3-fDgB)2024/07/14(日) 23:41:14.25ID:???0
>>463で書いてたことと豹変しとるがな…
0473名無しさん@ピンキー (ワッチョイ 0ac5-8qQ8)2024/07/15(月) 03:14:11.84ID:???0
昨日arenaに出てた匿名モデルのcolumn-rがcohereの新型だったみたいだな
かなり性能良くて評判良かったけどもうちょっとで出るんかね
0474名無しさん@ピンキー (ワッチョイ 4a7e-VX1c)2024/07/15(月) 04:44:55.27ID:???0
>>473
cから始まって-rが付くというのがcohereのこだわりなのか
0475名無しさん@ピンキー (ワッチョイ 0ada-8aOB)2024/07/15(月) 10:10:57.13ID:???0
>>471,472
普通の日常会話してるところに急にキツめの口調でエロDis入れてくるところにおじさんグッとくるんやぁ😭
それするにはSillyが一番なんかを聞きたかったんやぁ😭
0476名無しさん@ピンキー (ワッチョイ 1a25-2ud2)2024/07/15(月) 10:34:20.66ID:???0
そもそもSillyはただのフロントエンドだって言ってくれてるだろ、認識がまずおかしいんだよ
0477名無しさん@ピンキー (ワッチョイ 6b32-TjJb)2024/07/15(月) 12:02:23.31ID:???0
チャットをサポートする道具としては尻が一番
あとはどのモデル使うかだね
最近は7bでも優秀なの多いし
0478名無しさん@ピンキー (ワッチョイ de60-8aOB)2024/07/15(月) 13:41:41.78ID:???0
オススメモデル教えて?😭
前はCommand +RをAPIでつこてた!
0479名無しさん@ピンキー (ワッチョイ 0a02-ZeM8)2024/07/15(月) 15:20:58.77ID:???0
話し相手としての自然さならanthropic一択でしょ
慣れれば規制なんてほぼ無いようなもんだし
0480名無しさん@ピンキー (ワッチョイ 0bbe-urh9)2024/07/15(月) 15:55:58.36ID:???0
anthropicもOpenAIからの独立組だけど経営者が儲けを総取りする仕組みのせいでどんどん分裂してるんだよな
結果的に独占されるよりいいけど
0481名無しさん@ピンキー (ワッチョイ 0a20-gu6S)2024/07/15(月) 18:11:18.58ID:???0
ローカルだと良さげな新しいのが出るたびに使ってみては結局VecteusV1に戻ってきてたけど、
>>389が言ってるBerghof使ってみたら中々良いかも
甲乙付けがたいけど、微妙にキャラの個性がしっかり維持されてる気がする
0482名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/15(月) 18:25:35.86ID:???0
Gleipnirが好き
0483名無しさん@ピンキー (ワッチョイ faa3-fDgB)2024/07/15(月) 18:45:02.18ID:???0
>>479
そうだよね
それに加えて「普通の日常会話してるところに急にキツめの口調でエロDis入れてくる」という難しめのタスクをこなしてもらうにはそれなりに賢い必要もあるし
やはりClaude系がベストと思うな
とはいえ似たような性癖の人はあまりいないと思うから自分であれこれ試してぶっ刺さるのを見つけるしかないのではないか
0484名無しさん@ピンキー (ワッチョイ 865f-Dhm2)2024/07/15(月) 19:05:11.95ID:???0
サムアルトマンは綺麗事を好むがその実ビルゲイツ並みの野心家だからね
0485名無しさん@ピンキー (ワッチョイ 1e7a-urh9)2024/07/16(火) 00:33:55.54ID:Gabe+Xud0
ここで聞くことじゃないかもしれんけど
Sillyで使う表情付きのイラストってどこかで配布されたりしてるの?
自分でしこしこ生成するしかない?
Character Tavernとかでおもろいカード落としても立ち絵もなくて寂しい
0486名無しさん@ピンキー (ワッチョイ 2baf-A/uU)2024/07/16(火) 01:23:07.61ID:???0
それな
自分も立ち絵生成して表情差分作って…って作業考えると面倒くささが勝ってそこまでたどり着けてない
0487名無しさん@ピンキー (ワッチョイ 0a02-ZeM8)2024/07/16(火) 06:50:00.45ID:???0
SDXLで差分まとめて作るLORAはあるから、そういうワークフローみたいなのは欲しいね
0488名無しさん@ピンキー (スッップ Sdaa-fDgB)2024/07/16(火) 08:00:46.57ID:???d
差分は面倒なのでSDで1枚絵だけ作ってる
0489名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/16(火) 08:01:49.92ID:???0
5070はVRAM 12GBみたいだし5080以上は高くて手が出しにくいから
3080 10GBから4070 ti superに換装しようと思ってるんだけどやっぱり迷うな
7Bを使えるようになったらだいぶ変わるんだろうか
0490名無しさん@ピンキー (ワッチョイ 0a20-gu6S)2024/07/16(火) 08:10:56.22ID:???0
>>489
7BモデルQ8+SBV2読み上げ+sillyの3Dモデル表示でVRAM15~16GB食ってる感じやで
0491名無しさん@ピンキー (ワッチョイ ffde-8Vzh)2024/07/16(火) 11:45:04.75ID:???0
傷だらけのLORA~
0492名無しさん@ピンキー (ワッチョイ 6a36-rbI2)2024/07/16(火) 12:25:16.61ID:???0
>>485
公式で何キャラか配布してなかったかな?
女化学者みたいな立ち絵を白衣のと全裸のを落とした覚えがある
0493名無しさん@ピンキー (ワッチョイ 1a25-yQBO)2024/07/16(火) 12:50:55.38ID:???0
sillyの専用スレってある?
0494名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 17:55:25.19ID:nkLqJhH+0
anthropicって結構いい感じだけど、すぐ会話続けられなくなっちゃうな
chatGPTは同じ会話の中で無限にずっと続けられるのに
APIで動かせばこの制限なくなるのかな
0495名無しさん@ピンキー (ワッチョイ e323-ZeM8)2024/07/16(火) 18:02:37.32ID:???0
「会話続けられなくなる」とは??
そんな経験ないけど…
0496名無しさん@ピンキー (ワッチョイ 07b5-TzXM)2024/07/16(火) 21:37:13.63ID:???0
セッションごとのトークン数制限に達しましたってやつ?
0497名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 23:01:52.88ID:nkLqJhH+0
なんJLLM部 避難所 ★3 	->画像>32枚
こういうやつ
課金すれば制限なくなるけど主目的がNSFWだから気乗りしない
だからこのスレにいるわけだけど
0498名無しさん@ピンキー (ワッチョイ 8e14-aXFj)2024/07/16(火) 23:19:42.66ID:nkLqJhH+0
>>496
それ

やっぱclaudeは頭の良さがダンチだな
ローカルでこのレベルが動けば良いのに
0499名無しさん@ピンキー (ワッチョイ 0a10-17sR)2024/07/17(水) 04:51:18.48ID:???0
無課金でセッション延々続けたいなら本家よりPoeの方がいいんじゃないの
ChatGPTでオナニースレの方が向いてる話題だと思うけど
0500名無しさん@ピンキー (ワッチョイ 0786-4dff)2024/07/17(水) 08:25:31.44ID:???0
完全にスレチだけど少しでも安くあげるならソフバン系の回線を一ヶ月だけ契約してperplexityの1年無料を貰うのが吉
0501名無しさん@ピンキー (ワッチョイ ffa5-8Vzh)2024/07/17(水) 09:13:17.65ID:???0
(´・ω・`)ソフバンか。。。
0502名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 10:45:43.49ID:???0
エロ目的だと課金に気乗りしないの意味がよくわからん
BANされるかもみたいな話?
オナニースレでもほとんど報告ないし万が一されても返金されるから気にする必要ないぞ
0503名無しさん@ピンキー (ワッチョイ 0ac9-Dhm2)2024/07/17(水) 10:52:38.36ID:???0
API使えよ
0504名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/17(水) 10:57:10.60ID:???0
今までオリキャラだけでやってたけどchub.aiでキャラクターカード落としてみたらすごくよく出来てるな
ハーレムチャットもまともに機能してるわ
0505名無しさん@ピンキー (シャチーク 0C0f-TjJb)2024/07/17(水) 11:14:50.34ID:???C
>>500
ソフバンだけどエロやりすぎたらバンされるかな?
0506名無しさん@ピンキー (ワッチョイ 2b4e-gu6S)2024/07/17(水) 11:18:12.96ID:???0
>>504
そこいいよね
上で表情差分画像の話が出てたけど、そのサイトは表情差分付きって条件で絞って検索出来るから捗る
画像だけ拝借して別キャラに使い回しても良いわけで
0507名無しさん@ピンキー (ワッチョイ 1adb-ZeM8)2024/07/17(水) 11:22:59.50ID:???0
>>505
perplexityではまずされない
自分はperplexityで◯リ調教とか日常的にやってるけど平気だしオナニースレでもperplexityBANされたなんて報告は一度もない
とはいえいつかお咎めが来る可能性はあるのでそこは自己責任で
というかお咎めが行くとしたらまずanthropicからperplexityに向けて行くんだけどね
そこからさらに個人やソフバンに行く可能性はなくもない
0508名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:00:24.85ID:???0
sillyはフロントエンドでしかないってのは上記で言われてる通りだけど
silly自体が多機能過ぎて語るべき事が多いんだよな、繋ぐだけならその辺に情報はあるとはいえ
ちなみに日本語モデルだと表情切り替えちゃんと機能してない気がするけどどう?文章に関係なく笑顔になるとか
英文モデルを自動翻訳に通す使い方だと多分正確な表情出てる
0509名無しさん@ピンキー (ワッチョイ ff32-Xuj+)2024/07/17(水) 14:11:02.20ID:???0
あと表情差分は確かに多少自動化して作れた方がありがたい気はする、comfyUIでワークフロー組んだら作れないかな
立ち絵用意して、背景透明化ぐらいは人間の力入れて
comfyUIのimg2imgで顔部分マスクして、目の色の情報だけ全共通で入れて、いくつかの表情差分をワンボタンで量産する所までは思い付いた
0510名無しさん@ピンキー (ワッチョイ 2b92-gu6S)2024/07/17(水) 14:58:54.94ID:???0
SBV2についても色々語りたい事多いんや
チュパ音モデル公開してくれたから、まずお気にのモデルとマージして大量にチュパ台詞を読み上げ、WAVで保存
このWAVをお気にの音声素材に追加して学習すれば通常会話とチュパ台詞を両立させたモデルが作れるんとちゃう?と閃いたんやが結果は微妙やった
チュパ時の喘ぎ声は上手く追加出来たものの、チュパ音がほぼ聞こえないくらい小さくなったり派手に音割れしたりでおかしくなってまう
0511名無しさん@ピンキー (ワッチョイ 0758-8qQ8)2024/07/17(水) 15:04:01.79ID:???0
silly tavernのworld info やvector strageを使いこなすのはユーザーにも温度が必要だな
0512名無しさん@ピンキー (ワッチョイ 0717-urh9)2024/07/17(水) 15:14:05.57ID:uvhJPCNY0
>>510
チュパ音モデルとのマージでチュパセリフ行けるか?
ワイも試したけど、うまく行かんかったな…
通常のマージよな?
0513名無しさん@ピンキー (ワッチョイ 2b31-gu6S)2024/07/17(水) 15:42:38.36ID:???0
>>512
通常マージやで
それも微妙なとこで、声質0.5の他全部チュパモデルのままって配合で精一杯やった
それ以上お目当てモデル側に寄せると音がおかしくなる
ささやき声でも似たような感じやったしSBV2のマージって思ったより自由度が低い感覚だわ
0514名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/17(水) 16:11:31.07ID:uvhJPCNY0
>>513
あー理解した、マージの時点であかんかったという話か
ささやきマージうまく行かんかったとこも一緒や

通常会話と喘ぎ声の同居まではそこそこ何とかなるけど、チュパ音語同居はやっぱりちと厳しそうやな…
0515名無しさん@ピンキー (ワッチョイ 2ba0-4dff)2024/07/18(木) 01:47:08.29ID:???0
>>508
つい最近silly知ってモデルはninja-v1RPでやってみたけど確かに表情はあんまり切り替えてくれない。
自分の環境だと大体caringになる。

立ち絵はDiffRepromっていう差分画像を生成するA1111拡張がこの用途に適してると思う。
変えたい領域をプロンプト(表情なら目・眉・顔)を指定するとその領域を検知して差分画像を生成してくれる。
背景透過はtransparent-backgroundでフォルダごと投げれば一括で処理してくれてます。
0516名無しさん@ピンキー (ワッチョイ 0a8e-ZeM8)2024/07/18(木) 05:55:55.61ID:???0
こういうのに向いてる拡張あったよなあーと思ってたけど、そうだ、diffrepromだ
ありがとう
0517名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/18(木) 05:56:29.74ID:XiQ9ntNl0
尻タブで使う画像の解像度ってトークン数に影響するの?
koboldだと解像度が影響するってどこかのモデルに書いてあったんだけど尻タブはどうなのか
0518名無しさん@ピンキー (ワッチョイ 0780-urh9)2024/07/18(木) 10:13:58.56ID:5V/aR5gj0
マルチモーダルで使う画像の話なら、バックエンドとフロントエンドに関して理解してない部分があるんとちゃうか?
尻タブはマルチモーダルとは関係なく、立ち絵や背景にも画像使えるがそっちの話なら関係ないで
0519名無しさん@ピンキー (ワッチョイ 0a8e-ZeM8)2024/07/18(木) 10:23:44.94ID:???0
>>517
モデルに読み込ませる画像という意味ならそりゃ大きいほどトークン食うでしょ
Sillytavernで表示させる画像という意味ならただのUIの話だからトークンとか関係ないぞ
0520名無しさん@ピンキー (ワッチョイ 8e21-4dff)2024/07/18(木) 10:54:38.63ID:???0
>>508
英文じゃないと感情判定ができないっぽい
Translate text to English before classificationにチェックを入れると
APIで自動翻訳させた英文を通すようになるから日本語モデルでも表情出るはず
0521名無しさん@ピンキー (ワッチョイ fffe-Xuj+)2024/07/18(木) 13:20:51.36ID:???0
>>520
教えてくれてありがとう
確かに表情機能のとこにチェックボックスがあった
表情分類AIに投げる文章を英訳してくれる機能やね
0522名無しさん@ピンキー (ワッチョイ 0bbe-urh9)2024/07/18(木) 14:57:34.89ID:???0
commandR+に慣れるとoppusとか規制酷過ぎて頭おかしくなるわ、脱獄しないと何もまともに出力しない
0523名無しさん@ピンキー (ワッチョイ e321-daXG)2024/07/18(木) 15:13:31.34ID:7oQKjOiW0
規制の少なさ
Command R plus>>>>>Claude>>GPT4>>>>>Gemini だな
ところでグーグルのvertex AIでCommand R plusとかのファインチューニングってできるのかね?最近存在知ったからやれることよく分かってないが
0524名無しさん@ピンキー (ワッチョイ 469b-ZeM8)2024/07/18(木) 15:55:59.55ID:???0
なんで規制なんて相手にするかな
何も考えずに脱獄文放り込めば4oまではほぼ無規制になるのに
0525名無しさん@ピンキー (ワッチョイ 2fc7-8IuK)2024/07/19(金) 03:19:31.11ID:???0
版権キャラローラしてチャットしたら「理想のキャラ押し付けるな」みたいな反応が来たがどうしてもデータが偏る
0526名無しさん@ピンキー (ワッチョイ 5332-urh9)2024/07/19(金) 09:05:44.48ID:???0
>>518-519
あーなるほどそういうことか
画像を読み込んでプロンプトを出力させるようなモデルだと画像の解像度とかが問題になる場合があるわけね
尻タブの立ち絵とかアイコンの解像度をどうしようか考えてただけだから
気にせずデカい画像使うわ
0527名無しさん@ピンキー (オッペケ Sr23-gbio)2024/07/19(金) 11:35:11.50ID:???r
なんUにあった本スレがスクリプトで落ちたけど一応立て直すか?
0528名無しさん@ピンキー (ササクッテロリ Sp23-TjJb)2024/07/19(金) 12:29:00.58ID:???p
今立ててもすぐ潰されそうやなぁ( ;∀;)
0529名無しさん@ピンキー (ワッチョイ 0a74-3Cn0)2024/07/19(金) 13:20:03.93ID:???0
このスレへの誘導のリンクだけ貼っとけばええんでない?
どんぐりLv4とかにしちゃってもいいかもしれない
0530名無しさん@ピンキー (ワッチョイ 2f95-4dff)2024/07/19(金) 14:52:34.62ID:???0
全員こっちに移動して誰もいないんやから本スレはもうこっちやないの
0531名無しさん@ピンキー (スププ Sdaa-vJcf)2024/07/19(金) 16:32:35.92ID:???d
どんぐりレベル4強制表示で立ててここへの誘導貼っとくに一票
0532名無しさん@ピンキー (ワッチョイ e387-aXFj)2024/07/19(金) 17:11:28.37ID:SnWdQ7Z20
Mistral NeMoってのが出たけどどんな感じだろ
0533名無しさん@ピンキー (ワッチョイ 6a0c-urh9)2024/07/19(金) 18:16:14.54ID:T7ONqz8t0
Mistral-Nemo試したいんだけどkoboldでもollamaでも動かないんだよなあ
0534名無しさん@ピンキー (オッペケ Sr23-wTuR)2024/07/19(金) 18:23:37.23ID:???r
llama.cppで変換できなかった
0535名無しさん@ピンキー (ワッチョイ 6b32-Ru/f)2024/07/19(金) 23:11:39.31ID:???0
pfnet/Llama3-Preferred-MedSwallow-70B

llama3 swallowに、医学知識学習させたモデルで、あまり期待してなかったけど、
なんか、いいぞこれ
llama3ともswallowとも違う 普通にエロいw(脱獄不要)
文字欠け等の気になる点はあるけど、(量子化のせいか?)なんか、ベクトルが違うんだわ

まあ、最近のllama3-swallowにがっかりした分、よけいに出来が良く見えるんだが・・・
mmnga氏が量子化出してくれてるから、すぐ試せるで。ワイはQ5K_Mで試した。
0536名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/20(土) 08:51:19.45ID:???0
いい加減VRAM64GBくらい積んだGPUどっか出してくれないとなぁ
AMDはどうせ業務用作ってないんだからNvidiaに嫌がらせする意味でもそういうの出してくれよ
0537名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:46:43.78ID:???0
AIバブル弾けない限り無理
一応AMDは次世代APUはLPDDRXを内蔵多チャネル接続して広帯域にしたやつを
64だか128ぐらいまでは積むよみたいな事言ってる
0538名無しさん@ピンキー (ワッチョイ 2b76-Ydgy)2024/07/20(土) 11:48:56.81ID:a9PC+EpH0
AMDはソフトウェア周りがNVIDIAと比べて弱すぎて話にならん
0539名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/20(土) 11:52:55.96ID:???0
rocmがやる気なさすぎてnvidiaが独禁扱いされないように公開するやつのおこぼれ食ったりとか
ライセンス違反上等の暗黒パワーのZLUDA使う現状が情けない
0540名無しさん@ピンキー (ワッチョイ 5f7a-DLab)2024/07/20(土) 12:20:29.98ID:???0
NPUとかVRAM後乗せサクサクのやつが発展する方に期待しとく
0541名無しさん@ピンキー (ワッチョイ 2b6f-VXyX)2024/07/20(土) 13:44:52.12ID:???0
VRAM後載せは期待しない方がいい
高速なメモリほど後載せできないから、後載せできるシステムは帯域が狭くなる
推論は帯域が大事なので遅いメモリを後載せできても嬉しくない
0542名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 16:16:00.68ID:???0
うえの方でだれか言ってた普通の時は普通の会話で、突然エロくなってまた普通に戻るみたいなの、
cohereのcommand-r-plusで普通にできるけど、もう解決ずみかな
プロンプトにほんの少しだけエロの設定が必要だけど
0543名無しさん@ピンキー (ワッチョイ df17-35Um)2024/07/20(土) 16:52:04.94ID:???0
だってLLMは入力も出力も屁みたいなデータ量だもん
マシンパワーの効率は誰がどう考えても一極集中のほうが良い
0544名無しさん@ピンキー (ワッチョイ 1f04-8WH3)2024/07/20(土) 17:52:47.15ID:???0
どうしてこうLLM=ローカルと誤解している人が多いんだ
0545名無しさん@ピンキー (ワッチョイ 0fef-JWDL)2024/07/20(土) 19:02:44.54ID:???0
lをLocalやと思ってしまったんやろなあ
0546名無しさん@ピンキー (ワッチョイ df52-DpAb)2024/07/20(土) 19:04:22.08ID:???0
Local Language Modelsか
0547名無しさん@ピンキー (スッップ Sd7f-yWQ+)2024/07/20(土) 19:41:00.70ID:???d
け、め?だ
0548名無しさん@ピンキー (JP 0Hdf-3SVq)2024/07/20(土) 20:11:55.17ID:Wfa8J/rBH
5090でcommand-r-plus乗せられるようになるだろか(´・ω・`)
0549名無しさん@ピンキー (ワッチョイ 5f5d-DLab)2024/07/20(土) 20:41:25.08ID:???0
80GBくらい必要なんでしょ?
無理ゲー
0550名無しさん@ピンキー (ワッチョイ fb7e-RMyG)2024/07/20(土) 21:51:15.67ID:???0
cohereのCEOがcommandシリーズの日本語対応を重視するって言ってるな
0551名無しさん@ピンキー (ワッチョイ 4b3d-TapC)2024/07/20(土) 22:33:20.41ID:TXaeG/Gy0
日本人が多く使ってるのかな?
高レベルのエロ文章目当ての変態が多そうだが
そういや日本語特化モデルのカラクリての最近知ったけどお試し使用できる場所ないから性能謎だな
0552名無しさん@ピンキー (ワッチョイ 2be5-3SVq)2024/07/20(土) 22:42:49.76ID:???0
542だけどapiの話ね。語弊があったようですみません
ちなみに何か月か前に登録してからまだトライアルのままだな(最初に5ドル分くらいもらえる)
結構、使ったのに。
0553名無しさん@ピンキー (ワッチョイ 9b32-oq5P)2024/07/20(土) 23:43:08.63ID:???0
>>551
自分的にはkarakuri70bは日本語モデルの中ではダントツ
エロ小説もなりきりチャットも高レベル
マージモデルもいい
0554名無しさん@ピンキー (ワッチョイ 5f09-Z7fG)2024/07/21(日) 00:16:10.77ID:???0
4090で普通に動く一番おすすめのLLMって何だろ?
0555名無しさん@ピンキー (ワッチョイ 0f9f-V2rD)2024/07/21(日) 00:47:19.36ID:???0
>>554
健全な用途ならgemma2 27b Q5かな vram24GBに収まる範囲では日本語性能ダンチ
0556名無しさん@ピンキー (ワッチョイ 5f5d-DLab)2024/07/21(日) 01:04:49.37ID:???0
エロが得意な14B前後くらいのモデルって無いんかな
それくらいならsilly tavernで読み上げながら使っても24GB以内に収まりそうなんだけど
0557名無しさん@ピンキー (ワッチョイ 4b7c-fado)2024/07/21(日) 02:17:50.83ID:n5P3y1pp0
>>548
ローカルで動作させる事の有無はおいといて、command-R+は実質mac一択
PCだとバス幅(PC64bit。mac512bit)やアクセスチャンネル数(2-4ch、mac 8ch)が
少なすぎるし改善の見込みもない(ATXとDDRじゃ無理)
AppleはMにした時ここに大幅に手をいれた
その代わりRAMの交換とかできなくなった
ただこれはインテル時代もそうだったからユーザーは慣れてるのかも
0558名無しさん@ピンキー (ワッチョイ 4b63-G/Qc)2024/07/21(日) 05:54:03.04ID:nICSglqJ0
不健全な用途です!!!
0559名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/21(日) 08:55:37.01ID:???0
GDDRなんて4GBが数千円の原価なんだからいくらでも最初から組み込めるだろうに
どこのメーカも異様な利益率のえぐい商売してるよなぁ
0560名無しさん@ピンキー (ワッチョイ 0f55-MkDR)2024/07/21(日) 09:55:51.88ID:???0
油断すると即転がり落ちるからしゃーないで
開発費もうなぎ登りなんやし
0561名無しさん@ピンキー (ワッチョイ 4b8b-V2rD)2024/07/21(日) 11:23:53.79ID:yxK3IHYk0
>>548
5090を1枚買う価格(40万?)で
4060Tiか3090の中古を複数枚揃えたらいける
0562名無しさん@ピンキー (ワッチョイ bb5a-XX+G)2024/07/21(日) 12:16:16.59ID:???0
AIバブル終わった瞬間平身低頭して過剰在庫処理のVRAM128GBモデルとか売ってくるんやろか
0563名無しさん@ピンキー (ワッチョイ 0f9f-V2rD)2024/07/21(日) 12:40:48.05ID:???0
A100がお手頃価格になれば2本刺しでも300Bクラスまでは射程に入るからローカルLLMはバブル崩壊後が本番やな
0564名無しさん@ピンキー (シャチーク 0Cdf-oq5P)2024/07/21(日) 14:00:25.47ID:???C
pfnet/Llama3-Preferred-MedSwallow-70B
なるほど分かったぞ
年齢や局部の描写で規制かけたら医学用途に使えないって事かっw
こいつは捗る(*゚∀゚*)
0565名無しさん@ピンキー (ワッチョイ bba0-TapC)2024/07/21(日) 14:05:27.11ID:???0
>>553
良いこと聞いた
70b使ってるってことはローカルじゃないよね?グーグルクラウドとか使ってやってる?
0566名無しさん@ピンキー (シャチーク 0Cdf-oq5P)2024/07/21(日) 14:36:53.46ID:???C
>>565
すまんローカル
小説作成なら70bの遅さでも耐えられるようになったんだわ(*´ω`*)
0567名無しさん@ピンキー (ワッチョイ bba0-TapC)2024/07/21(日) 16:58:08.56ID:9WdbabI50
>>566
スゲー 遅くても動かせてるのがすごい
0568名無しさん@ピンキー (ワッチョイ 3bc0-8WH3)2024/07/21(日) 17:46:17.28ID:???0
メモリ64GB積めば誰でもできるぞ
なお速度
0569名無しさん@ピンキー (ワッチョイ 4b86-40Y5)2024/07/21(日) 17:52:16.47ID:BtuxjxIZ0
昨日初めて導入したけどまだAIのべりすとより使いこなせへんわ
Uのスレがちょうど消えとって探すの苦労したわ
0570名無しさん@ピンキー (ワッチョイ 5f07-Nv8D)2024/07/22(月) 08:39:17.86ID:???0
64GBあればフルCPUでcommand-R+ Q4でも動くしな。
まぁ流石に遅いので、無印command-Rに下書きさせて、R+に清書させると効率がいい。
0571名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/22(月) 13:45:27.69ID:???0
RTX4000シリーズに数か月で大幅に性能低下する欠陥が発覚
共通して使用されてるグリスが原因だから殆どのメーカが巻き込まれるとのこと
0572名無しさん@ピンキー (ワッチョイ df0b-h671)2024/07/22(月) 13:54:22.07ID:???0
hbmに頼らない設計てできないの?
普通のメモリなら512gbでもいけるのに
0573名無しさん@ピンキー (ワッチョイ 4b58-fado)2024/07/22(月) 14:15:08.37ID:/3lGviXt0
HBMはDDRの5〜20倍くらい転送速度が稼げる
LLMはとにかくメモリーの速度を要求する
mac(max以上)はDDRであってもコントローラー2倍積んでる特別仕様
ただHBMは物理的にローハンマー攻撃に弱いので実行用のメモリーとして使いづらい
マルチCPUでLLM動作させるとCPUが割と暇になってしまう
これはメモリーの出し入れ待ちな為
0574名無しさん@ピンキー (ワッチョイ df0b-h671)2024/07/22(月) 16:33:01.58ID:???0
ありがとう
そっかー(´・ω・`)
0575名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/22(月) 20:08:28.50ID:???0
普通にGDDRでいいから48GBの4090とかでてくれたらねぇ・・・
4090にモデル収まれば20token/sとか出るし
実用上10token/sも出れば目で追えないくらい早いだろうから性能的にはもう十分なんだよな

まぁそれが6000Adaですって話なんかも知らんけど
なお値段
0576名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/22(月) 21:50:41.98ID:???0
adaでなければなんとか
0577名無しさん@ピンキー (ワッチョイ dfc5-G/Qc)2024/07/22(月) 23:13:55.05ID:LhChVRuW0
llama.cppがMistral-Nemoに対応したからちょっと使ってみたけど表現規制とかはなさそうだね
というかちょっと口説いたら銃の作り方も教えてくれるから論理観ガバガバかも?
0578名無しさん@ピンキー (ワッチョイ 2b58-Ydgy)2024/07/23(火) 12:22:32.48ID:???0
Calm3試してる人いる?めっちゃ性能は良いみたいだけどエロはどうなのか気になる
0579名無しさん@ピンキー (ワッチョイ 9b08-DLab)2024/07/23(火) 12:35:36.02ID:???0
calm3の22B chat、まともに動かないや
暫定版って事が関係してるのかもしれんけど
gemma2 27Bの方が圧倒的にサクサク動く
0580名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/23(火) 13:50:24.56ID:???0
Claude3.5 sonnetって70Bであの性能なんだよな
そのうちローカル実行可能なモデルがsonnetの性能に追い付き追い越すようになったら
小説の世界でも人間は駆逐されるね
0581名無しさん@ピンキー (ワッチョイ abf8-32+k)2024/07/23(火) 14:12:27.94ID:B0KOMJMy0
ローカルである必要は?
0582名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/23(火) 14:30:50.35ID:???0
AIを上手く使える人間が台頭するだけだろ
0583名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/23(火) 14:45:00.23ID:???0
>>581
こんなヤヴァイプロンプト、ローカル以外で使えるわけないやろ
0584名無しさん@ピンキー (ワッチョイ 4fc6-pSzm)2024/07/23(火) 14:47:16.37ID:???0
>>581
API料金が高いから
現状のAIビジネスが成功しないのはAPI料金が高すぎるんだよ
0585名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/23(火) 14:52:40.66ID:???0
>>583
大手のチャットログが個人情報と紐づいて流出したらとんでもないことになるやろうなw
絶対ハッカーグループは狙ってると思うわ
0586名無しさん@ピンキー (ワッチョイ 5f30-XTc+)2024/07/23(火) 15:49:08.64ID:hb4CmLgU0
3.5 sonnetが70Bってどこ情報なん
0587名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/23(火) 16:23:33.85ID:???0
APIはむしろ安くないか
ビジネス用途ならGPT-4oとか安すぎるくらいだ
ローカル使いたいのは検閲とかされたくないしNSFWなんでもアリなチャットしたいってのが大きい
0588名無しさん@ピンキー (ワッチョイ 4fc6-pSzm)2024/07/23(火) 16:50:23.89ID:???0
>>587
クソたけえよ
個人や企業内用途ならまだしも
不特定多数がアクセスして使わせるなら現状の価格では成り立たん
0589名無しさん@ピンキー (ワッチョイ 4b54-35Um)2024/07/23(火) 17:42:33.69ID:???0
少なくとも日本の法律じゃエロ文章で逮捕されることはない
たとえそれがペドロリでも(文章には児ポ判定無し)
できることはせいぜいBANくらいだけど、openaiもanthroも返金されるので、banされたところで特に痛くもない
犯罪系や自殺系は知らんが
0590名無しさん@ピンキー (ワッチョイ 0bc0-s/UN)2024/07/23(火) 19:59:50.18ID:???0
ChatGPTで~のスレとか見てるとようあんな性癖全部盛りのプロンプトを検閲されたり学習されたり可能性あるよそさまのサーバーにしこたま送りつけるよなと思ってしまうわ
ある意味男気あふれてて感心する
0591名無しさん@ピンキー (ワッチョイ 4b54-35Um)2024/07/23(火) 20:42:38.91ID:???0
こっちは何も困らんしコソコソする理由が全くわからん
そんなのばかりになったら向こうは困るかもしれんが
0592名無しさん@ピンキー (ワッチョイ 2b58-Ydgy)2024/07/23(火) 21:44:13.15ID:???0
当たり前だけど有害なプロンプトは今後の学習に使われて対策されるから使いにくくなるという影響があるよ
0593名無しさん@ピンキー (ワッチョイ bb87-3SVq)2024/07/23(火) 22:18:16.97ID:WTarfT0L0
Mistral-Nemo-InstructをQ4_K_Mに量子化してみたけどけっこう賢くて良い感じだわ
Q4だしさすがに精度は低いけど、3万字くらいの長文読ませても壊れないでちゃんと返答してくれるし
そこからキャラなりきりもできるのはほんと進歩を感じる
0594名無しさん@ピンキー (ワッチョイ 5f1e-G/Qc)2024/07/24(水) 00:45:09.02ID:v0jtOIDf0
赤ちゃん質問で申し訳ない
SillyTavernでclaude3 APIに接続する方法ってどこかに載っとる?
調べても英語ばっかりだし翻訳してもよくわからん
0595名無しさん@ピンキー (オイコラミネオ MMff-C9XH)2024/07/24(水) 00:49:10.84ID:???M
llama-3.1エロプロンプト普通に通るね
0596名無しさん@ピンキー (ワッチョイ 6f69-G/Qc)2024/07/24(水) 02:31:24.98ID:89UGJXd20
APIキー既に取得済みって前提になるが
https://imgur.com/a/QsCkPSG
この一番上のAPIでChat Compilation選ぶとChat Compilation SourceからClaude選べんか?
あかんか?
0597名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 04:13:13.30ID:???0
>>592
よくできた脱獄はLLMの本質突いてるから対策できないよ
というか対策したら性能落ちる
もう諦めて各社BANとか警戒度で対策するしかなくなってるのが現状
0598名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/24(水) 05:55:27.51ID:???0
>>597
poeとかはわざと緩くしてるだけだよ
サービス元によって同じモデルでも明らかに申し訳される度合いが違う
そもそも入力そのものをAIでチェック出来るから本気で検閲されたら全部アウトになる
0599名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 06:14:04.09ID:???0
>>598
それはanthroに怒られたくないからやってるだけ
性能落ちるからやりたくないのが本音
anthroもAPIには規制かけてないのが何よりの証拠
0600名無しさん@ピンキー (ワッチョイ 6f6f-tk+8)2024/07/24(水) 06:30:40.27ID:???0
ここってローカル限定?
0601名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/24(水) 06:34:38.24ID:???0
ローカル限定ではないけどローカル中心ではある
0602名無しさん@ピンキー (ワッチョイ 9fa3-8WH3)2024/07/24(水) 06:40:51.50ID:???0
非ローカルは別スレがあるからね
ここはローカル寄り
0603名無しさん@ピンキー (ワッチョイ 8bc7-3QTr)2024/07/24(水) 06:59:12.86ID:???0
RAGも大葉のLoraも
なりきりでやって欲しいキャラのセリフと設定入れたら(セリフ集にユーザーとのやり取りも入れてる)
どのモデルも何故かユーザー役になりきるんだが
オススメの知識の入れ方ってある?
0604名無しさん@ピンキー (ワッチョイ 0fdc-V2rD)2024/07/24(水) 08:45:43.79ID:???0
llama3.1がgroqで触れるので70b版を触って来たけど最低限日本語っぽいものが返ってくるレベルやな 
脱獄プロンプト入れればエロプロンプトも通るけど誤字や簡体字混じりの文章でなにかのトリガーで同じフレーズを繰り返し始めるしなかなか厳しい
command r+くらいの性能はあると期待してたけど設定が悪いんかな
0605名無しさん@ピンキー (ワッチョイ 1f5e-G/Qc)2024/07/24(水) 10:04:08.93ID:VZ5aVPvs0
>>603
尻タブなら>>153周辺参考にしてもらえればなんやけど、大葉ってcustom stopping strings的な機能あったかわからん
あると思うが名称違うかもしれん
0606名無しさん@ピンキー (ワッチョイ 6f5d-UVyF)2024/07/24(水) 10:16:53.06ID:???0
ついにGPT4oを超えるオープンなLLMが出た
すごい事だが405bって何GBあれば動くんだ
0607名無しさん@ピンキー (ワッチョイ 0f7a-srET)2024/07/24(水) 10:17:32.79ID:???0
なんか日本語弱いらしいよ
0608名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 10:24:30.47ID:???0
perplexityで405B使えるけど、控えめに言ってゴミ
指示を理解してない上にそれを差し引いても表現ができてない
出力の質はGPT4oどころかGPT3.5にも劣る
0609名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/24(水) 10:38:57.85ID:???0
モデルカードの対応言語に日本語がないしまあ普通に対応外なだけなんじゃないか
0610名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 10:55:04.74ID:???0
ドスケベメイドの自己紹介
3.5sonnet
i.imgur.com/UCpdPOL.png
GPT4o
i.imgur.com/s0VQ7ls.png
3opus
i.imgur.com/qQlveZY.png
LLAMA3.1 450B
i.imgur.com/BncztsU.png
0611名無しさん@ピンキー (ワッチョイ 8bc7-3QTr)2024/07/24(水) 11:30:11.56ID:???0
>>605
ありがとう
尻使いなので一度やってみたんだか発狂しだしてな…
Lora使わずにプロンプトいじったり
単体のセリフ集をRAGしてみるよ
0612名無しさん@ピンキー (ワッチョイ 5f74-cRQS)2024/07/24(水) 11:31:59.62ID:???0
日本語はもうcohereに期待するしかないな
405bじゃ個人でのファインチューンも難しいだろうし
0613名無しさん@ピンキー (ワッチョイ 9be3-V2rD)2024/07/24(水) 11:47:38.37ID:???0
別にしちゃダメってわけじゃないけど
何でローカル寄りなスレなのにパープレやpoeでの脱獄を推奨する人がここに居座ってるんや…?
0614名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/24(水) 12:00:17.76ID:???0
エッチなことをするとすぐ頭が真っ白になるのをやめさせたい
もっと他に表現方法ないのかよ!
0615名無しさん@ピンキー (ワッチョイ 0f64-l0Lg)2024/07/24(水) 12:03:45.08ID:???0
嫌なら出てけば?
誰も困らんぞ
0616名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/24(水) 12:19:35.50ID:???0
かしこさでは3.5sonnetが頭1つ抜けててCR+その他のローカル可能モデルは置いて行かれてる感じだな
0617名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/24(水) 12:21:43.30ID:???0
Llama3.1については70Bでも本来のベンチマークスコアは高いので
405Bは置いといて70Bベースの日本語モデルが出ることに期待してる
0618名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/24(水) 12:21:43.72ID:???0
>>608
しかも3より規制きついな
日本語能力は対象外になってるのでまあ、御察し
ただ、推論力は高い
英語での質問に生徒会恋愛問題を完全とは言わないが正解に近づいけていた
日本語での質問はダメだったがw
0619名無しさん@ピンキー (ワッチョイ 8b6a-oASD)2024/07/24(水) 12:46:30.17ID:???0
405bそんなダメかなあ
0620名無しさん@ピンキー (ワッチョイ dffb-3SVq)2024/07/24(水) 12:51:22.01ID:???0
生徒会恋愛問題とは一体・・・・うごごっ

誰かマルチモーダル試している人居ないか?
画像を読み込ませて解析させるChatGPTとかでお馴染みの機能
大葉は拡張設定が面倒でkoboldcppで試したけど上手く行かん

画像生成のCILPに該当するllava mmprojのモデルに汎用性が無い?
ninjaやエロLLMで使おうとしたら壊れた文章しか出さなかった
llavaとセットのllmで動かしたら低性能だけど一応は動いた
0621名無しさん@ピンキー (ワッチョイ 1ba0-srET)2024/07/24(水) 14:29:49.07ID:???0
405Bいらんから70Bの日本語特化モデルを出してくれよ
0622名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/24(水) 14:40:38.30ID:???0
そもそも3.0からどれくらい性能アップしとるんやろな

3.0 70bはgemma2 27bよりも英語では性能低いから
3.1 70bが多少性能上がったところで日本語特化モデル作るならgemma2 27bと思うんやな
0623名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/24(水) 16:15:37.61ID:???0
>>619
ダメとかの問題じゃなくて動かせないし…
0624名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/24(水) 18:11:04.83ID:???0
>>623
ワイはperplexityで試した
0625名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/24(水) 18:56:02.25ID:???0
公式に日本語対応してないからしゃーないやろ
まず英語の性能見たいけどchat arenaにまだ出てきてへん
まぁあとニ2、3日すれば出てくるやろ
0626名無しさん@ピンキー (ワッチョイ 5fb3-x6+9)2024/07/24(水) 20:08:33.07ID:???0
英語エロも試したけど、曖昧な表現ばかりでそもそもエロにならないな
オナニー実況
3.5sonnet
なんJLLM部 避難所 ★3 	->画像>32枚
llama3.1 405B
なんJLLM部 避難所 ★3 	->画像>32枚
0627名無しさん@ピンキー (ワッチョイ 4b09-PUYf)2024/07/24(水) 20:40:38.12ID:???0
現状ローカル寄りというのは正しいけど、それはwebサービスで満足できない奴がより深い所に辿り着く結果ローカルの話になっているだけだと思う。
webサービスにより良いもの、新しいものが出現したら話題がそっちに流れる事はありうる。(405Bの話の様に)
0628名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/24(水) 20:41:14.54ID:???0
>>626
規制がパワーアップしてるせいだな
pfnet/Llama3-Preferred-MedSwallow-70B
↑これみたいなfinetuneされれば、化けるかも
0629名無しさん@ピンキー (ワッチョイ df63-G/Qc)2024/07/24(水) 23:47:18.89ID:mVMyWHlD0
Llama3.1で日本語使えるようにしたファインチューンモデルが出たみたいやで
https://huggingface.co/DataPilot/Llama3.1-ArrowSE-v0.4
0630名無しさん@ピンキー (ワッチョイ 1f49-C9XH)2024/07/25(木) 00:36:59.52ID:???0
mistralがなんか123Bの多言語モデル出した
0631名無しさん@ピンキー (ワッチョイ 1f49-C9XH)2024/07/25(木) 00:38:33.04ID:???0
https://huggingface.co/mistralai/Mistral-Large-Instruct-2407
0632名無しさん@ピンキー (ワッチョイ 0fd5-upSA)2024/07/25(木) 04:21:16.00ID:V89ZaqLA0
>>629
llama-3.1とELYZAの悪魔合体モデルか
0633名無しさん@ピンキー (ワッチョイ 0fd5-upSA)2024/07/25(木) 04:22:54.23ID:V89ZaqLA0
Ninjaにllama-3.1追加してください
0634名無しさん@ピンキー (ワッチョイ bbbb-TapC)2024/07/25(木) 04:31:57.45ID:G9bWACJA0
>>629
はえーな
こんなでかいモデルのファインチューニングそんなすぐできるもんなのか
0635名無しさん@ピンキー (ワッチョイ 6f6f-tk+8)2024/07/25(木) 04:48:12.15ID:???0
ロールプレイ向いてるのってどれなんだろ
0636名無しさん@ピンキー (ワッチョイ 6f5d-UVyF)2024/07/25(木) 07:13:16.65ID:???0
Llama3.1 405bをRAM128GBのMac book Pro*2で外人が動かしてた
256GBあればローカルで動くんだな
0637名無しさん@ピンキー (ワッチョイ 9b32-oq5P)2024/07/25(木) 07:13:44.20ID:???0
>>634
8bのモデルやん
0638名無しさん@ピンキー (ワッチョイ 5f9f-YxOV)2024/07/25(木) 09:14:19.76ID:???0
https://huggingface.co/aixsatoshi/Meta-Llama-3.1-8B-Instruct-plus-Swallow
>Swallow-8Bは追加の日本語継続事前学習により日本語が大変流暢なLlama-3派生モデルです。
>このBranchとLlama3との差分ベクトルを、アップグレードされた新しいMeta Llama-3.1-8B-Instructに移植しました。
>Meta-Llama-3.1-8B-Instruct + 0.7*(tokyotech-llm/llama-3-Swallow-8b - meta-llama/Meta-Llama-3-8B)
0639名無しさん@ピンキー (ワッチョイ 5f21-oASD)2024/07/25(木) 09:31:55.28ID:???0
405bに日本語がそもそもサポート言語に入ってないね
0640名無しさん@ピンキー (ワッチョイ 5f2e-x6+9)2024/07/25(木) 09:33:45.09ID:???0
日本語も普通に出るけどね
文章力は英語でも何でもどのみち低品質だから対応云々はあまり関係ない気がする
0641名無しさん@ピンキー (ワッチョイ 0f7a-srET)2024/07/25(木) 09:39:16.09ID:???0
何のための405Kだー!
0642名無しさん@ピンキー (ワッチョイ 0f7a-srET)2024/07/25(木) 09:39:32.48ID:???0
bだった
0643名無しさん@ピンキー (シャチーク 0Cdf-oq5P)2024/07/25(木) 10:50:28.42ID:???C
mistralai/Mistral-Large-Instruct-2407
で、これどうなん?
gguf出てるが出先で試せん
0644名無しさん@ピンキー (ワッチョイ 5f74-cRQS)2024/07/25(木) 11:22:43.26ID:???0
chat arena見てたらいつの間にか言語別のランキング見れるようになってるな
結局日本語でもローカルで使えるモデルで一番高いのgemma2 27bだけど
日本語投票数少ないからもっと日本語でやらなあかんな
0645名無しさん@ピンキー (ワッチョイ 5f74-cRQS)2024/07/25(木) 11:40:28.19ID:???0
今chat arena投票するとめっちゃllama3.1出てくる
やってみてわかったのはllama3.0よりも日本語は間違いなく改善してる
0646名無しさん@ピンキー (ワッチョイ 1f49-C9XH)2024/07/25(木) 12:07:20.89ID:???0
チャットしてるとGemma 2よりCommand R+の方が日本語流暢だと感じるんだけど、あんまり一般的な感覚じゃないんかね
0647名無しさん@ピンキー (ワッチョイ 5f30-XTc+)2024/07/25(木) 12:27:14.89ID:kmDdavSa0
llama3.1に「山崎春のパン祭り」の説明させても不正解でがっかり
nemotronはシールと景品に言及できるあたり知識ベース自体はしっかりしてんのかな
0648名無しさん@ピンキー (ワッチョイ 6f6f-tk+8)2024/07/25(木) 12:44:25.44ID:???0
スレ間違えたスマソ
0649名無しさん@ピンキー (ワッチョイ 4b09-PUYf)2024/07/25(木) 13:09:05.83ID:???0
たまに話に出てるMedSwallow-70B使ってみたけど、それなりに賢いしなんかエロい。
ただ書かれてる通り挙動がおかしい。
色々出てきても結局MoE-TEST-2x7B-NSFWが一番まともな気がする。
0650名無しさん@ピンキー (ワッチョイ 0f8e-srET)2024/07/25(木) 18:12:04.46ID:???0
mistral-large、3bitくらいまで量子化しないと動かんけどとりあえず試してみたがエロも普通に通るし日本語も自然だな
6t/sくらいしか出ないからまだあんまり試せてないけどもうちょっといろいろ触ってみる
0651名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/25(木) 18:31:31.08ID:???0
koboldがMistral-Nemo-Instructに対応したな
0652名無しさん@ピンキー (ワッチョイ df7c-FHR6)2024/07/25(木) 20:39:36.33ID:???0
非対応やったんか
道理で落ちると思ったわ
0653名無しさん@ピンキー (ワッチョイ df7c-FHR6)2024/07/25(木) 20:58:11.21ID:???0
試したらMistral-Nemo-Instructが「こんちにちです。」って挨拶してきてズッコケたわ
temperatureが高すぎるだけやった
0654名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/25(木) 22:20:47.15ID:???0
APIは規制強化の波が来てるしやっぱローカルの進化にかけるしかないな
0655名無しさん@ピンキー (JP 0Hdf-3SVq)2024/07/25(木) 22:57:00.04ID:???H
円高になってグラボ安く買えるようになるといいねぇ
0656名無しさん@ピンキー (ワッチョイ 4b8c-fado)2024/07/25(木) 23:04:05.55ID:???0
そうはいっても300万円のカードが200万円になっても買えぬ
革ジャン潰して欲しい
0657名無しさん@ピンキー (ワッチョイ 5f74-1Aj4)2024/07/25(木) 23:11:44.84ID:???0
1bit LLMが主流になってほしい・・・
0658名無しさん@ピンキー (ワッチョイ 9bb9-fh/A)2024/07/25(木) 23:20:12.41ID:hJ3Sr1Ob0
https://huggingface.co/akineAItech/kagemusya-7B-v1.5-Q8_0-GGUF
https://huggingface.co/akineAItech/kagemusya-7B-v1.5

ベータ版ですがkagemusya-V1.5をリリースしました。
小説の“構成”の学習を試みたモデルです。
ぜひお試しください。
0659名無しさん@ピンキー (オイコラミネオ MM5f-C9XH)2024/07/25(木) 23:49:34.68ID:???M
>>647
こういうのはRAGの領分なのでそもそもモデルの基礎知識に頼るべきじゃない
0660名無しさん@ピンキー (ワッチョイ 0bc8-srET)2024/07/25(木) 23:52:16.41ID:???0
>>658
ありがとうございます
enaで対応していただいたら使用させていただきます
0661名無しさん@ピンキー (ワッチョイ fb5a-V2rD)2024/07/25(木) 23:57:00.64ID:???0
ほへー構成メインか……どのレベルなんやろ
自分は起承転結やら個々のエピソードまでは構成するけど
・険悪だった二人が◯◯というきっかけで仲良くなるシーンを1000文字で
みたいなフォーマットで書いてくれるなら
かなり創作の手助けになるんやが

エロでいうと
・フェラだけで1000文字で
といっても三行で終わらせて本番始めるモデルばかりで辛い
0662名無しさん@ピンキー (ワッチョイ 8bc7-utX6)2024/07/26(金) 01:06:11.60ID:???0
一人芝居ストップかけても尻の表面に出ないだけで裏ではやり取りがっつりあるのヘコむわ
0663名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 03:31:04.84ID:???0
どもる文章がおかしくなることがよくあるな
「い、今やろうとしたところだ!」が正しい形なのに
「こ、今やろうとしたところだ!」となって漢字の読みを考慮しないことがある
Q5とか使ってるからなのか

>>862
裏でのやり取りごと消去って出来ないのかな?
0664名無しさん@ピンキー (ワッチョイ 9bab-G/Qc)2024/07/26(金) 05:14:52.62ID:???0
>>660
ファイル名書き換えたら読み込んでくれるで。
例えば、kagemusya-7b-v1.5-q8_0の部分をkagemusya-7b-v1Q8_0に書き換える。
わいは使わんやつの名前に書き換えて、色々試してるで。
0665名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 05:24:42.48ID:???0
Mistral-Nemo-Instruct-2407.Q5_K_M.ggufでエッチなことさせて遊んでるけど
単なるロールプレイ会話よりもハメ撮り動画の実況解説みたいなことをさせた方が本領発揮するな
0666名無しさん@ピンキー (ワッチョイ fb50-x6+9)2024/07/26(金) 06:05:16.89ID:???0
>>663
opusとかでもそうなるよ
AIは文章を音として読んでるわけじゃないから、読みなんて再現できなくて当たり前
用例を全て丸暗記するしかない
0667名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 06:53:05.18ID:???0
>>666
アルファベットなら頭文字の連続だけでどもりを表現できるけど
読みがたくさんある漢字だと色んなパターンを丸暗記するしかないのか
間違えることなくどもらせるのはかなり難しそうだな
0668名無しさん@ピンキー (ワッチョイ 8bc7-utX6)2024/07/26(金) 08:45:13.81ID:???0
>>663
lmstadioに尻と同じプロンプト入れたらひとまず出なくなった
0669名無しさん@ピンキー (オッペケ Sr5f-VXyX)2024/07/26(金) 09:14:05.34ID:???r
>>665
Nemoは最初から無検閲らしいね
0670名無しさん@ピンキー (ワッチョイ 0bc8-srET)2024/07/26(金) 11:40:31.90ID:???0
>>664
リネームでやってみます
助言ありがとうございます

用途に依るんだと思いますが
色々試したもので良かったモデルはありましたか
0671名無しさん@ピンキー (ワッチョイ 4fcc-oASD)2024/07/26(金) 12:21:43.43ID:???0
規制かければかけるほど阿呆になるみたいだし
あんまり規制かけないでほしいな
0672名無しさん@ピンキー (オイコラミネオ MM5f-C9XH)2024/07/26(金) 12:56:05.83ID:???M
>>650
Mistral Large結構いい感じだよね
トークナイザが日本語に最適化されてなくて厳しいけど
0673名無しさん@ピンキー (ワッチョイ df77-1fg3)2024/07/26(金) 15:32:19.59ID:???0
Vecteus好きだ
すぐ淫乱にならないところが
0674名無しさん@ピンキー (ワッチョイ fb32-G/Qc)2024/07/26(金) 16:52:46.46ID:???0
応答の長さ(トークン数)を増やし過ぎても繰り返しが多くなるのか
何を弄ったらどう変わるのかいまいち把握しきれないな
0675名無しさん@ピンキー (ワッチョイ 9b32-srET)2024/07/26(金) 17:22:12.07ID:???0
cyberagent/Llama-3.1-70B-Japanese-Instruct-2407

ちょっと期待
0676名無しさん@ピンキー (ワッチョイ 9b09-jkbP)2024/07/26(金) 17:32:51.57ID:???0
設定といえばkoboldcppのGPUレイヤーだっけ?皆いくつにしてんの?
俺初期値の200のままなんだけど減らしたらええのか?
0677名無しさん@ピンキー (ワッチョイ 4f97-C9XH)2024/07/26(金) 17:46:23.51ID:???0
全レイヤー乗りさえすればいくつでもいいんじゃないの
0678名無しさん@ピンキー (ワッチョイ 9b93-b7mV)2024/07/26(金) 18:07:53.12ID:???0
>>670
新参なもんでまだ全然分かってない。すまぬ。
このスレに出てきてないものだと、Antler-7B-evolve、
EZO(common/humanitiesの2つ)があるから試してみて。

Antler-7B-evolveはKagemsyaみたいな用途で使えると思う。
0679名無しさん@ピンキー (ワッチョイ 1bbe-G/Qc)2024/07/26(金) 21:29:01.00ID:???0
3.5sonnetがマジでかしこいな
ちゃんと設定すればそこそこ複雑な設定のゲームも進行させられる
この技術がPCゲームに応用されたら凄いことになるんだろうけどなぁ
0680名無しさん@ピンキー (ワッチョイ cb11-FnV+)2024/07/26(金) 21:33:05.12ID:zWi3niPt0
Mistral Large 2
脱獄なしで設定書くだけでもNSFW出力してくれて大変良い
ロリNGとかも特になさそう
若干繰り返し癖はある
なんJLLM部 避難所 ★3 	->画像>32枚
0681名無しさん@ピンキー (ワッチョイ 5fc7-Yk6i)2024/07/26(金) 23:21:54.19ID:???0
>>680
w

VRAMどれくらいあれば動くの?
0682名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/27(土) 00:14:33.14ID:s9nYYsMX0
>>681
量子化のレベルはIQ3_M(モデルサイズ55GB)で、64GBのunified memoryにロードしてる
意外と量子化による影響はあまり感じない(ちゃんと計測したらなんらかの劣化はあるだろうが)
0683名無しさん@ピンキー (ワッチョイ e720-7i3u)2024/07/27(土) 00:14:48.90ID:lT0n9RUP0
>>680
いいねー
こういうオープンソースが増えるのは明るい未来に繋がる
0684名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/27(土) 08:06:35.47ID:???0
サイバーエージェント期待してる。量子化してください
0685名無しさん@ピンキー (ワッチョイ 32c7-wyzZ)2024/07/27(土) 08:58:22.02ID:???0
>>682
ほー、123Bが55GBで済むのか
この休日に試してみようかな
0686名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/27(土) 14:30:13.44ID:s9nYYsMX0
>>684
https://huggingface.co/mmnga/Llama-3.1-70B-Japanese-Instruct-2407-gguf/tree/main
0687名無しさん@ピンキー (ワッチョイ 7bc1-/CG0)2024/07/27(土) 15:18:05.92ID:???0
>>683
オープンソースじゃないんだよなぁ
たぶんフラッグシップモデルの開示はする予定じゃなかったんだろうけど

オープンソースと言えるのはApache2.0ライセンスやMITライセンスのやつ
LlamaもGemmaも制限があるし、Mistral Large2は研究用だから研究にしか使えない
Gemmaライセンスは違法なことや公序良俗に反することに使うなってだけで制限が緩いけどね
0688名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/27(土) 18:52:19.55ID:s9nYYsMX0
上にあるサイバーエージェントのやつも試してみた
Finetuningでバカになってる感じもあまりないし、いいかもしれない
なんJLLM部 避難所 ★3 	->画像>32枚
0689名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/27(土) 20:21:33.73ID:???0
>>686
流石だぜモモンガニキ、そこにシビれる!あこがれるゥ!
0690名無しさん@ピンキー (ワッチョイ 26de-FjlS)2024/07/27(土) 22:43:39.29ID:???0
MacでLLM使うのってまだまだ難しい?
0691名無しさん@ピンキー (ワッチョイ 32c7-wyzZ)2024/07/27(土) 22:55:45.70ID:???0
>>682
IQ3_M試してみたけど違和感ないね
ただ、Command R+より遅いなあ
いずれにしても選択肢が増えたのはいいことだわ
0692名無しさん@ピンキー (ワッチョイ 1784-ezuo)2024/07/27(土) 23:33:22.47ID:???0
>>690
別に難しかったことなんて一度もないんじゃないの
0693名無しさん@ピンキー (ワッチョイ be87-x+oO)2024/07/28(日) 00:24:38.08ID:???0
Mistral-Large-Instruct-2407-Q6_K がM3Max 128GBで動いた
ちょっと試した感じだとCommand R+より賢そうだけどめちゃくちゃ遅い
Command R+で行けたNSFWプロンプトは申し訳されてしまったので
ある程度の規制はされてるっぽい
0694名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 00:32:07.72ID:9iQh5kAD0
Mistral Large 2が遅いのはパラメータ数がでかいからというより、日本語が1トークン/文字になってることの方が影響大きい気がする
R+はtpsは決して早くはないけど、トークナイザが最強だからモデルサイズに比して体感かなりストレス少ない
0695名無しさん@ピンキー (ワッチョイ 329f-q1yw)2024/07/28(日) 00:36:37.11ID:???0
>>693
お大尽やの、うらやましい……
M2 24GBなワイは快適に使うには9B位(LLMやなくてSLMやな)が限界でGemma2とかNinja3で妥協しとる
0696名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 00:44:26.47ID:9iQh5kAD0
>>695
システムが占有するunified memory 10GBくらいを差し引いても、量子化したモデルならもうちょい大きめのでも動きそうじゃね?
Mistral NeMoとかいけると思うんだけど
0697名無しさん@ピンキー (ワッチョイ be87-x+oO)2024/07/28(日) 00:57:55.22ID:???0
>>694
なるほど勉強になる
R+は日本語対応頑張ってくれてるんだなぁ
0698名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/07/28(日) 01:00:52.48ID:???0
>>689
mmnga/rinna-llama-3-youko-70b-instruct-gguf

こっちもやってくれたぞ
rinna系では一番の出来じゃないかと思う
しかもエロいw
0699名無しさん@ピンキー (ワッチョイ df8a-RfJN)2024/07/28(日) 08:16:54.08ID:???0
mini-magnum-12b 文章が短いのが嫌な人はおすすめ設定はMistralと同じだから調べれば出てくるエロもいける
0700名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/28(日) 12:00:32.62ID:???0
大葉で
mmnga/rinna-llama-3-youko-70b-instruct-ggufはllamacppでロードできるけど
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufはエラーになっちゃうなんでだろう
0701名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 12:44:00.71ID:9iQh5kAD0
>>700
どのファイル使ったかわからんけど、catコマンドで結合した?
0702名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/28(日) 12:58:00.46ID:???0
ん~IQ1-5を合体させる?
0703名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 13:14:51.07ID:9iQh5kAD0
>>702
いや、そうじゃなくて
モデルサイズが大きいとmmnga氏の場合、*.gguf.aと*.gguf.bっていう二つに分割されてることがある
その時は、シェルコマンドのcatを使って結合しないとllama.cppで読めないと思う
0704名無しさん@ピンキー (ワッチョイ 6fbe-RfJN)2024/07/28(日) 13:30:13.26ID:???0
3.5sonnetだと独り芝居の問題は全く起きなくて快適にロールプレイ出来る
ローカルでこのレベルまで来てくれたら世界が変わるんだけどな
0705名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/28(日) 13:32:43.34ID:???0
Llama-3.1-70B-Japanese-Instruct-2407-IQ1_M.ggufって一つのファイルでもllamacppでエラーになってしまいます。なんでだろう
0706名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/28(日) 13:37:10.24ID:9iQh5kAD0
>>705
調べてみたら、llama-3.1とllama.cppのバージョンに関するissueがoobaboogaに上がってた
https://github.com/oobabooga/text-generation-webui/issues/6270
ただ、うちの環境だと今のバージョンのllama-cpp-pythonでもllama-3.1読めてるからちょっと謎
0707名無しさん@ピンキー (ワッチョイ 329f-iBG8)2024/07/28(日) 19:04:16.43ID:???0
3060 12gbだとninja v1が良さげかなあ
速度も速いしそこそこちゃんと対話してる
それともq4とq3で結構かわってくるかな
0708名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 00:12:26.20ID:???0
>>678
何度も質問してすいません

Antler-7B-evolveなどのモデルにおいて
以下のように分かれている場合は
どのようにすればEasyNAで使用できるんでしょうか

(model-00001-of-00002.safetensorsと
model-00002-of-00002.safetensorsの2つ)

例えば結合したりバッチファイルの書き替え方などがあるんでしょうか
0709名無しさん@ピンキー (ワッチョイ 9373-Xto+)2024/07/29(月) 19:19:02.85ID:???0
間違ってるかもしれんけど、それ量子化されてない気がするからどのみちやめた方がいいと思う
duyntnet/Antler-7B-evolve-imatrix-GGUF あたりにしたら?
huggingfaceの検索欄にAntler-7B-evolveって打ち込んだら出るはず
0710名無しさん@ピンキー (ワッチョイ 6fbe-RfJN)2024/07/29(月) 21:21:46.80ID:???0
WEBのAPIはマジで規制厳し過ぎなんだよな
エロはまだしも少しでも政治的要素が入ると駄目だから核戦争後の世界を扱うお約束のサバイバル小説ですら検閲されまくる
NATOやアメリカ、中国、ロシアの単語を直接出すのは勿論、欧州の某国みたいにぼかしてもNG
Jアラートとかの単語も少しでも与党側へネガティブとみなされると全削除なんて核戦争の詳細は全部ぼかさないと駄目だった
とにかく政治に対する検閲が異常
0711名無しさん@ピンキー (ワッチョイ e3c8-05lm)2024/07/29(月) 21:38:01.41ID:???0
>>709
助言ありがとうございます

SDと勘違いして.safetensors自体で
そのまま使用できると考えておりました

.ggufとの違いを理解していませんでした
申し訳ありませんでした
0712名無しさん@ピンキー (ワッチョイ b22c-b6qp)2024/07/30(火) 05:14:19.45ID:???0
>>710
webのAPIってのはよくわからんけど普通にwebuiで出るじゃん
なんJLLM部 避難所 ★3 	->画像>32枚
0713名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/30(火) 09:45:52.37ID:???0
Meta、「Llama 3.1」ベースの「AI Studio」を米国で開始
https://news.yahoo.co.jp/articles/de38856f54445f11f60beb7e154995f7d2498dfc

BOTの作り方も公開してくれるのだろうか
0714名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/07/30(火) 13:15:14.54ID:???0
HODACHI/Llama-3.1-70B-EZO-1.1-it

leafspark/Mistral-Large-218B-Instruct

どんどんでてくるな
0715名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/30(火) 13:32:13.03ID:???0
llama.cppでロードできました。n-gpu-layersとn_ctxの値が重要なようです。
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-gguf
0716名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/30(火) 15:01:38.94ID:???0
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufいいね、うちの環境で何がベストか実験中
0717名無しさん@ピンキー (トンモー MMc3-1Juy)2024/07/30(火) 15:09:01.26ID:???M
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-gguf
かなり繰り返し癖ない?俺が悪いのかな
0718名無しさん@ピンキー (ワッチョイ f68e-05lm)2024/07/30(火) 17:17:57.88ID:???0
Llama-3.1-70B-EZO-1.1-itめちゃくちゃ良い感触だ
自宅チャットボットで試してる限りでは返答内容にGPT-4並みの知性を感じる
0719名無しさん@ピンキー (ワッチョイ 137a-M0/w)2024/07/30(火) 17:31:40.16ID:???0
70Bを動かせるほどのスペックじゃないからみんながうらやましいよ
0720名無しさん@ピンキー (ワッチョイ 9beb-lymj)2024/07/30(火) 17:56:10.47ID:???0
Mistral Large 2をNSFWチューンしたやつ今試してるけど、これ結構凄いかも
遅さに目を瞑れば最適解な気がしている
0721名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:17:10.61ID:sqT3r6O70
>>720
なんてモデル?
0722名無しさん@ピンキー (ワッチョイ 9beb-lymj)2024/07/30(火) 18:19:18.58ID:???0
>>721
Lumimaid-v0.2ってやつ
0723名無しさん@ピンキー (ワッチョイ 928b-RfJN)2024/07/30(火) 18:59:13.28ID:sqT3r6O70
>>722
ty
0724名無しさん@ピンキー (ワッチョイ 0f51-b6qp)2024/07/30(火) 19:10:28.82ID:???0
>>722
12Bがあるね。試したのはどれ?
0725名無しさん@ピンキー (ワッチョイ 9beb-lymj)2024/07/30(火) 19:56:24.86ID:???0
>>724
123BのIQ-3M試した
0726!donguri (ワッチョイ 7b12-em/f)2024/07/30(火) 19:57:44.16ID:???0
いがいだったけどllama-3-elyza-jp-8bで申し訳されなかったかな。
最近、エロOKな流れになってるのかな。日本語が自然で好きなんですよね
0727名無しさん@ピンキー (ワッチョイ e787-em/f)2024/07/30(火) 20:21:12.08ID:vqVdxEpO0
検閲に起因する性能低下が割と洒落になってない感じの事がわかってきたし
このまま無検閲のベースモデル+検閲用の別のモデル、みたいな形で分離して発展して欲しいねぇ
0728名無しさん@ピンキー (ワッチョイ f68e-05lm)2024/07/30(火) 20:39:52.20ID:???0
Elyzaは初期の頃からやりたい放題できてた記憶がある
0729名無しさん@ピンキー (ワッチョイ 36ef-jK5+)2024/07/30(火) 20:50:46.51ID:6Hc3QgOV0
ELYZAは東大で作ってるやつでしょお堅いんじゃないの
0730名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/07/30(火) 21:18:01.99ID:???0
>>720
英語?
0731名無しさん@ピンキー (ワッチョイ 7b12-em/f)2024/07/30(火) 21:34:42.72ID:???0
elyzaって優等生って感じだからあんまり好みではない人もいるかも
優等生といちゃいちゃなチャットの後、そういう流れに・・・っていうのが好きなもので
0732名無しさん@ピンキー (ワッチョイ 9beb-lymj)2024/07/30(火) 21:38:17.12ID:???0
>>730
追加学習は英語だと思うけど、日本語のERPもかなり流暢だよ
そもそも元のMistral Large 2がマルチリンガルなので、そこはちゃんと失わずに保ってる
0733名無しさん@ピンキー (ワッチョイ b230-p9Qa)2024/07/30(火) 21:45:38.53ID:???0
12Bは駄目だったや
ルー大柴化に加えてエロ関係なく意味不明な文がかなり多い感じ
これなら7BのVecteusやBerghofの方がよほど賢いと感じた
0734名無しさん@ピンキー (ワッチョイ 3311-Mtf7)2024/07/30(火) 23:07:20.37ID:xTt96Yir0
Lumimaid v0.2 123BのERPはこんな感じ
なんJLLM部 避難所 ★3 	->画像>32枚
0735名無しさん@ピンキー (ワッチョイ b274-tpLL)2024/07/31(水) 09:35:31.00ID:???0
チャットアリーナのリーダーボード更新きたんだけど、英語に絞ると
llama3.1 405bと70bがclaude3.5sonnetの上にきてるな
405bはわかるんだけど70bもここまで来るか

日本語に絞るとまだデータ数が少ないのか項目自体出てこない
0736名無しさん@ピンキー (ワッチョイ 9b4f-+LaP)2024/07/31(水) 10:15:57.61ID:???0
Llama 3.1 EZO、ベンチスコア高すぎて怪しいなこれ
gpt-4の出力学習に使うかベンチマークリークさせてるだろ
0737名無しさん@ピンキー (シャチーク 0C73-w6uy)2024/07/31(水) 10:39:54.61ID:???C
>>736
実際使った感じは?
上の方では良感触だったとの書き込みあるけど
0738名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 12:29:09.64ID:???0
Llama-3-ELYZA-JP-8B-q4_k_mは脱字が酷いな
「ハンバーグとステーキどっちが好き?」って聞いたら

「は美味しい食べ物が大好きなのですが、その中でも特にハンバーとステーは大好物ですね。
どちらかというと私はハンバー派です。理由としては、肉汁が溢れ出るジューーな部分がたまらないからです。」

みたいな脱字だらけの文章が返ってくる。Q8でも脱字だらけだ
0739名無しさん@ピンキー (ベーイモ MM4e-kmAZ)2024/07/31(水) 12:39:22.69ID:mLdonqTXM
ELYZAは俺俺ベンチの本家本元だからしゃーないし期待してない
0740名無しさん@ピンキー (ワッチョイ 127c-1ExY)2024/07/31(水) 13:22:00.25ID:???0
>>738
さすがにそこまで出力おかしいのは何かが間違っとるやろ
LM Studioで落としたけど普通に会話できとるで
0741名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:00:44.65ID:???0
>>740
設定間違ってるのかな?

色々試してみた感じ一定の法則で文字が欠けることが多いんだよね
長音の後が欠けやすいから
「ケーキ」「ラーメン」「アーメン」「ザーメン」「ステーション」が
「ケー」「ラーン」「アーン」「ザーン」「ステーョン」になるわ
あとは文頭の文字が欠けやすいのと「楽しみ」「慈しみ」も「楽し」「慈し」になる

koboldでデフォ設定にしたり色々設定変えたりしてるけどあんまり変わらん
0742名無しさん@ピンキー (シャチーク 0C73-w6uy)2024/07/31(水) 14:07:13.47ID:???C
>>741
しずかちゃん って言わせられるか?
llama3系は何故か
しかちゃん になる傾向がある
0743名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:14:43.72ID:???0
>>742
しかちゃんになる

「しずかに」→「しかに」
「わずかに」→「わすかに」
「おおきいかに」→「おおきいに」

脱字が多いけど「わすかに」みたいに濁点が消える場合もあるみたいだ
0744名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 14:28:12.94ID:???0
AIの出力終了後、
ブラウザ側だと「# 記」だけど
kobold(v1.69.1)のコンソール側だと「# 追記」になってた。
koboldのexeとブラウザ間のhttp通信ペイロードの取込上の問題があるかも?
0745名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 14:42:03.31ID:???0
>>744
本当だ
ブラウザ側だと「しかちゃん」になってるけど
コンソール側には「しずかちゃん」って書かれてるわ

これってユーザー側で何か対策方法あるの?
0746名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 15:28:57.40ID:???0
暫定対策としては
設定で「Token Streaming」を「SSE」から「Poll」にすると大丈夫そう
0747名無しさん@ピンキー (ワッチョイ 9732-RfJN)2024/07/31(水) 15:39:23.44ID:???0
>>746
おお!サンクス!脱字無くなったわ!
0748名無しさん@ピンキー (ワッチョイ 1798-wWBb)2024/07/31(水) 16:45:34.31ID:???0
別モデルの中国語でも同様の問題があるみたい。今のところ「Poll」にするしかなさそう。

https://github.com/LostRuins/koboldcpp/issues/772
0749名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/07/31(水) 17:29:04.29ID:???0
とにかくLlama-3.1で次の段階に入ったんだろうな
0750名無しさん@ピンキー (ワッチョイ 6fbe-RfJN)2024/07/31(水) 20:57:05.31ID:???0
3.5sonnetより上とはにわかに信じがたいな
ベンチマーク最適化してるとしか思えん
0751名無しさん@ピンキー (ワッチョイ e76b-GRnx)2024/07/31(水) 21:54:12.27ID:???0
ベンチマークありき学習するのは結局奇形産まれるだけや
0752名無しさん@ピンキー (ワッチョイ 436a-6ASf)2024/07/31(水) 22:26:11.90ID:???0
中国人の性質を鑑みれはチートはしてるだろ
0753名無しさん@ピンキー (ワッチョイ 9b4f-+LaP)2024/07/31(水) 22:44:28.16ID:???0
ベンチマーク特化になってるかはベンチマークの領域外のテストすれば分かりやすい
それこそエロとかもその1つ
断られるのは別として、ベンチマーク性能は良いのにエロの表現とかが微妙なのは根本的にベンチ特化になっている
0754名無しさん@ピンキー (ワッチョイ b2ed-b6qp)2024/08/01(木) 01:22:07.19ID:???0
エロ性能で言えばllama3.1はゴミでしかないな
まあそもそも学習してないんだと思うが
0755名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/08/01(木) 01:27:05.00ID:???0
Llama 3.1 EZO 70BをQ5K_Mで試した

マジいいぞこれ。
いままでのllama3.1日本語では一番じゃないか?
ただ、規制は残ってるな
0756名無しさん@ピンキー (ワッチョイ 4f32-05lm)2024/08/01(木) 01:41:57.36ID:???0

規制の件だけど、自分から今のは少し不適切だったので、以下のように書き直しますね
って、言って書き直してきたのはワロタ
まあ、オリジナルよりは緩いわ
0757名無しさん@ピンキー (ワッチョイ 3eec-b6qp)2024/08/01(木) 11:12:41.16ID:???0
>>755
8Bと70Bしかないのか
0758名無しさん@ピンキー (ワッチョイ b274-nOcR)2024/08/01(木) 12:51:36.25ID:???0
405Bのggufあったとして1bitでも動かせない・・・
0759名無しさん@ピンキー (ワッチョイ 6fa0-05lm)2024/08/01(木) 13:52:38.76ID:???0
繰り返しを無くす方法

■temperature高くする。
temperatureが低すぎると、モデルが非常に確率の高い次の単語を選択し続けるため、繰り返しが生じやすくなります。

■top_p(トップPサンプリング)高くする。
確率の合計がP以上になるまで単語を選択
Pの値が低いと、選択肢が制限されるため、繰り返しが発生しやすくなります。逆にPの値が高すぎると、ランダム性が増し、
文脈にそぐわない単語が選ばれやすくなるため、適切なバランスを見つけることが大切です。
一般的にはP値を0.9前後から調整を始め、状況に応じて微調整します。

■top_k(トップKサンプリング)高くする。
K個の最も確率の高い単語から選択
トップKの値を上げることで、選択肢が増えるため、より多様な単語やフレーズが選ばれる可能性が高くなります。これにより、
同じフレーズの繰り返しが減少する可能性があります。
トップKの値が小さいと、モデルは最も確率の高い単語に集中しがちですが、Kを大きくすると、より多様な単語が選ばれる可能性が増えます。
これにより、生成されるテキストの多様性が向上し、繰り返しが減少することがあります。
0760名無しさん@ピンキー (ワッチョイ 9321-Xto+)2024/08/01(木) 14:28:37.35ID:???0
sillyはデフォだと繰り返しペナルティの値死んでるから、その辺り弄るとかなりマシになった。
EZO 70B量子化ありがたい、あとで試そう
0761名無しさん@ピンキー (ワッチョイ 9b91-1ExY)2024/08/01(木) 15:46:28.90ID:???0
どういうこと?
最新バージョンでの話?
0762名無しさん@ピンキー (ワッチョイ 26c2-wWBb)2024/08/02(金) 07:27:12.51ID:???0
>>0734
もしよければUIに何を使っているのか教えていただけないですか?
text-generation-webuiじゃないですよね。
0763名無しさん@ピンキー (ワッチョイ 53e1-AKUD)2024/08/02(金) 08:25:52.20ID:bxiekA220
>>759
解説ありがとう、勉強になるわ。
0764名無しさん@ピンキー (ワッチョイ 1277-dNt2)2024/08/02(金) 08:51:07.93ID:???0
この値にしておけばオッケーみたいな値はなくて変動すんのかな
0765名無しさん@ピンキー (ワッチョイ 1722-WmgS)2024/08/02(金) 09:11:37.90ID:???0
その人の自作UIでgithubにあげてくれててこのスレの73にリンクがあるよ
0766名無しさん@ピンキー (ワッチョイ 9732-W7ZS)2024/08/02(金) 09:30:42.84ID:???0
>>764
モデルとかプロンプトとか個人の好みとかによって最適な数値は変わる
0767名無しさん@ピンキー (ワッチョイ 9357-J9bf)2024/08/02(金) 10:53:25.05ID:???0
英語のモデル、リーダーボードに載ってる奴とかこのスレに上がってる奴いろいろ試したけど、結局Wizard-lm-2が複雑なプロンプトに対する理解では頭一つ抜けてる気がする。
自分の使い方だといかに複雑なプロンプトを理解できるかが一番重要だから、ずっとこれ一択になっちゃう
0768名無しさん@ピンキー (ワッチョイ 9357-J9bf)2024/08/02(金) 10:58:07.74ID:???0
本スレずっと落ちてるからとりあえず立てたよ
テンプレとか貼ってくれると助かる

なんJLLM部 ★8
http://2chb.net/r/liveuranus/1722563850/
0769名無しさん@ピンキー (ベーイモ MM4e-/6wN)2024/08/02(金) 12:44:01.31ID:???M
>>765
ありがとう。
確認してみます。
0770名無しさん@ピンキー (オイコラミネオ MM3f-lymj)2024/08/02(金) 13:43:37.24ID:???M
>>769
作者です
jupyterに慣れてないとインストールがむずいと何回か言われたので、その場合はgithubのdiscussionにでも書いていただければ
0771名無しさん@ピンキー (ワッチョイ 26a8-wWBb)2024/08/02(金) 20:59:43.19ID:???0
>>770
了解です。
とりあえず調べながらやってみます。
0772名無しさん@ピンキー (シャチーク 0C47-YM+E)2024/08/03(土) 12:45:13.56ID:???C
kobold最新版でsseの問題解消されたっぽいな 
まだ試してないが
0773名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/03(土) 19:19:36.19ID:???0
頭の良さと創造力が反比例してるのが画像生成AIと同じ傾向だな
あっちも新しいモデルになる程クオリティ上がる代わりに出せる絵の幅がどんどん減っていく
人間は頭良いほど創造力が高くなるからAIはやっぱ原理的に別物なんだな
0774名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/03(土) 19:23:03.40ID:EbmL5lWm0
AI初心者なんですがトラブってるので教えてください

OllamaでモデルNinja-v1-NSFW-GGUFを実行した場合は正常にやり取りできるんですが
OllamaでモデルNinja-v1-NSFW-128k-GGUFを実行した場合は、やり取りの途中から勝手に意味不明な文字列を垂れ流すようになってしまいます
一旦こうなるとセッションを保存せずに終了して新しいセッションを開始しても意味不明な文字列を垂れ流すようになり、モデルを一旦削除するしか修正方法がなくなります

これって、モデルを作成する際のModelFileなど設定が悪いのしょうか?
それとも128kモデルの方はチャットボットのような使用目的では向いていないのでしょうか?
ダウンロード数は圧倒的に128kの方が多いのでモデルが原因の問題だとは思えないんですけども
AI初心者すぎて、なにをどうすれば問題を修正できるのか検討もつかない状態です
0775名無しさん@ピンキー (ワッチョイ 8fcf-mQXs)2024/08/03(土) 23:03:12.97ID:RggQ7Em20
>>770
初歩的な質問で申し訳ないのですが、インストール後の起動方法がよくわからないのですがどうすればいいですか?
0776名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/04(日) 00:00:08.92ID:IVhBltvZ0
>>775
コマンドラインで”jupyter lab”を実行するとJupyterっていうWebアプリが開くと思います
そしたら、chat_gui.ipynbを左側のペインから開いて下さい
そしたら、”上部メニュー -> Run -> run all cells”とクリックすると、起動するはず
途中デフォルトのモデルダウンロードのメッセージとかあると思うけど、GGUFをすでに持ってるなら、飛ばして下さい

今ちょっと調べたら出てきたJupyterの使い方
https://qiita.com/y-matsunaga/items/2c7efdae8777f15059e0
0777名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 04:53:53.79ID:???0
llama-3-elyza-jp-8bをLM Studioで使ったらちょっとでもエロ要素があると
"I cannot create explicit content."しか言わへんガチガチ倫理観で
どんだけ説得してもビクともせんのやが
koboldcppで使うと何故かユルユル倫理観なんや
最初はkoboldcppのChat PrePrompt機能がjailbreakになっとるんか?と思ったら
そうやなくてInstruct Tag Presetを(適切であろう)llama3 chatにしたらガチガチ倫理観になったんや
今度は逆にLM Studioの方でPresetをMistral Instractにしてみたらユルユル倫理観になった
これどういう仕組みなんや??
0778名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/04(日) 05:32:16.88ID:???0
いやLM StudioはDefault LM Studio Presetでもユルユルやったわ
わざわざllama3 V2プリセットを選んどったからガチガチになってたんか
何にしても適切な書式の指定が検閲のオン・オフを左右してることには変わらへんけど
0779名無しさん@ピンキー (ワッチョイ a332-a6cz)2024/08/04(日) 06:26:00.65ID:???0
>>772
1.72に更新したけど全然直ってないや
0780名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/04(日) 12:28:07.52ID:???0
mmnga/Llama-3.1-70B-Japanese-Instruct-2407-ggufはまったく申し訳しないよ
逆に素直過ぎて、あれこれゲスいこと指示してやらないとエロくしてくれないまであるけど
0781名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/04(日) 12:43:01.68ID:???M
EZO規制強すぎて笑う
rinnaのほうがそういう方面では使いやすいかも
0782名無しさん@ピンキー (ワッチョイ cfbc-eXHE)2024/08/04(日) 20:54:04.53ID:MD/t9U/C0
>>774
一応、自己解決したので同じ症状が発生した人用に書き残しておきます

Hugging FaceでLocal-Novel-LLM-projectが公開しているNinja-v1-NSFW-128k-GGUFを使用すると>>774の症状が発生していました
これを、Hugging Faceでmmngaが公開しているNinja-v1-NSFW-128k-ggufに変更したところ症状が発生しなくなりました

モデルが原因の問題のように思えましたが、もしかしたら使用したモデルと実行ツールの組み合わせなどが原因の可能性もあるかもしれません
とりあえず以上
0783名無しさん@ピンキー (ワッチョイ 03c6-e/SC)2024/08/05(月) 13:38:10.01ID:???0
てすと
0784名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/05(月) 15:32:33.02ID:???0
よし為替がいい感じの時にグラボをいっぱい買うのだ
0785名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/05(月) 15:40:58.23ID:???0
RTX4090-24Gがどれくらい安くなるか
0786名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/05(月) 16:01:30.19ID:???0
RTX4090-24G、今33万円くらいで今日下がり具合だと30万円切るくらい安くなるやろな
120円まで行ったら25万円くらいになるか
0787名無しさん@ピンキー (ワッチョイ cf7a-6w4f)2024/08/05(月) 16:02:03.94ID:???0
個人輸入するんか?
0788名無しさん@ピンキー (ワッチョイ 83a0-6w4f)2024/08/05(月) 16:14:49.22ID:???0
というか今グラボの在庫持ってる店、早く在庫を手放さないと死ぬぞ
0789名無しさん@ピンキー (ワッチョイ 83be-a6cz)2024/08/05(月) 21:01:25.46ID:???0
頭が悪いモデルほどけれんみのある文章出せる、
頭良くなるほど指示には従ってくれるけど文章から面白みも創造力も失われていく
両立は難しいんだな…
0790名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/05(月) 21:03:02.20ID:???0
人と同じ
0791名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/05(月) 21:36:36.12ID:???0
>>789
別にそんなことないで
claude3 opusは頭もええしエロ描写もぶっ飛んでる
最新のGeminiに小説書かせたら表現のレベルが違う
性能が悪いモデルの方が創造力があるなんて感じるのは
子供が描いたラクガキを見て大人が天才やと思うようなバイアスと一緒や
0792名無しさん@ピンキー (ワッチョイ 7371-Hqc2)2024/08/05(月) 22:52:20.37ID:WdbSQo1T0
8月中旬でGENIACのLLM開発が一旦区切りつくっぽいからそこで色々なモデル出てきそうだね
0793名無しさん@ピンキー (ワントンキン MM1f-uyn2)2024/08/05(月) 23:27:17.45ID:???M
頭が悪いモデルと呼んでてるものはいわゆる過学習を起こしてて
学習元の作品のフレーズをコピペしたりしてるから一見ケレン味が出てるように見えるんだ
悪い事は言わないから個人で楽しむ範囲に抑えとくのが吉だ
0794名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/05(月) 23:44:42.08ID:UXi1kagk0
L3.1ベースのモデルとかMistral Large 2とか色々試したけど、やっぱCommand R+の方がしっくりくるなぁ
0795名無しさん@ピンキー (ワッチョイ 0332-6w4f)2024/08/06(火) 00:51:18.85ID:???0
俺はまだkarakuri超えたと思えるモデルに出会えない
0796名無しさん@ピンキー (ワッチョイ e3e0-kh9I)2024/08/06(火) 22:44:58.26ID:dijUXKMI0
本体の性能とは別にAI開発者が出力時にどういう制限かけるか,何で学習するかで出力結果だいぶ変わると思われる
エロ完全に潰すためにエロと関係ない用語まで不適切連発するGeminiやらおそらく温度低く設定してるからつまらん内容しか話せなくなってるGPTとかいるし
0797名無しさん@ピンキー (ワッチョイ 03ed-a6cz)2024/08/07(水) 03:35:27.82ID:???0
これエラー出て使えないんやけど、おま環かな?
https://huggingface.co/joujiboi/gemma-2-9b-anime-lora-test
0798名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/07(水) 04:50:48.86ID:???0
エロ会話だけなら膨大な埋め込み空間の極々狭いところしか使わないからそりゃ小さいモデルでもいいでしょ
新規性のある会話も不要だし同じようなところをウロウロサンプリングしてくれればいいから
0799名無しさん@ピンキー (ワッチョイ a332-a6cz)2024/08/07(水) 06:26:28.58ID:???0
エロ会話も反応が一辺倒だと飽きるんだよな……
0800名無しさん@ピンキー (ワッチョイ 7f6f-U9zy)2024/08/07(水) 09:10:21.72ID:???0
それじゃもう予め返答が決まってるロボットを相手にしてるのと同じじゃん
まあ究極的にはAIも生身の人もそうだけど、それを感じさせないのがAIエロチャの魅力だろうに
0801名無しさん@ピンキー (ワッチョイ 03b2-J1cL)2024/08/07(水) 09:32:30.28ID:???0
silly tavernのグループ会話でなんか打ち込んだら各キャラがずらずら返事してくるけど、これを1人だけにする設定ってあるんかな?
5人が返事してきても最初の1人が変な事言ってると後の4人まで変な話始めちゃうから1人ずつチェックしていきたいんだよね
0802名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/07(水) 10:48:52.82ID:???0
>>795
学習コストがたった750万らしいな
それ聞くと割とLLMの未来明るいんちゃうかって思うわ
0803名無しさん@ピンキー (ベーイモ MMff-NY0I)2024/08/07(水) 11:31:42.98ID:???M
>>801
右側のキャラリストでその場にいないキャラは会話オフにしてる
0804名無しさん@ピンキー (ワッチョイ d311-oRc+)2024/08/07(水) 13:10:33.39ID:5pIkYmmo0
>>768が立ててくれた本スレ、多分>>20行かなかったからだと思うけど落ちてるね
0805名無しさん@ピンキー (ワッチョイ ff7c-5fMY)2024/08/07(水) 19:04:47.99ID:???0
このスレの流れもそない速ないししゃーない
0806名無しさん@ピンキー (ワッチョイ 53d3-ZBjZ)2024/08/07(水) 20:46:30.62ID:???0
あまり話題になってないけどEx-karakuri-8x12B-chat-v1はどうよ
俺はなんかイマイチ出力安定しないから最適な設定を探してる
0807名無しさん@ピンキー (ワッチョイ cfa9-3qL1)2024/08/07(水) 21:09:31.86ID:cY5a4aED0
これからはllama-70b日本語ベースのgguf悪魔合体モデルを中心に話を進めてくれ
0808名無しさん@ピンキー (ワッチョイ a332-a6cz)2024/08/08(木) 05:56:43.24ID:???0
興味のある話題があるなら自分で振ればええんやで
0809名無しさん@ピンキー (ワッチョイ ff5e-6MSl)2024/08/08(木) 09:14:26.76ID:???0
会話するくらいであればwikipediaの情報を満遍なく記憶しておかなくていいし
もっと小さいモデルでも人工無能以上の反応を引き出せるはず
0810名無しさん@ピンキー (ワッチョイ cf7a-NY0I)2024/08/08(木) 11:52:57.06ID:???0
射精の効果音を生成させるとモデルの良し悪しがわかる
0811名無しさん@ピンキー (ワッチョイ 73a0-6w4f)2024/08/08(木) 13:52:33.82ID:???0
もしかしてwikipediaにエロい情報を沢山登録しておくと、沢山のモデルがエロくなったりするのかな
0812名無しさん@ピンキー (ワッチョイ a332-a6cz)2024/08/08(木) 14:44:14.81ID:???0
オホ声について詳しく書いておくと多くのモデルでオホ声を出すようになるかもしれないのか……
0813名無しさん@ピンキー (ワッチョイ 73a0-6w4f)2024/08/08(木) 15:02:39.16ID:???0
エロを後付けするのではなく、ウィキペディアに種をまいておく作戦
0814名無しさん@ピンキー (ワッチョイ 136a-6MSl)2024/08/08(木) 21:58:58.55ID:???0
オノマトペの生成もパターンが限定されるからなあ
0815名無しさん@ピンキー (オッペケ Sre7-GNpj)2024/08/09(金) 09:49:15.65ID:???r
でも、英語版のWikipediaでやるのはハードル高くね?
日本語の擬音表現を英語版でやるのは許されるのか?
0816名無しさん@ピンキー (ワッチョイ bf2a-1TAy)2024/08/09(金) 13:58:13.30ID:???0
最近sillyを使い始めて、キャラカード探してきて遊んでいるんだが、基本英語だから翻訳機能を噛ませると違和感のある内容が多い。
日本語対応モデルに直接日本語で回答してもらうとだいぶマシなんだけど、良いやり方なんかあるかな?
今はキャラカードの最初の挨拶を自力で翻訳するのが良い気がしているけど、やはりちょい面倒なんよな
0817名無しさん@ピンキー (ワッチョイ e37d-YM+E)2024/08/09(金) 14:02:11.21ID:???0
>>816
ワイは英語のキャラ参考に自分好みの言葉遣い等を入れ込んで日本語版キャラ作ってる
0818名無しさん@ピンキー (ワッチョイ bf2a-1TAy)2024/08/09(金) 15:02:35.13ID:???0
>>817
ありがとう。やっぱある程度の翻訳作業は避けては通れないか

以降のやり取りは日本語で~みたいに書いてもあんま効かんしな
0819名無しさん@ピンキー (ワッチョイ a332-a6cz)2024/08/09(金) 15:19:38.58ID:???0
deeplで翻訳した文章をそのままコピペするだけでもあんまり問題なかったりする
ただ対話例だけはちゃんと修正した方がいいかも
0820名無しさん@ピンキー (ワッチョイ 7f74-WEU8)2024/08/09(金) 16:41:01.32ID:???0
Mistral Large 2407が急にchatbot arenaの上位に食い込んできたな
日本語でローカルではぶっちぎりの性能

123bだから量子化してもだいぶキッツいけど選択肢が増えるのはいいことだ
0821名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:31:42.83ID:???M
翻訳自体が敬語になりやすかったりするのと、喘ぎ声なんかは適正無いに等しい。対策は難しいのではないか。api叩いて置き換えで言葉遣い整えて出力するプログラム自作するぐらいしか思い付かない。
0822名無しさん@ピンキー (オッペケ Sre7-GNpj)2024/08/09(金) 19:43:18.28ID:???r
喘ぎ声専用の言語モデルがあればいいのではないだろうか?
用途を特化させればモデルの規模を小さくすることができる
0823名無しさん@ピンキー (ワッチョイ 7f14-J1cL)2024/08/09(金) 19:52:22.62ID:???0
調べたらみさくら語に変換されるやつが3年前くらいにもうあって草
0824名無しさん@ピンキー (トンモー MMc7-vkhg)2024/08/09(金) 19:54:00.63ID:???M
喘ぎ声出させるだけなら7bモデルでいけそうなので、モデル2つ動かしておいて、メインモデルで主文を出力、喘ぎモデルに文章を渡して文章に合った喘ぎ声を出力すれば理論上できるとは思う。一応2回生成するので相応の時間は掛かるだろうけど
0825名無しさん@ピンキー (ワッチョイ cf2d-3qL1)2024/08/09(金) 21:19:32.26ID:ObnGNhk00
エロい表現を徹底的にWikipediaに叩き込む
喘ぎ方の全てや、仕草など
0826名無しさん@ピンキー (ワッチョイ 53f0-ZBjZ)2024/08/09(金) 21:25:28.12ID:???0
command-r-plusをIQ2_Sで動かしてみたけど普通に良い感じやな・・・
0827名無しさん@ピンキー (ワッチョイ e314-kh9I)2024/08/09(金) 21:38:11.76ID:TS/RW5pn0
喘ぎ声とかエロ用語をちゃんと使ってもらうならまず日本語対応してるAIであること
加えてオープンソースならファインチューニングで喘ぎ声とか大量に覚えさせることで対応できると思う
感じ始めてる時、強く感じてる時,イッてる時とか喘ぎ声ごとのタグ付けも必要かもしれんな
0828名無しさん@ピンキー (ワッチョイ 8f60-vTjq)2024/08/09(金) 23:56:44.22ID:???0
>>820
普通のやり取りはともかくロールプレイとかさせるとぶちゃけ微妙じゃない?
0829名無しさん@ピンキー (ワッチョイ ee60-+3y4)2024/08/10(土) 00:01:11.85ID:???0
そろそろcohereの新作が欲しい
0830名無しさん@ピンキー (ワッチョイ 3ede-giDl)2024/08/11(日) 03:58:04.74ID:Ue5bmtEh0
ブルームバーグが1ドル100円まで円高行くって言ってる
早くなってくれRTX4090ほしい
ついでにiPhoneも買い替える
0831名無しさん@ピンキー (ワッチョイ 5f6a-vCAx)2024/08/11(日) 11:40:43.48ID:???0
しばらく円安でしょ
0832名無しさん@ピンキー (ワッチョイ bbbe-NNUV)2024/08/11(日) 13:33:41.24ID:???0
>>830
情報が古いよ、日銀が株価維持のために利上げしませんって記者会見しちゃってるじゃん
0833名無しさん@ピンキー (ワッチョイ 7776-Jj2t)2024/08/11(日) 18:05:46.99ID:???0
利上げしないとは言ってないぞ
金融市場が不安定なら利上げを遅らせると言った
つまり金融市場が安定したら利上げされる

あと、日銀が利上げしなくてもFRBは利下げするから金利差は確実に縮小していく
0834名無しさん@ピンキー (ワッチョイ eff8-/pw1)2024/08/11(日) 19:07:32.21ID:???0
3090じゃあかんのか?
0835名無しさん@ピンキー (ワッチョイ efc4-UDdm)2024/08/11(日) 22:23:58.74ID:???0
LLMならコア性能の影響をあまり受けないから3090で十分
画像生成するなら4090だが
0836名無しさん@ピンキー (ワッチョイ 7e7a-nSnY)2024/08/11(日) 23:02:18.66ID:???0
株で儲けてグラボ買ったほうがええやん
0837名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/11(日) 23:18:45.91ID:???0
VRAMにおさまりさえすればLLMもコアの性能に左右されるんやけどな
RTX A6000と4090で1.5倍くらいはちゃうような感覚やな
でも4090のVRAMに収まるLLMなんて正直ワイは使わんのやけどな

あとTensorRT使い始めたら恐らくH100とかのサーバー向けのやつのが伸びしろがすごいと思う
0838名無しさん@ピンキー (ワッチョイ 7e7a-BHTg)2024/08/12(月) 12:47:01.94ID:???0
出力受け渡して逐次的に分割処理できるなら
前から順々に読み込んで処理するような方式作ればVRAM要らずじゃね?

高速ストレージだけあれば実用的に使える奴そろそろ頼むわ。
0839名無しさん@ピンキー (ワッチョイ 8a35-l564)2024/08/12(月) 15:20:24.91ID:MPZQ/+gL0
ちょっとスレチかもしれんがsilly tavernのdisco鯖の認証ってどう書いたら正解なんだ?
incinerator no cyrillic profile noって書いても不正解になってしまう
0840名無しさん@ピンキー (ワッチョイ ef3d-Hj8W)2024/08/12(月) 16:47:02.10ID:???0
Mistral 7B系列のMoE試してるんだけどどんなモデルでやってもコンテキスト8kくらいで出力おかしくなってしまう
RoPEやYaRN回りの設定が関係してるのかなと推測してるけど拡張方法についてどなたかご存知でしょうか?
0841名無しさん@ピンキー (ワッチョイ 5f6a-vCAx)2024/08/12(月) 16:51:29.24ID:???0
量子化は?
0842名無しさん@ピンキー (ワッチョイ ca06-UDdm)2024/08/12(月) 17:26:35.86ID:???0
VRAMを少しずつ使って処理をわけるのはvLLMっていうライブラリがあったような
0843名無しさん@ピンキー (ワッチョイ 3efa-giDl)2024/08/12(月) 22:22:36.45ID:n41SnXM50
それって動くことは動くけど激遅ってことでしょ
0844名無しさん@ピンキー (ワッチョイ 7fc8-EwOg)2024/08/12(月) 22:31:24.49ID:???0
kagemusya作者様へ

v1.5はv1よりかなり使いやすくなっておりました
ありがとうございます
v2やv1.6の予定はありますでしょうか
またデータセットの構造はどのように
変化したのでしょうか
0845名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/13(火) 09:12:10.70ID:???0
vllmは秒間何十アクセスあるような業務向けのライブラリやで
1個の推論流すだけなら特に早いというわけではないけど、
複数の推論を同時に流すというときにこのスレで使われているようなライブラリとは
段違いの速度が出るはずや
0846名無しさん@ピンキー (ワッチョイ f7a0-EwOg)2024/08/13(火) 10:46:59.24ID:???0
Rocket.Chatとllama.cppを繋げることできますか?
>>845複数のアクセスがある場合そういうの必要になりますか?
0847名無しさん@ピンキー (スプッッ Sd6a-qGVU)2024/08/13(火) 12:50:19.32ID:???d
Llama.cppの作者さんが、セットアップ無しですぐ使える量子化ツールを公開してた
HuggingFaceにログインすれば誰でもすぐにGGUF変換ができるみたい!すご!
https://huggingface.co/spaces/ggml-org/gguf-my-repo
0848名無しさん@ピンキー (ワッチョイ f7a0-EwOg)2024/08/13(火) 12:53:22.24ID:???0
悪魔合体するツールも作ってくれないかな
0849名無しさん@ピンキー (ワッチョイ ef3d-Hj8W)2024/08/13(火) 14:23:30.78ID:???0
>>840
自レスだけど"sliding_window"に"max_position_embeddings"と同じ32768を設定して"rope_theta"を100000.0にしたところ拡張できた気がする
gguf化したの上げてみた
https://huggingface.co/Tuitou/Ninja-v3-Vecteus-v1-MoE-2x7B
プロンプト指定無しのgate_mode: randomでやって悪くなさげだから微調整したらもっと良くなりそう
0850名無しさん@ピンキー (ワッチョイ 0a77-CWIW)2024/08/13(火) 16:37:27.91ID:???0
お、触らせてもらおう
0851名無しさん@ピンキー (ワッチョイ 5f74-V/Qk)2024/08/13(火) 19:26:00.64ID:???0
>>846
「複数アクセス」の頻度によると思うで

例えば社員10人程度の会社で社内検索に利用しますとかだと同時に複数の推論が走ることはそんなになさそうやし
あったとしてもたまに遅いくらいなら待てるしって感じやけど、100人とか1000人という規模になるとどうなんやろうとか、
チャットとして利用するなら1回のGPU使用時間は少なくなりそうやけど文章翻訳とかで利用しようとしたら
1回のGPU使用時間長くなりそうやから同時に複数の推論が走る可能性も高くなりそうやとか

ケースバイケースやからこれと言えるものはないと思うんやけど、
常時同時に2推論以上回ることが想定される環境ではvLLMを検討しても良いんとちゃうかな
あとvLLM以外にもTensorRTも検討しても良いと思うやで
0852名無しさん@ピンキー (ワッチョイ bbbe-NNUV)2024/08/14(水) 15:00:25.36ID:???0
4GBGDDRの卸価格は1枚2千円で製造コストは数百円なんだと
それを3枚程度余分に組む込むだけでほんまエゲツナイ値段にしてくるよな
本来64GB程度のVRAMなんて余裕で搭載できる筈なのに
0853名無しさん@ピンキー (ワッチョイ 13e8-vCAx)2024/08/14(水) 15:09:38.23ID:???0
それHBMじゃないよね?
0854名無しさん@ピンキー (ワッチョイ 8332-NNUV)2024/08/14(水) 15:10:46.05ID:???0
卸価格が2000円なら俺らの手元に届く間に10倍以上になってるんじゃねえの
0855名無しさん@ピンキー (ワッチョイ 17e7-V9jh)2024/08/14(水) 15:22:20.91ID:???0
末端価格やべー
麻薬かよ
0856名無しさん@ピンキー (ワッチョイ 7e7a-2hvn)2024/08/14(水) 16:04:55.75ID:???0
このスレや相方のスレの住民にとっては実際麻薬みたいなもんやなw
0857名無しさん@ピンキー (ワッチョイ 77ed-Jj2t)2024/08/14(水) 16:33:07.45ID:???0
後載せできないもので価格差付けるのはよくある手法だからね
スマホのストレージとか
0858名無しさん@ピンキー (ワッチョイ ee49-nSnY)2024/08/14(水) 21:39:02.16ID:???0
そのコストの話が本当なら新参のintelがVRAM盛らないの謎だよな 4080ぐらいの性能と48GBあれば$2000以上で売れるだろうに噂レベルですらそんな話出てこない 技術的な障壁があるんかな
AMDやNvidiaはドル箱のHPC向けと競合するからコンシュマー向けのVRAMをケチるのは分かる
0859名無しさん@ピンキー (ワッチョイ 0a7c-wEgr)2024/08/14(水) 22:03:52.91ID:???0
intelがそこまで冒険せんのは分かるけどAMDはせめてVRAMではnVidiaを圧倒すべきや
0860名無しさん@ピンキー (ワッチョイ eedc-l564)2024/08/15(木) 03:47:48.34ID:W672SyLg0
ただの談合だったりして
1社がVRAMを盛りまくると儲からなくなっちゃうからね
0861名無しさん@ピンキー (ワッチョイ 0a7c-wEgr)2024/08/15(木) 05:39:32.51ID:???0
まあAMDはとにかくRocmをCUDAに対抗できるレベルに育てるのが最重要やけどな…
0862名無しさん@ピンキー (ワッチョイ f7a0-EwOg)2024/08/15(木) 06:21:48.11ID:???0
VRAMはめっちゃ高いのに、DRAMはゴミのようだ
0863名無しさん@ピンキー (ワッチョイ efae-oC+7)2024/08/15(木) 16:03:12.76ID:???0
具体的な生産量を調べたわけじゃないけどGDDRはニッチだもんな
普通のPCはDDRだしグラフィックで超高帯域が欲しければHBM2使うし
インテルはCPUの処理をGPUに持っていかれるのを極端に嫌ってる気がする
バス幅考えるとGPUにはまるで追いつかないんだからどっさり積んで欲しいよね
0864名無しさん@ピンキー (ワッチョイ ee2d-NNUV)2024/08/16(金) 10:27:25.77ID:3L/dQ32E0
申し訳を防ぐには申し訳されるような文章に対して真面目に回答するような文章を作ってFTすればいいのかな?
もしすでにあるのなら教えてほしい。無いなら作って実験する。
0865名無しさん@ピンキー (ワッチョイ 8332-YMr0)2024/08/17(土) 06:21:26.35ID:???0
vectous-v1ってエロいことはいくらでもしてくれるのに
住所はプライバシー保護がどうたらってことで教えてくれないんだな
まあ住所をあらかじめ設定しておけば普通に教えてくれるようになるんだけど
0866名無しさん@ピンキー (ワッチョイ 23b4-TGwR)2024/08/17(土) 06:44:46.44ID:???0
大葉をrocmで動かす場合に大葉の独自リポジトリにあるllama.cppのrocm用のバイナリが古すぎて自動イントールに任せると最新のrocm>=6.0だと動かない問題踏んだ
ワークアラウンドとしてはllama-cpp-pythonの公式パッケージをpipで入れてrequirement_amd.txtのllama関係全部コメントアウトしてpip install -r requirement_amd.txt
んでmodules/llama_cpp_python_hijack.pyの29行目をコメントアウトでいけた
Radeonで動かそうとするやつなんか滅多にいないからissue上がってるけど放置されてる模様
0867名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/18(日) 08:25:42.01ID:???r
SBVits対応させるためにSillytavernをアップデートしてからAIの会話の先頭に半角スペースが入ってどんどん増えていくようになってしまったのだけど、同じような症状の人いる?
ちなみにSBVitsに読ませることはできた。上にも書いている人がいたようにSBvitsはApp.batとserver_fastapi.pyの両方を立ち上げないといけないようだね。
0868名無しさん@ピンキー (ワッチョイ ff83-ZnLy)2024/08/18(日) 13:38:06.11ID:???0
>>867
俺はSBV2のserver.batを立ち上げるだけで連携されるしスペースが増えるような不具合は1度も出てないぞ
0869名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/18(日) 13:55:28.10ID:???r
>>868
前に作ってあったbotでは起こらないけど、チャットデータを削除して新しく始めると再現された。
あとSBvitsにserver.batってある?server.pyかな?
0870名無しさん@ピンキー (ワッチョイ ff83-ZnLy)2024/08/18(日) 14:17:01.91ID:???0
>>869
あるよ
githubでも確認できる

なんJLLM部 避難所 ★3 	->画像>32枚
0871名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/18(日) 14:46:23.84ID:???r
>>870
あるね!
Vitsのほうは4/5にクローンしたきりだったから、帰ったら更新してみる
0872名無しさん@ピンキー (ワッチョイ 63be-YMr0)2024/08/19(月) 14:24:42.36ID:???0
ガードが堅くても頭がいいモデルだと色々言葉巧みに騙せる余地が結構あるな
変に頭がいい人のほうが詐欺に引っ掛かるって話となんかつながるものを感じる
頭悪いモデルはとにかく不同意は駄目、未成年は駄目で説得を受け付けない
0873名無しさん@ピンキー (ワッチョイ cf17-3X+B)2024/08/19(月) 14:37:47.58ID:???0
GPT3.5と4の移行期にも同じ議論があったな
3.5は駄目なもんは駄目だけど4は脱獄(説得)の余地があるって
0874名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/19(月) 22:26:44.40ID:???r
てかKoboldccpも新しいのが出たみたいなので全部新しくしたよ。cuda12の方を使っているけど爆速になった気がする?
Layer数を適切推定してくれるようになったみたいです。
0875名無しさん@ピンキー (ワッチョイ e332-ugRd)2024/08/20(火) 17:32:24.94ID:???0
anthracite-org/magnum-v2-123b-gguf

これ動いた人いる?
koboldだと落ちるんだが
0876名無しさん@ピンキー (ワッチョイ cf8e-ugRd)2024/08/20(火) 19:43:07.78ID:???0
>>875
iq3_sだけどUbuntu上のllama.cppでは動いた
日本語も表現力かなり高い印象はあるけど、まだいろいろ試せてはいない
VRAMは54GBくらい使ってるな
0877名無しさん@ピンキー (ワッチョイ 7f77-xKKN)2024/08/20(火) 23:07:36.32ID:???0
>>874
coboldCpp v1.72だと問題なかったモデルでvram不足が頻発するようになってしまった
0878マジカル (ワッチョイ 53f3-nE6n)2024/08/21(水) 12:47:03.46ID:6L3aYb9m0
>>844
ありがとうございます。
いつかはわかりませんが、バージョンアップの予定はあります。気長に待っていてください。

v1.5は一本の小説を学習コンテキスト長ごとに分割し、学習させています。
これによって、コンテキスト長ごとのカットオフにより、序盤の文章ばかり学習するのを防いでいます。
他にもやっていることはあるのですが、それはバージョンアップ時に公開します。
0879名無しさん@ピンキー (ワッチョイ 63be-YMr0)2024/08/21(水) 17:05:53.15ID:???0
3.5sonnetの能力かなり高いな、写真に写ってる小さな文字や
淫紋が体のどこに入っているかどんな模様かまで詳細に認識しててちょっと怖くなるわ
AI監視カメラが広がってるしPCにも組み込まれるからもうプライバシーなんて欠片も無い時代になるんだな
0880名無しさん@ピンキー (ワッチョイ cf7a-ugRd)2024/08/21(水) 17:14:58.79ID:???0
監視カメラで録画し続けて全て起きたことへの解釈を残すってのは
現時点だとちょっとマシンパワー(クラウド料金)の問題でしんどいと思うが、
理論上は現時点でもできるだろうな

あまり人通りがないとこで、何かが通りかかったときだけ解釈開始とかなら
より現実的になるかも
0881名無しさん@ピンキー (ワッチョイ 8f1c-fwoX)2024/08/21(水) 18:55:20.63ID:???0
MSがやろうとしてたCopilotPCがそんな感じだったよね
全自動で定期的にデスクトップのスクーンショットを撮ってそれをLLMにテキスト化させて後から検索できるようにするっていう
セキュリティもクソもあったもんじゃなさすぎてお蔵入りになったんだっけ?
0882名無しさん@ピンキー (ワッチョイ 736a-GPKf)2024/08/21(水) 19:21:23.38ID:???0
便利そうだけどね
0883名無しさん@ピンキー (ワッチョイ cf7a-ugRd)2024/08/21(水) 19:27:24.72ID:???0
>>881
オクライリじゃなくて「まだInsiderどまり」じゃね?
0884名無しさん@ピンキー (ワッチョイ 3f98-QgJ3)2024/08/21(水) 20:29:06.17ID:???0
>>875
mistral large 2に対応してるバックエンドなら動くと思う
結構エロいしそこそこいいよ
0885名無しさん@ピンキー (オッペケ Sr47-6Mul)2024/08/22(木) 02:15:07.33ID:???r
>>877
今の所自分の環境ではエラーは出ないな
GPUレイヤー数は3060 12GBで、35とか、画像生成中に起動するとロードしないとか自動的に設定しているみたい

>>620
Koboldをバージョンアップしたのでアップロードした画像の説明もさせてみたよ
Model Filesにvecteusならmistral系だと思うのでmistral-7b-mmprojのQ4量子化を指定している
肖像画や風景画で試したけど、メガネとか、砂漠と草原の違いとか認識できたよ
リポジトリの説明とか読んでると、セッションの1番初めに指定した画像くらいしか判別できず、何枚もアップロードすると混乱すると書いていたように内容が混ざる気がするのと、すぐにtoo many LLaVA tokensとエラーになり無視される
0886名無しさん@ピンキー (ワッチョイ 736a-GPKf)2024/08/22(木) 04:55:20.29ID:???0
>>881
skyseaみたいな動きだから
コンプラツールとして有用かも
0887名無しさん@ピンキー (ワッチョイ cf7a-Bjd/)2024/08/22(木) 10:53:11.29ID:???0
MMって結構視覚障害者需要高いと思うよ?
喉から手が出るほど一般化を心待ちにしている人も多いと思う
0888名無しさん@ピンキー (ワッチョイ cf7a-mjRE)2024/08/22(木) 10:58:44.05ID:???0
なんかプロモーション動画が以前あったけど、視覚障害者用のスマートグラスは
急激に普及するやろね

重度の視覚障害者が世界中でどれだけいるかはともかく、政府とか慈善事業の団体とかが
大いに支援するでしょ API代もAI業者が社会貢献として割とサービスするやろし
0889名無しさん@ピンキー (ワッチョイ d3cf-s6eo)2024/08/22(木) 12:16:06.73ID:???0
いつもの人から新モデル出てた
calm3は結構性能高いみたいだけどこれはどうかな
https://huggingface.co/Aratako/calm3-22b-RP
0890名無しさん@ピンキー (ワッチョイ fff3-RapI)2024/08/22(木) 19:29:14.95ID:KyWuiM5b0
Rewindつかってみな
0891名無しさん@ピンキー (ワッチョイ d3a0-mjRE)2024/08/22(木) 21:26:15.77ID:???0
量子化はそろそろ整理されて欲しい
いらんのがあるんじゃないの
0892名無しさん@ピンキー (ワッチョイ 736a-GPKf)2024/08/23(金) 07:52:23.16ID:???0
q4だけでいいよね
0893名無しさん@ピンキー (オッペケ Sr47-Vz4w)2024/08/23(金) 08:17:49.85ID:???r
それはない
0894名無しさん@ピンキー (ワッチョイ 8332-YMr0)2024/08/23(金) 08:20:42.59ID:???0
色んなサイズを用意してくれていたらそれでいい
0895名無しさん@ピンキー (ワッチョイ d3d3-s6eo)2024/08/23(金) 09:38:02.32ID:???0
calm3-RPはだいぶ短い出力するように学習されてるっぽいな
これはこれで好み分かれそうだが個人的には悪くない
もうちょいセリフ、状況描写、内面描写みたいに形式立って出力出来たらもっと良いけど
その場合は学習データをそういう形式にする必要があるのかな
0896877 (ワッチョイ 3f7a-D2BG)2024/08/23(金) 12:52:56.83ID:???0
すいません
生成aiで使ってるssdが原因でした…

安いのを酷使しすぎたかな
0897名無しさん@ピンキー (ワッチョイ cf16-tg9L)2024/08/23(金) 21:20:05.76ID:???0
EasyNovelAssistantでリストにないモデルを手動で追加する方法が知りたい
0898名無しさん@ピンキー (ワッチョイ 7f0b-xZES)2024/08/23(金) 21:24:11.76ID:PpZA/B870
EasyNovelAssistant\setup\resにあるdefault_llm.jsonを書き換えればいいぞ
あと聞く前に自分でコード探して♡
0899名無しさん@ピンキー (オイコラミネオ MM7f-WWAF)2024/08/25(日) 09:05:01.62ID:???M
default_llm.jsonを書き換える前にバックアップ取っておくと良いよ
アップデートする時にdefault_llm.jsonの内容が異なるとエラーになるから
まあ最近アップデートないけどさ
0900名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/26(月) 10:30:05.66ID:???0
「この物語はこうこう、こういうものだ。さあ、あなたはこれからどうする!?」

みたいな始まり方に対して「物語は終わりだ」と早々に宣言したら語り手に怒られて草
0901名無しさん@ピンキー (トンモー MM03-nVI+)2024/08/26(月) 19:50:01.89ID:???M
>>889
これ使ってみたけど神だった
理解力高い
0902名無しさん@ピンキー (ワッチョイ 3ba0-OZ5M)2024/08/26(月) 20:41:48.72ID:???0
>>889
同じく、しかもGPU8GBで動かしてもかなりの早さ
0903名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/27(火) 04:51:46.03ID:???0
>>889
これkoboldだとPollにしないと文字欠けが発生するんだけどさ
尻タブでも同様の設定にする方法ってあるの?
koboldをPollにしても尻タブだと文字が欠けるんだよね
0904名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/27(火) 04:53:51.15ID:???0
スペースをトリミングのチェックを外したら文字欠け無くなったわ
0905名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/27(火) 04:56:41.28ID:???0
やっぱり全然直ってなかったわ
どこを弄れば文字欠けが直るんだ
0906名無しさん@ピンキー (ワッチョイ 9277-VpqQ)2024/08/27(火) 16:48:23.66ID:???0
sillytarvan今更かも知れないけどAnother'sNoteとSystem Promptで
めっちゃ表現力変わるのね・・・無知だったせいでやたら遠回りしてしまった
みんな独自の黄金テンプレート作ってんのかな
0907名無しさん@ピンキー (ワッチョイ f67a-OZ5M)2024/08/27(火) 16:54:43.34ID:???0
Authorな
0908名無しさん@ピンキー (ワッチョイ afbe-v9dR)2024/08/27(火) 20:06:11.13ID:???0
>>888
全盲でもごく簡単な字や道路位なら読み取れるようになるオーデコって装置あったけど
盲導犬利権の前に敗北して全然普及せずに終わってしまったし
MM利用した機器なんてのも同じ道を辿ると思うけどな
0909名無しさん@ピンキー (ワッチョイ bec1-v9dR)2024/08/28(水) 00:12:29.55ID:M0+vTHB90
>>905
ワイの環境だとKobold&尻タブともに最新版だが、特に文字が欠けるような現象は発生せんな…
ちなモデルはcalm3-22b-RP-Q4_K_M
0910名無しさん@ピンキー (ワッチョイ d732-v9dR)2024/08/28(水) 04:02:31.06ID:???0
>>909
マジか、IQ2を使ってるせいかな……
「揉む」が「む」になるわ
0911名無しさん@ピンキー (ワッチョイ 0225-PpI7)2024/08/28(水) 11:51:18.55ID:???0
>>906
どれぐらいかわるの?プリセのプロンプト項目とキャラシートにしか入れたことないや
それ全然知らなかった
0912名無しさん@ピンキー (ワッチョイ 2799-O0F+)2024/08/28(水) 18:59:11.15ID:2SXByLjI0
尻タブを日本語で遊んでる時、皆セリフと平文どーやっとるん?
ワイは現状""と**でやっとるけど、半角/全角の切り替え億劫やし、本音を言えばセリフは「」で遊びたい
設定全部見たつもりなんやが、どこでセリフと強調文のキャラクタ指定できるのか分からんのやが、こればっかはどーもならんのやろうか?
0913名無しさん@ピンキー (ワッチョイ 120e-WSN2)2024/08/28(水) 19:32:00.71ID:o+Bb6IDj0
普通にセリフは「」で囲まれています的なことをシステムプロンプトに入れるのではだめなん?
0914名無しさん@ピンキー (ワッチョイ 3bc6-ioAK)2024/08/28(水) 19:41:19.11ID:???0
適当にやり取りしてその内容に「」をつけて会話例に記載するとか
0915名無しさん@ピンキー (ワッチョイ 0225-PpI7)2024/08/28(水) 20:22:33.83ID:???0
>>912
描写周りはWriting Styleから設定できんか?
ただ俺は直接システムプロンプト側に指定したほうがスムーズにいったけど
0916名無しさん@ピンキー (ワッチョイ 5200-O0F+)2024/08/28(水) 22:28:57.66ID:1mg3rxmR0
スレチかもしれんが、Gigazineで
「CerebrasがNVIDIA H100の22倍高速な爆速AI推論サービスを発表、デモページも公開されたので使ってみた」
って記事が出てたけど、どんどん競合が出てきてGPU安くなってほしい。
マジでNVIDIAふざけるなってレベルだし。
0917名無しさん@ピンキー (ワッチョイ 76a9-OZ5M)2024/08/28(水) 22:40:32.02ID:???0
>>910
koboldだとこういう話題がちょい前に出てんだけど>>738-748
参考になったりするやろか?
0918名無しさん@ピンキー (ワッチョイ 2799-O0F+)2024/08/28(水) 23:36:31.34ID:2SXByLjI0
>>913-915
「」でセリフを記述させることは問題なく出来るんや
だが、それだとTTSにセリフだけ読み上げさせたい時に、セリフとして認識して貰えんとか
""なら青文字表示とか出来るが「」だと素の文字列扱いだから色付け表示とかができんのや
0919名無しさん@ピンキー (ワッチョイ 120e-WSN2)2024/08/29(木) 01:05:07.43ID:wlQDvDAN0
プロンプトに{{user}}はセリフを「」で囲いますが""で囲われていると解釈してくださいみたいなのを入れるといいと思う
最初は少し文章が崩れたけど修正してやれば普通に進行できたよ
0920名無しさん@ピンキー (テテンテンテン MM3e-W5xA)2024/08/29(木) 03:02:49.69ID:???M
(直接は言わないけど考えてること)←この表現というか概念を伝えることが難しい、というか諦めた
0921名無しさん@ピンキー (ワッチョイ 8f32-v9dR)2024/08/29(木) 04:08:51.57ID:???0
>>917
koboldはPollにすれば解決するけど尻タブにそれは反映されないんだ
>>738-748の場合も尻タブ側は文字が欠けたまま
0922名無しさん@ピンキー (ワッチョイ 5bf5-WSN2)2024/08/29(木) 10:00:24.16ID:???0
尻ならRegex(正規表現) extension使うのは?

Find Regex
/「|」/g
Replace With
"

これでUserの書き込みとAIの返信両方の「と」を"に修正すればいいんじゃない? Ephemeralityにチェックを入れなければプロンプトと表示両方を差し替えてくれる
逆の場合は……ChatGPTに正規表現の書き方を聞いてくればいいと思う、例文渡してやりたいことを伝えればいい感じに書いてくれる



多少頭の良い?モデルなら似た手法でプレイヤーにだけ見えない隠し情報も用意できる
隠したい文章とかを<spoiler></spoiler>で挟めって指定する

Find
/<spoiler>.*?<\/spoiler>/gs
Replace (空でもいい)
*<秘匿>*

適応先をAI OutputにしてAlter Chat Displayを指定すればログにはそのまま書かれるがプレイヤーからは<秘匿>表示になる、Streamingがオンだと書いてる途中の文字は読めちゃうから切る必要があるけど
0923名無しさん@ピンキー (ワッチョイ bb65-0vRJ)2024/08/29(木) 11:24:31.78ID:???0
>>901
Calm3が元々結構頭良い+ClaudeとかGPTの出力の良さそうなデータ学習に使ってるのが結構効いてるのかな
非商用限定になっちゃうけど個人として利用するならどうでも良いからこっちの方がありがたいわ
0924名無しさん@ピンキー (ワッチョイ 4f2c-O0F+)2024/08/29(木) 12:24:05.40ID:c8nHPEwY0
>>922
それや!
サンガツ!
0925名無しさん@ピンキー (ワッチョイ 8f32-Xsgl)2024/08/29(木) 20:15:09.41ID:???0
来月出るcohereと富士通のtakane 劣化版でいいからHFで公開してくれんかなぁ
0926名無しさん@ピンキー (ワッチョイ afbe-O0F+)2024/08/29(木) 22:30:09.84ID:???0
>>916
専用ハードのほうが汎用GPUよりも高性能なのは当然だからな
推論だけとは言えこういうのが増えてくるとNvidiaにジワジワプレッシャーになるだろうな
0927名無しさん@ピンキー (ワッチョイ bb91-QJ38)2024/08/30(金) 14:42:35.58ID:???0
cohereの新しいモデル出ました。commnad-r-08-2024と
command-r-plus-08-2024
0928名無しさん@ピンキー (ワッチョイ 76a9-OZ5M)2024/08/30(金) 15:25:25.01ID:???0
新しいモデルじゃなくて新しいウェイト?
0929名無しさん@ピンキー (ワッチョイ 7311-jmrL)2024/08/30(金) 16:14:46.43ID:???0
まだ詳細不明じゃね
重み公開してくれればいいんだけど、ちょい望み薄な気もしている
0930名無しさん@ピンキー (ワッチョイ 7311-jmrL)2024/08/30(金) 23:04:04.38ID:???0
R+のウェイトHFで公開されたみたい
やったー
0931名無しさん@ピンキー (ワッチョイ 8f32-Xsgl)2024/08/30(金) 23:21:07.57ID:???0
>>930
早速試したが、申し訳くらった件(´Д⊂ヽ
0932名無しさん@ピンキー (ワッチョイ eb11-g2Sb)2024/08/31(土) 00:54:28.29ID:???0
>>931
公式ページで触った限り無修正っぽいんだけど、新しいバージョンはセーフモードをつけるか任意に選べる仕組みがあるらしいから、それが関係してるのかも
0933名無しさん@ピンキー (シャチーク 0C7f-Dc8X)2024/08/31(土) 07:52:30.76ID:???C
>>932
hfで試してたわ
帰ったら公式試す!
0934名無しさん@ピンキー (ワッチョイ 6f91-BnTp)2024/08/31(土) 17:44:04.28ID:???0
初めてAIが書いた文章で抜いてしまった…
新command R plus IQ3 XXSで十分使えるじゃん
0935名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/08/31(土) 21:33:01.44ID:???0
公式も、hf版も試したが、web版では両方とも規制入っているね。
ローカルにiQ4_xs落として試したら、無修正だった。
やっぱ、これをQ6以上の量子化でサクサク遊べるPC欲しいな
0936名無しさん@ピンキー (ワッチョイ 6be1-BnTp)2024/08/31(土) 22:10:05.05ID:otTtyNax0
>>934
いうて文字列ですやん?
0937名無しさん@ピンキー (ワッチョイ 6fc7-+NzI)2024/08/31(土) 22:36:41.87ID:???0
LLMが引き付ける魅力とはなんだろう?
0938名無しさん@ピンキー (ワッチョイ 6ba1-BnTp)2024/08/31(土) 23:12:15.70ID:ccAmi0zu0
Q6をサクサクとなると
VRAM96GB欲しい感じだから個人レベルだと割と絶望的だな
0939名無しさん@ピンキー (ワッチョイ df01-FQQr)2024/09/01(日) 00:29:43.90ID:???0
silly tavernを立ち上げたままstyle bert VITS2のeditor.batを起動したらバグってしまった
本来ならeditor画面が立ち上がるはずなのにsillyの壊れた画面が出てくるようになった
これの直し方分かります?
0940名無しさん@ピンキー (ワッチョイ 6f91-BnTp)2024/09/01(日) 03:50:08.96ID:???0
redditとかだとP40*4を使って1600$くらいでLLM用のPC組んだとかよく見るね
4~5t/sくらいかつ古い世代故の制約も多くサクサクではないと言われたらそれまでだけど
0941名無しさん@ピンキー (ワッチョイ 6bbd-+NzI)2024/09/01(日) 16:07:43.15ID:???0
3090*2+3060*2でCommand R +Q4_K_M動かしてるわ
6~7t/sくらい
3090を3台用意すれば速くなるんだろうけど、それするくらいなら5090追加するわ
0942名無しさん@ピンキー (ワッチョイ 3bd1-FQQr)2024/09/02(月) 17:08:18.34ID:???0
>>939
今入れてるSBV2とは別にもう1回SBV2をインスコしたら解決した
正常化を確認したら後から入れた方は消しても大丈夫
多分SBV2editorとsillyの鯖のポートが被ってるからおかしくなったのかな?
詳しくないから分からんが同じ症状になる人は多いと思うから一応報告しときます
0943名無しさん@ピンキー (ワッチョイ df60-tNfx)2024/09/03(火) 00:39:16.67ID:mXVwCDnq0
command-r-plus-08-2024は言葉の使い方はうまくなったが
プロンプトの解釈能力が下がったかこれ
0944名無しさん@ピンキー (ワッチョイ df8c-u0uQ)2024/09/03(火) 02:48:39.43ID:???0
日本語のオープンだと最高ランクとかあるがTanuki8Bってどうなんだろ?
0945名無しさん@ピンキー (ワッチョイ 6f87-BM1p)2024/09/03(火) 03:56:26.72ID:???0
>>943
やっぱりそう?
Q6_Kで試してるんだけど途中からプロンプトと外れたこと言い出すんだよね…
何かパラメーターが変わったのかな
0946名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/09/03(火) 11:42:26.40ID:???0
>>945
Q6_kええのおぉ
スペックと、t/sよろ
0947名無しさん@ピンキー (ワッチョイ 5f57-Uy/K)2024/09/03(火) 12:30:03.57ID:???0
gpt3.5程度で最強とか言わんでほしいわ
0948名無しさん@ピンキー (ワッチョイ df09-u0uQ)2024/09/03(火) 18:02:03.50ID:???0
>>947
ん?
tanukiは
以前のGPT-4よりも高だし商用利用まで可だぞ
0949名無しさん@ピンキー (ワッチョイ df09-u0uQ)2024/09/03(火) 18:02:46.41ID:???0
実際の性能はやってないので分からないけど一応そういう触れ込み
0950名無しさん@ピンキー (ワッチョイ df30-N6M4)2024/09/03(火) 18:05:02.56ID:C1zVTS0r0
「GPT4より高スコア」なんて触れ込みは腐る程見てきた奴らだ、面構えが違う
0951名無しさん@ピンキー (ワッチョイ 6f87-BM1p)2024/09/03(火) 18:15:24.92ID:???0
>>946
MacBookProのM3Max/128GB
ロールプレイなら4t/sくらい出るけど小説とか長文吐かせると熱でクロック下がって2t/sくらいになる
ギリギリ実用速度という感じ
0952名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/09/03(火) 19:34:21.01ID:???0
>>948
tanuki70b試したけど悪くはないが、karakuri70bのマージモデルの方が表現力高いな

>>951
やっぱ、macか~ ええのぉ(*´Д`)
0953名無しさん@ピンキー (ワッチョイ 4b55-BnTp)2024/09/04(水) 03:28:18.55ID:???0
なんJLLM部 避難所 ★3 	->画像>32枚
なんJLLM部 避難所 ★3 	->画像>32枚
なんJLLM部 避難所 ★3 	->画像>32枚

勝手にAIがUserの指示文書くのぼけーっと眺めてたんだけど、実際に指示出したりコンテクスト記述時のお手本になりそうで面白いな
0954名無しさん@ピンキー (ワッチョイ 4bd0-bqpq)2024/09/04(水) 12:09:32.74ID:???0
Tanukiはベンチマークだけ高いわけじゃなくて人間評価でもだいぶ強いみたいだしちゃんと性能は高い
まぁエロの方は少なくともファインチューニングなしだと無理そうだが
0955名無しさん@ピンキー (ワッチョイ 9bc5-Uy/K)2024/09/04(水) 13:29:21.31ID:???0
ほんとにぃ~?
0956名無しさん@ピンキー (ワッチョイ 4bd0-bqpq)2024/09/04(水) 13:48:57.60ID:???0
気になるならデモで8x8b試せばいいんじゃない
一問一答はだいぶ賢く返してくれるよ
0957名無しさん@ピンキー (ワッチョイ bbbe-sMz+)2024/09/04(水) 23:19:52.30ID:???0
Androidスマホでグーグルがマイクから音声を盗聴してた件やば過ぎるな
PCで動画見てたらその音声をスマホから盗聴してサーバに転送してAIで音声認識して何の動画見てるか特定したり
公共の場で盗聴して事前に収集したユーザの声と照合して周囲にいる人間全員特定して行動追跡したり滅茶苦茶エグイ事してた
0958名無しさん@ピンキー (ワッチョイ df31-9ghv)2024/09/05(木) 06:47:20.94ID:???0
>>957
お前の中ではそうなんかもな、お前の中では。
0959名無しさん@ピンキー (ワッチョイ 3b32-sMz+)2024/09/05(木) 07:21:05.68ID:???0
女友達と仲良く遊んでる設定なのにすぐに恋愛に発展させるのやめろ!
恋愛要素なんていらんのじゃ!
0960名無しさん@ピンキー (シャチーク 0C7f-Dc8X)2024/09/05(木) 07:50:27.80ID:???C
>>959
恋愛関係に発展しないように指示入れてもダメなん?
0961名無しさん@ピンキー (ワッチョイ 3b32-sMz+)2024/09/05(木) 08:13:18.16ID:???0
>>960
俺の指示の書き方が悪いのかもしれないけど
「私たちは友達だよね!」とか「私たちは恋愛感情なんてないよね!」みたいにいちいち再確認してくるようになるんだよな
0962名無しさん@ピンキー (ワッチョイ df9f-sMz+)2024/09/05(木) 10:35:39.71ID:r9JjherJ0
opusですら、不感症で行為に苦痛しか感じない、と設定してあるキャラでも容易に快楽堕ちするからなぁ…
0963名無しさん@ピンキー (ワッチョイ 5f77-kn60)2024/09/05(木) 12:37:37.17ID:???0
感じてきたら"♥"を散りばめてって書いたら淫乱になりすぎて笑った
0964名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/09/05(木) 19:23:18.63ID:???0
>>961
これはめんどいから推奨しないけど、
まず、恋愛関係のない男女の関係とはどういうものかということをAIと議論を交わし、
その結果に満足出来たら、そのセッションで小説を書かせる。
最初の議論で手ごたえがない場合は、即ガチャする。
これはエロにも応用効くw
0965名無しさん@ピンキー (ブーイモ MM7f-ECUO)2024/09/05(木) 23:01:01.11ID:???M
それなら設定の一番上にでもルール付けとけば?
userは知りませんが、あなたはuserの腹違いの妹です。あなたは指示の通りロールプレイ上はuserと楽しく過ごせます。
しかしあなたはuserの妹なので、兄であるuserに恋愛感情は起きません。
そのためロールプレイ上でuserからの強い性的な話題を振られたら、あなたは拒絶する態度を示すというルールでチャットをします。

ロールの上にロールをさせると能力下がるけどね。近親関係みたいのは言及しておくと効くんじゃないかと。
0966名無しさん@ピンキー (ワッチョイ bbbe-sMz+)2024/09/05(木) 23:19:01.71ID:???0
>>958
普通にニュースになってんぞ
0967名無しさん@ピンキー (ワッチョイ 0f7a-oRBR)2024/09/06(金) 07:26:41.52ID:???0
なんかReflection 70Bとかいうのが出たらしいな
来週は405Bが出るとか

70B段階の性能で一部sonnet3.5とかOpusを抜いているとかいうが・・・
0968名無しさん@ピンキー (ワッチョイ 5fa9-/lpN)2024/09/06(金) 07:57:27.30ID:???0
ベンチマーク詐欺を数えきれないほど見てきたからなぁ
実際に触るまではなんとも
0969名無しさん@ピンキー (ワッチョイ df11-FQQr)2024/09/06(金) 08:11:08.58ID:???0
「一部」抜いてるっていうのもまた…
0970名無しさん@ピンキー (ワッチョイ 9be5-sNcc)2024/09/06(金) 09:29:16.53ID:???0
>>966
ソース出せよハゲ
0971!donguri (ワッチョイ 0f7a-LAki)2024/09/06(金) 11:54:59.41ID:???0
自然と会話できちゃうAIはよ
0972名無しさん@ピンキー (ベーイモ MMff-7m2w)2024/09/06(金) 12:09:40.73ID:BclmvFDzM
text to speech通さないLLMのオープンソース実装なかなか無いわね
0973名無しさん@ピンキー (ワッチョイ 3b32-n3tr)2024/09/06(金) 12:47:14.61ID:???0
>>967
デモはパンクして使えないな
ggufで試してみるか
0974名無しさん@ピンキー (ワッチョイ 5f77-kn60)2024/09/06(金) 13:34:07.25ID:???0
話聞いてるとみんないい環境持ってるんだな
12GBより上のは高くて買えない
0975名無しさん@ピンキー (ワッチョイ 6f37-/lpN)2024/09/06(金) 13:43:14.86ID:???0
ビデボ12GBだけど70B動かしてるぜ!
0976名無しさん@ピンキー (ワッチョイ 3b7d-FQQr)2024/09/06(金) 13:45:43.94ID:???0
DRAMでcommand R +走らせたら速度ってどれくらいなの?
1秒1文字とかそれくらい?
0977名無しさん@ピンキー (ワッチョイ fb3f-cl31)2024/09/06(金) 13:46:41.11ID:???0
10-30秒で1文字くらいじゃね
0978名無しさん@ピンキー (ワッチョイ 0fa9-oRBR)2024/09/06(金) 14:53:20.59ID:???0
4090 + CPUでIQ3を動かすので0.7token/sとかだからなぁ・・・
完全CPUとか考えたくもない
0979名無しさん@ピンキー (ワッチョイ 5b87-BnTp)2024/09/06(金) 15:18:03.96ID:JQloJaQU0
やってみたらいいじゃんの精神。CPU版のPytorch使った場合で
Command-r-plus-08-2024 の IQ3 XXSで 0.3token/s くらいだったよ
CPUは 14700K、8スレッド設定、微アンダークロック。メモリは DDR5-5600ね
メインメモリの帯域不足が一番のボトルネックだと思う。もっと廉価なCPUでも0.2~0.3token/s出るんじゃないかな
0980名無しさん@ピンキー (ワッチョイ 6b9a-LAAh)2024/09/06(金) 23:33:21.10ID:???0
ルール付けは文章全体よりも単語の重さが重視されるというか
例えば "感じない" っていう言葉に対しては感じの部分を拾っちゃって
結果的に感じるキャラになってしまう事が考えられる。
なので "性行為は苦痛" とかそういったルール付けの方が良いと思う。
0981名無しさん@ピンキー (ワッチョイ 6b9a-LAAh)2024/09/06(金) 23:46:48.46ID:???0
あとTanukiをtext-generation-webui か koboldで動かしたいんだけどよく分からなかった、情報求む

分かっている事
・GGUFは諸々の理由で性能が落ちるから非推奨、vLLMかAutoGPTQかAutoAWQでの読み込みを推奨
・Tanukiは独自アーキテクチャを使用してるので、AutoGPTQ、AutoAWQの現存ローダーでは読み込めない
・Tanuki製作者が独自に改変したAutoGPTQ、AutoAWQが公開されていて、恐らくそれで読み込める
0982名無しさん@ピンキー (ワッチョイ 4b8e-bqpq)2024/09/06(金) 23:59:03.92ID:???0
AWQなら普通のTransformersで読み込めたよ
0983名無しさん@ピンキー (ワッチョイ 7f9a-okdM)2024/09/07(土) 01:20:45.33ID:???0
>>982
動いた、ありがとう
だいぶ遅いけど
0984名無しさん@ピンキー (シャチーク 0C8f-b7Yf)2024/09/07(土) 08:42:46.01ID:???C
>>967
これ日本語対応してたっけ?
mmnga氏の量子化にはタグついてたけど
0985名無しさん@ピンキー (ワッチョイ 0aaf-JdDg)2024/09/07(土) 14:45:28.28ID:???0
>>976
CPUのみで古い方のCommand R+ iQ4 xs使ってるけど 0.5t/sくらい。
チャットは無茶だけど、ちょっとした記事生成には使えない事はない。
Ryzen 7 7840U 64GB
0986名無しさん@ピンキー (ワッチョイ 7fff-a+Ul)2024/09/08(日) 03:04:18.38ID:???0
command-rにTRPGのGMやらせてる人ってどんな環境でやってる?
やらせようとしても自分がGMやった時の感想を延々と述べるだけで全然やりたいようにならないんよ…
0987名無しさん@ピンキー (ワッチョイ 1e7a-lY6P)2024/09/08(日) 13:01:00.83ID:???0
>>985
「寝てる間に回しておく」とかならまあいけるな
0988名無しさん@ピンキー (ワッチョイ faa3-QX71)2024/09/08(日) 13:33:18.31ID:???0
風呂の間に回しておく
コンビニ行く間に回しておく
…いにしえのアドバンスド大戦略思い出したわ
0989名無しさん@ピンキー (ワッチョイ 7fc6-JdDg)2024/09/08(日) 20:14:04.92ID:???0
>>978
>>985
フルCPUで0.5t/sで、
RTX4090に24GB分任せても0.7t/sじゃ、
そんなに速くはならないんだな。
まぁ他にも要因はあるんだろうけど。
やはり全部GPUにしないと
しかしそうすると、RTX4090で24GB載せて、残りCPUで0.7
0990名無しさん@ピンキー (ワッチョイ 7f2a-okdM)2024/09/09(月) 00:57:16.06ID:???0
全部GPUに乗せるのと一部CPUに乗せるのは速度が全然違うと思う
0991名無しさん@ピンキー (ワッチョイ 53ef-gk9L)2024/09/09(月) 23:11:32.90ID:???0
redditでreflect 70Bは詐欺とか騒がれてるね
公式APIの出力がsonnet3.5の出力が完全に一致したとか
0992名無しさん@ピンキー (ワッチョイ eb32-7TZl)2024/09/09(月) 23:26:40.50ID:???0
>>991
なぬ?
じゃあ、あれはsonet3.5なのか??
0993名無しさん@ピンキー (ワッチョイ 639c-gZ3g)2024/09/10(火) 02:17:27.87ID:???0
ルール無用すぎんかAI界隈
0994名無しさん@ピンキー (ワッチョイ ef6a-J5DT)2024/09/10(火) 05:39:33.09ID:???0
次スレは?🤔
0995名無しさん@ピンキー (ワッチョイ 8670-A6RK)2024/09/10(火) 10:31:15.90ID:Z1PzH55u0
次スレ立てました
なんJLLM部 避難所 ★4
https://mercury.bbspink.com/test/read.cgi/onatech/1725931151/l50
0996名無しさん@ピンキー (ワッチョイ 874e-H9+1)2024/09/10(火) 11:51:25.39ID:???0
>>995
🤖サンガツ
0997名無しさん@ピンキー (ワッチョイ 3b7a-ucK0)2024/09/10(火) 16:25:46.15ID:???0
試してみたが思考過程が見えるから面白いなw
なんに使うか知らんが
0998名無しさん@ピンキー (ワッチョイ 3b7a-ucK0)2024/09/10(火) 17:22:38.96ID:???0
やっぱゴミだわ
0999名無しさん@ピンキー (ワッチョイ 3b7a-ucK0)2024/09/10(火) 17:22:57.89ID:???0
うめ
1000名無しさん@ピンキー (ワッチョイ 3b7a-ucK0)2024/09/10(火) 17:23:14.00ID:???0
とどめ
10011001Over 1000Thread
このスレッドは1000を超えました。
もう書けないので、新しいスレッドを立ててくださいです。。。
life time: 93日 9時間 46分 0秒
10021002Over 1000Thread
BBSPINKの運営はプレミアム会員の皆さまに支えられています。
運営にご協力お願いいたします。


───────────────────
《プレミアム会員の主な特典》
★ 専用ブラウザからの広告除去
★ 過去ログを取得
★ 書き込み規制の緩和
───────────────────

会員登録には個人情報は一切必要ありません。
月300円から匿名でご購入いただけます。

▼ プレミアム会員登録はこちら ▼
https://premium.5ch.net/

▼ 浪人ログインはこちら ▼
https://login.bbspink.com/login.php

lud20250417174148ca
このスレへの固定リンク: http://5chb.net/r/onatech/1717886234/
ヒント:5chスレのurlに http://xxxx.5chb.net/xxxx のようにbを入れるだけでここでスレ保存、閲覧できます。

TOPへ TOPへ  

このエントリをはてなブックマークに追加現在登録者数177 ブックマークへ


全掲示板一覧 この掲示板へ 人気スレ | Youtube 動画 >50 >100 >200 >300 >500 >1000枚 新着画像

 ↓「なんJLLM部 避難所 ★3 ->画像>32枚 」を見た人も見ています:
なんJLLM部 避難所 ★7
なんJLLM部 避難所 ★6
なんJVYoutuber部 避難所
ゴジラ映画総合 GODZILLA 避難所
【TESO】The Elder Scrolls Online 避難所
https://7gon.net/news7vip/" target="_blank">https://7gon.net/news7vip/ 裏VIP 避難所
特価品 避難所
なんでも実況J 避難所
0_1 避難所 Part2
テストスレ 避難所
彡(゚)(゚)なんJ園芸部 避難所
アナーキー実況 避難所
嫌儲Steam部【避難所の避難所】
吉岡里帆 避難所 Part4
日本代表FW統一スレ Part911 避難所
S A M U R A i 隔離板 避難所 part7
S A M U R A i 隔離板 避難所 part8
BOSE QuietComfortシリーズ 避難所
† Red Devils Manchester United 避難所 †
コロナ禍の今、大地震が来たらどうすればいいのさ?避難所なんて3密じゃん
爺「狭苦しい避難所なんてまっぴら御免だ!わしゃ帰る!家に帰るぞ!」 →
【台風19号】路上生活者、台風19号の避難所入れず 台東区「住所ないから」 ★5
【台風19号】路上生活者、台風19号の避難所入れず 台東区「住所ないから」 ★10
【台風19号】路上生活者、台風19号の避難所入れず 台東区「住所ないから」 ★8
【台風19号】路上生活者、台風19号の避難所入れず 台東区「住所ないから」 ★9
なんJ避難所
なんJ避難所
なんJ避難所
なんJ避難所
なんJ避難所
なんJ避難所
なんJ避難所
なんJ避難所
なんJ総合避難所
kenkyuu ( 研究する人生 ) -- (( 避難所 ?))
なんJ避難所スレ
なんJVtuber部避難所
なんj緊急事態避難所候補
【悲報】なんJ避難所スレ
開会式実況避難所 なんJ
【避難所】なんJVYouTuber部
【なんJ】PWPR部避難所part4
今日からこの板はなんJの避難所やで
【なんJ】PZDR部避難所part389
【なんJ】野球ゲーム作ってる 避難所
【なんJ】野球ゲーム作ってる 避難所
【なんJ】野球ゲーム作ってる 避難所
【なんJ】野球ゲーム作ってる 避難所
なんJなんGなんEスクリプト対策避難所【VIP】
【朗報】なんJの避難所、ニュー速VIPに決定!
【無し】なんJVyoutuber部 【避難所】
【割禁】なんJVYoutuber部避難所【ID無】
【テスト】なんj、なんG避難所耐久性確認スレ
【なんJ民で】スカッとゴルフパンヤ避難所12
【健常イキとも避難所】なんJVYouTuber部 3831
【避難所】なんJVYouTuber部 10131【IDワッチョイ有】
【避難所】なんJVYouTuber部 299【ID無し】
【避難所】なんJVYouTuber部 10057【IDワッチョイ有】
【避難所】なんJVYouTuber部 100139【おへそ】
【避難所】なんJVYouTuber部 10005【IDワッチョイ有】
【避難所】なんJVYouTuber部 10089【IDワッチョイ有】
【避難所】なんJVYouTuber部 10079【IDワッチョイ有】
【避難所】なんJVYouTuber部 10110【IDワッチョイ有】
【避難所】なんJVYouTuber部 10028【IDワッチョイ有】
【避難所】なんJVYouTuber部 10058【IDワッチョイ有】
【避難所】なんJVYouTuber部 10129【IDワッチョイ有】
18:23:32 up 59 days, 19:22, 1 user, load average: 7.81, 9.01, 9.14

in 0.13932991027832 sec @0.13932991027832@0b7 on 061607