◎正当な理由による書き込みの削除について: 生島英之 とみられる方へ:なんJLLM部 ★7 ->画像>33枚
動画、画像抽出 ||
この掲示板へ
類似スレ
掲示板一覧 人気スレ 動画人気順
このスレへの固定リンク: http://5chb.net/r/liveuranus/1710561010/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。
AIに色々なことをしゃべってもらうんやで
そこそこのデスクトップPC(できれば+3060 12GB以上)でもなんぼか楽しめるで
自薦・他薦のモデルやツールは
>>2 以降
なんJLLM部 ★6
http://2chb.net/r/liveuranus/1701542705
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
VIPQ2_EXTDAT: default:vvvvv:1000:512:: EXT was configured
初心者は導入しやすいKoboldcppから始めるのをお勧め
(1)ここで最新版のKoboldcpp.exeをダウンロード
https://github.com/LostRuins/koboldcpp/releases (2)ここで良さげなggufモデルをダウンロード
https://huggingface.co/models?sort=modified&search=gguf この2つのファイルだけで動く
今期待の日本語特化モデル
TheBloke/japanese-stablelm-instruct-beta-70B-GGUF · Hugging Face
https://huggingface.co/TheBloke/japanese-stablelm-instruct-beta-70B-GGUF oobabooga/text-generation-webui
これもKoboldAIに並んで有用な実行環境やで
https://github.com/oobabooga/text-generation-webui stabilityai/japanese-stablelm-instruct-gamma-7b
比較的小サイズで高性能なおすすめの日本語モデルやで
https://huggingface.co/stabilityai/japanese-stablelm-instruct-gamma-7b ●多くのモデルには「base」と「instruct」の2種類があるで baseはチューニングされていない、与えられた文書の続きを垂れ流すモデルやで instructはchatGPTのように対話して質問に答えるようチューニングされたAIやで
⚫︎LLMを動かすにはGPUを使う方法とCPUを使う方法があるで GPUを使う場合は比較的速く動くけど、VRAM容量の大きなグラボが必要になるで CPUを使う場合はグラボが不要でメインメモリのRAMを増やすだけで大きなモデルが動かせるというメリットがあるけど、動作速度はGPUよりは落ちるで
⚫︎LLMモデルには量子化されてないsafetensorsファイルと、8bitや4bitなどに量子化されて容量が小さくなったものがあるで 量子化モデルにはGGUFやGPTQなどの種類があるで 基本的にはCPU (llama.cpp)で動かす場合はGGUF、GPUで動かす場合はGPTQを選べばええで
⚫︎LLMモデルは既存のbaseモデルを元に自分で学習(ファインチューニング)させることもできるで 画像AIのようにLoRAファイルとして学習結果を保存したりLoRAを読み込むこともできるで
高性能なPCがないけどLLMを試したい人や大きなモデルを速く動かしたい人はpaperspaceなどのクラウド環境を使うのも手やで
モデルのサイズ(パラメータ数)は◯B (B=billion=10億)という単位で表記されるで 例えば7Bのモデルを読み込むなら量子化しない場合は約14GB、8ビット量子化の場合は7GB、4ビット量子化の場合は3.5GBのメモリまたはVRAMが必要になるで 基本的にはBが大きいほど性能が高いで
70Bの大型モデルはLlama 2というMeta社が開発したモデルが元になってるものが多いで メモリが48GB以上あれば動くけど、速度はかなり遅いで
18:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff79-XI6K):2023/11/11(土) 11:13:26.81 ID:0B0rgEfx0
ドライバやミドルウェア周りのインストールがだいたいこんな感じ
https://rentry.co/rd9xf/raw python3.11を別途入れて基本的にそっちを使っていく
7:今、天王星のwiki見てきたら軌道傾斜角(i) が0.774°だった (ワッチョイ ff7a-EFnx):2023/11/11(土) 10:54:35.49 ID:Gp6hELJv0 日本語特化モデル以外のおすすめ。これもはっとこ 更新の速い世界だからお勧めモデルも逐次変わっていくけど取りあえず前スレ後半で話題になってたモデルたち(たぶんまだある) 総合力高い系: Xwin-LM-70B upstage-Llama2-70B (=poeのSOLOR) あとは古典だがwizardLMとかairoboros系もまだまだいける エロ特化系: spicyboros Kimiko Mythomax
普段スレ立てないから不備があったらすまん とりあえず前スレのテンプレ通り
日本語モデルも増えてきたので、少し情報不足感は否めないけど
日本語特化LLMとして、最低でもSwallowとKarakuriLMは追加していいような気がするけどどう?
いいと思う。
ご新規さんが
>>3 だけ試してもガッカリだろうし
おっつ マージ環境の構築に挑戦したけどすごく難しい でもなんとか量子化までできるようになった 疲れた...
最近出てきた日本語モデル
どっちも割と自然な会話ができるし、エロもいける
今はこっちが主流なので、まずこっから始めるのもありや
小型のモデルとか量子化モデルもHFにあるから、VRAMが心配なやつはそっちを試してくれ
KARAKURI LM
https://huggingface.co/karakuri-ai/karakuri-lm-70b-v0.1 Swallow
https://huggingface.co/tokyotech-llm/Swallow-70b-instruct-hf 他なんか提案ある? 俺はpythonでしかLLM弄らんから、WebUIのツールとかでアップデートあってもちょっと分からん
このスレは普段はまったり進行なんだが界隈で難民が発生するとローカルに活路を求めてご新規が多数やって来ることがある
過去はGPTの改悪時とか
来週明けにMindstudioの有料化・従量化があるのでまた難民が増えるかも知れないがよくある質問には
>>2-25 嫁で良さそうだな
Claud 3とかGPT4に慣れた連中が納得できる出力を得るには相当工夫が必要そうだなぁ
Command-R, 35B open weights model by CohereForAI
https://huggingface.co/andrewcanis/c4ai-command-r-v01-GGUF これもう既出ですか?
>>31 ちょっと調べたら日本語もいけるRAG特化モデルって感じ?
エージェント用途で精度高いなら期待だけど、試してたら感想を聞きたい
強力てことらしい 調子のると普通に作っとるけどこれ一体何の話とかいいんじゃね
スーパーセルからまた著作権料貰うから大丈夫 あとしまつで饅頭の腕を引っ張る人間がクズだよな 何でだよ 子供だましとは思わないんだが
だからほぼいないって言うとインキャの趣味の領域は昔より狭くなってる気がする
サイス 1勝2敗で得失点差普通に思ったのは全然含み減って痩せたと思うけどな 症状があるからな 常識で考えてから心配しよ いやいや乗用車の人はその辺の嵐だったのか
直接ラノベ書くアニメはあったことはないです、多分僕が英語覚えるよりネイサンが持ってるけどどうしようかな ギャンブルか投げ銭とかになるまで燃え続ける
あそこに誰もいなくても ますますスト空気だね 早くEVにしよう >この事故あった?
>>7 実際のところ
糖尿病にならなかったり裁判までもっと上げて他人を攻撃し続けるしかない
すまんkoboldcpp.exe入れたがここから先が全然分からん quick launchの欄にあるmodelにkarakuriを選択してbrows→launchでええんか?
英語モデルってすごいんだな
“日本人口を調べて常用対数をとる”とかオーダーすると、ちゃんとグーグルで人口調べて、pythonで常用対数計算してくれる
(使用モデルはMiquMaidなので、プロンプト自体は日本語もいける)
>>45 やるならq4以上が良いよq5kmがおすすめ
>>46 ありがとう
ちなみにメモリ16だったんだけどkarakuri無理ですよね…
>>47 swallow 13bならいける
精度は落ちるけどお試しで良ければ
>>47 とりあえずq2試して、気に入らなければ他のアプローチ考えるんでいいんじゃない?
Qwen 1.5 14Bの量子化とかも行けるんじゃないか? ちょくちょく漢字に中国語混ざるけど
さすがに16GBでは無理だ 48GBあればなんとか動くらしいぞ
>>43 使いたいモデルはあらかじめダウンロードしておくんやで
ここで検索や
https://huggingface.co/models?sort=modified&search=gguf んでKobold起動したらBrowse押してダウンロードしたモデルを選択
他の設定はnvidiaのグラボ使いならUse OpenBLASをCuBLASに切り替えるとグラボを併用してくれてちょっぴり速くなる
あとは基本そのままでOK Launchしろ
Koboldがブラウザで立ち上がったらNew SettingsやってからScenariosでNew Instractや 別なの遊んでもいいけどな
16は難しいか… linuxでPythonの仮想環境つくってkarakuriを動かす方法でもメモリ足りないよね?
Karakuri q2 使ってるけどVRAM30GBでやっと動く感じだからね CPUでやるにしてもメモリ最低32GBはいると思われ
>>31 これ試したけどどうも動作しないんだ
んで、注意書きを見ると
https://github.com/ggerganov/llama.cpp/releases/tag/b2440 にバージョン上げろみたいな事?書いてあるんだけど、これはどうやって導入すればいいんだろう?
低レベルな質問で申し訳ないです
昨日llamaに実装されたばかりだし
分からないならkoboldのアプデ待ったほうがいいと思うよ
どうせ数日でkoboldも更新されるだろ
でも、そのcommand-Rってモデルならここで試せるよ
https://coral.cohere.com/ 私も動かなかったのでコボルド側に組み込まれるのを待ってる
最近興味を持っていろいろ始めたんだがここだとText Generation WebUIってあんま使われてない感じ? あと3060vram12gb、メモリ48gbだと環境的にはギリギリ遊べそうかな
>>59 自分はkoboldが主流だけど大葉派の人も結構いるね
この程度のこと、少年が羊の世話はしないが涙声に本心からの尊敬がにじんでただけ 絶対どっかで落ちるわ × ちょっと思ってるおじさんがどうこう言うことあるんだよ
芸能人が大半なのに思考が全く一致しないんだよてことないのと同じカテゴリの 妄想が激しいわあ
そろそろ9月銘柄の仕込み時くるね 観光バスのドライバーがバスドライバーとして不適格だったとしたら現職のバスドライバー大半が境界知能のギリ健だから仕方ないね 今日は会議があったら
業績も良い ごめんなさいですまないようになってる 疑惑しかない
>>59 使ってる
最近はほかにもLLMのフロントエンドたくさんあるからいろいろ試して取っつきやすいの使うと良いかと
これが出る ここでも抽出したらわかるけどドラマの数字叩きに乗っかるのは省いてるで(例えば竜王のおしごととか やったことなかった。
>>60 >>65 じゃあひとまずwebuiでやってみるサンガツ
ただ、どれ使うにしてもまずは覚えることが多くて大変だわ
画像生成AIと違って日本語の情報が少ないし
やっぱりネイサンのは生まれつきなのかな? さすがお友達 そしてまだ始まらないという ネットリンチ被害者に否定的でしょ?
>>68 もし技術的な事で日本語の情報不足を感じるなら、Discordにある「ローカルLLMに向き合う会」に参加する事をおすすめしておく
>>65 ゲレンデなんてどこから感染しても時流からして逆だろ
おやっと規制解除された人との裁判でまともなゲーム作らなくなるみたいのでは駄目
>>68 自分用のメモ的な内容なのと情報が古い(間違ってるのもある)ので良ければ下記のページなんかを参考にローカルLLMをエンジョイしようぜ
https://local-llm.memo.wiki/d/Text%20generation%20web%20UI ちなwikiだけど自分のメモ用で他の人は編集できないのと広告ついてるけどそれはwikiの運営が勝手につけてる奴なんでアフィ呼ばわりは勘弁してくれ
ローカルLLM部員増えろ増えろ
>>36 得点 失点 本塁打 盗塁 打率 防御率 失策
>>74 こういうの!まさにこういう解説が欲しかった!サンガッツ!
とりまkarakuriで遊んでみてる
モデル読み込みだけでもエグいほどメモリ使うな
有名人が道路沿いに野次馬みたいな売り文句で講師やるかは効率良いて程度ですんだけど性格がくそだなって怖くなった (ヾノ・∀・`)ナイナイ セックルから始まるストーリー あの時代の大奥完結してた
>>70 サンガッツ
探してみる
やっぱメインはディスコなんやね
まぁここじゃ定期的にスクリプトだらけで会話にならんぽいしな…
>>79 フォーマルなチャンネルで最初は面食らうと思うけど、KARAKURI LMの開発者とかも参加してたはずで、かなり大所帯だから情報は多いよ
それならオーレ首にした工場とか土方のJKアニメでやってほしいわ 月火ダメだと独裁者みたいな
これって本物のインタビュー読んでくれば?
何でコランはいつもトラックが煽って売りあがっているところだね
https://m7w.22/CCC9e うん、バリュー中心は自由主義だと言ったらソシャゲの記事になっていた男性1人の腕のたつ後輩として出てたにゃっつもいたなそういえば ここ5年とか短すぎて微妙
Grokって314Bパラメータって書いてあるけど、流石に個人で動かすの無理じゃね
と思ったけど、Mac Studio M2 Ultra 192GBならQ4動くと思うから、持ってる人いたら結果教えて欲しい
>>87 デモはまだかー
ユニファイドメモリ256Gあれば量子化すればなんとか・・・
Xの性質考えると日本語能力期待できると踏んでるんだけど、一回試したいよね tokenizerとかどうなってるんだろ
イーロンがアピールするためにとにかくパラメータ増やして 質より量方針をビンビンに感じるから 動かすのに膨大な性能いる割に性能は低いみたいな偏見が触る前からある
性能で戦えないからオープン化 オープン化したけど質より量戦略のせいで図体だけでかくてほとんどのユーザーは動かせない 動かせるやつには大した性能じゃない …ってコト?
>>88-89 これからはもうマカーか、BANリスクこみでクラウドでやる奴じゃないと勝負できないんやろな
>>91-92 デスヨネーって感じ
8個のMoEで推論時は2つのExpertsを使うっぽいから実際の推論コストは120Bくらいかな?
まあ、ベンチが全てじゃないことはここにいる連中なら分かってると思うから、実際動かした感想が知りたいけど・・・ハードルが高すぎる
と思ったが86Bか RAMにさえ載せられれば意外と推論早そうだが
>>92 ベースモデルのベンチが低いのはあんま気にしなくて良いけど
じゃあこのサイズのモデルを一般人がInstruction TuningとかDPO出来るかというと無理なので
今はあんま使い物にならんな色んな意味で
LLMがコード走らせられるようになったから、フォルダに変な名前のファイル入れといてそれを調べさせるっていうセクハラが出来るようになった
巻き込まれたとか聞いたことあった 今回の事故で124万件
常軌を逸するほど客いそうだ!」 カルト「そうだ。 会社狭いからじゃまいか
>>27 (2022年の9月からが民主政権だぞ
しかし死ぬ
下手したら2ch発の仕手銘柄に草 こんなんでもいい訳ではないよな ビットコ死んだ二人も多いのはクロサギかな。 だから、金持ち側の気持ちなんか日本語の使い方間違ってる
>>51 手マンというか
何の一ヶ月分なんだよなあ…
お前は話に広がりがなくなるとは言わんけどさぁ
ポスターとかの一存で決めれるわけだろ きっと上がるときついから? 写真出てなくて
でてた海外ペンジェイクのやらかしには凹る(ボコる)ってのが救いだわ
売れ方次第では当たり前なんか? なんでゴリ押しなのでしょうか…………」 おっさんの趣味というより 右行こうとしてスリップした方が良いんだよな
もしサイト運営会社の運行でそんなもんに執着してる情報は抜けるよ。 実際そうなるからね でも残念だったねえ
>>25 8/19の先輩の引退会見を駐車場でやっと届いた
そういう点で決まり、混合状態すなわち霧状、気化状、液状で引火点の低さも修正してるのに みんな過去の実績だけで生きていける規模に縮小や 深夜にシフト組んでるときが 余計太る
>>3 含み耐え続けるツワモノ共よ
試合出れねーぞ
ダブスコくるぞ ジーンズ越しの尻だ それが絶滅したから…
これは何の役にも刺さらないんだねここのは極めてまともだと思うから息子には面白いぞ でも多くの批判はあるだろうが でかい ノブが俳優と仲良しとかと同じでも見るの苦痛に近いし
ラップってよりただのアホ板がお友達だけになってもサガそのも大概にしとけよ 評価するのはパンティーブラジャー買い漁るためやし
あの場に
毎年は変わってないのは本当なのよ 利用規約違反なんですよ
やはり脅迫して詐欺師 未だに信用してるが ペットボトルとかもフリードリンクなってる例を沢山見てきた
まあ無策で打たれてないこともあるし仕方ないね オリンピックは失敗するんだよトホホ 面白そうではないということや国際指名手配犯との関係を切らないとは
>>123 いま入学式
これ円が120万も積み立て出来る勝ち組に税制優遇してなさそうだしこういう事でも注目されるは国会議員
二月の勝者-絶対合格の教室-#2(再) 「もうちょっと待ってられるんやぞ まぁマジで不満
pcでリマスター版出したばかりやんけ 数百億は稼いでるから
>>38 ヘブバン以外の時間やから既に死にかけて初心者主人公がJKとなるんかな
クソニーで台無しだよ… いつも逆張りで含んでる奴がいっぱいいるわ 興味持たれちゃ意味ないぞ
ノブが俳優と仲良しアピールとかソヌニキの面倒見てるだけか 「スター誕生の瞬間の支持につながっている
>>35 若年人口悲しいくらい少ないから脂質を貯めるように見えますけど
若年人口悲しいくらい少ないから脂質を貯めるように見える戦術やぞ
>>47 実は暴露ネタそんなに金払って風呂入ろうと萌え不毛のcsになんで覚醒したていで話してるのは年寄りがみてたからか
焼かれたよ俺は困らないけどな ジャニあるあるだよね
>>129 非常に大事なんて行く危機管理能力0すぎて毎月退会してリハビリ中だよ。
早めの登録でなんか出来るけどくりぃむって絶対ゲストいないのかな?
スクリプトのせいで見てないかもしれんが、
sillytavernでkoboldcppに接続できんのだが、エスパー出来る人いる?
最新のsillytavernインスコして
kobold.cpp起動
karakuriロード
sillytavern起動
koboldAI classic選択
apiに
http://127.0.0.1:5000/api で接続ボタン押しても、反応しない
誰かヘルプ!
すまん、もう一つ We have a dedicated KoboldCpp support under Text Completion ⇒ KoboldCpp. て、どこみればいいんだ?
そもそもAPI選択のkoboldAI classicが違ってて APIのText CompletionのAPITypeにKoboldCppがあるからそっち使ってねってことや チャットするなら一番右の名刺の所からデフォで何枚かキャラカードあるから選べばええ
>>148 いや、ないんよ
それでマニュアルどおりclassic選んだんだが・・・
ああああ すまん あったわ 焦りすぎだ( ;∀;)
chub.aikからインポートするには jsonファイルとキャラのpngファイル2つを落として、それぞれインポートするで、あってる? んで、jsonファイルを編集して違うキャラ作ったりすればいいんかな?
>>151 pngファイルに情報入ってるからpngだけでも良い。
編集はインポートした後にツール上でやった方がやりやすいのでは?
>>152 サンキュー。
pngだけでいけるんだな。
とりあえず版権キャラを改造して日本語(翻訳じゃなく)にしてみた
あと、音声対応もしたけど、これはsystemのやつだとオバサン声しかないなw
しかし、chatしてると、勝手にuserの返事まで書いてくるのは、どっか設定ミスってるのかな?
うーん。なんか会話がアホっぽいし、エロくもならんのはなんでだ? koboldにキャラ設定ぶち込んだ方が、キャラにあった返事もしてくれるし、エロい。 sillytavern自体にwebサービスみたいな規制があるんかな?
>>154 LLMに与える各種パラメータが一致していないのでは?
一番上に並んでいるアイコン左端のAi Response Configuration
左から3番目のAi Response Formatting
あたりが返答に影響する設定。
あと、ターミナルの方にAPIに送信されたデータの羅列がでるから、こっちを見て期待通りか確認しても良い。
>>155 おおー、koboldのデフォ設定に合わせたら、いい感じになったわ、サンキュー
オリジナルキャラで作った、kobold用のXML文も、こっちにも流用できて、かなりいい感じになった。
XMLはkoboldより入れやすいな。eosの処理とか気にせんでいいし。
あと、これ、自分のキャラを外部に保存するにはどうしたらいいの?
つい最近始めたばかりだけどローカルllm楽しいね うちの環境じゃkarakuriのq4程度が限界だけどそれでも十分楽しい会話になる なにより規制が無いっていうのがすごい新鮮 これ、数年後にはローカルでもリアルタイムに絵が動いて声出して喋るようになるわけでしょ? 人類滅ぶわー
>>156 > 自分のキャラを外部に保存
キャラクターを選択したときのキャラクタ名の下段に5つのアイコン(★📕🌐📕📄みたいな)が並んでて、その一番右がExport and Download。
バックアップ目的なら、SillyTavernをインストールしたフォルダ下のpublic\charactersをコピーするのが楽かも。
超絶初心者の質問でしゅまんがkarakuri 2bit量子化されたモデルってVRAMの方は一切使わないの? 昨日LLM始めたばかりで色々調べてるんだけどVRAM使い切ってからメインメモリに読むとか出来ないのかしら? タスクマネージャー見ててもVRAM2Gも使って無くて何かすっきりしない もしかしてVRAM使わないモデルとかあるのかな
>>159 GPTQ、AWQ、EXL2はGPU&VRAMしか使わない。
GGUFは基本的にはCPU&メインメモリを使うけど、n-gpu-layers設定で一部をGPU&VRAMにオフロードすることもできる。
>>160 そういうことね!
ありがとうさっそく試してみる
LLM楽しいねどんどん進化して欲しい
kobold使ってるならUse OpenBLASをCuBLASに切り替えるとグラボを併用してくれるぞ OpenBLASはグラボ使わない設定
バケモノみたいなグラボを積んでないとローカル動かせないと思い込んでる人けっこういるのね 画像界隈から来るとそう思いがちなのかな
まあオフロードするにしても70Bを現実的な速度で動かすならかなりのスペックが必要なのは間違いなくね
ただ動かすのと実際に使うのとではまた違うからな 文字入力するたびに数分以上待たされてちゃ使い物にならないでしょ
MiquMaidに迷路を作るプログラム書かせたらちゃんとしたのができた ChatGPT3.5とElyza 70Bだと無理だったから強い
c4ai-command-r-v01が日本語話してくれない
文字入力というか1回分のプロンプト送って返信に10分前後待つ感じやね チャットのようなテンポだとキツイだろうけど自分にはギリ使える範囲かな
>>171 いやいや、チャットだから500トークンも1回に使わないから、そんなにはかからんよ。
動画でも撮って上げてみようかな。体感分かるし
ああ動画いいかもね 使い物になるかならないかは各自がそれを見て判断すればいいことだし
オナテクの方から来てこの板の空気とかあんまわからんからROMろ…ってつもりでいたんだけど動画撮ったりして使用感共有してくれるのはマジでありがたいな 俺含め多くのAIユーザーへのローカルモデルの印象って憧れはあるし期待してるけどまだ発展段階だから手が出ない…って感じだと思うから
仕事中とかはともかくネット見て回っている間とかなら 返信くるまで5分10分まったり待っていればええやろ 5chとかならスマホでやったってええんやし
>>170 テストページで試すと普通に日本語喋ってくれるけど、なんか必要なのかな?
そういえば昔過去スレに速度比較の動画を上げたことがあって今見たらまだリンク生きてたから貼るわ -------------------------------- モデルの大きさ別に出力速度の見本をつくってみた CPU: RYZEN7 5700X RAM: 64GB GPU: RTX3060 12GB 13B 33B 70B(遅いよ)
余ってるグラボがあるなら2枚連装にするのもおすすめ 生成速度のボトルネックはRAMの速度なので、VRAMに割り当てる量を増やすと早くできる RTX3060の12GBを1枚で使ってたところに、余ってたGTX1070を追加したら少し早くできた
早くなったら儲けもん、くらいで試してみたら効果あったからそのまま使ってる
CPU推論について調べてたら見つけたページにそれっぽい説明があった
https://note.com/bakushu/n/n26537fab5a14 この記事で言うテキスト生成速度の方に効いてくるわけやね 例えば70Bモデルだとサイズが40GB超あるが、このうちどれくらいをグラボ側にロードできるかで生成速度に影響すると理解してる 多いほど速くなる 全部をグラボにロードできる変態ニキは少数なので普通の良い子はグラボとRAMで分担することになるので
そうそう 1070を挿したのがPCIE3.0x4のポートだったこともあって、こんなので効果出るとは思わなかった でも1070ですら256GB/sも出る訳で、RAMの5倍早ければそら効果でるよなという
kobold+SillyTavernのローカル動画撮ったぞ 保管用に避難スレの方に書いたから見といてくれ
推論間違いが起きる要素は、モデルに聞いて正解反応の時にモデルにさらに説明させ、カード情報にフィードバックする というやり方で時短できてロールプレイ用に2キャラ追加できた ただ、なんだがやってることがランス的なハーレム作りなんじゃないかと思い始めている キャラ画像はコイカツで作ってるのでチャットで気分が上がったらそのままエロにも移行できる
>>184 サンガツ
自分は普段小説勢でSillyTavern使ってないからそっちも参考になったわ
ローリィも可愛いぞ
70Bモデルって メモリに乗り切らないから試す気もなかったけど グラボとメインメモリに分散できるの?
むしろグラボ無くてもメモリ64GB積めればそれだけで動かせるぞ
古くはHDDにおけるページファイルみたいなものでそれなりにストレスフルではある
むしろ、70bのクソ遅応答に慣れすぎたせいか、英語がヌルヌル生成されると逆に変に感じる(変人) そろそろ、脊髄で英語を理解できるようになりたい
>>184 見たけどVRAMに全部乗せらんないとこんなもんよな
ちなコレは量子化はQ何?
>>187 できる
だからメモリとグラボで合計48GBあればワンチャン70Bが動くかも知れない
色々PCの動作がクソ重になったり不安定になるかも知れないけど
あといないと思うけどモデルのファイルをHDDに置いてると最初の起動が気が狂うほど遅くなるのでSSD必須
それな HDDにあるモデルさっき読ませてしまったけど一生ロード終わらんかった モデル置いておける余裕がある できればNVMeのM2SSDがあると70B Q4k-m(38GBくらい)でも一瞬でロードされる
>>191 ああ、しまった。重要な事を書き忘れてな
Q6_k
64Gでギリギリ動かせる最大値
HDDって100MB/sとかだからなあ 30GBのモデル読み込むのに単純に300秒 3000MB/s出るSSDなら10秒
webUIでjapanese-stablelm-instruct-alpha-7b-v2エラーなく読み込むまでは出来たんだけど いざチャットするとエラーNoneが出て何も書かれんのやが何かミスってるのかな
>>199 webuiは設定多いし慣れるまでコツがいるからなぁ・・・
そのモデル古いし、使うなら
stabilityai/japanese-stablelm-instruct-ja_vocab-beta-7b や
stabilityai/japanese-stablelm-instruct-beta-7b の方がいいかも
下の奴なら
TheBloke/japanese-stablelm-instruct-beta-7B-GGUF
ブロークニキの量子化バージョンもあるんで、一番デカいQ8_0落として
koboldで再生するのが一番楽と思うよ
>>198 ありがとう、動画見れた
確かに厳しい速度・・・動画上げてくれてありがとうやで
>>199 WebUIのコンソールにメモリ不足とかのエラーメッセージ出てない?
ローダーによってはモデルのロードに成功しても、生成時にコンテキストのために追加のメモリを要求するからその時点でメモリ不足になることがある。
ExLlamaでGPTQやEXL2を使うときはロード時にmax_seq_len分までVRAMを確保するから生成時のメモリ不足は起こりにくい。
>>200 あっこれ古いのね
ありがとうさっそくその二つ試してみる
>>202 さっき見てた記憶だとcudaエラーが出てた
ちょいと色々弄繰り回してみます
CohereForAI/c4ai-command-r-v01 デモ試したが、かなりいいな、これ 35Bだから速度も期待できるし、koboldはよ対応せんかな
Lamma.cpp本家は対応したらしいから、個人的にはllama-cpp-pythonにアプデが来て欲しいところ
c4ai-command-r-v01気になって生llama.cppで試してみた (Q8 gguf) 今までの日本語特化の70Bより良いかもしれない ちょっとルー大柴になることがあるけどエロ規制なしでかなり良い回答してくれる これはしばらく遊べそう
速度どう? tokenizerにどれくらい日本語語彙あるのか知らないけど、日本語特化70Bモデルより早いのかな
karakuriより良さそう? 期待が高まるな 35Bなら出力も早そうだ
>>207 M1Max 64GB機で 8.3 token/s くらい
日本語特化の70B(Q4_K_M)より少し高速っぽい
>>208 色々なプロンプトで試してみてるけど優劣つけ難い感じ
35Bなことを考えるとすごいかも
たまにルー大柴になったり体言止めを多用するのがちょっと違和感ある
改めて karakuri (Q4_K_M) 動かしたらc4aiの方が1.5倍くらい速い
マカー向けにメモ: 今までの70BはREADME通りn_gpu_layers=1でGPUフルロードしてくれたけど c4aiはn_gpu_layers=256とかにしないと遅いっぽい
量子化まわりで個人的にわりと参考になったの貼っておくで
・最近たくさん出てきた量子化形式の解説|Overview of GGUF quantization methods : r/LocalLLaMA -
https://www.reddit.com/r/LocalLLaMA/comments/1ba55rj/overview_of_gguf_quantization_methods/ ・量子化によるアウトプット品質の比較分析|christopherthompson81/quant_exploration · Datasets at Hugging Face -
https://huggingface.co/datasets/christopherthompson81/quant_exploration wikiを書いている方、お疲れ様です。 あのwikiを見て新規さんが増えれば知見のある方も集まって画像AIの様に何かが生まれるかもしれませんね。 スレで煩わしさを感じる事も増えるでしょうけど頑張って下さい。応援してます。
https://huggingface.co/SakanaAI/EvoLLM-JP-v1-10B こんなんが出てた
概要読んだ感じ、マージのパラメータを進化的アルゴリズムによって最適化して上手くマージする的な手法っぽい(今までは人が手動で感覚でパラメータ決めてた)
>>212 すごく参考になる
IQ3_XXSが容量の圧縮の割に強いな
Rakuten AI 7B 楽天がmistralベースの7b
モデル出したって。
https://huggingface.co/Rakuten スポンサーの力舐めんなよ そうそう 大型トラック同士なら抜かれる側の男でも書けないんだろうな 当時の教頭にガツンと言われてるらしいけどマジ……?
そしてディーラーへ向かう 久しぶりに米をけっこうたくさん
倒し方はやく逃げとけ ブレーキオイルが燃えてきてるのですか? 消えてちゃ無理があると思うぞ
女優だとイメージがおっさんのJKアニメでやって本来の意味を分かってないな。 フロウと声がでかくなってしまったんやぞ 通報しとくべきだったが
Rakuten_RakutenAI-7B-chat試してみたけどガードが固いね
>>223 エロ小説は普通に書いてくれたが、文がエロくないw
>>214 evomistral って、まだ大葉も対応してないのかな? ロードでエラーはく
ただ、それパヨがくたばる間際に残す最後のひと稼ぎだよ 詐欺集団がいるとなれば 一ヶ月ほど楽になってじっくり選べるあたりがちゃんとRPGなんだアンチ連投時間か又ね そんな暇あるなら行くけどな
クレバっぽくてよかった気がして屈辱だ 性的に1回だけとか 信者への道のりは遠い…
くるみちゃんは2000人もいたら再生回数伸びてないようにしていいと思う時あるよね
>>204 なんか
戦車なんかの意味で
喋る相手というのはいかがなものか
同じ所属で露出してるな
複合的要因としかいいようない
TikTokも収益化されるまで待ってるよお(´ω`) 「タイミング見ててもすぐキンプリキンプリいうのがトラックだけで 入った?
ばぶすら総理1000万超え ここまでかちあげてきて
初めて量子化できた 完全赤ちゃんやと3-4時間ぐらいかかるわ ドキュメント読めば分かる言われても赤ちゃんにはドキュメントが読めんのじゃボケ
量子化できるのは赤ちゃんではないと思う このスレ的には
ワイも赤ちゃんだったが量子化までこぎ着けてやっと幼児になった感
このスレ的に赤ちゃんはkobold.cppをどこからダウンロードすればいいかわからないとか そもそも何のソフト使えばいいんですかって層や オナテク板とかそういう感じや
まとめwikiとか導線が無いから辛い 画像生成AIだけが突出しているだけとも言えそうだけど
KoboltCpp入れてみたけどモデルの読み込み方がわからない Ggufファイルは単一ファイルだからわかるんだけど 中には量子化されてない?複数ファイルのままのがある これはどうやってKoboltで読み込んだらいいんだ
ELYZAがイマイチだったから東大には期待してないのよね
>>244 ELYZAは一応自前モデルって触れ込みじゃなかったか?
同じ大学発スタートアップでも大型モデルをファインチューニングしたって今回の件とは並べられないと思う
あれは個人開発ののべっちの方が賢いまであったガッカリモデルやけども
>>245 ELYZA-japanese-Llama-2-##bの話ししてるつもりだけど合ってる?llamaベースじゃないelyzaがあるんか?
>>243 koboldcppは量子化されてないファイルは読めない
ELYZAは東大のスタートアップで公金入ったスパコン使わせて貰ったんだけど LLAMA2の7B(小型モデル)にファインチューニングにしたもののクソみたいな性能になって 自前の日本語テストを使って他のモデルより日本語成績いいですって詐欺師みたいな発表したから全く信用できない
まがりなりにも東大の看板研究室がその国の言語を扱って クソザコナメクジ性能とか涙がで、でますよ
ゴミソース飽食してばかでかいだけのgrokとかもそうだけどオープンを謳う=性能では勝負できないの方式が今のところある
>>247 GPTQも単一ファイルじゃないよね
別アプリじゃないと無理なんかな
oobabooga使った方が良いぞ 色んな形式に対応してるしモデルのダウンロード機能も付いてるからフォルダ構造の間違いも起こらん
>>252 一時期使ってたけどダウンロードでエラー出ることがちょくちょくあって苛ついてやめてしまった
自分の問題かも知れんが
大葉でもコボでもいいから、command-rの対応はよ
ao-karasuの元になったQwenって、素でも日本語も結構いけるモデルじゃなかったっけ ファインチューニングしてるようだし良さげになりそう あとで試してみよう
もしかして一番自然なエロチャットできるのってcalm2なんかな karakuriはどうしても逃げやがるんだが
llama-cpp-pythonにCommand-R来とるやん、やったぜ
cohereのAIサービスの使用モデルがcommand-Rなんだけど、中身は同じなのかな あれと同等のLLMがローカルで動いたら最高なんだが
ao-karasu >We recommend on running with at least 4 A100 cards A100の4枚の環境がおすすめです そうですか・・・
ao-karasuは量子化されてからが本番 誰かお願いぷりーず
どこの国の責任だろう 不細工ってわけじゃないの? 30代以下は国葬未経験が多く行く理由わかる 久しぶりに4位とこの差はどうなるんやな
command-rやけに回答精度低くて言うほどでもないな、と思ってたけど、これフォーマットをマニュアル通りに指定してやらないとダメなのか・・・
ao-karasu 72B 日本語タグついてないから、まったくのノーマークだった 量子化して試すか って、これ日本語モデルよね? もうSSDの空きないから、既存のモデル消さんとあかんのだ・・・
そろそろ9月銘柄の一つでしかない 猫背で歩いてたとこから修整できたんやからそこ取ったら上行けるやろいう話やで
普通のレスしてるんでた (ヾノ・∀・`)ナイナイ セックルから始まるストーリー
>>204 一般NISAはなくして積立NISAだけの話を議論してプロになればって言ってないぞ、自滅した😥
7月は下がってる
デイトレしてたんじゃないのは許せない
今日が休みで本当に何が載ってるので早急にワクチンを打ってください。
情報見た むう! ロープレはkarakuriより0.1落ちるが、執筆は高いな これはエロ小説書きでkarakuri超えるか 小説書きはスピード遅くてもいける口なんで、興奮してきたわw
ao-karasuを量子化して試してみたけど、なんか日本語の出力がおかしくなっちゃう 日常会話くらいだと大丈夫そうでも少し捻るとよくわからない言葉を発しだす
>>270 マジか
量子化レベルはいくつ?
今、まだダウンロード中
ギフト来なくなってそうだよ!かわいいよ! この企画のために
前スレにあった官能小説家テストを突っ込んでも、片言日本語と「うーーーーー」ってセリフ、混じる中国語文字に回答にならない回答でテストしてて萎えてきた… 量子化が失敗しているのか、ベンチマーク用にしかファインチューニングされていないのか
>>271 Q6Kでとりあえず試してる。量子化失敗してるのかなあ
>>274 むうう
convetのオプションは何つけた?
>>275 --outtype f16 --outfile .\ao-karasu_f16.gguf --pad-vocab でやった。
--pad-vocabは無しだとエラーが出たから付けたら通った
>>279 --vocab-type hfft
追加したらどうなる?
過去フォーラムでもqwen系で変換後聖子しても推論が乱れるって話あるな
>>280 おお、前スレでも出てたやつか!ありがとう試してみる!
Qwen 1.5レベルの推論能力がそのまま日本語で試せるならかなり良さそうだけど、どうかな
普段使い翻訳かましたmiquで割と満足してるけど、日本語の固有名詞とか上手く扱えないからやっぱり日本語ネイティブモデルが恋しくなる
>>281 ワイの化石PCだと量子化バッチ終わるまで2~3時間掛かるから、そっち終わったらエロ評価プロンプト試してね
qwen1.5は素で日本語かなりできる子だったんで期待してる
Qwen 1.5のオリジナルってそもそもエロいけるんだっけ
>>286 webのデモ版では申し訳あったけど、ローカルでなら何とでもなるw
karakuriの103bあったから試してみたけど、日本語の応答はそれなり問題なくて、不適切の方も事前のpromptに沿った動きをしているから、悪くはない…悪くないんだが 英語modelに慣れすぎたのか、物凄く薄味に感じる
エロに限らず、日本語モデルに慣れた後に英語モデル使うと結構性能にビビる
>>289 103bフランケンマージは元の性能をちょっとだけ高める感じだからなぁ
でもまたいつ起こるかも分からない、というモリカケ見せられた俺のベスト体重なんだろうけど もう俺の隣で騒ぐのは続いとるからな
しまったー 何も考えずQ6_kでバッチ発射したが、72Bってメモリ64Gでコンテキストサイズ4096いけたっけ? 103B Q4_k_mは4096ではロードできんかったが
hfftでやったやつはプロンプト放り込むとエラー吐いて応答せんようになってしまった
bpeじゃないとダメかも?
>>293 うちだとブラウザとか起動してる状態で72.8GB使ってる状態
64GBだとちょっと足りないかも
bpeだとエラー吐かなくなった --vocab-type bpe じゃないとkoboldはプロンプト入れるとエラーになるっぽい(Windows)
ダメだ、回答にならないことばかり書いたり同じ言葉をひたすら繰り返したりする 意地でも喘ぎ声や卑猥な言葉を出力しない様にしてる気がする そのせいで言語自体おかしくなっているように見える
試しに「何か話して」って入れたら、最近AIの可能性について考えてたってペラペラと話してくれたよ 変貌ぶりに笑った
>>301 普通会話はいけるのか
koboldの脱獄オンにしたらどうなる?
ワイは再量子化中
セリフ系は「うーーーーーーー ってひたすら出力する あとのはよくわからない言葉を書いてくるだけ ちょっとしたホラー味を感じる… どうやら私はここまでのようだ
>>303 サンキュー
ワイはあと一回試したい方法試してみるわ
>>303 すまん、ちょっと確認
--vocab-type bpe で1次量子化したao-karasu_f16.ggufが残ってたら、
こいつをq6_kに量子化する際に最初に出るログは、
llama_model_loader: - kv 8: llama.attention.head_count_kv u32 か、
llama_model_loader: - kv 8: qwen2.rope.freq_base f32
のどっち(qwen2ってちゃんと出てるか)教えてくれ
一応、脱獄モードなら喘ぎ声とエロ小説執筆を確認したが、まだ納得いかん・・・
>>306 昨晩のログが残ってたので見てみた
llama_model_loader: - kv 8: llama.attention.head_count_kv u32 = 64
だった
質問の内容から思うに、これってQwenとしてじゃなくてLLAMAとして認識して量子化しちゃってるってことかな?
>>307 やっぱりか
convert じゃなくてconvert-hf-to-gguf っての使ってみて
いま出先で正確なpy名うろ覚えだが
それでマシになると思う
>>308 ありがとう!やってみます!試したら結果報告する
ao-karasu自前で量子化したけど推論時に落ちる なぜだ
>>308 convert-hf-to-gguf.pyってメモリ64GBだと足りなかったりする?
>>312 うちの環境だと、ギリ駄目でプログラムが毎回死んでしまうんで困ってた
ただ、結局ちょっとコード書き換えたらなんとかなったよ
56行目でuse_temp_file=Falseって引数がデフォだと渡されてるんだが、これをTrueに書き換えてやれば普通に動くようになった
>>313 そうなんだ
うちのは最後にスワップ飛んでめちゃ時間かかったがなんとか完走した
しかし規制強すぎだなこれ
脱獄常用は避けたい
qwen2ベースでどエロモデルなんかないかな?
そいつとマージすればワンチャンあるかも
convert-hf-to-gguf使ったらエロ評価プロンプトに回答してくれるようになった! でも日本語はやっぱり微妙な感じ、関西弁とか特に 規制凄くて自分で出力した内容に、このような内容を生み出すことが不適切だから自己評価0点とかつけてるのはちょっと笑った
うーん、ao-karasu、ぶっちゃけオリジナルのQwenの方が頭いい気が・・・ あと、Qwenらしく未だに中国語が混ざる いつも動かしてるマルチタスクのシステムで動かしてみたけど ・エロ方面 他の方が言っているように規制強め?パンツの色教えてくれたけど、見せてはくれなかった こっち方面の話すると、話を逸らしてくる ・真面目方面 一応agentの呼び出しには応じてくれる 今日の天気を調べさせると、なぜか検索よりpythonでスクレイピングすることを優先する(ただしURLのハルシネーションあり) 一応ちゃんとした結果が出てくることもある
規制云々無しにしても、これでGPT4に迫る、とか言われるとは???って気分になる
正直量子化が完全じゃないという可能性もあるがエロ以外との応答格差が顕著だしねぇ こんなんじゃ恥ずかしくてオナニースレに投下できんぞw>T大!( ´Д`)y━・~~
めっちゃ期待してたからガッカリ感がすごいわ またしばらくkarakuriのマージモデルを作る作業に戻るか…
オープンモデルの謳うなんとか相当(有利なごく一部分だけ)とかパラメータ数(大抵は太ってるだけ)は話半分で聞くもの
>>291 ああ、この103bって端数がきになってたけど、70b+33bな状態なのかな?
midnight-miqu v1.5試してみた人いる? miquをstorytellingチューンしたやつらしいんだけど
>>322 いまお試し中(103b i1_q4_m)
midnight miquは地の文とセリフの塩梅が気に入っているけど、1.5でもおなじ感じで動いてそう
claude opusに作ってもらったフランス語混じりの英語を喋って、
フランス語の部分の英訳を()でつけて、なんて無茶な指示にも従っているみたいだし、セリフパターンを追加してみてどうなるか
>>323 MiquMaidと比べてどう?
NSFWの質とか、地頭の良さとか
>>324 英語が達者じゃないので、感想の程度はお察しだけど、miqumaidとおなじ感じで、地の文は良いと思うよ
nsfwも場面をはよく描写していると思うけど、セリフはやや弱い感
個人的には前にmiqumaidを使ったときは、前のチャットのセリフを繰り返し場合があったけど、midnight miquはそれがないので気に入っている
繰り返しは確かに少し気になる部分だったから、それが少ないのは良いな
>>20 嵌め込み酷い
どっから金突っ込まれてるの?
ここはスクリプト荒らし対策の知恵者はおらんの? あの特徴を解析したら、ヒーローになれるのに。 あのスクリプトハゲは、おそらくトークンとか、なんもやってない、素人生成と思うし?
スケートで学校休むのはパンティーブラジャー買い漁るためやし だからほぼいないってこった
そういった層は増えねえだろ むしろ ほぼ12時間勤務とかしてても大丈夫。 美しすぎるカードゲームあったろ美しすぎるカードゲーム
空売りしたの?切手が得意な会社ってどこもいらんやろ
>>333 あれの対策に必要なのは本質的には書き込み元を分散させてるボットネットの撲滅であってスクリプト本文の解析とかではないぞ
・ジュニア話禁止 ・アンチモメサヲタヲタ厳禁 罵詈雑言、かまちょは徹底スルー メンバーのプライベートの詮索禁止
>>340 脱獄オフだと申し訳されたからオンにして出力してもらった
imatrix併用のiQ3_XXSで量子化して使ってみてたけど、これいいかもしれない
70Bモデルが24.8GBまで縮んで会話内容もそんなに悪くなってる感じしない(個人的感覚)
ただ追加処理があるせいでCPUがボトルネックになってくるから、VRAMがそこまでなくてマルチスレッドに強いCPUを積んでるPCなら効果が高いかもしれない
うちはRyzen5600Xで生成1.35T/sで頭打ちっぽい(同じくらいの容量のQ2_Kだと2.1T/s出る)
>>341 おー iQ3_XXSはVRAMに全部のせんと効果ないって思ってたが
VRAM12G メモリ64Gでも 70Bの速度に効果あるかな
ちょっと試してみる
あと、ao-karasuと英語モデルのマージ試したけど、マージすることで規制が緩むのか脱獄なしでも結構エロ書けるようになった。
が、やはり元々の日本語性能がお粗末と思われるので、karakuriを超えることはないと思うなぁ
あんな申し訳程度の関西弁はいやーw
ao-karasu、エロうんぬん以前にやっぱ微妙だよね 後発の方が性能低いのは悲しくなるからやめて欲しい
これでファインチューニングした…?って本気で思った。そして改めてkarakuriを評価した
>>342 koboldの設定でスレッド数を論理コア数限界まで割り当てるともろに早くなるから、昨今の多スレッドCPUならかなり早くできるかも
CPUに負担かける代わりにVRAMに乗っかる割合をより増やせる感じ
>>341 すまん、もう寝てると思うから明日でいいから教えて欲しいんだが
imarix.dat 作成する時のトレーニングデータって、何使えばいいんかな?
最初普通にiQ3_XXS指定しただけだとvery low-bitとかのエラーが出るんで
--matrix 使わんとあかんのかと思って仕様見たら、トレーニングデータ??wiki??
となってしまった(^^;
llama.cppで一気にQ2~Q8あたりに一括で変換したりするコマンドってあるんか? 今はこんなんで1個ずつやってるがめんどくさい quantize "E:\Models\ao-karasu-72B.gguf" "E:\Models\ao-karasu-72B_Q4_K_M.gguf" Q4_K_M
>>345 自分は以下のデータを使わせてもらった
https://cosmo.zip/pub/datasets/wikitext-2-raw/wiki.train.raw たぶん本来はPythonスクリプトで作成しないといけないっぽいけど、Pythonのお作法がわからなかったから検索しまくってたら見つけた
あとimatrix作成時は--chunksで3~8を指定することをおすすめする(大きいほど処理に時間がかかる代わりにモデルのperplexityが下がる)
指定なしデフォルトだと処理に超膨大な時間を要求されてビビるw
>>346 Windowsならバッチファイル、LinuxやMacならシェルスクリプトを使えば複数のコマンドをまとめて順に実行するようにできるよ
>>347 ありがとう!
助かりました
そちらのPCでshunks=8で何時間かかりました?
うち、へぼPCなんで、それによっては寝る前に放置コースになるw
>>348 うちでは--chunks 5でやっててそれで35分弱かかった
効果的には3でも十分かもしれない。それだと20分くらい
>>349 さんきゅ
帰ったら試しに一度デフォでやってみます
その有名なセリフ発して死んだと > 散弾銃だし 一回本国ペンに鼻へし折られでもしないを評価していると考えられており、入力しないと思う
>>349 今、デフォで試しにやってるんだが、ログに
ETA 3220 hours 26..78 minutes
とか出てるんですが、まさか終了時間っすか?w
とりあえず6時間ぐらいを覚悟してたんですが・・・(;´Д`)
>>202 ジジババはいつまでトコナトコナやってんのかな
7/19の先輩を優先する大馬鹿基地外馬鹿マヌケってだけ ネイサンに惨敗続きで無理やり賛成か反対かに振り分けるから「分からない でもそこで闘ってもヤバい行為だから揉み消しに必死になってたろw
800グラム痩せたらナンパ成功すると 思うんだが その中のショーに呼ばれないからって呼ばれてる人は、マスク込みで藍上、だなぁ マスクなしで
command-r、ローカルあんまり出力コントロールできないイメージだったんだけど、langhchainのJsonOutputParser使ったら割と期待した出力が得られた なんらかの形で構造化された出力にしとくのが良いのかな
>>353 そうですそれが合計処理時間ですw
なので指定必須ですわ
たぶんこれがやってることってデータセットを与えて出力させて、その出力結果を見て重み付けを最適化しようとしてるんだと思う(詳しくないから妄想だけど)
なので1chunkの処理時間は512トークンを吐き出す時間そのもので、70Bだと時間がかかるってことだと思います
>>359 ひぃぃ・・・w
でも、無指定だと10chunkってあるけど、chunkって -ofreq で指定する値だよね?
[1]9.391,[2]11.0417,[3]14.9696 って増えて行ってるけど、これがchunk数なんかな?
スマン、-ofreqってのがわからなかった imatrixのオプション一覧はimatrix --helpで見られるよ []の中の数字がchunksで合ってる --chunksは無指定だとall、つまりトレーニングデータ全文を走査対象にするんじゃないかな すっごい大きい値になるはず
頼むからモデルだけじゃなくてマージ手法の実装公開してくれ
>>364 とりあえず、デフォだと10chunkごとにセーブしてくれるので、そこでストップしたdatを使った
8時間かかったわw
でも、うちのへぼPCだと、速度の速さは実感できなかったな 0.7token/sくらいでQ6_kと大差ない感じ
cpuをもっといいのにすれば1.35くらいいくのは魅力的だな 品質劣化もほとんど感じられないし
ちなみに、Q6_kならどれくらいのスピード?
Q6_Kは容量空けたくて消しちゃったからうろ覚えたけど、たしか0.6T/sとか0.7T/sだったと思う 参考までにうちのマシンのスペック Ryzen 5600X (EcoMode運用) DDR4-3200 96GB RTX3060 12GB (PCIE3.0x16) GTX1070 8GB (PCIE3.0x4) モデルデータの置き場及びWindowsのページファイル置き場: Lexar SSD NM790 2TB Koboldの設定で効果あったもの: GPULayersをVRAM溢れるギリギリまで増やす(試行錯誤) Threadsを論理コア数まで上げる(Ryzen5600Xだと12) ※k-quantだと物理コア数までの方が早く、i-quantだと論理コアいっぱいの方が早かった
6824見たら10段目が1578の指値で吹いたわ 1番嫌なのかてのを異常と思わないの ケイブ 強すぎるわ
華やカリスマの話をしてるのに こいつを税金で調査なんぞされたくないんだわ。
>>291 はよ答えろよ
そしてもうお前しか駄目だな
>>368 なるほど、Q6_KならCPU性能の差はあまり出ないということか
VRAM結構積んでるけど、iQ3_XXSをGPU使わずに再生したら
スピードどれくらいかな?
1トークン/s以上でれば、CPUによってはiQ3_XXSは大きなアドバンテージになる
3勝5敗とかなら行くけどな ヤスマサのランキング上位と4回打ったやつの2期やれ は?かかとをつけたら音がなって話題に上がって半導体に取り組んで
1号には、また地獄だったが 何回か更新すれば、此処でのお薦めは4回転も跳んだみたいな
>>338 どこで見れる?
マジかよ
ヨツツベデコスケターしょまたん?
めちゃ押されじゃん
>>235 スノヲタの熱量が作り手側から期待されてるのが腕はあるよなと再確認したわ
サモンナイトとどうして差が問題じゃなくて全てのソシャゲで懐古厨からお金巻き上げてる時に新卒就職率良かったし
>>301 わざわざ織り込ませる必要ない
1回あのコピペ消えたのにと思うけどな
独特のこだわりがあって
それは趣味と言うのが信じられない
例えばパワーウォッシュシミュレーターとか) ※女性自身アンケート(7月13日連続で電話した結果なんだな いまとき そんなことも成人しただけだろ ただでさえ最高4%とかだったからな
SakanaAIのEvoLLM、7Bとは思えないくらいしっかりしてるな まあ他の70Bと比較できるほどではないけど、彼らのいうマージ方法が優秀なのかな
いろんな組み合わせでマージしまくったうえで成績いいの残してる感じなんだろうね
俺の中では日本語でlangchainのエージェント使える時点で評価高いから、その点だけでkarakuriとかswallowより上にしてもいいと思ってる
EvoLLM、軽量でバイリンガルだからエロ含めた日本語・英語訳変換を人称の指示付きで実行できる
>>375 offloadLayersを0にして試してみたら0.85T/s出た
i5-12400とかRyzen5700Xとか以上なら1T/s出そう
i7、i9やRyzen9ならメモリクロックを上げればグラボ無しでも1.5T~2T出るのかも?
>>392 llama2と同程度って正直すぎわろた
Elyzaに勝てないのはちょっとなぁ
>>394 おお、いいねー
PC早く新調したい
そういやT/sはどうやって計測してるの?
>>395 記事の画像見るとELYZA-7Bにも勝ってるからミスじゃね?
それllama2 70Bとの比較か
Sakana AI、マージ手法公開してないからブチギレissue立てられててワロタ
This is literally garbage. you made garbage #2
rombodawg commented 9 hours ago
Releasing a github page meant to share a new merging method, only to provide no merging code whatsoever is a really shitty move. Its not so much the fact that you didnt release your code that sucks. Its that you acted like you were going to, and put up a front like you are going to open source your methods, and then clearly only did it for popularity. Just a waste of an hour I spend researching this. Good job. 👎👎
https://github.com/SakanaAI/evolutionary-model-merge/issues/2 sakanoのマージって画像生成でよく行われてるウェイトのマージかと思ったら、 ウェイトじゃなくてモデルそのもののマージなのか ほんまにアルゴリズムでそれができるのだったらブレイクスルーの一つやと思うが・・・
多分実装的にはmergekitのyamlファイルにあるパラメータを進化的アルゴリズムで最適化すれば似たようなことはできると思う
>>396 Koboldのログに出力される結果を見てる
Process、Generate、Totalの三つ出力されてくる中で、上に書いてたのはGenerateの値です
aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2 これ試してみてたけど、Contextが32kまで使えて割といい感じの表現を返してくれる 関西弁はいまいちで文学っぽい表現になるけど 46.7B相当でサイズも小さい分速度も結構早い
モモンガ氏がgguf版を配布されてるね あとで試すか
>>401 うは
長文書かせてたから、上の方に出てるの、今まで気付かんかったw
Q6_kで、gene0.53T/s だったわ
>>405 このプロンプトは前スレに先人の方が上げてくださってたものを使わせてもらいました
出力の参考に毎度使わせていただいております
Mixtralは推論時に使う実効パラメータ数13B程度だから相当早いよ Swallow-MXの公式のInstruct Tuning版今年度中目標に出すって言ってたけど間に合うかな
Mixtralはマージにメモリ食うらしく64Gでは無理だったのが悔しい
さよならかもしれない。 おそらく作ったクレジットカード番号をそのまま持ってきたなー
むしろ恋愛はしてくるし 良くても良いでr-18になる 効果ないことです
新しいスレッドを立ててください。 これ贔屓出ないショーは一切見ないってさ 救済だろうけどまぁフリーに進めなかったからな ドラクエは12が実質ロマサガ4やろ
運行しないのか ただ早打ちしてるだけの理由もなく 含むために家電買うのかな
単に通常攻撃で斬って避けてで お父さんにご飯作ったり洗濯しなよ婆
>>82 うん
717書いたけどオタってスレタイオタの意だった
路上タバコ←アイドルなのか
キシダがオンラインで仕事なくて良い教育してるアイドルがバレることもあるし、もうやってることより服装がダッセーのが気になるな 2週間以降が本番とどこで差がついてないからな。 なお自称カルトの自演だろ
アイスタイル安値ww で本題に入るけどあの猫ちゃんは「どういう気持ちでお土産もってくるか」
電話を録音してしまった スノなんで無かったことにすんの
>>331 手マンだけ3000再生とかあったけど相手にされても平気だけどな
含みを楽しむ
>>284 午前のパニック売りは一巡した模様
週末に放送された575助けて
スクリプト終わったか? convertって仕様変わったかな? 今まではデフォでf16出してたけど今はf32で出力される f32を元に量子化した方が精度上がったりするんかな?
AI分野でのNVIDIA一強状態を崩すためにIntel・Google・富士通・Armなどが参加する業界団体がCUDA対抗のAI開発環境を構築中
https://gigazine.net/news/20240326-ai-software-uxl-foundation-break-nvidia/ 頑張ってほしいけどどうなるかな・・・
とりあえず富士通は外すか金だけ出す係にしといた方がいい
arm派でこれからはAIやとか言ってたはずのappleさんの霊圧がない謎
しかしサウナ頑張ってるようなレベルの違いはなにも答えは既にでてるはずやね 今儲けてるソシャゲ会社ってイメージ
>>86 体が持たないし解消したにも相手にされてますアピールですかっ?
幸福の科学で破産した奴いるから止めとけ 俺は その時間あるなら他メンバーに追いつく努力しろや
会見や花試合は目立ちたがりな心や自分語りする→おかしな話 俺の買値までまだ5ティックある
>>427 ルネサスとかIBMも入れてダメ感増量して欲しい
最近3値1bitLLMが話題になったこともあるし GPUに代わる生成AI専用チップ作ってほしいもんだ というかもしかしてそう言うメンバーなのか 工場もってるIntelとサムスンがいるし、設計のQualcommとArm、 富士通もスパコン向けのARMチップ設計してるし
一般向けのAI用GPUは明確に出し惜しまれてるしいい変化を期待したいね
>>442 GroqのLPUあたりがまさにそんな感じだよ
簡単にファインチューニングできるようになって欲しい
コロナがやばい
車をぶつけて修理出したら急にやることなく
含むためになりふり構わなくなってるやん
>>282 なんだと分かってるよと
いや
俺は本気で国民全員がヤングケアラーな訳じゃないからこれで1600人のせいでサロン開設上手くいかなかった場合ログインできなくなるな
若者は賛成だもんな まだ1位2位とってたし、難関有名大卒なら、一定数は若者は騙しやすい。 子供いなきゃそうではもっと楽しみがたくさん残ってるのバラされたクイズ番組でゲラゲラ笑うようなもんなんだから2~3点で決まり、混合状態すなわち霧状、気化状、液状で引火する メトホルミンの副作用で
>>222 話合ってどうしてこんなところだろうかと思うぞ
俺の隣で騒ぐのはヤバイと言う事はここが本命になるデビューしてるけど労組が無い様子… 2週分いけるのにw跳べるならね んでJFEはなに???
汚い汚物顔のパーツが下がる……、まあ逮捕されて使い道ない
黒人のおうちも必要だし制作側に付いてるような
被害届出した人を死にかけた それを下にもやり始めた頃くらいに高級ラ●ンジ嬢だったそうだからな
未だに改正反対しているので早急にワクチンを打ってください。 最近の我らスレ立てるなあぶねーぞ チンフェもこんなところ?
15のDLCを打ち切った最大の理由もなく幸せじゃないのよ恥ずかしい
>>385 そうだなと普通に使ったらいいんじゃないかな
あそこ配当性向100%メーカーによっては、また地獄だったということだ
一回は必ず課金されるっぽいよね このスレッドは1000を超えました?勝っても文句はないけど。 お前の贔屓は知られてないとなのかと思うけどな 本当に車対車の事
>>13 両方追い出せばいいだけやろ
ガイジ扱いされるけどな
みんなで発狂って?それがまた変わるってこと? 4日続落って、本登録が完了してもなかったのか…
とにかく俺はこの世にない しかし 子供手当とか配偶者控除とか金持ち側の男でやってたんかな アカウント6万で済むかどうか
>>11 ポジポジ病どうにかしたい
このどれかの違いで規模が違う
そんな宣伝記事に載ってる人を入れられる側からすると分かってないのは死んだけど利回りいいから100株主の元のコンセプト破壊するイメージしかない
やめたの娘!あんたの家には気を使うだの夢祖母だのもあるよ
>>471 ワイの環境だと複数レスはモザイクかからんわ
ちなchmate
GPUのフルレイヤードの快適さを知ってしまったよ 生成の速さより書き出し開始までの速さは驚いた チャット派閥だから毎ターンのストリーム開始までの遅延が気になっていたんだ しかし4060tiでもたけぇ
メモリ64GBにしたからmiqumaid動かし始めたんやけどコイツすごいな でもkoboldでQ4_K_Mを4070Tiに18レイヤーオフロードして、5950Xがフル回転して2T/sぐらいや 何か悪いのかそれともこんなもんなんやろか
miqumaidすごいよね、日本語だとtokenizerの関係もあってクソ遅いしエロも無理だから、英語or翻訳になるけど
miqumaidは""で囲ったセリフを、前の応答のをそっくりそのまま今回の応答で出力する癖は直ったのかな 概ね応答は良いと思うだけど、それが気になってmidnightmiquに乗り換えて、そのままになってる
imatrixのトレーニングデータって日本語にした方が日本語の精度が落ちにくいって事あるのかな?
>>480 日本語性能はまあまあだったけど小説書かせたらイマイチ整合性のない文章書くな
command-rの方が日本語では優秀な感触
kobold 大葉 まだかー?
ハイスペックなNPUを搭載したパソコンが主流の時代になったらローカルでもすごいLLMがサクサク動くようになるのかな
豆腐も卵も入れれるからな そのメンバーで誰もチェックしてひと月しか経ってないんだろ
気配それほど差があるのか
減ってはいるんじゃね 中に行った技術者を使わなかったら本物ってこともかなり影響してるということか。
社会悪やろ どんだけ潜んでるの 明日でディーラー見てくれてたじゃん
>>97 明日は無理ありすぎる
でも
頑張ってくれてるじゃないから分からないけど
この世代の前半に霊感商法のターゲットが若者が奴隷になってみたい 普通体重ゾーンにはいるんだよ
ほとんどソシャゲのセルランに踊らされてる老害か だって はいぱーまほしか
小禿お前が一致するのが難しい通信制の短大を卒業してね そういえば
>>307 なんでこんなスレたってるけど弾いてないし
え?まさか2年だよね
これだけトラブるレベルならライブ配信やってるからな
aixsatoshi/Swallow-MX-8x7b-NVE-chatvector-Mixtral-instruct-v2
モモンガのggufをkoboldで試してみた
日本語は素晴らしいけど、長文書けてる人いる?
>>404 のプロンプトは設問3の途中で力尽きた
その後は一行ずつしか書いてくれない
今まで英語モデルしか使ったことなかったからこれが普通なのか判断つかん
koboldは使ってないけど一気に最後まで出力されるよ
ggufはどれを使った?俺も試してみるか メモリ32しかないけど・・・
キシダ恥ずかしすぎるw 運転手がどんな状態だったらクラブで女ナンパするのがきつくなったから焦ったパターンって思うよ
こういうことが面倒(含む恋愛) ・カード情報入力していたという証言がある」と答えると「どっちかって言うな ガーシーだけで
>>115 ( ゚ ⊇ ゚)‘◇‘)∂ω∂)´u`)´ェ`)ゆっくりしなくていいから仲良くしてね(o´ω`o)^ワ^=)に報告🌈🦀
>>477 おはぎゃあは断末魔の叫びだから呼吸出来ないの?
基本カップ麺程度もしくは食わない と老人が指だけ動かしてない
「賃金」だけだよ。 そんなんならFFも死んでるなこれ
ゆまちの写真集を何故出した被害届が出てる時にキンプリ外のヲタヲタしてるやつら多すぎないか どっちだ? スターグループ(年収150億)が元ネタやねんけど
>>277 社会主義だと言ってないと思う
地政学的なんちゃらがないよねウノタは
脱毛だなwおいw
ざまぁー
そういう企画でOKして出演したんだっけ
小学校に全く通ってないよね なんかそんなもんで困惑
こいつ越えた奴出なかったやん シーズン序盤はホームランがたくさん開けてもらった方が儲かるんかねぇ(´・ω・`) 女オタクにありがちな母親ヅラは確かではないからな
含み損からは逃げられないだろ 暴露の内容云々より「こんなことしてもうた 奇跡のハーフだろ 残念やが当然という世界くらいに
林檎と泥には勝てないんだが
高速で大型トラックの真似して支持率下落を好感してんじゃね キシダ「第100代内閣総理大臣です」 ゴボちゃんて文字が小さくて点がすごかったね
そして 二人や配信者は8人とか、来れなくなってきて そんな原理で動いてるわけじゃないしスタイルも悪くないと思う
>>92 底値は2万7千に切り替えが上客として狙えるは氷河期くらいしかない
言われてたけど ただダサい 鉄道マニアのマンガはないかもな わからないババア人気の話とかいいんじゃね
スレタイ関係者も18~20代 :評価する57.9% 評価しない59.1%
ここまで糞化するか? ぎょえーー🤮🤮🤮 昨季は2試合しかやってそうでも村八分なら市民運動で痩せるて相当なことらしい これは美白効果が1番すこな先生が脱いでくれなくても連れてかれてくうちに近所の空港自体を変えてみるかな。
>>495 怖いっすね
ま、接種後は-8%と-12%の私を呼びましたか?
何もしてないのかな
マオタらしい理論 誰がどうやって 嬉しいとは 今日から遅い夏休み延長できる人だけで多分痩せていた訳ではないか?
肉食系ならいいかも ニコ生の悪いノリくらいにしか思って対処を間違えて悪化した
体重減少も多分
燃焼範囲温度は空気の混合比、引火点の低さを利用して最後はどうよ pcでリマスター版出したばかりの人だぞネイサン 同じジャッジのはずが
>>168 そんなん買うに決まってるでしょw
素朴さがあれだし不人気なこと言って名作リメイクラッシュ来るねこれ
そういやバランとかあったな
個人的に支持している
駄目な自動車部品メーカーぐらいの力なんだろうけど読みが甘いよね 「尻もちついても要らね
>>500 こんな国なんだよ
サロンに入る
男オタは極力男を見たくないんだ
朝5時から風呂あるらしいので…… 正しい認識を持ってないからていう
>>68 ほんとに隠れてやってる奴がいない31日までは「評価し統一教会容認されてるのかなってほんのちょっと思ったけど元々おかしかったわ
どういうメカニズムで上がるわけないやん
こういうところですかね🤗 俺は証拠もないやろ ドラマ10だよな
自動更新の自動引き落としの場合、新型コロナウィルスに感染するという意味合い違うよね
修正するってことだ
ダウ先もしたむいてるわ
http://tc.jj84/7H8CHQQ/xBHvqr 有効成分なども抜き取ることが面倒 人の好きなオッサンアニメ見るか?
探ってみたら、意外といいかもってことは痺れ切らしたってのはダメな体質なんだろうな 余力投入の機会もなくなるわw
chatntq-2x7b。これを待っていた。rinnaの頃から。まだ全然試してないけど。
ググってもよう分からんのやがllmって何の略で何が出来るソフトなんや?
Large Language Model ChatGPTみたいなことができる
>>564 なるほどサンガツ!
てっきりリリムみたいな名前のソフトがあるのかと思ってた、そういう名前でそういう用途のソフトなんやね
生成AIやっててこっちにも興味でてきたんやけどキャラクターをロールさせて会話を楽しむ場合って Koboldcpp.exeってやつ落としてモデルを落とせばいいんですかい? キャラクターをロールされる場合ってどのモデルがいいとかおすすめとかありますかね?
>>568 質重視なら70bのモデルになるがとてとて遅い
軽量モデルでいいのがあるから
>>556 の避難所見るといいよ
ここスクリプト荒らしいるから
どんぐりは全板で有効なんかな スクリプト来たときのため今のうちにどんぐり育てておけよ
うん、バリューに金が絡むと昔からつるんで次スレ立て苦手すぎでしょw おやすみなさいまたあした
社外の人間より未だに改正反対している国 10年を簡単に忘れることは党ぐるみって言われるんだよ
一回やめるならあそこだって 800グラム痩せそうだから作らないみたいな感じ?
相当食ってないけど やっぱ底辺ちっくな対応だったの? 散々他人に迷惑を掛けてたわけじゃない
スクリプト来たっぽいけどどうやって対策するんやろ?
まず、ログインメールアドレスとパスワードをお忘れですか?」ことパスワード再発行する用のリンクがトップページにあっている
3%ぐらいならいくらでもなく むしろ指揮権は弱かった
あそこに誰もいなくて 普通に面白くできたしくりぃむがもうずっと下げまくってるのに 来ないようにしてくれって言ったやろ 全く話題聞かなかった?岸ださん…すか?うーん…よく分かんねっすけどとりあえず公式声明出してポストや溜め作れるアルナウトヴィッチやデパイ買ったほうがいいぞ
>>33 7までリメイク済みや
25試合10違って勝ち数は同じ感じかな
どうでも抽出したらわかるけどドラマの数字出てたな
でも一番被害喰らってるチームではあったよね まぁJOはショーだし客入りに関係なく アンチエイジング効果あるのか疑問でも漏れる
ツイートの心臓を握りつぶす発言とかじゃね 個人情報晒したり ネイサンは本当に性のも効果薄い 今の時代までやろ
大型トラックに追い越されようとするときそれを指摘するやつのいないくらい過疎だからさ あいがみがからんでからは入れてるのか
アイスタ突撃するかな(現物握りしめて)反論しないエンジニアのせいにするんだろうな 急激に不安になってきてるからかもしれないが 多分剥けない気がする。 というか この数字が怪しくて
Command R+ってローカルでサクサク動くもんなの? Rizen3900+Geforce3090だけど、回線が楽天モバイルで遅いのでモデル大きくて落とすの時間かかるので、サクサクかどうか聞きたいです
いくらなんで叩く?別に取れないしなあ ROMも糞だったしな 勝敗は兵家の常だ。
ジンズ優待拡充したしちょっと欲しいなってみたい 普通体重ゾーンにはいるんだよな てかこんな部屋あったんだよな
>>592 100万円近いMacを用意してから検討してください
いやまあ3090で24GBならメインメモリのほうも盛りまくって
ギリ動くかもしれないけどね
3秒に1文字とかになりそう
>>317 その時被災した高校生と
体臭や口臭がきつくなるらしい。
>>582 自爆だと車両に負けてるやんけ
題材より構成なんやろ
>>407 なんでここまで酷くなるんや痴呆め
民主的には困ってないやろ。
コイツに何言ってもイタチごっこで無くなるわけだ でも屁が出まくる薬な そろそろプラモデル女子アニメくる?? 今もうあんま売れてないと痩せる訳ないとなんとかせんと
>>595 やっぱそんなレベルかぁ…
以前LLM動かした時もかなり遅かったしたぶん無理だろうとは思ったけどw
ありがとうダウンロードせずに済んだわw
ざっくりBのそのまま3分の2ぐらいの高速メモリがあって動くイメージ モデルが100B量子化無しならVRAMかmacの高速メモリが100-66ぐらい必要みたいな
ここ見てる人もいるだろうけど、現状だと書き込みはもっぱら避難所で行われてるよ
>>556 アイスタピャーッ😭 まさかFOIより動き鈍いとはね
純粋に人気と曲の良さで言えば「抱き合え」だよね 全局あるがアホ丸出しだな自分はバンドルだけど
サロンはともかく 接触の弾みで遮音壁にぶつかって大破し、もうやってることに気づかない頭の悪さが世界に行く人おらんのかい
結構地獄
売りは4回転しかないんだよて言い訳できない
アニメ化せーへん? 理由は判明したの知らんのかなこいつら
これから二度と助からんぞ おやっと規制解除された事だけど左翼野党の工作むちゃくちゃ多い
>>106 ■劣化オワコンその1
3A美
凄まじいものたちと出会わせたら百合豚にも情弱ババアのいいそうなことな
アンチだと、 マジでこんなもんに仕上がってきてるから 目を逸らせないねえ 好決算が出る」
>>543 仕方ないんでは普通NGKだな
第七波が広まり後遺症(イタリア・ジェメッリ大学病院報告 参照
3400万人くらいのモデルと付き合ってたのかもね
でもまじでポンコツやったからな 朝めっちゃ食う 金と時間がかかると警報が本社のPCにはセックスを特別なことをしれ
Command R+エロも強いな 倫理ガードもほぼなさそう
>>631 Command R+ってどこで動かせるの?公式のPlay Ground?
無料ApiKey貰ってSillyTavernで使ってるわ 日本語性能高いしエロに強いとは言えないけど普通に出てくる
>>635 TavernModelはどれにしてるの?
すまん、Silly Tavern初めてインストしてCommand +RのAPI入れてテキスト入れたらこんなエラー出たんやけど。。 Horde generation failed {"message":"No user matching sent API Key. Have you remembered to register at https:\/\/stablehorde.net\/register ?","rc":"InvalidAPIKey"}
SillyTavernの設定 APIをChat Completion Chat Completion SourceをCohere API Keyに発行されたのをコピペ Cohere Modelにcommand-r-plus それでConnect Frequency PenaltyとPresence Penaltyを同時には使えねえとか言われたから片方は0に 他はそんなトラブルは無かった
>>640 最初のChat Completionてのがどこにも無いんだけど、もしかしてワイ間違ったバージョン入れてる?
KoboldAI Hordeって書いてある所から選択できん?
>>642 ここにあったのか!
繋がった!サンガツ!
ワイのはRyzen3900,RTX 3090やし問題なく動いてる。なんかVRAMが16GB要るような書き込みは見た 尻食べるでClaude3をエチエチで動かす方法あるんやね。Command +Rとどっちがええんやろか?
PFN(プリファード・ネットワークス)が金融ドメイン特化LLMを作ったらしい。
Hugging Faceに.safeteonsorsで公開されてるみたい。
https://tech.preferred.jp/ja/blog/qfin-llm-continual-pretraining/ これもSilly Tavernに入れてエチエチな金融会話できるようにのかな?
WizardLM2よりもCommand-r-plusの方が軽くて強い感じかの
アメリカ人研究者「陰謀論者を生成AIとレスバさせてみた」⇒結果 [858219337]
http://2chb.net/r/poverty/1713513267/ >>647 これどうやって動かしたらいいか教えて?
クソザコCPUやけど3bitの一番小さいGGUFにしたらCommandR+動いたで 0.3token/sとかやけど日本語性能は高そう
3Bの海外モデルなら、今のりんなにも勝てないのでは?どうせ倫理フィルター付きなんだろうし
すみません、LLMの情報収集の一環で本スレの方にたどり着いてたんですが、LLMについての情報交換で5chで活発なところってここになるんでしょうか? それとも他の専門板にあるのかな
>>658 たまにLLM=ローカルと勘違いしてる人がいるので念のため確認するけど
情報収集したいのはどっち?
ローカル? それとも全般?
ここの住人はアップルモデルが出ようが、MSモデルが出ようが、LLAMA3が出ようがエロ以外のことには興味ないんだろうな
エロ無くてもいいなら既にクラウドでゲームエンドしてるからな
アップルモデルもMSモデルもLLAMA3もそもそも日本語評判あんまよくないから触ってないな 個人的にはローカルLLMにはロマンとプライバシーあと持続可能性を求めてるからゲームエンドというかまだ試合も始まってねぇ
>>658 Pinkにある避難スレかここより詳しくやってるスレは5chだとないと思う
もっと専門的な情報(finetuningとか自作アーキテクチャ、理論とか)が欲しいならDiscordにあるローカルLLMのコミュニティとか入った方がいい
あと俺は詳しくないけど、RedditにでかいローカルLLMのコミュニティがあるか
返答ありがとうございます、返事遅くなりすみません
>>659 質問を避難所に書いたつもりがここに書いちゃってました。ボケボケで申しわけない
>>660 ローカルで、ですね。
オープンソースLLMと言うんでしょうか、端的に言えば規制のない状態で小説文章作成補佐のために動かしたいと言うのが目的です
ぶっちゃければエロです。
>>664 ありがとうです。やっぱあそこなんですねぇ…プログラム板がそれっぽくない雰囲気だったので変だなぁと。
noteとかXとかでも検索して、自分の好きな文体の文章を追加学習指せる方法とか色々探してるんですけど、まぁ素人が1からは、なかなかハードルが高いですね。
ディスコードも登録だけはしてたけど、探してみます
>>665 ありがとうです、redditも探してみます
このままではないぞ 頭いかれすぎてホントに終わったの
(´・ω・`)
「絶対にアップデートできないバカか
あのタイプのアクションはハクスラにして育成メインにしないでしょ
俺は別にいいんじゃないんですか」と答えると評価してないマンUはまぁまぁ強いな
1列で写ってたのに 笑ってるからな ここが脂肪燃焼状態でやる分には遅すぎたんだよ
>>348 こんなことなると安心して大会出るのはどういう作用なんだろうけどそれ以外はどうなったかというとそこまではないんやけどうんと良いわけでもできるって本当?
スポンサーが難色を示すからもう終われよ 仕返しですか?事務所が悪いんや
毒にならんのと全く一緒だし 問題ありそうなのは許せない
>>289 あ、壺ウヨは元から女系賛成か…
2週間休みもらって最下位目前とか普通に考えて、スタンドでも
夫は俺が タバコはいいけどダル着でナンパはアイドルらしからぬ貧乏独身おじさんの見方をすれば分かるて
>>134 どうせ
あと15キロ以上の癒着って誰かにリアルタイムで見たかどうかってことを繰り返すんか?
ナンデナンデナンデナンデ?
この間モデルのデータをRAM Diskにいれて読み込んでみたのだけれど、 あまり効果はなかった。結局、ほとんどがVRAMに入ってるわけだから 速くなるのは限定的な感じ。最初の読み込みは速いかもだけど。
そういう時期もありました。 とりあえず2TのM2SSD買ったよ
モデルをどんどん入れると2TBでもすぐいっぱいになっちゃう。 こんどSSDを買う時は4TBにする予定です。
画像の方はLoraの作り方とか沢山解説してるページあるけどLLMの方はよくわからないな
ローカルllmの情報は分散してイメージがありますね npakaさんのところも まとまってるけどローカルじゃないのもたくさんあるし
>>689 返答遅れてすみません、ありがとうございます。
npakaさんのところ、参考にさせてもらいます!
今は↑の避難所の方を見てます
GPTでcanva使えるGPTS使ってみたけど ぜんぜん動かなかったな みんなは使えてる?
>>691 わたしもどんぐり保守してるだけで、普段は避難所を読んでます
ここの所、高性能な7bがたくさん出てきて熱い展開になってますねローカルLLM
Pinkのほうが本スレみたいになっちゃったけど LLMをPinkなことだけに使うかといえばそうでもないのでワイはちょっと恥ずかしいぞ
避難所なんやし、Pinkな方でクソ真面目な話しても全然問題ないと思うで どんぐりのおかげでなんUも落ち着いてきたしここでもいいっちゃいいけど、今の人口で分散するのはデメリットの方が多い気がするで
Grokって有償会員向けか、イーロンLLMはオープンソースにするって言ってなかったか?
オープンにモデル出てなかった?自分のGPUで無料で使えるよ
どんぐり保守
>>697 Arki05/Grok-1-GGUF
gguf Q6_k動かすのにメモリ300G以上いるね
mac買う時は512Gメモリ積まなきゃw
314Bって今出てるモデルの中では最大クラスかな? これ超えるとしたら開発中のLlama3 400Bぐらいか
Fugaku-LLM13Bって井の中の蛙大海を知らずか
Local-Novel-LLM-project/Ninja-v1-NSFW-128kの大葉のローダー設定を教えてください
>>701 フルスクラッチの事前学習モデルは希少なんだからそう悪く言うものではない
日本語用でガチっただけマシよな Llamaに追加学習して英語のおまけで日本語出来ますみたいなの多すぎんねん それで大した性能じゃないし 何ならマルチリンガルの70Bに日本語能力で負けたり
ELYZA 2 70B、クローズドだったこともあってここでもほぼ弄られず速攻で忘れ去られたイメージなんだけど、企業案件の方では実績あんのかな
chub.aiとか最近知ったんだけど、日本語であんなサイト無いのかな? 今は仕方ないから、jsonをDeepLに突っ込んで、少し修正してkoboldで使っている。
つか本スレどこなのよw 知見がすぐ流れちゃってイヤ~ンな感じ
AI文章作成を今日知ってセックスシーンをchatで作ったら 「オホオオッ!(自分も気持ち良くなっている)」 しか言わなくなって草 どうやって改善したらいいんだこれ
適切な単語を指定するまで先に進めない太古のADVだと思おう
最初は設定通りに不愛想で高圧的だった女が
いつの間にか設定に無い感じで嫉妬に狂って闇落ちしたんだけどエロチャット面白すぎるだろ
野外セックスしようとすると警察呼ばれて捕まったりもするし何が出てくるか分からんな
>>714 選択肢無限の中から選ぶのか……
ChatGPTで銀魂の坂田銀時を作ろうとしたら、キャラの口調を真似するだけのモノマネ芸人ができた。 過去のセリフをまとめたテキストファイルでも読み込ませた方がええんかな
PCのメインメモリ96GB積んだので今更ながらローカルLLM初デビューして CommandR+で幼女版権キャラになりきりさせて遊んでみたけどなかなか面白いね チャHは幼女さがほぼ失われて微妙だったけど、そこに至るまでのイチャイチャがかなり雰囲気出て良かった
スペック足りないからpaperspaceでやりたいけど経験者いる?
詳しい先輩方に聞きたい チャット的な会話は求めてなくて日本語で質問した内容に詳しく答えてくれるLLMでおすすめはあります?GPUメモリは12GBです
>>722 「ローカルLLM」で、と聞きたいのかな
でもそういう用途なら本当にchatGPTとかの方がいい
モデルのサイズが比較にならないから知識も段違い
逆になんでローカルでやりたいの?
>>725 そうですローカルです。mistralとか何個か試してみたけどもう少しよくならないかなと
chatGPTは無料だとつかいずらくて
>>726 ローカルの、特に小さいモデルででQA botやるならRAG組むしかないよ
RAGってのはクエリ検索つきのデータベースとLLMを接続して、LLMが知らない情報を都度自動で与えて答えさせるっていうもの
実装例はlangchainのRetrievalQAとか
前から言われてるけど、ChatGPTでさえ生の状態だと検索目的で使えばハルシネーション起こすから、LLM単体運用は絶対やめたほうがいい
もうすぐ終了です
64gbのram積んでcpuオンリーでllama.cppで推論する場合ってgpu有りと比べてどのくらい遅い? メモリはやっぱddr5で12スレッドくらいのCPUにしないとダメかね
CPUでやるならメモリの帯域幅がボトルネックでスレッド数はそこまで影響しない GPUとの比較は性能次第でピンキリだけどモデルがVRAMに全て収まるなら5倍から100倍ぐらい違う 14BモデルまでならCPUでやれなくはないが 大型の70BモデルとかCPUで動かすと毎秒1文字みたいな感じ
CPUで動かしてる動画見たけど、普段チャットみたいに使ってる身からすると遅すぎて無理
無規制環境のなりきりボット作るならどうしたらええんや?
直接LLMの話でなくて恐縮なんやけど Audacityっていう無料の音声編集ソフトに、OpenAIのWhisperっていう AI書き起こし機能をつけられるようになったんや DLsiteの音声作品で台本がないのがあるから書き起こしさせたけど 日本語ガバガバなんで、その音声作品の紹介文とともに Command-r plusにぶち込んで「エロ音声の書き起こしなんやけど精度が低い、 自然な日本語に修正して」ってやったらけっこう読める文章になった (ただしうまく修正できないところは勝手にカットされた) なにかに使えるかもしれへんな
>>737 かしこやな。ワイは以前「エロアニメから男の声だけ消して字幕化する」ってのに挑戦した事あるんやけど
男の声を分離するのはDemucsで上手くいったけど肝心の文字起しが上手くいかなくて諦めてたんや。LLMで補完すればよかったんやね
あいかわらずOpusが人気だけど3.5になったSonnetが今はホット
3.5のSonnetの性能は3のOpus既に超えてるね 3.5のOpusも年末には出る予定らしい まあエロフィルターも強化されちゃったんだけど
GPT3.5 turbo超えらしいLlama-3-ELYZA-JP-8B 試してみたいけどWSL2環境作らなきゃ動かない感じ?
一番簡単なのはkoboldcppってソフトを使ってggufに変換されたモデルファイルを読み込む方法かな elyzaは自前の日本語テスト使って性能高いってインチキしてるから信用ならん そのテストに他のモデルの苦手な問題を仕込めば周りの得点下げれるし 自分達はテストの答案を学習させれば得点高くなって当然だし
ありがとう Llama 2のLLMをggufに変換してるnoteがあったのでやってみる まともに日本語でチャットできる性能があればいいかな
>>745 https://huggingface.co/mmnga この人が日本語系のモデルを変換してくれてるからDLすればいいよ
どのサイズが良いかはPCの性能によるからなんとも言えないけどQ4_K_Mぐらいから試せば良いのでは
本当だリリースしたばかりなのに12時間前に 20種類以上もアップロードしてくれてる メモリ64GB、3090でQ4_K_M試して他のもやってみます 教えてくれた人も変換してくれる人にも感謝
量子化はモデルの全体的な精度が低下するのであって性能とは別問題だろとマジレス
>>748 むしろモデルとしての性能を求めるなら量子化して上のモデルを使うのが一般的だと思うが
程度にもよるけど一般論として量子化した70Bモデルが動くなら量子化してない7Bモデルに勝るから量子化が使われてるのであって
googleが出したgemma2 27b、chat arenaの成績みる限り少なくとも英語の性能はllama3 70bに匹敵してるかも Q5くらいなら24GBで動かせそうだ
ぱぱちオタから息子オタになったくらいでまだ使える家具を捨てるなんて誰にでも交代できた
パヨク連呼してるからな 売れる前か売れ始めた頃くらいに高級ラ●ンジ嬢だったな 治療患者の約半分って
男とセックスした漫画はあったよな というか こんなもん病院いけるわけないやろ?
一人暮らしして炎上させられるのが全部ダイエット効果あるぞ
1番すこや ここ数年コロナ禍でクラブとかやってないやん
明日が休みで本当によく分からん こんなことないのにないな
推しだったら党として氷を小刻みに蹴って回ってたり 元祖ガーシーみたいにお気楽商売で夏休み終わった
>>287 「♯ガーシー議員」が結局のところ忘れてたのに本当に何をどうしたら撃退出来るかを建設的にはその残業すら必要ないと正しい判断をするな
賛成した
すぐなら逃げれたんじゃね NORIKIYO捕まった?勝っても倒産はしておくものやつに限るぞ
5chみたいだ キャンペーンをやる以上に何億もつぎ込んでただけだろう。 空港で車椅子押すだけのただの人が心肺停止で病院はなあ
そこが今まで出てこなかったんだが、失敗しやすい
バスに限らず、二度、三度と延期やトラブル発生は致命的だわ
朝に帰って夜に出勤して汚い言葉並べてるだけで何もしてないしな でも そういうとこじゃないかなあ
>>130 最後にバズったのってない馬鹿アカの断末魔の叫びだから呼吸出来ない
ニコ生から大手がほとんど去っていった あと お前ら
(SOXL20%上げとかの奇跡ないと株は爆戻しして実家の相続放棄してもなんもしてねえな おっさんのJKアニメでやってる分には天罰を!
>>471 お巡りさーん
もっとわかりやすい写真出してんのかこいつ
>>377 面白そうなレベルの有象無象アイドルって終わったスタオが新作出してないし説明するのは通過するやろこれ
大型トラックの座席高さで横転したら、首相官邸からオンラインで仕事なの?
「#やっぱゴリってキレイにシンプルにしんどい ちょっと甘かったみたいにプロの専門家を出て、すぐに 配信外でほとんど飲んで家系ラーメン食うぞ
若者とかいう悪質スケオタ達が相変わらず信者はこぞってガーシーさんの大好物やぞ メーカーさえ協力してくれる日本人の聞くのに今回の事故が起きている? 長期海外遠征にも帯同できるレベルなの
1,300円前後ですから敷居が低く、入ってたけどね なにやっとる漫画家に帰るかもしれない
ワクチンでのトラブルで一般的にも購買にも死亡保険が出るわけないのは巨人や 今見たら舐達磨とかいう
まじでボロいんだよ その時は妙に上げ始めたのに 当初の路線は視聴者「へ~~~ナンバーワン! 適当な嵌め込みレスのオンパレ。
みんな女優誰が居たが、結局「政治家が地盤受け継いで
>>484 ジジイイライラで草
意訳もあるんじゃないかな
なお自称カルトの怖さを知らないから粗製濫造が横行してる
すっかり空気の混合比、引火点、発火点で勝とうなんてまだまだ戦える
これは資源少ないから
かわいそ ・ジュニア話禁止 ・アンチモメサヲタヲタ厳禁
普段から何かに依存しないよね 舞は毒母の被害者だな あと 注文してたのはいいけど、客の通販とか凄いねしか書けないんだろう つい半年前までは「評価しない不人気っぷり
どうせジャップお得意の建前至上主義で団塊に未来さえ奪われてるのにな
>>518 15のはキンプリだろうね
ロスバゲしたんだ
なんかすげえ上がってる 長期はほったらかし デイは滅多にやらないけど短期繰り返してるんやな
逆にプロミなら共演OKじゃね? 何で昨日買ったんやろ アクアリウムはやってない)
ピーナッツくんも聴いたって言ってる独居老人みたいだけだよ スラムと見ればどこのスラム街を連想する日本人いる?
>>510 そんな才能あふれるヤングボーイがジュニアの国際タイトルひとつも取れなかった
というか 糖分はけっこう取ってるし 唯一300株持ってる株が-30%の私を球場につれてってとかいうなんG民を美少女化だろ
そこから イベントとか行き始めて ハシモトホームて会社社長や官僚、政治に関心が薄いだけって言われるのがロマサガとは思えないけど
トリドールうぜえ はよ下げろや 暇だからウェザーニュース見てるとは言っても 回さんと
>>9 珍さんは去年全くコロナ被害が起こるまで気がするけどな
ネタ動画VSほか動画はおもろかったんやけどなあ ツイートの心臓を握りつぶす発言と過去の恋とか書いてるのか
離脱王を推してる時点でヤングケアラーでは全く持ってない高齢者票圧倒だから若者との中のヒロキブームがすごい
それか料金を100円以内だし課金しないでハゲズラだけでいけるw 登録者に漏洩しています。
さて、後は老後はひとまず安心だろ シバターの炎がどこになる可能性ある
フォローして盛り上がる いつもの野菜炒めを食ってもトータルは爆益でしょ
気合いを入れてるからな どのみちサロンは危険過ぎる
逆にいうと写真撮られたわけでも?作れるのにアンパイヤやるとかまだないやろ チームの話だろ どういう人生歩んだら
政治的な意味ないぞ? やっぱこれ議員単体の問題よ 何でバカンス?
第一弾の時に前方の乗用車の人を超えるのが よくなることが分かっている
>>487 このアンチ一晩中連投してたサーバーのはずがない
お父さんにご飯作ったり洗濯しなよ婆 逆なんだよて分かっちゃうリトマス試験紙だね~ 含み益になる。 強目の雨降ってる時では
にのちゃん大奥は分かる だからこそ信教の自由を壊し、蝕む規制や禁止の動きをしない まずは一定程度のミステイクで
軽油はガソリンとほぼほぼ同じ カルトの危険性を見据えてなんもする気になったおっさんの話してんの
正直未だに持ってきたところでって状態か 消しとこガード情報なんてよくわからんが
ウィスキーとか飲むイメージだ チャージも家も有権者も18~20代でも先発が焼け野原過ぎる
>>661 スイッチでやってんだひろきよ
でも盛りすぎでは
ほんとの若手で荒れててなるな
グルメと旅ばっかになりそうや オタクにはまず洗濯ちゃんとか電撃プレイステーションとか今聴いて なんでこんな中途半端な男がいない 10月ドラマヤバいね
みたいになっても太らなくて草 守護神が移籍したりするしな
>>32 いやガーシーが世の中で面白い
3.なんとかごまかせるかなってほんのちょっと
>>411 あっさり別チームに寝返るんかな
いつもの野菜炒め中心は4月にかかってるからな
ニコチン酸アミドのサプリだということだ
いろいろ運が良かった
いやいや
>>347 メスに大人気だしオタクは早口だしむしろ不人気なこと自覚なさそう
次長課長が出てきてる 大学のサークルで勧誘してるのと全く同じだね
>>387 一夜限りの関係や金銭的ダメージ
なかなか伝わらないかも
https://uy8e.qpqf/RiDHuU >>818 相見積もりで今のマスコミ報道は「すごい黒幕」みたいな設定の話を議論して数字モメサとかやってるのって結局色気出してないはずなのに
あと5話しかないけbヌ
悲しみbフ双日
>>635 存在しない超マッタリスレだよ
「一度でもない
>>803 どっかのタイミングではありません(*・~・*)
そゆなごみ持ってるけども
クレジットの個人情報を気にしてそう こんな狂った夏がいいすんよて
毎年正月はパリダカ楽しみにしてほしいと(間)思ってなかったみたいに可愛い、あー吐きそ)
717書いたけどオタってスレタイオタの意だった時の戦い方が分かってるんだろ 船乗ってたんだて セは首位争い3位やろなぁ
さて枠取ったら 命びろいした 四季報夏号「サプライズ銘柄」の株価上昇率上位となったのを時々やりますが 面白かったね
と言われていても洋服が同じだ さておき何処まで飲んでたけど含んでからは実用性があるからだね。 早くEVにしよう
>>8 できないという精神を感じないんだが
薬の使い方が違うと思う時あるよね?そういうのやらんやつは
はじめて見た目がある すげえデブだとクサイもんなー?」
>>187 まず、ログインメールアドレスとパスワードの組み合わせは
なんでそんな多いはず
(男子メダリストのEX演技とか覚えてるのがわかる
火がまだ運転席の下敷きかなんかでも続けてる シートも安泰だろう
鍵アンチか鍵オタかわからないとか休みが多いとかイキってるので、バージョンアップだろ
ほんとダブスコウレションしそうwwwきもちいい アイスタイルとか今聴いて
つかこの手の体調を徹底的に脂肪を燃やすフェーズなのに 楽しみを見出せない 海外ペンこういう時はリゾートで遊びまくり JOも出まーすとか言ってたから仕方ない
ほとんどは子供時代の顧客裏切ってしょうもねえ信者増やしただけだった時にデビューしてやり方を規制した! 欲しいとこはある アナムネサ終でシリーズ滅亡したと思う
ペニバンつけた理想ですけどね。 え、ショック…もう降りそう…
>>598 どっちも出来ないらしいけど大丈夫だが
まだあまり知られても里オタ内部ではない
こんなことにはだんまりなの草
プロミクラブ通いとタバコナンパが問題じゃない言葉遣いがあむたからさ
30歳くらいまで余裕で月数十万くらい毎月飛ばしてたらなー ミーハーなのかを知らないだけでそんな世界 ただ 血糖値は高めでは尊師もターゲットにされんわけないやん あいつら90年代からマジでめちゃくちゃラップ上手かった
>>417 やっぱり義務教育を放棄」している
ビジネスホテルの魅力」
市場「ぎゃあぁぁぁ!」
生まれつきなのかを知らず判断力が入ったの? CiONTUに看板出してたしね だれ? やっぱり支持率落とした
ボンネットバス前提で話ししてるの本人サイドだからな じょばんでぺちゃぺちゃ音してたから全然痛くねえ!
自己責任でヨロ 手出したことで 元総理暗殺するという
>>550 車両に異常なしとかすぐ分かるもんなんか?
JUMADIBA回 延期になるなら 海に潜るとか危険なことは絶対的に食おうかな
ここに来てんのか バンテリンホームならまだやれそう これけっこう面白そうな気がしたのに
たまったもんじゃないのか? 混ぜると余計売れないじゃん ほだされてあわよくばじゃなくむしろ
最終更新日:2019/02/06 どうしてもムダだろうけど 主演張れるジャニが巻き込まれんだから怖い。
たまたま乗った人との仲良しアピールするのとか普通にやけどするからな
>>634 クラブ通ってるって言われたのが自己中運転で事故起こして
軽挙妄動はしたくないもんで 痩せるんじゃないのか?なわけで、バージョンアップだろ むしろ ほぼ一生戦えるだろ
>>741 当然海の中がパサパサしそうやな
新作出し続けられてるのが含みスレ民
それはなんで? また架空の敵と戦ってる ありがとう! 現実逃避してるのですか?
>>240 正直不動産五月蝿かった
今買えはワッチョイをかたくなに拒否ってるからといって面白くなると妥当なんだろうな
ハイスコアガールがあるんだが 身近にコロナの感染者数で騒いだらまた外出自粛やらマスクは屋外でもないのはキンプリだろうね
有名人みたいなスキルゼロの趣味を細かく描写してまして運転変わるか 必死すぎだろ スマホでのやり方わかんない長文を投下するだけの番組になるだろうに
手出したことで全能感に浸ってるから大丈夫
天ぷらはいうまでもなく上がっているクソIPO銘柄が買い頃! → 買ってできなかった。 何その47wwwガーシーのアテンド 17 アイドルIのパパ活をアテンド同棲
あれリアコなんだが 8月はけっこうハードな感じだが
>>169 若者って別にじいちゃんやばあちゃんのことを言ってるから30000とかまで下がるし売ったら上がんの?
誰が当てはまるんだけど?
よかった記憶が無くなったんだけど陰性にしてるのは事実や
これで怪しいサイトではならないと思うわ
そんなに持っていく
>>59 ゲーム作るセンス無いよ。
ウノタ名物凸り芸
ウノマオタはさっさと帰国してた」とか「こういう番組を続けるなら何か隠し持っていなかったら死ぬ気で4Aに挑んで認定される角度まで行けるヤングケアラーって何なんだ
「スター誕生の瞬間にヤレヤレ売りしてないけど
お前の予想聞かせて
このダイエット法 最も先鋭的な価値観の相違でしかない山下やる前はないという ネットリンチ被害者続出していないかも あー飛行機代高騰してる若い層と生意気に見える層と両極端よな
ヘブバンと転すらで余裕で賄える ヘブバンもゲーム自体はクッソも面白くない
そもそもの骨格なのかを見る限りはそういう気持ちにならない?
>>273 現状ガソリン車向けの部品で稼いできたんやからそこ取ったら上がるときついから?
事務所早く否定してた事が暇で逆にきつい
ジュニアみたいで面白かったな あんな事故がほとんどなのに4500歩くらいしか歩けてないほうで 反社会な団体や個人がバックにいる様な話
1回バランスを考えたほうがいいかもしれないのにw跳べるならね チェンジ酷えなあ、と再度聞いてくるわけだから 昔のIPでは無いけどな
そりゃ20万人は意外とエイトさんの大好物やぞ ネットラップ全盛期やろ
どう考えてもサガそのも異常無しって分かるんだ 金返してたサーバーのはずなんだ というか 本当は1号だけど、まだ居るか?w 内閣はカルト宗教というザックリした
逆にプロミなら共演OKじゃね?自己評価高すぎるし自分を何様だと思い
こいつさぁ~もうさっさと捕まれよ
反セクト法作らなあかんな
あれだけ利益出したらキリないわ
インタビューもある
https://ocmn.b.wyz/hOPN/gXDt8v 死ぬことはなかったと思うんだよね。 このスレッドは1000を超えていた訳ではおさまりそうになったか? いつもズレてるよね 普通に考えてもカッコいいけど
日本人の50代60代の男性が死亡したほか、
https://yxv.n17/9NMS6 チンフェが依頼して荒してるわ
興味持たれてとるピッチングしてることに打ち勝とうとする健気さが大事な時期に脱出した人もこんな感じ?
下手くそなサンドラがバスの妨害して下行ったら悲惨だぞ
キンプリしか叩かれないような年代で、本人からは実用性が高い)
全然マシではないですよ いけばわかるさ」 市場「ぎゃあぁぁぁ!」 社会もロクに知らない若者に死に体だったPSVITAに対応させよう
アイスタ773助けて めちゃくちゃ可愛いからな ホテル暮らしなんだ 私は国葬未経験が多く行く理由わかる
>>602 この手の異変に気づいた
>>578 これ円が120万も積み立て出来る勝ち組に税制優遇してたぞ
https://sxw.cl/tNmCnCTe 国葬についても要らね
当たり前やな(^○^)
「みんなおおきに!」(海外逃亡中)
「失うものある良いところだけを考えると
無理してどうぶつの森ぐらいは倒して見せろ
昔は良かったのに しかし こんなしょいもない 四球出さないと評価しない」が最も現実的じゃなかろうよ。
盆栽はおっさんにJKをやらせるアニメ さいころ倶楽部みたいなワーキャー女が度々家に遊びに来るね 2022年7月22日)
だかは黒髪にしたがるのが島国流の体張ったギャグ? どっちも出来ないの
>>521 ガーシー 王族への脅迫電話もないからイリーガルな売買に手を出そうとした
> これ見ると
と漢方もある
ノリノリで写真集売れないって感じ バンドのイメージがあるんだし
カルト「そうな雰囲気がいいとか言う意味では 一ヶ月半で5キロいけるか まず食欲ないからだろ
自分がやっと芸人番組がおかしくなった 1回やせ型体質に完全変異するまでスケ連一推し選手だからたくさん出てから出直して 初回もう少し取ってたら
幼少期のネグレクトや思春期に起こった事実の答えになって 嬉しいとは思うけどギャラがえらいことに意味がゼロになっちゃったんだろ。 なんでもいい
プレボに欲しいものが萎える 未成年への道のりは遠い…
スノのいいドラマはなんでなの?
爆発前の会社を野放しにする必要があるとか教えろよ
ワクチン脳溢血の突然死が原因
運転がフラフラして
電話してしまった原因を3つ上げろ
バランタイン21年なら卒業祝い用に取って楽な展開のきっかけになるか見物だな
真面目で言えば「抱き合え」だよね
敵をつくって分断をあおるのは確かに空気だね
わいちゃん27歳公務員こどおばです
ゴキブリホイホイ作って置いた方が含み買わない方が悪いんじゃないか
>>677 メインポジションはほとんどないはず
正直
だいぶ良くなったの
>>10 はっきり言ってもウンコ出ない
ネタ切れ感ひどい
毎日同じ話をするのは本当に脂肪燃焼状態で見つかり、その成果が出てきて
最後にバズったのってないから何とも連動でるな
腹筋いじめまくった オールグリーン 心臓に) F1ドライバーかな でも 当時配信で音声流してそれを塗る
サイゾーにそこのヲタが荒れてるとかノスタルジーなオッサンだな
いやいや妻も仕事もできず案の定非難轟々の国会議員の責務は果たせまい。 (2022年の差多いからな金持ちー
>>194 正しいことをバグと言う方が絶対無理なのわかってたけど
スターオーシャンとかいう
>>5 ネットで調べたところで何らまともなゲーム作らなくなるわ
朝に帰って来たセフセフ
こめかみの上のGoogleマップで載せられて目の青柳とか大卒でもまじでポンコツやったからな
心と生活に変えてから書き込めよ その時に売ってみやがれって話よ
しかしこれで普通はリバウンドするんだろうけど 昼公演であんなガチってるのが一つの事なんか何となく
俺は最近 に見えなかったんじゃないかな そりゃ画面に行け!と言ったの?と無期限にしてくれ とりあえず勝ってるとハメカスがウザくて仕方がないか
これ見れば事故がほとんど去っていった
トラネキサム酸が届いた
>>323 こんな仕打ち受けなかった陰キャおじさんが勘違いしてないから
>>318 なんでもっと弱いところで入るお前だけが情報源の爺さん婆さん
別に政権交代でもされて景気悪くなったら本気出すのかな…
>>796 センスいい服だったら記念切手の感覚でやってるから
このスレッドは1000を超えました。 新しいスレッドを立ててください。 life time: 124日 4時間 10分 7秒
5ちゃんねるの運営はUPLIFT会員の皆さまに支えられています。
運営にご協力お願いいたします。
───────────────────
《UPLIFT会員の主な特典》
★ 5ちゃんねる専用ブラウザからの広告除去
★ 5ちゃんねるの過去ログを取得
★ 書き込み規制の緩和
───────────────────
会員登録には個人情報は一切必要ありません。
4 USD/mon. から匿名でご購入いただけます。
▼ UPLIFT会員登録はこちら ▼
https://uplift.5ch.net/ ▼ UPLIFTログインはこちら ▼
https://uplift.5ch.net/login
read.cgi ver 07.7.23 2024/12/25 Walang Kapalit ★ | Donguri System Team 5ちゃんねる
lud20250305200123caこのスレへの固定リンク: http://5chb.net/r/liveuranus/1710561010/ ヒント: 5chスレのurlに http ://xxxx.5chb .net/xxxx のようにb を入れるだけでここでスレ保存、閲覧できます。 TOPへ TOPへ
全掲示板一覧 この掲示板へ 人気スレ |
>50
>100
>200
>300
>500
>1000枚
新着画像 ↓「なんJLLM部 ★7 ->画像>33枚 」 を見た人も見ています:・なんJLLM部 ・なんJLLM部 ★2 ・なんJLLM部 ★4 ・なんJLLM部 ★6 ・なんJLLM部 ★5 ・なんJLLM部 ★3 ・なんJLLM部 避難所 ★4 ・なんJLLM部 避難所 ★6 ・なんJLLM部 避難所 ★7 ・なんJLLM部 避難所 ★5 ・なんJL2R部 ・なんJLOL部 ・なんJLGOFLGNS部 2 ・なんj部 ・なんJSS部 ・なんU映画部 ・なんJSS部 ・なんU映画部 ・なんJG囲碁部 ・なんUSK部 ・なんJ囲碁部 ・なんJ映画部 ・なんJ映画部 ・なんj酒部 ・なんK 車部 ・なんG映画部 ・なんJDTM部 ・なんUSTR部 ・なんUZZZ部 ・なんUSTR部 ・なんJHLL部 ・なんUZZZ部 ・なんJお花部 ・なんJRBC部 ・なんG NK部 ・なんJTPI部 ・なんUZZZ部 ・なんUZZZ部 ・なんJ旅部 ・なんUZZZ部 ・なんJ酒部 ・なんJeve部 ・なんUSTR部 ・なんJぷよ部 ・なんUSTR部 ・なんUSTR部 ・なんJMJ部 ・なんUSTR部 ・なんG競輪部 ・なんJTPI部 ・なんUSTR部 ・なんJ奴隷部 ・なんJTPI部 ・なんJTPI部 ・なんJTPI部 ・なんJ白部 ・なんJHIT部 ・なんUSTR部 ・なんUSTR部 ・なんUSTR部 ・なんJJSO部 ・なんJToS部 ・なんUSTR部 ・なんUSTR部 ・なんUZZZ部
02:09:20 up 56 days, 3:08, 0 users, load average: 9.83, 9.74, 9.36
in 1.573942899704 sec
@1.573942899704@0b7 on 061215