この話のオチは当然
四の五の言わずSSP開発しろ
ということです
一応カタログスペック上は128kトークン読めるってことになってるGPT-4 turboでも、なんか5k超えたあたりから、じゃんじゃん忘れはじめる感覚があるので、LLMもTL;DRなんやなあという気分。
Claude-3 Opusとかそのへんマシになってるんかなあ…
@yune_kotomi パラメータ数が全てではない、という前提を理解した上で…GPT-3.5程度ぐらい?
こだわりをつっこむにはコンテキスト長が短すぎる。100メガショックトークンぐらいほしい(そしてAPI破産)
伺かの民、行間を読まないと理解しづらいレベルの文章を読みすぎてるせいで、LLMで動くチャット的なものに求めているレベルが高すぎる件(ただの偏見)
> 水槽の中の脳(すいそうのなかののう、英: brain in a vat)とは、「あなたが体験しているこの世界は、実は水槽に浮かんだ脳が見ている夢なのではないか」という仮説。
https://ja.wikipedia.org/wiki/水槽の中の脳
そしてVRMMORPGでログイン不可デスゲームがはじまるんだ
ぼくしってる
まあ笑えないといえば笑えないんだけれども、こんな不安定なシステムを実用に供するのは冗談きついゼって感じなので、まだまだ基礎研究の基礎研究という話。
人の脳を使うAI、笑えない件について
公開したところで研究者もクソデカVRAM機材なんて持ってなくて、クラウドで借りても割とえげつない金額になるし、ウハウハ言いながら使うのがライバル企業だけ…ってなると、オープンにする気なくすよなあってなんとなく思ってしまったぽな
@yune_kotomi Voluminous RAM (CPUにぶらさがってるRAMより多い流れまで余裕であるので)
ローカルLLMをおもちゃにしたいなぁとか思ったこともあるけど、VRAM要求量がインフレ状態なので諦めたぽな
Grok-1を爆速で動かすためには、fp16なら628GBのVRAMが必要🤪
ああ、でも革ジャン氏おすすめのとてもクソ高い箱が1個(DGX H100)で最速で実行できるのか…
超特大規模のNNをブン回すために、VRAMが何百ギガだのテラだの言いだして、VRAMのVってなんだっけ…と概念が崩壊する回
314BのLLMなんぞ動かせるわけあるかい!
(個人で動かすことなんて当然考慮していないだろうしあたりまえです)
This account is not set to public on notestock.
This account is not set to public on notestock.
今日はダイヤ改正後の初の平日なところが多いぞ!列車が来た段階で面食らわないように、みんなきちんと出発前に確認しような!
※「私は鉄道マニアにもかかわらずダイヤ改正を忘れていてミスりました」と書かれている札を首から下げながら
@kanade_lab コード見直したけど、SSP側ではデフォルト復帰処理は旧互換モードに移行しないと発動しないようになってた。
里々くさい?