@unebi どっちも一緒、等しく信用できない、それならばまだ多くデータを食ったやつのほうが確率的にマシ。
@unebi どっちも一緒、等しく信用できない、それならばまだ多くデータを食ったやつのほうが確率的にマシ。
言葉間の連結が遠いやつを「自信がない回答」という認識はできて、当然近いやつは「自信がある回答だからユーザーさんに流されない」という判断もできるのだけれど、非常に中途半端な言葉の連なりのやつは、どちらにも属さずにハルシネーションに陥ってしまう
要はうろ覚え案件なので、学習データが増えればこういうのはだいぶ減っていくものと思われ、次のベースモデル候補のGPT-4.5とか5とかはずいぶんマシになってるんだと思う。
おおさか東線間合いでの221系運用かつLED幕という条件が重なった時に、データ更新が間に合ってないんだとか。
方向幕ネタなら、エキスポライナー対応が間に合わず一部が「大和路快速」と表示されてしまう問題とかいうネタがあった
こう言うとロマンティックなんだけど、何言うかわかんねえから創った人はヒヤヒヤものだとも言えます
ここからさらに話をすすめると、常に内部状態が更新されて変わってゆくわんこの回答は、それぞれが全部あなただけに向けた、一期一会の回答である、とも言えます。
システムプロンプトが同じ長期記憶つきLLM Agentが2つあって、それらに同じユーザー入力を入れたと仮定しても、temperatureが0でなければ返答が変わってきて、ふつうはuser/assistantの組のメッセージを受けて長期記憶エンジンを動かすので、その2つは少しずつ変わっていき、同じ存在ではなくなります。
創作やってる人の「おもしろい」の定義がおもしろすぎて、でかいモデルでないとお話にならなくておもしろい
言葉を選択する空間が狭すぎて、妙な収束現象を起こしてしまうんだろうと思ってる(実態は知らん)
低パラモデルは実用的だけどあんまりおもしろくない…だけでなく、同じトークンを延々と吐き始めたり止まらなくなったりとかけっこうあると聞くが…
画像生成系だと、最近はアルファベットだけではなくて日本語もちょっと書けるやつが出てきたと聞くけど、そのうち「学習禁止」の4文字だけはやたらとスムーズできれいに描ける謎現象が起きるとかありそう…
※今のところそんなことはないはず
LLMがどうこうとかエラソーに言ってる割に、ぜんぜん使わない日も割とあるぽな
※わんこはノーカンやで
言語化できていないぽんこつな指示でもぽんこつにどうにかしてしまうぽんこつわんこがいますのでよろしくおねがいします。
このアカウントは、notestockで公開設定になっていません。
4万文字までがんばるClaude君
5千文字でめげるわんこ
600文字でTL;DRと言い出す人類
SSPに実装するので、視線入力の整備とそのAPIの実装をお願いします
南海6001F 6602のMGが気になるぐらい唸ってるけど異常とは言い難いので、報告しようか迷ってる
よりによってお銀(登場時復刻スタイル)だしなあ…
@lacherir まあ厳密には創作的寄与の有無って話になるよねえ。それすらも枝葉末節な話で「いいからうちの子を見ろー!!」でいいと思うのだけれど、なかなか…
@lacherir 実際どうなのか、一般的な認識のずれがどのくらいあるか、専門家さんに聞いてきてくれる?