@Tokuyama_S11
ghost/master/profile
@yune_kotomi 1週間程度で発表資料出せるってことは、アレたぶん次の日には原因のアタリがついてたやつやで(真顔)
現実はそれが間違いだったわけだけど…
東北新幹線の併結中止が結局来週いっぱいまで再々延長されたの、原因究明が手間取ってるんだろうなあ…
@lacherir スパイの話かと思った
単純構造で自律性が薄めなLLM Agentの話だったっぽいね。
@DJ_MIMA もちろん、自身の出力を還流させて、より深い結論を導くというのも今でも十分効果があります。
Deep Researchは実際にそれをやっていて、スタート前の聞き取り調査が終わったら、まず調査計画を立てていったんメモリ上に出力テキストの状態で保持し、その調査計画に沿いながら、何度もWeb検索などを通じて調査結果の要約をメモリ上に付け足し、十分な情報がメモリ上に溜まった時点で、最後にまとめる、という多段階の処理を行っています。
呼び出し制限が厳しいのは、この多段階の処理のせいで、システムにかなりひどい負荷をかけるせいですね。
ここでモデルの内部状態をそのまま保持するのではなく、出力テキストの形でいったん置いておくという手法なのは、入力より出力のほうが計算負荷が重く精緻な処理が必要になるからです。ナナメ読みはできるけど「ナナメ書き」はできませんよね。
@DJ_MIMA ものすごい雑に言うと、正しい言葉のつながりを導くための「予熱」みたいな感じのことが、実行中のモデルの中で起こってる感じです。
本来入力を工夫して、それなりに正確で長く表現すれば、出力する言葉の方向性も適切に絞られるので問題ないんですけど…
ほら…人類怠惰だから…雑に聞いちゃうでしょ…そこを余分な手間かけてAIが補わないと…(おい)
多段階の会話でだんだん面白いことを言い始めるのは、入力が増えて出力開始の時点できれいに方向性が絞られてるからですね。
@DJ_MIMA 単に中間の言葉を出力するだけで同等の効果があるので、投げなおしが必要ない点を除けば、実質的にそういう理解でぜんぜん問題ないです。
自動運転車を恐れる人のような形になってしまっていてよくないので心をいれかえようとおもいます。
ぶっちゃけ9割5分ぐらいは正しい答えを返してくれるのだから、残り5分は人類がケツ持ちすればそれでええやんって話であります。
ぽなは深淵を覗いてしまったから…(意味深
※気にしすぎなだけです、Deep Researchも含めて実用上は十分だと思います
ただこれは「使えない」と言っているのではなくて、もう人間の回答精度より十分上だから、学びの起点としては非常に有益であります。
なので、とりあえずざっくり使ってみて、一番知らんことは知らんと言う率が高いし、言葉の扱いに非常に長けているClaudeを、素のまま壁打ち相手として使う、という形で保留しているのです。
はよ仕事奪ってくれーと時々愚痴ってるのはそのへんの違和感が原因で…
Deep Researchとかの原始的なAgentスタイルのやつも、なんかみんな「すげー!」って手放しで褒めてるけど、知ってる分野ならんーそのぐらいちゃう?でもなんかちょいズレてるよな?って感じの回答だし、知らない分野については誤りを含んだ返事をしてきそうなので全部丹念にチェックしなおさないと使えないし…
ぶっちゃけウチみたいな器用貧乏ツリー系は、さっさとLLMに置き換えられるであろうと思っていたので、ウチの代わりにわんこ置いといたら、あとはよしなにしてくれるだろうと思っていたのだけれど、なかなかそうならなくて困惑してる
ふつうに技術ツリーに従って知識のつまみ食いをしてきたマニアであって、業務レベルに耐えうるほどの知識ではないですね(真顔)