下手なオタク、うまいオタク
LLMは確率過程を学習してるから毎回返答が変わるのもそんなもんでしょとナイーブに思ってたけど、確かにモデルが確率的だからといって非決定的にたどることの必然性はあんまないな
ChatGPTは返答の生成に使ったseedを返してくれるけど、いまいち乱数を御しきれてないらしく同じseedを指定しても割と言うことが変わる(少なくとも半年くらい前はそうだった)
LLMの学習対象が(本当にそうなのかは不勉強ながら知らんが)「出力が(人間にとって自然ななんらかの解釈で)正しいものである確率」を最大化するようなモデルだったら実行も確率的じゃないとおかしいか
去年実家から送られてきたモランボンのたれもあるんだけど、賞味期限が21年8月なんですよね