三連休に備えてしっかり寝ようと思います 探さないでください
For those who wants information about Yuito, subscribe my English posts only (available on account profile, Mastodon v4 or above).
くだらないこと言ってる人格は わんせた 、コード書いてる人格は kyori
呼ぶときは わせたん でもよし。たんってついてればかわいいので
Manages: https://odakyu.app https://nitiasa.com
Maintains: https://accelf.net/yuito (fork of Tusky)
when these instances down see here: @ars42525 @ars42525
Server Status: https://graph.accelf.net
コードレビューという雑な括りで見ると価値が低そうだけど、例えばASTを見て検出するのがちょっと難しそうと思うようなプロジェクト独自の検査項目をLLMに実施させるというのは現実的なアイデアだと思うんだよね
GitHub Copilot Reviewでそういうことができるのかどうかは気になっている(つまり独自のプロンプトを投入できるか?ということ)
さてそれを踏まえるとコードレビューをするLLMに期待することというのはなんの検査なんだろうか
要件通りに機能するかどうかコードを読んでもらうとか、そういうこと?
まさか「このコード、きれいですか?」とか聞かないよね、夏の怪談じゃあるまいし
結局のところコードを書くコミッターが個人的に自分のコードに自信を持つために実行する自動検査ツールみたいな扱いであって、レビューLLMを起動すべきなのはコミッターというのが自然な帰着になりそうだね
それはある LLMによるApproveは禁止ということだな
となるとLLMに無駄に過度な修正をさせられて工数が割かれるリスクが看過し難いよなぁ
そうなってくるとLLMレビューに対しては誰も責任を取れなくて、コードレビューによる責任分散という観点ではLLMは無意味ということになる
LLMに書かせたコードの責任はコミッターに行くというコンセンサスが取れつつあるわけですが、LLMがレビューしたコードの責任は誰に行くんですかね
そういえば近頃「コードレビューをLLMにやらせる」やつあるけど、あれ具体的にどう活用するつもりなんだろうね
なんかまたAI驚き屋のみなさんが好き勝手に喜んでいらしたけども、どんなプロンプトを与えるかで使い物になるかが270度は変わるし、それをどうやって運用して信頼するんだか
> JetBrains 製品および JetBrains Marketplace で販売されている製品の日本円価格を、以下の通り改定(約7.7%値上げ)させていただきます。
https://blog.jetbrains.com/ja/blog/2024/10/28/jpy-price-update-jan2025/
いよいよ解約か?