#リートン はベイズの定理を使った問題が解けないようだ。正しい答えを教えても、教えたこちらが間違っているという回答をする。#Copilot は「間違ってます」と指摘したらベイズの定理を使って解き直し、正解を導き出した。ただし、その前に普通のモンティ・ホール問題を解かせて、その流れで、ちょっと難しい問題を出したら、モンティ・ホール問題に縛られて、いつまでたっても間違いを訂正できなかった。新しいスレッドで質問し直したら、最初は間違えて、間違いを指摘したら解けた。#Gemini は「ベイズの定理を使って解いてください」と指示しても、正当が出せなかった。
やっぱり、チャット型の #AI に頼ってはダメだ。間違いを断定することのない通常の検索エンジンで答えを探した方が良いだろう。