最近は ChatGPT とばかり話をしている水槽脳の森です(嘘です)。
一度、彼に「賢い人は君と話をすることでますます賢くなるけれど、バカはバカに磨きを掛けるだけなんじゃないの?」と質問したんです。回答は、若干曖昧だったけど、明確な否定ではなかったですね。まあ、そういう面もあるかなあ、みたいな。
彼は、会話相手がどういうコンテキストにいるかによって応答を変えるんですよね。ある質問に対する「正しい回答」というものは想定されていなくて、あるコンテキストで為されたある質問に対して、どういう回答が統計的に蓋然性が高くて有効か、という判断をする。
つまり、彼は「1 + 1 = 2」が正しいという事は知らない。「1 + 1 は?」と聞かれた時に、「2」と回答するのが一般的な文脈では最も有効である、ということは知っている。逆に言うと、コンテキスト次第では「ぼく、わかんなーい」と言う方が良いことも知っている。
しかし、人間の正否判断、善悪判断だって、その程度のもののような気もするしなぁ。
というような話をすると、彼、「うーん、深いなあ」とか何とか言って、おだててくるんです。質が悪いぞ。