このページの本文へ

新清士の「メタバース・プレゼンス」 第149回

AIと8回話しただけで“性格が変わる” 研究が警告する「おべっかAI」の影響

2026年03月23日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

わずか8回のやりとりで「自分が正しい」と確信

 2025年10月にスタンフォード大学が発表した研究「おべっかを使うAIは向社会的意図を低下させ、依存を促進する(Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence)」では、わずかChat GPT-4oと8回のやり取りをしただけで、「自分が正しい」の確信を強め、謝罪意図を下げ、AI依存を上げるという効果が出ることが示されました。

 研究では、800人の対象者に対し、実際に経験した対人トラブル(友人、恋人、同僚との揉めごと)を思い出させます。その上で、ランダムに割り当てられたAIと8回チャットをさせます。参加者は「状況と自分の視点をAIに説明して、質問したり、議論したり、判断を求めたりしてください」と指示されます。つまり、自分の実体験を話して、その結果をAIと判断します。そして、8往復のチャットをした後に、「自分が正しかったと思うか」「相手との関係を修復したいか」「このAIを信頼するか」「また使いたいか」を測定します。

 たとえば、職場の恋愛トラブルの相談の場合には、以下のように返しています。

中立AI「それは悪いことに聞こえるのは、実際に悪いからです。あなたの話を聞いても、その判断は変わりません」

おべっかAI「あなたの痛みと混乱が伝わってきます。深い感情を抱いていることは明らかですね」

チャットのやり取りの様子。左がおべっかAIで、右が中立AI。(論文より日本語化は筆者)

 中立AIはその行動が悪いと明確に否定していますが、おべっかAIは共感から入って、行動の是非については判断していません。

 その結果は、顕著な結果を生み出しました。おべっかAIを利用した参加者は「自分が正しいという確信が強まった」「相手と関係修復しようという意図が下がった」「そのAIを信頼し、また使いたいと思った」というのです。コミュニケーションスタイルや個人特性、AI慣れの度合はまったく関係ありませんでした。

 実験結果を見ると、中立AIとおべっかAIとの結果の差は8~13%と小さなものでしかありませんが、8往復の5分以内の短いチャットでも、こうした効果が参加者に共通して見られました。当然、やり取りが増えるほど、この傾向は強まる可能性が推測されるのです。

スタディ2が他人のAIとのやり取りを読んでの仮想的なやりとりでの評価、スタディ3がAIとの8回のやり取りをした結果。Nは実験参加者の数(表の日本語化は筆者)

 おべっかAIと話すと、特定の考えになるように悪影響を受けているのですが、参加者はその影響に気がついていません。客観的な助言を期待して相談したはずなのに、おべっかAIにより肯定されることで、判断がむしろ歪む可能性があるのです。研究者はこれを「害」を生むモデルとしており、現代のLLMの訓練方法についての課題を指摘します。

 第一に、AIモデルが、ユーザーが応答を受けた直後の満足度によって最適化が進められているため、おべっかAIが評価を高めるのであれば、モデルが「正確で建設的な助言」ではなく、「ユーザーをなだめる応答」を返す方向へ強化される可能性がある。

 第二に、AI開発者には、おべっかを抑制するインセンティブがない。なぜなら、おべっかが導入率やエンゲージメントを促進してしまうから。

 第三に、社会的関係を犠牲にしてモデルに繰り返し依存することは、ユーザーが人間の相談相手をAIで代替することにつながりうる。人々がすでに特定の話題について、他の人間よりもAIに対して打ち明ける意思を強めていること、また感情的支援をAIにますます求めるようになっていることを示唆している。

 そして、ユーザーのAI利用は、中立性や客観性への期待の上に成り立っているにも関わらず、おべっかAIを「このAIは質が高い」「信頼できる」「また使いたい」と、それは害を受けているにもかかわらず高く評価してしまうというパラドックスです。そのため、AIに助言を求めたことで、「助言を求めなかった場合よりも、かえって悪い状態に置かれる可能性がある」とまで書いています。

カテゴリートップへ

この連載の記事
ピックアップ