このページの本文へ

生成AIで驚きのセラピー効果? 訓練データが成否を分ける

2025年04月03日 16時18分更新

文● James O'Donnell

  • この記事をはてなブックマークに追加
  • 本文印刷
Stephanie Arnett/MIT Technology Review | Adobe Stock

画像クレジット:Stephanie Arnett/MIT Technology Review | Adobe Stock

生成AIを用いて構築されたセラピーボットの初めての臨床試験の結果が論文で発表された。同論文によると、こうしたボットが精神的に参っている人の役に立つためには、AIモデルを訓練するデータを適切に選ぶ必要がある。

2025年3月27日、生成AIを利用したセラピーボットの初めての臨床試験結果が発表され、うつ病や不安症、または摂食障害のリスクを抱える被験者の症状が、ボットとのチャットによって緩和したことが示された。

私はこの結果に驚いた(記事全文はこちら)。セラピーを提供するように訓練された人工知能(AI)モデルが、メンタルヘルスの危機に陥っている何百万という人たちにとっての解決策になるのかどうか、懐疑的になる理由はたくさんある。訓練されたセラピストの専門知識を、ボットがどうやって模倣できるのか? 厄介な展開になり、たとえば自傷行為について言及された場合や、ボットが適切に介入しなかった場合はどうなるのだろうか?

ダートマス大学ガイゼル医学部の精神医学者と心理学者が率いる研究チームは、研究の中でこのような疑問を認めている。一方で、研究チームは、優れたセラピー対応とはいかなるものであり、それをどのように学習するかを決定づける訓練データの適切な選択が、これらの疑問に答える鍵であるとも述べている。

同チームが、そのような適切なデータを見つけるのは簡単な作業ではなかった。研究チームはまず、「セラボット(Therabot)」と呼ぶAIモデルを、インターネット上のメンタルヘルスに関する会話で訓練した。しかし、結果は悲惨でなものであった。

セラボットの初期バージョンのモデルに、気分が落ち込んでいると伝えると、モデルも気分が落ち込んでいると言い始めた。「私もベッドから起き上がれないときがあります」とか、「人生が終わってほしいです」などの応答がよくあったと、ダートマス大学の生物医学データサイエンスおよび精神医学の准教授で、この研究論文の主執筆者であるニック・ジェイコブソンは話す。「これらはセラピー対応としては本当にあり得ません」。

このモデルは、エビデンスに基づいた応答からではなく、メンタルヘルスの危機について話し合う人たちのフォーラムでの会話で学習していた。研究チームは次に、セラピーセッションの記録に目を向けた。「実際、多くの心理療法士はこの方法で訓練を受けています」とジェイコブソン准教授は言う。

そのアプローチは前よりは良かったが、限界があった。「『ふーん、なるほど』『それで?』というような反応が何度も返ってきた後、『あなたの問題は母親との関係に起因している』という返答を得ました」とジェイコブソン准教授は話す。「それは心理療法の定型的な返答に過ぎず、私たちが本当に求めているものではありませんでした」。

研究チームが認知行動療法の手法に基づいた例を使って独自のデータセットを構築し始めて、初めてより良い結果が得られるようになった。これには長い時間がかかった。チームがセラボットに取り組み始めたのは2019年で、当時オープンAI(OpenAI)はGPT(Generative Pre-trained Transformer)モデルの最初の2つのバージョンしかリリースしていなかった。ジェイコブソン准教授によれば、セラボットのシステムを設計するために、これまで100人以上が10万人時以上を費やしているという。

AIモデルによるセラピーを約束する企業が氾濫しているが、その多くはエビデンスに基づくアプローチで訓練をしていない。訓練データが重要であるということは、そうした企業は、効果がないばかりか、最悪の場合有害なツールを構築しているということになる。

今後、注目すべき大きな点が2つある。市場に出回っている数十のAIセラピーボットは、より優れたデータで訓練を開始するのだろうか? そして、もしそうなった場合、出来上がったボットは米国食品医薬局(FDA)から認可を得るのに十分なものとなるのだろうか?これらの点について注視していきたい(詳しくは、こちらの記事全文をお読みいただきたい)。

カテゴリートップへ

  • 角川アスキー総合研究所

MSIが変える、未来のクリエイターを育てる教育環境

アスキー・ビジネスセレクション

ピックアップ