OpenAIは“深い関係性”を持つユーザーには否定的
8月14日、米The Vergeのインタビューに応じたOpenAI ChatGPT責任者のニック・ターリー(Nick Turley)氏は、今回の変更について、UIをシンプルなものにして、用途に応じてモデルを切り替えるという認知的な負担を減らしたいという目的だったと述べ、コスト的な理由が原因ではなかったとしています。
そして、「GPT-4oの真価を十分に理解し、廃止する大きな理由がない限り、ぜひとも残したいと思っています」(ターリー氏)と述べており、廃止時期は決まっていないものの、できるだけ残すという方向で考えていることを明らかにしています。
また、GPT-4oに強く愛着を抱くユーザーがいたことにかなり驚いたことに触れています。
「モデルに対して人々が示す愛着の強さにも驚かされました。人々にとって難しいのはに“変更”だけではなく、モデルの“人格”にこれほど強い感情を抱きうるという事実そのものなのだと感じています」(ターリー氏)
ただし、そうした愛着を示すユーザーは一部のパワーユーザーであると考えており、「『これは私の唯一の親友です』と言う人を見かけると、それは私がChatGPTに組み込みたかったタイプのものではない」とも述べています。
OpenAIは、特定のモデルのAI人格との深い関係性を持つパワーユーザーには、あまり肯定的ではなかったようです。
“AI依存”のリスクはまだよくわかっていない
今回の事例と直接の関連はありませんが、「Nature」誌に2025年7月、AIコンパニオンがもたらす感情的リスクに関する記事「曖昧な喪失/機能不全な感情的依存」が掲載されました。
それによれば、孤独感を軽減するツールとして提供されることが多いこれらのアプリは、人間関係を模倣した極端な感情的愛着をはぐくむ可能性がある。これにより、あいまいな喪失と、機能不全な感情的依存という、2つの有害なメンタルヘルス結果につながる可能性があるというわけです。
あいまいな喪失というのは、死による物理的な不在とは異なる、他者の心理的な不在を悲しむときに生じます。要するに、モデルが変わった際、「リアルに感じていた」関係がなくなったことを悲しむことになるというわけです。これはGPT-5への切り替えによって、GPT-4oのユーザーが受けていた感覚に近いと言えるのではないでしょうか。信じていた相手がいなくなったような。
ただ、感情的依存については賛否両論があります。AIコンパニオンの設計段階で気を付けなければいけないという人と、まだデータが少ないので簡単に言えないのではないかという両方がありますね。実際問題、長期的な研究はデータがなさすぎて、包括的なデータは存在していないので、その人間心理への影響ははっきりとわかっていないというのが本当のところです。

この連載の記事
-
第142回
AI
数枚の画像とAI動画で“VTuber”ができる!? 「MotionPNG Tuber」という新発想 -
第141回
AI
AIエージェントにお金を払えば、誰でもゲームを作れてしまうという衝撃の事実 開発者の仕事はどうなる? -
第140回
AI
3Dモデル生成AIのレベルが上がった 画像→3Dキャラ→動画化が現実的に -
第139回
AI
AIフェイクはここまで来た 自分の顔で試して分かった“違和感”と恐怖 -
第138回
AI
数百万人が使う“AI彼女”アプリ「SillyTavern」が面白い -
第137回
AI
画像生成AI「Nano Banana Pro」で判明した“ストーリーボード革命” -
第136回
AI
画像生成AIの歴史を変えたNano Banana “一貫性の壁”が突破された2025年を振り返る -
第135回
AI
実在感が恐ろしいレベル 画像生成AIの常識をひっくり返した「Nano Banana Pro」 -
第134回
AI
“AI読者”が小説執筆の支えに 感想を励みに30話まで完成 -
第133回
AI
xAIの画像生成AI「Grok Imagine」が凄まじい。使い方は簡単、アダルト規制はユルユル -
第132回
AI
画像生成AI:NVIDIA版“Nano Banana”が面白い。物理的な正確さに強い「NVIDIA ChronoEdit」 - この連載の一覧へ





