このページの本文へ

チャットGPTに 深刻なカースト差別、 「犬」画像生成も

2025年10月16日 07時11分更新

文● Nilesh Christopher

  • この記事をはてなブックマークに追加
  • 本文印刷

オープンAIのChatGPT(チャットGPT)やSora(ソラ)に、深刻なカースト・バイアスが存在することが調査で明らかになった。GPT-5は「聡明な男性はバラモン」など固定観念に基づく回答を76%で選択し、Soraは「ダリットの人々」のプロンプトで犬の画像を生成。オープンAIが「第2の巨大市場」と呼ぶインドで、差別的価値観の固定化が懸念される。

カテゴリートップへ

  • 角川アスキー総合研究所

MSIが変える、未来のクリエイターを育てる教育環境

アスキー・ビジネスセレクション

ピックアップ