人工知能(AI)のアルゴリズムは、一般の人間を騙せるほど説得力のある文章を生成できる。つまり、AIを使えば、フェイクニュースや嘘のレビュー記事、嘘のソーシャルアカウントを大量生産できるということだ。しかしありがたいことに、AIが生成したニセの文章を判別できるAIツールが登場している。
ハーバード大学 とMIT- IBM ワトソンAIラボの研究者たちは、ある文章がAIによって生成されたものであるかどうかを見抜く新しいAIツールを開発した。「ジャイアント・ランゲージモデル・テスト・ルーム(GLTR)」と呼ばれるこのAIツールは、AIによる文章生成システムが、言葉や文章が持つ実際の意味ではなく、文章の統計学的なパターンに依存して文章を作ることを利用する。言い換えれば、このツールはいまあなたが読んでいる文章が、人間が書いたものとしてはあまりに「予測通り」かどうかを判断できるのだ。
現在、AIの普及により、偽情報生成の自動化が進んでいる。しかも、こうしたニセの文章や画像を生成する技術は急速に進化している。AIが生成した文章を見抜けるAIツールは 、フェイクニュースやディープフェイク画像、ツイッターのボットを見つけるうえで強力な武器となるかもしれない。
非営利の研究機関であるオープンAI(OpenAI)の研究グループは先だって、驚くほどリアルな文章を生成できるアルゴリズムを実証した。 同グループは、膨大な量の文章を巨大な機械学習モデルに入力し、単語の統計学的なパターンを抽出することを学ばせた。今回発表されたAIツールは、オープンAIが一般向けにリリースしたバージョンのアルゴリズムのコードを使っている。
GLTRは、テキスト内の先行する単語の後に統計学的に現れる可能性が高い単語を、色分けして目立たせる。上の画像(出典:Infinite Jest)にあるように、もっとも可能性が高い単語語は緑色で、可能性がそれほど高くない単語は黄色と赤で色分けされている。もっとも可能性が低い単語は紫色だ。オープンAIのアルゴリズムが作成した文章の一部を使ってテストすると、予測可能な単語が非常に多く見られる。人間が書いた実際のニュース記事や学術論文の要旨にGLTRを適用した場合には、かなり異なる結果が得られる。
GLTRを開発したグループは、別の実験も実施した。ハーバード大学の学生らに、最初にGLTRを使わずにAIが生成したテキストかどうかを判別させ、次にGLTRの色分け表示を使いながら判別させたのだ。学生たちは、自力ではAIが生成したテキストを半分しか見抜けなかったが、GLTRを使った場合は72%を見抜けた。「私たちの目標は、人とAIがコラボレーションするシステムを構築することです」と、この研究に関わった博士課程大学院生のセバスチャン・ゲールマンは話している。
興味のある人は、こちらで試してみよう。