画像クレジット:Stephanie Arnett | Envato, Getty (hand)
チャットGPTで課題を済ませる学生が増えたことを受けて、チャットGPTの利用を禁じる大学や学校が米国でも相次いでいる。だが、ここに来て、チャットGPTの教育的効果も語られるようになってきた。
この記事は米国版ニュースレターを一部再編集したものです。
今年はたくさんの人たちが人工知能(AI)システムに触れ、驚きを感じてきた。それは少なからず、オープンAI(OpenAI)のチャットボットである「チャットGPT(ChatGPT)」によるものだろう。
2022年11月に公開されたチャットGPTは、即座に学生たちの間で人気となった。学生たちの多くは、チャットGPTをエッセーの執筆や宿題を終わらせるためのツールとして利用した。一部のメディアは、大学のエッセーは死んだとまで断言した。
AIが生成したエッセーの殺到に危機感を募らせた世界中の学校は、すぐにこのテクノロジーの使用を禁止する方向へ動いた。
だが、およそ半年が過ぎ、見通しはそれほど暗くないものになってきている。 MITテクノロジーレビューでは、AI担当編集者のウィル・ダグラス・ヘブンが、さまざまな教育関係者へ話を聞いている。教育関係者たちは子どもたちへの教育のあり方に対して、チャットGPTのようなチャットボットがもたらす重要性を再評価し始めているのだ。今や多くの教師たちが、チャットGPTは不正行為を働く者のための夢の機械などではなく、教育をより良いものにしていくために有効な存在ではないかと考え始めている。こちらの記事をぜひ読んでみてほしい。
この記事で明らかなのは、チャットGPTが学校教育のあり方を変えるだろうということだ。このテクノロジーがもたらす最大の教育的効果は、エッセーや宿題のこなし方の新たな方法ではないかもしれない。それはAIリテラシーである。
AIは私たちの生活においてより一層欠かせない存在になってきており、テック企業は唖然とするような速いペースで、AIを搭載した製品を展開するようになっている。AI言語モデルは、人々が日々利用する強力な生産性ツールになるかもしれない。
私はこれまでに、AIに関連する危険について、バイアスのかかったアバター生成ツールからAIが生成したテキストの検知という不可能なタスクにいたるまで、数多くの記事を書いてきた。
この手の危険から身を守るために一般人に何ができるのか専門家に尋ねてみると、返ってくる答えは毎回同じだった。私たちがコンピューター・プログラムに騙されたり被害を受けたりするのを防ぐためには、AIの仕組みとその限界についての大衆の理解を向上させることがただちに必要だと言うのである。
現在まで、AIリテラシー計画への理解はなかなか深まってこなかった。 だがチャットGPTにより、多くの学校がすばやく適応し、即興のAI入門カリキュラムを子どもたちに教え始めざるを得ない状況が生まれた。
ダグラス・ヘブン編集者が話を聞いた教師たちは、すでにチャットGPTをはじめとするテクノロジーを批判的な観点から見始めていたようだ。ミシシッピ大学のライティング講師で教育開発者のエミリー・ドナホーは、教師たちが最終的な成果に過剰にこだわることから脱却するのにチャットGPTが有効ではないかと考えている。授業でAIに触れ、それが生み出すものについて批判的に考えることは、「学生たちにロボットのように書いたり、成果を出したりするよう求める」よりも、教育に人間らしい感覚を与え得るのではないかとドナホーは語る。
また、AIモデルは北米のデータで訓練され、北米のバイアスを反映しているため、バイアスについての話し合いを始める方法として非常に優れていることに気づき始めている教師たちもいるという。
英国シェフィールド・ハラム大学で生物科学教育部の教授を務めるデヴィッド・スミスは、学部生に執筆課題でチャットGPTの使用を許可している。だが、文章を生成するのに使ったプロンプト(指示文)をエッセー自体と同じく、あるいはより重視する形で評価していくと言う。「プロンプト内で使うべき言葉を知り、そこから生み出されたものを理解することは重要です。私たちはその方法を教える必要があります」と、スミス教授は話す。
AI言語モデルの最大の欠陥の1つは、何かをでっち上げて、自信たっぷりに嘘を事実として提示してみせることだ。これは正確性が極めて重要な科学研究やヘルスケア等のタスクには不適切だ。しかし、バージニア州ノーフォークにあるオールド・ドミニオン大学教育テクノロジー学部のヘレン・クロンプトン准教授は、AIモデルがもたらす「幻覚」も有益な教育ツールになることを見い出した。
「完璧でないことがすばらしいのです」と、クロンプトン准教授は話す。誤情報やバイアスについて生産的な議論をするための好機となるからだ。
このような事例は、AIに対する批判的思考力を次世代に教育することがどれほど重要かということに、教育システムや政策立案者たちが気づくだろうという希望を与えてくれる。
大人向けのAIリテラシーに関する有望な取り組みとしては、「エレメンツ・オブ・AI(Elements of AI)という無料のオンラインコースがある。エレメンツ・オブ・AIはスタートアップ企業のミナ・ラーン(MinnaLearn)と、ヘルシンキ大学が開発している。2018年に公開が始まり、現在では28の言語で利用可能だ。エレメンツ・オブ・AIは、人々にAIとは何かということと、最も重要なこと、すなわちAIにできることとできないことを教えている。私も体験してみたが、素晴らしいリソースであることがわかった。
私の中でのより大きな懸念は、大人たちの理解が十分な速さで追いつくのかということだ。大人たちがAIリテラシーを持たずにネットサーフィンをすれば、非現実的な期待や大げさな宣伝に引っかかる人の数は増えていくだろう。同時に、AIチャットボットが強力なフィッシング、詐欺、誤情報のツールとして利用される可能性もある。
子どもたちは大丈夫だ。心配すべきは大人たちである。
因果関係を特定するスポティファイのAI
複雑な数学を用いた反実仮想が、スポティファイ(Spotify)があなたにおすすめの曲を選ぶうえで役に立つかもしれない。音楽配信企業スポティファイの研究チームが構築した新種の機械学習モデルは、反事実分析の裏にある複雑な数学を初めて攻略した。反事実分析は、過去の事象の原因を特定し、未来の事象の影響を予測するのに利用できる精密な手法だ。適切に調整すれば、真の因果関係を、相関関係や偶然の事象から区別することが可能となる。
このモデルは自動化された意思決定、特に金融からヘルスケアにいたるまで、さまざまなパーソナライズされたおすすめの精度を向上できる可能性がある。スポティファイの場合は、ユーザーにどの曲を表示するか、あるいはアーティストがいつ新アルバムを出すべきかということになるかもしれない。より詳しくは、ウィル・ダグラス・ヘブンの記事を読んでいただきたい。
◆
AI関連のその他のニュース
サム・アルトマンのPRキャンペーンが続いている。テック業界の伝説の誕生をリアルタイムで目の当たりにするというのは興味深い。オープンAIの創業者であるサム・アルトマンに関するニューヨーク・タイムズ紙とウォール・ストリート・ジャーナル紙による2つの紹介記事は、アルトマンをスティーブ・ジョブズやビル・ゲイツと並ぶ新たなテック業界の名士として描き出している。ニューヨーク・タイムズはアルトマンを「チャットGPTキング」と呼び、ウォール・ストリート・ジャーナルは「AIの十字軍」と表現した。これもまた、テック業界において偉人神話が今なお健在であることの証明である。
チャットGPTがセクシャル・ハラスメントスキャンダルをでっちあげ、実在の法学教授を非難した。AIモデルは作り話をする。そして時には、自らが作り出したナンセンスな話に対し、本当であるかのような引用を示してみせることさえある。セクシャル・ハラスメントで非難された無実の教授についての記事は、AIによって引き起こされうる深刻な現実的危害を示している。「幻覚」を引き起こすことにより、すでにオープンAIは法的問題に巻き込まれ始めている。オーストラリアのある市長は、贈収賄で服役したという虚偽の主張を訂正しなければオープンAIを名誉毀損で訴えると警告した。これは昨年、私が警告していたことだ。(ワシントンポスト紙)
レックス・フリードマンのポッドキャストは、いかにして「反意識高い系」テックエリートの安全な場所になったのか? 賛否両論かつ大人気のAI研究者で、ポッドキャスト配信者に転身したレックス・フリードマンの人気の高まりや、彼のAIコミュニティ、そしてイーロン・マスクとの複雑な関係についての興味深い記事だ。(ビジネス インサイダー )
世論調査会社は、人ではなくAIを調査し始めている。人々は政治的な世論調査に返答しない。新たな研究実験が、世論調査の質問に対する特定の人口層の回答を、AIチャットボットが正確に反映できるかどうかを見極めようとしている。世論調査はただでさえ疑わしい科学だが、その傾向がさらに強まる可能性が高くなりそうだ。 (アトランティック )
ファッションブランドは、多様性の名の下にAIが生み出したモデルを利用している。リーバイスやカルバン・クラインをはじめとするブランドは、さまざまな体型、肌の色、年齢といった人々の多様性を「補う」ために、AIが生み出したモデルを利用している。そうではなくて、単純に多様な人間を採用してみてはどうだろうか?「虚しい叫び」だが。(ガーディアン紙 )