このページの本文へ

前へ 1 2 3 次へ

まつもとあつしの「メディア維新を行く」 第98回

〈後編〉小林啓倫さんロングインタビュー

生成AIはいずれ創造性を獲得する。そのときクリエイターに価値はある?

2023年12月17日 15時00分更新

文● まつもとあつし 編集●村山剛史/ASCII

  • この記事をはてなブックマークに追加
  • 本文印刷

前編に続き、『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにお話をうかがいます

前編はこちら

ユーザーからの反発を企業はどう受け止めるべきか?

 AI関連サービス普及によって、マンガ・アニメの領域などさまざまな界隈で引き起こされているAIと倫理の問題について、注目の書籍『AIの倫理リスクをどうとらえるか:実装のための考え方』リード・ブラックマン(白揚社)の翻訳者・小林啓倫さんにうかがっていく。

―― では前回の終わり際の話題からいきましょう。

 倫理をストラクチャーとコンテンツに整理し、そのうえで、実効性はあっても何をしたいのか不明確になりがちなストラクチャーではなく、AIで何をしたいのかというコンテンツから定めていくことが重要だとうかがいました。

 しかしながら、たとえばCLIP STUDIO PAINTは「クリエイターの利益をもたらすこと」を目指して画像生成AIパレットの搭載を進めた結果、ユーザーから想定外の反発を受けることになりました。コンテンツをどう定めるのか、ユーザーとの共通の価値観を持つことも難易度の高い作業と言えるかもしれません。どうすれば良いのでしょうか?

小林 基本的には1つ1つブレイクダウン(細分化)していくしかありません。本書ではAIにおける倫理の中核的なものとして3つを掲げています。1つめはバイアス、2つめは説明可能性、そして最後にプライバシーです。

 説明可能性では、AIが下した(生成した)何らかの結論を、どうしてそういう結論に至ったかを人間の誰かが説明できないといけない、としています。よくわからないけれどそうなった、というブラックボックスであってはいけないというわけです。では、具体的にどういうことなのか。

 たとえば優秀な医療AIがレントゲン写真から100%に近い確率で癌を見つけられるとします。でも、その医療AIがどんな理由で判断したのかというプロセスがブラックボックスになっているとしたら、採用すべきか否かというケースが本書では紹介されています。

 もちろん患者の側からすれば癌が見つけられるのであれば、説明可能性はさておき利用したい、となるはずです。医師も人命を守るためには精度が最優先となるでしょう。

 でも、そうは言っても万が一誤診だと困ります。したがって、サービス提供側としてはやはり説明可能性を担保したい。AIにおいては多くの場合、結論に至るプロセスの説明可能性と精度はトレードオフの関係にあります。さて、どちらを採用するべきか、ということになります。

 また金融系のAIにおいてローン審査を実施するような場合、貸し倒れを高い精度で避けることができるという意味で銀行側にとってはとてもありがたい仕組みとなりますが、顧客にとっては納得できないケースも出てきます。この場合も多少AIの精度は落ちても顧客にある程度の説明、たとえば転職回数が多いからです、といった話ができたほうが良いでしょう。

 つまり、説明可能性という倫理基準1つとっても、自分たちがどんなサービスを提供しているかによって、それぞれどんな形になれば基準を満たすかは変わってきます。バイアスやプライバシーについても同様で、本書では1つ1つブレイクダウン(細分化)して検討されています。

小林啓倫さん。システムエンジニアとしてキャリアを積んだ後、米バブソン大学にてMBA取得。外資系コンサルティングファーム、国内ベンチャー企業などで活動。現在はITアナリストとして活躍の傍ら執筆活動を続けている。著書に『FinTechが変える! 金融×テクノロジーが生み出す新たな新ビジネス』(朝日新聞出版)など。訳書に『情報セキュリティの敗北史』『テトリス・エフェクト』(白揚社)ほか多数

■Amazon.co.jpで購入

―― 現在、画像や音楽系の生成AIサービスに対しても、「何を学習して、どのように結果を生成したのか明らかにせよ」と説明を迫る動きが続いています。顧客、それもどこまでを顧客とするかも含めて事業者がどのようにコミュニケーションを取り、どこまで説明をするべきなのか、模索を続けなければならない、ということになりますね。

小林 著者のブラックマンは説明についてもおもしろい表現を用いていて、「人間による説明」と「機械による説明」と言い方をしています。たとえば、画像認識AIで画像に写っているものが犬か猫かを判別する場合に、機械がやっていることは膨大なピクセル(画素)の中から「この部分が赤だと犬である可能性が高い」といったことをやっているわけです。

 これが機械による説明としてのブレイクダウンということになります。でも、我々人間が求めている説明可能性というのはそのレベルじゃないんですよね。先ほどのローン審査であれば、融資担当者がプリントアウトされた紙を持ってきて、対面でAIの判断について言葉で説明する、といった具合にもっとブレイクダウンされていなければなりません。

 そこまで具体的なプロセスに落とし込んで初めて倫理基準を満たすことになるわけです。もちろん、本書に書かれた通りにすれば良いということではなく、そのプロセスを定めるための議論ができるレベルまでクリアになるようブレイクダウンすることが重要なのです。

前へ 1 2 3 次へ

カテゴリートップへ

この連載の記事

アスキー・ビジネスセレクション

ASCII.jp ビジネスヘッドライン

ピックアップ