“攻め”の生成AI活用をする企業ほど“守り”のAIガバナンスに注目
PwC、AIガバナンスの道筋を示す政府「AI事業者ガイドライン案」を解説
2024年02月05日 10時00分更新
海外のAI 規制に対して日本企業に求められる対応 ― AIとデータのサプライチェーンリスクの把握を
最後に、PwC Japan有限責任監査法人の執行役 パートナー 業務DX/TI担当である宮村和谷氏が登壇。海外で進むAI規制に対して、日本企業に求められる対応について解説した。
ChatGPT3.5のリリースを皮切りに、生成AIの利活用が進み、それに応じて各国から生成AIに関する声明や方針、規制案などが出されてきた。2023年の5月のG7サミットでは「広島AIプロセス」が発足。AIの利点やリスクを洗い出し、G7としての共同見解を示していくことに合意がなされた。同年の10月には、広島AIプロセスに関するG7首脳宣言がなされ、11月には、AIの安全性に関する初めてのグローバルサミットが英国にて開催されている。
このような状況化で、各国のAI規制に関しては、それぞれ異なるデジタルテクノロジー政策の戦略に応じた方向性が指向されている。
ソフトロー型での対応をとる米国では、AI権利の検証や大統領令を通じて、AIの悪用を防ぐための“ガードレール”を定める方向性だ。この大統領令では、各関連省庁に、ガイドラインやベストプラクティスという形で、ガードレールを明確化するよう求めており、官民双方に適用されるAIシステムを開発する企業に対する動きも含まれる。主に社会インフラに関わる企業が対象となるが、ひいては幅広い業界に影響を与えるものになり得ると、宮本氏。
一方で、EUと中国は、ハードロー型で対応しており、EUは、人権を重要視しながら各EU地域のマーケットを守る方向性で、中国は国としての体を守るという方向性でAIガバナンスが進む。
海外のこのような規制状況に対して、日本企業に求められる対応策は、「AIとデータのサプライチェーンにわたるリスクをどうガバナンスしていくかという観点が重要になる」と宮本氏。
このサプライチェーンの構成要素や関係者は、国を跨いで広範囲にわたる。安心して使ってもらえるAIサービス、あるいはAIを組み込んだ製品を展開するためには、サプライチェーン上のリスクを捉えて、ガバナンスを効かせる体制を整備、運用する必要があり、特にハードロー化が見込まれる国の領域において注意が必要だ。
では、日本の事業者は、どのようなステップでガバナンスに取り組むべきか。
AI事業者ガイドライン案など参考に、ガバナンスの基本的な組織機能の設計や整備を進めていくのが最初のステップとなる。「整備に着手できていない企業は、設計や整備のフレームワークとして利用でき、既に着手している企業は、ガイドラインでアセスメントを行い、次に取り組むべき課題を明らかにして改善につなげられる」と宮本氏。
次のステップは、海外規制動向を把握することだ。そして、自社の関連するAIサプライチェーンを明らかにし、どのような国の規制が関連しうるのかを把握する。例えば、AIサービスの開発委託先が海外にある場合、委託先も含めたAIリスクへの対応状況やAIで利用しているデータなどを確認する。
3つ目のステップでは、注力しているAIサービスの戦略領域、ユースケースを選択して、ハードロー化が見込まれている部分の説明可能性を強化する。
「このような3段階のステップで、スモールスタートからアジャイルガバナンスにステップアップしていくというアプローチが、有用な、実現可能性のあるやり方ではないか」と宮本氏は述べた。