お問い合わせはこちら

生成AIに関するG7包括的政策枠組みのポイント/総務省 飯田陽一氏

◆「広島AIプロセス」国際指針と行動規範

いいだ よういち/ 昭和63年郵政省入省。総務省情報通信国際戦略局情報通信政策総合研究官等を経て、令和5年4月より現職。
いいだ よういち/ 昭和63年郵政省入省。総務省情報通信国際戦略局情報通信政策総合研究官等を経て、令和5年4月より現職。

 昨年5月のG7広島サミットでの合意に基づき、広島AI プロセスが立ち上がり、年末には「広島AIプロセス包括的政策枠組」が取りまとめられた。これは、生成AI等の高度なAIシステムへの対処を目的とした初の国際的枠組みとなる。日本として2016年から主導してきたAIのルール作りに関する国際議論が一つの成果に到達した形だ。日進月歩で進展するAIのリスクを低減させ、人類全体の共益に資するための働きかけに終わりは無いものの、まずはここまでの道程について飯田氏に検証してもらうことには大きな意義があると言えよう。

情報通信国際戦略特別交渉官 飯田 陽一氏

「相互運用性」の概念で合意

 2023年5月19~21日、日本が議長国となってG7広島サミットが開催されましたが、これに先立つ4月29、30日に群馬県高崎市にてG7デジタル・技術大臣会合が開かれ、そこで「G7デジタル・技術閣僚宣言」が合意されました。主要議題の一つに「AIのグローバルなガバナンス」があり、G7として国・地域ごとの規制やガバナンスの枠組みには違いがあることを認識しつつ、それらの「相互運用性」を重視するという考え方が合意されたことは重要な成果でした。EUがAI法制定に動く一方、日米はソフトロー(法規制を中心としないガバナンス枠組み)を指向する中で、G7が共通の考え方を世界に示すことが期待されていましたので、日本は議長国として責任を果たす必要がありました。経済成長に貢献するようなAIの発展を政策的に促進するためにも、規制が過剰にならないようにするとともに、お互いの制度的枠組みが透明で理解可能、適応可能であるよう整合性を取っていく、というのが大臣宣言における合意の要諦となります。

 AIに限らずデジタル全般に言えることですが、技術やサービスは簡単に国境を越えてしまいますので、各国・地域がAIなどの技術・サービスに対する文化的・社会的・経済的背景から異なる制度を作る必要は認めざるを得ない一方で、その違いをお互い理解でき、できる限り調整が可能なベースを提供する汎用性のあるルールを目指していこう、という方針を共有することが重要なのです。

 振り返ると2010年代半ばより第3次AIブームというものが起こり、シンギュラリティに代表されるようなAI脅威論がしきりに議論されました。こうした中で日本では、国内でAIを懸念なく開発し利用していくためにはガードレールとなるルールが必要だと考え、ソフトローによるルール作りを目指し、これを国際的にも広めていこうと考えました。2016年に日本はG7議長国として、情報通信大臣会合を開催し、その中でAIの国際的議論をG7で進めるよう提案しました。合わせて国際的な議論を継続するために世界最高のシンクタンクと言われるOECDにこの議論を提案しました。この議論がそれぞれの場で進んだ結果、19年5月、OECD加盟国を中心に42カ国が、「OECD AI原則」を採択、翌20年6月にはG7を中心にして、人間中心の考え方に立ち、「責任あるAI」の開発・利用を実現するため設立された国際的な官民連携組織、GPAI(Global Partnership onArtificial Intelligence)が結成されるなど、AIに対する国際的な議論と取り組みが大きな進展を見せました。この間、日本は一貫して国際的な議論の主導役を務めており、19年のG20大阪サミットでもG20AI原則を合意に導くなど、大きな貢献をしました。

 しかし、こうしたOECDのAI原則やGPAIといった国際的な取り組みが進む一方で、21年以降、EUがAI法案の議論を始めるなど、AIのガバナンスに関する各国・地域の取り組みは、それぞれの社会・文化的背景も反映して、異なったアプローチを取り始めていました。そこで日本としては23年のG7議長国を迎えるに当たり、まず、G7の中での共通認識を確認し、分断のないAIエコシステムの基礎を築くことを目指すことにしました。この議論は23年4月のG7群馬高崎デジタル・技術大臣会合でAIガバナンスの枠組み間の「相互運用性の促進」という合意になって結実しました。G7として、民主主義の共通価値の上に透明で相互理解可能なガバナンスの枠組みを構築することに合意したことは、今後のグローバルなAIエコシステムの発展の重要な基盤となると考えています。

 こうした議論を進めている最中に登場したのがChatGPT です。ChatGPT は22年末に3・5プロトタイプが、そして23年に入って4・0がリリースされると、瞬く間に世界を席巻しました。AIとしての優れた機能もさることながら、もたらす影響の大きさ等への懸念も同時に示されるようになり、当然、高崎でのデジタル・技術大臣会合でもこの問題を議論しようという流れになったのですが、いかんせん会議までに深堀りして準備する時間が無かったため、5月の広島サミット後に改めて腰を据えて議論しようということになりました。これが広島AIプロセス創設の経緯です。

初の国際的枠組みとして

 4月末の「G7デジタル・技術閣僚宣言」では、AI全般について、「相互運用性」をより高め、各国が制度的な違いを残しつつも、グローバルにオープンでイノベーション促進的な環境を作っていくための協力を進めることが合意されました。一方、生成AIについては他のAI全般と一線を画し、知財の保護、透明性確保、偽情報など、従来のAIにはなかったようなレベルのリスクが想定されました。そこでこうしたリスクへの対策をいかに取り、責任ある形で生成AIを活用するかについて、引き続きG7において議論する必要があると考えられました。またG7で議論するだけではなく、新興国等より多くの国と協働し、グローバルなAIガバナンスの枠組みを構築するための努力が必要と考えられました。

 広島サミット首脳コミュニケにおいては、首脳から関係閣僚に対し、広島AIプロセスを創設しG7作業部会を通じて年内に成果を得るように指示がなされました。

 この結果、5月末には同プロセスの立ち上げとして、第1回広島プロセス作業部会が開催されました。その後数十回のオンライン会議を経て、10月30日に「広島AIプロセスに関するG7首脳声明」を発出し、「AI開発者向け国際指針及び国際行動規範」が公表されました。この時点ではまずAI開発者に対するガイダンスとしての「国際指針」(Guiding Principles)と、より具体的な行動事例を示した「行動規範」(Code of Conduct)が策定されました。その後、さらに作業部会は議論を続け12月1日に「G7デジタル・技術閣僚会合」を開催し、広島AIプロセスの成果として、「広島AIプロセス包括的政策枠組」および「広島AIプロセスを前進させるための作業計画」を取りまとめ、同6日にはこれらの成果をG7首脳が承認するに至りました。「広島AIプロセス包括的政策枠組」は、生成AI等の高度なAIシステムへの対処を目的とした初の国際的枠組みとして、非常に大きな意義を有するものです。

日本が主張した12番目の項目

 この「広島AIプロセス包括的政策枠組」は、主に四つの構成要素を内包しています。

 一つ目、「生成AIに関するG7の共通理解に向けたOECDレポート」。

 二つ目、「全てのAI関係者向けの広島プロセス国際指針」。これは10月30日に合意された「AI開発者向けの国際指針」をすべてのAI関係者に拡張したものです。この議論については後ほど詳しく紹介します。

 三つ目、「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」。これは10月30日に合意されたもので、まさしくAIを開発する企業を対象にした行動ベースのルールであり、企業に自発的な行動を促す広島プロセスの核心的な要素です。24年現在、G7はどの企業がこの行動規範を守っているか、どのように守っているか等、モニターするための仕組みについて具体的な議論を深めているところです。

 四つ目、「偽情報対策に資する研究の促進等のプロジェクトベースの協力」。特に生成AIに伴ってより大きなリスクが懸念される偽情報や透明性の確保などの問題についてはルールによる規制に限らず、技術による解決を図れる部分もあるのではないかという観点に立ち、さまざまな技術的ソリューションの開発を政府が支援をしていこうという合意です。これに連動してわが国は5月末現在、先述したGPAIの専門家支援センターというものを、モントリオール、パリに次いで東京にも設立するべく準備を進めているところです。同センターは専門家がプロジェクトを行うときの資金面を含めて各種支援するための事務局機能を持ち、拠点をNICT(国立研究開発法人情報通信研究機構)において運営していくべく日本政府からも予算を拠出することとしています。

 では、先ほどの「すべての関係者向けの国際指針」について説明します。G7での議論では、多くの国は生成AIなどの高度なAIシステムを安全に開発・利用するためには「AI開発者向けの国際指針」が重要であり、開発者以外の関係者は、この開発者向けの指針を見て、それぞれの「立場に合わせて読み替え、解釈する」ことで十分だと考えていました。これに対して、日本は国内での議論から、すべての関係者がそれぞれの立場で責任を果たすことが重要であると考えていました。AIのサプライチェーンを考えても、基盤モデルのようなAIを使ったファインチューニングによってAIを提供するAI利用者は、自分たちの提供するAIのリスクを理解し、責任を持つ必要がありますし、最終的なユーザーもAIの正しい使い方を理解して、その能力の限界や誤用、誤答の可能性も踏まえて使うなど、正しい知識や理解力が必要と考えられます。そうした観点から日本としては、すべての関係者を対象にした指針を策定し、AIを利用するエンドユーザーもリテラシーの向上に自ら取り組み、また脆弱性やインシデントの情報共有に努めるべきだということを、発信していく必要があると主張しました。こうした議論の結果、国際指針の項目の最後に最終利用者を念頭においた項目を一つ追加して12項目から成る「すべてのAI関係者向けの国際指針」を合意することができました。

 また、これはG7の特徴ですが、毎年、議長国が持ち回りで替わるため、その年にふさわしい新たな議題が設定される一方で、前年の重要な議論が引き継がれないことがあります。こうした事態を避け、次年度以降も広島AIプロセスが進んでいくよう、「広島AIプロセスを前進させるための作業計画」として、アクションプランを取りまとめました。これにより、本年に入り議長国イタリアの下、引き続き「広島AIプロセス」としての作業を続けることができています。

 昨年は年末の包括的枠組みの取りまとめに向けて、秋の段階からG7各国の関係者がオンラインで連日5~6時間、最大で9時間という会議も何度もあったほど長時間にわたって議論を交わしてきました。それほどG7各国とも大変な熱意をもって、議論に臨み、年末までの取りまとめに関わって交渉を諦めなかった故の成果と言えるでしょう。時に意見が対立しがちな欧米が合意できたのも、中間に位置する日本が議長としてリードしたからこそまとまった、とも言えるかもしれません。