2024/08/14
それでは前章でご紹介しました「全てのAI関係者向けの広島プロセス国際指針」について内容をご紹介します。前述しましたように、1~11番目までが開発者を念頭に策定された指針、そして最後の12番目がエンドユーザー向けに最後に付加された項目です。個々の指針をどのように実践していくかについては、「高度なAIシステムを開発する組織向けの広島プロセス国際行動規範」において具体例が示されています。
1「高度なAIシステムの開発・市場投入前及び、高度なAIシステムの開発を通じて、AIライフサイクルにわたるリスクを特定、評価し、提言
するための適切な対策を実施する」
2「開発・市場投入後に脆弱性、インシデント、悪用パターンを特定し、提言する」
これはどちらもリスクアセスメントについて述べたものです。AIを開発する企業や組織、あるいは基盤モデルを利用して自分たちのAIをチューニングするような企業・組織は、自らの開発するAIのリリースの前にリスクアセスメントを行いリスクの程度に応じて適切な措置を講じるよう要請しています。例えば画像系の生成AIであればフェイク動画のリスクがありますので、首脳など有名人のフェイク動画が悪用されるのを事前に防ぐような対策を取ってもらいたい、ということが挙げられます。最近では、主要なモデルではこうした著名人のフェイク動画はインプットしようとするとデータが読み込めなくなる、といった対策が取られています。もちろんリリースした後も、悪用が発覚した後はそれに対応し、抑制する努力を求めています。
3「十分な透明性の確保や説明責任の向上のため、高度なAIシステムの能力、限界、適切・不適切な利用領域を公表する」
4「産業界、政府、市民社会、学術界を含む関係組織間で、責任ある情報共有とインシデント報告に努める」
5「リスクベースのアプローチに基づいたAIのガバナンスとリスク管理ポリシーを開発、実践、開示する。特に高度AIシステムの開発者向け
の、プライバシーポリシーやリスクの低減手法を含む」。
これらはいずれも情報開示・情報共有に関連する項目です。例えば、自分たちが開発したAIの開発目的、能力、限界、利用内容の適・不適などを事前にできるだけ明らかにすることを求めています。必要に応じて透明性報告書の提出が期待される場合もあります。インシデント、事故が起きた場合には、情報を秘匿することなく広く共有し、対策に努めてもらうことは言うまでもありません。また、ITサービスを提供する企業などでは、従来から個人情報の取り扱いについて、どのようなプライバシー保護原則に基づき実施しているのか、をプライバシーポリシーとして公表していますが、AI企業ではプライバシーだけでなくAIのリスクガバナンスについて管理ポリシーを作成し事前開示するよう求めています。
6「AIのライフサイクル全体にわたり、物理的セキュリティ、サイバーセキュリティ及び内部育成対策を含む強固なセキュリティ管理措置に投資し、
実施する」
7「AIが生成したコンテンツを利用者が識別できるように、電子透かしやその他の技術等、信頼性の高いコンテンツ認証および証明メカニズムを
開発する。またその導入が奨励される」
8「社会、安全、セキュリティ上のリスクの低減のための研究を優先し、効果的な低減手法に優先的に投資する」。
これらは主に技術的な対策についての規定になります。物理、サイバーを問わず、セキュリティ対策を取り、組織内部の人間が情報漏洩するような内部脅威への対策もとるなど、強固なセキュリティ管理措置に投資することを要請しています。また生成AI特有とも言うべき透明性に関わる新たな脅威に対し、電子透かしのようにAIと接していることを利用者が認知できるような技術的なソリューションを開発、実装して広く使われるようにすることを求めています。そのほか、民主的価値の確保や人権の尊重等に関する研究の実施、協力や投資の必要性も明記されています。
9「気候危機、健康・教育などの、世界最大の課題に対処するため、高度なAIシステムの開発を優先する」
10「国際的な技術標準の開発と採用を推進する」
11「適切なデータ入力措置と個人情報及び知的財産の保護を優先する」。
9は気候変動など世界共通の課題解決に役立つようなAIを優先的に作るべきだ、ということです。また10は項目7に記載している電子透かし等の新技術について国際的な標準作りと採用の促進が必要と言っています。そして最後は学習データについてプライバシーや知的財産を尊重するための安全措置の実施が不可欠、と述べています。
G7から、より広く世界に
他方、これらの国際指針および行動規範は、あくまで強制力のないボランタリーなガイダンスですので、どの項目をどれだけ取り組むかは企業や各組織に任されています。
とはいえ、努力の結果があまり具体的効果に結び付かなくても、それが許容されるようではルールとしての実効性が乏しくなり困ったことになります。そのため確かにボランタリーではありつつも、基本的にはできるだけ全項目を順守するよう求めるというのが、現在のG7における共通理解となっています。11項目が順守されて初めて、広島AIプロセスの生成AIに関するガバナンスが効果を発揮すると言えるでしょう。従って、現在はどうすれば皆がこのルールを実行に移していくためのインセンティブを生み出せるか、について議論を深めています。
この目的で現在、議論されているのが行動規範のモニタリングメカニズムです。本年議長国のイタリアは3月14、15日にイタリアで開催された「G7産業・技術・デジタル大臣会合」において、「G7産業・技術・デジタル閣僚宣言」を採択し、その中で「国際行動規範に自主的にコミットする組織による当該規範の履行状況をモニタリングするための適切なツール及びメカニズムを特定・開発・導入」することを宣言しています。具体的に強制力のない形でモニタリングを機能させるには、企業の自発的な「報告」による履行確認がうまく機能する必要があるため、現在、そのメカニズムの構築に向けてOECDが日本企業も含めたAI開発企業関係者と議論を進めています。過去にインターネットのテロ暴力コンテンツ対策などでも「透明性レポート」の作成で多くの知見を有するOECDの役割が期待されています。6月13~15日にかけて開催されるG7イタリアサミットでは、このメカニズム構築に向けて、パイロット(試行)の実施が決定されることが期待されています。
「フレンズグループ」を設立
他方、モニタリングメカニズムの構築を垂直方向の深掘りとすると、それに対して水平方向の取り組みに当たるのが〝仲間づくり〟です。本年5月、広島AIプロセスの成果を踏まえOECD加盟国を中心に49カ国・地域から成る「フレンズグループ」を立ち上げました。国際指針等の実践に取り組み、世界中の人々が安全・安心で信頼できるAIを利用できるよう、広島AIプロセスの精神に賛同する国々の自発的集まりとして活動を開始することとなっています。こうしたグループの活動を通して今後、生成AIに関するグローバルなガバナンスができていくことを期待しています。
そのOECDは先述の通り2019年にAIに関する世界で初めての多国間の原則である「OECD AI原則」を策定しました。「広島AIプロセス」が生成AIを対象としているのに対し、同原則はAI全体を対象としています。構図としては「OECD AI原則」の上に「広島AIプロセス」が乗っている、と私たちは捉えており、同原則と同プロセスは今後もセットとなって運用されていくものと考えています。今年24年は「OECD AI原則」策定5年後の見直しの年にあたり、まさに5月のOECD閣僚理事会において採択・公表された「OECD AI原則改定版」では、「広島AIプロセス」における偽情報対策や透明性確保、相互運用の概念等の議論を踏まえた改定がされています。
ここまででAIに関するわが国の国際的な取り組みは、16年の問題提起に始まり、「広島AIプロセス」において一つの結実を見たと捉えています。が、生成AIなどが急激に発展していく状況において、安全性を担保しながらAIを正しく有効活用していくためにも国際的な議論の継続は不可欠であり、日本としては引き続き、「フレンズグループ」やOECDと協力しながらAIが世界的に恩恵をもたらすよう、議論をリードしていきたいと考えています。
(月刊『時評』2024年7月号掲載)