「生成AI」は国際政治におけるパワーとなるのか(塩野誠・地経学ブリーフィング)


「地経学ブリーフィング」とは、コロナウイルス後の国際政治と世界経済の新たな潮流の兆しをいち早く見つけ、その地政学的かつ地経学的重要性を考察し、日本の国益と戦略にとっての意味合いを精査することを目指し、アジア・パシフィック・イニシアティブ(API)のシニアフェロー・研究員を中心とする執筆陣が、週次で発信するブリーフィング・ノートです(編集長:鈴木一人 地経学研究所長、東京大学公共政策大学院教授)。

本稿は、東洋経済オンラインにも掲載されています。

https://toyokeizai.net/articles/-/696896

「地経学ブリーフィング」No.170

(出典:AFP/Aflo)

2023年8月28日

「生成AI」は国際政治におけるパワーとなるのか - 偽情報による情報戦にとどまらない応用可能性

地経学研究所経営主幹 兼 新興技術グループ・グループ長 塩野誠

 
 
 
 
 

【連載第1回:技術と国際政治】

1. 国際政治のパワーとしての科学技術

科学技術は伝統的に「パワー」を構成する1要素としてみなされており、国家が科学技術への注力を内外に表明することは珍しいことではない。中国の習近平国家主席は2025年までに製造強国となるという「中国製造2025」を掲げて、次世代情報技術、先端的デジタル制御工作機械・ロボット、航空・宇宙設備、新材料等に注力し、軍事と民生の融合を進め、製造業全体の向上を推進するとした。

一方、2018年、アメリカでは当時の副大統領マイク・ペンスが、中国が世界の先端技術の支配と知的財産の奪取を企図していると明示的に中国を非難した。その後2023年現在に至るまで、大国たる米中の半導体やAIといった技術を巡る競争と摩擦は続いている。
 

生成AIはいかに国際政治上のパワーに変換されるか

国際政治領域でのパワーと科学技術が同義かは自明ではないが、国家は科学技術をパワーに変換することを企図して競争していると見るのは自然だろう。

本稿では科学技術の中で近年、注目を集める例として、生成AI(Generative Artificial Intelligence)が、どのように国際政治上のパワーに変換されるかを考察してみたい。
 

2. ChatGPTの登場

2022年11月にアメリカのOpenAIが発表した「ChatGPT」は2カ月間で1億人の利用者を獲得した生成AIによる対話型サービスである。ChatGPTは文章生成を行い、他にも文章を入力することで画像を生成する「DALL・E2」「Midjourney」「Stable Diffusion」といった生成AIも現れた。

ChatGPTではユーザがプロンプトと呼ばれる文章による指示を出すことで、文章の創作、要約、翻訳、プログラム生成等を行うことができる。生成AIの特徴は自然言語からプログラムを生成する等、その高度な変換能力にある。

ChatGPTは技術的には大規模言語モデル(Large Language Model, 以下LLM)と人間によって行われる強化学習フィードバック(Reinforcement Learning from Human Feedback)を組み合わせて構築される。人間による強化学習フィードバックは非倫理的な内容の生成の排除を可能にする。
 

次の単語、次の単語と予測を繰り返し文章を生成

ChatGPTの高度な文章生成を可能にしたのが「Transformer」という技術である。Transformerは2017年にGoogleのアシシュ・ヴァスワニらが「Attention is All You Need」によって提唱した注意機構(Attention Mechanism)と多層パーセプトロン(MLP: Multi-Layer Perceptron)によって構成される。

注意機構は既に並んだ単語から必要な部分に「注意」して取り出し、多層パーセプトロンは大規模データで学習した内容(人間でいえば長期記憶)から実行中の処理に関係する内容を取り出す。注意機構と多層パーセプトロンは、単語から次の単語、そのまた次の単語という形で予測を繰り返し、文章を生成している。
 

3. 認知領域を含む情報戦と生成AI

ChatGPTはその構築過程で入力データの選別と人間による強化学習フィードバックにより、モデルに何らかの思想的な偏りをつくることが可能である。つまり現状の非倫理的な内容を排除するための過程を、意図した思想的な偏りを内在させることに利用するのである。

例えば権威主義国家のLLMであれば、思想的にその体制に従ったモデルになるだろう。また、人間に近しい対話ができるが故に、対話の中で人間に偽情報を信じさせることに利用できよう。
 

すでに偽情報による情報戦が起きている

この特性は国家が自国に有利な情報を浸透させる認知戦への応用が想定される。2023年4月、中国人民解放軍は機関紙にChatGPTについてAIの軍事利用を考察する論考を掲載した。その中でChatGPTは世論の分析、偽情報による世論の混乱、対象国の人々の操作ができるとしている。

ChatGPTのような生成AIは、認知領域を含む情報戦における偽情報(Disinformation)の生成に利用されることが想定され、今後の国家間の情報戦に影響を与える可能性がある。

過去に組織的に偽情報が流布された例としてロシアのIRA(Internet Research Agency)が挙げられる。IRAはロシアの民間軍事会社ワグネルを率いるエフゲニー・プリゴジンが所有していた企業である。

IRAは2016年のアメリカ大統領選にソーシャルメディアを通じて組織的に干渉を行った。IRAはフェイスブックにおいて1億2600万人にアクセスし、大統領選挙候補者だったヒラリー・クリントンの偽発言等、多岐にわたる偽情報を流布した。

今後は偽情報の作成者が人間から生成AIに代わることが想定され、AIは24時間休むことなく、偽情報を生成し続ける。生成AIを利用すれば偽アカウントが実在の人間のように日々の生活の画像、日常的なコメントを投稿することも可能となる。このようなアカウントは実在か非実在の判別が難しくなるだろう。

また、以前から本物と見分けがつかない画像や動画を生成するディープフェイクによる偽情報の拡散が懸念されていた。2023年5月にアメリカ国防総省付近で爆発が起きたという偽画像がSNSを中心に拡散し、株式市場が一時下落した。

国家や非国家アクターが生成する偽情報が選挙や株式市場に干渉できるのであれば、そのツールとなる生成AIはパワーといえるだろうか。技術そのものは中立であっても、国家が生成AIを使って他国の世論を操作し、自国に有利な環境をつくり出すのであればシャープパワーに包含されるかもしれない。

民主主義国家の選挙制度には脅威となろう。ロシアとウクライナの戦争では両者から様々な情報が発信されたが、その真偽を判別することは困難である。インターネット空間では、検索の上位表示や、SNSでの表示頻度という物量が影響力となる。この物量を生成AIであれば容易につくり出して流布することが可能である。
 

4. 生成AI技術のロボット工学や意思決定支援への応用可能性

生成AIは情報戦だけでなく、ロボット工学、意思決定支援、教育訓練への応用が想定される。動画生成技術はロボットの行動計画に応用可能であり、文章入力によって動画生成ができるのであれば、その動画をロボットの動作、すなわち行動計画に利用することができる。
 

軍事領域での生成AIの利用例

例えばGoogleはPaLM-SayCanという技術を開発し、人間が曖昧な自然言語で指示を出すことでロボットを動作させることができる。またGoogleはUniPiという技術でPaLM-SayCanで使用した大規模言語モデルの代わりに大規模な動画データを学習した動画生成モデルを使ってロボットの行動計画を構築している。またLLMは膨大なデータを構造化できるため、人間の意思決定支援に利用することが可能であり、その対話能力は人間の教育訓練に適している。

国家のパワーに直結する軍事領域では、生成AIがドローン等の制御、作戦立案支援、教育訓練などに利用できることだろう。作戦立案においてはデータの網羅性によって人間には発想できなかった質的な変化が起こるかもしれない。このように生成AIは偽情報の生成のような認知領域のみならず、広くその実装が可能である。これは科学技術のパワーへの変換の例といえよう。

2023年8月、アメリカ国防総省は、インテリジェンス、作戦計画、管理・業務プロセスを大幅に改善する生成AIの可能性を検討するため生成AIタスクフォースの設立を発表した。
 

5. 日本が取るべき戦略

生成AIによる情報戦と各領域への応用について概観した。生成AIから倫理的な歯止めをなくせば、偽情報やコンピュータウイルスが無限に生成可能であり、インターネット空間が大量の偽情報とウイルスで汚染される可能性がある。

生成AIが人間の思考の一部を代替する汎用的な技術であるが故にその応用範囲は広い。各国は生成AIを利用して競争優位をつくり、他国には利用させないという環境を望むだろう。政治的安定性を鑑み、国家は他国によって文化・思想的に干渉されない国産LLMの開発や規制の整備を検討するだろう。

2023年6月、EUではAI規則案(EU AI Act)がAIのリスクに対処することを目的として可決された。同年7月、アメリカ連邦取引委員会(FTC)がChatGPTを開発したOpenAIにAIモデルのリスクへの対処法に関する記録提出を要請したと報じられた。

アメリカ政府はAmazon、Anthropic、Google、Inflection AI、Meta、Microsoft、OpenAIら7社とAIが生成した動画を判別できるような対策を進めることで合意したと発表した。中国では生成AIサービス管理暫定弁法が同年8月に施行されており、生成系AIについて政府による安全評価の実施、アルゴリズムの事前届出等を義務付ける予定である。

一方で、同年5月、日本政府のAI戦略会議は、「AI に関する暫定的な論点整理」として「安全保障に関わる論点については、情報管理上の必要性に応じて、専門部署による議論に委ねる」とした。
 

生成AI開発を行える環境整備を

生成AI技術を利用した世論形成やロボット工学への影響を鑑み、生成AI技術をパワーとみなした時に、日本が取り得る戦略は生成AI開発を行うことである。LLMの開発にはエンジニアの養成、大規模な計算資源とデータの整備が必要である。

計算資源とは一義的には高性能のGPUであり、政府が計算資源の確保を支援することは可能だろう。一方で生成AIのモデルそのものは国内企業や大学の研究者が競争することが望ましい。生成AI開発は各国が緒に就いたところであり、開発と規制を自国で主導することこそが、将来のパワーの源泉となる。

第2回AI戦略会議において高市早苗科学技術政策担当大臣は「一度世の中に出た技術は使い続けられるものだという前提に立って議論を進めていかなければならない」と述べた。生成AI技術は未だその可能性の全貌が見えないからこそ、各国はパワーへの変換可能性を探る。我が国は今この競争から降りるべきではない。
 

(おことわり)地経学ブリーフィングに記された内容や意見は、著者の個人的見解であり、公益財団法人国際文化会館及び地経学研究所(IOG)等、著者の所属する組織の公式見解を必ずしも示すものではないことをご留意ください。
 

最新の論考や研究活動について配信しています