軍用AI契約を巡るIT企業のジレンマ

18.10.2018

Photo: ciobulletin

 

マイクロソフト社の従業員は、100億ドルのペンタゴン契約をめぐる論争のために同社の入札計画に反対を表明した。ブログサイト「ミディアム」に掲載された手紙に従業員は、マイクロソフト社に「技術を築くことで害や人の苦しみを引き起こすことはないと期待していると訴えた。

 

彼らはまた、マイクロソフトの経営幹部に、短期的な利益を追求するためには、「公正で信頼できる安全で、プライベートかつ安全で、包括的で、透明で、説明責任がある」べきであるとして、同社の人工知能の原則を裏切ったと非難した。

 

これより前、グーグルとの契約が「原則と矛盾する」として、同社は100億ドル相当の巨大なペンタゴン・クラウドコンピューティング契約のための入札を中止している。このため軍用コンピューティングシステムの近代化を目的としたペンタゴンのシステム契約先として、IT巨大企業、アマゾンやマイクロソフトの可能性があった。

 

従業員たちはマイクロソフト社のAI原則、特に強力なAIの暴力的適用に関する原則にプロファイリング、サーベイランス、または殺しを助けるために使われることが反するとしている。ちなみにグーグルの7つのAIのルールとは、そのAIを使用するためには、以下の項目を満たす必要がある。

 

1.社会的に有益であること。

2.不公正なバイアスを作成したり強化しない。

3.安全に建設され、試験される。

4.人々に責任を持つ。

5.プライバシーの設計原則を組み込む。

6.科学的卓越性の高い基準。

7.これらの原則に合致する用途に利用できるようにする。

 

この原則は、兵器に関するGoogleの人工知能(AI)ソフトウェアの使用と、サーベイランスと人権に関する国際的規範に違反するサービスの使用を禁止している。

 

グーグルは、同社が軍用無人機プロジェクトに参加していることが明らかにされて以来、強い批判を受けている。何千人もの従業員が幹部に手紙を送って、同社に契約を解除するよう促した。グーグルは批判の対象となったプロジェクト(Maven)へ関与しないことに決めると同時に、クラウドコンピューティング入札を断念した。この一連の動きはグーグルの独占に対する賠償問題や政治・社会への影響を懸念する動きに敏感に対応しているともとれる。

 

AIが核戦争を引き起こす恐怖はSF映画「ターミネーター」で描かれている。国防総省の契約がAI導入につながることは明白であり、今回のマイクロソフト社員の訴えを、きっかけに軍用AIとAI原則との整合性に関する議論が再燃することは避けられない。軍用AIは現実化しており遠い将来のことではない。戦争抑止力は大量殺戮の恐怖心に他ならない。AIが原則を守り通せばもちろん戦争は防止できるのだが、全面戦争の最終決定を与えないとしても、局所的な戦闘開始の判断が委ねられるとしたら、戦争拡大につながることを認識しなければならないが、いまのところその危うさを認識しているのはプログラマーだけなのである。社員はそのことを恐れたということなのだろう。