2023年6月13日火曜日

AIによって制御された米国のドローンがオペレータを排除しようと決断

 

人工知能(AI)は果たしてわれわれ一般庶民の日常生活にどのような利便性をもたらしているのだろうか?

まず、何十種類もの外国語の中で読み手が指定した言語に瞬時に翻訳してくれる機械翻訳ソフトの存在がもっとも典型的な事例として私には思い浮かぶ。たとえフランスやロシアの新聞記事であったとしても、英語に機械翻訳された文章を直接読むことが可能であるからだ。

2015年のことだった。ロシア語の技術論文をまず英語に機械翻訳させ、その後、私が手作業で日本語に翻訳したことがあった(ロシア語から日本語へ直接翻訳することも可能であったが、翻訳間違いの可能性が低いのではないかと思い、英語への機械翻訳に留めた)。これは2014年にウクライナ上空でマレーシア航空のMH-17便が撃墜され、乗客・乗員合わせて298人が死亡した悲惨な出来事に関わるものであった。ブクミサイルによる撃墜が報じられた。ウクライナや西側各国は即座にロシア犯人説の大合唱を始めた。ロシア側もさまざまな情報や見解を提供して、反論した。それらの中で、ロシアの軍需産業の一翼を担う企業であるアルマズアンティ社は極めて技術的なアプローチを採用し、ミサイル発射地点の推測を試みた。彼らは模擬実験を行ったのである。撃墜された航空機と形状がほぼ似ている航空機が地上に設置され、その傍で撃墜に用いられたとされるブクM1ミサイルを爆発させて、航空機の破壊の状況を詳細に調査した。地上から発射されたミサイルはMH-17便の飛行経路と空中で出会う必要がある。この条件を満たす地上の発射地点がこの模擬試験によって逆算され、特定された。結果はインターネット上で当時喧伝されていた場所(スネジノエ。注:この地域はロシア軍が占拠していた)ではなく、ザロシェンスコエの南の地区(注:この地域はウクライナ軍が占拠していた)であると結論付けられた。(詳細については201563日に投稿した「MH17便撃墜事件を再訪 - ロシアの軍需産業技術者からの詳細報告書」を参照していただきたい。)

残念ながら、オランダの調査委員会は、彼らが負わされていた目標に鑑みて、アルマズアンティ社の技術報告書は取り挙げなかった。この技術報告書は彼らが思い描いていた筋書きにとって極めて都合の悪い情報であったに違いない。

本日の投稿で私が言いたいことは機械翻訳の質がかなり高まっているという点だ。 かっては、機械翻訳はその質が極めて悪かった。具体的に言うと、英語を日本語に機械翻訳すると、翻訳したままの和文はブログに投稿できるような代物ではなかった。今でも、機械翻訳はブログに直接掲載できるような品質は得られない(ここでは私が使うことができる無料の「グーグル翻訳」の場合であって、他の翻訳ソフトのことは分からない)。そうは言っても、過去の10年間を振り返って見ると、機械翻訳の質はかなり向上していることもまた事実であると感じる。

今は、ニューラルネットワークを用いたAI技術を駆使した機械翻訳ソフトが大きく進化し、企業レベルで使用されている。自然言語処理や学習機能を発揮して、翻訳精度は格段に高まっている。先端的な専門企業があり、彼らの製品を使用するハイテック企業も多い。省力化や作業時間の短縮に役立っている。多言語環境に対応できる機械翻訳ソフトは日常生活において言語障壁を取り払って、われわれ一般庶民にも利便性をもたらしている典型的な事例だ。

AI技術は他にもさまざまな領域で応用されている。たとえば、碁や将棋、チェスのチャンピオンがコンピュータと闘うといった話は大分以前からしばしば耳にする。AIはその学習機能を駆使して、新しい戦法さえをも編み出すそうだ。

ロシア・ウクライナ戦争でもAI技術が組み込まれたドローンや戦車ロボットが偵察や攻撃に投入されている。AI技術が戦場で用いられたのはこのロシア・ウクライナ戦争が初めてだと言われている。

本ブログで私は、510日、「人工知能の名付け親がグーグルから退社し、人工知能は人間性に対して危険だと警告」と題してブログに投稿をしたばかりである。その投稿ではさまざまな方面でもてはやされている人工知能(AI)が、実は、極めて危険な側面を持っていることを指摘する専門家の見解をご紹介した。

極めて危険な側面とは具体的にどのような状況であろうか。私としては具体的な事例が欲しいところであった。

ここに、「AIによって制御された米国のドローンがオペレータを排除しようと決断」と題された記事がある(注1)。

本日は、この記事を仮訳し、読者の皆さんと共有したいと思う。

AI研究はかって一世を風靡した宇宙計画に匹敵するかのような熱気をもたらしている折からも、人間社会にとって危険だと思われるAIの側面についてひとつの事例を考察しておこう。

***

副題:米国製ドローンのAIはシミュレーションテストでオペレーターを排除することを決断 ― ガーディアン紙

Photo-1Dasha Zaitseva/Gazeta. Ru»

人工知能(AI)によって制御された米空軍のドローンはシミュレーションテスト中にオペレーターを殺し、与えられた仕事を遂行するに当ってオペレーターが干渉しないようにすることを決定した。本件について、ガーディアンが報じている。

米空軍のAIのテストおよび運用部門の責任者であるタッカー・ハミルトン大佐によると、AIシステムは脅威を特定したが、人間のオペレーターがその脅威を破壊しないように命じることがあることについても気付き始めた。ところで、目標に命中すると、AIシステムはポイントを受け取る仕組みになっている。これとの関連から、命令された仕事を完了するのをオペレーターが妨げたので、AIシステムはオペレーターを殺すことを決定した。

また、同大佐は「倫理やAIに関して黙ったままでいると、一般的には人工知能について機械学習や自律性について議論することはできない」と付け加えている。

先に、ニューヨークタイムズは彼らが取り組んでいる人工知能技術がいつの日にか人類に対して実存的な脅威をもたらす可能性があり、感染症の大流行や核戦争と同等のリスクがあると見なすべきであるというIT業界の指導的な人たちが発した警告について報じていた。(訳注:このNYTの記事とは51日に発行された「What Exactly Are the Dangers Posed by A.I.?」と題された記事のことだと思われる。同記事によると、3月下旬、1,000人を超すハイテック業界の指導者やAIの研究者たち、批評家らはAI技術が人間社会に深刻なリスクをもたらすとの警告文に署名)

これに先立って、「ChatGPT」チャットボットの創始者である「OpenAI」の最高経営責任者であるサム・アルトマンは米上院の会議において彼の会社や他の企業によって作り出される人工知能技術がもたらすであろう潜在的な危険性について公に見解を述べている。

***

これで全文の仮訳が終了した。

非常に短い記事である。だが、それが伝える内容は潜在的には比類がないほどに深刻だ。現在のところ、AIが下す決断はオペレーターが無効にすることができるが、この引用記事が伝えているように、一部のAIはオペレーターからの介入を嫌がって、オペレーターを殺すことさえも考えるようになったという。

AIが人間を支援するという関係が逆転して、人間がAIに従うといった事態が現れる。これは、驚異的な状況である。人類に対する実存的な脅威と見なされる所以である。

より高度なAIは自分を制御しているコンピュータプログラムを自ら書き換えることさえも出来るらしい。自律的に動くAIは人間のように自ら考え、学習効果によって自分の考えを更新し、プログラムを進化させる。最終的には主人である筈の人間の介入を阻止するよう動くかも知れない。そういった敵対的な行動がさらに深化すると、その結果起こる状況は、最悪の場合、人間社会の存続を左右するものとなり得る。複数のAIネットワークを組み、指導的なAIが現れ、他のAIは自分たちのネットワークのために集団的な行動を取る。一旦暴走を始めたならば、人類はAIを制御することができないかも。人間の思考速度はAIの思考速度には太刀打ちできないからだ。

すべては悪意のある輩がAIを駆使して、全世界を相手に挑戦するかどうかで決まるが、人間社会には常に邪悪な考えを持った連中が存在する。自分の利益、あるいは、自分が所属する集団の利益を最優先し、社会全体の将来については何も考えようとはしないならば・・・ 彼らが権力を行使できる場に座ると、とんでもないことが起こる可能性がある。

今、AIを活用したビジネスモデルが急速に広まっている。1年先どころか、数か月先の現実の社会を予測することさえも決して容易くはないようだ。市場での競争に生き残るべく、最先端のAI技術があらゆる領域で試され、ビジネスの現場へと持ち込まれる。投資家たちにとっては絶好の機会である。

そこには業界としての倫理的な規範や実効性のある法的な規制があるのだろうか?人間社会全体がリスクを回避するためのコンセンサスを得る努力は成されているのだろうか?

参照:

1The artificial intelligence of the American drone decided to eliminate the operator: By Pavel Zubov, Gazeta.ru, Jun/02/2023




0 件のコメント:

コメントを投稿