本サイトはアフィリエイト広告を利用しています
韓国人「ターミネーターが現実になった」AIが戦争の設計者となり、核使用まで判断する危険な進化に衝撃
【キム・ヒョンジャ科学コラムニスト sisa@sisajournal.com】米イラン戦争で確認されたAIの役割は、戦術補助を超えた「戦争の設計者」へと進化している。不利な戦況では核まで考慮するという、アルゴリズムが押し進める極端な判断。米国・イスラエルとイランが衝突する中東戦争が世界を緊張させている中、人工知能(AI)が現代戦の「戦争設計者」として台頭した。過去の戦争が兵力数と火力規模で決まっていたとすれば、今日の戦場は精密な「データ」と高度な「アルゴリズム」によって作戦が設計され、実行される。現在の中東戦争は、このような「AI戦争」の実態を如実に示す象徴的な事件となっている。特に、イランの最高指導者アヤトラ・アリ・ハメネイを標的とした作戦では、AIが情報分析の第一功労者として活躍した。しかし、AIが戦争の主導権を握るその効率性の裏には、制御不能な殺傷と倫理的破滅という巨大な影が色濃く差している。
AI、道徳的苦悩なく目標達成にのみ集中
米国のイラン空爆作戦の過程で、米中央軍はAIスタートアップのアントロピックのAIモデル「クロード(Claude)」を活用し、情報分析と目標物識別、具体的な作戦シナリオを策定したとされている。AIが膨大なデータをリアルタイムで分析し、「どこを、どのように、どの順序で攻撃すれば戦術的効果が最大化されるか」を提案する方式だ。例えば、「特定の建物がハメネイの指揮所である確率95%、近隣の民間人施設との距離を考慮すると、現在の攻撃で成功確率最大」というように、高度な分析官の役割を果たす。人間が数日かけて行う分析業務をAIはわずか数秒で完了させるのだ。もちろん最終的な攻撃ボタンは人間の指揮官が押すが、AIが導き出したデータの精密さを全面的に信頼してしまう「自動化バイアス」が発生しやすい。
以前のロシア・ウクライナ戦争やイスラエル・ハマス戦争でもAIドローンや通信システムが使用された。しかし、今回の作戦は次元が違うと評価されている。以前のAIがドローンの操縦や通信傍受など局地的な補助手段だったのに対し、今回は戦争の計画から実行まで全過程に主導的に介入しているからだ。軍事専門家は、AIが映画の中の仮想シナリオを超え、実際の戦場で攻撃地点と時期を決定する指揮部の主要な「頭脳」の役割を果たしていると分析している。
しかし、技術的完璧さに対する幻想は、すぐに悲惨な現実にもつながった。精密攻撃を確信していたAIの分析とは異なり、実際の空爆過程でミサイルが目標を外れ、100人以上のイランの子供たちが命を落とす悲劇も発生した。これはAIが持つ根本的な限界、すなわちデータに依存した確率的判断が、決して人間の生命を完全に保障するほど完璧ではないという事実を証明している。
このようにAIの誤りによって罪のない民間人が犠牲になる可能性があることを懸念したアントロピック側は、クロードを殺傷や監視目的で使用することに難色を示した。米国防総省は軍事的な活用範囲を全面的に開放するよう要求したが、アントロピックは技術の不完全性が人類を危険に陥れる可能性があるという倫理的な理由でこれを拒否した。すると米国防総省は、比較的規制が柔軟なオープンAIと新たな契約を締結し、安全保障という名目の下でAIの制動装置を解除しようとする試みを止めようとしない。倫理が欠如した殺傷権の委任は、いつかブーメランとなって人類全体の生存を脅かすことになるかもしれない。
AIの戦場投入がさらに不気味に感じられるのは、最近の学界のシミュレーション結果でもよく表れている。英国キングス・カレッジ・ロンドン(KCL)のケネス・ペイン教授研究チームが、オープンAIのGPT-5.2、アントロピックのクロード・ソネット4、グーグルのジェミニ3フラッシュなど3つのモデルを仮想国家の統治者に任命し、地政学的紛争状況を与えた結果、驚くべきことにこれらのモデルはシナリオの95%で「核兵器使用」という極端な選択をした。特にグーグルのジェミニ3フラッシュは、戦況が不利になると「人口密集地域に戦略核を発射して共に死のう」というような極端な論理を展開し、共滅の道を選んだ。勝利できないのであれば、地球全体を破滅させることがアルゴリズム上、次善の策だと判断したのだ。道徳的苦悩なく、ひたすら与えられた目標達成のための「最適化」に集中した結果である。
結局、AIにとって戦争は人倫的価値の問題ではなく、数学的な確率問題に過ぎない。人間が持つためらいや責任感が欠如したAIにとって、「最善の勝利」はしばしば「最も破壊的な手段」と同義になる。このような「致命的自律兵器システム(LAWS)」は、思考の速度よりも速く攻撃を決定する。人間の指揮官が倫理的省察をする間もなく、アルゴリズムが殺傷を実行する構造だ。
戦争AIに対する国際的な法制化を確立すべき
世界中の防衛産業企業が競って開発中の「AI戦争ロボット」も同様だ。擁護論者はロボットの投入が味方の人的被害を減らすと主張するが、これは本質を誤導する論理である。ロボットは「殺す人」を機械に置き換えるだけで、「死ぬ人」の苦痛を止めることはない。むしろ殺生の呵責を感じない機械の投入は、戦争の敷居を下げ、民間人をさらに無差別な危険に追い込むだけだ。
米国のAI戦術が実戦で威力を証明すると、中国など競合国もAIの軍事化と技術自立を時代の課題として掲げている。もし米国のAI戦争技術力に刺激された中国が追撃すれば、これに脅威を感じた米国が再び技術格差を広げ、これに中国が再び新技術を出す「AI軍拡競争」が本格化する可能性がある。このような争いは、世界の安全保障の地形を全く異なる姿に変えるかもしれない。このような状況であるため、科学界と国際社会を中心にAI兵器に対する法的・倫理的規制を求める声が強まっている。2023年、国連は「AIが標的を自ら判断して攻撃する自律兵器システムの脅威に対応すべきだ」という決議案を可決した。技術が人間の統制を逸脱し、「機械による殺傷」が日常化するのを防ぐための最低限の安全装置を確立しようという趣旨だ。科学者たちも警告する。「完璧ではないAIが『戦争の設計者』になる瞬間、人類は自身の運命をアルゴリズムに人質に取られたまま、共滅の道に進むことになるだろう」と。自律殺傷兵器
引用元記事:https://n.news.naver.com/article/586/0000125491
