無人戦闘機に「ヒトのこころ」は必要か? 世界が直面「AIにどこまで任せるか問題」 決めなければ“とんでもないリスク”に!?
防衛装備庁は、次期戦闘機と連携する無人機の導入に関するリスク調査の入札を公告しました。AIを搭載する無人機にどこまで判断を委ねるかという倫理的な課題が浮上しており、専門的な人材の育成が急務となっています。
「自らの意思で突撃するドローン」それでいいの?
近年ではドイツのヘルシングが開発した自爆突入型UAS「HX-2 カルマ」のような、攻撃の判断までAIが行える無人装備品が登場しています。
ただ、人間の生命を奪う可能性の高い攻撃の可否の判断までAIに任せてしまって良いのかについては議論の対象となっています。
自由主義陣営諸国で運用されている多くの攻撃型無人装備品には、最終的な攻撃の判断だけは必ず人間が行う「マン・イン・ザ・ループ」という概念が適用されています。戦闘支援無人機の実用化にあたっても、どこまでAIに任せて良いのかという課題が出現してくると筆者(竹内 修:軍事ジャーナリスト)は思います。
どれだけ精巧なハードウェアやソフトウェアであっても、トラブルによる故障は発生します。万が一無人装備品にトラブルが発生して、他国と軍事的な衝突が発生してしまった場合、エスカレーション(段階的な拡大)による本格的な武力衝突を防ぐためのセーフティネットの構築も必要となるでしょうし、これは日本一国だけでなく、全世界的に取り組むべき課題なのではないかと思います。
「AI戦闘機」と有人戦闘機で「模擬空戦」している会社に聞いた
スウェーデンの大手防衛関連企業のサーブは2025年6月に、自社が開発した「グリペンE」戦闘機に、ヘルシングが開発したAI「セントール」を搭載して、グリペンD戦闘機との模擬空戦実験を行っています。
筆者は2025年9月に、このプロジェクトで主導的な役割を果たしている、マーカス・ワント氏(現上級副社長兼グループ戦略・技術部門責任者)に話を聞く機会を得ました。
ワント氏はセントールについて、「人間のパイロットと比べると飛行経験の習熟スピードが桁違いに早く、安全性を含めたシステム自体の完成度も、当初自分たちが想定していたよりも高かった」と述べました。
そのうえで、今後はどのようなインプットを行えば、どのようなアウトプットが起こるべきかを、リテラシー(情報を理解して適切に活用・判断する能力)を持った人間が、きちんと監視していくシステムの構築が必要だと話しました。
2025年12月8日付の日本経済新聞(電子版)は、アメリカではIT大手企業、ヨーロッパではコンサルタント企業で、倫理や哲学を履修した人材の募集が急増していると報じています。
民生品でもAIがあらゆる分野で切っても切れない存在となっている現状、そして未来においては、確固たる倫理観や哲学を確立し、ワント氏が言うところの「リテラシー」を持った人材を育成していくことも、戦闘支援無人機をはじめとする無人防衛装備品の戦力化には必要なことだと筆者は思います。
Writer: 竹内 修(軍事ジャーナリスト)
軍事ジャーナリスト。海外の防衛装備展示会やメーカーなどへの取材に基づいた記事を、軍事専門誌のほか一般誌でも執筆。著書は「最先端未来兵器完全ファイル」、「軍用ドローン年鑑」、「全161か国 これが世界の陸軍力だ!」など。





コメント