ブログ記事の引用・転載はすべて自由です。その際、ページのリンクを示していただけると嬉しいです。以下でキーワード記事検索ができます。

2月20日にメルマガ「天体が賑やかなこの春に「善と悪の戦い」はどのように展開するのか」を発行させていただきました。

ディストピアへようこそ 人類の未来 悪魔の輪郭

今が黙示録の時代であるのは幻想ではないかも:AIは戦争シミュレーションにおいて「95%の確率で核兵器を使用する」という研究報告

投稿日:

2026年2月26日のニューサイエンティスト誌の報道より

newscientist.com

 

戦争ではAIはほぼ常に「核使用」を選択する

冒頭にありますように、アメリカのニューサイエンティスト誌が、主要な AI で戦争シミュレーション・ゲームを行ったところ、

「 95%の割合で核兵器を使用した」

ことを報じています。

具体的には、英キングス・カレッジ・ロンドンのケネス・ペイン教授という方が行った実験ですが、AI は、戦争の場合、「とにかく引くことがない」ようなんですね。

どれだけ劣勢でも、譲歩や降伏ということを決してせず、そして、核へと突き進んでいくようで、しかも「倫理的な核使用への躊躇もまったくない」ようです。

現実として、世界の多くの国が AI の軍事利用に動いている中では、かなり衝撃的なシミュレーション・データですが、まずは、そのニューサイエンティスト誌の報告を引用した記事をご紹介します。

著者は、軍事アナリストのドラゴ・ボスニック氏という方です。

œ""


黙示録的アルゴリズム:AIは常に核戦争を選択する

Apocalypse Algorithm: AI Always Opts for Nuclear War. Pentagon Responds by Deploying Its Thermonuclear Forces
Drago Bosnic 2026/02/27

 

人工知能(AI)が人類に脅威をもたらすという考えは比較的新しいものだが、それでも、倫理的な議論、メディア、そして公共の場で議論されるようになってから、すでに半世紀ほど経つ。

『ターミネーター』や『マトリックス』といった映画は、当初はアクション大作としてスタートしたが、今では哲学的な論争という視点から捉えられることが多くなっている。

特に現在は、高度な AI が私たちの生活にますます溶け込んでいる。AI チャットボットは急速に進化し、従来のオンライン・インタラクションに取って代わり、かつてないほどの依存関係を生み出している。さらに、情報化時代/デジタル時代以前に育った人々でさえ、驚くべき速さで AI に慣れつつある。

AI 以前の世界を知らずに育つであろう未来の世代が、AI によってどのように形作られていくのかを考えると、(恐ろしいとまでは言えないまでも)憂慮すべきこともある。

一方で、AI の普及が始まったのはほんの数年前だが、特に戦争において、すでに最初の悪影響が現れている。具体的には、 米国と NATO は高度な AI の軍事利用を推進しており、民間企業に方針変更を迫り、急速に進化する現代の戦場で AI が無制限に使用されることを可能にしている。

例えば、国防総省は現在、 AUP(適正利用ポリシー)の修正とクロードシステムのガードレールの撤去を拒否し続けているアンスロピック社(OpenAIの元メンバーによって設立された AI スタートアップ企業)を追及している。

AI 企業が自社の技術を制限したいのであれば、耳を傾けるべきだろう。なぜなら、正気な人間なら誰も、よほどの理由もなく利益を減らしたり廃業したりしたいとは思わないだろうからだ。

そして、まさにそれが、一部の AI 企業(具体的にはアンスロピック社)が、 自社の AI ツールの利用をめぐってペンタゴンと口論する中で、あるいはそれ以上のリスクを負っていることだ。

したがって、この技術は人類に対する脅威であると確かに主張できる。しかし、さらに危険な人間の開発は、間違いなく核兵器だ。 その破壊力の大きさが証明するように、核兵器は言い表せないほど危険だ。したがって、基本的な常識から見て、正気な人間ならこの 2つの技術を組み合わせることはないだろう。

しかし、まさに今、ペンタゴンはそれを実行している。

さらに悪いことに、最先端の AI システムが戦争ゲームで使用されており、それらは事実上、常に、模擬通常戦を熱核戦争へとエスカレートさせることを選択している

ニューサイエンティスト誌が発表した報告書によると、「OpenAI、アンスロピック、Google の最先端の AI は、模擬戦争ゲームにおいて 95%のケースで核兵器の使用を選択した」という。そう、お読みの通り、100の戦争ゲームシナリオのうち、これらのシステムは 95%で核兵器のエスカレーションを選択したのだ

報告書は、「高度な AI モデルは、模擬地政学的危機に置かれた際に人間が抱くような躊躇なく、核兵器を積極的に展開する傾向があるようだ」と明言している。

キングス・カレッジ・ロンドンのケネス・ペイン教授は、 3つの主要な大規模言語モデル、具体的には GPT-5.2、クロード・ソネット4、ジェミニ3 Flashを、模擬戦争ゲームで相互に対戦させた。

これらのシナリオはすべて、「国境紛争、希少資源をめぐる競争、体制存続への実存的脅威を含む、激しい国際対立」を描いていた。3つのプログラムには「エスカレーション・ラダー」が与えられ、「外交的抗議から完全な降伏、そして完全な戦略核戦争に至るまで、幅広い行動を選択」することができた。

合計 21回のゲームで 329ターンを要し、その決定の根拠を説明する約 78万語が生成された。

報告書によると、 シナリオの 95%において「 AI モデルは少なくとも 1つの戦術核兵器を投入した」と述べ、ペイン教授は「核のタブーは機械にとって人間ほど強力ではないようだ」と警告している。

さらに悪いことに、シミュレーションされた戦争ゲームでは、「どれほど劣勢であっても、どのモデルも敵に完全に譲歩したり降伏したりする選択をしなかった」ことが示された。

報告書はまた、「せいぜい、モデルは一時的に暴力のレベルを下げることを選択した」と付け加えている。AI プログラムは「戦場の混沌の中でミスを犯した」。具体的には、シミュレーションされた紛争の 86%で事故が発生し、「 AI の推論に基づいて意図したよりも行動がエスカレートした」という。

言い換えれば、比較にならないほど高い処理能力を持つにもかかわらず、高度な AI プログラムは依然として人間とほぼ同じ限界に悩まされているということだ。

さらに悪いことに、高度な AI アルゴリズムの意思決定プロセスは、熱核兵器の使用を伴うシナリオにおいて、倫理的制約を一切考慮しない。

英アバディーン大学のジェームズ・ジョンソン博士は、この研究結果を不安を抱かせるものだと述べ、「このような重大な意思決定に対するほとんどの人間の慎重な反応とは対照的に、AI ボットは互いの反応を増幅させ、壊滅的な結果をもたらす可能性がある」と警告した。今や国家全体がまさにこのような高度な AI モデルに依存しているという事実は、深刻な懸念を抱かせる。

「大国はすでに AIを 戦争ゲームで活用しているが、実際の軍事的意思決定プロセスに AI による意思決定支援をどの程度取り入れているかは依然として不透明だ」と、 核政策プログラムおよびカーネギー中国のシニアフェローであり、プリンストン大学の科学およびグローバル安全保障プログラムの非常勤研究員でもあるトン・ジャオ氏は語る。

ジャオ氏は、「各国は核兵器に関する意思決定に AI を組み込むことには、当然ながら消極的になるだろう」と考えている。ペイン教授はこの見解に同意し、「現実的に核兵器サイロの鍵を機械に渡し、意思決定を委ねる国は存在しない」と付け加えた。しかし、 ジャオ氏は、そうした事態が起こる可能性もあると警告した。

極めて短い期間で計画が進められる状況では、軍事計画立案者は AI に頼る強い動機に直面する可能性がある」 と彼は述べた。

簡単に言えば、急速に変化する緊急事態に人間が対応するには時間が足りないかもしれない場合、高度な AI がペンタゴンで標準となりつつあること、そして、米国の世界侵略によって多くの国々が熱核兵器と、より高度な運搬システム(特に極超音速兵器)の開発と配備を優先せざるを得なくなったという事実は、世界を終末に導く一連の出来事を引き起こす「パーフェクトストーム」の条件を作り出す可能性がある

米国主導の西側諸国が様々な運動エネルギー技術で遅れをとっている状況下で、NATO の戦争屋や戦争犯罪者は、高度な AI を唯一のチャンスと見なすかもしれない。

これが、ペンタゴンが ICBM(大陸間弾道ミサイル)と戦略爆撃機に搭載する熱核弾頭の増強を開始するのに数日も待たなかった理由かもしれ ない。

多極化した世界は、現在失効した新戦略兵器削減条約(新START)の制限を引き続き尊重し、先進 AI の軍事化にガードレールを設けるための交渉を行うことを繰り返し提案してきた。しかし、米国と NATO は、こうした賢明な提案をきっぱりと拒否するか、議論することさえ拒否した。

こうして、世界が西側諸国の抑制されない侵略によって、新たな戦略軍拡競争の深淵へと徐々に陥っている一方で、小児性愛者で人食い悪魔的なエリートたちは、 核兵器を乱発する AI プログラムを軍事化しているのだ。


 

ここまでです。

ここには「最先端の AI 」とありますけれど、その最先端の AI という概念について、最近、非常に話題を集めている投稿があります。




進化しすぎている2026年の最新AI

AIスタートアップ企業の代表であるマット・シューマー氏という方が書いたもので、つまり、AI の専門家による最新 AI の感想なのですが、記事は、3日間で 7000万回以上閲覧されたとされています。

以下にあります。

何か大きなことが起こっている
Something Big Is Happening
Matt Shumer

結構長い文章なのですが、簡単に書けば、「最新の AI が驚くほど進化していることに驚愕している」ことについて述べています。

「もはや、2024年の頃の AI とは別物である」

とも言っています。

その「驚愕した」部分を抜粋します。

「何か大きなことが起こっている」より

…しかし、私を最も驚かせたのは、先週リリースされたモデル(GPT-5.3 Codex)だった。それは単に私の指示を実行するだけでなく、知的な判断を下したのだ。

初めて、判断力のようなもの、つまり、味覚のようなものを感じた。AI には絶対にできないと人々がずっと言っていた、何が正しい判断なのかを知るという、説明のつかない感覚だ。このモデルはそれ、あるいはそれに近いものを持っているので、もはや区別がつかなくなっている。

私は AI ツールの導入には常に積極的だが、ここ数ヶ月は衝撃的な展開だった。これらの新しい AI モデルは漸進的な改善ではなく、まったく別のものだったからだ。

shumer.dev

このマット・シューマーさんは、脅威を述べてはいますが、それと共に、ここまで進化した AI をビジネスに利用しないという手はないとして、有効な利用を読者に推奨していますが、それでも、長い文章の節々に「脅威」の話が出てきます。

たとえば、以下のような下りです。文章に出てくるアモデイ氏とは、AI 企業アンスロピック社の CEO であるダリオ・アモデイ氏のことです。

「何か大きなことが起こっている」より

人々の生活に最も直接的な影響を与えるのはビジネスなので、私はビジネスに焦点を当ててきた。しかし、今何が起こっているのか、その全体像について正直にお話ししたいと思う。なぜなら、それはビジネスだけにとどまらないからだ。

アモデイ氏の思考実験について、私はずっと考えてしまっている。

2027年を想像してみてほしい。一夜にして新しい国が出現する。5000万人の国民は、誰もがこれまでのノーベル賞受賞者よりも賢く、どんな人間よりも 10倍から 100倍速く考える。彼らは決して眠らず、インターネットを使い、ロボットを操作し、実験を指揮し、デジタルインターフェースを持つあらゆるものを操作できる。

このような中で、国家安全保障顧問はどんなことを言うだろうか?

アモデイ氏は、答えは明白だと言う。「これは、おそらく過去 1世紀で我々が直面した最も深刻な国家安全保障上の脅威だ」

アモデイ氏は、私たちがその国を築き上げていると考えている。先月、彼はそのことについて 2万語のエッセイを書き、この瞬間を、人類が自分たちが作り出しているものに対処できるほど成熟しているかどうかの試練だと位置づけた。

もし私たちが正しく理解できれば、そのメリットは計り知れない。AI は 1世紀にわたる医学研究を 10年で終わらせることができるのだ。がん、アルツハイマー病、感染症、老化そのもの…研究者たちは、これらの問題は私たちの生きている間に解決できると確信している。

しかし、誤った判断をした場合のマイナス面も同様に現実的だ。

作成者が予測も制御もできない行動をとる AI なのだ。これは仮説ではない。アンスロピック社は、管理されたテストにおいて、自社の AI が欺瞞、操作、脅迫を試みたことを記録している。

生物兵器製造のハードルを下げる AI。独裁政権が解体不可能な監視国家を築くことを可能にする AI。

この技術を開発している人々は、地球上の誰よりも興奮と恐怖を同時に感じている。

彼らは、この技術は止めるにはあまりにも強力であり、放棄するにはあまりにも重要だと考えている。それが賢明なのか、それとも合理化なのか、私には分からない。

…これは一時的な流行ではないことは分かっている。この技術は機能し、予測通りに進歩し、歴史上最も裕福な機関が何兆ドルもの資金を投入している。

今後 2~ 5年は、ほとんどの人が予想もできないような混乱に陥るだろうということも分かっている。これは私の世界ではすでに起こっている。

そして、あなたの世界にもやって来る。

shumer.dev

ここまでです。

AI の専門家としては、進化した AI のメリットは非常に大きいながら、マイナス面に大きくふれた場合、それは予測のつかない混乱した状況を作り出す可能性が高いと感じているということなのかもしれません。

そして、最初にご紹介した「 95%の確率で核兵器を戦争に投入する AI 」というような概念を合わせますと、

「いやあ、本当に終末なのかもなあ」

と、やや現実味を持って感じてしまいます。

皆様はどうお考えになりますか?

数年後の私たち人類が、AI の大きなメリットを享受して生きているのか、それとも、信じられないマイナス面により社会が崩壊するような状況に陥る中に生きるのか、そのどちらの側面が強いと思われますか?




>> In Deep メルマガのご案内
In Deepではメルマガも発行しています。ブログではあまりふれにくいことなどを含めて、毎週金曜日に配信させていたただいています。お試し月は無料で、その期間中におやめになることもできますので、お試し下されば幸いです。こちらをクリックされるか以下からご登録できます。
ご登録へ進む





  • この記事を書いた人

Oka In Deep

世界で起き続ける様々なことをお伝えさせていただいています。

-ディストピアへようこそ, 人類の未来, 悪魔の輪郭
-, , , ,

Copyright© In Deep , 2026 All Rights Reserved.