私は長年にわたってさまざまな潜在的危機を取り上げてきました。 これらには、自然災害、パンデミック、社会不安、財政破綻などが含まれます。 それは気の遠くなるようなリストです。
私がまだやっていないことの 1 つは、潜在的な最大の災難である核戦争を報道することです。 以下に説明する理由により、今こそそれを検討する時期です。
核戦争が再び勃発している。 このテーマは今日、1962 年のキューバ危機とその余波以来、これまで以上に注目を集めています。 これには 3 つの理由があります。
一つ目は、ロシアがウクライナでの戦争遂行において絶望感を増すにつれて核兵器使用をエスカレートさせるだろうとのアメリカの非難である。 これらの非難は常に虚偽であり、ロシアが通常兵器で戦争に明らかに勝利しつつある今、その危険性が高まっている。
それでも、脅しと反撃は、この話題を動かすのに十分でした。
2番目の理由は、イスラエルとハマスの戦争です。 繰り返しますが、エスカレーションが懸念されます。 ありそうもないシナリオの1つは、レバノン南部のヒズボラが、集中的なミサイル爆撃でイスラエル北部国境に第2戦線を開設するというものだ。
イエメンの反政府勢力フーシ派も攻撃に加わることになる。 ヒズボラとフーシ派はともにシーア派イスラム教徒であり、イランの代理人であるため、イスラエルはエスカレーションの根源としてイランを攻撃する可能性がある。
イスラエルは核保有国です。 この地域には米国の空母戦闘群と攻撃型原子力潜水艦が駐留しており、核大国であるロシアとパキスタンもイランを支援するために待機しているため、核交換に発展する可能性は現実的である。
今週になってイランとパキスタン間の緊張がさらに高まったことで、さらに火に油が注がれた。
3 番目の理由は、人工知能と GPT 出力です。 人工知能は市場の多くの分野で投資家に有益な機会を提供することができますが、AI/GPT は過去 80 年間核の平和を維持してきた人間の論理と矛盾する内部ロジックを備えているため、核エスカレーションに対する最大の脅威になる可能性もあります。 。
私はウクライナとイスラエルを広範囲に取材しており、ニュースでも広く取り上げられています。 しかし今日、私は AI/GPT による核戦争のリスクについて取り上げます。 これは何も聞いていない脅威ですが、対処する必要があります。
架空の映画から始めましょう。 偶発的な核戦争を模範的に描いたのは、1964 年の映画『フェイルセーフ』です。 映画では、米国のレーダーが正体不明だが敵対的な可能性のある航空機による米国領空への侵入を検知します。
米空軍はすぐにこの航空機がコース外の民間旅客機であると判断した。 一方、侵入に反応したコンピューターは、ジャック・グレイディ大佐率いる米国戦略爆撃機グループにモスクワへの核攻撃を開始するよう誤って命令した。
命令を取り消し爆撃機を回収しようとする米国の努力は、ソ連による無線チャンネルの妨害のため失敗に終わる。 大統領は軍に爆撃機を撃墜するよう命令し、そのために戦闘機が緊急発進した。
戦闘機は爆撃機を捕捉するためにアフターバーナーを使用しますが、失敗し、燃料消費量の増加により北極海に突入してしまいます。
次に大統領はソ連首相と連絡をとり、首相も妨害電波を止めることに同意する。 大統領は爆撃機グループのリーダーと会談して攻撃を中止するが、乗組員はソ連の策略としてそのような嘆願を無視するよう訓練されている。
その後、米国は爆撃機の撃墜を支援するためにソ連の技術援助を申し出た。 飛行機はほぼ全機撃墜されるが、一機だけは生き残る。 大統領はグレイディ大佐の妻をラジオに出演させる。 彼は躊躇したが、すぐにソ連のミサイルを回避することに夢中になった。 その後、彼は妻の声が別の欺瞞であると判断します。
最悪の事態を予想し、全面核戦争を回避しようとする大統領は、大統領夫人がニューヨークにいるのを承知で、米国の核爆撃機にニューヨーク市上空を飛行するよう命令した。
結局、モスクワは米国の核兵器によって破壊され、大統領はエンパイア・ステート・ビルディングを爆心地としてニューヨーク市に核爆弾を落とすよう命令した。 モスクワと引き換えにニューヨークを犠牲にすることでエスカレーションを終わらせることが期待されているが、それは映画では描かれていない。
次のステップには疑問が残ります。
『フェイルセーフ』は 60 年前のものですが、それが提起する問題といくつかのプロットのひねりは驚くほど現代的です。 映画の中で攻撃を引き起こしたコンピューターエラーは技術的に説明されていませんが、それはあまり意味がありません。
重要なインフラではコンピューターエラーが常に発生しており、停電や列車事故などの実害を引き起こす可能性があります。 このようなコンピューターエラーは、今日の戦略システムにおける AI をめぐる議論の本質です。
その理由については、読み続けてください…
AIは核戦争を始める可能性がある
コマンドアンドコントロールのコンテキストにおける AI は、フェイルセーフのように誤動作して誤った命令を発行する可能性があり、あるいは、設計どおりに機能するにもかかわらず、エンジニアリングエラー、歪んだトレーニングセット、または人間にはほとんど不可能な相関関係からの奇妙な創発特性に基づいて致命的な処方箋を発行する可能性があります。 知覚する。
おそらく現代の観客にとって最もよく知られているのは、大統領とグレイディ大佐の妻が爆撃機の指揮官に攻撃を中止するよう説得しようとして失敗したことだろう。 グレイディはそのような努力を予期し、それを欺瞞として扱うように訓練されていた。
今日では、そのような欺瞞はディープフェイクのビデオと音声の送信によって実行されるでしょう。 おそらく、背後にあるより高度なテクノロジーにもかかわらず、指揮官の訓練と嘆願の却下は同じだろう。 テクノロジーは進歩していますが、人間の行動の側面は変わっていません。
核戦争を引き起こしそうになったもう一つの誤解は、エイブル・アーチャーというコード名で呼ばれた 1983 年の事件です。
エイブル・アーチャーのルーツは1981年5月に遡る。当時のソ連共産党書記長レオニード・ブレジネフとKGB長官ユーリ・アンドロポフ(後に書記長)が、米国が秘密裏に射手の発射準備を進めているという見解をソ連高官らに明らかにしたときである。 ソ連への核攻撃。
その後、アンドロポフは、そのような攻撃を開始し実行する責任者をその施設や通信チャネルとともに追跡するための大規模な情報収集活動を発表した。
同時に、レーガン政権は一連の秘密軍事作戦を開始し、海軍資産でソ連海域を積極的に探査し、戦略爆撃機でソ連領空に直接飛行したが、最後の瞬間に後退した。
これらの進歩は表向きソ連の防衛力を試すためだったが、米国が核攻撃を計画しているというソ連の認識に影響を与える効果をもたらした。
アナリストらは、エスカレーションと実際の核戦争の最大のリスクは、エスカレーションの動きの合理的な評価が不可能になるほど双方の認識が異なる場合に生じることに同意している。 双方は異なるパス上にあり、異なる計算を行っています。
1983年に米海軍が千島列島のソ連軍基地上空でF-14トムキャット戦闘機を飛行させ、ソ連側もアラスカのアリューシャン列島上空を飛行して応戦し、緊張はさらに高まった。 1983年9月1日、ソ連の戦闘機が日本海上で大韓航空007便を撃墜した。 米国議会議員も同乗していた。
1983 年 11 月 4 日、米国と NATO 同盟国はコードネーム「エイブル アーチャー」という大規模な戦争ゲームを開始しました。 これは、一連のエスカレーション後のソ連に対する核攻撃をシミュレートすることを目的としていました。
問題は、戦争ゲームのブリーフィングブックにはエスカレーションが詳しく書かれていたが、実際にはシミュレーションされていなかったことだ。 通常の戦争から核戦争ゲームへの移行がシミュレートされました。
これは、ソ連とKGBが核攻撃の兆候を積極的に探していた時期に起こった。 NATOの指揮統制および通信プロトコルを含むシミュレーションには、ドイツのヘルムート・コール首相や英国のマーガレット・サッチャー首相も参加するなど、非常に現実的なものでした。 ソ連は、この戦争ゲームが実際の攻撃に対する隠れ蓑であるともっともらしく信じていた。
米国が核による先制攻撃を計画していると信じ、ソ連は生き残るための唯一の手段は独自の先制先制攻撃を開始することだと判断した。 彼らはソ連空軍の戦略爆撃機に核弾頭を搭載するよう命令し、ポーランドと東ドイツの核攻撃機に厳戒態勢を敷いた。
核戦争に近いこの現実の生活には、さらにゾッとする裏話がありました。 ソ連は以前、コードネーム「Oko」という原始的な種類のAIを使用し、コンピューターと連携した早期警戒レーダーシステムを構築していた。
エイブル・アーチャーのわずか2か月前の1983年9月26日、システムが故障し、米国から5発の大陸間弾道ミサイルが飛来したと報告した。 オーコのアラームが鳴り、コンピューターの画面が「起動」と点滅しました。 議定書によれば、LAUNCH 表示は警告ではなく、コンピューターが生成した報復命令でした。
ソ連防空軍のスタニスロフ・ペトロフ中佐はコンピューターの命令を見て、その命令をコンピューターの故障として扱うか、核反撃を開始する可能性が高い上官に警告するかの選択を迫られた。
ペトロフ氏は Oko の共同開発者であり、システムが間違いを犯すことを知っていました。 同氏はまた、攻撃が本物であれば、米国は5発をはるかに超えるミサイルを使用するだろうと推定した。 ペトロフは正しかった。 コンピューターは、一部の雲に反射した太陽をミサイルの飛来と誤読したのだ。
当時の緊張と核攻撃がいつでも起こり得るというKGBの信念を考慮すると、ペトロフはソ連の将来を危険にさらしてオーコシステムを無効にすることにした。 彼は推論、経験、直感を組み合わせてキルチェーンを無効にしました。
この事件は冷戦終結後かなり後まで秘密のままであった。 やがてペトロフは「世界を救った男」と称賛されるようになった。
AI による核戦争の脅威は、核保有国だけでなく、AI を使用していわゆる触媒的核災害を引き起こす第三者や非国家主体からもたらされます。 触媒という用語は、それ自体が反応に関与することなく、他の化合物間で揮発性反応を引き起こす化学物質を指します。
国際関係に適用される場合、これは、自らが戦争に関与することなく、大国間の核戦争を引き起こす可能性のある工作員を指します。 そのため、大国が自滅した後は、弱いエージェントが比較的強い立場に残る可能性がある。
AI/GPT システムはすでに核戦争プロセスに導入されています。 自分の役割を周辺的なものにし、意思決定指向ではなくデータ指向を維持できるかどうかは人間次第です。 青銅の槍から極超音速ミサイルに至るまでの戦争におけるテクノロジーの歴史を考慮すると、AI/GPT がそこまで封じ込められると結論付けるのは困難です。 そうでない場合は、私たち全員がその代償を支払うことになります。
ウクライナ、ガザ、AIはいずれも核戦争の可能性をかなり高めている。 これが投資家に与える財務上の影響は単純です。 核戦争が起こった場合、株式、債券、現金、その他の金融資産は無価値になります。 取引所と銀行は閉鎖されます。 貴重な資産は土地、金、銀だけになります。
万が一に備えて、3 つすべてを持っておくことをお勧めします。