私は数十年にわたり様々な危機に取り組んできました。これには自然災害、パンデミック、社会不安、金融崩壊などが含まれます。中でも核戦争は最大の潜在的な災害です。以下に説明する理由から、今こそ考慮すべき時なのです。
核戦争への関心が高まっています。キューバミサイル危機以来の1962年以降、今日までに比べていまだに注目されているのです。その理由は3つあります。
第一は、アメリカがロシアがウクライナ戦争でより追い詰められるにつれて核兵器の使用をエスカレートするだろうとの非難をしていたことです。しかし、これらの非難は常に虚偽であり、現在ではロシアが明らかに従来の武器での戦いに勝利していることから、滑稽であるとされています。それでも、この脅威と対抗脅威がトピックとなりました。
二つ目の理由は、イスラエルとハマスの戦争です。再度、エスカレーションが懸念されています。想定されるシナリオの1つには、レバノン南部のヒズボラがイスラエルの北部国境での大規模なミサイル攻撃を開始することが含まれます。イエメンのフーシ派も攻撃に加わる可能性があります。ヒズボラとフーシ派はどちらもシーア派ムスリムであり、イランの代理とされており、このエスカレーションの発端としてイスラエルがイランを攻撃する可能性があります。
イスラエルは核保有国です。地域にはアメリカの航空母艦戦闘群と核攻撃潜水艦が展開されており、ロシアとパキスタンという核保有国がイランを支援する準備が整っているため、核戦争へのエスカレーションの可能性は現実的なものとなります。
今週のイランとパキスタンの緊張が高まることがさらに火に油を注いでいます。
三つ目の理由は、人工知能とGPTの出力です。人工知能は市場の多くの分野で投資家に収益をもたらす可能性がありますが、AI/GPTは過去80年間にわたって核平和を保ってきた人間の論理とは矛盾する内部ロジックを持っている可能性があります。このため、核エスカレーションへの最大の脅威である可能性があります。
私はウクライナとイスラエルについて幅広くカバーしており、これらの国々は広く報道されています。しかし今日は、AI/GPTによる核戦争のリスクについて述べています。皆さんはまだ何も聞いていないかもしれませんが、この問題には取り組む必要があります。
では、架空の映画について始めましょう。偶発的な核戦争を描いた典型的な作品は、1964年の映画「フェールセーフ」です。この映画では、米国のレーダーが米国の領空に向かって侵入しているが潜在的に敵対的な航空機を検出します。
米空軍はやがてその航空機が迷子の民間航空機であることを判明させます。一方、侵入に誤って反応したコンピュータが誤ってジャック・グレイディ大佐率いる米戦略爆撃機群にモスクワへの核攻撃を開始するよう命令します。
命令を取り消し、爆撃機を呼び戻すための米国の努力はソ連による無線チャンネルのジャミングのために失敗します。大統領は軍に爆撃機を撃墜するよう命じ、そのために戦闘機が飛び立ちます。戦闘機は爆撃機を捕えるためにアフターバーナーを使用しますが、失敗し、増加した燃料消費量のために北極海に墜落します。
その後、大統領はソビエト首相と連絡を取り、ジャミングを停止するよう依頼します。大統領は攻撃爆撃機群のリーダーと通信し、攻撃を中止するように求めますが、乗組員はそのような懇願を無視するように訓練されています。
次に、大統領はソ連に爆撃機を撃墜するための技術的支援を提供します。機はほぼすべて撃墜されますが、1機が通過します。大統領はグレイディ大佐の妻をラジオで呼びます。彼はためらいますが、すぐにソビエトのミサイルの回避に駆り立てられます。その後、彼は妻の声が別の欺瞞だと判断します。
最悪を予測し、全面的な核戦争を避けようとし、大統領はニューヨーク市上空を飛行する米国の核爆撃機を命じます。なぜなら、ファーストレディがニューヨークにいるからです。
最終的には、モスクワは米国の核兵器によって破壊され、大統領はエンパイアステートビルディングを基準にしてニューヨーク市に核爆弾を投下するよう命じます。その犠牲としてモスクワと引き換えにニューヨークを終結させることが期待されていますが、その結末は不透明のままです。
「フェールセーフ」は60年前の作品ですが、取り上げられている問題とプロットの一部は驚くほど現代的です。映画で攻撃を引き起こしたコンピュータのエラーは技術的には決して説明されませんが、それはあまり重要ではありません。
実際には、クリティカルインフラでコンピュータエラーが発生し、停電や列車事故など実際の被害をもたらすことがよくあります。このようなコンピュータエラーが今日の戦略的システムにおけるAIについての議論の本質です。
以上の要約を日本語に翻訳しました。何か他に翻訳が必要な箇所がありましたらお知らせください。
AI は核戦争を引き起こす可能性があるのでしょうか?
AIは、指揮・統制の文脈において、Fail Safe におけるような誤作動によって間違った指示を出す可能性がある一方で、より可能性が高いのは設計通りに機能しているが、エンジニアリングの誤りや偏ったトレーニングセット、人間がほとんど気づかない相関関係から生じる奇妙な副産物に基づいて致命的な命令を出すことがあります。
現代の観客に最も馴染み深いのは、大統領とグレイディ大佐の妻が爆撃機指揮官を攻撃を中止させるよう説得しようとした失敗した努力です。グレイディは、このような努力を予期し、それを欺瞞として扱うよう訓練されていました。
現在では、このような欺瞞はディープフェイクビデオとオーディオの送信によって行われるでしょう。おそらく、指揮官の訓練と懇願の無視は、それによる技術の洗練度にかかわらず同じであろう。技術は進歩していますが、人間の行動の一部は変わっていません。
もう一つの誤解、これはフィクションではなく実際のものですが、核戦争寸前になったのは1983年のアブル・アーチャーと呼ばれる事件です。
アブル・アーチャーの原因は、1981年5月にソビエト共産党書記長であったレオニード・ブレジネフとKGB長官で後に書記長となったユーリ・アンドロポフが、アメリカが秘密裏にソビエト連邦に対する核攻撃を準備しているという彼らの見解をソ連の高官に明かしたことに遡ります。
アンドロポフは、その後、核攻撃の発射および実施に責任がある人々、およびその施設や通信経路を追跡する大規模な情報収集活動を発表しました。
同時期に、レーガン政権は、ソ連の防衛をテストするという名目でソ連の水域を積極的に探って海軍資産を使い、戦略爆撃機をソ連の空域に直接飛行させ、直前まで引き返すという一連の秘密の軍事作戦を開始しました。
これらの行動は、本来はソ連が核攻撃を計画しているというソビエトの認識に影響を与えたとされています。
分析者たちは、両者の認識が異なることで、エスカレーションの合理的な評価が不可能になるような状況が様々な危険性を孕むと同意しています。両者は異なる経路を歩んでおり、異なる計算を行っています。
1983年には、アメリカ海軍がF-14トムキャット戦闘機をクリル諸島のソ連軍基地上空に飛行させ、ソ連はアリューシャン列島上空に飛行しました。1983年9月1日、ソ連の戦闘機が日本海上で韓国航空機(KAL007便)を撃墜しました。アメリカの議会議員も乗っていました。
1983年11月4日、アメリカとNATOの同盟国はアブル・アーチャーという広範な合同軍事演習を開始しました。これはエスカレーションの連続に続くソ連への核攻撃をシミュレートすることを意図していました。
問題は、エスカレーションは演習のブリーフィングブックに記されていましたが、実際にはシミュレートされていなかったことです。通常の戦争から核戦争への移行はシミュレートされていました。
この時期に、ソビエトとKGBは核攻撃の兆候を積極的に探しており、NATOの指揮統制通信プロトコルを含むシミュレーションは非常にリアルで、ドイツの首相ヘルムート・コールやイギリスの首相マーガレット・サッチャーも参加していました。ソ連は演習が実際の攻撃のカバーであると信じる根拠があったのです。
アメリカが核先制攻撃を計画していると信じたソ連は、自身が生き残る唯一の手段は自ら先制攻撃を行うことだと判断しました。彼らはソ連空軍の戦略爆撃機に核弾頭を取り付け、ポーランドと東ドイツに核攻撃用の航空機を待機させました。
この実際の核戦争寸前の出来事にはもっと恐ろしい経緯があります。ソ連は以前、AIの初期バージョンである「Oko」というコンピュータ連動の早期警戒レーダーシステムを構築していました。
1983年9月26日、アブルアーチャーより2カ月前に、そのシステムが誤作動し、アメリカからのICBMが5基到来したと報告しました。Okoの警報が鳴り響き、「発射」という文字がコンピュータ画面に点滅しました。プロトコルでは、「発射」という表示は警告ではなく、報復を命じるコンピュータ生成の命令でした。
ソ連空軍防空隊のスタニスラフ・ペトロフ大佐はそのコンピュータの命令を見て、直ちにそれをコンピュータの誤作動と捉えるか、上級将校に通報して核の報復攻撃を開始する可能性が高いでしょうとして迷わなければいけませんでした。
ペトロフはOkoの共同開発者であり、システムが間違いを com 作ることを知っていました。また、もし攻撃が本物であれば、アメリカは5基のミサイル以上を使用すると推測しました。ペトロフの推測は正しかったのです。コンピュータは雲の反射を誤ってミサイルの飛来だと読み取っていたのです。
当時の緊張状態とKGBの信念たる核攻撃がいつでも起こりうるという信念を考慮すると、ペトロフはソ連の将来をリスクにさらすことになりました。ペトロフは推論、経験、直感の組み合わせに頼り、キルチェーンを無効にすることに決断しました。
この出来事は、冷戦終結後しばらくは秘密とされていました。その後、ペトロフは「世界を救った男」として賞賛されました。
核戦争の脅威は、核保有国だけでなく、第三者や非国家の行為者がAIを使って 「触媒効果の核災害」と呼ばれるものを引き起こす可能性からも生じます。触媒効果という言葉は、自分自身は反応の一部とはならないが、他の化合物の間で振動的な反応を引き起こす化学物質を指します。
国際関係に応用する際は、それは大国間で核戦争を引き起こす契機とし、自身はその戦争には関与しないで強い立場を獲得するという意味です。それによって、大国が自滅した後、その弱い存在が相対的に強い立場を得ることができるでしょう。
AI/GPTのシステムは既に核戦争作戦プロセスに適用されています。人間がその役割を限定し、データ指向ではなく意思決定指向にするかどうかは人間次第です。歴史的に従って、技術は古代から極超音速ミサイルまで戦争に使用されていますから、AI/GPTがそのように限定されるとは断定するのは難しいでしょう。もしそうでないなら、我々全員がその代償を支払うことになります。
ウクライナ、ガザ、そしてAIは、核戦争の可能性を大幅に高めています。そのため、投資家にとっての財務的なインパクトは単純です。核戦争が起こった場合、株、債券、現金などの金融資産は無価値になるでしょう。取引所と銀行は閉鎖されるでしょう。価値のある資産は土地、金、銀のみになるでしょう。」