2026年1月――何かが「始まった」という事実
2026年1月9日、米国防総省(Department of War)の長官は、省内向けに一通のメモを発出した。表題は「AIファースト化の実施指示」。だがこの文書が意味することに気づけば、それが時代の転換点だったと分かる。
メモは次のように明記している。「公開後30日以内に最新の商用AIモデルを全省展開できる調達条件を標準化する(Model Parity)」「利用条件にはany lawful use(合法的用途は原則許容)の文言を契約に組み込め」「GenAI.mil(国防総省が全職員に展開する生成AI共通基盤)に300万人の職員が全分類レベルでアクセスできる体制を整える」――。
これは単なる業務効率化の通達ではない。2026年1月の時点で、米国防総省は生成AIを「個別部署のPoC(実証実験)」から「全省共通の業務基盤」へ格上げし、民間AI企業を国家インフラの継続的供給者として位置づける制度設計を一気に進めた。
同月12日、ピート・ヘグセス国防長官はイーロン・マスク同席のSpaceXで公式演説を行い、Google(Gemini)とxAI(Grok)を名指しでGenAI.milに統合すると宣言した。2月9日にはOpenAIがChatGPTのGenAI.mil統合を公式発表。2月時点で5軍種がエンタープライズ採用し、利用者は110万人に達した。
3月にはGoogleが自然言語だけで業務用AIエージェントを生成できる「Agent Designer」をGenAI.milに導入。生成AIは「チャットツール」から「業務自動化プラットフォーム」へと変貌した。4月にはReutersが報じた。国防総省がAnthropicを「供給網リスク」として排除し、代替ベンダーの調達を加速しているというのだ。Anthropicはかねてより軍事目的での無制限利用に慎重な姿勢を示していた企業だった。
「規制によるAIの統治」ではなく、「調達条件と供給網指定によるAIの統治」――これが2026年の米国が選んだ構造である。
マンハッタン計画が残した問い
84年前の1942年、米国政府は一つの国家プロジェクトを始動させた。ナチス・ドイツの核開発に対抗するための極秘研究――マンハッタン計画である。現在の貨幣価値で年間約1,000億ドル(約15兆円)を投じ、テネシー、ワシントン、ニューメキシコの3か所に秘密都市を建設。延べ50万人以上が従事したが、大多数は自分の仕事の最終目的を知らされていなかった。
構造を抽出すれば、マンハッタン計画には4つの本質がある。(1)国家主導の緊急動員、(2)民間(大学・企業)の総力戦への組み込み、(3)情報統制による社会的議論の封鎖、(4)倫理と成果の衝突――である。
計画に参加した科学者たちは、この4つ目の「衝突」において深く苦悩した。物理学者レオ・シラードは、核分裂連鎖反応の着想者でもあった。核技術は当初、「夢の新エネルギー」として人類に希望をもたらすはずだった。しかし同じ技術が原爆という破壊兵器に転用されると知るや、シラードは1945年7月、日本への無警告での使用に「道義的に問題だ」としてトルーマン大統領宛ての嘆願書を起草し、約70人の科学者の署名を集めた。請願書は上層部で揉み消され、トルーマンの目に届くことはなかった。
計画を率いたロバート・オッペンハイマーは、トリニティ実験の瞬間にヒンドゥー教典の一節「我は死神となり、世界の破壊者となれり」を思い浮かべた。広島投下後、トルーマン大統領との面会で「私の手は血で汚れている」と告白し、後に「物理学者は罪というものを知った」と公言した。
技術に善悪はない。同じ核技術が発電所にもなり、原爆にもなった。AIも同じ構造を持つ。
「構想」から「実装」へ――二段階の転換点
フェーズ1:構想(2024〜2025年)
2024年11月、米議会の超党派委員会が「AI版マンハッタン計画」の策定を提言した。Reutersが報じたところによると、この提言は、「AGI(汎用人工知能)分野で中国に劣後しないため、マンハッタン計画規模の国家プロジェクトが必要」というものだった。OpenAIも政府資金の拠出を要求し、議会は「AI開発には信じられないほどの先行者利益がある」として公的資金の大規模投入を正当化した。
2025年1月20日、DeepSeek-R1の発表が米国に衝撃を与えた。開発コストわずか560万ドルでGPT-4oと同等の性能を達成――NVIDIAの株価は一時17%急落し、時価総額で約91兆円が吹き飛んだ。わずか2日後の同月23日、トランプ政権はバイデン政権下のAI規制を廃止する大統領令を発出。「イデオロギー的バイアスの排除」を明記し、180日以内に新たなAI行動計画の策定を指示した。
2025年2月28日、エネルギー長官クリス・ライトがテネシー州オークリッジ国立研究所でOpenAIとの共催イベントに臨んだ。1,000人以上の技術者を前に宣言した。「我々は新たなマンハッタン計画の始まりにいる」――原爆開発の国家プロジェクトを引き合いに出し、AIを「第2弾」と位置付けた。同時期、OpenAIやMetaは軍事目的でのAI使用を容認する方針に転換している。
フェーズ2:実装(2026年初頭)
2026年に入り、構想は制度・調達・運用の三層で同時に動き出した。これが真の転換点である。
国防総省は「30日以内の最新モデル配備」を調達基準に組み込み、生成AI企業を継続供給契約者として義務化した。GenAI.milという机上の構想が、300万人規模のオペレーション基盤に姿を変えた。
機密環境への展開も現実となった。OpenAIは機密ネットワークへの商用最先端モデル導入を公表し、「国内監視禁止」「自律兵器の独立指揮禁止」をレッドラインとして契約条項に明記した。だが政府は「any lawful use(合法的用途は原則許容)」の貫徹を求め、これに応じないAnthropicを調達リストから除外した。企業の倫理方針は、国家調達という市場アクセスを通じて審判にかけられる構造が先鋭化した。
デュアルユース(軍事×民生)の時代は来るかもしれない、という話ではない。すでに「来ている」という事実をどう受け止めるか――それが今問われている。
各国のアプローチ――制度の差ではなく、意思決定主体の差
2025年末から2026年にかけて、主要4勢力のAIガバナンス戦略が鮮明になった。その差異は「規制の厳しさ」という次元を超えた、より根本的な問いを含んでいる。
米国は「AIレースに勝利する」国家戦略を掲げ、州レベルのAI規制法を大統領令で無効化。欧州は世界初の包括的AI規制「EU AI Act」を成立させたが、産業競争力への影響を踏まえ「高リスクAI」の適用を2027年末まで延期した。中国は生成AIサービス管理暫定規則(2023年)から一貫して規制強化を続け、2025年11月には国家標準(GB規格)を施行。アルゴリズム登録と検閲の義務化で、国家が「安全と発展」を一元管理する体制を整えた。日本は2025年12月に国家AI基本計画を閣議決定し、1兆円超のAI関連投資を表明した。
しかし、より本質的な問いはこうだ。各国のガバナンスの差は「どんな規制か」ではなく、「誰が判断するか」という問題だ。米国は調達条件を通じて民間の行動を規律する。中国は国家が直接介入する。欧州はリスクベースの法制度で線引きする。日本は既存法令と民間自主性に依拠する。「判断する主体」が異なることこそが、各国ガバナンスの本質的差異である。
マンハッタン計画では、科学者が「判断する主体」から外され、国家だけが決定を下した。レオ・シラードの請願書は揉み消された。オッペンハイマーの勧告は無視された。現代のAIにおいて、民間企業は「判断する主体」として機能しているか。あるいはすでに「供給網の一部」として消費されているだけか。
企業は「利用者」ではなく「担い手」である
企業のリーダーが「AIを使う側」ではなく、AIが形成する社会の「担い手」としての立場を自覚すべきだ。マンハッタン計画が示したのは、優れた科学者でさえ、国家の大義という文脈の中では個人の良心を沈黙させ得るということだ。現代のAI競争においても、類似のメカニズムが働きうる。「競合他社がやっているから」「政府がそう求めているから」「法的には問題ない」――これらの言葉は、かつての科学者たちが自らに語りかけた言葉と構造的に同じである。
マンハッタン計画の教訓が普遍的なのは、それが「悪人が引き起こした悲劇」ではなく「善意の専門家集団が構造的に動かされた結果」だったからだ。その潜在構造は、企業の中にも存在している。
企業経営者に生成AIを使わないことを求めているのではない。だが、少なくとも経営レベルで議論すべき問いは明確に存在する。スライドデッキに書かれた綺麗なミッションステートメントを、AI革命下でどう再解釈するか。
問いかけ――企業が今、答えを持つべきこと
以下の3つの問いに、あなたの会社は答えを持っているか。
第一に、自社はAIをどこまで使うのか。生産性向上のためのツールとして使うのか、意思決定の中核に据えるのか。その境界線を誰が、どのプロセスで決めるのか。
第二に、どの用途を許容するのか。軍事転用の可能性があるユースケースへの協力を、どのような基準で判断するか。「法的に問題ない」ことと「倫理的に正しい」ことの間のギャップに、どう向き合うか。
第三に、誰が責任を負うのか。AIが引き起こした結果に対する責任の所在を、組織として明確にしているか。技術者が「自分はコードを書いただけ」と言えるような構造になっていないか。
「AI版マンハッタン計画」は2025年の構想段階を終え、2026年に実装フェーズへと移行した。この事実を単なるテクノロジートレンドとして受け流すか、経営の核心問題として議論するか――その選択もまた、企業の「担い手」としての責任の一端である。
著者プロフィール:大野 有生
CEO・物流AIアーキテクト
(専門分野:生成AI技術研究・開発、サプライチェーン戦略、地政学・マクロ経済)
Nexgen Japan株式会社
大手IT企業・外資系金融企業にてAI・DX・サプライチェーン改革を主導する。生成AIとサプライチェーン戦略を組み合わせた企業向けアドバイザリーを行うと共に、地政学リスク下の供給網レジリエンス設計の研究・講義に従事。
| No. | 参考文献・主要情報源 |
|---|---|
| [1] | US Department of War. (2026, January 9). Artificial Intelligence Strategy for the Department of War. media.defense.gov. |
| [2] | US Department of War. (2026, January 12). War Department Launches AI Acceleration Strategy. war.gov. |
| [3] | OpenAI. (2026, February 9). Bringing ChatGPT to GenAI.mil. openai.com. |
| [4] | OpenAI. (2026, February 28 / updated March 2). Our Agreement with the Department of War. openai.com. |
| [5] | Reuters. (2026, April 9). Pentagon's ouster of Anthropic opens doors to small AI rivals. reuters.com. |
| [6] | The White House. (2025). America's AI Action Plan. whitehouse.gov. |
| [7] | National Park Service. (n.d.). Manhattan Project National Historical Park. nps.gov. |
| [8] | Scientific American. (n.d.). The Manhattan Project Shows Scientists' Moral and Ethical Responsibilities. |
| [9] | RAND. (2025, April). Beyond a Manhattan Project for Artificial General Intelligence. rand.org. |
| [10] | Atomic Heritage Foundation. (n.d.). Rotblat Account. ahf.nuclearmuseum.org. |
| [11] | The Nobel Foundation. (1995). The Nobel Peace Prize 1995 - Rotblat and Pugwash. nobelprize.org. |
| [12] | Reuters. (2024, November 19). US government commission pushes Manhattan Project-style AI initiative. |
| [13] | European Parliament. (2025). Defence and Artificial Intelligence. europarl.europa.eu. |
| [14] | DefenseScoop. (2026, February 2). Military branches adopt GenAI.mil as enterprise AI platform. defensescoop.com. |
| [15] | DefenseScoop. (2026, March 10-11). DoD GenAI Agent Designer, custom AI assistants, Google Gemini. |
※本稿の情報は2026年4月時点のものです。引用した一次資料・報道は本文中に明記しました。
Copyright © ITmedia, Inc. All Rights Reserved.

