記事一覧に戻る
Expert View
05.15.2026

生成AIに善悪はない――しかし「使い方を決めない経営者」には責任がある

大野 有生|CEO・物流AIアーキテクト
生成AIに善悪はない――しかし「使い方を決めない経営者」には責任がある

本記事は、ITmediaエグゼクティブに寄稿・掲載された記事を、許可を得て一部加筆・再編集のうえ転載したものです。(掲載日:2026年4月17日)

この記事のポイント

「AI版マンハッタン計画」は、もう始まっている ── 2026年1月、米国防総省は300万人規模で生成AIを全省展開。「これから来るかも」ではなく、すでに実装フェーズに入っている。

問われているのは「誰が判断するか」だ ── 米国は調達条件、中国は国家介入、欧州は法制度。判断主体の差こそが各国ガバナンスの本質で、企業が判断を手放せば供給網の一部として消費されるだけになる。

経営者は「利用者」ではなく「担い手」である ── どこまで使うか、どの用途を許容するか、誰が責任を負うか。この3つに答えを持たない経営は、使い方を決めない責任を問われる。

生成AIAIガバナンスデュアルユース経営責任マンハッタン計画

目次

  1. 2026年1月――何かが「始まった」という事実
  2. マンハッタン計画が残した問い
  3. 「構想」から「実装」へ――二段階の転換点
  4. 各国のアプローチ――制度の差ではなく、意思決定主体の差
  5. 企業は「利用者」ではなく「担い手」である

本論説は、特定の政治的イデオロギーや党派的立場に立脚するものではありません。

生成AIをはじめとする先端技術をめぐっては、推進/規制、楽観/悲観など、様々な立場からの議論が交わされています。いずれにも一定の論拠があり、社会的に意義のある議論ですが、本稿で中心に据えるのはそうしたマクロな政策論ではありません。

焦点を当てたいのは、科学技術を実際に手にして使う一人ひとりの主体者――経営者、実務者、研究者、そして市民――が、どのような倫理観を持って技術と向き合うべきか、という一点です。技術それ自体に善悪はなく、使う人間の判断と責任がその帰結を決めます。この前提に立ち、本稿が読者の皆さまにとって「使い手の倫理」を考えるきっかけとなれば幸いです。

1. 2026年1月――何かが「始まった」という事実

2026年1月9日、米国防総省(Department of War)の長官は、省内向けに一通のメモを発出した。表題は「AIファースト化の実施指示」。だがこの文書が意味することに気づけば、それが時代の転換点だったと分かる。

メモは次のように明記している。「公開後30日以内に最新の商用AIモデルを全省展開できる調達条件を標準化する(Model Parity)」「利用条件には "合法的用途は原則許容(any lawful use)"の文言を契約に組み込め」「GenAI.mil(国防総省が全職員に展開する生成AI共通基盤)に全分類レベルで300万人の職員がアクセスできる体制を整える」。

これは単なる業務効率化の通達ではない。米国防総省は生成AIを「個別部署のPoC(実証実験)」から「全省共通の業務基盤」へ格上げし、民間AI企業を国家インフラの継続的供給者として位置づける制度設計を一気に進めた。

同月12日、ピート・ヘグセス国防長官はイーロン・マスク同席のもとSpaceXで公式演説を行い、Google(Gemini)とxAI(Grok)をGenAI.milに統合すると宣言した。2月9日にはOpenAIがChatGPTのGenAI.mil統合を公式発表。2月時点で5軍種がエンタープライズ採用し、利用者は110万人に達した。

3月にはGoogleが自然言語だけで業務用AIエージェントを生成できる「Agent Designer」をGenAI.milに導入。生成AIは「チャットツール」から「業務自動化プラットフォーム」へと変貌した。一方、国防総省はAnthropicを「供給網リスク」として排除し、代替ベンダーの調達を加速。Anthropicはかねてより軍事目的での無制限利用に慎重な姿勢を示していた企業だった。

「規制によるAIの統治」ではなく、「調達条件と供給網指定によるAIの統治」――これが2026年の米国が選んだ構造である。

2. マンハッタン計画が残した問い

84年前の1942年、米国政府は一つの国家プロジェクトを始動させた。ナチス・ドイツの核開発に対抗するための極秘研究――マンハッタン計画である。現在の貨幣価値で年間約1,000億ドル(約15兆円)を投じ、オークリッジ、ハンフォード、ロスアラモスの3か所に秘密都市を建設。延べ50万人以上が従事したが、大多数は自分の仕事の最終目的を知らされていなかった。

構造を抽出すれば、マンハッタン計画には4つの本質がある。①国家主導の緊急動員、②民間(大学・企業)の総力戦への組み込み、③情報統制による社会的議論の封鎖、そして、④倫理と成果の衝突である。

計画に参加した科学者たちは、この4つ目の「衝突」において深く苦悩した。物理学者レオ・シラードは、核分裂連鎖反応の着想者でもあった。核技術は当初、「夢の新エネルギー」として人類に希望をもたらすはずだった。しかし同じ技術が原爆という破壊兵器に転用されると知るや、シラードは1945年7月、日本への無警告での使用に「道義的に問題だ」としてトルーマン大統領宛ての嘆願書を起草し、約70人の科学者の署名を集めた。請願書は上層部で揉み消され、トルーマンの目に届くことはなかった。

計画を率いたロバート・オッペンハイマーは、トリニティ実験の瞬間にヒンドゥー教典の一節「我は死神となり、世界の破壊者となれり」を思い浮かべた。広島投下後、トルーマン大統領との面会で「私の手は血で汚れている」と告白し、後に「物理学者は罪というものを知った」と公言した。

写真1. トリニティ実験の跡地に立つロバート・オッペンハイマー(中央の帽子の人物)

写真1. トリニティ実験の跡地に立つロバート・オッペンハイマー(中央の帽子の人物)、出典: Wikipedia

技術に善悪はない。同じ核技術が発電所にもなり、原爆にもなった。AIも同じ構造を持つ。

3. 「構想」から「実装」へ――二段階の転換点

フェーズ1:構想(2024〜2025年)

2024年11月、米議会の超党派委員会が「AI版マンハッタン計画」の策定を提言した。Reutersが報じたところによると、この提言は、「AGI(汎用人工知能)分野で中国に劣後しないため、マンハッタン計画規模の国家プロジェクトが必要」というものだった。OpenAIも政府資金の拠出を要求し、議会は「AI開発には信じられないほどの先行者利益がある」として公的資金の大規模投入を正当化した。

2025年1月20日、DeepSeek-R1の発表が米国に衝撃を与えた。開発コストわずか560万ドルでGPT-4oと同等の性能を達成――NVIDIAの株価は一時17%急落し、時価総額で約91兆円が吹き飛んだ。わずか2日後の同月23日、トランプ政権はこれに対抗するように、AI規制を廃止する大統領令を発出。「イデオロギー的バイアスの排除」を明記し、180日以内に新たなAI行動計画の策定を指示した。

2025年2月28日、エネルギー庁長官クリス・ライトが、オークリッジ国立研究所でOpenAIとの共催イベントに臨んだ。同研究所は、マンハッタン計画におけるウラン濃縮およびプルトニウム生産の中枢拠点であった。ここで彼は、1,000人以上の技術者を前に宣言した。「我々は新たなマンハッタン計画の始まりにいる」―― AIを「第2弾」と位置付けた。同時期、OpenAIやMetaは軍事目的でのAI使用を容認する方針に転換している。

フェーズ2:実装(2026年初頭)

2026年に入り、構想は制度・調達・運用へ移行した。

国防総省は「30日以内の最新モデル配備」を調達基準に組み込み、生成AI企業を継続供給契約者として義務化した。GenAI.milという机上の構想が、300万人規模のオペレーション基盤に姿を変えた。

機密環境への展開も現実となった。OpenAIは機密ネットワークへの商用最先端モデル導入を公表し、「国内監視禁止」「自律兵器の独立指揮禁止」をレッドラインとして契約条項に明記した。だが政府は「合法的用途は原則許容(any lawful use)」の貫徹を求め、これに応じないAnthropicを調達リストから除外した。企業の倫理方針は、国家調達という市場アクセスを通じて審判にかけられる構造が先鋭化した。

デュアルユース(軍事×民生)の時代は来るかもしれない、という話ではない。すでに「来ている」という事実をどう受け止めるか――それが今問われている。

4. 各国のアプローチ――制度の差ではなく、意思決定主体の差

2025年末から2026年にかけて、主要4勢力のAIガバナンス戦略が鮮明になった。その差異は「規制の厳しさ」という次元を超えた、より根本的な問いを含んでいる。

米国は「AIレースに勝利する」国家戦略を掲げ、州レベルのAI規制法を大統領令で無効化。欧州は世界初の包括的AI規制「EU AI Act」を成立させたが、産業競争力への影響を踏まえ「高リスクAI」の適用を2027年末まで延期を検討している。中国は生成AIサービス管理暫定規則(2023年)から一貫して規制強化を続け、2025年11月にはアルゴリズム登録と検閲の義務化とし、国家が「安全と発展」を一元管理する体制を整えた。日本は2025年12月に国家AI基本計画を閣議決定し、1兆円超のAI関連投資を表明した。

しかし、より本質的な問いは、各国のガバナンスの差は「どんな規制か」ではなく、「誰が判断するか」という点だ。 米国は調達条件を通じて民間の行動を規律する。中国は国家が直接介入する。欧州は法制度が線引きする。日本は既存法令に依拠し、民間が自主的な判断をする。「判断する主体」が異なることこそが、各国ガバナンスの本質的差異である。

マンハッタン計画では、科学者が「判断する主体」から外され、国家だけが決定を下した。シラードの請願書は揉み消された。オッペンハイマーの懺悔は大統領の激怒を買った。現代のAIにおいて、民間企業は「判断する主体」として機能しているか。あるいはすでに「供給網の一部」として消費されているだけか。

5. 企業は「利用者」ではなく「担い手」である

企業のリーダーは「AIを使う側」ではなく、AIが形成する社会の「担い手」としての立場を自覚すべきだ。マンハッタン計画が示したのは、優れた科学者でさえ、国家の大義という文脈の中では個人の良心を沈黙させ得るということだ。

現代のAI競争においても、類似のメカニズムが働きうる。「競合他社がやっているから」「政府がそう求めているから」「法的には問題ない」――これらの言葉は、かつての科学者たちが自らに語りかけた言葉と構造的に同じである。

マンハッタン計画の教訓が普遍的なのは、それが「悪人が引き起こした悲劇」ではなく「善意の専門家集団が構造的に動かされた結果」だったからだ。その潜在構造は、企業の中にも存在している。

企業経営者に生成AIを使わないことを求めているのではない。だが、少なくとも経営レベルで議論すべき問いは明確に存在する。スライドデッキに書かれた綺麗なミッションステートメントを、AI革命下でどう再解釈するか。

問いかけ――企業が今、答えを持つべきこと

以下の3つの問いに、あなたの会社は答えを持っているか。

第一に、自社はAIをどこまで使うのか。 生産性向上のためのツールとして使うのか、意思決定の中核に据えるのか。その境界線を誰が、どのプロセスで決めるのか。

第二に、どの用途を許容するのか。 軍事転用の可能性があるユースケースへの協力を、どのような基準で判断するか。「法的に問題ない」ことと「倫理的に正しい」ことの間のギャップに、どう向き合うか。

第三に、誰が責任を負うのか。 AIが引き起こした結果に対する責任の所在を、組織として明確にしているか。技術者が「自分はコードを書いただけ」と言えるような構造になっていないか。

「AI版マンハッタン計画」は2025年の構想段階を終え、2026年に実装フェーズへと突入した。この事実を単なるテクノロジートレンドとして受け流すか、経営の核心問題として議論するのか。その選択もまた、企業の「担い手」としての責任の一端である。


参考文献・主要情報源

  1. US Department of War. (2026, January 9). Artificial Intelligence Strategy for the Department of War. media.defense.gov.
  2. US Department of War. (2026, January 12). War Department Launches AI Acceleration Strategy. war.gov.
  3. OpenAI. (2026, February 9). Bringing ChatGPT to GenAI.mil. openai.com.
  4. OpenAI. (2026, February 28 / updated March 2). Our Agreement with the Department of War. openai.com.
  5. Reuters. (2026, April 9). Pentagon's ouster of Anthropic opens doors to small AI rivals. reuters.com.
  6. The White House. (2025). America's AI Action Plan. whitehouse.gov.
  7. National Park Service. (n.d.). Manhattan Project National Historical Park. nps.gov.
  8. Scientific American. (n.d.). The Manhattan Project Shows Scientists' Moral and Ethical Responsibilities.
  9. RAND. (2025, April). Beyond a Manhattan Project for Artificial General Intelligence. rand.org.
  10. Atomic Heritage Foundation. (n.d.). Rotblat Account. ahf.nuclearmuseum.org.
  11. The Nobel Foundation. (1995). The Nobel Peace Prize 1995 - Rotblat and Pugwash. nobelprize.org.
  12. Reuters. (2024, November 19). US government commission pushes Manhattan Project-style AI initiative.
  13. European Parliament. (2025). Defence and Artificial Intelligence. europarl.europa.eu.
  14. DefenseScoop. (2026, February 2). Military branches adopt GenAI.mil as enterprise AI platform. defensescoop.com.
  15. DefenseScoop. (2026, March 10-11). DoD GenAI Agent Designer, custom AI assistants, Google Gemini.

本稿の情報は2026年4月時点のものです。引用した一次資料・報道は本文中に明記しました。

大野 有生
CEO・物流AIアーキテクト

大手IT企業・外資系金融企業にてAI・DX・サプライチェーン改革を主導。生成AIとサプライチェーン戦略を組み合わせた企業向けアドバイザリーを行うと共に、地政学リスク下の供給網レジリエンス設計の研究・講義に従事。