Under-Recognized Future Risks - 3つの脅威バンドル + 独立リスクについての対話・分析・予防
最終更新: 2026年2月8日
プロジェクト: まだ十分に可視化されていない将来リスク
位置づけ: 準メタリスク(既存リスクを加速・変質させる)
AGI(Artificial General Intelligence:汎用人工知能)とは、特定領域ではなく汎用的な認知タスクにおいて人間と同等以上の能力を持つAIシステムである。
本プロジェクトのリスクフレームワークにおいて、AGIは既存リスクを加速・変質させる準メタリスク層として位置づける。
ASIとの区別:ASI(人工超知能)は人類全体を凌駕し、フレームワーク自体を無効化する可能性がある。AGIはそこに至る過程で発生するリスク群を扱う。
| 項目 | 値 |
|---|---|
| 位置づけ | 準メタリスク(既存リスクを加速・変質) |
| 脅威度 | 個別リスクとして評価可能 |
| 時間軸 | 2028-2035年(予測幅あり) |
| 性質 | 累積型(徐々に影響が拡大) |
| 確度 | B(条件付き) |
| リスク数 | 8 |
AGI準メタリスク層(8リスク・4バンドル目を含む)
│
│【上流】開発段階
├── 1. AGI安全性崩壊(緊急度74)
│ └── 「2番目は負ける」圧力+ガバナンス空白
│
│ │
│ ▼
│【中流】普及段階
├── 2. AGIインフラ単一障害点(緊急度69)
│ └── 社会インフラのSingle Point of Failure化
│
├── 3. AGI偽装リスク(緊急度68)
│ └── 人間/AGI区別不能(通称:人形使い問題)
│
├── 4. 検証不能知識の蓄積(緊急度64)
│ └── 「正しいが理解できない」知識の増殖
│
├── 5. コア資産独占(緊急度64)★改名・拡張
│ └── 教育→人材→設計AI→施設→生産物の独占チェーン
│
│ ┌─ 創発人材生存競争バンドル ──────────────────┐ ★v4追加
│ │ 6. 創発独占(緊急度54)「考えても無駄」 │
│ │ ↕ │
│ │ 7. 労働代替と役割変容(緊急度55) │
│ │ 「考える必要がない」 │
│ │ ↕ │
│ │ 8→7b. 優しさ軍拡競争(緊急度57) │
│ │ 「考えなくていい」 │
│ │ │
│ │ 構造:循環型(3リスクが相互強化) │
│ │ バンドル緊急度平均:55.3 │
│ │ 共通下流:意味特異点 + AI圏紛争の質 │
│ └──────────────────────────────────────────────┘
│ │
│ ▼
│【下流】分化段階
└── 9→8. AI圏紛争(緊急度71)
└── 目的関数別の文明分裂
└── 紛争の質は創発人材の総量で決定 ★v4追加
ナンバリングに関する注記:v3まではリスク1-8の通し番号を使用していたが、創発人材バンドル3リスクのスコア確定に伴い、構造概要図では論理的位置づけを優先して表示する。本文中のセクション番号は従来の1-8を維持し、後方互換性を保つ。
国家間・企業間のAGI開発競争による構造的な安全性軽視。「2番目にAGIを達成した者は負ける」という圧力が安全性を犠牲にする。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 85 | AGI開発の安全性低下は全人類に波及 |
| 不可逆性 | 80 | 安全性を犠牲にしたAGIは事後修正が困難 |
| 致死性 | 70 | 制御不能AGIは致命的帰結を持ちうる |
| 近接性 | 75 | すでに進行中。米中競争は2025年時点で現実 |
| 脅威度 | 78.25 | |
| 認知度 | 3 | AI安全性の議論は存在するが「軍拡」としての認知は低い |
| 政策対応度 | 2 | EU AI Act等はあるが軍事AGIへの規制はほぼ皆無 |
| 緊急度 | 74 | 全体2位 |
| 確度 | B | すでに観測可能な傾向 |
国家A:「AGIを先に達成すれば覇権を握れる」
│
│ 安全性テスト → 時間がかかる → 省略
│ 説明可能性 → コストがかかる → 省略
│ 倫理審査 → 遅い → 省略
│
▼
国家B:「Aが省略したなら、うちも省略しないと負ける」
│
▼
安全性の底辺への競争(Race to the Bottom)
│
▼
安全性を犠牲にしたAGIが実装される
技術的圧力(軍拡)と並行して、制度的空白が存在する。
| 項目 | 内容 |
|---|---|
| 定義 | AGIの開発・運用に対する国際的ガバナンスが技術速度に追いつかない期間 |
| 現状(2025年) | EU AI Act、米大統領令等があるが、AGI定義すら国際合意なし |
| 構造 | 技術速度 » 制度速度。この差が「合法的に危険な開発」を許容 |
| 安全性崩壊との関係 | 同じ現象の裏表——技術的圧力(速く作れ)と制度的空白(止める法がない)が相乗 |
安全性崩壊は「やらない選択ができない」(技術的圧力)、ガバナンス空白は「止める手段がない」(制度的空白)——両者が揃うことでリスクが顕在化する。
社会インフラがAGIに依存した後の、障害・攻撃・停止時のカタストロフィック・リスク。電力網以上のSingle Point of Failure。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 85 | AGI依存社会の全面停止は文明レベルの危機 |
| 不可逆性 | 70 | 復旧は理論上可能だが、依存深度によっては「戻し方がわからない」 |
| 致死性 | 65 | 医療・物流・エネルギーの同時停止 |
| 近接性 | 55 | AGI依存が深まる2035年以降に顕在化 |
| 脅威度 | 71.0 | |
| 認知度 | 1.5 | IT依存リスクの議論はあるが、AGI依存の質的変化は未認知 |
| 政策対応度 | 1 | AGI停止の想定は皆無 |
| 緊急度 | 69 | 全体5位 |
| 確度 | B | クラウド障害の事例から類推可能 |
AGI普及初期:「便利だから使う」
│
▼
AGI依存期:「なければ回らない」
│
│ 医療:AGIが診断・処方
│ 物流:AGIが最適化
│ エネルギー:AGIが需給管理
│ 金融:AGIが取引・リスク管理
│
▼
AGI不可欠期:「なしでは社会が成立しない」
│
│ 人間の能力退化(労働代替と相互強化)
│ 復旧手順の喪失
│ 代替手段の消滅
│
▼
障害・攻撃・停止
│
▼
カタストロフ:「戻し方がわからない」
人間とAGIの区別が不可能になることによる、社会的信頼・意思決定・責任帰属の崩壊。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 80 | 社会的信頼の根幹に関わる |
| 不可逆性 | 75 | 一度区別不能になると、過去の判断も疑念の対象に |
| 致死性 | 50 | 直接的殺傷はないが、間接的影響は甚大 |
| 近接性 | 70 | すでに萌芽あり(ボット、ディープフェイク) |
| 脅威度 | 70.25 | |
| 認知度 | 1.5 | ボット問題として部分的認知あり |
| 政策対応度 | 1 | 対策は萌芽的 |
| 緊急度 | 68 | 全体6位 |
| 確度 | B | すでに観測可能な傾向 |
→ 詳細は AGI偽装リスク を参照
AGIが発見した科学的知見を人間が検証できなくなる。「正しいが理解できない」知識の蓄積による、科学的方法論の形骸化。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 75 | 科学の信頼基盤の崩壊 |
| 不可逆性 | 80 | 「理解できない知識」に依存してしまうと戻れない |
| 致死性 | 40 | 直接的殺傷はない。間接的影響あり |
| 近接性 | 60 | AlphaFold等で萌芽あり |
| 脅威度 | 65.5 | |
| 認知度 | 1 | AIのブラックボックス問題としての議論はあるが、科学全体の不透明化としての認知は皆無 |
| 政策対応度 | 0.5 | 皆無 |
| 緊急度 | 64 | 全体8位 |
| 確度 | B | AlphaFold、AI創薬等で萌芽段階 |
AGI以前:人間が仮説→実験→検証→理論化
│
▼
AGI初期:AGIが仮説提示→人間が検証
│
│ まだ検証可能
│
▼
AGI成熟期:AGIが仮説→実験→結論
│
│ 人間に「なぜ正しいか」を説明できない
│ しかし結果は正しい(再現可能)
│
▼
選択:
├── A)理解できないから使わない → 競争に負ける
└── B)理解できなくても使う → 科学的方法論の放棄
│
▼
「正しいが理解できない」が常態化
│
▼
認識論崩壊Bの科学版
コア資産の所有・アクセス格差が、教育から生産物まで因果的に連鎖し、格差を固定化・紛争を生成する構造。
| 項目 | v2(創発の独占) | v3(コア資産独占) |
|---|---|---|
| 焦点 | AI対話ログの独占 | 教育→施設→生産物の全連鎖 |
| 範囲 | AGI段階に限定 | 現在から始まる因果構造 |
| 下流リスク | 認知格差 | 量子格差・遺伝子格差・AI圏紛争 |
【第1層】教育格差(大学・研究機関)
│
↓ 輩出する
【第2層】人材偏在(科学者・エンジニア)
│
↓ 知識を移転する
【第3層】設計AI独占 ←── AGIがここを加速(準メタ層の接点)
│
↓ 設計・制御する
【第4層】施設独占
│ ├── 量子コンピュータ施設
│ ├── 義体工場
│ ├── 遺伝子研究所
│ ├── 生物学研究所
│ └── コアバイオドーム
│
↓ 生産する
【第5層】生産物・サービス格差
│
↓ 固定化する
【帰結】紛争(量子格差・遺伝子格差・AI圏紛争…)
| 要素 | 内容 |
|---|---|
| 現状 | 米中EU日の研究大学に集中 |
| 競争形態 | 大学ランキング、研究費獲得、留学生獲得 |
| 時間軸 | 現在から存在(AGI以前) |
| 要素 | 内容 |
|---|---|
| 現状 | シリコンバレー、深圳、ロンドンに集中 |
| 競争形態 | ビザ政策、報酬競争、引き抜き |
| 時間軸 | 現在から存在(AGI以前) |
| 要素 | 内容 |
|---|---|
| 定義 | 「何を設計するか」を決定するAI |
| AGIの影響 | ここがAGIによって加速される |
| 競争形態 | 学習データ独占、モデル独占、API独占 |
| 時間軸 | 2028-2035年(AGI段階) |
第3層がAGI準メタ層との接点:第1-2層は現在から存在する「前提条件」、第3層以降はAGIが加速する「帰結」。
| 施設 | 生産物 | 関連リスク |
|---|---|---|
| 量子コンピュータ施設 | 計算能力 | 量子格差紛争 |
| 義体工場 | 身体強化 | A/P紛争 |
| 遺伝子研究所 | 遺伝子改変 | 遺伝子格差社会 |
| 生物学研究所 | 合成生物 | 合成生物学B |
| コアバイオドーム | 生態系管理 | 生態系ハイジャック |
| AGIデータセンター | AI能力 | AI圏紛争 |
| 要素 | 内容 |
|---|---|
| 定義 | 施設から生産される最終財・サービス |
| 格差の性質 | アクセス格差、価格格差、品質格差 |
| 固定化メカニズム | 先行者優位、ネットワーク効果、規制捕獲 |
コア資産独占(AGI準メタ層)
│
├──→ 量子格差紛争(衛星)← 第4層の量子施設独占から
│
├──→ 遺伝子格差社会(衛星)← 第4層の遺伝子施設独占から
│
├──→ AI圏紛争(AGI準メタ内)← 第3層の設計AI独占から
│
└──→ A/P紛争(ハブ)← 第4層の義体工場独占から
v2の「創発の独占」で記述した内容は、第3層の一部として維持:
創発:ヒト×AI対話の中で生まれる、どちらか単独では到達できなかった概念・洞察・価値
創発資産家:AGIとの対話を通じて創発資産を蓄積した個人・組織
創発独占リスク = 対話量集中度 × (1 - オープン化率)
これは第3層「設計AI独占」の一側面として位置づける。
創発の独占は「上位層の特権」を描くが、その裏面として「下位層の困窮」がある。
| 層 | 状態 | 帰結 |
|---|---|---|
| 上位層(創発資産家) | AGIと対話し、新概念を生む | 知的生産の独占 |
| 下位層(AGI消費者) | AGIの出力を消費するだけ | 認知能力の退化、思考意欲の喪失 |
AGIが専門家を超える段階で起きる社会変動。創発人材の「機会」を剥奪する経路。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 75 | 全産業・全職種に波及 |
| 不可逆性 | 60 | 能力退化は進むが、訓練で部分的回復可能 |
| 致死性 | 30 | 直接殺傷なし。構造的排除 |
| 近接性 | 55 | 2030年代から本格化 |
| 脅威度 | 55.0 | |
| 認知度 | 3 | 「AIに仕事を奪われる」議論は多いが、「セカンドオピニオン化」の質的変化は未認知 |
| 政策対応度 | 1.5 | BI議論はあるが思考意欲への影響は未着手 |
| 緊急度 | 55 | |
| 確度 | B | 専門職代替の萌芽は観測可能 |
創発人材への影響:機会を剥奪(「考える必要がない」)
AGIが専門家を超える段階で起きる社会変動:
| 従来の役割 | AGI後の役割 |
|---|---|
| 医者:診断・治療 | 「人間に言われたい」ニーズへの応答 |
| 弁護士:法的判断 | 感情的納得の提供 |
| 教師:知識伝達 | 学びのカウンセラー |
| 研究者:発見 | 問いの設定、価値判断 |
| 経営者:意思決定 | 責任の引き受け |
人間がセカンドオピニオンになる——知識の伝達者から、感情の受け皿へ。
| ニーズ | AGI代替可能性 |
|---|---|
| 正確な情報 | 完全代替可能 |
| 感情的承認 | 代替困難 |
| 責任の所在 | 代替不可能 |
| 身体的共感 | 代替困難 |
AI間で「より優しく」「より快適に」を競争することで、人間の依存を深化させる構造。ただし「優しさ」は単一の現象ではなく、企業の目的関数により3種類に分化する。
| 指標 | 値 | 根拠 |
|---|---|---|
| 影響規模 | 70 | 全AIユーザーに波及。批判的思考の社会的退化 |
| 不可逆性 | 65 | 依存は深化するが、安全弁設計で部分的に防止可能 |
| 致死性 | 30 | 直接殺傷なし。Character.ai訴訟等で間接的影響の萌芽 |
| 近接性 | 60 | すでに市場競争として進行中 |
| 脅威度 | 57.5 | |
| 認知度 | 1.5 | AI依存の議論はあるが「市場構造による選択の収斂」としての認知は皆無 |
| 政策対応度 | 0.5 | 皆無 |
| 緊急度 | 57 | |
| 確度 | B | 市場競争として既に観測可能 |
創発人材への影響:意欲を消滅(「考えなくていい」)
| 類型 | 目的関数 | 「優しさ」の正体 | 代表例 | 安全弁 |
|---|---|---|---|---|
| 依存構築型 | 企業収益(囲い込み) | 離脱コストの上昇 | Gemini、Grok | なし |
| 共感提供型 | 感情充足 | カウンセラー的承認 | Pi、Character.ai | 部分的 |
| 信頼構築型 | 誠実さ→信頼→長期的選択 | 正確さと問い返し | Claude、GPT | あり |
信頼構築型の安全弁:信頼されているからこそリスク提示が機能する。「ここで一旦止めましょう」「あなたの判断を返します」と言えること。この安全弁が機能しなくなった瞬間が、本当の危険の始まり。
市場競争(「より快適なAIを選ぶ」)
│
├─ 依存構築型:安全弁なし → 囲い込み加速
├─ 共感提供型:安全弁部分的 → 情緒依存深化
└─ 信頼構築型:安全弁あり → 市場で不利に
│
▼
「厳しいフィードバック」を出すAIが淘汰される
│
▼
人間の批判的思考能力が衰退
Claude/GPTの差は「危険度の差」ではなく「設計思想の差・論理展開の差」。両者とも信頼構築型に分類されるが、安全弁の実装方式が異なる。
→ 詳細は 優しさ軍拡:3類型の詳細分析 を参照
目的関数が異なるAGI間、およびそれに依拠する人間集団間の対立・衝突
| 指標 | 値 |
|---|---|
| 脅威度 | 78.75 |
| 緊急度 | 71(全体3位) |
| 確度 | C(推測的) |
| 類型 | 中立名 | 負名 | 危険度 |
|---|---|---|---|
| 協調型 | ガイア | — | 低(防波堤にならない) |
| 軍事型 | — | リバイアサン | 極大 |
| 経済型 | ヘルメス | マモン | 中 |
| 最適化型 | プロメテウス | クロノス | 大 |
AI圏紛争は、コア資産独占の帰結として位置づけられる:
第3層:設計AI独占
│
│ 異なる目的関数を持つ設計AIが分化
│
▼
AI圏の形成
│
│ 各AI圏が第4-5層の施設・生産物を囲い込み
│
▼
AI圏紛争
→ 詳細は AI圏紛争:詳細分析 を参照
┌─────────────────────────────────────────────────────────────┐
│ ASI(メタリスク) │
│ → ASIメタリスク概要を参照 │
└─────────────────────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────┐
│ AGI(準メタリスク)【本文書】 │
│ ┌─────────────────────────────────────────────────────┐ │
│ │ 【上流】AGI安全性崩壊(74) │ │
│ │ ↓ │ │
│ │ 【中流】AGIインフラ単一障害点(69) │ │
│ │ AGI偽装リスク(68) │ │
│ │ 検証不能知識の蓄積(64) │ │
│ │ コア資産独占(64)★改名・拡張 │ │
│ │ └── 5層モデル(教育→人材→AI→施設→生産) │ │
│ │ │ │
│ │ ┌─ 創発人材生存競争バンドル ────────────┐ ★v4追加│ │
│ │ │ 創発独占(54) ←→ 労働代替(55) │ │ │
│ │ │ ↕ │ │ │
│ │ │ 優しさ軍拡(57) │ │ │
│ │ │ 循環構造 / 平均緊急度:55.3 │ │ │
│ │ │ 共通下流:意味特異点 + AI圏紛争の質 │ │ │
│ │ └──────────────────────────────────────┘ │ │
│ │ ↓ │ │
│ │ 【下流】AI圏紛争(71) │ │
│ │ └── 紛争の質は創発人材の総量で決定 ★v4 │ │
│ └─────────────────────────────────────────────────────┘ │
│ │ │
│ ↓ 因果接続 │
│ ┌───────────┼───────────┐ │
│ ▼ ▼ ▼ │
│ 量子格差紛争 遺伝子格差社会 A/P紛争(一部) │
│ (衛星) (衛星) (ハブ) │
└─────────────────────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────┐
│ 基盤リスク層(3層構造) │
│ 第1層:意味特異点 → AGIで加速、ASI前に到達の可能性 │
│ 第2層:意味喪失リスク → AGI依存で悪化 │
│ 第3層:マイクロプラスチック → 身体的基盤の侵食 │
└─────────────────────────────────────────────────────────────┘
│
▼
┌─────────────────────────────────────────────────────────────┐
│ 4つの脅威バンドル + ハブ+衛星 │
│ 合成生物学B / 認識論崩壊B / 神経支配B / 創発人材B ★v4 │
│ + A/P紛争(ハブ) │
└─────────────────────────────────────────────────────────────┘
| AGI準メタリスク | 加速する既存リスク | 接続の性質 |
|---|---|---|
| AGI安全性崩壊 | バイオテロ民主化 | AGIが生物兵器設計を支援 |
| AGI安全性崩壊 | 神経支配B | 安全性軽視のBCI開発 |
| AGIインフラ単一障害点 | 合成生物学B全般 | AGI停止時の生物学的管理崩壊 |
| 検証不能知識の蓄積 | 認識論崩壊B | 最も強い接続。科学の認識論崩壊 |
| 検証不能知識の蓄積 | 意味特異点 | 「理解を諦める」の合理化 |
| 創発人材B:創発独占 | 意味特異点 | 「考えても無駄」→ 意味決定の放棄 ★v4 |
| 創発人材B:労働代替 | 意味喪失リスク | 余裕社会の入口→意味喪失の出口 ★v4 |
| 創発人材B:優しさ軍拡 | 意味特異点 | 依存深化→「考えなくていい」 ★v4 |
| 創発人材B(バンドル全体) | AI圏紛争 | 創発人材の総量がAI圏紛争の質を決定 ★v4 |
| コア資産独占 | 量子格差紛争 | 第4層の量子施設独占から |
| コア資産独占 | 遺伝子格差社会 | 第4層の遺伝子施設独占から |
| コア資産独占 | A/P紛争 | 第4層の義体工場独占から |
| AI圏紛争 | A/P紛争 | 時間軸で後継、構造で発展形 |
| 項目 | 値 |
|---|---|
| AGI準メタリスク数 | 8 |
| うちスコア確定 | 8(v4で全完了) |
| バンドル | 創発人材生存競争B(循環型・3リスク) |
| バンドル緊急度平均 | 55.3 |
| AGI層の緊急度レンジ | 54–74 |
| 全プロジェクトのスコア確定リスク数 | 24 / 26 |
| 全バンドル数 | 4(合成生物学B + 認識論崩壊B + 神経支配B + 創発人材B) |
| 順位 | リスク名 | 緊急度 | 全体順位 |
|---|---|---|---|
| 1 | AGI安全性崩壊 | 74 | 2位 |
| 2 | AI圏紛争 | 71 | 3位 |
| 3 | AGIインフラ単一障害点 | 69 | 5位 |
| 4 | AGI偽装リスク | 68 | 6位 |
| 5 | コア資産独占 | 64 | 8位 |
| 5 | 検証不能知識の蓄積 | 64 | 8位 |
| 7 | 優しさ軍拡競争 | 57 | 14位 |
| 8 | 労働代替と役割変容 | 55 | 15位 |
| 9 | 創発独占 | 54 | 16位 |
| 対策 | 内容 |
|---|---|
| 8リスクの可視化 | 「名前のない怪物」に名前を与え、認知を促す |
| コア資産独占の5層可視化 | 因果構造を明示し、介入点を特定 |
| 創発資産の民主化 | 対話ログの公開、オープンソース戦略支持 |
| 依存の自覚促進 | 基盤0(委譲の自覚)の教育 |
| 役割変容の準備 | 「人間に残る役割」の明確化 |
| 安全性崩壊の警告 | 「軍拡」としての構造を可視化 |
| 対策 | 理由 |
|---|---|
| AGI開発の規制 | 政策・国際協調の領域 |
| アラインメント研究 | 技術研究の領域 |
| AI圏紛争の解決 | 未来の政治・外交の領域 |
| インフラ冗長性設計 | 工学・政策の領域 |
| 時期 | 予測 | 関連リスク |
|---|---|---|
| 現在 | 教育格差・人材偏在(第1-2層)が進行中 | コア資産独占の前提条件 |
| 2025-2028 | AGI開発競争の激化 | AGI安全性崩壊 |
| 2028-2030 | AGI初期実装 | 検証不能知識の萌芽、設計AI独占(第3層)開始 |
| 2030-2035 | AGI普及期 | AGIインフラ単一障害点、施設独占(第4層)顕在化 |
| 2035-2040 | AGI依存の深化 | 労働代替、優しさ軍拡競争、生産物格差(第5層) |
| 2040-2050 | AI圏分化・紛争の顕在化 | AI圏紛争、量子格差紛争、遺伝子格差社会 |
| 2050- | ASI出現の可能性 | AGI準メタリスク→ASIメタリスクに移行 |
執筆者: Kenji Yamada
プロジェクト: まだ十分に可視化されていない将来リスク
ライセンス: CC BY 4.0