AIは「最も身近な異星人」である
この問題は、これからさらに深刻になる。AIである。
ChatGPT、Claude、Gemini――これらの存在は今、私たちの仕事の現場に入り込みつつある。AIは、人間とは異なるロジックで判断し、異なる速度で学習する。意図は見えず、内部構造はブラックボックスになりやすい。なぜその結論を出したのか、多くの場合、完全には説明できない。
つまり、AIは最も身近な「異星人」である。
ここでも同じ問いが立ち上がる。理解できない存在と、どう協働するか。
答えは変わらない。
プロトコルを設計する:AIにどんな仕事を任せ、どんな条件でアウトプットを受け取るか、ルールを明確にする
検証可能性を担保する:AIの判断結果を人間が確認できる仕組みを組み込む
ブラックボックスを減らす:説明可能なAI(XAI)の設計、監査ログの整備、出力の根拠の明示化
EU(欧州連合)のAI規制法(EU AI Act)が2024年に成立したのは、まさにこの観点からだ。「AIを信頼しよう」ではなく、「AIを検証可能にしよう」という設計思想がその根幹にある。
理解ではなく、構造で関係を作る。
これがAI時代の協働の本質だ。
孫子もマキャベリも「設計」を語っていた
実は、この「理解ではなく設計」という発想は、古典の世界にも深く刻まれている。
孫子は言う――「彼を知り己を知れば百戦殆からず」。これはよく「相手を理解せよ」という意味に解されるが、本質はむしろ逆だ。
では、トランプ氏はこの教えのどこで躓いたのか。
「彼を知る」――イランを知っていたか。1979年以来45年間、米国は一貫してイランを「理解できない敵」として扱ってきた。しかし孫子の言う「彼を知る」とは感情的理解ではない。相手の行動原理・戦略論理・交渉の優先順位を把握することだ。イランが停戦に応じながら料金所を設置し、オマーンと共同管理協定を策定し、モザイク防衛で持久戦を設計していた――この「行動パターン」を読めていれば、プロトコルの設計はまったく異なるものになっていたはずだ。
「己を知る」――米国は自分を知っていたか。「防空網はほぼ壊滅した」という過信、弾薬消耗の見通しの甘さ、イスラエルという同盟国が独自に動くという現実――これらは「己を知らなかった」ことの直接的な帰結だ。
孫子は「百戦殆からず」と言った。トランプが犯した致命的なミスは、軍事的判断の誤りではなく、「彼を知り己を知る」という2500年前の基本設計を、プロトコルに組み込まなかったことだ。相手の行動論理を読まずに設計したプロトコルは、最初の24時間で崩壊する。停戦合意から24時間でイランが「合意違反」と猛反発したのは、偶然ではなく必然だった。
「彼を知る」とは、相手の行動パターンを把握し、自軍の行動設計に反映させることを意味する。完全な理解ではなく、予測可能な行動の設計こそが戦略の核心だ。
インド古典の兵法書「アルタシャーストラ」(カウティリヤ著、紀元前4世紀)はさらに踏み込んでいる。国家間の関係を「友好」「敵対」「中立」「同盟」という機能的なカテゴリーで分類し、各関係においてどのような「プロトコル」を設計すべきかを詳細に論じている。感情的な「信頼」ではなく、構造的な「取り決め」が国家の存続を決める――という洞察は、2300年以上の時を越えて、今も有効だ。
マキャベリの『君主論』も同様だ。「愛されるより恐れられるほうが安全か?」という問いに対し、マキャベリが最終的に重視したのは「信頼」でも「愛情」でもなく、「予測可能性」だった。君主の行動が予測できないとき、人々は不安になり、社会は不安定化する。逆に、たとえ厳しくとも予測可能な君主のもとでは、秩序が保たれる。
古典が一貫して語っているのは、「設計が先、信頼は後」という原理だ。

