「解き放たれた知能」と「制御された知能」のちがい
もっとも、Claudeが「答えるAI」にとどまっているわけではない。Anthropicは2026年3月23日、「computer use」機能と「Dispatch」機能を発表した。前者はアプリ操作、ブラウザ操作、ファイル編集といったPC上の作業をClaudeが自律的に実行するものであり、後者はスマートフォンからタスクを指示し、PCで自律実行、完了通知を受け取るというリモートワークフローを可能にする。既存のMacと月額サブスクリプションのみで動作し、専用環境を要するOpen Clawとは対照的に、導入障壁は低い。
しかし決定的な違いは、設計思想にある。Claudeは新しいアプリにアクセスする前に必ずユーザーの許可を求める「permission-first」の原則を貫いている。自律的に動けるが、動く前に確認する。この一点において、Open Clawとは根本的に異なる。Claudeのエージェント化は、制御を手放すことではなく、制御を保ちながら実行範囲を広げるという方向で進んでいる。
この違いを一言で言えば、Open Clawは「解き放たれた知能」であり、Claudeは「制御された知能」である。中国はAIを現場に投げ込み、使いながら最適化することを選び、米国はAIを制度の中に組み込み、管理しながら利用することを選ぶ。この対比は単なる製品の違いではない。そこには、知能を社会にどう位置づけるかという統治哲学の違いがある。
今後、「安全性」がつねに勝つとは限らない
この構造は、より大きな視点から見ると、米中の覇権競争そのものと重なっている。中国は既存のルールの外側で速度と規模を武器に現実を押さえようとする。一方で米国は、ルールや標準を設計し、それによって信頼を維持しようとする。AIエージェントの領域でも、このパターンはそのまま再現されているのである。
しかし、ここで一つの重要な問いが浮かび上がる。もしルールを作る側が、そのルールの正当性を維持できなくなったとき、何が起きるのか。米国がこれまで担ってきた「ルール設計者」としての役割が揺らぐとき、中国の「ルールの外を走る」戦略は、従来ほど不利ではなくなる。このとき競争の軸は、「ルールを守るか破るか」ではなく、「どちらが現実を支配するか」へと移行する。
Open ClawとClaudeの違いは、この大きな構造の中に位置づけられる。前者は現場を押さえ、後者は制度を押さえる。どちらが優位に立つかは、単純な性能比較では決まらない。それは、社会がどのようなAIを受け入れ、どのようなリスクを許容するのかという選択に依存する。そしてその選択は、すでにEVやレアメタルの領域で見てきたように、必ずしも「安全な側」に収斂するとは限らないのである。

