駐車中のテスラはデータセンターだ

あなたの車は95%の時間、駐車されている。その中には、毎秒300〜500兆回の演算が可能なチップが搭載されており、冷却システム、電力変換、そしてセルラー無線が備わっている。それは何もしていない。

テスラとxAIはそれを変えようとしている。3月11日、イーロン・マスクは「Macrohard」を発表した——内部では「Digital Optimus」と呼ばれる、テスラとxAIの共同プロジェクトだ。駐車中のテスラを個人AIエージェントへと変える。チャットボットではない。あなたの画面を監視し、マウスとキーボードを操作して、実際の作業をこなすエージェントだ。

この名前はマイクロソフトへの意図的な皮肉だ。このシステムは「企業全体の機能をエミュレートできる」と主張している。誇張ではある。しかし、その根底にあるアーキテクチャは本物であり、ハードウェアはすでに大規模に展開されている。

ハードウェアはすでにある

テスラはアメリカの道路上に、AI3(旧HW3)またはAI4チップを搭載した約400〜500万台の車両を持っている。AI3は144 TOPSを実現し、AI4は300〜500 TOPSを実現する。2026年末に予定されているAI5は2,000〜2,500 TOPSまで跳ね上がる。

これらは汎用CPUではない。自動運転のためのビジョンモデルを低消費電力でパッシブ冷却のまま実行するために設計された、専用のニューラルネットワーク推論アクセラレーターだ。渋滞中のカメラ映像処理に向いている特性は、駐車場でのAIモデル実行にも向いている。

マスクはテスラの2025年第3四半期決算説明会でこのアイデアを提案した:1kWの推論能力を持つ車両が1億台あれば、それは100ギガワットの分散コンピューティングになる。冷却と電力変換はすでに車両に組み込まれている。データセンターの新規構築は不要だ。

2台のコンピューター、1台ではなく

ほとんどの人はテスラに1台のコンピューターが搭載されていると思っている。実際には2台ある。

AIチップ(AI3/AI4/AI5)が推論アクセラレーターだ——ニューラルネットワークの順伝播専用に設計されている。これが脳だ。何をすべきかを決定するエージェントモデルを実行する。

インフォテインメントシステムフルスペックのAMD Ryzenワークステーションだ:

これはカーステレオではない。ディスクリートGPUを備えた水冷式Linuxマシンだ。テスラがNavi 23を搭載したのは、センターディスプレイでCyberpunk 2077をプレイできるようにするためだ。しかし、車が駐車されていて誰もゲームをしていないとき、それはアイドル状態のコンピューティングリソースだ。

エージェントはクラウドVMを必要としない。車そのものがサーバーだ。AIチップがモデルを実行する。AMDシステムがコンテナ内でヘッドレスブラウザを実行する——Gmail、Googleスプレッドシート、Slack、エージェントが作業しているものなど何でも。水冷式冷却が、サーマルスロットリングなしに終夜の継続的な作業負荷を処理する。

車両から出るのは、WebアプリへのHTTPSトラフィックだけだ——メールを確認するときにノートパソコンが生成するのと同じトラフィック。あなたのデータはテスラやxAIのサーバーを通過しない。推論はローカルで行われる。ワークスペースもローカルだ。

アーキテクチャ:システム1とシステム2

Macrohardは推論を2つのレイヤーに分割する:

車がローカルで安価で高速な推論を処理する。高価な推論はクラウドで行われる。これはFSDを機能させるのと同じハイブリッドアーキテクチャだ——車がカメラ映像をミリ秒の遅延でローカル処理しながら、複雑なルート計画はネットワークに委ねることができる。

コンピューター使用では、エージェントが画面の状態を追跡してローカルで日常的な操作を処理しながら、「この請求書を承認すべきか」や「このメールにどう返信すべきか」といった判断はGrokに委ねることができる。

チャットボットではない。ワーカーだ。

重要な違いは、このシステムが何をするかだ。質問に答えるのではない。タスクを実行するのだ。

テスラが駐車されているとき、Digital Optimusは以下のことができる:

各車がオーナーのタスクを独立して実行する。1回の推論呼び出しを複数の車両に分散させる必要はない——コンピューター使用は自明な並列化が可能だ。1台の車、1つのエージェント、1つのタスク。スケールはインターコネクト帯域幅ではなく、フリートサイズから生まれる。

これが重要なのは、コンピューター使用の遅延許容度が大きいからだ。フォーム入力エージェントは1アクションあたり30秒かかっても有用だ。リアルタイムの応答を待っているのではなく——眠っている間に実行する作業を委任しているのだ。

実際の使い勝手

アーキテクチャ図は忘れよう。日常的な体験はこうなる。

テスラアプリがコントロールプレーンだ。 充電、気候、セントリーモードの既存コントロールの隣に「エージェント」タブが表示される。それを使って:

あなたはベッドに横になっている。テスラアプリを開いて「先週の出張の経費報告書を提出して」と入力し、送信して眠りにつく。車はガレージに駐車されており、WiFiに接続され、バッテリーは80%だ。タスクを受け取る。

AIチップがエージェントモデルをロードする。AMDシステムがコンテナ内でヘッドレスブラウザを起動する。エージェントがメールを開き、領収書の添付ファイルを見つけ、会社の経費精算ツールに移動し、フォームに入力し、領収書を添付して、確認用の下書きを保存する。

朝。プッシュ通知:

駐車中にエージェントが3つのタスクを完了しました

  • 受信トレイの仕分け:42件のメールを処理、7件は要確認 → [表示]
  • 経費報告書:12件の領収書を分類、下書き完成 → [承認 / 編集]
  • カレンダー:2件の重複を解決、1件は入力が必要 → [表示]

各タスクをタップする。エージェントが各段階でのサンドボックスのスクリーンショット付きのステップバイステップログを表示する——画面録画をスクラブしているようなものだ。何をしたか、なぜしたか、どの順序でしたかが正確にわかる。経費報告書を承認し、メールの下書きを1件調整し、カレンダーの重複を解決する。8時間のエージェント作業に対して3分のレビューだ。

信頼の段階

AIに初日からコンピューターの完全な制御を渡す人はいない。OpenAIはこれをCodexで学んだ——デフォルトでネットワークアクセスが無効化されたサンドボックス環境で実行されるクラウドコーディングエージェントだ。すべての変更はリリース前にレビューする。信頼は透明性を通じて築かれる。

テスラのロールアウトも同じパターンをたどるだろう:

フェーズ1:読み取り専用。 エージェントはメールを読んで、要約し、分類し、注意が必要なものにフラグを立てる。何も送れない、何も変更できない、フォームの「送信」をクリックできない。リスクが低い。すぐに有用だ。これが最初にリリースされる。

フェーズ2:下書きとレビュー。 エージェントがメールの返信を下書きし、フォームに入力し、スプレッドシートのエントリを作成する。すべてのアクションは実行前にテスラアプリを通じた明示的な承認が必要だ。Codexの「サジェスト」モードの、オフィスワーク版だ。

フェーズ3:ガードレール内での自律実行。 ルールを定義する。「カレンダーが空いていれば会議リクエストに自動返信する」「ニュースレターをアーカイブする」「50ドル未満の領収書は確認なしに提出する」。エージェントが日常的なタスクを自律的に処理し、例外のみをエスカレーションする。

フェーズ1からフェーズ3への移行には1年かかるかもしれない。もしかしたら2年。しかし、ハードウェアは今すぐ準備できている。ソフトウェアは信頼を獲得する必要があるだけだ。

制約は現実だ

バッテリー。 AIチップをフル負荷で実行するとバッテリーが消耗する。テスラはオーナーが最低充電閾値を設定できるようにする必要がある——50%を下回る場合は推論を実行しない、またはプラグイン時のみ実行するなど。消費した電力への補償は明白なインセンティブだ。テスラはオーナーに推論時間ごとにクレジットを付与できる——ソーラーパネルが電力を電力網に売り戻すのと同様に。

帯域幅。 ローカルサンドボックスが助けになる——推論もワークスペースも車内で実行される。しかしヘッドレスブラウザはWebアプリに接続するためにインターネットが必要だ。ガレージに駐車しているときの自宅WiFiがこれを処理する。セルラーも機能するが、遅延とデータコストが増加する。重い作業負荷(メールの添付ファイルの処理、ドキュメントのダウンロード)には安定した接続が必要だ。

熱。 AIチップとAMDシステムはどちらも水冷式で、7月のフェニックスで駐車された車内で動作するよう設計されている。しかし、終夜にわたる持続的なフル負荷推論は、走行中のバースト処理とは異なる。ガレージ内での駐車や外気温が下がる夜間の実行は、この懸念をほぼ解消する。

プライバシー。 すべてをローカルで実行することは大きなアドバンテージだ——サンドボックスの作業負荷について、あなたのデータはテスラやxAIのサーバーを流れない。しかし、車内のテスラのソフトウェア自体は信頼する必要がある。侵害されたOTAアップデート、コンテナランタイムの脆弱性、または不正なエージェントのアクションが個人データを露出させる可能性がある。攻撃対象領域はクラウドホストモデルより小さいが、ゼロではない。

Folding@Homeとの類似

これは構造的には新しいアイデアではない。SETI@HomeFolding@Home、そして最近ではRender Networkio.netも、分散コンピューティングのためにアイドル状態の消費者向けハードウェアを使用してきた。違いはスケールと専門化だ。

Folding@HomeはCOVID中に約2.4エクサFLOPSでピークに達した——何百万人ものユーザーからの自発的なGPU提供によって構築された素晴らしい成果だ。テスラのフリートは、流用されたゲーミングGPUではなく推論専用に設計されたハードウェアで、それに匹敵するか超えることができるかもしれない。

さらに重要なことに、Folding@Homeはユーザーがソフトウェアをインストールしてオプトインする必要があった。テスラのコンピューティングフリートはすでに展開されて接続されている。駐車中の車で推論を有効化する限界コストはソフトウェアアップデートだ。

経済性

ここが興味深いところだ。AIチップはすでに購入済みだ——車両購入価格に含まれており、車の販売によって補助されている。テスラは推論容量を提供するためにデータセンターを構築したりGPUを購入したりする必要がない。設備投資は埋没している。

テスラがハードウェアコストを車両販売で償却しているため、AWSやAzureより安く推論時間を販売できるなら、それはいかなるクラウドプロバイダーも太刀打ちできない構造的優位性だ。Amazonはコンピューティングコストを補助するために車を売ってくれない。

個人使用では、ピッチはより簡単だ:あなたはすでにハードウェアを所有している。コンピューティングは無料だ。唯一のコストは電力であり、テスラはクレジットやサブスクリプション料金の値引きでそれを相殺できる。

これが実際に意味すること

誇大宣伝と「Macrohard」のブランディングを剥ぎ取ると、核心的なアイデアは健全だ:あなたの車には2台のコンピューター、水冷システム、持続的な接続性、そして128〜256 GBのストレージがある。1日23時間駐車されている。それを個人AIエージェントサーバーとして使うのは当然の応用だ。

問題はハードウェアがそれをできるかどうかではない。ソフトウェア、セキュリティ、ユーザーエクスペリエンスが、人々が実際に使うほどシームレスにできるかどうかだ。テスラには、信頼性を持って出荷される何年も前に機能を発表する歴史がある。FSDは2016年から「来年来る」と言われてきた。

しかし、ハードウェアの展開は本物だ。推論能力は本物だ。そして実際のコンピューター作業をこなせる個人AIエージェントへの需要は、クラウドGPU容量が追いつける以上の速度で成長している。

あなたの車は今まさにドライブウェイに駐車されている。2台のコンピューター、水冷式、何もしていない。それはもうすぐ変わるだろう。