Dein geparkter Tesla ist ein Rechenzentrum
Dein Auto steht 95 % der Zeit geparkt. Darin sitzt ein Chip, der 300–500 Billionen Operationen pro Sekunde ausführen kann, verbunden mit Kühlung, Leistungswandlung und einem Mobilfunkmodul. Er tut nichts.
Tesla und xAI wollen das ändern. Am 11. März enthüllte Elon Musk „Macrohard" – intern Digital Optimus genannt – ein gemeinsames Projekt, das geparkte Teslas in persönliche KI-Agenten verwandelt. Keine Chatbots. Agenten, die deinen Bildschirm beobachten, Maus und Tastatur steuern und echte Arbeit erledigen.
Der Name ist ein bewusster Seitenhieb gegen Microsoft. Die Behauptung lautet, dieses System könne „die Funktion ganzer Unternehmen emulieren." Das ist Übertreibung. Aber die zugrundeliegende Architektur ist real, und die Hardware ist bereits in großem Maßstab ausgerollt.
Die Hardware ist bereits vorhanden
Tesla hat ungefähr 4–5 Millionen Fahrzeuge auf US-Straßen mit AI3- (früher HW3) oder AI4-Chips. AI3 liefert 144 TOPS. AI4 liefert 300–500 TOPS. AI5, erwartet Ende 2026, springt auf 2.000–2.500 TOPS.
Das sind keine Allzweck-CPUs. Es sind speziell entwickelte neuronale Netzwerk-Inferenzbeschleuniger – konzipiert für den Betrieb von Vision-Modellen zum autonomen Fahren mit geringem Stromverbrauch und passiver Kühlung. Dieselben Eigenschaften, die sie gut darin machen, Kamera-Feeds im Straßenverkehr zu verarbeiten, machen sie gut darin, KI-Modelle auf einem Parkplatz auszuführen.
Musk warf diese Idee auf Teslas Q3-2025-Ergebniskonferenz: Wenn man 100 Millionen Fahrzeuge mit jeweils 1 kW Inferenzkapazität hätte, wären das 100 Gigawatt verteilter Rechenleistung. Kühlung und Leistungswandlung sind bereits im Fahrzeug integriert. Kein Rechenzentrumsbau erforderlich.
Zwei Computer, nicht einer
Die meisten Menschen denken, ein Tesla hat einen Computer. Er hat zwei.
Der KI-Chip (AI3/AI4/AI5) ist der Inferenzbeschleuniger – speziell für neuronale Netzwerk-Vorwärtsdurchläufe gebaut. Das ist das Gehirn. Er führt das Agentenmodell aus, das entscheidet, was zu tun ist.
Das Infotainment-System ist ein vollständiger AMD-Ryzen-Arbeitsplatzrechner:
- AMD Ryzen Embedded, 4-Kern Zen+ mit 3,8 GHz
- 8 GB RAM (Model 3/Y) oder 16 GB (Model S/X)
- AMD Navi 23 GPU (RDNA 2) – 10 TFLOPS, gleiche Architektur wie PS5
- 128–256 GB Speicher
- Flüssigkeitsgekühlt
Das ist kein Autoradio. Das ist ein flüssigkeitsgekühlter Linux-Rechner mit diskreter GPU. Tesla hat den Navi 23 eingebaut, damit man auf dem Mitteldisplay Cyberpunk 2077 spielen kann. Aber wenn das Auto geparkt ist und niemand spielt, ist es ungenutzte Rechenleistung.
Der Agent braucht keine Cloud-VM. Das Auto ist der Server. Der KI-Chip führt das Modell aus. Das AMD-System betreibt einen Headless-Browser in einem Container – Gmail, Google Sheets, Slack, was auch immer der Agent gerade bearbeitet. Flüssigkeitskühlung bewältigt anhaltende Nachtarbeitslasten ohne thermisches Drosseln.
Das Einzige, was das Fahrzeug verlässt, ist HTTPS-Traffic zu den Web-Apps selbst – derselbe Traffic, den dein Laptop erzeugt, wenn du E-Mails abrufst. Deine Daten fließen nie durch Tesla- oder xAI-Server. Die Inferenz findet lokal statt. Der Arbeitsbereich ist lokal.
Die Architektur: System 1 und System 2
Macrohard verteilt die Inferenz auf zwei Ebenen:
System 1 (Teslas KI-Chip) – schnelle, reaktive Verarbeitung. Das fahrzeugeigene Modell übernimmt die Echtzeit-Bildschirmbeobachtung, Mausbewegungen, Tastatureingaben. Das ist die instinktive Ebene – Mustererkennung, visuelle Analyse, sofortige Reaktionen.
System 2 (xAIs Grok) – übergeordnetes Denken. Planung, mehrstufige Entscheidungsfindung, Kontextverständnis. Das läuft in xAIs Cloud, wenn die Aufgabe tieferes Nachdenken erfordert.
Das Auto erledigt die günstige, schnelle Inferenz lokal. Das aufwändige Reasoning findet in der Cloud statt. Das ist dieselbe Hybridarchitektur, die FSD zum Funktionieren bringt – das Auto verarbeitet Kamera-Feeds lokal mit Millisekunden-Latenz, aber komplexe Routenplanung kann ans Netzwerk delegiert werden.
Für Computer-Nutzung bedeutet das, dass der Agent deinen Bildschirmzustand verfolgen und routinemäßige Interaktionen lokal abwickeln kann, während er für Entscheidungen wie „Soll ich diese Rechnung freigeben?" oder „Wie soll ich auf diese E-Mail antworten?" auf Grok zurückgreift.
Kein Chatbot. Ein Arbeiter.
Der wichtige Unterschied liegt darin, was dieses System tut. Es beantwortet keine Fragen. Es führt Aufgaben aus.
Wenn dein Tesla geparkt ist, kann Digital Optimus:
- E-Mails verarbeiten und Antworten entwerfen
- Tabellenkalkulationen ausfüllen
- Webanwendungen navigieren
- Mehrstufige Arbeitsabläufe abschließen
- Repetitive Dateneingaben erledigen
Jedes Auto führt die Aufgaben seines Besitzers unabhängig aus. Es gibt keine Notwendigkeit, einen einzelnen Inferenzaufruf auf mehrere Fahrzeuge zu verteilen – Computer-Nutzung ist trivial parallelisierbar. Ein Auto, ein Agent, eine Aufgabe. Die Skalierung ergibt sich aus der Flottengrüße, nicht aus der Verbindungsbandbreite.
Das ist wichtig, weil die Latenztoleranz für Computer-Nutzung großzügig ist. Ein Formularausfüll-Agent kann 30 Sekunden pro Aktion benötigen und trotzdem nützlich sein. Du wartest nicht auf eine Echtzeit-Antwort – du delegierst Arbeit, die während du schläfst erledigt wird.
Wie es tatsächlich aussieht
Vergiss die Architekturdiagramme. Hier ist die tägliche Erfahrung.
Die Tesla-App ist die Steuerungsebene. Ein „Agent"-Tab befindet sich neben den bestehenden Steuerelementen für Laden, Klimaanlage und Sentry Mode. Du verwendest ihn um:
- Aufgaben in die Warteschlange zu stellen – „Mein Posteingang verarbeiten", „Belege der letzten Woche abgleichen" oder wiederkehrende Regeln wie „E-Mails jeden Morgen um 6 Uhr sortieren"
- Konten zu verbinden – OAuth-Flows für Gmail, Google Drive, Microsoft 365, Slack
- Einschränkungen festzulegen – Mindestladelevel, nur WLAN, Arbeitszeiten
- Ergebnisse zu überprüfen – Sehen, was der Agent getan hat, Aktionen genehmigen oder ablehnen
Du liegst im Bett. Du öffnest die Tesla-App, tippst „Meine Spesenabrechnung von der Reise letzte Woche einreichen", drückst Absenden und gehst schlafen. Das Auto steht in der Garage, ist im WLAN, Akku bei 80 %. Es nimmt die Aufgabe auf.
Der KI-Chip lädt das Agentenmodell. Das AMD-System startet einen Headless-Browser in einem Container. Der Agent öffnet deine E-Mail, findet die Beleganhänge, navigiert zum Spesentool deines Unternehmens, füllt das Formular aus, hängt die Belege an und speichert einen Entwurf zur Überprüfung.
Morgen. Push-Benachrichtigung:
Agent hat 3 Aufgaben während des Parkens abgeschlossen
- Posteingang-Sortierung: 42 E-Mails verarbeitet, 7 benötigen deine Überprüfung → [Ansehen]
- Spesenabrechnung: 12 Belege kategorisiert, Entwurf bereit → [Genehmigen / Bearbeiten]
- Kalender: 2 Konflikte gelöst, 1 erfordert Eingabe → [Ansehen]
Du tippst auf jede Aufgabe. Der Agent zeigt ein schrittweises Protokoll mit Screenshots des Sandkastens in jeder Phase – wie das Vorspulen einer Bildschirmaufzeichnung. Du kannst genau sehen, was er getan hat, warum und in welcher Reihenfolge. Du genehmigst die Spesenabrechnung, passt einen E-Mail-Entwurf an und löst den Kalenderkonflikt. Drei Minuten Überprüfung für acht Stunden Agentenarbeit.
Die Vertrauensleiter
Niemand gibt einem KI-System am ersten Tag die vollständige Computerkontrolle. OpenAI hat das mit Codex herausgefunden – ihrem Cloud-Codier-Agenten, der in einer Sandbox-Umgebung mit standardmäßig deaktiviertem Netzwerkzugang läuft. Du überprüfst jede Änderung, bevor sie umgesetzt wird. Vertrauen entsteht durch Transparenz.
Teslas Einführung würde demselben Muster folgen:
Phase 1: Nur-Lesen. Der Agent liest deine E-Mail, fasst zusammen, kategorisiert, markiert, was Aufmerksamkeit braucht. Er kann nichts senden, nichts ändern, auf keinem Formular auf „Absenden" klicken. Geringes Risiko. Sofort nützlich. Das kommt zuerst.
Phase 2: Entwerfen und Überprüfen. Der Agent entwirft E-Mail-Antworten, füllt Formulare aus, erstellt Tabellenkalkulationseinträge. Jede Aktion erfordert deine ausdrückliche Genehmigung über die Tesla-App, bevor sie ausgeführt wird. Codex’ „Vorschlags"-Modus, aber für Büroarbeit.
Phase 3: Autonom innerhalb von Leitplanken. Du definierst Regeln. „Automatisch auf Besprechungsanfragen antworten, wenn mein Kalender frei ist." „Newsletter archivieren." „Belege unter 50 $ ohne Nachfrage einreichen." Der Agent erledigt Routineaufgaben selbstständig und eskaliert nur Ausnahmen.
Der Übergang von Phase 1 zu Phase 3 könnte ein Jahr dauern. Vielleicht zwei. Aber die Hardware ist jetzt bereit. Die Software muss nur noch Vertrauen aufbauen.
Die Einschränkungen sind real
Akku. Der KI-Chip bei Volllast zu betreiben entlädt den Akku. Tesla müsste es Besitzern erlauben, eine Mindestladegrenze festzulegen – keine Inferenz ausführen, wenn ich unter 50 % aufwache, oder nur laufen, wenn das Auto eingesteckt ist. Vergütung für verbrauchten Strom ist der offensichtliche Anreiz. Tesla könnte Besitzern pro Inferenzstunde Guthaben gutschreiben, ähnlich wie Solaranlagen Energie ins Netz einspeisen.
Bandbreite. Die lokale Sandbox hilft – Inferenz und der Arbeitsbereich laufen beide auf dem Auto. Aber der Headless-Browser braucht trotzdem Internet, um Webanwendungen zu erreichen. Heim-WLAN, wenn in einer Garage geparkt, bewältigt das. Mobilfunk funktioniert, fügt aber Latenz und Datenkosten hinzu. Schwere Arbeitslasten (E-Mail-Anhänge verarbeiten, Dokumente herunterladen) benötigen eine solide Verbindung.
Wärme. Der KI-Chip und das AMD-System sind beide flüssigkeitsgekühlt, entwickelt für den Betrieb in Autos, die im Juli in Phoenix geparkt sind. Aber anhaltende Volllast-Inferenz über Nacht ist etwas anderes als Burst-Verarbeitung während der Fahrt. In einer Garage geparkt oder über Nacht betrieben, wenn die Umgebungstemperaturen sinken, beseitigt dieses Problem weitgehend.
Privatsphäre. Alles lokal auszuführen ist ein großer Vorteil – deine Daten fließen nicht durch Tesla- oder xAI-Server für die Sandbox-Arbeitslast. Aber du vertraust immer noch Teslas Software auf dem Auto selbst. Ein kompromittiertes OTA-Update, eine Schwachstelle in der Container-Laufzeit oder eine fehlerhafte Agentenaktion könnte persönliche Daten preisgeben. Die Angriffsfläche ist kleiner als bei einem cloud-gehosteten Modell, aber nicht null.
Die Folding@Home-Parallele
Das ist strukturell keine neue Idee. SETI@Home, Folding@Home und neuerdings Render Network und io.net haben alle untätige Consumer-Hardware für verteiltes Rechnen genutzt. Der Unterschied ist Maßstab und Spezialisierung.
Folding@Home erreichte seinen Höhepunkt bei etwa 2,4 ExaFLOPS während COVID – eine enorme Leistung, die auf freiwilligen GPU-Spenden von Millionen Nutzern aufgebaut wurde. Teslas Flotte könnte das mit Hardware übertreffen, die speziell für Inferenz gebaut wurde und keine umgewidmeten Gaming-GPUs sind.
Noch wichtiger: Folding@Home erforderte, dass Nutzer Software installierten und sich anmeldeten. Teslas Rechenflotte ist bereits ausgerollt und verbunden. Die marginalen Kosten für die Aktivierung von Inferenz auf einem geparkten Auto sind ein Software-Update.
Die Wirtschaftlichkeit
Hier wird es interessant. Der KI-Chip ist bereits bezahlt – er ist Teil des Fahrzeugkaufpreises, subventioniert durch den Autoverkauf. Tesla muss keine Rechenzentren bauen oder GPUs kaufen, um Inferenzkapazität anzubieten. Die Investitionsausgaben sind versunken.
Wenn Tesla Inferenzstunden günstiger verkaufen kann als AWS oder Azure, weil ihre Hardwarekosten über Fahrzeugverkäufe amortisiert sind, ist das ein struktureller Vorteil, den kein Cloud-Anbieter replizieren kann. Amazon verkauft dir kein Auto, um deine Rechenkosten zu subventionieren.
Für den persönlichen Gebrauch ist das Angebot einfacher: Du besitzt die Hardware bereits. Die Rechenleistung ist kostenlos. Die einzigen Kosten sind Strom, und Tesla kann das mit Guthaben oder reduzierten Abonnementgebühren ausgleichen.
Was das eigentlich bedeutet
Streiche den Hype und das „Macrohard"-Branding weg, und die Kernidee ist solide: Dein Auto hat zwei Computer, Flüssigkeitskühlung, dauerhafte Konnektivität und 128–256 GB Speicher. Es ist 23 Stunden am Tag geparkt. Es als persönlichen KI-Agenten-Server zu nutzen ist die naheliegende Anwendung.
Die Frage ist nicht, ob die Hardware es kann. Es ist, ob Software, Sicherheit und Benutzererfahrung es nahtlos genug machen können, dass Menschen es tatsächlich verwenden. Tesla hat eine Geschichte von Ankündigungen von Fähigkeiten Jahre bevor sie zuverlässig ausgeliefert werden. FSD ist seit 2016 „nächstes Jahr fällig".
Aber der Hardware-Einsatz ist real. Die Inferenzfähigkeit ist real. Und die Nachfrage nach persönlichen KI-Agenten, die echte Computerarbeit erledigen können, wächst schneller als Cloud-GPU-Kapazität mithalten kann.
Dein Auto steht jetzt auf der Einfahrt geparkt. Zwei Computer, flüssigkeitsgekühlt, tun nichts. Das wird nicht mehr lange so sein.