Jouw geparkeerde Tesla is een datacentrum
Je auto staat 95% van de tijd geparkeerd. Binnenin zit een chip die 300 tot 500 biljoen bewerkingen per seconde aankan, gekoppeld aan koeling, vermogensomzetting en een mobiele radio. Hij doet niets.
Tesla en xAI willen dat veranderen. Op 11 maart onthulde Elon Musk “Macrohard” — intern Digital Optimus genoemd — een gezamenlijk project dat geparkeerde Tesla’s omzet in persoonlijke AI-agenten. Geen chatbots. Agenten die je scherm in de gaten houden, je muis en toetsenbord bedienen, en echt werk verrichten.
De naam is een bewuste steek onder water richting Microsoft. De bewering is dat dit systeem “de functie van hele bedrijven kan emuleren.” Dat is overdreven. Maar de onderliggende architectuur is reëel, en de hardware is al op grote schaal uitgerold.
De hardware is er al
Tesla heeft ruwweg 4 tot 5 miljoen voertuigen op Amerikaanse wegen met AI3- (voorheen HW3) of AI4-chips. AI3 levert 144 TOPS. AI4 levert 300-500 TOPS. AI5, verwacht eind 2026, springt naar 2.000-2.500 TOPS.
Dit zijn geen algemene CPU’s. Het zijn speciaal gebouwde inferentieversnellers voor neurale netwerken — ontworpen om visiemodellen voor zelfrijden te draaien bij laag energieverbruik en passieve koeling. Dezelfde eigenschappen die ze goed maken in het verwerken van camerabeelden in het verkeer, maken ze ook goed in het uitvoeren van AI-modellen op een parkeerplaats.
Musk opperde dit idee tijdens Tesla’s kwartaalcijfers van Q3 2025: als je 100 miljoen voertuigen hebt met elk 1 kW inferentievermogen, is dat 100 gigawatt aan gedistribueerde rekenkracht. De koeling en vermogensomzetting zijn al ingebouwd in het voertuig. Geen datacentrum nodig.
Twee computers, niet één
De meeste mensen denken dat een Tesla één computer heeft. Hij heeft er twee.
De AI-chip (AI3/AI4/AI5) is de inferentieversneller — speciaal gebouwd voor voorwaartse passes van neurale netwerken. Dit is de hersenen. Hij voert het agentmodel uit dat beslist wat er moet gebeuren.
Het infotainmentsysteem is een volledig AMD Ryzen-werkstation:
- AMD Ryzen Embedded, 4-core Zen+ op 3,8 GHz
- 8 GB RAM (Model 3/Y) of 16 GB (Model S/X)
- AMD Navi 23 GPU (RDNA 2) — 10 TFLOPS, dezelfde architectuurfamilie als de PS5
- 128-256 GB opslag
- Vloeistofgekoeld
Dat is geen autoradio. Dat is een vloeistofgekoelde Linux-machine met een discrete GPU. Tesla heeft de Navi 23 erin gezet zodat je Cyberpunk 2077 op het centrale scherm kunt spelen. Maar als de auto geparkeerd staat en niemand aan het gamen is, is het onbenutte rekenkracht.
De agent heeft geen cloud-VM nodig. De auto is de server. De AI-chip voert het model uit. Het AMD-systeem draait een headless browser in een container — Gmail, Google Sheets, Slack, wat de agent ook mee bezig is. Vloeistofkoeling handelt langdurige nachtelijke werklasten af zonder thermisch vertragen.
Het enige wat het voertuig verlaat, is HTTPS-verkeer naar de webapps zelf — hetzelfde verkeer dat je laptop genereert als je e-mail checkt. Jouw data stroomt nooit via Tesla- of xAI-servers. De inferentie is lokaal. De werkomgeving is lokaal.
De architectuur: Systeem 1 en Systeem 2
Macrohard verdeelt inferentie over twee lagen:
Systeem 1 (Tesla’s AI-chip) — snelle, reactieve verwerking. Het model op het voertuig verwerkt realtime schermobservatie, muisbewegingen en toetsenbordinvoer. Dit is de instinctieve laag — patroonherkenning, visuele parsing, directe reacties.
Systeem 2 (xAI’s Grok) — redenering op hoog niveau. Planning, meerstaps-besluitvorming, contextueel begrip. Dit draait in xAI’s cloud wanneer de taak diepgaander denken vereist.
De auto verwerkt de goedkope, snelle inferentie lokaal. Het dure redeneren vindt plaats in de cloud. Dit is dezelfde hybride architectuur die FSD laat werken — de auto verwerkt camerabeelden lokaal met milliseconde-latentie, maar complexe routeplanning kan worden uitgesteld naar het netwerk.
Voor computergebruik betekent dit dat de agent de toestand van je scherm kan bijhouden en routinematige interacties lokaal kan afhandelen, terwijl het voor beslissingen als “moet ik deze factuur goedkeuren” of “hoe moet ik op deze e-mail reageren” naar Grok doorverwijst.
Geen chatbot. Een werknemer.
Het belangrijke onderscheid is wat dit systeem doet. Het beantwoordt geen vragen. Het voert taken uit.
Als je Tesla geparkeerd staat, kan Digital Optimus:
- E-mails verwerken en reacties opstellen
- Spreadsheets invullen
- Webapplicaties navigeren
- Meerstapswerkstromen voltooien
- Repetitieve gegevensinvoer afhandelen
Elke auto voert de taken van zijn eigenaar onafhankelijk uit. Er is geen noodzaak om één inferentie-aanroep over meerdere voertuigen te verdelen — computergebruik is bij uitstek parallel. Één auto, één agent, één taak. Schaalbaarheid komt voort uit de vlootgrootte, niet uit interconnectbandbreedte.
Dit is belangrijk omdat de latentietolerantie voor computergebruik ruimhartig is. Een formulierinvulagent kan 30 seconden per actie doen en nog steeds nuttig zijn. Je wacht niet op een realtime reactie — je delegeert werk om uit te voeren terwijl je slaapt.
Hoe het er in de praktijk uitziet
Vergeet de architectuurdiagrammen. Dit is de dagelijkse ervaring.
De Tesla-app is het controlevlak. Een tabblad “Agent” staat naast de bestaande bedieningselementen voor opladen, klimaat en Sentry Mode. Je gebruikt het om:
- Taken in de wachtrij te zetten — “Verwerk mijn inbox,” “Reconcilieer de bonnetjes van vorige week,” of terugkerende regels zoals “Sorteer e-mail elke ochtend om 6 uur”
- Accounts te koppelen — OAuth-flows voor Gmail, Google Drive, Microsoft 365, Slack
- Beperkingen in te stellen — Minimale batterijdrempel, alleen WiFi, werktijden
- Resultaten te bekijken — Zie wat de agent heeft gedaan, acties goed- of afkeuren
Je ligt in bed. Je opent de Tesla-app, typt “dien mijn onkostendeclaratie in van de reis van vorige week,” drukt op verzenden en gaat slapen. De auto staat geparkeerd in de garage, op WiFi, batterij op 80%. Hij pakt de taak op.
De AI-chip laadt het agentmodel. Het AMD-systeem start een headless browser in een container. De agent opent je e-mail, vindt de bonnetjebijlagen, navigeert naar het onkostentool van je bedrijf, vult het formulier in, voegt de bonnetjes toe en slaat een concept op ter beoordeling.
Ochtend. Pushmelding:
Agent voltooide 3 taken tijdens het parkeren
- Inbox-triage: 42 e-mails verwerkt, 7 hebben je aandacht nodig → [Bekijk]
- Onkostendeclaratie: 12 bonnetjes gecategoriseerd, concept klaar → [Goedkeuren / Bewerken]
- Agenda: 2 conflicten opgelost, 1 vraagt om invoer → [Bekijk]
Je tikt op elke taak. De agent toont een stapsgewijs logboek met schermafbeeldingen van de sandbox in elke fase — alsof je door een schermopname scrolt. Je kunt precies zien wat hij heeft gedaan, waarom en in welke volgorde. Je keurt de onkostendeclaratie goed, past één e-mailconcept aan en lost het agendaconflict op. Drie minuten beoordelen voor acht uur agentwerk.
De vertrouwensladder
Niemand geeft op dag één volledige computercontrole aan een AI. OpenAI heeft dit ontdekt met Codex — hun cloud-codeeragent die in een sandbox-omgeving draait met standaard uitgeschakelde netwerktoegang. Je beoordeelt elke wijziging voordat die wordt doorgevoerd. Vertrouwen wordt opgebouwd door transparantie.
Tesla’s uitrol zou hetzelfde patroon volgen:
Fase 1: Alleen lezen. De agent leest je e-mail, vat samen, categoriseert en markeert wat aandacht vereist. Hij kan niets versturen, niets wijzigen, nergens op “verzenden” klikken. Laag risico. Direct nuttig. Dit komt als eerste.
Fase 2: Opstellen en beoordelen. De agent stelt e-mailreacties op, vult formulieren in, maakt spreadsheetinvoer aan. Elke actie vereist jouw expliciete goedkeuring via de Tesla-app voordat die wordt uitgevoerd. De “suggestie”-modus van Codex, maar dan voor kantoorwerk.
Fase 3: Autonoom binnen grenzen. Jij bepaalt de regels. “Reageer automatisch op vergaderverzoeken als mijn agenda vrij is.” “Archiveer nieuwsbrieven.” “Dien bonnetjes onder de €50 in zonder te vragen.” De agent verwerkt routinetaken zelfstandig en escaleert alleen uitzonderingen.
De overgang van fase 1 naar fase 3 kan een jaar duren. Misschien twee. Maar de hardware is nu al klaar. De software moet alleen nog vertrouwen verdienen.
De beperkingen zijn reëel
Batterij. De AI-chip op volledig vermogen laten draaien tast de batterij aan. Tesla zou eigenaars een minimale laaddrempel moeten laten instellen — voer geen inferentie uit als ik onder de 50% wakker word, of draai alleen als ik ingeplugd ben. Vergoeding voor verbruikte elektriciteit is de voor de hand liggende prikkel. Tesla zou eigenaars kunnen crediteren per inferentie-uur, vergelijkbaar met hoe zonnepanelen energie terugverkopen aan het net.
Bandbreedte. De lokale sandbox helpt — inferentie en de werkomgeving draaien beide in de auto. Maar de headless browser heeft nog steeds internet nodig om webapps te bereiken. Thuis-WiFi bij parkeren in een garage regelt dit. Mobiele data werkt maar voegt latentie en datakosten toe. Zware werklasten (e-mailbijlagen verwerken, documenten downloaden) vereisen een solide verbinding.
Thermisch. Zowel de AI-chip als het AMD-systeem zijn vloeistofgekoeld, ontworpen om te draaien in auto’s die in juli in Phoenix geparkeerd staan. Maar langdurige full-load inferentie ’s nachts verschilt van burstverwerking tijdens het rijden. Parkeren in een garage of ’s nachts draaien wanneer de omgevingstemperatuur daalt, elimineert dit probleem grotendeels.
Privacy. Alles lokaal uitvoeren is een groot voordeel — je data stroomt niet via Tesla- of xAI-servers voor de sandbox-werklast. Maar je vertrouwt nog steeds op Tesla’s software in de auto zelf. Een gecompromitteerde OTA-update, een kwetsbaarheid in de containerruntime of een frauduleuze agentactie kunnen persoonlijke gegevens blootstellen. Het aanvalsoppervlak is kleiner dan een cloud-gehost model, maar het is niet nul.
De Folding@Home-parallel
Dit is structureel geen nieuw idee. SETI@Home, Folding@Home, en meer recentelijk Render Network en io.net hebben allemaal gebruik gemaakt van inactieve consumenten-hardware voor gedistribueerde rekenkracht. Het verschil zit in schaal en specialisatie.
Folding@Home piekte op ongeveer 2,4 exaFLOPS tijdens COVID — een enorme prestatie gebouwd op vrijwillige GPU-donaties van miljoenen gebruikers. Tesla’s vloot zou dat kunnen evenaren of overtreffen met hardware die speciaal gebouwd is voor inferentie in plaats van hergebruikte gaming-GPU’s.
Nog belangrijker: Folding@Home vereiste dat gebruikers software installeerden en zich aanmeldden. Tesla’s rekenvloot is al uitgerold en verbonden. De marginale kosten van het activeren van inferentie op een geparkeerde auto zijn een software-update.
De economie
Hier wordt het interessant. De AI-chip is al betaald — het maakt deel uit van de aankoopprijs van het voertuig, gesubsidieerd door de autoverkoop. Tesla hoeft geen datacentra te bouwen of GPU’s te kopen om inferentiecapaciteit aan te bieden. De kapitaaluitgaven zijn al gedaan.
Als Tesla inferentie-uren goedkoper kan verkopen dan AWS of Azure, omdat hun hardwarekosten zijn afgeschreven over voertuigverkopen, is dat een structureel voordeel dat geen enkele cloudprovider kan evenaren. Amazon verkoopt je geen auto om je rekenkosten te subsidiëren.
Voor persoonlijk gebruik is het verhaal eenvoudiger: je bezit de hardware al. De rekenkracht is gratis. De enige kosten zijn elektriciteit, en Tesla kan dat compenseren met credits of verlaagde abonnementskosten.
Wat dit werkelijk betekent
Schrap de hype en de “Macrohard”-branding, en het kernidee is solide: je auto heeft twee computers, vloeistofkoeling, permanente connectiviteit en 128-256 GB opslag. Hij staat 23 uur per dag geparkeerd. Hem gebruiken als persoonlijke AI-agentserver is de voor de hand liggende toepassing.
De vraag is niet of de hardware het aankan. De vraag is of de software, beveiliging en gebruikerservaring het naadloos genoeg kunnen maken zodat mensen het ook daadwerkelijk gebruiken. Tesla heeft een geschiedenis van het aankondigen van mogelijkheden jaren voordat ze betrouwbaar worden geleverd. FSD is al “volgend jaar beschikbaar” sinds 2016.
Maar de hardware-uitrol is reëel. De inferentiecapaciteit is reëel. En de vraag naar persoonlijke AI-agenten die echt computerwerk kunnen verrichten, groeit sneller dan de capaciteit van cloud-GPU’s kan bijhouden.
Je auto staat nu op de oprit. Twee computers, vloeistofgekoeld, staan niets te doen. Dat zal niet lang meer zo blijven.