La Tua Tesla Parcheggiata È un Data Center
La tua auto è parcheggiata il 95% del tempo. Al suo interno c’è un chip capace di 300-500 trilioni di operazioni al secondo, collegato a sistemi di raffreddamento, conversione di potenza e una radio cellulare. Non fa nulla.
Tesla e xAI vogliono cambiare le cose. L'11 marzo, Elon Musk ha svelato “Macrohard” — chiamato internamente Digital Optimus — un progetto congiunto che trasforma le Tesla parcheggiate in agenti AI personali. Non chatbot. Agenti che osservano il tuo schermo, controllano mouse e tastiera ed eseguono lavoro reale.
Il nome è una frecciata deliberata a Microsoft. L’affermazione è che questo sistema possa “emulare le funzioni di intere aziende.” È iperbole. Ma l’architettura sottostante è reale, e l’hardware è già distribuito su larga scala.
L’Hardware È Già Lì
Tesla ha circa 4-5 milioni di veicoli sulle strade statunitensi con chip AI3 (ex HW3) o AI4. AI3 offre 144 TOPS. AI4 offre 300-500 TOPS. AI5, atteso per fine 2026, balza a 2.000-2.500 TOPS.
Non sono CPU per uso generico. Sono acceleratori di inferenza per reti neurali costruiti ad hoc — progettati per eseguire modelli di visione per la guida autonoma con basso consumo energetico e raffreddamento passivo. Le stesse caratteristiche che li rendono adatti all’elaborazione dei flussi di telecamere nel traffico li rendono adatti all’esecuzione di modelli AI in un parcheggio.
Musk aveva avanzato questa idea nella call sugli utili Q3 2025 di Tesla: se avessi 100 milioni di veicoli con 1 kW di capacità di inferenza ciascuno, sarebbero 100 gigawatt di calcolo distribuito. Il raffreddamento e la conversione di potenza sono già ingegnerizzati nel veicolo. Nessuna necessità di costruire data center.
Due Computer, Non Uno
La maggior parte delle persone pensa che una Tesla abbia un solo computer. Ne ha due.
Il chip AI (AI3/AI4/AI5) è l’acceleratore di inferenza — costruito appositamente per i forward pass delle reti neurali. Questo è il cervello. Esegue il modello dell’agente che decide cosa fare.
Il sistema di infotainment è una workstation AMD Ryzen completa:
- AMD Ryzen Embedded, 4 core Zen+ a 3,8 GHz
- 8 GB RAM (Model 3/Y) o 16 GB (Model S/X)
- AMD Navi 23 GPU (RDNA 2) — 10 TFLOPS, stessa famiglia architetturale della PS5
- 128-256 GB di storage
- Raffreddamento a liquido
Non è un autoradio. È una macchina Linux raffreddata a liquido con una GPU dedicata. Tesla ha montato la Navi 23 per permetterti di giocare a Cyberpunk 2077 sul display centrale. Ma quando l’auto è parcheggiata e nessuno sta giocando, quella è potenza di calcolo inutilizzata.
L’agente non ha bisogno di una VM cloud. L’auto è il server. Il chip AI esegue il modello. Il sistema AMD esegue un browser headless in un container — Gmail, Google Sheets, Slack, qualunque cosa su cui l’agente stia lavorando. Il raffreddamento a liquido gestisce carichi di lavoro prolungati durante la notte senza throttling termico.
L’unica cosa che lascia il veicolo è il traffico HTTPS verso le web app stesse — lo stesso traffico che genera il tuo laptop quando controlli le email. I tuoi dati non fluiscono mai attraverso i server di Tesla o xAI. L’inferenza è locale. L’area di lavoro è locale.
L’Architettura: Sistema 1 e Sistema 2
Macrohard suddivide l’inferenza su due livelli:
Sistema 1 (chip AI di Tesla) — elaborazione rapida e reattiva. Il modello sul veicolo gestisce l’osservazione in tempo reale dello schermo, i movimenti del mouse, l’input da tastiera. Questo è il livello istintivo — riconoscimento di pattern, analisi visiva, risposte immediate.
Sistema 2 (Grok di xAI) — ragionamento di alto livello. Pianificazione, processo decisionale a più fasi, comprensione del contesto. Questo gira nel cloud di xAI quando il compito richiede un pensiero più profondo.
L’auto gestisce localmente l’inferenza economica e veloce. Il ragionamento costoso avviene nel cloud. È la stessa architettura ibrida che fa funzionare FSD — l’auto elabora i flussi delle telecamere localmente con latenza in millisecondi, ma la pianificazione complessa del percorso può rinviare alla rete.
Per l’uso su computer, questo significa che l’agente può tracciare lo stato dello schermo e gestire le interazioni di routine localmente, delegando a Grok le decisioni tipo “devo approvare questa fattura” o “come devo rispondere a questa email.”
Non un Chatbot. Un Lavoratore.
La distinzione importante è ciò che questo sistema fa. Non risponde a domande. Esegue compiti.
Quando la tua Tesla è parcheggiata, Digital Optimus può:
- Elaborare email e redigere risposte
- Compilare fogli di calcolo
- Navigare nelle applicazioni web
- Completare flussi di lavoro a più fasi
- Gestire l’inserimento ripetitivo di dati
Ogni auto esegue i compiti del proprio proprietario in modo indipendente. Non c’è bisogno di distribuire una singola chiamata di inferenza tra i veicoli — l’uso del computer è parallelizzabile in modo banale. Un’auto, un agente, un compito. La scalabilità viene dalla dimensione della flotta, non dalla larghezza di banda dell’interconnessione.
Questo è importante perché la tolleranza alla latenza per l’uso del computer è generosa. Un agente che compila moduli può impiegare 30 secondi per azione ed essere comunque utile. Non stai aspettando una risposta in tempo reale — stai delegando il lavoro da eseguire mentre dormi.
Come Si Presenta nella Pratica
Dimentica i diagrammi architetturali. Ecco l’esperienza quotidiana.
L’app Tesla è il piano di controllo. Una scheda “Agent” si affianca ai controlli esistenti per la ricarica, il clima e la Sentry Mode. La usi per:
- Accodare attività — “Elabora la mia casella di posta,” “Riconcilia le ricevute della settimana scorsa,” o regole ricorrenti come “Smista le email ogni mattina alle 6”
- Collegare account — Flussi OAuth per Gmail, Google Drive, Microsoft 365, Slack
- Impostare vincoli — Soglia minima della batteria, solo WiFi, orari di lavoro
- Rivedere i risultati — Vedere cosa ha fatto l’agente, approvare o rifiutare le azioni
Sei a letto. Apri l’app Tesla, digiti “archivia la mia nota spese del viaggio della settimana scorsa,” premi invia e vai a dormire. L’auto è parcheggiata in garage, sul WiFi, batteria all'80%. Raccoglie il compito.
Il chip AI carica il modello dell’agente. Il sistema AMD avvia un browser headless in un container. L’agente apre la tua email, trova gli allegati delle ricevute, naviga verso il tool per le note spese della tua azienda, compila il modulo, allega le ricevute e salva una bozza per la tua revisione.
Mattina. Notifica push:
L’agente ha completato 3 attività mentre era parcheggiato
- Smistamento posta in arrivo: 42 email elaborate, 7 richiedono la tua revisione → [Visualizza]
- Nota spese: 12 ricevute categorizzate, bozza pronta → [Approva / Modifica]
- Calendario: 2 conflitti risolti, 1 richiede input → [Visualizza]
Apri ogni attività. L’agente mostra un registro passo-passo con screenshot del sandbox in ogni fase — come scorrere una registrazione dello schermo. Puoi vedere esattamente cosa ha fatto, perché e in quale ordine. Approvi la nota spese, ritocchi la bozza di un’email e risolvi il conflitto nel calendario. Tre minuti di revisione per otto ore di lavoro dell’agente.
La Scala di Fiducia
Nessuno affida il controllo completo del computer a un’AI dal primo giorno. OpenAI ha capito questo con Codex — il loro agente di codifica cloud che gira in un ambiente sandbox con accesso alla rete disabilitato per impostazione predefinita. Rivedi ogni modifica prima che venga applicata. La fiducia si costruisce attraverso la trasparenza.
Il rollout di Tesla seguirebbe lo stesso schema:
Fase 1: Solo lettura. L’agente legge la tua email, riassume, categorizza, segnala ciò che richiede attenzione. Non può inviare nulla, non può modificare nulla, non può cliccare “invia” su nessun modulo. Basso rischio. Immediatamente utile. Questa viene rilasciata per prima.
Fase 2: Bozza e revisione. L’agente redige risposte email, compila moduli, crea voci nei fogli di calcolo. Ogni azione richiede la tua approvazione esplicita tramite l’app Tesla prima di essere eseguita. La modalità “suggerisci” di Codex, ma per il lavoro d’ufficio.
Fase 3: Autonomia entro i limiti. Definisci le regole. “Rispondi automaticamente alle richieste di riunione se il mio calendario è libero.” “Archivia le newsletter.” “Archivia le ricevute sotto i 50 € senza chiedere.” L’agente gestisce i compiti di routine da solo e si limita a segnalare le eccezioni.
La progressione dalla fase 1 alla fase 3 potrebbe richiedere un anno. Forse due. Ma l’hardware è pronto ora. Il software deve solo guadagnarsi la fiducia.
I Vincoli Sono Reali
Batteria. Eseguire il chip AI a pieno carico scarica la batteria. Tesla dovrebbe permettere ai proprietari di impostare una soglia minima di ricarica — non eseguire inferenza se mi sveglio sotto il 50%, o eseguire solo quando collegato alla corrente. Un compenso per l’elettricità consumata è l’incentivo ovvio. Tesla potrebbe accreditare i proprietari per ogni ora di inferenza, in modo simile a come i pannelli solari rivendono energia alla rete.
Larghezza di banda. Il sandbox locale aiuta — inferenza e area di lavoro girano entrambe sull’auto. Ma il browser headless ha ancora bisogno di internet per raggiungere le web app. Il WiFi di casa quando parcheggiata in garage gestisce questo. Il cellulare funziona ma aggiunge latenza e costi dati. I carichi di lavoro pesanti (elaborazione di allegati email, download di documenti) richiedono una connessione stabile.
Temperatura. Il chip AI e il sistema AMD sono entrambi raffreddati a liquido, progettati per funzionare in auto parcheggiate a Phoenix a luglio. Ma un’inferenza sostenuta a pieno carico durante la notte è diversa dall’elaborazione a burst durante la guida. Parcheggiata in un garage o eseguita durante la notte quando le temperature ambientali scendono elimina in gran parte questa preoccupazione.
Privacy. Eseguire tutto localmente è un grande vantaggio — i tuoi dati non fluiscono attraverso i server di Tesla o xAI per il carico di lavoro del sandbox. Ma stai comunque affidandoti al software di Tesla sull’auto stessa. Un aggiornamento OTA compromesso, una vulnerabilità nel runtime del container, o un’azione scorretta dell’agente potrebbero esporre dati personali. La superficie di attacco è più piccola rispetto a un modello ospitato nel cloud, ma non è zero.
Il Parallelo con Folding@Home
Strutturalmente non è un’idea nuova. SETI@Home, Folding@Home, e più recentemente Render Network e io.net hanno tutti utilizzato hardware consumer inattivo per il calcolo distribuito. La differenza è la scala e la specializzazione.
Folding@Home ha raggiunto il picco di circa 2,4 exaFLOPS durante il COVID — un risultato straordinario costruito su donazioni volontarie di GPU da milioni di utenti. La flotta di Tesla potrebbe eguagliare o superare quel numero con hardware costruito appositamente per l’inferenza piuttosto che GPU da gaming riadattate.
Soprattutto, Folding@Home richiedeva agli utenti di installare software e aderire volontariamente. La flotta di calcolo di Tesla è già distribuita e connessa. Il costo marginale di attivare l’inferenza su un’auto parcheggiata è un aggiornamento software.
L’Economia
È qui che diventa interessante. Il chip AI è già pagato — fa parte del prezzo di acquisto del veicolo, sovvenzionato dalla vendita dell’auto. Tesla non ha bisogno di costruire data center o acquistare GPU per offrire capacità di inferenza. La spesa in conto capitale è già ammortizzata.
Se Tesla riesce a vendere ore di inferenza a prezzi inferiori ad AWS o Azure perché i suoi costi hardware sono ammortizzati attraverso le vendite dei veicoli, questo è un vantaggio strutturale che nessun cloud provider può eguagliare. Amazon non ti vende un’auto per sovvenzionare i tuoi costi di calcolo.
Per uso personale, il discorso è più semplice: possiedi già l’hardware. Il calcolo è gratuito. L’unico costo è l’elettricità, e Tesla può compensarlo con crediti o tariffe di abbonamento ridotte.
Cosa Significa Davvero
Togli il clamore e il brand “Macrohard”, e l’idea di fondo è solida: la tua auto ha due computer, raffreddamento a liquido, connettività persistente e 128-256 GB di storage. È parcheggiata 23 ore al giorno. Usarla come server personale per agenti AI è l’applicazione ovvia.
La domanda non è se l’hardware possa farlo. È se il software, la sicurezza e l’esperienza utente riusciranno a renderlo abbastanza fluido da far sì che le persone lo usino davvero. Tesla ha una storia di annunci di funzionalità anni prima che vengano rilasciate in modo affidabile. FSD è stato “in arrivo il prossimo anno” dal 2016.
Ma il deployment dell’hardware è reale. La capacità di inferenza è reale. E la domanda di agenti AI personali in grado di fare lavoro reale su computer cresce più velocemente di quanto la capacità GPU nel cloud riesca a tenere il passo.
La tua auto è parcheggiata nel vialetto in questo momento. Due computer, raffreddati a liquido, che non fanno nulla. Non sarà così ancora per molto.