Votre Tesla garée est un centre de données
Votre voiture est garée 95 % du temps. À l’intérieur se trouve une puce capable de 300 à 500 billions d’opérations par seconde, connectée à un système de refroidissement, à une conversion d’alimentation et à une radio cellulaire. Elle ne fait rien.
Tesla et xAI veulent changer cela. Le 11 mars, Elon Musk a dévoilé « Macrohard » — appelé en interne Digital Optimus — un projet commun qui transforme les Tesla garées en agents IA personnels. Pas des chatbots. Des agents qui observent votre écran, contrôlent votre souris et votre clavier, et effectuent un vrai travail.
Le nom est une pique délibérée envers Microsoft. L’affirmation est que ce système peut « émuler la fonction d’entreprises entières ». C’est de l’hyperbole. Mais l’architecture sous-jacente est réelle, et le matériel est déjà déployé à grande échelle.
Le matériel est déjà là
Tesla compte environ 4 à 5 millions de véhicules sur les routes américaines équipés de puces AI3 (anciennement HW3) ou AI4. L’AI3 délivre 144 TOPS. L’AI4 délivre 300-500 TOPS. L’AI5, attendue fin 2026, fait un bond à 2 000-2 500 TOPS.
Ce ne sont pas des processeurs généralistes. Ce sont des accélérateurs d’inférence pour réseaux de neurones conçus sur mesure — pensés pour exécuter des modèles de vision pour la conduite autonome avec une faible consommation d’énergie et un refroidissement passif. Les mêmes propriétés qui les rendent efficaces pour traiter des flux de caméras dans la circulation les rendent efficaces pour faire tourner des modèles IA sur un parking.
Musk a évoqué cette idée lors de la conférence téléphonique sur les résultats du T3 2025 de Tesla : si vous aviez 100 millions de véhicules avec 1 kW de capacité d’inférence chacun, cela représente 100 gigawatts de puissance de calcul distribuée. Le refroidissement et la conversion d’alimentation sont déjà intégrés au véhicule. Aucune construction de centre de données nécessaire.
Deux ordinateurs, pas un seul
La plupart des gens pensent qu’une Tesla n’a qu’un seul ordinateur. Elle en a deux.
La puce IA (AI3/AI4/AI5) est l’accélérateur d’inférence — conçu spécifiquement pour les passes directes des réseaux de neurones. C’est le cerveau. Il exécute le modèle d’agent qui décide quoi faire.
Le système d’infodivertissement est une station de travail AMD Ryzen complète :
- AMD Ryzen Embedded, 4 cœurs Zen+ à 3,8 GHz
- 8 Go de RAM (Model 3/Y) ou 16 Go (Model S/X)
- AMD Navi 23 GPU (RDNA 2) — 10 TFLOPS, même famille d’architecture que la PS5
- 128-256 Go de stockage
- Refroidi par liquide
Ce n’est pas une autoradio. C’est une machine Linux refroidie par liquide avec un GPU dédié. Tesla a mis le Navi 23 là-dedans pour que vous puissiez jouer à Cyberpunk 2077 sur l’écran central. Mais quand la voiture est garée et que personne ne joue, c’est une puissance de calcul inutilisée.
L’agent n’a pas besoin d’une VM cloud. La voiture est le serveur. La puce IA exécute le modèle. Le système AMD fait tourner un navigateur sans interface graphique dans un conteneur — Gmail, Google Sheets, Slack, quelle que soit l’application dans laquelle l’agent travaille. Le refroidissement par liquide gère les charges de travail nocturnes soutenues sans limitation thermique.
La seule chose qui quitte le véhicule est le trafic HTTPS vers les applications web elles-mêmes — le même trafic que génère votre ordinateur portable quand vous consultez vos e-mails. Vos données ne transitent jamais par les serveurs Tesla ou xAI. L’inférence est locale. L’espace de travail est local.
L’architecture : Système 1 et Système 2
Macrohard répartit l’inférence sur deux couches :
Système 1 (puce IA de Tesla) — traitement rapide et réactif. Le modèle embarqué gère l’observation de l’écran en temps réel, les mouvements de souris, les saisies clavier. C’est la couche instinctive — correspondance de motifs, analyse visuelle, réponses immédiates.
Système 2 (Grok de xAI) — raisonnement de haut niveau. Planification, prise de décision en plusieurs étapes, compréhension du contexte. Cela s’exécute dans le cloud de xAI quand la tâche nécessite une réflexion plus approfondie.
La voiture gère l’inférence rapide et peu coûteuse localement. Le raisonnement coûteux se produit dans le cloud. C’est la même architecture hybride qui fait fonctionner le FSD — la voiture traite les flux de caméras localement avec une latence en millisecondes, mais la planification de trajets complexes peut être déléguée au réseau.
Pour l’utilisation informatique, cela signifie que l’agent peut suivre l’état de votre écran et gérer les interactions de routine localement, tout en déléguant à Grok les décisions comme « dois-je approuver cette facture » ou « comment dois-je répondre à cet e-mail ».
Pas un chatbot. Un collaborateur.
La distinction importante est ce que fait ce système. Il ne répond pas à des questions. Il effectue des tâches.
Quand votre Tesla est garée, Digital Optimus peut :
- Traiter les e-mails et rédiger des réponses
- Remplir des feuilles de calcul
- Naviguer dans des applications web
- Compléter des flux de travail en plusieurs étapes
- Gérer la saisie de données répétitives
Chaque voiture exécute les tâches de son propriétaire de manière indépendante. Il n’est pas nécessaire de distribuer un seul appel d’inférence entre les véhicules — l’utilisation informatique est massivement parallélisable. Une voiture, un agent, une tâche. La mise à l’échelle vient de la taille de la flotte, pas de la bande passante d’interconnexion.
Cela importe parce que la tolérance à la latence pour l’utilisation informatique est généreuse. Un agent de remplissage de formulaires peut prendre 30 secondes par action et rester utile. Vous n’attendez pas une réponse en temps réel — vous déléguez du travail à exécuter pendant que vous dormez.
À quoi ça ressemble concrètement
Oubliez les schémas d’architecture. Voici l’expérience quotidienne.
L’application Tesla est le plan de contrôle. Un onglet « Agent » se trouve à côté des commandes existantes pour la charge, le climat et le mode Sentinelle. Vous l’utilisez pour :
- Mettre des tâches en file d’attente — « Traiter ma boîte de réception », « Réconcilier les reçus de la semaine dernière », ou des règles récurrentes comme « Trier les e-mails chaque matin à 6h »
- Connecter des comptes — Flux OAuth pour Gmail, Google Drive, Microsoft 365, Slack
- Définir des contraintes — Seuil minimum de batterie, WiFi uniquement, heures de travail
- Consulter les résultats — Voir ce que l’agent a fait, approuver ou rejeter les actions
Vous êtes allongé dans votre lit. Vous ouvrez l’application Tesla, tapez « déposer ma note de frais du voyage de la semaine dernière », appuyez sur envoyer et allez dormir. La voiture est garée dans le garage, sur WiFi, batterie à 80 %. Elle prend en charge la tâche.
La puce IA charge le modèle d’agent. Le système AMD lance un navigateur sans interface graphique dans un conteneur. L’agent ouvre votre e-mail, trouve les pièces jointes de reçus, navigue vers l’outil de notes de frais de votre entreprise, remplit le formulaire, joint les reçus et sauvegarde un brouillon pour votre révision.
Matin. Notification push :
L’agent a terminé 3 tâches pendant le stationnement
- Tri de la boîte de réception : 42 e-mails traités, 7 nécessitent votre révision → [Voir]
- Note de frais : 12 reçus catégorisés, brouillon prêt → [Approuver / Modifier]
- Calendrier : 2 conflits résolus, 1 nécessite une intervention → [Voir]
Vous accédez à chaque tâche. L’agent affiche un journal étape par étape avec des captures d’écran du bac à sable à chaque étape — comme si vous fassiez défiler un enregistrement d’écran. Vous pouvez voir exactement ce qu’il a fait, pourquoi et dans quel ordre. Vous approuvez la note de frais, retouchez un brouillon d’e-mail et résolvez le conflit de calendrier. Trois minutes de révision pour huit heures de travail d’agent.
L’échelle de confiance
Personne ne confie le contrôle total d’un ordinateur à une IA dès le premier jour. OpenAI a compris cela avec Codex — leur agent de codage cloud qui s’exécute dans un environnement sandboxé avec l’accès réseau désactivé par défaut. Vous révisez chaque modification avant qu’elle ne soit déployée. La confiance se construit par la transparence.
Le déploiement de Tesla suivrait le même schéma :
Phase 1 : Lecture seule. L’agent lit vos e-mails, les résume, les catégorise, signale ce qui nécessite attention. Il ne peut rien envoyer, rien modifier, ne peut cliquer sur « envoyer » sur aucun formulaire. Faible risque. Immédiatement utile. C’est ce qui sort en premier.
Phase 2 : Brouillon et révision. L’agent rédige des réponses d’e-mails, remplit des formulaires, crée des entrées dans des feuilles de calcul. Chaque action nécessite votre approbation explicite via l’application Tesla avant de s’exécuter. Le mode « suggestion » de Codex, mais pour le travail de bureau.
Phase 3 : Autonomie avec garde-fous. Vous définissez des règles. « Répondre automatiquement aux demandes de réunion si mon calendrier est libre. » « Archiver les newsletters. » « Classer les reçus de moins de 50 € sans demander. » L’agent gère les tâches de routine de manière autonome et n’escalade que les exceptions.
La progression de la phase 1 à la phase 3 pourrait prendre un an. Peut-être deux. Mais le matériel est prêt maintenant. Le logiciel doit simplement mériter la confiance.
Les contraintes sont réelles
Batterie. Faire fonctionner la puce IA à pleine charge décharge la batterie. Tesla devrait permettre aux propriétaires de définir un seuil de charge minimum — ne pas exécuter l’inférence si je vais me réveiller en dessous de 50 %, ou seulement fonctionner quand branché. La compensation pour l’électricité consommée est l’incitation évidente. Tesla pourrait créditer les propriétaires par heure d’inférence, à la manière dont les panneaux solaires revendent de l’énergie au réseau.
Bande passante. Le bac à sable local aide — l’inférence et l’espace de travail s’exécutent tous les deux sur la voiture. Mais le navigateur sans interface graphique a toujours besoin d’internet pour atteindre les applications web. Le WiFi domestique quand garé dans un garage gère cela. Le cellulaire fonctionne mais ajoute de la latence et des coûts de données. Les charges de travail lourdes (traitement de pièces jointes d’e-mails, téléchargement de documents) nécessitent une connexion solide.
Thermique. La puce IA et le système AMD sont tous deux refroidis par liquide, conçus pour fonctionner dans des voitures garées à Phoenix en juillet. Mais une inférence à pleine charge soutenue pendant la nuit est différente du traitement par rafales pendant la conduite. Garé dans un garage ou fonctionnant la nuit quand les températures ambiantes baissent élimine largement cette préoccupation.
Confidentialité. Tout exécuter localement est un avantage majeur — vos données ne transitent pas par les serveurs Tesla ou xAI pour la charge de travail du bac à sable. Mais vous faites toujours confiance au logiciel Tesla sur la voiture elle-même. Une mise à jour OTA compromise, une vulnérabilité dans le runtime du conteneur, ou une action d’agent malveillante pourrait exposer des données personnelles. La surface d’attaque est plus petite qu’un modèle hébergé dans le cloud, mais elle n’est pas nulle.
Le parallèle avec Folding@Home
Ce n’est pas une idée nouvelle structurellement. SETI@Home, Folding@Home, et plus récemment Render Network et io.net ont tous utilisé le matériel grand public inactif pour le calcul distribué. La différence est l’échelle et la spécialisation.
Folding@Home a atteint un pic d’environ 2,4 exaFLOPS pendant le COVID — une réalisation massive construite sur des dons volontaires de GPU de millions d’utilisateurs. La flotte de Tesla pourrait égaler ou dépasser cela avec du matériel conçu spécifiquement pour l’inférence plutôt que des GPU de jeu réaffectés.
Plus important encore, Folding@Home exigeait que les utilisateurs installent un logiciel et s’inscrivent. La flotte de calcul de Tesla est déjà déployée et connectée. Le coût marginal d’activation de l’inférence sur une voiture garée est une mise à jour logicielle.
L’économie
C’est là que ça devient intéressant. La puce IA est déjà payée — elle fait partie du prix d’achat du véhicule, subventionnée par la vente de la voiture. Tesla n’a pas besoin de construire des centres de données ou d’acheter des GPU pour offrir de la capacité d’inférence. Les dépenses d’investissement sont amorties.
Si Tesla peut vendre des heures d’inférence moins cher qu’AWS ou Azure parce que ses coûts matériels sont amortis sur les ventes de véhicules, c’est un avantage structurel qu’aucun fournisseur cloud ne peut égaler. Amazon ne vous vend pas une voiture pour subventionner vos coûts de calcul.
Pour un usage personnel, l’argument est plus simple : vous possédez déjà le matériel. Le calcul est gratuit. Le seul coût est l’électricité, et Tesla peut compenser cela avec des crédits ou des frais d’abonnement réduits.
Ce que ça signifie vraiment
Supprimez le battage médiatique et la marque « Macrohard », et l’idée centrale est solide : votre voiture a deux ordinateurs, un refroidissement par liquide, une connectivité permanente et 128 à 256 Go de stockage. Elle est garée 23 heures par jour. L’utiliser comme serveur d’agent IA personnel est l’application évidente.
La question n’est pas de savoir si le matériel peut le faire. C’est de savoir si le logiciel, la sécurité et l’expérience utilisateur peuvent le rendre suffisamment fluide pour que les gens l’utilisent réellement. Tesla a l’habitude d’annoncer des capacités des années avant qu’elles ne soient livrées de manière fiable. Le FSD arrive « l’année prochaine » depuis 2016.
Mais le déploiement matériel est réel. La capacité d’inférence est réelle. Et la demande d’agents IA personnels capables d’effectuer un vrai travail informatique augmente plus vite que la capacité GPU cloud ne peut suivre.
Votre voiture est garée dans l’allée en ce moment même. Deux ordinateurs, refroidis par liquide, ne faisant rien. Cela ne sera plus vrai longtemps.