Tu Tesla Aparcado Es un Centro de Datos
Tu coche está aparcado el 95% del tiempo. Dentro hay un chip capaz de 300-500 billones de operaciones por segundo, conectado a refrigeración, conversión de energía y una radio celular. No hace nada.
Tesla y xAI quieren cambiar eso. El 11 de marzo, Elon Musk presentó “Macrohard” — llamado internamente Digital Optimus — un proyecto conjunto que convierte los Tesla aparcados en agentes de IA personales. No chatbots. Agentes que observan tu pantalla, controlan tu ratón y teclado, y realizan trabajo real.
El nombre es una pulla deliberada a Microsoft. La afirmación es que este sistema puede “emular la función de empresas enteras.” Eso es hipérbole. Pero la arquitectura subyacente es real, y el hardware ya está desplegado a escala.
El Hardware Ya Está Ahí
Tesla tiene aproximadamente 4-5 millones de vehículos en carreteras de EE. UU. con chips AI3 (antes HW3) o AI4. AI3 ofrece 144 TOPS. AI4 ofrece 300-500 TOPS. AI5, esperado a finales de 2026, salta a 2.000-2.500 TOPS.
Estos no son CPUs de propósito general. Son aceleradores de inferencia de redes neuronales diseñados específicamente — creados para ejecutar modelos de visión para la conducción autónoma con bajo consumo energético y refrigeración pasiva. Las mismas propiedades que los hacen buenos procesando imágenes de cámaras en el tráfico los hacen buenos ejecutando modelos de IA en un aparcamiento.
Musk planteó esta idea en la llamada de resultados del tercer trimestre de 2025 de Tesla: si tuvieras 100 millones de vehículos con 1 kW de capacidad de inferencia cada uno, eso son 100 gigavatios de cómputo distribuido. La refrigeración y la conversión de energía ya están integradas en el vehículo. No se requiere construir centros de datos.
Dos Ordenadores, No Uno
La mayoría de la gente piensa que un Tesla tiene un solo ordenador. Tiene dos.
El chip de IA (AI3/AI4/AI5) es el acelerador de inferencia — diseñado específicamente para los pases hacia adelante de redes neuronales. Este es el cerebro. Ejecuta el modelo del agente que decide qué hacer.
El sistema de infoentretenimiento es una estación de trabajo AMD Ryzen completa:
- AMD Ryzen Embedded, 4 núcleos Zen+ a 3,8 GHz
- 8 GB de RAM (Model 3/Y) o 16 GB (Model S/X)
- AMD Navi 23 GPU (RDNA 2) — 10 TFLOPS, misma familia de arquitectura que la PS5
- 128-256 GB de almacenamiento
- Refrigeración líquida
Eso no es un estéreo de coche. Es una máquina Linux refrigerada por líquido con una GPU dedicada. Tesla puso el Navi 23 para que pudieras jugar a Cyberpunk 2077 en la pantalla central. Pero cuando el coche está aparcado y nadie está jugando, es cómputo inactivo.
El agente no necesita una VM en la nube. El coche es el servidor. El chip de IA ejecuta el modelo. El sistema AMD ejecuta un navegador sin cabeza en un contenedor — Gmail, Google Sheets, Slack, lo que sea en lo que el agente esté trabajando. La refrigeración líquida gestiona cargas de trabajo sostenidas durante la noche sin throttling térmico.
Lo único que sale del vehículo es tráfico HTTPS hacia las propias aplicaciones web — el mismo tráfico que genera tu portátil cuando revisas el correo electrónico. Tus datos nunca pasan por los servidores de Tesla o xAI. La inferencia es local. El espacio de trabajo es local.
La Arquitectura: Sistema 1 y Sistema 2
Macrohard divide la inferencia en dos capas:
Sistema 1 (chip de IA de Tesla) — procesamiento rápido y reactivo. El modelo en el vehículo gestiona la observación de pantalla en tiempo real, los movimientos del ratón, la entrada del teclado. Esta es la capa instintiva — reconocimiento de patrones, análisis visual, respuestas inmediatas.
Sistema 2 (Grok de xAI) — razonamiento de alto nivel. Planificación, toma de decisiones en varios pasos, comprensión del contexto. Esto se ejecuta en la nube de xAI cuando la tarea requiere un pensamiento más profundo.
El coche gestiona la inferencia barata y rápida localmente. El razonamiento costoso ocurre en la nube. Esta es la misma arquitectura híbrida que hace funcionar FSD — el coche procesa las imágenes de las cámaras localmente con latencia de milisegundos, pero la planificación de rutas complejas puede diferirse a la red.
Para el uso del ordenador, esto significa que el agente puede rastrear el estado de tu pantalla y gestionar las interacciones rutinarias localmente mientras difiere a Grok para decisiones como “¿debo aprobar esta factura?” o “¿cómo debo responder a este correo electrónico?”
No Un Chatbot. Un Trabajador.
La distinción importante es lo que hace este sistema. No responde preguntas. Realiza tareas.
Cuando tu Tesla está aparcado, Digital Optimus puede:
- Procesar correos electrónicos y redactar respuestas
- Completar hojas de cálculo
- Navegar por aplicaciones web
- Completar flujos de trabajo de varios pasos
- Gestionar la entrada repetitiva de datos
Cada coche ejecuta las tareas de su propietario de forma independiente. No hay necesidad de distribuir una sola llamada de inferencia entre vehículos — el uso del ordenador es embarazosamente paralelo. Un coche, un agente, una tarea. La escala proviene del tamaño de la flota, no del ancho de banda de interconexión.
Esto importa porque la tolerancia de latencia para el uso del ordenador es generosa. Un agente de relleno de formularios puede tardar 30 segundos por acción y seguir siendo útil. No estás esperando una respuesta en tiempo real — estás delegando trabajo para que se ejecute mientras duermes.
Cómo Se Ve en la Práctica
Olvida los diagramas de arquitectura. Aquí está la experiencia diaria.
La aplicación de Tesla es el plano de control. Una pestaña “Agente” se sitúa junto a los controles existentes de carga, climatización y Modo Centinela. La usas para:
- Poner en cola tareas — “Procesa mi bandeja de entrada,” “Reconcilia los recibos de la semana pasada,” o reglas recurrentes como “Organiza el correo electrónico cada mañana a las 6am”
- Conectar cuentas — Flujos OAuth para Gmail, Google Drive, Microsoft 365, Slack
- Establecer restricciones — Umbral mínimo de batería, solo WiFi, horario de trabajo
- Revisar resultados — Ver qué hizo el agente, aprobar o rechazar acciones
Estás tumbado en la cama. Abres la aplicación de Tesla, escribes “presenta mi informe de gastos del viaje de la semana pasada”, pulsas enviar y te vas a dormir. El coche está aparcado en el garaje, conectado al WiFi, batería al 80%. Recoge la tarea.
El chip de IA carga el modelo del agente. El sistema AMD activa un navegador sin cabeza en un contenedor. El agente abre tu correo electrónico, encuentra los archivos adjuntos de recibos, navega a la herramienta de gastos de tu empresa, rellena el formulario, adjunta los recibos y guarda un borrador para tu revisión.
Por la mañana. Notificación push:
El agente completó 3 tareas mientras estaba aparcado
- Organización de bandeja de entrada: 42 correos electrónicos procesados, 7 necesitan tu revisión → [Ver]
- Informe de gastos: 12 recibos categorizados, borrador listo → [Aprobar / Editar]
- Calendario: 2 conflictos resueltos, 1 necesita intervención → [Ver]
Entras en cada tarea. El agente muestra un registro paso a paso con capturas de pantalla del sandbox en cada etapa — como rebobinar una grabación de pantalla. Puedes ver exactamente qué hizo, por qué y en qué orden. Apruebas el informe de gastos, retoces un borrador de correo electrónico y resuelves el conflicto de calendario. Tres minutos de revisión por ocho horas de trabajo del agente.
La Escalera de Confianza
Nadie le da el control total del ordenador a una IA el primer día. OpenAI lo descubrió con Codex — su agente de codificación en la nube que se ejecuta en un entorno aislado con acceso a la red deshabilitado por defecto. Revisas cada cambio antes de que se publique. La confianza se construye a través de la transparencia.
El lanzamiento de Tesla seguiría el mismo patrón:
Fase 1: Solo lectura. El agente lee tu correo electrónico, resume, categoriza, marca lo que necesita atención. No puede enviar nada, no puede modificar nada, no puede hacer clic en “enviar” en ningún formulario. Bajo riesgo. Inmediatamente útil. Esto se lanza primero.
Fase 2: Borrador y revisión. El agente redacta respuestas de correo electrónico, rellena formularios, crea entradas en hojas de cálculo. Cada acción requiere tu aprobación explícita a través de la aplicación de Tesla antes de ejecutarse. El modo “sugerir” de Codex, pero para el trabajo de oficina.
Fase 3: Autónomo dentro de límites. Defines las reglas. “Responde automáticamente a las solicitudes de reuniones si mi calendario está libre.” “Archivar boletines informativos.” “Presentar recibos de menos de 50 € sin preguntar.” El agente gestiona las tareas rutinarias por su cuenta y solo escala las excepciones.
La progresión de la fase 1 a la fase 3 podría llevar un año. Quizás dos. Pero el hardware está listo ahora. El software solo necesita ganarse la confianza.
Las Limitaciones Son Reales
Batería. Ejecutar el chip de IA a plena carga drena la batería. Tesla tendría que permitir a los propietarios establecer un umbral mínimo de carga — no ejecutar inferencia si voy a despertar con menos del 50%, o solo ejecutar cuando está enchufado. La compensación por la electricidad consumida es el incentivo obvio. Tesla podría acreditar a los propietarios por hora de inferencia, similar a cómo los paneles solares venden energía de vuelta a la red.
Ancho de banda. El sandbox local ayuda — la inferencia y el espacio de trabajo se ejecutan en el coche. Pero el navegador sin cabeza aún necesita internet para acceder a las aplicaciones web. El WiFi doméstico cuando está aparcado en un garaje lo gestiona. El móvil funciona pero añade latencia y costes de datos. Las cargas de trabajo pesadas (procesamiento de archivos adjuntos de correo electrónico, descarga de documentos) necesitan una conexión sólida.
Temperatura. El chip de IA y el sistema AMD están ambos refrigerados por líquido, diseñados para funcionar en coches aparcados en Phoenix en julio. Pero la inferencia sostenida a plena carga durante la noche es diferente al procesamiento en ráfagas durante la conducción. Aparcado en un garaje o funcionando de noche cuando las temperaturas ambiente bajan elimina en gran medida esta preocupación.
Privacidad. Ejecutar todo localmente es una gran ventaja — tus datos no fluyen a través de los servidores de Tesla o xAI para la carga de trabajo del sandbox. Pero sigues confiando en el software de Tesla en el propio coche. Una actualización OTA comprometida, una vulnerabilidad en el runtime del contenedor, o una acción de agente deshonesto podría exponer datos personales. La superficie de ataque es más pequeña que un modelo alojado en la nube, pero no es cero.
El Paralelismo con Folding@Home
Esta no es una idea nueva en términos estructurales. SETI@Home, Folding@Home, y más recientemente Render Network e io.net han utilizado hardware de consumo inactivo para el cómputo distribuido. La diferencia es la escala y la especialización.
Folding@Home alcanzó un pico de aproximadamente 2,4 exaFLOPS durante el COVID — un logro masivo construido sobre donaciones voluntarias de GPU de millones de usuarios. La flota de Tesla podría igualar o superar eso con hardware diseñado específicamente para la inferencia en lugar de GPUs de juego reutilizadas.
Más importante aún, Folding@Home requería que los usuarios instalaran software y optaran por participar. La flota de cómputo de Tesla ya está desplegada y conectada. El coste marginal de activar la inferencia en un coche aparcado es una actualización de software.
La Economía
Aquí es donde se pone interesante. El chip de IA ya está pagado — es parte del precio de compra del vehículo, subsidiado por la venta del coche. Tesla no necesita construir centros de datos ni comprar GPUs para ofrecer capacidad de inferencia. El gasto de capital ya está amortizado.
Si Tesla puede vender horas de inferencia más baratas que AWS o Azure porque sus costes de hardware están amortizados en las ventas de vehículos, esa es una ventaja estructural que ningún proveedor de nube puede igualar. Amazon no te vende un coche para subsidiar tus costes de cómputo.
Para uso personal, el argumento es más simple: ya tienes el hardware. El cómputo es gratuito. El único coste es la electricidad, y Tesla puede compensar eso con créditos o tarifas de suscripción reducidas.
Lo Que Esto Significa en Realidad
Elimina el bombo y la marca “Macrohard”, y la idea central es sólida: tu coche tiene dos ordenadores, refrigeración líquida, conectividad persistente y 128-256 GB de almacenamiento. Está aparcado 23 horas al día. Usarlo como un servidor de agente de IA personal es la aplicación obvia.
La pregunta no es si el hardware puede hacerlo. Es si el software, la seguridad y la experiencia de usuario pueden hacerlo lo suficientemente fluido como para que la gente realmente lo use. Tesla tiene un historial de anunciar capacidades años antes de que se lancen de forma fiable. FSD ha sido “para el año que viene” desde 2016.
Pero el despliegue del hardware es real. La capacidad de inferencia es real. Y la demanda de agentes de IA personales que puedan realizar trabajo informático real está creciendo más rápido de lo que la capacidad de GPU en la nube puede seguir el ritmo.
Tu coche está aparcado en la entrada ahora mismo. Dos ordenadores, refrigerados por líquido, sin hacer nada. Eso no será cierto por mucho más tiempo.