Via Parkita Tesla estas Datumcentro
Via aŭto estas parkita 95% de la tempo. Ene sidas blato kapabla je 300-500 duilionoj da operacioj sekunde, konektita al malvarumigo, energiokonvertado kaj ĉela radio. Ĝi faras nenion.
Tesla kaj xAI volas ŝanĝi tion. La 11-an de marto, Elon Musk malkaŝis “Macrohard” — interne nomitan Digital Optimus — komunan projekton kiu transformas parkitajn Teslojn en personajn AI-agentojn. Ne babilejon. Agentojn kiuj observas vian ekranon, regas vian muson kaj klavaron, kaj efektive laboras.
La nomo estas intenca piketo kontraŭ Microsoft. La aserto estas ke ĉi tiu sistemo povas “emuli la funkcion de tutaj kompanioj.” Tio estas hiperbolo. Sed la subesta arkitekturo estas reala, kaj la aparataro jam estas deplojita en granda skalo.
La Aparataro Jam Estas Tie
Tesla havas ĉirkaŭ 4-5 milionojn da veturiloj sur usonaj vojoj kun AI3 (antaŭe HW3) aŭ AI4 blatoj. AI3 liveras 144 TOPS. AI4 liveras 300-500 TOPS. AI5, atendita fine de 2026, saltas al 2,000-2,500 TOPS.
Ĉi tiuj ne estas ĝeneraluzeblaj procesoroj. Ili estas specialkonstruitaj akcelerantoj por neŭrala reto inferenĉo — dezajnitaj por ruli vidiajn modelojn por memgvida veturo kun malalta energiokonsumado kaj pasiva malvarumigo. La samaj ecoj kiuj igas ilin bonaj pri traktado de fotilfluksoj en trafiko igas ilin bonaj pri rulado de AI-modeloj en parkejo.
Musk eligis ĉi tiun ideon dum la Tesla Q3 2025 enspezraporta alvoko: se vi havus 100 milionojn da veturiloj kun 1kW de inferenckapablo ĉiu, tio estas 100 gigavatoj da distribuita komputado. La malvarumigo kaj energiokonvertado jam estas inĝenieritaj en la veturilon. Nenio postulata por konstrui datumcentron.
Du Komputiloj, Ne Unu
Plej multaj homoj pensas ke Tesla havas unu komputilon. Ĝi havas du.
La AI-blato (AI3/AI4/AI5) estas la inferenĉakcelerantilo — specialkonstruita por neŭralaj retoj. Tio estas la cerbo. Ĝi rulas la agentan modelon kiu decidas kion fari.
La infodistra sistemo estas plena AMD Ryzen laborstacio:
- AMD Ryzen Embedded, 4-kerna Zen+ je 3.8 GHz
- 8 GB RAM (Modelo 3/Y) aŭ 16 GB (Modelo S/X)
- AMD Navi 23 GPU (RDNA 2) — 10 TFLOPS, sama arkitektura familio kiel PS5
- 128-256 GB konservado
- Likve-malvarumigita
Tio ne estas aŭtoradio. Tio estas likve-malvarumigita Linuksa maŝino kun diskreta GPU. Tesla metis la Navi 23 tien por ke vi povu ludi Cyberpunk 2077 sur la centra ekrano. Sed kiam la aŭto estas parkita kaj neniu ludas, ĝi estas malaktiva komputilo.
La agento ne bezonas nuban virtualan maŝinon. La aŭto estas la servilo. La AI-blato rulas la modelon. La AMD-sistemo ekfunkcias kaparan retumilon en ujo — Gmail, Google Sheets, Slack, aŭ ajn aplikon en kiu la agento laboras. Likva malvarumigo traktas daŭrantajn noktajn laborŝarĝojn sen termika trotlado.
La sola trafiko kiu forlasas la veturilon estas HTTPS-trafiko al la retaj aplikoj mem — la sama trafiko kiun via tekokomputilo generas kiam vi kontrolas retpoŝton. Viaj datumoj neniam fluas tra Tesla aŭ xAI-serviloj. La inferenĉo estas loka. La laborspaco estas loka.
La Arkitekturo: Sistemo 1 kaj Sistemo 2
Macrohard dividas inferenĉon trans du tavolojn:
Sistemo 1 (la AI-blato de Tesla) — rapida, reagema traktado. La sur-veturila modelo traktas realtempan ekranobservon, muspelojn, klavararajnon. Tio estas la instinkta tavolo — ŝablona kongruado, vida analizado, tujaj respondoj.
Sistemo 2 (Grok de xAI) — alta-nivela rezonado. Planado, plurpaŝa decidiĝo, komprenado de kunteksto. Tio funkcias en la nubo de xAI kiam la tasko postulas pli profundan pensadon.
La aŭto traktas la malmultekostan, rapidan inferenĉon loke. La multekosta rezonado okazas en la nubo. Tio estas la sama hibridalgo arkitekturo kiu igas FSD labori — la aŭto traktas fotilfluksojn loke je milisekunda latenteco, sed kompleksa itineroplanado povas prokrasti al la reto.
Por komputila uzado, tio signifas ke la agento povas spuri vian ekranstaton kaj trakti rutinajn interagojn loke dum prokrastado al Grok por decidoj kiel “ĉu mi aprobu ĉi tiun fakturon” aŭ “kiel mi respondu al ĉi tiu retpoŝto.”
Ne Babilejon. Laboriston.
La grava distingo estas kion ĉi tiu sistemo faras. Ĝi ne respondas demandojn. Ĝi plenumas taskojn.
Kiam via Tesla estas parkita, Digital Optimus povas:
- Trakti retpoŝtojn kaj malneti respondojn
- Plenigi kalkultabelojn
- Navigadi retajn aplikojn
- Plenumi plurpaŝajn laborflujojn
- Trakti ripeteman datumenigulon
Ĉiu aŭto rulas la taskojn de ĝia posedanto sendepende. Ne necesas distribui unu inferencvokon trans veturilojn — komputila uzado estas embarase paralela. Unu aŭto, unu agento, unu tasko. Skalo venas el flota grandeco, ne interkonekta bendolarĝo.
Tio gravas ĉar la latenta toleremo por komputila uzado estas malavara. Formpleniga agento povas preni 30 sekundojn por ago kaj tamen esti utila. Vi ne atendas realtempan respondon — vi delegas laboron por ruladi dum vi dormas.
Kio Ĝi Efektive Aspektas
Forgesu la arkitekturajn diagramojn. Jen la ĉiutaga sperto.
La Tesla-aplikaĵo estas la kontrolebeno. “Agenta” langeto sidas apud la ekzistantaj regiloj por ŝargado, klimato kaj Gardovidado (Sentry Mode). Vi uzas ĝin por:
- Enkui taskojn — “Traktu mian alvendonon,” “Spegulu kvitancojn de la pasinta semajno,” aŭ rekurantajn regulojn kiel “Triagu retpoŝton ĉiun matenon je 6am”
- Konekti kontojn — OAuth-fluoj por Gmail, Google Drive, Microsoft 365, Slack
- Agordi limigojn — Minimumo baterio-sojlo, nur-WiFi, laborhoroj
- Revizii rezultojn — Vidi kion la agento faris, aprobi aŭ malakcepti agojn
Vi kuŝas en lito. Vi malfermas la Tesla-aplikaĵon, tajpas “dosieri mian elspezraporton de la vojaĝo de la pasinta semajno,” premas sendi, kaj eniras dormejn. La aŭto estas parkita en la garejo, sur WiFi, baterio je 80%. Ĝi prenas la taskon.
La AI-blato ŝargas la agentan modelon. La AMD-sistemo ekfunkcias kaparan retumilon en ujo. La agento malfermas vian retpoŝton, trovas la kvitancaldonaĵojn, navigadas al la elspezilo de via kompanio, plenigas la formularon, aldonas la kvitancojn, kaj konservas projekton por via revizio.
Mateno. Puŝa sciigo:
Agento plenumis 3 taskojn dum parkado
- Alvendona triagado: 42 retpoŝtoj traktitaj, 7 bezonas vian revizion → [Vidi]
- Elspezraporto: 12 kvitancoj kategoriigitaj, projekto preta → [Aprobi / Redakti]
- Kalendaro: 2 konfliktoj solvitaj, 1 bezonas enigon → [Vidi]
Vi klaketas en ĉiun taskon. La agento montras paŝon-post-paŝo protokolon kun ekrankopioj de la sablokesto en ĉiu etapo — kiel bobene tra ekrana registraĵo. Vi povas vidi precize kion ĝi faris, kial, kaj en kiu ordo. Vi aprovas la elspezraporton, ĝustigas unu retpoŝtan projekton, kaj solvas la kalendarkonfliktojn. Tri minutoj da revizio por ok horoj da agenta laboro.
La Fida Ŝtuparo
Neniu donas plenan komputilan kontrolon al AI en la unua tago. OpenAI ekkomprenis tion kun Codex — ilia nuba kodiga agento kiu funkcias en sablokesta medio kun reto-aliro malfunkciigita defaŭlte. Vi reviziias ĉiun ŝanĝon antaŭ ol ĝi transsendas. Fido konstruiĝas per travidebleco.
La lanĉo de Tesla sekvus la saman ŝablonon:
Fazo 1: Nur-lega. La agento legas vian retpoŝton, resumas, kategoriigas, markas kio bezonas atenton. Ĝi ne povas sendi ion ajn, ne povas modifi ion ajn, ne povas klaki “sendi” sur iu ajn formularo. Malalta risko. Tuj utila. Tio lanĉas unue.
Fazo 2: Malnet-kaj-revizio. La agento malnetizas retpoŝtajn respondojn, plenigas formularojn, kreas kalkultabelojn. Ĉiu ago postulas vian eksplicitan aprobon tra la Tesla-aplikaĵo antaŭ ol ĝi plenumas. La “sugesti”-modo de Codex, sed por oficeja laboro.
Fazo 3: Aŭtonoma ene de gardiloj. Vi difinas regulojn. “Aŭtomatie respondu al kunvenopetoj se mia kalendaro estas libera.” “Arĥivu bultenojn.” “Dosieri kvitancojn sub 50 dolaroj sen demandi.” La agento traktas rutinajn taskojn memstare kaj nur eskalas esceptojn.
La progresado de fazo 1 al fazo 3 eble daŭros jaron. Eble du. Sed la aparataro estas preta nun. La programaro nur bezonas gajni fidon.
La Limigoj estas Realaj
Baterio. Ruli la AI-blaton je plena ŝarĝo malŝarĝas la baterion. Tesla bezonus lasi posedantojn agordi minimuman ŝarĝsojlon — ne ruli inferenĉon se mi vekiĝos sub 50%, aŭ nur ruli kiam ŝargita. Kompenso por konsumita elektreco estas la evidenta instigaĵo. Tesla povus kreditigi posedantojn per inferenĉhoro, simile al kiel sunenergipaneloj vendas energion reen al la krado.
Bendolarĝo. La loka sablokesto helpas — inferenĉo kaj la laborspaco ambaŭ funkcias en la aŭto. Sed la kapara retumilo ankoraŭ bezonas interreton por atingi retajn aplikojn. Hejma WiFi kiam parkita en garejo traktas tion. Ĉela funkcias sed aldonas latentecon kaj datumkostojn. Pezaj laborŝarĝoj (traktado de retpoŝtaldonaĵoj, elŝutado de dokumentoj) bezonas solidajn konektadon.
Termika. La AI-blato kaj AMD-sistemo ambaŭ estas likve-malvarumigitaj, dezajnitaj por funkciadi en aŭtoj parkitaj en Phoenix en julio. Sed daŭrantaj plenoŝarĝaj inferenc-noktoperiodoj estas malsamaj ol burstaj traktadoj dum veturo. Parkita en garejo aŭ funkcianta nokte kiam ambiaj temperaturoj malpliiĝas grande forigas ĉi tiun zorgon.
Privateco. Ruli ĉion loke estas grava avantaĝo — viaj datumoj ne fluas tra Tesla aŭ xAI-serviloj por la sablokesta laborŝarĝo. Sed vi ankoraŭ fidas la Tesla-programaron en la aŭto. Kompromitita OTA-ĝisdatigo, vundebleco en la ujofunkciigisto, aŭ roga agentago povus eksponvundi personajn datumojn. La ataksurfaco estas pli malgranda ol nub-gastigata modelo, sed ĝi ne estas nulo.
La Folding@Home Analogio
Tio ne estas nova ideo strukture. SETI@Home, Folding@Home, kaj pli lastatempe Render Network kaj io.net ĉiuj uzis malaktivan konsumantaparataron por distribuita komputado. La diferenco estas skalo kaj specialiĝo.
Folding@Home pintis je ĉirkaŭ 2.4 exaFLOPS dum COVID — granda atingo konstruita sur volontaj GPU-donadoj de milionoj da uzantoj. La floto de Tesla povus egali aŭ superi tion kun aparataro kiu estas specialkonstruita por inferenĉo prefere ol repurpozigitaj ludaj GPU-oj.
Pli grave, Folding@Home postulis ke uzantoj instalu programaron kaj opcie aliĝu. La komputila floto de Tesla jam estas deplojita kaj konektita. La marĝina kosto de aktivado de inferenĉo sur parkita aŭto estas programara ĝisdatigo.
La Ekonomiko
Jen kie ĝi fariĝas interesa. La AI-blato jam estas pagita — ĝi estas parto de la veturila aĉeta prezo, subvenciita de la aŭtovendo. Tesla ne bezonas konstrui datumcentrojn aŭ aĉeti GPU-ojn por oferti inferenckapaciton. La kapitalelspezado estas sinkita.
Se Tesla povas vendi inferenchorojn pli malmultekoste ol AWS aŭ Azure ĉar iliaj aparatarokostoj estas amortizitaj trans aŭtovendoj, tio estas struktura avantaĝo kiun neniu nubprovizanto povas kongrui. Amazon ne vendas al vi aŭton por subvencii viajn komputilkostojn.
Por persona uzado, la propono estas pli simpla: vi jam posedas la aparataron. La komputilo estas senpage. La sola kosto estas elektreco, kaj Tesla povas kompensii tion per kreditoj aŭ reduktitaj abonkostoj.
Kion Tio Efektive Signifas
Forigu la hipe kaj la “Macrohard”-markadon, kaj la kerna ideo estas solida: via aŭto havas du komputilojn, likvan malvarumigon, konstantan konekteblecon, kaj 128-256 GB da konservado. Ĝi estas parkita 23 horojn tage. Uzi ĝin kiel personan AI-agento-servilon estas la evidenta apliko.
La demando ne estas ĉu la aparataro povas fari tion. Ĝi estas ĉu la programaro, sekureco kaj uzantosperto povas igi ĝin sufiĉe senpena ke homoj fakte uzas ĝin. Tesla havas historion de anoncado de kapabloj jarojn antaŭ ol ili liveras fidinde. FSD estas “venanta venontan jaron” ekde 2016.
Sed la aparatara deplojiĝo estas reala. La inferenckapablo estas reala. Kaj la postulo por personaj AI-agentoj kiuj povas fari efektivan komputilan laboron kreskas pli rapide ol nuba GPU-kapacito povas sekvi.
Via aŭto estas parkita en la drivejo nun. Du komputiloj, likve-malvarumigitaj, farante nenion. Tio ne estos vera multon pli longe.