आपकी पार्क की गई Tesla एक Data Center है

आपकी कार 95% समय पार्क रहती है। उसके अंदर एक ऐसी चिप बैठी है जो प्रति सेकंड 300-500 ट्रिलियन ऑपरेशन करने में सक्षम है, जो कूलिंग, पावर कन्वर्शन और एक सेलुलर रेडियो से जुड़ी है। यह कुछ नहीं करती।

Tesla और xAI इसे बदलना चाहते हैं। 11 मार्च को, Elon Musk ने “Macrohard” का अनावरण किया — जिसे आंतरिक रूप से Digital Optimus कहा जाता है — एक संयुक्त परियोजना जो पार्क की गई Teslas को व्यक्तिगत AI एजेंट में बदलती है। चैटबॉट नहीं। एजेंट जो आपकी स्क्रीन देखते हैं, आपके माउस और कीबोर्ड को नियंत्रित करते हैं, और वास्तविक काम करते हैं।

यह नाम Microsoft पर एक जानबूझकर चुभन है। दावा है कि यह सिस्टम “पूरी कंपनियों के कार्यों का अनुकरण” कर सकता है। यह अतिशयोक्ति है। लेकिन अंतर्निहित आर्किटेक्चर वास्तविक है, और हार्डवेयर पहले से ही बड़े पैमाने पर तैनात है।

हार्डवेयर पहले से ही मौजूद है

Tesla के पास US की सड़कों पर लगभग 40-50 लाख वाहन हैं जिनमें AI3 (पूर्व में HW3) या AI4 चिप्स हैं। AI3 144 TOPS प्रदान करता है। AI4 300-500 TOPS प्रदान करता है। AI5, जो 2026 के अंत में आने की उम्मीद है, 2,000-2,500 TOPS तक जाता है।

ये सामान्य-उद्देश्य CPUs नहीं हैं। ये उद्देश्य-निर्मित न्यूरल नेटवर्क inference accelerators हैं — कम पावर खपत के साथ पैसिव कूलिंग पर सेल्फ-ड्राइविंग के लिए विज़न मॉडल चलाने के लिए डिज़ाइन किए गए। ट्रैफिक में कैमरा फीड प्रोसेस करने में जो गुण उन्हें अच्छा बनाते हैं, वही पार्किंग लॉट में AI मॉडल चलाने में भी काम आते हैं।

Musk ने यह विचार Tesla की Q3 2025 अर्निंग्स कॉल पर रखा था: अगर आपके पास 1kW inference क्षमता वाले 10 करोड़ वाहन हों, तो यह 100 गीगावाट का वितरित कम्प्यूट है। कूलिंग और पावर कन्वर्शन पहले से ही वाहन में इंजीनियर किए गए हैं। कोई data center निर्माण की जरूरत नहीं।

दो कंप्यूटर, एक नहीं

अधिकांश लोग Tesla को एक कंप्यूटर वाली कार मानते हैं। इसमें दो होते हैं।

AI चिप (AI3/AI4/AI5) inference accelerator है — न्यूरल नेटवर्क फॉरवर्ड पास के लिए उद्देश्य-निर्मित। यह दिमाग है। यह वह एजेंट मॉडल चलाता है जो तय करता है क्या करना है।

इन्फोटेनमेंट सिस्टम एक पूर्ण AMD Ryzen वर्कस्टेशन है:

यह कार स्टीरियो नहीं है। यह एक लिक्विड-कूल्ड Linux मशीन है जिसमें डिस्क्रीट GPU है। Tesla ने Navi 23 इसलिए लगाया ताकि आप सेंटर डिस्प्ले पर Cyberpunk 2077 खेल सकें। लेकिन जब कार पार्क है और कोई गेमिंग नहीं कर रहा, यह बेकार कम्प्यूट है।

एजेंट को क्लाउड VM की जरूरत नहीं है। कार ही सर्वर है। AI चिप मॉडल चलाती है। AMD सिस्टम एक कंटेनर में headless browser चलाता है — Gmail, Google Sheets, Slack, जो भी एजेंट काम कर रहा है। लिक्विड कूलिंग थर्मल थ्रॉटलिंग के बिना रात भर के लगातार वर्कलोड को संभालती है।

वाहन से बाहर केवल उन्हीं web apps का HTTPS ट्रैफिक जाता है — वही ट्रैफिक जो आपका लैपटॉप ईमेल चेक करते समय बनाता है। आपका डेटा Tesla या xAI सर्वर से नहीं गुजरता। inference लोकल है। वर्कस्पेस लोकल है।

आर्किटेक्चर: System 1 और System 2

Macrohard inference को दो परतों में विभाजित करता है:

कार सस्ता, तेज inference लोकली संभालती है। महंगी reasoning क्लाउड में होती है। यही हाइब्रिड आर्किटेक्चर FSD को काम करने योग्य बनाता है — कार मिलीसेकंड लेटेंसी पर लोकली कैमरा फीड प्रोसेस करती है, लेकिन जटिल रूट प्लानिंग नेटवर्क पर टाल सकती है।

कंप्यूटर उपयोग के लिए, इसका मतलब है कि एजेंट आपकी स्क्रीन स्थिति ट्रैक कर सकता है और नियमित इंटरेक्शन लोकली संभाल सकता है जबकि “क्या मुझे यह invoice अनुमोदित करनी चाहिए” या “इस ईमेल का जवाब कैसे दूं” जैसे निर्णयों के लिए Grok पर निर्भर कर सकता है।

चैटबॉट नहीं। एक कर्मचारी।

महत्वपूर्ण अंतर यह है कि यह सिस्टम क्या करता है। यह सवालों के जवाब नहीं दे रहा। यह कार्य कर रहा है।

जब आपकी Tesla पार्क है, Digital Optimus ये काम कर सकता है:

प्रत्येक कार अपने मालिक के कार्य स्वतंत्र रूप से चलाती है। एक ही inference call को कई वाहनों में वितरित करने की कोई जरूरत नहीं — कंप्यूटर उपयोग embarrassingly parallel है। एक कार, एक एजेंट, एक कार्य। स्केल फ्लीट के आकार से आता है, interconnect bandwidth से नहीं।

यह महत्वपूर्ण है क्योंकि कंप्यूटर उपयोग के लिए लेटेंसी टॉलरेंस उदार है। एक फॉर्म भरने वाला एजेंट प्रति क्रिया 30 सेकंड ले सकता है और फिर भी उपयोगी हो सकता है। आप रियल-टाइम प्रतिक्रिया का इंतजार नहीं कर रहे — आप सोते समय काम चलाने के लिए सौंप रहे हैं।

यह वास्तव में कैसा दिखता है

आर्किटेक्चर डायग्राम भूल जाइए। यहां रोजाना का अनुभव है।

Tesla ऐप कंट्रोल प्लेन है। चार्जिंग, क्लाइमेट और Sentry Mode के मौजूदा नियंत्रणों के साथ एक “Agent” टैब बैठता है। आप इसका उपयोग करते हैं:

आप बिस्तर पर लेटे हैं। आप Tesla ऐप खोलते हैं, “पिछले हफ्ते की यात्रा का expense report दाखिल करो” टाइप करते हैं, submit दबाते हैं, और सो जाते हैं। कार गैरेज में पार्क है, WiFi पर, बैटरी 80% पर। यह कार्य उठाती है।

AI चिप एजेंट मॉडल लोड करती है। AMD सिस्टम एक कंटेनर में headless browser स्पिन करता है। एजेंट आपका ईमेल खोलता है, रसीद अटैचमेंट ढूंढता है, आपकी कंपनी के expense टूल पर जाता है, फॉर्म भरता है, रसीदें अटैच करता है, और आपकी समीक्षा के लिए ड्राफ्ट सेव करता है।

सुबह। पुश नोटिफिकेशन:

Agent ने पार्क रहते 3 कार्य पूरे किए

  • Inbox ट्राइएज: 42 ईमेल प्रोसेस, 7 को आपकी समीक्षा चाहिए → [देखें]
  • Expense report: 12 रसीदें वर्गीकृत, ड्राफ्ट तैयार → [अनुमोदित करें / संपादित करें]
  • Calendar: 2 संघर्ष सुलझाए, 1 को इनपुट चाहिए → [देखें]

आप प्रत्येक कार्य में टैप करते हैं। एजेंट हर चरण पर sandbox के स्क्रीनशॉट के साथ चरण-दर-चरण लॉग दिखाता है — जैसे स्क्रीन रिकॉर्डिंग स्क्रब करना। आप बिल्कुल देख सकते हैं कि उसने क्या किया, क्यों, और किस क्रम में। आप expense report अनुमोदित करते हैं, एक ईमेल ड्राफ्ट बदलते हैं, और calendar conflict सुलझाते हैं। आठ घंटे के एजेंट काम के लिए तीन मिनट की समीक्षा।

विश्वास की सीढ़ी

कोई भी पहले दिन AI को पूरा कंप्यूटर नियंत्रण नहीं देता। OpenAI ने यह Codex के साथ समझा — उनका क्लाउड कोडिंग एजेंट जो डिफ़ॉल्ट रूप से नेटवर्क एक्सेस अक्षम के साथ एक sandboxed environment में चलता है। आप हर बदलाव शिप होने से पहले समीक्षा करते हैं। पारदर्शिता के माध्यम से विश्वास बनता है।

Tesla का रोलआउट इसी पैटर्न का पालन करेगा:

Phase 1: Read-only। एजेंट आपका ईमेल पढ़ता है, सारांश देता है, वर्गीकृत करता है, जो ध्यान देने योग्य है उसे फ्लैग करता है। यह कुछ भी भेज नहीं सकता, कुछ भी संशोधित नहीं कर सकता, किसी भी फॉर्म पर “submit” नहीं दबा सकता। कम जोखिम। तुरंत उपयोगी। यह पहले शिप होता है।

Phase 2: Draft-and-review। एजेंट ईमेल जवाब ड्राफ्ट करता है, फॉर्म भरता है, स्प्रेडशीट एंट्री बनाता है। हर क्रिया execute होने से पहले Tesla ऐप के माध्यम से आपकी स्पष्ट अनुमति की जरूरत है। Codex का “suggest” मोड, लेकिन ऑफिस काम के लिए।

Phase 3: गार्डरेल के भीतर स्वायत्त। आप नियम परिभाषित करते हैं। “यदि मेरा calendar खाली है तो मीटिंग अनुरोधों का स्वतः जवाब दो।” “न्यूज़लेटर आर्काइव करो।” “बिना पूछे $50 से कम की रसीदें फाइल करो।” एजेंट नियमित कार्य अपने आप संभालता है और केवल अपवाद एस्केलेट करता है।

Phase 1 से Phase 3 तक की प्रगति में एक साल लग सकता है। शायद दो। लेकिन हार्डवेयर अभी तैयार है। सॉफ्टवेयर को बस विश्वास अर्जित करना है।

बाधाएं वास्तविक हैं

बैटरी। AI चिप को पूर्ण लोड पर चलाने से बैटरी खत्म होती है। Tesla को मालिकों को न्यूनतम चार्ज थ्रेशोल्ड सेट करने देना होगा — यदि मैं 50% से नीचे उठूंगा तो inference मत चलाओ, या केवल तभी चलाओ जब प्लग में हो। उपभोग की गई बिजली का मुआवजा स्पष्ट प्रोत्साहन है। Tesla मालिकों को प्रति inference-घंटे क्रेडिट दे सकता है, जैसे सोलर पैनल ग्रिड को ऊर्जा वापस बेचते हैं।

बैंडविड्थ। लोकल sandbox मदद करता है — inference और वर्कस्पेस दोनों कार पर चलते हैं। लेकिन headless browser को web apps तक पहुंचने के लिए अभी भी इंटरनेट चाहिए। गैरेज में पार्क होने पर होम WiFi यह संभालता है। सेलुलर काम करता है लेकिन लेटेंसी और डेटा लागत जोड़ता है। भारी वर्कलोड (ईमेल अटैचमेंट प्रोसेस करना, दस्तावेज डाउनलोड करना) को ठोस कनेक्शन चाहिए।

थर्मल। AI चिप और AMD सिस्टम दोनों लिक्विड-कूल्ड हैं, जुलाई में Phoenix में पार्क कारों में चलाने के लिए डिज़ाइन किए गए हैं। लेकिन रात भर का sustained full-load inference, ड्राइविंग के दौरान burst प्रोसेसिंग से अलग है। गैरेज में पार्क होना या रात भर चलाना जब परिवेश तापमान गिरता है तो यह चिंता काफी हद तक दूर हो जाती है।

गोपनीयता। सब कुछ लोकली चलाना एक बड़ा फायदा है — आपका डेटा sandbox वर्कलोड के लिए Tesla या xAI सर्वर से नहीं गुजरता। लेकिन आप अभी भी कार पर Tesla के सॉफ्टवेयर पर भरोसा कर रहे हैं। एक compromised OTA update, container runtime में vulnerability, या rogue एजेंट action व्यक्तिगत डेटा उजागर कर सकता है। attack surface क्लाउड-होस्टेड मॉडल से छोटा है, लेकिन शून्य नहीं है।

Folding@Home का समानांतर

यह संरचनात्मक रूप से नया विचार नहीं है। SETI@Home, Folding@Home, और हाल ही में Render Network और io.net सभी ने वितरित कम्प्यूट के लिए बेकार consumer hardware का उपयोग किया है। अंतर स्केल और विशेषज्ञता का है।

Folding@Home COVID के दौरान लगभग 2.4 exaFLOPS तक पहुंचा — लाखों उपयोगकर्ताओं के स्वैच्छिक GPU दान पर निर्मित एक बड़ी उपलब्धि। Tesla का फ्लीट उस hardware के साथ इसे बराबर या पार कर सकता है जो repurposed gaming GPUs के बजाय inference के लिए उद्देश्य-निर्मित है।

इससे भी महत्वपूर्ण, Folding@Home के लिए उपयोगकर्ताओं को सॉफ्टवेयर इंस्टॉल करना और opt in करना पड़ता था। Tesla का compute fleet पहले से तैनात और जुड़ा है। पार्क कार पर inference सक्रिय करने की marginal cost एक सॉफ्टवेयर अपडेट है।

अर्थशास्त्र

यहां रोचक बात है। AI चिप पहले से भुगतान हो गई है — यह वाहन खरीद मूल्य का हिस्सा है, कार बिक्री से subsidized। inference क्षमता प्रदान करने के लिए Tesla को data centers बनाने या GPUs खरीदने की जरूरत नहीं है। पूंजीगत व्यय sunk है।

यदि Tesla AWS या Azure से सस्ते inference-hours बेच सकता है क्योंकि उनकी hardware लागत वाहन बिक्री में amortized है, तो यह एक संरचनात्मक लाभ है जो कोई cloud provider नहीं दे सकता। Amazon आपकी compute लागत subsidize करने के लिए आपको कार नहीं बेचता।

व्यक्तिगत उपयोग के लिए, pitch सरल है: आप पहले से hardware के मालिक हैं। compute मुफ्त है। एकमात्र लागत बिजली है, और Tesla credits या कम subscription fees के साथ इसे offset कर सकता है।

इसका वास्तव में क्या मतलब है

hype और “Macrohard” branding को छील दें, और मूल विचार ठोस है: आपकी कार में दो कंप्यूटर हैं, liquid cooling है, persistent connectivity है, और 128-256 GB storage है। यह दिन में 23 घंटे पार्क रहती है। इसे personal AI agent server के रूप में उपयोग करना स्पष्ट application है।

सवाल यह नहीं है कि hardware यह कर सकता है या नहीं। यह है कि क्या software, security, और user experience इसे इतना seamless बना सकते हैं कि लोग वास्तव में इसका उपयोग करें। Tesla की history है capabilities announce करने की वर्षों पहले जब वे विश्वसनीय रूप से ship होती हैं। FSD 2016 से “अगले साल आ रहा है” है।

लेकिन hardware deployment वास्तविक है। inference capability वास्तविक है। और personal AI agents की मांग जो वास्तविक कंप्यूटर काम कर सकें, cloud GPU capacity के मुकाबले तेजी से बढ़ रही है।

आपकी कार अभी ड्राइववे में पार्क है। दो कंप्यूटर, liquid-cooled, कुछ नहीं कर रहे। यह ज्यादा देर तक ऐसा नहीं रहेगा।