你停着的特斯拉就是一个数据中心

你的车95%的时间都停着不动。车里装着一块每秒能执行300到500万亿次运算的芯片,连接着冷却系统、电源转换装置和蜂窝无线电模块。它什么都不做。

特斯拉和xAI想改变这一现状。3月11日,埃隆·马斯克发布了"Macrohard"——内部代号Digital Optimus——这是一个将停驻的特斯拉变成个人AI智能体的联合项目。不是聊天机器人,而是能盯着你的屏幕、控制鼠标键盘、真正干活的智能体。

这个名字是在明戳微软。官方声称该系统能够"模拟整个公司的职能"——有些夸大其词,但底层架构是真实的,硬件也已大规模部署到位。

硬件早已就位

特斯拉在美国路上行驶的车辆中,大约有400到500万辆搭载了AI3(前身为HW3)或AI4芯片。AI3算力达到144 TOPS,AI4达到300-500 TOPS,预计2026年底推出的AI5则将跃升至2,000-2,500 TOPS

这些不是通用CPU,而是专为神经网络推理打造的加速器——以低功耗、被动冷却的方式运行视觉模型来实现自动驾驶。同样的特性让它们既能处理行驶中的摄像头画面,也能在停车场运行AI模型。

马斯克在特斯拉2025年第三季度财报电话会议上提出了这个构想:如果1亿辆车每辆具备1kW的推理能力,那就是1000亿瓦的分布式算力。冷却和电源转换系统已经集成在车辆中,无需另建数据中心。

两台电脑,不是一台

大多数人以为特斯拉只有一台电脑,其实它有两台。

AI芯片(AI3/AI4/AI5)是推理加速器,专为神经网络前向传播而生,是整个系统的大脑,负责运行决策所需的智能体模型。

车载娱乐系统则是一台完整的AMD Ryzen工作站

这可不是普通的车载音响,而是一台液冷Linux机器,配有独立GPU。特斯拉装上Navi 23是为了让你在中控屏上玩《赛博朋克2077》。但当车子停着、没人玩游戏时,这就是闲置算力。

智能体不需要云端虚拟机——车子本身就是服务器。AI芯片运行模型,AMD系统在容器中运行无头浏览器,处理Gmail、Google Sheets、Slack等应用。液冷散热可应对整夜的持续工作负载,不会因过热而降频。

离开车辆的只有发往目标网页应用的HTTPS流量——和你在笔记本上查邮件产生的流量没什么两样。你的数据不会流经特斯拉或xAI的服务器,推理在本地进行,工作空间也在本地。

架构:系统1与系统2

Macrohard将推理分为两层:

车辆在本地处理廉价、快速的推理,昂贵的推理则交给云端。这与FSD的混合架构如出一辙——车辆以毫秒级延迟在本地处理摄像头画面,而复杂的路线规划则可延迟到网络端处理。

对于计算机操作任务,这意味着智能体可以在本地跟踪屏幕状态、处理常规交互,同时将"是否应该批准这张发票"或"如何回复这封邮件"这类判断交给Grok。

不是聊天机器人,而是工作者

关键在于这个系统做什么。它不是在回答问题,而是在执行任务。

当你的特斯拉停着时,Digital Optimus可以:

每辆车独立执行车主的任务,无需将单次推理调用分散到多辆车上——计算机操作任务天然具有高度并行性。一辆车,一个智能体,一项任务。规模来自车队数量,而非互联带宽。

这一点很重要,因为计算机操作任务的延迟容忍度相当宽松。一个表单填写智能体每次操作花30秒依然有用——你不是在等实时响应,而是在把工作委托出去,让它趁你睡觉时运转。

实际使用体验

不谈架构图,来看看日常体验。

特斯拉App是控制平面。“智能体"标签页与现有的充电、气候、哨兵模式控件并列显示,你可以用它:

你躺在床上,打开特斯拉App,输入"帮我提交上周出差的报销单”,点击提交,然后入睡。车停在车库,连着WiFi,电量80%,它接手这项任务。

AI芯片加载智能体模型,AMD系统在容器中启动无头浏览器。智能体打开你的邮件,找到收据附件,导航到公司的报销工具,填好表单,附上收据,保存草稿等待你审核。

早上,推送通知:

智能体在停车期间完成了3项任务

  • 收件箱整理:已处理42封邮件,7封需要你查看 → [查看]
  • 报销单:12张收据已分类,草稿待审 → [批准 / 修改]
  • 日历:2个冲突已解决,1个需要你处理 → [查看]

你点进每项任务。智能体展示了带截图的分步操作日志——就像在回看屏幕录像。你能看到它做了什么、为什么这么做、按什么顺序执行。你批准报销单,调整一封邮件草稿,解决日历冲突。八小时的智能体工作,只需三分钟审核。

信任阶梯

没有人会在第一天就把完整的电脑控制权交给AI。OpenAI从Codex中学到了这一点——他们的云端编程智能体在沙盒环境中运行,默认禁用网络访问,每次变更都需要你审核后才能生效。信任通过透明度建立。

特斯拉的推出会遵循同样的模式:

**阶段1:只读。**智能体读取你的邮件,进行汇总、分类、标记需要关注的内容。它不能发送任何内容、不能修改任何内容、不能点击任何表单的"提交"。风险低,立即有用,率先推出。

**阶段2:起草与审核。**智能体起草邮件回复、填写表单、创建电子表格条目。每项操作都需要你通过特斯拉App明确批准才能执行——相当于Codex的"建议"模式,但用于办公室工作。

**阶段3:在约束内自主运行。**你制定规则,比如"如果日历有空,自动回应会议邀请"、“归档新闻邮件”、“50美元以下的收据无需询问直接归档”。智能体自主处理例行任务,仅在遇到例外时才上报。

从阶段1到阶段3可能需要一年,也可能需要两年。但硬件现在就已准备好,软件只需要赢得信任。

真实存在的限制

**电量。**AI芯片满负荷运行会消耗电池电量。特斯拉需要允许车主设置最低电量阈值——例如"如果醒来会低于50%则不运行推理",或"仅在充电时运行"。对消耗电力给予补偿是显而易见的激励措施,特斯拉可以按推理小时数给车主积分,类似于太阳能电池板向电网售电的模式。

**带宽。**本地沙盒有助于减少流量——推理和工作空间都在车上运行。但无头浏览器仍需联网才能访问网页应用。停在车库时用家庭WiFi可以解决这个问题;蜂窝网络可以用,但会增加延迟和流量费用。处理邮件附件、下载文件等重度任务需要稳定的网络连接。

**散热。**AI芯片和AMD系统都采用液冷,设计上能应对7月份停在凤凰城的高温。但整夜持续满负荷推理不同于行驶时的突发处理。停在车库或在气温较低的夜间运行,基本可以消除这一顾虑。

**隐私。**本地运行是一大优势——沙盒工作负载中你的数据不会流经特斯拉或xAI服务器。但你仍然需要信任车辆上的特斯拉软件。被入侵的OTA更新、容器运行时的漏洞或智能体的错误操作都可能暴露个人数据。攻击面比云端托管模型小,但不为零。

Folding@Home的类比

从结构上看,这并不是新鲜想法。SETI@HomeFolding@Home,以及近期的Render Networkio.net都曾利用闲置消费级硬件进行分布式计算。不同之处在于规模和专业化程度。

Folding@Home在新冠疫情期间峰值达到约2.4 exaFLOPS——这是数百万用户自愿贡献GPU算力的巨大成就。特斯拉车队可以用专为推理设计的硬件与之媲美甚至超越,而不是依赖改装的游戏GPU。

更重要的是,Folding@Home需要用户安装软件并主动参与。特斯拉的算力车队已经部署完毕并保持连接,在停驻车辆上激活推理的边际成本仅仅是一次软件更新。

经济逻辑

这里才是真正有趣的地方。AI芯片的成本早已摊销——它是车辆购价的一部分,由整车销售补贴。特斯拉无需建设数据中心或购买GPU就能提供推理算力,资本支出已经沉没。

如果特斯拉能以低于AWS或Azure的价格出售推理小时数,因为其硬件成本已通过车辆销售摊薄,这将是云服务商无法复制的结构性优势——亚马逊不会卖给你一辆车来补贴你的算力成本。

对个人用户而言,这个提议更简单:你已经拥有这台硬件。算力是免费的,唯一的成本是电费,而特斯拉可以用积分或减免订阅费来抵消这部分支出。

真正的意义

剥去炒作和"Macrohard"的品牌包装,核心思路是合理的:你的车有两台电脑、液冷系统、持续联网能力,以及128到256 GB的存储空间。它每天停着23小时。把它用作个人AI智能体服务器,是显而易见的应用方向。

问题不在于硬件能不能做到,而在于软件、安全性和用户体验能否足够流畅,让人们真正用起来。特斯拉有在功能正式可靠上市之前提前数年宣布的习惯——FSD从2016年开始每年都说"明年就来"。

但硬件部署是真实的,推理能力是真实的,对能真正执行计算机工作的个人AI智能体的需求,正在以比云端GPU产能更快的速度增长。

你的车现在就停在车道上。两台电脑,液冷散热,无所事事。这种状态不会维持太久了。