你停着的特斯拉就是一个数据中心
你的车95%的时间都停着不动。车里装着一块每秒能执行300到500万亿次运算的芯片,连接着冷却系统、电源转换装置和蜂窝无线电模块。它什么都不做。
特斯拉和xAI想改变这一现状。3月11日,埃隆·马斯克发布了"Macrohard"——内部代号Digital Optimus——这是一个将停驻的特斯拉变成个人AI智能体的联合项目。不是聊天机器人,而是能盯着你的屏幕、控制鼠标键盘、真正干活的智能体。
这个名字是在明戳微软。官方声称该系统能够"模拟整个公司的职能"——有些夸大其词,但底层架构是真实的,硬件也已大规模部署到位。
硬件早已就位
特斯拉在美国路上行驶的车辆中,大约有400到500万辆搭载了AI3(前身为HW3)或AI4芯片。AI3算力达到144 TOPS,AI4达到300-500 TOPS,预计2026年底推出的AI5则将跃升至2,000-2,500 TOPS。
这些不是通用CPU,而是专为神经网络推理打造的加速器——以低功耗、被动冷却的方式运行视觉模型来实现自动驾驶。同样的特性让它们既能处理行驶中的摄像头画面,也能在停车场运行AI模型。
马斯克在特斯拉2025年第三季度财报电话会议上提出了这个构想:如果1亿辆车每辆具备1kW的推理能力,那就是1000亿瓦的分布式算力。冷却和电源转换系统已经集成在车辆中,无需另建数据中心。
两台电脑,不是一台
大多数人以为特斯拉只有一台电脑,其实它有两台。
AI芯片(AI3/AI4/AI5)是推理加速器,专为神经网络前向传播而生,是整个系统的大脑,负责运行决策所需的智能体模型。
车载娱乐系统则是一台完整的AMD Ryzen工作站:
- AMD Ryzen嵌入式处理器,4核Zen+,主频3.8 GHz
- 8 GB内存(Model 3/Y)或16 GB(Model S/X)
- AMD Navi 23独立GPU(RDNA 2架构)——10 TFLOPS,与PS5同系列架构
- 128-256 GB存储
- 液冷散热
这可不是普通的车载音响,而是一台液冷Linux机器,配有独立GPU。特斯拉装上Navi 23是为了让你在中控屏上玩《赛博朋克2077》。但当车子停着、没人玩游戏时,这就是闲置算力。
智能体不需要云端虚拟机——车子本身就是服务器。AI芯片运行模型,AMD系统在容器中运行无头浏览器,处理Gmail、Google Sheets、Slack等应用。液冷散热可应对整夜的持续工作负载,不会因过热而降频。
离开车辆的只有发往目标网页应用的HTTPS流量——和你在笔记本上查邮件产生的流量没什么两样。你的数据不会流经特斯拉或xAI的服务器,推理在本地进行,工作空间也在本地。
架构:系统1与系统2
Macrohard将推理分为两层:
系统1(特斯拉AI芯片)——快速、反应式处理。车载模型负责实时观察屏幕、控制鼠标移动和键盘输入,是直觉层,负责模式匹配、视觉解析和即时响应。
系统2(xAI的Grok)——高层推理。规划、多步骤决策和情境理解,当任务需要深度思考时在xAI云端运行。
车辆在本地处理廉价、快速的推理,昂贵的推理则交给云端。这与FSD的混合架构如出一辙——车辆以毫秒级延迟在本地处理摄像头画面,而复杂的路线规划则可延迟到网络端处理。
对于计算机操作任务,这意味着智能体可以在本地跟踪屏幕状态、处理常规交互,同时将"是否应该批准这张发票"或"如何回复这封邮件"这类判断交给Grok。
不是聊天机器人,而是工作者
关键在于这个系统做什么。它不是在回答问题,而是在执行任务。
当你的特斯拉停着时,Digital Optimus可以:
- 处理邮件并起草回复
- 填写电子表格
- 操作网页应用
- 完成多步骤工作流
- 处理重复性数据录入
每辆车独立执行车主的任务,无需将单次推理调用分散到多辆车上——计算机操作任务天然具有高度并行性。一辆车,一个智能体,一项任务。规模来自车队数量,而非互联带宽。
这一点很重要,因为计算机操作任务的延迟容忍度相当宽松。一个表单填写智能体每次操作花30秒依然有用——你不是在等实时响应,而是在把工作委托出去,让它趁你睡觉时运转。
实际使用体验
不谈架构图,来看看日常体验。
特斯拉App是控制平面。“智能体"标签页与现有的充电、气候、哨兵模式控件并列显示,你可以用它:
- 排入任务——“处理我的收件箱”、“核对上周的收据”,或设置"每天早上6点自动整理邮件"等周期性规则
- 关联账户——为Gmail、Google Drive、Microsoft 365、Slack进行OAuth授权
- 设置限制——最低电量阈值、仅WiFi模式、工作时间段
- 查看结果——查看智能体的操作记录,批准或拒绝操作
你躺在床上,打开特斯拉App,输入"帮我提交上周出差的报销单”,点击提交,然后入睡。车停在车库,连着WiFi,电量80%,它接手这项任务。
AI芯片加载智能体模型,AMD系统在容器中启动无头浏览器。智能体打开你的邮件,找到收据附件,导航到公司的报销工具,填好表单,附上收据,保存草稿等待你审核。
早上,推送通知:
智能体在停车期间完成了3项任务
- 收件箱整理:已处理42封邮件,7封需要你查看 → [查看]
- 报销单:12张收据已分类,草稿待审 → [批准 / 修改]
- 日历:2个冲突已解决,1个需要你处理 → [查看]
你点进每项任务。智能体展示了带截图的分步操作日志——就像在回看屏幕录像。你能看到它做了什么、为什么这么做、按什么顺序执行。你批准报销单,调整一封邮件草稿,解决日历冲突。八小时的智能体工作,只需三分钟审核。
信任阶梯
没有人会在第一天就把完整的电脑控制权交给AI。OpenAI从Codex中学到了这一点——他们的云端编程智能体在沙盒环境中运行,默认禁用网络访问,每次变更都需要你审核后才能生效。信任通过透明度建立。
特斯拉的推出会遵循同样的模式:
**阶段1:只读。**智能体读取你的邮件,进行汇总、分类、标记需要关注的内容。它不能发送任何内容、不能修改任何内容、不能点击任何表单的"提交"。风险低,立即有用,率先推出。
**阶段2:起草与审核。**智能体起草邮件回复、填写表单、创建电子表格条目。每项操作都需要你通过特斯拉App明确批准才能执行——相当于Codex的"建议"模式,但用于办公室工作。
**阶段3:在约束内自主运行。**你制定规则,比如"如果日历有空,自动回应会议邀请"、“归档新闻邮件”、“50美元以下的收据无需询问直接归档”。智能体自主处理例行任务,仅在遇到例外时才上报。
从阶段1到阶段3可能需要一年,也可能需要两年。但硬件现在就已准备好,软件只需要赢得信任。
真实存在的限制
**电量。**AI芯片满负荷运行会消耗电池电量。特斯拉需要允许车主设置最低电量阈值——例如"如果醒来会低于50%则不运行推理",或"仅在充电时运行"。对消耗电力给予补偿是显而易见的激励措施,特斯拉可以按推理小时数给车主积分,类似于太阳能电池板向电网售电的模式。
**带宽。**本地沙盒有助于减少流量——推理和工作空间都在车上运行。但无头浏览器仍需联网才能访问网页应用。停在车库时用家庭WiFi可以解决这个问题;蜂窝网络可以用,但会增加延迟和流量费用。处理邮件附件、下载文件等重度任务需要稳定的网络连接。
**散热。**AI芯片和AMD系统都采用液冷,设计上能应对7月份停在凤凰城的高温。但整夜持续满负荷推理不同于行驶时的突发处理。停在车库或在气温较低的夜间运行,基本可以消除这一顾虑。
**隐私。**本地运行是一大优势——沙盒工作负载中你的数据不会流经特斯拉或xAI服务器。但你仍然需要信任车辆上的特斯拉软件。被入侵的OTA更新、容器运行时的漏洞或智能体的错误操作都可能暴露个人数据。攻击面比云端托管模型小,但不为零。
Folding@Home的类比
从结构上看,这并不是新鲜想法。SETI@Home、Folding@Home,以及近期的Render Network和io.net都曾利用闲置消费级硬件进行分布式计算。不同之处在于规模和专业化程度。
Folding@Home在新冠疫情期间峰值达到约2.4 exaFLOPS——这是数百万用户自愿贡献GPU算力的巨大成就。特斯拉车队可以用专为推理设计的硬件与之媲美甚至超越,而不是依赖改装的游戏GPU。
更重要的是,Folding@Home需要用户安装软件并主动参与。特斯拉的算力车队已经部署完毕并保持连接,在停驻车辆上激活推理的边际成本仅仅是一次软件更新。
经济逻辑
这里才是真正有趣的地方。AI芯片的成本早已摊销——它是车辆购价的一部分,由整车销售补贴。特斯拉无需建设数据中心或购买GPU就能提供推理算力,资本支出已经沉没。
如果特斯拉能以低于AWS或Azure的价格出售推理小时数,因为其硬件成本已通过车辆销售摊薄,这将是云服务商无法复制的结构性优势——亚马逊不会卖给你一辆车来补贴你的算力成本。
对个人用户而言,这个提议更简单:你已经拥有这台硬件。算力是免费的,唯一的成本是电费,而特斯拉可以用积分或减免订阅费来抵消这部分支出。
真正的意义
剥去炒作和"Macrohard"的品牌包装,核心思路是合理的:你的车有两台电脑、液冷系统、持续联网能力,以及128到256 GB的存储空间。它每天停着23小时。把它用作个人AI智能体服务器,是显而易见的应用方向。
问题不在于硬件能不能做到,而在于软件、安全性和用户体验能否足够流畅,让人们真正用起来。特斯拉有在功能正式可靠上市之前提前数年宣布的习惯——FSD从2016年开始每年都说"明年就来"。
但硬件部署是真实的,推理能力是真实的,对能真正执行计算机工作的个人AI智能体的需求,正在以比云端GPU产能更快的速度增长。
你的车现在就停在车道上。两台电脑,液冷散热,无所事事。这种状态不会维持太久了。