3月11日,据路透社消息,社交媒体巨头Meta(旗下涵盖Facebook、Instagram和WhatsApp等平台)正在测试其首款自研芯片,该芯片专为训练人工智能系统而设计。消息人士透露,这一举措是Meta减少对外部芯片供应商依赖、逐步迈向定制化芯片设计的关键一步。
目前,Meta已经开始小规模部署这款自研芯片,并计划在测试顺利后扩大产量,以实现大规模应用。开发内部芯片是Meta长期战略的一部分,旨在降低其庞大的基础设施成本。
据预测,Meta在2025年的总支出将在1140亿至1190亿美元之间,其中高达650亿美元的资本支出主要用于人工智能基础设施建设。消息人士称,Meta的这款新训练芯片是一款专用加速器,专门针对人工智能任务设计,相比传统用于人工智能工作负载的GPU,具有更高的能效优势。
此外,Meta与台积电合作生产该芯片。此次测试部署是在Meta完成芯片的首次“流片”后启动的。流片是芯片开发的重要阶段,涉及将初步设计送入工厂生产,通常成本高达数千万美元,耗时约三至六个月,且存在测试失败的风险。一旦失败,Meta需重新诊断问题并再次流片。
尽管Meta的自研芯片计划在过去几年中遭遇过挫折,甚至曾放弃一款处于类似开发阶段的芯片,但公司仍在持续推进相关工作。去年,Meta开始在其推荐系统中使用一款自研推理芯片,用于运行Facebook和Instagram新闻推送中的人工智能系统。Meta高管表示,计划从2026年开始使用自研芯片进行训练,即通过大量数据输入来“训练”人工智能系统执行任务的计算密集型过程。
Meta首席产品官克里斯・考克斯(Chris Cox)在上周的摩根士丹利科技、媒体和电信会议上表示:“我们正在研究如何为推荐系统进行训练,以及如何逐步思考生成式人工智能的训练和推理。”他将Meta的芯片开发过程比作“从爬行到行走再到奔跑”,并指出第一代用于推荐系统的推理芯片取得了“巨大成功”。
然而,Meta此前曾因一款自研推理芯片在小规模测试中失败而暂停相关项目,并在2022年向英伟达订购了价值数十亿美元的GPU。此后,Meta一直是英伟达的主要客户之一,购买了大量GPU用于训练模型,包括推荐系统、广告系统以及Llama基础模型系列。这些芯片每天为超过30亿使用Meta应用程序的用户提供推理服务。
今年,随着人工智能研究人员对通过不断增加数据和计算能力来“扩展”大型语言模型的潜力表示怀疑,这些GPU的价值受到质疑。这种怀疑在1月底被中国初创公司DeepSeek推出的新低成本模型进一步强化,这些模型通过更依赖推理而非计算能力来优化效率。受此影响,全球人工智能股票市场出现大幅波动,英伟达的股价一度下跌了五分之一,尽管随后大部分跌幅被收回,但近期又因贸易担忧等因素再次下跌。