在科技的浪潮中,Meta正以其雄心勃勃的计划,引领着人工智能的未来发展。继Llama 3.1的发布,Meta的下一代AI模型Llama 4已在紧锣密鼓的训练之中。Meta的CEO马克·扎克伯格在二季度的财报会议上宣布,Llama 4将采用比Llama 3多出十倍的计算资源,预计在2025年与世界见面。
十倍的计算量,这不仅是一个数字的飞跃,更是对现有技术极限的挑战。Llama 3的训练已经动用了两个拥有24,000块GPU的集群,这意味着Llama 4的训练将需要惊人的24万块GPU。面对如此庞大的数字,不禁让人好奇,Meta的硬件储备是否足够支撑这一宏伟计划。
扎克伯格在年初曾宣布,计划在年底前部署35万块英伟达H100 GPU。他进一步透露,Meta内部正在打造两个专为训练大型语言模型(LLM)的单集群,其中一个将配备22,000块H100,另一个则配备24,000块。这不禁让人回想起Llama模型的迭代历程,从Llama 1的2048块GPU,到Llama 2的4096块,再到Llama 3.1的16384块,GPU的用量呈现出指数级的增长。
训练大型AI模型无疑是一项成本高昂的业务。Meta在第二季度的财报显示,公司在服务器、数据中心和网络基础设施上的资本支出同比增长了近33%,从去年同期的64亿美元增至85亿美元。预计年度支出将达到370亿至400亿美元,这一数字高于之前的预估。
OpenAI在训练模型上的花费也高达30亿美元,另外还花费了40亿美元以折扣价从微软租用服务器。这一系列数字,无疑揭示了大型AI模型训练背后的经济规模。然而,Llama 3.1的开源,预示着开源人工智能将成为行业的新标准,正如Linux在操作系统领域的地位一样。
Meta正在积极规划未来几年的计算集群和数据中心,以支持未来几代AI模型的发展。扎克伯格承认,尽管很难预测AI技术的未来走向,但他宁愿提前建立基础设施,也不愿意在竞争对手已经占据先机时匆忙追赶。
扎克伯格的这种远见,曾在元宇宙的浪潮中带领Meta迎难而上。在2022年公司股价受挫时,他依然坚持购买大量H100 GPU。第三季度的财报显示,Meta的资本支出高达320亿至330亿美元,其中大部分流向了数据中心、服务器和网络基础设施的建设,以及对元宇宙的巨额投资。
在采访中,扎克伯格解释说,Meta当时正在大力发展短视频工具Reels,因此需要更多的GPU来训练模型。模型推理对Meta至关重要,因为它需要为Facebook、Instagram等自家应用的用户提供服务。
扎克伯格相信,AI智能体很快将成为在线企业的"标配"。他预言,随着时间的推移,每个企业都将拥有一个AI智能体,让客户可以与之互动。Meta的目标是让每个小企业,甚至是每个大企业,都能轻松地将自身的内容和产品整合到AI智能体中。这一技术的大规模应用,预计将大大加速商业信息收入的增长。
尽管投资者对Meta在AI和元宇宙上的高额支出提出批评,但扎克伯格依然坚持自己的战略。Meta的财报数据显示,虚拟现实领域虽然在最近几个季度退居次要地位,但Quest 3的销量超出了公司的预期。第二季度的收入增长了22%,达到391亿美元,利润增加了73%,达到135亿美元。对于第三季度,Meta预计收入将在385亿至410亿美元之间。
据悉,Meta计划在9月份的Connect大会上宣布推出一款更便宜的耳机。此外,AI助手Meta AI的受欢迎程度也在不断上升,扎克伯格表示,它有望在年底前成为使用最广泛的AI助手。