678CHAT AI资讯 Meta出新招:用Code Llama打造LLM编译器,让代码更小巧,还能反汇编!

Meta出新招:用Code Llama打造LLM编译器,让代码更小巧,还能反汇编!

6月28日,Meta公司在X平台发布了一项重大创新——LLM编译器。这一全新模型家族基于Meta Code Llama构建,集成了先进的代码优化技术与编译器功能。它不仅能够模拟编译器的工作流程,预测代码体积的最优传递策略,还能进行代码的反汇编,为编译器任务的定制化优化提供了强大支持。

Meta出新招:用Code Llama打造LLM编译器,让代码更小巧,还能反汇编!插图

Meta在HuggingFace上公开了LLM编译器的7B和13B版本,采用开放的许可政策,支持研究和商业领域的广泛应用。

在最新的研究报告中,研究人员指出,尽管LLM在软件工程和编码任务上已经展现出其潜力,但在代码编译与优化方面的应用尚待深入挖掘。正是为了填补这一空白,Meta推出了专为代码优化任务设计的LLM编译器。

LLM编译器经过了大规模语料库的训练,该语料库包含了5460亿个LLVM-IR和汇编代码标记,并通过指令微调来深入理解编译器的行为模式。这一举措旨在为学术界和工业界的研究者与开发者提供一个可扩展、经济高效的编译器优化研究基础。

在代码体积优化方面,LLM编译器已经取得了突破性的进展。在实际测试中,该模型展现出了高达77%的优化潜力,相较于传统的自动调整搜索方法,这一成果能够显著提升编译效率,缩短编译时间,从而为各类应用带来更高的代码执行效率。

本文来自网络,不代表678CHAT立场,转载请注明出处:https://www.678chat.com/ai/919.html

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部