ACL 2025 | GALLa:用图结构增强代码大模型,让代码理解更精准!

简介: 通过级联多模态架构将代码结构图对齐到大模型表征中

编程语言中蕴含着丰富的语义信息。与自然语言不同,这些信息通常以精确的图结构(如抽象语法树 AST、数据流图 DFG)的形式存在。传统代码大模型仅将代码视为文本处理,忽略了这些关键结构。我们创新性地通过图神经网络(GNN)与跨模态对齐技术,将这些代码结构信息在微调阶段以迁移学习的方式注入大语言模型,既提升了模型的代码理解能力、又不改变模型的原始架构,成为一种即插即用的代码大模型能力提升方式。

TLDR

我们通过多模态对齐技术将代码的图结构信息引入代码大模型的微调过程中,在不改变大模型推理方式的前提下有效提升大模型对代码的理解。

简介

本文源于蚂蚁集团与上海交通大学的校企合作项目,目前已被 ACL 2025 主会接收。ACL(Annual Meeting of the Association for Computational Linguistics)是自然语言处理(NLP)领域的顶级国际会议,也是自然语言处理领域唯一的 CCF-A 类会议。

arXiv: https://arxiv.org/abs/2409.04183

Github: https://github.com/codefuse-ai/GALLa

Hugging Face: https://huggingface.co/datasets/codefuse-ai/GALLa

image.png

与自然语言不同,编程语言具有精确的语义。这些语义通过抽象语法树(AST)、数据流图(DFG)、控制流图(CFG)等图结构表示。可是,现有的代码大模型大都忽略了这些图结构,将代码直接作为文本处理(如 DeepSeek-Coder、Qwen-Coder)。仅有少部分工作将这些图结构通过各种方式注入模型中,大致可分为三类:

1. 第一类将这些图结构线性化后作为文本 token 输入模型,如 SPT-Code、UniXcoder、SynCoBERT。
2. 第二类工作将图中的每个结点视作一个 token 送入模型,并通过修改模型中的注意力掩码来表征不同结点间的连接关系,代表有 GraphCodeBERT、StructCoder。
3. 第三类工作同样将图中的每个结点视作一个 token,但通过修改位置编码的方式来表征结点间的连接关系 [1,2]。

以上三类现有方法中,第一类并不能充分利用图的复杂结构,且只适用于语法树、依赖树等能够线性化的树状图,不适用于数据流、控制流等存在环的图。第二、三类方法的共同缺陷是修改了语言模型的原有架构,不仅损害模型预训练阶段获得的知识,同时也极大限制了这些方法的可扩展性。

与以上三类方法不同,GALLa 借鉴了 NLP 与计算机视觉中现有的多模态对齐技术,通过图模态编码器+适配器+大语言模型级联的方式将代码结构图引入大模型的微调过程中,既能处理复杂的带环图结构,又保持了大语言模型原有结构的完整性。此外,GALLa 仅在微调阶段引入图信息,在推理阶段和基座模型一样只接受原始代码文本作为输入,避免了额外的部署开销。在七个不同家族、参数量的模型以及五个下游任务上的实验结果表明,GALLa 能有效提升大模型对代码的理解能力,全面提升下游任务性能。


[1] Han Peng et al. Integrating tree path in transformer for code representation. NeurIPS 2021.
[2] Han Peng et al. Rethinking positional encoding in tree transformer for code representation. EMNLP 2022.

算法

image.png

图1:GALLa整体框架

模型架构

我们的模型架构如图1所示,由图神经网络(GNN)、适配器(Adapter)、大语言模型(LLM)三部分组成,且每一部分都可以单独选择具体实现方式,具有极大的灵活性。

GNN

image.png

在具体实现中,我们使用代码嵌入模型 CodeT5+ 编码每个结点所对应代的码片段来提取结点特征$ V $。

适配器

适配器是连接 GNN 与 LLM 不同语义空间的桥梁。参考 Qwen-VL、LLaVA 等跨模态工作,适配器可以用注意力(Cross Attention)或多层感知机(MLP)。以注意力为例:

image.png

在经过适配器后,GNN 输出的结点特征被变换到大模型的输入空间中,成为一系列“图 token”,便能与其余文本 token 拼接在一起被大模型处理。

LLM

image.png

训练方式

image.png

图2:GALLa训练流程

GALLa 训练分为两阶段,如图2所示。

第一阶段

第一阶段固定 LLM 的参数,仅更新随机初始化的 GNN 与适配器参数。此阶段训练任务为图生代码(Graph2Code),即根据代码图重构源代码。代码图在经过 GNN、适配器后形成图 token,与源代码拼接后送入 LLM。训练过程中损失函数仅在源代码对应 token 上进行计算。

第二阶段

第二阶段解锁 LLM 参数,同时更新三个模块。此阶段混合三个训练任务:

  • 图生代码(Graph2Code):同第一阶段。
  • 图问答(GraphQA):根据代码图回答特定问题。此任务中 LLM 的输入由图 token、问题、答案三部分拼接而成,损失函数仅在答案上进行计算。具体问题包含边预测、父结点预测、子结点预测三类。
  • 下游任务:如代码翻译、代码总结、漏洞检测等,由问题与答案两部分拼接而成,直接输入 LLM,不使用 GNN 与适配器。

推理

在训练完成后,GNN、适配器模块将不再被使用,而只有 LLM 被单独用于测试、部署。因此,GALLa 训练所得的模型使用方式与基座 LLM 或其他指令微调所得模型完全相同,可无缝适配 vllm 等主流推理框架。这个设计有两方面的考虑:

  • 推理效率:若为每个请求实时构建代码图,推理延时将大幅度增加;
  • 代码完整性:构建代码图需要完整且无语法错误的代码输入,但在实际应用中许多任务(如漏洞检测、代码修复)的输入代码存在问题,无法构建代码图。

实验

我们使用包括 Qwen2.5-Coder 14B、LLaMA3 8B 在内的7个不同家族与大小的模型,在代码翻译、克隆检测、漏洞检测、代码总结、代码修复5个下游任务上验证了 GALLa 的效果。实验结果表明 GALLa 能有效提高所有模型在代码相关下游任务上的性能:

在以上主实验中,我们使用一层注意力作为适配器、DUPLEX 作为 GNN 模块。以 Phi-1 基座为例,我们也尝试了使用 MLP 作为适配器或使用 MagNet 作为 GNN,实验表明同样能提高模型性能:

后续工作

在 GALLa 基础之上,我们团队开发了更加强大的代码图模型(Code Graph Model),首创性地在仓库级别融合图结构与语言模型,截止2025年5月在仓库问题修复数据集 SWE-bench Lite 和 SWE-Bench Verified 榜单基于开源模型的方法中排名第一。

想了解更多代码大模型方向最新进展,也欢迎关注我们的代码大模型综述:

关于我们

我们是蚂蚁集团的全模态代码算法团队,负责蚂蚁蚂蚁集团平台工程的智能化,团队成立3年以来,在 ACL、ICLR、NeurIPS、KDD 等顶级会论发表论文20余篇,参与获得两次蚂蚁技术最高奖 T-Star,1次蚂蚁集团最高奖 SuperMA。团队常年招聘研究型实习生,有做NLP、大模型、多模态、图神经网络的同学欢迎联系 hyu.hugo@antgroup.com。

如果您想更快地获取到最新信息,欢迎关注并加入我们~

目录
相关文章
|
2月前
|
人工智能 自然语言处理 IDE
模型微调不再被代码难住!PAI和Qwen3-Coder加速AI开发新体验
通义千问 AI 编程大模型 Qwen3-Coder 正式开源,阿里云人工智能平台 PAI 支持云上一键部署 Qwen3-Coder 模型,并可在交互式建模环境中使用 Qwen3-Coder 模型。
614 109
|
4月前
|
人工智能 运维 Serverless
0 代码,一键部署 Qwen3
依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。
|
25天前
|
人工智能 安全 开发工具
C3仓库AI代码门禁通用实践:基于Qwen3-Coder+RAG的代码评审
本文介绍基于Qwen3-Coder、RAG与Iflow在C3级代码仓库落地LLM代码评审的实践,实现AI辅助人工评审。通过CI流水线自动触发,结合私域知识库与生产代码同仓管理,已成功拦截数十次高危缺陷,显著提升评审效率与质量,具备向各类代码门禁平台复用推广的价值。(239字)
299 24
|
2月前
|
人工智能 IDE 开发工具
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
CodeGPT是一款基于AI的编程辅助插件,支持代码生成、优化、错误分析和单元测试,兼容多种大模型如Gemini 2.0和Qwen2.5 Coder。免费开放,适配PyCharm等IDE,助力开发者提升效率,新手友好,老手提效利器。(238字)
347 1
CodeGPT AI代码狂潮来袭!个人完全免费使用谷歌Gemini大模型 超越DeepSeek几乎是地表最强
|
6月前
|
人工智能 安全 自动驾驶
通义灵码入职蔚来汽车,AI生成代码30%以上
通义灵码已正式应用于蔚来汽车智能座舱部门,近400名成员使用该工具,AI生成代码占比达30%以上,“天探”项目中甚至高达70%-80%。它通过提升代码开发效率、降低维护成本、智能生成单元测试及问题排查等功能助力研发。蔚来选择通义灵码看重其企业专属版的安全能力和知识管理功能。未来,期望AI编程将研发流程规范化,成为类似自动驾驶的高效指引工具。
289 5
|
6月前
|
人工智能 运维 Serverless
一键部署 Qwen3! 0 代码,2 种方式全新体验
Qwen3 正式发布并开源 8 款混合推理模型,包括两款 MoE 模型(Qwen3-235B-A22B 和 Qwen3-30B-A3B)及六个 Dense 模型。这些模型支持 119 种语言,在代码、数学等测试中表现优异,并提供思考与非思考两种模式。依托阿里云函数计算 FC 算力,FunctionAI 平台支持模型服务和应用模板部署,适用于多种场景。用户可通过 Serverless 架构快速构建高弹性、智能化应用,显著降低开发成本,提升效率。试用链接及详细文档已提供,欢迎体验。
|
2月前
|
算法 安全 定位技术
基于改进拥挤距离的多模态多目标优化差分进化(MMODE-ICD)求解无人机三维路径规划研究(Matlab代码实现)
基于改进拥挤距离的多模态多目标优化差分进化(MMODE-ICD)求解无人机三维路径规划研究(Matlab代码实现)
102 2
|
2月前
|
人工智能 安全 开发工具
不只是写代码:Qwen Code 如何规划、执行并验证软件工程任务
本文以阿里推出的 CLI 工具 Qwen Code 为例,深入剖析其如何通过精细化的 Prompt 设计(角色定义、核心规范、任务管理、工作流控制),赋予大模型自主规划、编码、测试与验证的能力。
|
6月前
|
自然语言处理 IDE 开发工具
通义灵码新增 Inline Chat 能力,代码行内随时问答,沉浸式编码,心流不断
通义灵码行间会话(Inline Chat)支持开发者在代码编辑器区域进行对话,开发者可以通过自然语言对话的方式进行单个文件内的代码修改或进行即时提问。
311 0
|
3月前
|
数据采集 人工智能 自然语言处理
让AI读懂代码需求:模块化大模型微调助力高效代码理解与迁移
本文介绍了一种解决开源项目代码升级中“用户需求关联相应代码”难题的创新方法。面对传统Code RAG和Code Agent在召回率、准确率和稳定性上的不足,以及领域“黑话”和代码风格差异带来的挑战,作者团队提出并实践了一套以大模型微调(SFT)为核心的解决方案。
619 21

热门文章

最新文章

下一篇