摘要:自 DeepSeek-R1 发布以来,群组相对策略优化(GRPO)因其有效性和易于训练而成为大型语言模型强化学习的热门话题。R1 论文展示了如何使用 GRPO 从遵循 LLM(DeepSeek-v3)的基本指令转变为推理模型(DeepSeek-R1)。
选自oxen.ai
RTX 3080 移动版能训练哪种大模型?本文为那些 GPU 资源有限时使用 GRPO 训练的开发者提供了宝贵的指导。
自 DeepSeek-R1 发布以来,群组相对策略优化(GRPO)因其有效性和易于训练而成为大型语言模型强化学习的热门话题。R1 论文展示了如何使用 GRPO 从遵循 LLM(DeepSeek-v3)的基本指令转变为推理模型(DeepSeek-R1)。
GRPO 是一种在线学习算法(online learning algorithm),它通过使用训练过程中由训练模型自身生成的数据来进行迭代改进。GRPO 的目标是最大化生成补全(completions)的优势函数(advantage),同时确保模型保持在参考策略(reference policy)附近。
本文的目的是帮你节省一些时间,让你根据硬件预算选择合适的模型大小。在开始微调时,你必须做出的重要决定是选择模型大小,以及你是执行完全微调还是参数高效微调(PEFT)。
文章作者来自 AI 公司 Oxen.ai 的 CEO Greg Schoeninger。
作者表示,他发现 trl 库中已经有一个易于使用的 GRPO 实现,便立刻开始了训练,使用的硬件是配备了 16GB 显存的 Nvidia GeForce RTX 3080 的小型笔记本电脑。正如大家可能遇到的问题,作者发现示例代码中的参数设置导致了一个巨大的显存不足(OOM,out of memory )错误。
torch.OutOfMemoryError:CUDAoutof memory.Triedto allocate1.90GiB.GPU0has a total capacity of15.73
GiBof which1.28
GiB
isfree.
Includingnon-PyTorchmemory
thisprocess has14.43
GiBmemoryin
use.
Ofthe allocated memory11.82
GiB
isallocatedby
PyTorch
and
2.41
GiB
isreservedby
PyTorchbut unallocated.
Ifreserved but unallocated memoryislargetrysetting PYTORCH_cuda_ALLOC_CONF=expandable_segments:Trueto avoid fragmentation.
Seedocumentationfor
Memory
Management
(://pytorch.org/docs/stable/notes/cuda.html#environment-variables)
实际使用情况
作者表示,他们进行了一系列实验,以确定训练各种大小的模型所需的显存(VRAM)要求。参数数量从 5 亿到 140 亿不等,他们比较了权重的完全微调与参数高效微调(使用 LoRA),所有训练运行都在英伟达 H100 上完成,因此这里的 OOM 意味着 >80GB 的 VRAM。
在表格中,你可以找到 GSM8K 数据集上训练的前 100 步中的峰值内存使用情况。用于实验的模型是:
所有实验均使用 Shadeform 的 GPU 市场完成,因此每次实验只需要花费几美元 H100。
实验结果表明,内存需求随着模型大小和训练方式的不同而显著变化。例如,全参数微调比 PEFT 需要更多的内存。
为什么 GRPO 对内存需求较高
这要从 GRPO 的原理说起,这是它的流程图。
GRPO 对内存需求较高的原因在于,其内部涉及多个模型,并且在训练数据中每个查询会产生多个输出。上图中的策略模型、参考模型和奖励模型各自都是一个需要进行推理的 LLM。(尽管从技术上讲,奖励模型可能不需要参数化,可以只是一个 Python 函数或正则表达式,但不影响 GRPO 对内存的高需求。)
为什么 8-Bit 优化和梯度检查点有助于减少内存占用?
通常来讲,训练一个大型语言模型需要在内存中存储三种主要类型的信息:模型参数、模型学习所需的梯度、优化器的跟踪数据。
对上述内容我们可以这样理解:如果模型的参数占用了 X 的空间,那么梯度也会占用大约相同的空间。然后,像 AdamW 这样的优化器需要更多的空间,因为它们就像一个记录员,跟踪最近的更新历史,以便更好地决定未来的优化。
为了减轻这种内存负担,通常采用两种技术:
首先,可以使用像 AdamW 这样的 8-bit 优化器版本,它们能更高效地存储跟踪数据,同时仍保持良好的性能 —— 类似于压缩照片可以节省空间,同时保留大部分图像质量;其次,使用梯度检查点技术,这就像在训练过程中拍摄快照,而不是记录所有内容。虽然这会使训练速度减慢约 20-30%,但它显著减少了内存使用。结合这些技术,即使对 GPU 资源有限的人来说,也能够训练更大的模型。
代码示例
像 trl 这样的库已经开始支持 GRPO,使得微调由 transformers 构成的 LLM 变得非常简单。代码也非常简洁,只需将训练器替换为 GRPOTrainer 并定义一些奖励即可。GRPO 的最小代码量大约只有 99 行,如果你使用的是像 meta-llama/Llama-3.2-1B-Instruct 这样的小型模型和像 openai/GSM8K 这样的数据集,可以非常快速地启动。
trl 项目地址:https://GitHub.com/huggingface/trl?ref=ghost.oxen.ai
importtorchfromDatasetsimportload_datasetDatasetfromtransformersimport
AutoTokenizer
AutoModelForCausalLMfromtrlimport
GRPOConfig
GRPOTrainerimportreSYSTEM_PROMPT=
"""Respond in the following format:......"""defextract_hash_answer(text:str)
->str|
None:
if
"####"
not
intext:
return
None
returntext.split("####")[1].stripdefget_gsm8k_questions(split=
"train")
->
Dataset:data=load_dataset('openai/gsm8k'
'main')[split]data=data.map(lambdax:
{
'prompt':
[
{'role':
'system'
'content':SYSTEM_PROMPT},
{'role':
'user'
'content':x['question']}
],
'answer':extract_hash_answer(x['answer'])
})
returndatadefextract_xml_answer(text:str)
->str:answer=text.split("")[-1]answer=answer.split("")[0]
returnanswer.stripdefformat_reward_func(completions
**kwargs)
->list[float]:
"""Reward function that checks if the completion has a specific format."""pattern=r"^\n.*?\n\n\n.*?\n\n$"responses=
[completion[0]["content"]
forcompletionincompletions]matches=
[re.match(patternr)
forrinresponses]
return
[0.5
ifmatchelse
0.0
formatchinmatches]defaccuracy_reward_func(promptscompletionsanswer
**kwargs)
->list[float]:
"""Reward function that extracts the answer from the xml tags and compares it to the correct answer."""responses=
[completion[0]['content']
forcompletionincompletions]extracted_responses=
[extract_xml_answer(r)
forrinresponses]
return
[2.0
ifr==aelse
0.0
forrainzip(extracted_responsesanswer)]defmain:dataset=get_gsm8k_questionsmodel_name=
"meta-llama/Llama-3.2-1B-Instruct"model=
AutoModelForCausalLM.from_pretrained(model_nametorch_dtype=torch.bfloat16attn_implementation="flash_attention_2"device_map=None
).to("cuda")tokenizer=
AutoTokenizer.from_pretrained(model_name)tokenizer.pad_token=tokenizer.eos_tokentraining_args=
GRPOConfig(output_dir="output"learning_rate=5e-6adam_beta1=0.9adam_beta2=0.99weight_decay=0.1warmup_ratio=0.1lr_scheduler_type='cosine'logging_steps=1bf16=Trueper_device_train_batch_size=1gradient_accumulation_steps=4num_generations=4max_prompt_length=256max_completion_length=786num_train_epochs=1save_steps=100save_total_limit=1max_grad_norm=0.1log_on_each_node=False
)trainer=
GRPOTrainer(model=modelprocessing_class=tokenizerreward_funcs=[format_reward_funcaccuracy_reward_func
],args=training_argstrain_dataset=dataset
)trainer.trainif__name__==
"__main__":main
Num Generations 有什么用
Num Generations 是一个超参数,它决定了我们将在训练数据中对每个查询采样多少个补全。然而,这会显著增加 VRAM 的消耗。
目前有一个开放的 GitHub 问题,可能会帮助解决内存瓶颈问题,可以参考如下链接
地址:https://github.com/huggingface/trl/issues/2709?ref=ghost.oxen.ai
对于 num_completions=8,16,64 (DeepSeekMath 论文使用的 64),作者表示,不用再次计算上述所有值,而是使用了 1B 参数模型进行了测试,以显示内存增长。不过,作者还是建议大家在内存瓶颈得到修复之前使用 num_generations=4,也能获得不错的性能。
影响 VRAM 的一些因素
要对所有影响显存(VRAM)使用的因素进行全面的超参数验证,需要进行大量的实验。简单起见,这里只指出了需要注意的设置,以及实验中使用的具体数值。
batch_size=1,由于 GRPO 为每个查询生成多个响应,batch size 会迅速失控。gradient_accumulation_steps=4,优化器是另一个占用大量 VRAM 的地方。此参数决定了我们将存储的梯度以帮助优化器进行其「爬山」过程。num_completions=4,DeepSeekMath 论文中使用了 64。这完全超出了有些人的计算预算。max_prompt_length=256,如果你想训练模型拥有更大上下文的推理能力,将不得不增加 VRAM。GSM8K 的提示相对较小,适合此测试。max_completion_length=786,同样,由于计算注意力的内存有限,推理链在这里受到限制。上下文或生成的 token 越多,需要的内存就越大。LoRA target_modules=["q_proj", "k_proj", "o_proj", "up_proj", "down_proj"] 在这方面可以尝试几种不同的迭代。target_modules="all-linear" 是一种流行的方式,可以从你的 LoRA 中挤出最多的性能(就准确性而言)。对 VRAM 使用的粗略估算
如果你正在使用 FP16 精度进行训练,以下是一些简单的估算方法,可以帮助你了解内存主要用在了哪些地方:
模型参数:每个参数占用 2 字节。参考模型参数:每个参数占用 2 字节。梯度:每个参数占用 2 字节。优化器状态:每个参数占用 8 字节。8 位优化器:每个参数占用 4 字节。PEFT:有助于减少梯度的显存占用。最后是关于准确率的。作者完成了一个 10 亿参数的 Llama 3.2 模型的完整训练。在应用 GRPO 之前,该模型在保留测试集上达到了约 19% 的准确率,而在经过一个训练周期后,模型的准确率飙升至约 40.5%。虽然这离 SOTA 水平还差得很远,但这展示了 GRPO 的强大潜力。
来源:机器之心Pro