五分钟讲解什么是lora 笔记

B站影视 港台电影 2025-08-22 20:01 1

摘要:gpt 主模型会输出语言,但这时候我想要训练他讲火星文,原模型的 w 参数矩阵是很大的,所以这时候我要想办法更新的时候不用这么大矩阵都更新。那就想局部矩阵用来更新就好,我们把原参数固定 w0,现在训练的参数 w=w0+ w1。

gpt 主模型会输出语言,但这时候我想要训练他讲火星文,原模型的 w 参数矩阵是很大的,所以这时候我要想办法更新的时候不用这么大矩阵都更新。那就想局部矩阵用来更新就好,我们把原参数固定 w0,现在训练的参数 w=w0+ w1。
我把火星文数据集 dataset 输入了,比如一条数据是:问:125?答:1314921。模型就学习这些数据,降低损失函数,反向传播更新参数,但 w0 被固定,所以更新的参数只有 w1,最后模型收敛,但如果这样,w1 大小和 w0 矩阵大小是一样的,是全量微调,所以还是很大,因此我们用低秩适应来解决这个问题,也就用 lora 限制 w1 的形状。
模型训练的过程,参数矩

来源:诺拉的猫

相关推荐