【AWS系列】使用 Amazon SageMaker 微调和部署 ChatGLM 模型

发表评论

表情:
评论列表 (有 0 条评论,27人围观)

还没有评论,来说两句吧...

相关阅读

    相关 LLM-微调-方案(一):Lora【案例:chatGLM-Lora】【在chatGLM原有结构中间插入新的网络层】【微调时冻结原有结构参数,只微调新加入的网络层参数】

    Lora主要在模型中注入可训练模块,大模型在预训练完收敛之后模型包含许多进行矩阵乘法的稠密层,这些层通常是满秩的,在微调过程中其实改变量是比较小的,在矩阵乘法中表现为低秩的改变