发表评论取消回复
相关阅读
相关 【ChatGLM2-6B】nginx转发配置
背景 好不容易把`ChatGLM2-6B`大语言模型部署好了,使用`streamlit`方式启动起来了,终于可以愉快的玩耍了,然后想着申请一个域名,使用`HTTPS`协议
相关 ChatGLM多卡微调踩坑记录
题主近期尝试使用LoRA在自有数据上微调ChatGLM,尽管GitHub上已有很多LoRA相关代码,但实现过程中题主还是遇到了很多问题,现将遇到的问题整理出来供大家参考,实现的
相关 【ChatGLM2-6B】P-Tuning训练微调
机器配置 阿里云`GPU`规格`ecs.gn6i-c4g1.xlarge` `NVIDIA T4`显卡\1 `GPU`显存`16G`\1 准备训练数
相关 ChatGLM2-6B入门
目录 ChatGLM2-6B入门 安装ChatGLM2-6B 使用ChatGLM2-6B生成对话 示例:生成对话 使用建议 总结 ----------------
相关 【AWS系列】使用 Amazon SageMaker 微调和部署 ChatGLM 模型
前言 大语言模型是一种基于深度学习技术的人工智能模型,可以追溯到早期的语言模型和机器翻译系统。直到最近,随着深度学习技术的崛起,大型预训练语言模型才开始引起广泛的关注。
相关 【ChatGLM3】微调指南
下载数据集ToolAlpaca 从GitHub下载 cd ChatGLM3/finetune_chatmodel_demo git clone h
相关 LLM:ChatGLM-6B模型进行P-Tunning训练记录及参数讲解
模型训练 首先说明一下训练的目的:提供本地问答知识文件,训练之后可以按接近原文语义进行回答,类似一个问答机器人。 步骤 1. 安装微调需要的依赖: p
相关 【ChatGLM】使用ChatGLM-6B-INT4模型进行P-Tunning训练记录及参数讲解
文章目录 模型训练 步骤 参数含义 名词解释 欠拟合 泛化能力
相关 【ChatGLM】记录一次Windows部署ChatGLM-6B流程及遇到的问题
文章目录 部署环境 文件下载 项目文件 模型配置文件 模型文件 运行demo 遇到的问题 部署环境
还没有评论,来说两句吧...