-
https://github.com/lich99/ChatGLM-finetune-LoRA
- 基于alpaca数据集,使用Lora技术微调ChatGLM-6B
-
https://github.com/mymusise/ChatGLM-Tuning
- 基于alpaca数据集,使用Lora技术微调ChatGLM-6B
-
https://github.com/liangwq/Chatglm_lora_multi-gpu
-
https://huggingface.co/silver/chatglm-6b-slim
- 是在ChatGLM-6B的基础上通过裁剪词表构建的。因为ChatGLM-6B使用了icetk,在其词表中,前20000个token是预留给图片的
-
https://github.com/MediaBrain-SJTU/MedicalGPT-zh
- 一个基于ChatGLM的在高质量指令数据集微调的中文医疗对话语言模型
-
https://github.com/hiyouga/ChatGLM-Efficient-Tuning