5. ChatGLM-Med(Med-ChatGLM): 基于中文医学知识的ChatGLM模型微调
项目简介
是上述BenTsao的衍生项目, 开源了经过中文医学指令精调/指令微调(Instruct-tuning) 的ChatGLM-6B模型。 与本草相类, 通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对ChatGLM-6B进行了指令微调,提高了ChatGLM在医疗领域的问答效果。
论文及开源地址
相关微调及测试代码:
https://github.com/SCIR-HI/Med-ChatGLM
数据集构建
与本草类同。
模型训练
推荐使用chatglm官方的微调方案:https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md
项目提供了Instruct-tuning 指令微调的方法,提供了scripts/sft_medchat.sh运行脚本。
如果想用自己的数据集继续指令微调/指令精调(Instruct-tuning)ChatGLM,可以构建与data目录中训练集类似的文件格式进行。或参照ChatGLM-Instruct-Tuning仓库。
模型效果
项目并没有提供如Lalama模型类似的评测结果,仅给了示例
开放程度
与本草类似。 作者采用的是ChatGLM v1, 并没有适配新发布的V2版本,存在相应的局限性。