5. ChatGLM-Med(Med-ChatGLM): 基于中文医学知识的ChatGLM模型微调

    项目简介

    是上述BenTsao的衍生项目, 开源了经过中文医学指令精调/指令微调(Instruct-tuning) 的ChatGLM-6B模型。 与本草相类, 通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对ChatGLM-6B进行了指令微调,提高了ChatGLM在医疗领域的问答效果。

    论文及开源地址

    相关微调及测试代码:
    https://github.com/SCIR-HI/Med-ChatGLM


    数据集构建

    与本草类同。


    模型训练

    推荐使用chatglm官方的微调方案:https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md
    项目提供了Instruct-tuning 指令微调的方法,提供了scripts/sft_medchat.sh运行脚本。
    如果想用自己的数据集继续指令微调/指令精调(Instruct-tuning)ChatGLM,可以构建与data目录中训练集类似的文件格式进行。或参照ChatGLM-Instruct-Tuning仓库。

    模型效果

    项目并没有提供如Lalama模型类似的评测结果,仅给了示例

    开放程度
    与本草类似。 作者采用的是ChatGLM v1, 并没有适配新发布的V2版本,存在相应的局限性。