Skip to content

Latest commit

 

History

History
31 lines (18 loc) · 1.75 KB

LlaMA-7b模型准备.md

File metadata and controls

31 lines (18 loc) · 1.75 KB

本readme目的是准备LlaMA模型底座,使得其可以在huggingface transformers框架下进行参数高效微调。准备工作主要有三步:

LlaMA模型主干

获取LlaMA模型主干有几种途径:

LlaMA模型权重转化

上一步骤的前两种方法需要将LlaMA模型权重转化为huggingface transformers的格式,详见convert_llama_weights_to_hf)。

融合Chinese-LlaMA-Alpaca

Chinese-LlaMA-Alpaca项目提供了使得LlaMA模型更适应于中文场景的lora权重和经过继续预训练的embedding权重。我们采用其脚本将其权重合并到模型主干中:

python src/chatmed_llama_peft/merge_llama_with_chinese_lora.py \
    --base_model decapoda-research/llama-7b-hf \
    --lora_model ziqingyang/chinese-llama-plus-lora-7b,ziqingyang/chinese-alpaca-plus-lora-7b \
    --output_type huggingface \
    --output_dir ./resources/chinese-llama-alpaca-plus-lora-7b

注意上述命令中我们合并了Chinese-LlaMA-Alpaca的两个lora权重,第一个权重是做了大规模中文语料预训练,第二个权重则是进一步做了基于self-instruct的中文指令微调。两者合并可以得到更会说中国话的LlaMA模型。