

喜讯:国内、香港、海外云服务器租用特惠活动,2核/4G/10M仅需31元每月,点击抢购>>>
点击这里进入阿里云ECS官方页面,立即免费体验云服务器ECS>>>
阿里云老客户点击这里申请VIP账号,享终身8折优惠(续费也打折)>>>
阿里云服务器ECS使用教程-基于AIACC加速器快速实现LLaMA-7B指令微调
本文基于Alpaca提供了一套LLaMA-7B模型在阿里云ECS上进行指令微调的训练方案,最终可以获得性能更贴近具体使用场景的语言模型。
LLaMA(Large Language Model Meta AI )是Meta AI在2023年2月发布的开放使用预训练语言模型(Large Language Model, LLM),其参数量包含7B到65B的集合,并仅使用完全公开的数据集进行训练。LLaMA的训练原理是将一系列单词作为“输入”并预测下一个单词以递归生成文本。 LLM具有建模大量词语之间联系的能力,但是为了让其强大的建模能力向下游具体任务输出,需要进行指令微调,根据大量不同指令对模型部分权重进行更新,使模型更善于遵循指令。指令微调中的指令简单直观地描述了任务,具体的指令格式如下: Alpaca是一个由LLaMA-7B模型进行指令微调得到的模型,其训练过程中采用的通过指令对LLaMA-7B模型进行小规模权重更新的方式,实现了模型性能和训练时间的平衡。 本文基于Alpaca提供了一套LLaMA-7B模型,基于DeepSpeed进行指令微调训练,并使用AIACC加速训练。AIACC包括ACSpeed和AGSpeed两个加速器。 加速器 说明 相关文档 ACSpeed AIACC-ACSpeed(简称ACSpeed)是阿里云自研的AI训练加速器,在AI框架层、集合算法层和网络层上分别实现了与开源主流分布式框架的充分兼容,并实现了软硬件结合的全面优化。ACSpeed具有其显著的性能优势,在提高训练效率的同时能够降低使用成本,可以实现无感的分布式通信性能优化。 什么是AI分布式训练通信优化库AIACC-ACSpeed AGSpeed AIACC-AGSpeed(简称AGSpeed)是阿里云推出的一个基于PyTorch深度学习框架研发的计算优化编译器,用于优化PyTorch深度学习模型在阿里云GPU异构计算实例上的计算性能,可以实现计算优化。 什么是计算优化编译器AIACC-AGSpeed 重要 阿里云不对第三方模型“llama-7b-hf”的合法性、安全性、准确性进行任何保证,阿里云不对由此引发的任何损害承担责任。 您应自觉遵守第三方模型的用户协议、使用规范和相关法律法规,并就使用第三方模型的合法性、合规性自行承担相关责任。 操作前,请先在合适的地域和可用区下创建VPC和交换机。 本文使用ecs.gn7i-c32g1.32xlarge规格的ECS实例进行训练,仅部分地域可用区支持该实例规格,具体请参见ECS实例规格可购买地域。 关于如何创建VPC和交换机,请参见创建专有网络和创建交换机。 控制台方式 FastGPU方式 前往实例创建页。 按照向导完成参数配置,创建一台ECS实例。 需要注意的参数如下。更多信息,请参见自定义购买实例。 实例:规格选择ecs.gn7i-c32g1.32xlarge(包含4卡NVIDIA A10 GPU)。 镜像:使用云市场镜像,名称为aiacc-train-solution,该镜像已部署好训练所需环境。您可以直接通过名称搜索该镜像,版本可选择最新版本。 说明 您也可以选择公共镜像(如CentOS 7.9 64位),后续手动部署环境。 公网IP:选中分配公网IPv4地址,按需选择计费模式和带宽。本文使用按流量计费,带宽峰值为5 Mbps。 添加安全组规则。 在ECS实例所需安全组的入方向添加一条规则,开放7860端口,用于访问WebUI。具体操作,请参见添加安全组规则。 以下示例表示向所有网段开放7860端口,开放后所有公网IP均可访问您的WebUI。您可以根据需要将授权对象设置为特定网段,仅允许部分IP地址可以访问WebUI。 使用Workbench连接实例。 如果使用示例的云市场镜像进行测试,由于环境安装在 下载tmux并创建一个tmux session。 说明 训练耗时较长,建议在tmux session中启动训练,以免ECS断开连接导致训练中断。 进入Conda环境。 获取llama-7b-hf预训练权重。 下载llama-7b权重。 修复官方代码Bug。 创建并设置DeepSpeed配置文件。 (可选)如果使用多台ECS实例进行训练,需配置hostfile。 本文使用一台ECS实例进行训练,可跳过此步骤。 如下示例表示配置两台ECS实例(GPU总数为8)时,需要填入每台ECS实例的内网IP和slots,其中slots表示进程数(即GPU数)。 启动训练。 启动训练的命令脚本如下,alpaca_data.json为指令数据集文件, 启动训练后预期返回如下: 说明 训练完成大概需要7小时左右,在tmux session中进行训练的过程中,如果断开了ECS连接,重新登录ECS实例后执行 查看原生预训练模型的推理效果。 进入Conda环境。 使用原生checkpoint文件进行推理。 启动WebUI服务。 预期返回: 打开本地浏览器,访问ECS实例的公网IP地址加7860端口,如 在Input框中输入问题(建议输入英语),单击Generate,在Output框获取结果。 原生的预训练模型不能很好理解指令。示例如下: 等待训练完成后,查看指令微调后模型的推理效果。
推荐:TOP云智能建站优惠活动,仅880元即可搭建一个后台管理五端合一的智能网站(PC网站、手机网站、百度智能小程序、微信小程序、支付宝小程序),独享百度搜索SEO优势资源,让你的网站不仅有颜值有排面,更有排名,可以实实在在为您带来效益,请点击进入TOP云智能建站>>>,或咨询在线客服了解详情。背景信息
{
"instruction": "Given the following input, find the missing number",
"input": "10, 12, 14, __, 18",
"output": "16"
}操作步骤
准备工作
创建ECS实例




/root目录下,连接实例时需使用root用户。关于如何连接ECS实例,请参见通过密码或密钥认证登录Linux实例。(可选)手动部署环境
启动训练
yum install tmux
tmux
conda activate llama_train
cd /root/LLaMA
git lfs install
git clone https://huggingface.co/decapoda-research/llama-7b-hf
sed -i "s/LLaMATokenizer/LlamaTokenizer/1" ./llama-7b-hf/tokenizer_config.json
cd LLaMA/stanford_alpaca
cat << EOF | sudo tee ds_config.json
{
"zero_optimization": {
"stage": 3,
"contiguous_gradients": true,
"stage3_max_live_parameters": 0,
"stage3_max_reuse_distance": 0,
"stage3_prefetch_bucket_size": 0,
"stage3_param_persistence_threshold": 1e2,
"reduce_bucket_size": 1e2,
"sub_group_size": 1e8,
"offload_optimizer": {
"device": "cpu",
"pin_memory": true
},
"offload_param": {
"device": "cpu",
"pin_memory": true
},
"stage3_gather_16bit_weights_on_model_save": true
},
"communication":{
"prescale_gradients": true
},
"fp16": {
"enabled": true,
"auto_cast": false,
"loss_scale": 0,
"initial_scale_power": 32,
"loss_scale_window": 1000,
"hysteresis": 2,
"min_loss_scale": 1
},
"train_batch_size": "auto",
"train_micro_batch_size_per_gpu": "auto",
"wall_clock_breakdown": false,
"zero_force_ds_cpu_optimizer": false
}
EOFcat > hostfile <<EOF
{private_ip1} slots=4
{private_ip2} slots=4
EOF$MASTER_PORT请替换为2000-65535的随机端口号。deepspeed --master_port=$MASTER_PORT --hostfile hostfile
train.py
--model_name_or_path ../llama-7b-hf
--data_path ./alpaca_data.json
--output_dir ./output
--report_to none
--num_train_epochs 1
--per_device_train_batch_size 2
--per_device_eval_batch_size 2
--gradient_accumulation_steps 8
--evaluation_strategy "no"
--save_strategy "steps"
--save_steps 400
--save_total_limit 2
--learning_rate 2e-5
--weight_decay 0.
--warmup_ratio 0.03
--lr_scheduler_type "cosine"
--logging_steps 1
--deepspeed ./ds_config.json
--tf32 False
--bf16 False
--fp16

tmux attach命令即可恢复tmux session,查看训练进度。效果展示
查看WebUI推理效果
conda activate llama_train
cd /root/LLaMA/text-generation-webui
ln -s /root/LLaMA/llama-7b-hf ./models/llama-7b-hf
python /root/LLaMA/text-generation-webui/server.py --model llama-7b-hf --listen

101.200.XX.XX:7860。


湘公网安备43019002001857号
备案号:
客服1