使用云容器实例开启微调
LLaMA Factory 是一款开源低代码大模型微调框架,集成了业界广泛使用的微调技术。本章节旨在介绍如何使用 ALayaNeW 平台的云容器实例部署使用 LLaMA Factory 对 llama3-8b-instruct 模型进行基于 LoRA 的 SFT 指令微调。
前提条件
- 用户已经获取 Alaya New 企业账户和密码,如果需要帮助或尚未注册,可参考注册账户完成注册。
- 当前企业账号的余额充裕,可满足用户使用推理计算服务的需要。如需了解最新的活动详情及费用信息,请联系我们。
操作步骤
步骤一:创建云容器实例
-
使用已注册的企业账号登录 Alaya NeW 平台,单击[产品/计算/云容器实例]菜单项,进入云容器实例页面。
-
单击“新建云容器”,进入[云容器实例]开通页面,开通基本信息,例如:实例名称,实例描述,智算中心等参数。 本示例中按如下要求配置各项参数。其中:
-
资源类型
:选择“云容器实例-GPU-H800A-1卡”即可。 -
镜像
:选择公共镜像。 -
其他参数配置请参考下表进行设置。
配置参数 参数说明 配置要求 是否必须 云容器实例名称 指定云容器的标识符,用于在系统中唯一识别该云容器。 字母开头,支持字母、数字、连字符(-)、下划线(_),长度应为4-20字符。 是 实例描述 云容器的功能、用途、配置等信息进行简要说明的文字描述。 无。 - 智算中心 用于支持大模型推理服务的数据中心。 选择可用的数据中心,例如:北京一区、北京二区等。 是 付费方式 使用数据中心资源的计费方式。 选择系统目前支持的计费方式,当前为按量计费。 是 资源配置 详细列出算力中心的资源规格,包括资源类型、GPU型号、计算资源规格、磁盘配置等。 选择满足所需的资源。 是 镜像 支持公共镜像和私有镜像,可根据需要选择镜像类型。 - 是 其他配置 支持配置环境变量的建和值,同时支持开启云容器实例的自动关机和自动释放。 - 否
-
-
云容器实例参数配置完成后,单击“立即开通”按钮,然后在弹出的对话框中确认已配置的参数,确认无误后单击“确定”,即可完成云容器实例开通操作。
您可以在[计算/云容器实例]页面查看已创建的云容器实例,当云容器实例状态为“运行中”时,表示云容器实例创建成功且可正常使用。
步骤二:下载安装 LLaMA Factory
- 运行以下指令以安装 LLaMA-Factory 及其依赖:
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]" - 完成安装后,可以通过使用以下命令。
显示如下结果,说明安装成功。
llamafactory-cli version
步骤三:开启LLaMA Factory Webui
-
在“云容器实例”页面的“容器列表”页签找到目标云容器实例,单击右侧的web连接图标进入云容器CLI界面。
提示您还可以采用 SSH 的方式在本地连入后台。
-
执行如下命令,启动LLaMA Factory Webui。
cd /app
GRADIO_SERVER_PORT=9001 llamafactory-cli webui启动成功控制台界面。
-
在容器列表的开放端口中找到 9001 对应的外部端口。
a. 在“云容器实例”页面的“容器列表”页签找到目标云容器实例,单击右侧的开放端口
图标。
b. 在弹出的对话框中复制 9001 端口对应的地址。
-
粘贴到浏览器输入地址,则可以访问 LLaMA Factory Webui,并开始界面化操作。