跳到主要内容

使用云容器实例开启微调

更新时间:2025-09-26 11:43:25

LLaMA Factory 是一款开源低代码大模型微调框架,集成了业界广泛使用的微调技术。本章节旨在介绍如何使用 ALayaNeW 平台的云容器实例部署使用 LLaMA Factory 对 llama3-8b-instruct 模型进行基于 LoRA 的 SFT 指令微调。

前提条件

  • 用户已经获取 Alaya New 企业账户和密码,如果需要帮助或尚未注册,可参考注册账户完成注册。
  • 当前企业账号的余额充裕,可满足用户使用推理计算服务的需要。如需了解最新的活动详情及费用信息,请联系我们

操作步骤

步骤一:创建云容器实例

  1. 使用已注册的企业账号登录 Alaya NeW 平台,单击[产品/计算/云容器实例]菜单项,进入云容器实例页面。

  2. 单击“新建云容器”,进入[云容器实例]开通页面,开通基本信息,例如:实例名称,实例描述,智算中心等参数。 本示例中按如下要求配置各项参数。其中:

    • 资源类型:选择“云容器实例-GPU-H800A-1卡”即可。

    • 镜像:选择公共镜像。 image-20250921140714213

    • 其他参数配置请参考下表进行设置。

      配置参数参数说明配置要求是否必须
      云容器实例名称指定云容器的标识符,用于在系统中唯一识别该云容器。字母开头,支持字母、数字、连字符(-)、下划线(_),长度应为4-20字符。
      实例描述云容器的功能、用途、配置等信息进行简要说明的文字描述。无。-
      智算中心用于支持大模型推理服务的数据中心。选择可用的数据中心,例如:北京一区、北京二区等。
      付费方式使用数据中心资源的计费方式。选择系统目前支持的计费方式,当前为按量计费。
      资源配置详细列出算力中心的资源规格,包括资源类型、GPU型号、计算资源规格、磁盘配置等。选择满足所需的资源。
      镜像支持公共镜像和私有镜像,可根据需要选择镜像类型。-
      其他配置支持配置环境变量的建和值,同时支持开启云容器实例的自动关机和自动释放。-
  3. 云容器实例参数配置完成后,单击“立即开通”按钮,然后在弹出的对话框中确认已配置的参数,确认无误后单击“确定”,即可完成云容器实例开通操作。

    您可以在[计算/云容器实例]页面查看已创建的云容器实例,当云容器实例状态为“运行中”时,表示云容器实例创建成功且可正常使用。 image-20250921141020049

步骤二:下载安装 LLaMA Factory

  1. 运行以下指令以安装 LLaMA-Factory 及其依赖:
    git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
    cd LLaMA-Factory
    pip install -e ".[torch,metrics]"
  2. 完成安装后,可以通过使用以下命令。
    llamafactory-cli version
    显示如下结果,说明安装成功。 image-20250921141020049

步骤三:开启LLaMA Factory Webui

  1. 在“云容器实例”页面的“容器列表”页签找到目标云容器实例,单击右侧的web连接图标进入云容器CLI界面。

    提示

    您还可以采用 SSH 的方式在本地连入后台。

    image-20250921143227208

  2. 执行如下命令,启动LLaMA Factory Webui。

    cd /app
    GRADIO_SERVER_PORT=9001 llamafactory-cli webui

    启动成功控制台界面。

    image-20250921145743028

  3. 在容器列表的开放端口中找到 9001 对应的外部端口。

    a. 在“云容器实例”页面的“容器列表”页签找到目标云容器实例,单击右侧的开放端口 descript图标。

    alt text

    b. 在弹出的对话框中复制 9001 端口对应的地址。

  4. 粘贴到浏览器输入地址,则可以访问 LLaMA Factory Webui,并开始界面化操作。

image-20250921144126747