跳到主要内容

产品介绍

Alaya NeW 算力服务

九章云极DataCanvas Alaya NeW以高性能智算资源和强大的技术能力提供算力服务,并首创以“度”(DCU)为计量单位的产品形态“算力包”,用户可以极具性价比的方式获得资源动态扩展、按需弹性消费的Alaya NeW算力服务。

Alaya NeW算力服务提供核心算力产品——弹性容器集群,同时提供大模型系列工具,包括LM Lab-大模型训练与微调、Inference-AI模型推理、Alaya Studio-Agent开发与应用构建等,满足用户在人工智能训练、推理、Agent构建、高性能计算等场景中的多样化需求,加速实现业务价值。

 

服务优势

1.弹性计量与计费

DataCanvas Alaya NeW算力服务采用Serverless弹性高性能计算架构,基于弹性容器集群灵活调度和管理算力资源,可根据需求为不同的作业或项目动态分配算力资源,用户可根据实际需求动态扩缩算力规模,分配计算资源,以灵活适配业务需求。算力消耗只对运行的算力任务计量(DCU)和计费,使得用户对算力的使用如电力般灵活与便捷,只需专注于AI训练和推理等任务。

2.高性能智算资源

  • DataCanvas Alaya NeW算力服务提供布局全国的智算算力,支持主流高性能加速卡及其算力组合,同时依托其在算力适配、纳管、调度和优化等方面的能力,以及面向大模型任务所提供的专用的调度算法和策略,全面提升了算力服务性能。
  • 通过高度集成的存储技术和创新的系统设计,专为大模型加速优化存储设施,全面支持各类存储协议,在不同类型的应用需求和计算场景下都能实现最佳性能。
  • 高性能网络基于无阻塞、高带宽和高效通信的网络拓扑结构,全面支持高速IB网络及配套优化的网络集合通讯算法,算力节点处于同一高速计算网络,以强大的节点互联能力快速响应不同的计算需求。

3.一站式AI开发

DataCanvas Alaya NeW算力服务面向 AI 模型全生命周期设计,涵盖环境、数据、训练微调、推理等全部链路。其内置开箱即用的大模型工具链:LM Lab、Inference、Alaya Studio,并预置丰富的开源大模型和智能体,以满足多样化应用需求。借助Alaya NeW算力服务,用户可便捷高效地开展人工智能训练微调和推理应用。  

4.全局加速优化

DataCanvas Alaya NeW算力服务针对大模型基础设施实现全局加速优化:通过算法加速、编译优化、内存优化、通信加速实现训练效率提升100%、GPU利用率提升50%、推理速度提升4倍,向用户提供开箱即用的高性能模型训练服务、安全的高性能私有模型仓库、动态模型推理服务。

 

算力包

1.算力包

九章云极DataCanvas首创高性能弹性算力产品“算力包”,以“度”(DataCanvas Unit,DCU)为算力服务计量计费单位。DCU的值代表用户通过Alaya NeW的智能管理软件和人工智能基础软件使用智算服务的工作负荷计量值,包括计量时间内加速卡算力以及配套资源的使用负荷,DCU价值 =算力服务价值 + 周边设备服务价值 + 智能管理软件和人工智能基础软件服务价值 + 运维运营服务价值。

算力包以创新性的“按需消费、按度计量”的服务模式,为广大用户提供高质量、高性能、灵活“度”数的算力一体化资源包,以算力消费新方式为广大用户破除算力预算有限、资源弹性不足、资源浪费严重、技术门槛较高等难题,实现算力资源普惠,算力服务“买到即用到”。九章云极DataCanvas提供包含不同算力度数的算力包,如基础包(100度、1000度、10000度等),以及原基础包之上的扩展包,针对更大算力需求量,则提供如10万度算力包等产品,用户可按实际使用需求进行选择和购买,具体产品信息请咨询销售人员或官方客服。

 

2.模式对比

2 .1算力包 VS 裸金属

算力包(弹性容器集群)包年包月算力( 裸金属)
计费模式算量计费,实时扣费:仅在计算任务运行时计费,算力资源0浪费。算时计费,包年包月付费:机器空转时仍需分摊租用成本,平均算力利用率≤20%,算力资源闲置浪费明显。
成本费用价格更低、更省钱:以算力包(DCU)的形式计算占用裸金属服务器一个月(平均算力利用率≤20%)产生的费用,大幅低于市场价。对预算要求高,需承诺购买更长的服务周期或更大资源规模才能享受折扣优惠。
时间弹性即开即用,即关即停,按实际使用收费,不使用不收费。服务周期固定,无论是否使用算力,均按照包年包月模式付费。
资源弹性算力资源智能调度,支持按需弹性扩展、缩减算力,支持多型号、多卡、多节点算力,满足各种使用场景。算力资源的规模、配置均固定。空闲时间浪费资源,资源不足时需重复实施业务流程,相关运维工作技术门槛高。
配套AI工具提供开箱即用的大模型+Agent开发工具链,同时内置丰富的开源大模型,满足不同应用场景。无任何现有工具,需自行搭建环境和工具,技术门槛和运维成本高。

2 .2算力包 VS 卡时算力

算力包(弹性容器集群)卡时算力(云主机)
计费模式实时计量计费:算力包提供即买即用的算力资源,支持随时按需使用算力,仅对实际消耗的算力计量计费。周期计费扣费: 以“卡·时”为基本计费单位,对服务周期内实际已使用、未使用的所有算力结算计费。
成本费用用户能够以相对较低的价格在短时间内获得多卡(高性能加速卡)的算力服务。用户需以相对较高的价格才能在短时间内获得多卡(高性能加速卡)的算力服务。
资源弹性支持用户自主调配加速卡数量,迅速获得高并行度的算力服务,满足突发需求、加速开发进度。资源弹性一般,需另行加购和配置,相应需重复实施业务流程和运维工作。
集群能力多机多卡: 弹性集群算力性能无任何限制,所有加速卡处在同一高速计算网络中,节点互联性能强劲。单机多卡: 单台云主机最多可用8卡,无集群能力。多台云主机之间使用以太网连接,不处于同一个计算网,无法支持训练或大规模微调任务。
资源配置算力包现有算力资源主要为高性能的高端型号加速卡,其次为中端型号加速卡。市场现有可售算力资源主要为性能一般的中低端型号加速卡。

 

应用场景

DataCanvas Alaya NeW 算力服务专注于人工智能核心任务,提供集 “算力、数据、算法、调度”为一体的融合服务,其能够支持人工智能训练微调、推理、智能体构建等场景,同时也支持高性能计算应用场景。

1.人工智能训练微调

针对深度学习的训练负载,其具有大批量的数据,例如图片、语音、文本等,需要不断更新、迭代神经网络中的参数以满足业务对预测精度的要求。对此,算力包提供支持 Tensor Core 功能的高性能的加速卡,以加速深度学习中的大量矩阵计算,缩短网络模型的收敛时间。

Alaya NeW算力服务基于弹性容器集群提供一体化的计算资源和工具支持,帮助用户高效开展大规模AI训练,可依据模型复杂度、数据规模、任务进度、资源使用情况等信息,灵活规划和实时调整算力资源的配置和规模。同时Alaya NeW还提供大模型构建工具LM Lab,其 具备大模型构建能力,提供数据管理、模型训练、任务管理、模型管理、环境管理等功能,覆盖完整的大模型开发流程,帮助算法工程师和AI开发工程师快速开发高质量AI专属大模型,助力企业高效探索大模型应用。

2.人工智能推理

针对深度学习的在线推理场景,推理负载对加速卡性能的要求降低,但对运行稳定性、服务器响应延时提出更高要求。算力包在满足性能要求的同时,提供极具性价比的加速卡型号选择,并保障服务的加速性能及稳定性。

Alaya NeW算力服务基于弹性容器集群提供一体化的计算资源和工具支持,帮助用户高效开展实时推理和批处理推理。弹性容器集群依托 高性能加速卡 和 虚拟化技术 实时 接收并迅速处理海量推理请求,并自动平衡不同推理实例之间的负载,用户也可以根据实际请求量实时调整算力资源配置。同时Alaya NeW还提供AI模型推理工具 Inference ,其 具备AI模型推理能力,提供大语言模型、计算机视觉、自然语言处理等多种业务场景服务,LLM大语言模型服务支持大语言模型部署、压缩和推理能力,实现大语言模型的生产化,助力企业实现AIGC等人工智能应用落地。

3.AI Agent构建

AI Agent 依赖于大模型提供的强大技术支持,通过预训练和微调,大模型使得 Agent 具备了出色的语言理解和生成能力。 AI Agent 在客户服务、医疗诊断、金融服务、教育辅助、智能家居等领域展现了巨大的应用价值,提升了行业自动化、智能化水平。

Alaya NeW算力服务基于弹性容器集群提供一体化的计算资源和工具支持,帮助用户高效地开展人工智能Agent构建,用户可根据模型复杂度和数据规模配置和调整资源规模,节约费用成本。同时Alaya NeW还提供Agent构建工具Alaya Studio,其具备大模型Agent构建能力,集成了大语言模型、向量化模型和多模态大模型的API,用户能够在不同平台上应用模型,还可以使用自己的数据对开源模型进行微调,同时支持开发构建Agent,并将其作为API发布供外部系统调用。

4.高性能计算

高性能计算( HPC )广泛应用于许多科学计算和工程计算领域,包括图像处理与计算机视觉、工程与工业应用、人工智能与机器学习等,通常需要高精度算力来满足应用对精度的要求。算力包依托高性能计算集群提供大规模并行计算能力,满足用户在高性能计算各个应用场景中的算力需求。

Alaya NeW算力服务基于弹性容器集群提供一体化的计算资源和工具支持,帮助用户高效地开展高性能计算(HPC)任务。依托弹性容器集群弹性扩展的特性,用户可根据并行计算需求、数据密集程度、任务进度、资源使用情况等信息实时调整算力资源配置,以确保计算性能与任务需求匹配,节约费用成本。