检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.909) 推理场景介绍 准备工作 部署推理服务 推理性能测试 推理精度测试 推理模型量化 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题 附录:工作负载Pod异常问题和解决方法
Ascend: 8*ascend-snt9b表示Ascend 8卡。 购买并开通资源 如果使用Cluster资源,请先阅读k8s Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
Ascend: 8*ascend-snt9b表示Ascend 8卡。 购买并开通资源 如果使用Cluster资源,请先阅读k8s Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
主流开源大模型基于Lite Cluster适配PyTorch NPU推理指导(6.3.910) 推理场景介绍 准备工作 部署推理服务 推理性能测试 推理精度测试 推理模型量化 eagle投机小模型训练 附录:基于vLLM不同模型推理支持最小卡数和最大序列说明 附录:大模型推理常见问题
Label名字 Label描述 容器级别指标 pod_name 容器所属pod的名字。 pod_id 容器所属pod的ID。 node_ip 容器所属的节点IP值。 container_id 容器ID。 cluster_id 集群ID。 cluster_name 集群名称。 container_name
容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0 FrameworkPTAdapter:6.0.RC2 如果用到CCE,版本要求是CCE Turbo v1.25及以上 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-3rdLLM-6.3.905-20240611214128
准备一台Linux环境,这里以ECS为例。 在ECS中构建镜像(本文档提供了Dockflie样例文件)。 将构建的镜像推到SWR。 注册SWR镜像到ModelArts。 创建Notebook并验证新镜像。 准备Docker机器并配置环境信息 准备一台具有Docker功能的机器,如果没有,建议申请一台弹性云
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.910) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.909) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
容器镜像OS:hce_2.0 PyTorch:pytorch_2.1.0 FrameworkPTAdapter:6.0.RC2 如果用到CCE,版本要求是CCE Turbo v1.25及以上 软件包获取地址 软件包名称 软件包说明 获取地址 AscendCloud-6.3.906-xxx
Ascend: 8*ascend-snt9b表示Ascend 8卡。 购买并开通资源 如果使用Cluster资源,请先阅读k8s Cluster资源购买,熟悉集群资源开通流程,再开始操作购买Cluster资源。 当容器需要提供服务给多个用户,或者多个用户共享使用该容器时,应限制容器访问Openstack的管理地址(169
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.911) 场景介绍 准备工作 预训练任务 SFT全参微调训练任务 LoRA微调训练 查看日志和性能 训练脚本说明 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
主流开源大模型基于Lite Cluster适配ModelLink PyTorch NPU训练指导(6.3.912) 场景介绍 准备工作 训练任务 查看日志和性能 训练脚本说明参考 常见错误原因和解决方法 父主题: LLM大语言模型训练推理
释放Lite Cluster资源 针对不再使用的Lite Cluster资源,可以释放资源,停止计费相关介绍请见停止计费。 Lite Cluster资源池资源释放后不可恢复,请谨慎操作。 退订包年/包月的Lite Cluster资源 登录ModelArts管理控制台,在左侧菜单栏中选择“AI专属资源池
- role: pod relabel_configs: - source_labels: [__meta_kubernetes_pod_name] # 指定从maos-node-agent-字符串开头的POD收集指标数据
以下介绍如何启动全量推理实例。 启动容器镜像前请先按照参数说明修改${}中的参数。docker启动失败会有对应的error提示,启动成功会有对应的docker id生成,并且不会报错。 docker run -itd \ --device=/dev/davinci4 \ --device=/dev/davinci5
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc
检查docker是否安装。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc
检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine.aarch64 docker-engine-selinux.noarch docker-runc.aarch64
参数说明 --backend:服务类型,支持tgi、vllm、mindspore、openai等后端。本文档使用的推理接口是openai。 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tokenizer:tok