检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
现对应函数上添加了@torch.jit.script装饰器,经过调试发现,GPU也执行了这个函数,但是没有dump算子执行信息,而且pdb无法在函数中正常中断,删除此装饰器后,GPU能够正常dump数据。 图7 删除@torch.jit.script装饰器 加了@torch.jit
主机中工作目录,目录下存放着代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂载到/home/ma-user目录,此目录为ma-user用户家目录。如果容器挂载到/home/ma-user下,拉起容器时会与基础镜像冲突,导致基础镜像不可用。
确的key,这个可能需要进行付费调用,评估1000条大概需要0.15美元 OPENAIKEY="" 注:openai不支持中国大陆和香港,不能使用中国的代理。 推理结果保存的文件名,可不用修改,使用默认的文件名 OUTPUTNAME=pred 步骤11 执行推理脚本 bash s
在创建数据处理页面,填写相关算法参数。 填写基本信息。基本信息包括“名称”、“版本”和“描述”。其中“版本”信息由系统自动生成,按“V0001”、“V0002”规则命名,用户无法修改。 您可以根据实际情况填写“名称”和“描述”信息。 设置场景类别。场景类别当前支持“图像分类”和“物体检测”。 设置数据处理类型为“数
容器中的目录。为方便两个地址可以相同。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 三、进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。 docker exec -it ${container_name}
rams.json”文件,则在推理启动脚本中需要使用环境变量来指定“inference_params.json”中的参数,否则配置的参数将无法在推理过程中生效。 “inference_params.json”文件的参数请参见表4。该参数会显示在部署推理服务页面,在“高级设置”下会
“架构”和“类型”根据实际情况选择,与镜像源保持一致。 注册镜像时,“架构”和“类型”需要和镜像源保持一致,否则在使用此自定义镜像创建Notebook时会创建失败。 创建开发环境并使用 镜像注册成功后,即可在ModelArts控制台的Notebook页面,创建开发环境时选择该自定义镜像。 图7 创建开发环境
表10 network 参数 参数类型 描述 name String 网络名称;用户接口通过指定网络名称创建网络,系统会自动创建子网,用户无法创建子网。默认将创建在第一个子网下。 表11 PoolDriver 参数 参数类型 描述 gpuVersion String GPU驱动版
卡davinci0~davinci7。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 步骤三:下载依赖代码包并上传到宿主机 下载华为侧插件代码包AscendCloud-AIGC-6.3.911-xxx.
数据来源,与inputs二选一。数据源路径不支持设置为KMS加密桶中的OBS路径。 description 否 String 数据处理任务描述,长度为0-256位,不能包含^!<>=&"'特殊字符。 inputs 否 Array of ProcessorDataSource objects 数据来源列表,
6)和GPU打分结果(mmlu取值47)进行对比,误差在1以内(计算公式:(47-46.6) < 1)认为NPU精度和GPU对齐。NPU和GPU的评分结果和社区的评分不能差太远(小于10)认为分数有效。 父主题: 主流开源大模型基于DevServer适配PyTorch NPU推理指导(6.3.908)
6)和GPU打分结果(mmlu取值47)进行对比,误差在1以内(计算公式:(47-46.6) < 1)认为NPU精度和GPU对齐。NPU和GPU的评分结果和社区的评分不能差太远(小于10)认为分数有效。 父主题: 主流开源大模型基于Server适配PyTorch NPU推理指导(6.3.909)
表10 network 参数 参数类型 描述 name String 网络名称;用户接口通过指定网络名称创建网络,系统会自动创建子网,用户无法创建子网。默认将创建在第一个子网下。 表11 PoolDriver 参数 参数类型 描述 gpuVersion String GPU驱动版
使用PyCharm ToolKit提交训练作业,社区版和专业版都支持。 已注册华为账号并开通华为云,且在使用ModelArts前检查账号状态,账号不能处于欠费或冻结状态。 已创建当前使用账号的访问密钥,并获得对应的AK和SK。如果未创建,请参见创建访问密钥(AK和SK)。 当前账号已完成
上传镜像至SWR服务 Step6 在ModelArts上创建训练作业 前提条件 已注册华为账号并开通华为云,且在使用ModelArts前检查账号状态,账号不能处于欠费或冻结状态。 Step1 创建OBS桶和文件夹 在OBS服务中创建桶和文件夹,用于存放样例数据集以及训练代码。需要创建的文件夹列表
作目录,目录下存放着训练所需代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂载到/home/ma-user目录,此目录为ma-user用户家目录。如果容器挂载到/home/ma-user下,拉起容器时会与基础镜像冲突,导致基础镜像不可用。
),则模型文件必须满足自定义模型规范(训练)才支持模型自定义训练。 当使用自定义镜像进行模型微调时,要确认镜像是否满足自定义镜像规范,否则无法成功完成自定义训练。 进入模型微调 登录AI Gallery。 单击“模型”进入模型列表。 选择需要进行微调训练的模型,单击模型名称进入模型详情页。
容器时会用到,此处可以自己定义一个容器名称。 ${image_id}:镜像ID,通过docker images查看刚拉取的镜像ID。 容器不能挂载到/home/ma-user目录,此目录为ma-user用户家目录。如果容器挂载到/home/ma-user下,拉起容器时会与基础镜像冲突,导致基础镜像不可用。
build -t pytorch-1.13-cuda11.3-cudnn8-ubuntu18.04:v1 . 容器镜像的大小建议小于15G,不能大于25G。否则镜像的迁移、拉起都会存在性能问题。 建议通过开源的官方镜像来构建,例如PyTorch的官方镜像。 建议容器分层构建,单层容
经调测完成的开发环境保存成一个镜像。 方式一:保存镜像需要指定镜像名称、镜像标签、SWR服务的组织等信息,保存镜像需要等待几分钟时间,期间不能对Notebook有额外操作。 SWR服务的组织可以在SWR服务中进行创建,也可以使用SDK创建默认的SWR组织,默认最多只能创建5个组织。