检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
挂载在系统目录下,如“/”、“/var/run”等,会导致容器异常。建议挂载在空目录下,若目录不为空,请确保目录下无影响容器启动的文件,否则文件会被替换,导致容器启动异常,工作负载创建失败。 storage_type 否 String 挂载类型sfs_turbo极速文件系统挂载。
run”,商用版是权限受控,仅华为工程师和渠道用户有权限下载,下载地址请见固件驱动包下载链接。 arch cat /etc/os-release 图5 查看机器操作系统版本及架构 下文均以适配EulerOS 2.0(SP10)和aarch64架构的包为例来进行讲解。 安装固件和驱动包。
Manifest文件可以由用户、第三方工具或ModelArts数据标注生成,其文件名没有特殊要求,可以为任意合法文件名。为了ModelArts系统内部使用方便,ModelArts数据标注功能生成的文件名由如下字符串组成:“DatasetName-VersionName.manifes
ci7。 ${work_dir}:${container_work_dir} 代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统,work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_dir为要挂载到的容器中的目录。为方便两个地址可以相同。
"2024-01-29T09:28:26Z", "labels" : { "os.modelarts.node/cluster" : "dly-lite", "os.modelarts.node/nodepool" : "nodepool-1"
cn-southwest-2.myhuaweicloud.com/os-public-repo/bert_pretrain_mindspore:v1 docker tag swr.cn-southwest-2.myhuaweicloud.com/os-public-repo/bert_pretrain_mindspore:v1
文件,OBS接口不支持直接调用,需要分多个线程分段复制,目前OBS侧服务端超时时间是30S,可以通过如下设置减少进程数。 # 设置进程数 os.environ['MOX_FILE_LARGE_FILE_TASK_NUM']=1 import moxing as mox # 复制文件
nci5。 -v ${dir}:${container_work_dir} 代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的大文件系统,dir为宿主机中文件目录,${container_work_dir}为要挂载到的容器中的目录。为方便两个地址可以相同。 容器不能挂载到/
return json.loads(os.getenv(ENV_AG_USER_PARAMS)) def _process_input_data(image_processor): # 加载数据集 dataset_path = os.getenv(ENV_AG_DATASET_DIR)
单击模型名称,进入模型详情页面。 在“我的版本”区域,单击“新增版本”。 在“新增版本”页面,配置模型新版本的参数。 表3 新增模型版本 参数 说明 新版本号 系统自动编号,不可修改。 版本描述 模型简介。支持100字符。 选择基础模型版本 选择基础模型的版本。 选择权重路径 选择存放模型权重文件的OBS路径,必须选择到模型文件夹。
根据版本切分比例筛选版本。根据逗号分隔最小和最大切分比例,筛选出切分比例在此范围内的版本,例如:“0.0,1.0”。说明:如果参数值为空或无该参数,系统默认不根据版本切分比例筛选数据集。 version_format 否 Integer 数据集版本格式。可选值如下: 0:默认格式 1:Carbon格式(仅表格数据集支持)
模型来源选择“从对象存储服务(OBS)中选择”,元模型选择转换后模型的存储路径,AI引擎选择“Custom”,引擎包选择准备镜像中上传的推理镜像。 系统运行架构选择“ARM”。 图3 设置AI应用 单击“立即创建”开始AI应用创建,待应用状态显示“正常”即完成AI应用创建。 首次创建AI应
执行代码存放的OBS地址,默认值为空,名称固定为“customize_service.py”。推理代码文件需存放在模型“model”目录。该字段不需要填,系统也能自动识别出model目录下的推理代码。公共参数 source_job_id 否 String 来源训练作业的ID,模型是从训练作业产生
模型来源选择“从对象存储服务(OBS)中选择”,元模型选择转换后模型的存储路径,AI引擎选择“Custom”,引擎包选择准备镜像中上传的推理镜像。 系统运行架构选择“ARM”。 图3 设置AI应用 单击“立即创建”开始AI应用创建,待应用状态显示“正常”即完成AI应用创建。 首次创建AI应
为异步推理模型,设置服务启动参数,配置完成后直接单击继续运行即可。 其中服务启动参数与您选择的异步推理模型相关,选择了需要的模型及版本后,系统会自动匹配响应的服务启动参数。 父主题: 创建Workflow节点
def get_rank_table(): rank_table_file_path = os.getenv("RANK_TABLE_FILE") env_ip = os.getenv("ip") # Lite Cluster中的RANK_TABLE_FILE实际名称为
def get_rank_table(): rank_table_file_path = os.getenv("RANK_TABLE_FILE") env_ip = os.getenv("ip") # Lite Cluster中的RANK_TABLE_FILE实际名称为
无 响应参数 状态码: 200 表2 响应Body参数 参数 参数类型 描述 apiVersion String 资源版本。可选值如下: os.modelarts.xxxxx/v2 kind String 资源类型。可选值如下: PoolMetricsList items Array
参数说明: -v ${work_dir}:${container_work_dir}:代表需要在容器中挂载宿主机的目录。宿主机和容器使用不同的文件系统。work_dir为宿主机中工作目录,目录下存放着训练所需代码、数据等文件。container_work_dir为要挂载到的容器中的目录。为方便两个地址可以相同。
py并将此脚本作为“启动文件”。这样启动的作业将会持续运行60分钟。您可通过Cloud Shell进入容器进行调试。 sleep.py示例: import os os.system('sleep 60m') 图4 预置框架启动方式 如果训练作业使用的是自定义镜像 在创建训练作业时,“创建方式”选择“自