检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
间参数后,单击“导入”。 图3 从AI Gallery导入工作流 工作流运行的云服务区域需要与创建的数据集所在区域保持一致,否则工作流配置时无法选到准备好的数据集。 导入完成后会自动跳转至Workflow的详情页,单击Workflow右上角的“配置”,进入配置详情页面,根据提示填写配置参数,具体参考表1。
将子用户子账号加入用户组。在“加入用户组”步骤中,选择“用户组”,然后单击“创建用户”。系统将前面设置的多个用户加入用户组中。 用户登录并验证权限。 新创建的用户登录控制台,切换至授权区域,验证权限: 在“服务列表”中选择ModelArts,进入ModelArts主界面,选择不同类型的专属资源池,在页面单击“创建”
ode远程开发场景下,在Server端安装的插件不丢失。 查询支持的有效规格列表 查询支持的有效规格列表。 查询支持可切换规格列表 查询Notebook实例可切换的规格列表。 查询运行中的开发环境可用时长 查询运行中的开发环境可用时长。 Notebook时长续约 延长运行中的开发环境时长。
pip install modelarts_workflow-1.0.2-py2.py3-none-any.whl 使用本地IDE进行开发时,配置好PyCharm环境后,在代码中还需要使用AK-SK认证模式,示例代码如下。 from modelarts.session import
在部署为在线服务时,您可以开启支持APP认证功能。或者针对已部署完成的在线服务,您可以修改服务,开启支持APP认证功能。 登录ModelArts管理控制台,在左侧菜单栏中选择“模型部署 > 在线服务”,进入在线服务管理页面。 开启支持APP认证功能。 在部署为在线服务时,即“部署”页
是否必选 参数说明 -ks / --keep-storage Int 否 清理缓存时保留的缓存大小,单位是MB,默认是0,表示全部清理。 -kd / --keep-duration String 否 清理缓存时保留较新的缓存,只清除历史缓存,单位为s(秒)、m(分钟)、h(小时),默认是0s,表示全部清理。
7-aarch64-snt3p IMAGE_MINDSPORE_ASCEND_310P_DESC Ascend_snt3p 是 是 训练作业 创建训练作业时,训练支持的AI引擎及对应版本如下所示。 预置引擎命名格式如下: <训练引擎名称_版本号>-[cpu | <cuda_版本号 | cann_版本号
0-ubuntu18.04 CPU运筹优化求解器开发基础镜像,预置cylp,cbcpy,ortools及cplex CPU 是 是 训练作业 创建训练作业时,训练支持的AI引擎及对应版本如下所示。 预置引擎命名格式如下: <训练引擎名称_版本号>-[cpu | <cuda_版本号 | cann_版本号
--fp16 LR、PER_DEVICE_TRAIN_BATCH_SIZE、GRADIENT_ACCUMULATION_STEPS分别代表学习率、单个设备训练批次大小、梯度累计步数,作为超参数可以调优获得较好模型。同样,${HOME} 需要根据数据集模型等路径做对应替换,这里脚本适配的数据集
float”报错,按照报错提示修改为“float”即可。 图1 预处理数据报错 数据预处理完成标识。 图2 数据预处理完成 新建data目录并移动处理好的数据。 mkdir data mv meg-gpt2* ./data mv gpt2* ./data 步骤2 单机单卡训练 本
步骤6:清除资源 Notebook在代码调试完成及提交训练作业后就可以关闭了,减少资源扣费。 当调测完成且实例处于运行状态时,单击停止; 当下次调测且实例处于停止状态时,单击启动实例,随开随用。 训练输出保存结构说明 ModelArts训练作业的模型输出和日志信息会定时同步到指定的OB
自定义指标数据的格式必须是符合open metrics规范的文本,即每个指标的格式应为: <指标名称>{<标签名称>=<标签值>,...} <采样值> [毫秒时戳] 举例如下(#开头为注释,非必需): # HELP http_requests_total The total number of HTTP
ages_total HBM多比特错误隔离内存页数量。说明: 若此计数达到64及以上,请更换此NPU。 个 ≥0 连续2个周期原始值 >= 64 严重 若此计数达到64及以上,请提交工单,切换NPU机器 AI处理器Vector CORE利用率 ma_node_npu_vector_core_util