检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
STOPPING,停止中 STOPPED,停止 UNAVAILABLE,故障 DELETED,已删除 RESIZING,规格变更中 RESIZE_FAILED,规格变更失败 sortby 否 String 分类标准,支持“name”、“creation_timestamp”。默认为“name”。
A系列裸金属服务器无法获取显卡如何解决 GPU裸金属服务器无法Ping通如何解决 GPU A系列裸金属服务器RoCE带宽不足如何解决? GPU裸金属服务器更换NVIDIA驱动后执行nvidia-smi提示Failed to initialize NVML 训练速度突然下降以及执行nvidia-smi卡顿如何解决?
理访问密钥”操作指导,确认当前AK/SK是否是当前账号创建的AK/SK。 是,请联系提交工单处理。 否,请根据“如何管理访问密钥”操作指导更换为当前账号的AK/SK。 请确认当前账号是否欠费。 是,请给账号充值。操作指导请参见账户充值。 否,且提示资源已过保留期,需要提工单给OBS开通资源。
作业”页面,检查是否有“运行中”的训练作业。如果有,单击该作业列表右方操作下的“停止”即可停止计费。 进入“ModelArts>部署上线>在线服务”页面,检查是否有“运行中”的推理作业。如果有,单击该作业列表右方操作下的“停止”即可停止计费。 进入“ModelArts>部署上线>
行工具。 训练数据、代码、模型下载。(本地使用硬盘挂载或者docker cp,在ModelArts上使用OBSutil) 启动脚本,用法无切换,一般就是到达执行目录,然后python xxx.py。 训练结果、日志、checkpoints上传。(本地使用硬盘挂载或者docker
测试推理服务:工作流运行完成后,在服务部署节点右侧单击“实例详情”跳转至推理服务详情页。或者在ModelArts管理控制台,选择“部署上线>在线服务”,找到部署的推理服务,单击服务名称,进入服务详情页。单击“预测”,右边可查看预测结果。 图6 预测样例图 图7 预测结果 父主题: 使用Workflow实现低代码AI开发
越大,生成文本的多样性就越高。 1 top_k 选择在模型的输出结果中选择概率最高的前K个结果。 20 在对话框中输入问题,查看返回结果,在线体验对话问答。 图8 体验模型服务 后续操作 如果不再需要使用此模型服务,建议清除相关资源,避免产生不必要的费用。 在MaaS服务的“模型
查项出现故障时,隔离故障硬件并重新下发训练作业。针对于分布式场景,容错检查会检查本次训练作业的全部计算节点。 推理部署故障恢复 用户部署的在线推理服务运行过程中,如发生硬件故障导致推理实例故障,ModelArts会自动检测到并迁移受影响实例到其它可用节点,实例启动后恢复推理请求处
dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions 否 Array of Constraint objects 数据约束条件。 value 否 Map<String
和配置。 训练数据、代码、模型下载。(本地使用硬盘挂载或者docker cp,在ModelArts上使用OBSutil) 启动脚本,用法无切换,一般就是到达执行目录,然后python xxx.py。 训练结果、日志、checkpoints上传。(本地使用硬盘挂载或者docker
到导入的视图,单击视图即可打开监控。 模板使用 导入成功后,单击想查看的模板即可查看响应内容。这里介绍一些常用功能的使用。 切换数据源和资源池 图5 切换数据源和资源池 单击红框中相应位置,即可出现下拉框,修改响应的数据源和资源池。 刷新数据 单击右上角的图标,即可刷新整个Das
Job>Stop”,或者直接在网页端单击终止。 图30 终止训练作业 步骤5:清除相应资源 为避免产生不必要的费用,在完成试用后,建议您删除相关资源,如在线服务、训练作业及其OBS目录。 停止Notebook:在“Notebook”页面,单击对应实例操作列的“停止”。 在PyCharm菜单栏中,选择“ModelArts
作业”页面,检查是否有“运行中”的训练作业。如果有,单击该作业列表右方操作下的“停止”即可停止计费。 进入“ModelArts>部署上线>在线服务”页面,检查是否有“运行中”的推理作业。如果有,单击该作业列表右方操作下的“停止”即可停止计费。 进入“ModelArts>部署上线>
委托用户:选择委托名称。使用账号A创建一个权限委托,在此处将该委托授权给账号B拥有的委托。在使用账号B登录控制台时,可以在控制台右上角的个人账号切换角色到账号A,使用账号A的委托权限。 图3 委托用户切换角色 说明: ModelArts暂不支持创建身份策略权限的委托。 “委托选择” 已有委托:列表中如果已有委托选
子用户仅限于对自己创建的工作空间下的资源池进行迁移操作。 网络工作空间迁移 登录ModelArts管理控制台,选择“AI专属资源池 > 弹性集群Cluster”,切换到“网络”页签。 在网络列表中,选择目标网络“操作 > 更多 > 工作空间迁移”。 在弹出的“迁移网络”中,选择要迁移的“目标工作空间”,单击“确定”。
txt") 支持。当前cuda版本无so文件,需外部导入so文件(自行在浏览器下载),再设置LD_LIBRARY_PATH,具体见2。 不支持。尝试更换引擎,重新下发作业。或者使用自定义镜像创建作业,可参考使用自定义镜像创建作业。 父主题: 云上迁移适配故障
取处理。 处理方法 结合当前购买的SFS盘性能规划业务, 建议不要运行到性能上限。 可以购买多个SFS Turbo实例分担业务压力, 或者更换高性能的SFS盘。 一个SFS实例容量建议不要太大,建议以同样的成本换成购买多个SFS实例。 父主题: Lite Server
命令,将必要的内核模块加载到系统中。但有时候也可能需要手动执行该命令。例如,在更新了NVIDIA驱动后,需要重新加载新版本的内核模块才能使变更生效。 此外,若使用了多个NVIDIA显卡,每个显卡都需要加载相应的内核模块才能正常工作。在这种情况下,也需要手动执行“nvidia-mo
在专属资源池列表中,选择需要删除的资源池的操作列“更多 > 删除”。 在“删除资源池”页面,需在文本框中输入“DELETE”,单击“确定”,删除资源池。 可切换“训练作业”、“推理服务”、“开发环境”页签查看资源池上创建的训练作业、部署的推理服务、创建的Notebook实例。 图1 删除资源池 释放游离节点
专属资源池扩容,可参考扩缩容资源池。 如果磁盘空间不够,可以尝试重试,使实例调度到其他节点。如果单实例仍磁盘空间不足,请联系系统管理员,更换合适的规格。 如果是大模型导入的AI应用部署服务,请确保专属资源池磁盘空间大于1T(1000GB)。 父主题: 服务部署