检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
python -c "import torch;print(torch.__version__)" 通过pytorch官网可查兼容版本:https://pytorch.org/get-started/previous-versions/ 如果环境中装了多版本的cuda,可以排查LD
UNMOUNTING:卸载中 UNMOUNT_FAILED:卸载失败 UNMOUNTED:卸载完成 uri String OBS对象路径。 请求示例 GET https://{endpoint}/v1/{project_id}/notebooks/{instance_id}/storage 响应示例 状态码:200
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询资源池监控信息。 GET https://{endpoint}/v2/{project_id}/pools { } 响应示例 状态码:200 OK。 { "statistics"
Code。VS Code安装请参考安装VS Code软件。 图4 下载并安装VS Code 如果用户之前未安装过ModelArts VS Code插件,此时会弹出安装提示,请单击“Install and Open”进行安装;如果之前已经安装过插件,则不会有该提示,请跳过此步骤,直接执行5。 图5
Notebook云上云下,无缝协同,更多关于ModelArts Notebook的详细资料请查看开发环境介绍。本案例中使用ModelArts的开发环境Notebook部署推理服务进行调试,请按照以下步骤完成Notebook的创建。 登录ModelArts控制台,在贵阳一区域,进入开发环境的Notebook界
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/services/tms/tags 响应示例 状态码:200 查询项目下se
定时调度策略中的标记,失败时触发。 on_running String 定时调度策略中的标记,running时触发。 请求示例 查询调度信息 GET https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/schedules/fa4a
但是达不到预期,可能是nv_peer_mem异常。 处理方法 查看nv_peer_mem是否已安装。 dpkg -i | grep peer 如果未安装则需要安装,安装方法参考装机指导。 如果已安装则进入下一检测项。 查看该软件是否已经加载至内核。 lsmod | grep peer
创建训练作业标签。设置TMS标签的key/value为“111”和“k3”,TMS标签的key/value为"k3"和“v2”。 POST https://endpoint/v2/{project_id }/trainJob/{training_job_id}/tags/create
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/notebooks/a55eba18-1ebf-4e9a-8229-d2d3
参数类型 描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 https://{endpoint}/v1/{project_id}/pools/a55eba18-1ebf-4e9a-8229-d2d3b593a3dc/tags
操作是否执行成功。可选值如下: true:执行成功 false:执行失败 请求示例 按标签名称删除标签及仅包含此标签的文件 DELETE https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/data-anno
engine_version String 训练作业使用的引擎版本。 请求示例 如下以查看训练作业的资源引擎规格为例。 GET https://endpoint/v1/{project_id}/job/ai-engines?job_type=train 响应示例 成功响应示例
peer-memory四个软件。 但是如果nvidia和cuda是使用runfile(local)方式安装的,那么需要在下一步中再次卸载。 若使用nvidia run包直接安装的驱动,需要找到对应的卸载命令。 sudo /usr/bin/nvidia-uninstall sudo
驱动升级 NPU升级。 节点正在执行NPU驱动升级。 A200008 节点管理 节点准入 准入检测。 节点正在进行节点准入检测,包括基本的节点配置检查和简单的业务验证。 A050933 节点管理 容错Failover 当节点具有该污点时,会将节点上容错(Failover)业务迁移走。
Gallery、发布数据集到AI Gallery。对于支持部署为AI应用的AI Gallery模型,可将此模型部署为AI应用,具体可参见将AI Gallery中的模型部署为AI应用。 发布后的资产,可通过微调大师训练模型和在线推理服务部署模型,具体可参见使用AI Gallery微调大师训练模型、使用AI
type String 度量的类型。 data Map<String,Object> 度量数据。 请求示例 获取工作流节点度量信息 GET https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/executions/4dd
型开发、训练、管理、部署功能,可灵活使用其中一个或多个功能。 支持本地IDE+ModelArts 插件远程开发能力,线上线下协同开发,开发训练一体化架构,支持大模型分布式部署及推理。 统一管理AI开发全流程,提升开发效率,记录模型构建实验全流程。 多场景部署,灵活满足业务需求 支持云端/边端部署等多种生产环境。
可能系统资源不足、如内存不足、内存泄露。 硬件故障、如IB网络或者GPU互联设备故障等。 没安装nvidia-fabricmanager组件或被误卸载。 处理方法 如果未安装fabricmanager,则需安装改组件。 如果已安装fabricmanager,运行以下命令重启fabricmanager.service。
-user/work以外的目录,请将数据集等放到work路径下,不要放到非work路径下。 请不要将实例频繁保存镜像,建议一次将需要的安装包安装好,然后执行镜像保存,避免频繁执行镜像保存的动作,保存次数越多镜像越大,且多次保存后的镜像过大问题无法通过清理磁盘方式减少镜像的大小(Docker保存原理机制)。