检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
原因分析二 本地系统为Linux,由于使用root用户安装VS Code,打开VS Code显示信息It is not recommended to run Code as root user 解决方法二 请使用非root用户安装VS Code后,回到ModelArts控制台界面再次单击界面上的“VS
Code。VS Code安装请参考安装VS Code软件。 图4 下载并安装VS Code 如果用户之前未安装过ModelArts VS Code插件,此时会弹出安装提示,请单击“Install and Open”进行安装;如果之前已经安装过插件,则不会有该提示,请跳过此步骤,直接执行5。 图5
使用Grafana查看AOM中的监控指标 安装配置Grafana 配置Grafana数据源 配置仪表盘查看指标数据 父主题: ModelArts Standard资源监控
Arts的基础操作权限,请参见配置基础操作权限。 如果您需要对用户使用OBS和ModelArts的权限进行精细化管理,进行自定义策略配置,请参见创建ModelArts自定义策略。 配置基础操作权限 使用ModelArts的基本功能,您需要为用户配置“作用范围”为“项目级服务”的“ModelArts
Arts的基础操作权限,请参见配置基础操作权限。 如果您需要对用户使用OBS和ModelArts的权限进行精细化管理,进行自定义策略配置,请参见创建ModelArts自定义策略。 配置基础操作权限 使用ModelArts的基本功能,您需要为用户配置“作用范围”为“项目级服务”的“ModelArts
点池时不支持删除。 查看节点池的存储配置 在节点池管理的更新页面,可以查看该节点池配置的系统盘、容器盘或数据盘的磁盘类型、大小、数量、写入模式、容器引擎空间大小、挂载路径磁盘配置等参数。 在Lite资源池的扩缩容页面,也可以查看节点池的存储配置信息。 查找搜索节点池 在节点池管理
ModelArts会挂载硬盘至“/cache”目录,用户可以使用此目录来储存临时文件。“/cache”与代码目录共用资源,不同资源规格有不同的容量。 映射规则:当前不支持CPU配置cache盘;GPU与昇腾资源为单卡时,cache目录保持500G大小限制;除单卡外,cache盘大小与卡数有关,计算方式为卡数*500G,上限为3T。详细表1所示。
在ModelArts的Notebook的Jupyterlab可以安装插件吗? 在ModelArts的Notebook的CodeLab中能否使用昇腾卡进行训练? 如何在ModelArts的Notebook的CodeLab上安装依赖? 在ModelArts的Notebook中安装远端插件时不稳定要怎么办? 在Mo
密钥对在用户第一次创建时,自动下载,之后使用相同的密钥时不会再有下载界面(用户一定要保存好),或者每次都使用新的密钥对。 Step1 安装SSH工具 下载并安装SSH远程连接工具,以PuTTY为例,下载链接。 Step2 使用puttygen将密钥对.pem文件转成.ppk文件 下载pu
并直接重启Notebook实例。重启后多种配置重置,会导致用户数据丢弃,环境丢失,造成很不好的使用体验。因此需要提供cache盘使用情况的监控和告警,并将数据上报至AOM平台。 配置流程 填写告警基本信息 设置告警规则 监控对象指标配置 告警触发条件设置 告警通知设置 创建主题、设置主题策略、订阅主题
可能系统资源不足、如内存不足、内存泄露。 硬件故障、如IB网络或者GPU互联设备故障等。 没安装nvidia-fabricmanager组件或被误卸载。 处理方法 如果未安装fabricmanager,则需安装改组件。 如果已安装fabricmanager,运行以下命令重启fabricmanager.service。
使用此类镜像做基础镜像,安装自己需要的引擎版本和依赖包,可扩展性更高。并且这些镜像预置了一些开发环境启动所必要的配置,用户无需对此做任何适配,安装所需的软件包即可使用。 此类镜像为最基础的镜像,主要应对用户做自定义镜像时基础镜像太大的问题,所以镜像中未安装任何组件;如果需使用OBS
但是达不到预期,可能是nv_peer_mem异常。 处理方法 查看nv_peer_mem是否已安装。 dpkg -i | grep peer 如果未安装则需要安装,安装方法参考装机指导。 如果已安装则进入下一检测项。 查看该软件是否已经加载至内核。 lsmod | grep peer
ch环境或没有安装Cuda的镜像,而不是选择一个PyTorch引擎和Cuda都不满足的镜像,如MindSpore+Cuda11.X,这样基础镜像就会很大,同样的操作最终目的镜像就很大。 此外下面举出几种常见的减少镜像大小的方式。 减少目的镜像层数 举例:假设需要安装两个pip包s
peer-memory四个软件。 但是如果nvidia和cuda是使用runfile(local)方式安装的,那么需要在下一步中再次卸载。 若使用nvidia run包直接安装的驱动,需要找到对应的卸载命令。 sudo /usr/bin/nvidia-uninstall sudo
选或组合筛选。 给子账号配置查看所有Notebook实例的权限 当子账号被授予“listAllNotebooks”和“listUsers”权限时,在Notebook页面上,单击“查看所有”,可以看到IAM项目下所有子账号创建的Notebook实例 。配置该权限后,也可以在Note
现资源分组管理。 图3 标签 最多支持添加20个标签。 Lite Cluster资源池配置管理 在资源池详情页面,单击“配置管理”,在配置管理页面,可以修改设置监控的命名空间、修改集群配置,配置镜像预热信息。 单击监控的图标,可以开启或关闭监控信息,并设置监控的命名空间。监控使用
调试要点进行检查。 在Notebook列表,单击实例名称,进入实例详情页,查看Notebook实例配置信息。 挂载OBS并行文件系统:在Notebook实例详情页面,选择“存储配置”页签,单击“添加数据存储”,设置挂载参数。 设置本地挂载目录,在“/data/”目录下输入一个文件
训练作业导入模块时日志出现前两条报错信息,可能原因如下: 代码如果在本地运行,需要将“project_dir”加入到PYTHONPATH或者将整个“project_dir”安装到“site-package”中才能运行。但是在ModelArts可以将“project_dir”加入到“sys.path”中解决该问题。
PU、Memory等)的使用情况并上报到AOM,用户可直接在AOM上查看默认配置好的基础指标,也支持用户自定义一些指标项上报到AOM查看。 此外,还支持在ModelArts Lite Cluster上安装Prometheus开源监控工具,方便用户使用Prometheus工具在Lite