检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
本工具支持x86和ARM的系统环境,使用前需要安装以下软件。 表2 安装软件及步骤 软件 安装步骤 mindspore-lite 安装版本:2.2.10 下载地址:https://www.mindspore.cn/lite/docs/zh-CN/r2.2/use/downloads.html 需要下载的安装包与操作系统有关,请根据需要选择合适的安装包。
require_dataset("default", dtype=np.float32, shape=(1000,))) 父主题: 在Notebook中使用Moxing命令
VS Code中设置远端默认安装的插件 在VS Code的配置文件settings.json中添加remote.SSH.defaultExtensions参数,如自动安装Python和Maven插件,可配置如下。 "remote.SSH.defaultExtensions": [
ailed to initialize NVML 问题现象 华为云裸金属服务器,NVIDIA驱动卸载后重新安装。 (1)已卸载原有版本NVIDIA驱动和CUDA版本,且已安装新版本的NVIDIA驱动和CUDA版本 (2)执行nvidia-smi失败,提示Failed to initialize
copy_parallel('/tmp/sub_dir_0', '/tmp/sub_dir_1') 父主题: 在Notebook中使用Moxing命令
install时,出现“No Space left...”的错误。 解决办法 建议使用pip install --no-cache ** 命令安装,而不是使用pip install **。加上“--no-cache”参数,可以解决很多此类报错。 父主题: 实例故障
install时,出现“No Space left...”的错误。 解决办法 建议使用pip install --no-cache ** 命令安装,而不是使用pip install **。加上“--no-cache”参数,可以解决很多此类报错。 父主题: Notebook实例常见错误
其相关的内核模块。在Linux系统上安装NVIDIA显卡驱动后,需要通过“nvidia-modprobe”命令来加载相应的内核模块,以便让显卡驱动正常工作。 通常情况下,在安装NVIDIA驱动时,会自动执行“nvidia-modprobe”命令,将必要的内核模块加载到系统中。但有
placeholder_format="cluster") ) 在控制台上如何使用MRS节点 Workflow发布后,在Workflow配置页,配置节点的数据输入,输出,启动脚本,集群ID等参数。 父主题: Workflow高阶能力
在服务部署节点启动之后会等待用户设置相关配置信息,配置完成后直接单击“继续运行”即可。 异步推理服务部署相关信息配置操作 在ModelArts管理控制台,左侧菜单栏选择“Workflow”进入Workflow页面。 在服务部署节点启动之后会等待用户设置相关配置信息,选择AI应用及版本为异步推理模型,设置服务启动参数,配置完成后直接单击继续运行即可。
推理代码及模型需安装的包,默认为空。从配置文件读取。 否 str model_metrics 模型精度信息,从配置文件读取。 否 str apis 模型所有的apis入参出参信息(选填),从配置文件中解析出来。 否 str initial_config 模型配置相关数据。 否 dict
不同实例的资源池安装的cuda和驱动版本号分别是什么? 专属资源池的cuda和驱动版本是可以根据用户的要求安装。如果需要调整,需提工单。 父主题: Standard资源池
recursive=True) tf.gfile.DeleteRecursively 父主题: 在Notebook中使用Moxing命令
gallery方法的visibility+group_users字段进行设置,后续需要对指定资产进行用户白名单添加或删除操作时,可执行如下命令: from modelarts import workflow as wf # 添加指定的白名单用户列表 wf.add_whiteli
配置多分支节点数据 功能介绍 仅用于存在多分支执行的场景,在编写构建工作流节点时,节点的数据输入来源暂不确定,可能是多个依赖节点中任意一个节点的输出。只有当依赖节点全部执行完成后,才会根据实际执行情况自动获取有效输出作为输入。 使用案例 from modelarts import
重复 是 str obs_config 输出的OBS相关配置 否 OBSOutputConfig model_config 输出的模型相关配置 否 ModelConfig metrics_config metrics相关配置 否 MetricsConfig 表4 OBSOutputConfig
购买服务资源(VPC/SFS/OBS/SWR/ECS) 配置权限 创建专属资源池(打通VPC) ECS服务器挂载SFS Turbo存储 在ECS中设置ModelArts用户可读权限 安装和配置OBS命令行工具 (可选)工作空间配置 模型训练: 线下容器镜像构建及调试 上传镜像 上传数据至OBS(首次使用时需要)
如出现错误,可能是机器上的NPU设备没有正常安装,或者NPU镜像被其他容器挂载。请先正常安装固件和驱动,或释放被挂载的NPU。 检查是否安装docker。 docker -v #检查docker是否安装 如尚未安装,运行以下命令安装docker。 yum install -y docker-engine
使用python3.6-torch1.4版本镜像环境安装MMCV报错 问题现象 日志报错中存在AssertionError: MMCV==1.2.5 is used but incompatible. Please install mmcv>=1.3.1, <=1.5.0。 原因分析
实例重新启动后,Notebook内安装的插件丢失 请使用镜像保存功能。 父主题: VS Code使用技巧