检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用是否支持动态加载。 大小 AI应用的大小。 健康检查 如果元模型来源于对象存储服务/容器镜像,显示健康检查状态。当健康检查为开启时,会根据您启用的探针显示对应探针的参数设置情况。 启动探针:用于检测应用实例是否已经启动。如果提供了启动探针(startup probe),则禁用
D:\modelarts-latest-py2.py3-none-any.whl -noverify > ./test 本示例以软件包在D:\举例,请根据软件包实际路径修改。 步骤二:配置运行环境 检查本地环境是否已安装Python。如果环境中没有安装Python,可从Python官网下载并
可再次连上。 解决方法 如果想保持长时间连接不断开,可以通过配置SSH定期发送通信消息,避免防火墙认为链路空闲而关闭。 客户端配置(用户可根据需要自行配置,不配置默认是不给服务端发心跳包),如图1,图2所示。 图1 打开VS Code ssh config配置文件 图2 增加配置信息
url后。出现Grafana登录页面即代表在Notebook中安装和配置Grafana成功。首次登录用户名和密码为admin,登录成功后请根据提示修改密码。 父主题: 安装配置Grafana
可再次连上。 解决方法 如果想保持长时间连接不断开,可以通过配置SSH定期发送通信消息,避免防火墙认为链路空闲而关闭。 客户端配置(用户可根据需要自行配置,不配置默认是不给服务端发心跳包),如图1,图2所示。 图1 打开VS Code ssh config配置文件 图2 增加配置信息
Server时间过长。 解决方法 手动安装vscode-server。 获取VS Code的commitID 下载相应版本vscode-server压缩包,请根据开发环境cpu架构选择arm版本或x86版本。 替换下面链接中${commitID}为步骤1 获取VS Code的commitID中commitID。
确认创建Notebook实例使用的镜像的系统架构,可以在Notebook中打开Terminal,通过命令uname -m查看。 下载对应版本的vscode-server,根据Commit码和Notebook实例镜像架构下载。 如果下载报错“Not Found”,请下载别的版本VS Code重新在本地安装,目前推荐:
操作。 保留期到期后,如果您仍未支付账户欠款,那么计算资源、云硬盘和对象存储都将被释放,数据无法恢复。 图1 按需计费资源生命周期 华为云根据客户等级定义了不同客户的宽限期和保留期时长。 避免和处理欠费 欠费后需要及时充值,详细操作请参见账户充值。 如果确认不再使用ModelAr
Arts Standard的自动学习功能完成“物体检测”AI模型的训练和部署。依据开发者提供的标注数据及选择的场景,无需任何代码开发,自动生成满足用户精度要求的模型。 ModelArts Standard开发环境 使用ModelArts PyCharm插件调试训练ResNet50图像分类模型
购买的SWR可以用于上传自定义镜像。 使用容器引擎客户端上传镜像 对象存储服务OBS 对象存储服务提供按需计费和包年包月两种计费模式,用户可以根据实际需求购买OBS服务。 OBS服务支持以下两种存储方式,单机单卡场景使用文件系统,多机多卡场景使用普通OBS桶。 创建普通OBS桶 创建并行文件系统
信息中包含的是调用者的身份信息,在body部分是需要进行预测的内容。 header的部分需要按照华为云的相关机制进行认证,body部分需要根据模型的要求如前处理脚本的要求,如自定义镜像的要求进行输入。 处理方法 Header: 在调用指南页签上最多可以获取到两个api地址,分别是
0.1”,下一个版本为“0.0.2”。基于训练版本可以对训练模型进行管理。当训练的模型达到目标后,再执行模型部署的操作。 评估结果说明 根据训练数据类的不同评估结果会包含不同的指标。 离散值评估结果 包含评估指标为召回率(Recall)、精确率(Precision)、准确率(Accuracy)与F1值(F1
用户跨AZ构建高可用性系统的需求。 图1阐明了区域和可用区之间的关系。 图1 区域和可用区 目前,华为云已在全球多个地域开放云服务,您可以根据需求选择适合自己的区域和可用区。更多信息请参见华为云全球站点。 如何选择区域? 选择区域时,您需要考虑以下几个因素: 地理位置 一般情况下
查询指定DLI Spark作业ID的任务详情。 -n / --job-name String 否 查询指定作业名称的DLI Spark作业或根据作业名称关键字过滤DLI Spark作业。 -pn / --page-num Int 否 作业索引页,默认是第1页。 -ps / --page-size
-t diffusers-train:0.0.1 . Step4 启动镜像 启动容器镜像,finetune全量微调需要启动8卡,启动前可以根据实际需要增加修改参数。 docker run -itd --name ${container_name} -v /sys/fs/cgroup:/sys/fs/cgroup:ro
如何提高训练作业资源利用率 适当增大batch_size:较大的batch_size可以让GPU/NPU计算单元获得更高的利用率,但是也要根据实际情况来选择batch_size,防止batch_YLLsize过大导致内存溢出。 提升数据读取的效率:如果读取一个batch数据的时间
group_users 白名单列表,仅支持填写domain_id,当visibility为"group"时才需要填写该字段 否 list[str] 根据方法的入参不同,主要可分为以下两种使用场景: Workflow.release_to_gallery(title="资产名称")发布Workflow新资产,版本号为"1
Studio左侧导航栏中,选择“模型部署”进入服务列表。 选择“我的服务”页签。 选择模型服务,单击操作列的“更多 > 扩缩容”,进入扩缩容页面。 在扩缩容页面,根据业务需要增删模型服务的实例数,配置完成后,单击“确认”提交扩缩容任务。 图2 扩缩容 在我的服务列表,单击服务名称,进入服务详情页,可以查看修改后的实例数是否生效。
-t diffusers-train:0.0.1 . Step4 启动镜像 启动容器镜像,finetune全量微调需要启动8卡,启动前可以根据实际需要增加修改参数。 docker run -itd --name ${container_name} -v /sys/fs/cgroup:/sys/fs/cgroup:ro
auth_by_apig(session, 'GET', request_url) # 动态挂载,OBS路径obs://obs-bucket-train/dir/需要根据实际修改,挂载路径mount_path取值为“/data/xxx/”,本示例以“/data/demo/”为例,“demo”可以自定义。 body