检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
需要使用到的资源规格,完成后选择“继续运行”,等待服务部署完成。 计算节点规格:华北-北京四可支持限时免费的规格,但每个用户仅允许创建一个基于此免费规格的实例。 按需计费规格,使用完之后请及时停止Workflow,避免产生不必要的费用。 测试推理服务:工作流运行完成后,在服务部署
下载puttygen,并双击运行puttygen。 单击“Load”,上传.pem密钥(即在创建Notebook实例时创建并保存的密钥对文件)。 单击“Save private key”,保存生成的.ppk文件。.ppk文件的名字可以自定义,例如key.ppk。 图2 将密钥对.pem文件转成.ppk文件 Step3
5个盘。 如果要使用训练作业挂载SFS Turbo功能,需要配置ModelArts和SFS Turbo间网络直通,具体操作请参见配置ModelArts和SFS Turbo间网络直通。 云上挂载路径有如下限制:不能为 / 目录,不能为 /cache、 /home/ma-user/m
输入数据格式为csv时,建议文件大小不超过12MB。 如果单张图片/csv文件超过文件12MB,会提示报错,建议调整文件大小使其符合要求,或联系技术支持人员调整文件大小限制。 “请求路径” 批量服务中调用模型的接口URL,表示服务的请求路径,此值来自模型配置文件中apis的url字段。
参数配置完成后,单击“提交”。 “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预估费用信息,然后单击“确定”,创建部署任务。模型部署会基于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。 在“我的服务”列表中,当模型部署服务的“状态”变成“运行中”时,表示模型部署完成。
信息,然后单击“确定”,创建压缩任务。模型压缩运行时会产生费用,压缩时长与选取模型及压缩方式有关。该预估费用不包含OBS存储费用。预估费用基于目录价和预估时长计算,估算存在波动性,最终以实际发生为准。 在“模型压缩”列表中,当压缩作业的“状态”变成“已完成”时,表示模型压缩完成。
作列单击“授权”,勾选步骤2创建的自定义策略,单击“下一步”,选择授权范围方案,单击“确定”。 此时,该用户组下的所有用户均有权限通过Cloud Shell登录运行中的训练作业容器。 如果没有用户组,也可以创建一个新的用户组,并通过“用户组管理”功能添加用户,并配置授权。如果指定
的图片,在data文件夹中不会展示,图片的位置信息显示该图片在输入目录中。 output.manifest存放的是数据处理之后的图片信息(主要是指图片的位置和标注信息等),可以直接使用这个output.manifest文件创建数据集,或者把output.manifest文件导入到已经存在的数据集中。
备注 /xxx 否 专属池使用SFS盘挂载的目录,路径由客户自己指定。 /home/ma-user/modelarts 否 空文件夹,建议用户主要用这个目录。 /cache 否 裸机规格支持,挂载宿主机NVMe的硬盘。 /dev/shm 否 用于PyTorch引擎加速。 /usr/local/nvidia
置”。 图2 数据集的输入位置和输出位置 参数填写无误后,单击页面右下角“创建”,即可完成数据集的创建。 数据分析 数据集创建完成后,可以基于图片各项特征,如模糊度、亮度等进行分析,帮助用户更好的分析数据集的数据质量,判断数据集是否满足自己的算法和模型要求。 创建特征分析任务 在
from torch.optim.lr_scheduler import StepLR import shutil # 定义网络模型 class Net(nn.Module): def __init__(self): super(Net, self)
自检或修复机制,从而恢复了正常的带宽。 系统负载问题:最初测试GPU卡间带宽时,可能存在其他系统负载,如进程、服务等,这些负载会占用一部分网络带宽,从而影响NVLINK带宽的表现。重新安装软件后,这些负载可能被清除,从而使NVLINK带宽恢复正常。 父主题: Lite Server
根据业务需求和数据集类型选择合适的许可证类型。 单击许可证类型后面的感叹号可以查看许可证详情。 说明: 部分许可证网站说明地址是海外网站,用户可能会因网络限制无法访问。 谁可以看 设置此数据集的公开权限。可选值有: “公开”:表示所有使用AI Gallery的用户都可以查看且使用该资产。 “
参数配置完成后,单击“提交”。 “资源池类型”选择“公共资源池”时,会出现“计费提醒”对话框,请您仔细阅读预估费用信息,然后单击“确定”,创建部署任务。模型部署会基于资源占用时长进行计费。服务状态为运行中时会产生费用,最终实际费用以账单为准。 在“我的服务”列表中,当模型部署服务的“状态”变成“运行中”时,表示模型部署完成。
"local_path=/xxx/yyy/zzz;read_only=false;nfs_server_path=xxx.xxx.xxx.xxx:/" 示例:基于ModelArts预置镜像提交训练作业 指定命令行options参数提交训练作业 ma-cli ma-job submit --code-dir
当链接关闭后失效;新打开建立的链接只允许当前设置的IP进行访问。 此处的IP地址,请填写外网IP地址。如果用户使用的访问机器和华为云ModelArts服务的网络有隔离,则访问机器的外网地址需要在主流搜索引擎中搜索“IP地址查询”获取,而不是使用ipconfig或ifconfig/ip命令在本地查询。
owner String 创建者名称。 auth_type String 授权类型。默认值为PUBLIC。 PUBLIC:租户内部公开访问。 PRIVATE:仅创建者和主账号可访问。 INTERNAL:创建者、主账号、指定IAM子账号可访问,需要与grants参数配合使用。 enterprise_project_id
5个盘。 如果要使用训练作业挂载SFS Turbo功能,需要配置ModelArts和SFS Turbo间网络直通,具体操作请参见配置ModelArts和SFS Turbo间网络直通。 如果要了解SFS Turbo存储加速方案,请参见模型训练存储加速。 运行用户ID 容器运行时的用
send_bytes_rate 上行速率 统计ModelArts用户服务的 出方向网络流速。 单位:bit/min ≥bit/min ModelArts模型负载 1分钟 recv_bytes_rate 下行速率 统计ModelArts用户服务的 入方向网络流速。 ≥bit/min ModelArts模型负载 1分钟
执行,可以在下方的Terminal中看到代码输出信息。 如果执行较长时间的训练作业,建议使用nohup命令后台运行,否则SSH窗口关闭或者网络断连会影响正在运行的训练作业,命令参考: nohup your_train_job.sh > output.log 2>&1 & tail