检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查询服务监控信息。 查询服务更新日志 查询实时服务更新日志。 查询服务事件日志 查询服务事件日志,包含服务的操作记录及部署过程中的关键动作、部署失败原因。 删除服务 删除服务。 查询支持的服务部署规格 查询支持的服务部署规格列表。 查询专属资源池列表 查询专属资源池列表。 资源管理接口
clone https://github.com/bigscience-workshop/Megatron-DeepSpeed 若git clone失败,可以尝试先下载至本地,然后复制至服务器中,在docker cp至容器中。 安装Megatron-DeepSpeed框架。 cd Megatron-DeepSpeed
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。
Standard“在线服务”详情页修改服务流量限制。 同步请求时,平台每次请求预测的时间不能超过60秒。例如输出数据比较大的调用请求(例如输出大于1k),请求预测会超过60秒导致调用失败,可提交工单设置请求超时时间。 benchmark方法介绍 性能benchmark包括两部分。
理示例中挂载了1张卡davinci0。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 Step4进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。 docker exec -it
卡davinci0~davinci7。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 Step4 进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。 docker exec -it
卡davinci0~davinci7。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 Step5 进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。 docker exec -it
),则模型文件必须满足自定义模型规范(推理)才支持模型自定义推理。 当使用自定义镜像部署推理服务时,要确认镜像是否满足自定义镜像规范,否则无法成功完成推理服务的部署。 部署推理服务 登录AI Gallery。 单击“模型”进入模型列表。 选择需要部署为推理服务的模型,单击模型名称进入模型详情页。
32GB、计算节点个数为1个(单价:3.50 元/小时)。按照计算资源费用、存储费用结算,那么运行这个自动学习作业的费用计算过程如下: 创建自动学习项目时,无法直接选择专属资源池。可在项目创建成功后,进入自动学习详情页,然后单击右上角“配置”,在“Workflow配置 > 资源配置”中,选择使用专属资源池。
存放的是文件,会以文件和文件夹的层次结构来整理和呈现数据。 存放的是对象,可以直接存放文件,文件会自动产生对应的系统元数据,用户也可以自定义文件的元数据。 存放的是二进制数据,无法直接存放文件,如果需要存放文件,需要先格式化文件系统后使用。 访问方式 在BMS中通过网络协议挂载使用,支持NFS和CIFS的网络协议。需
工作空间“default”不支持删除。 请注意,删除工作空间将删除该空间下的所有资源,包括已创建的Notebook、训练作业和部署服务,且无法恢复,请谨慎操作。 在ModelArts管理控制台的左侧导航栏中,选择“工作空间”进入工作空间列表。 在工作空间列表,单击操作列的“删除”
在创建数据处理页面,填写相关算法参数。 填写基本信息。基本信息包括“名称”、“版本”和“描述”。其中“版本”信息由系统自动生成,按“V0001”、“V0002”规则命名,用户无法修改。 您可以根据实际情况填写“名称”和“描述”信息。 设置场景类别。场景类别当前支持“图像分类”和“物体检测”。 设置数据处理类型“数据
containerd 默认命名空间是 k8s.io。所以在导入镜像时需要指定命令空间为 k8s.io,否则使用 crictl images 无法查询到。以下命令可选其一进行镜像拉取: 使用 containerd 自带的工具 ctr 进行镜像拉取。 ctr -n k8s.io images
理示例中挂载了1张卡davinci0。 driver及npu-smi需同时挂载至容器。 不要将多个容器绑到同一个NPU上,会导致后续的容器无法正常使用NPU功能。 步骤五:进入容器 通过容器名称进入容器中。默认使用ma-user用户执行后续命令。 docker exec -it ${container_name}
> 0。 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。 说明: n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。 use_beam_search 否 False Bool 是否使用beam_search替换采样。
> 0。 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。 说明: n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。 use_beam_search 否 False Bool 是否使用beam_search替换采样。
> 0。 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。 说明: n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。 use_beam_search 否 False Bool 是否使用beam_search替换采样。
> 0。 使用beam_search场景下,n取值建议为1<n≤10。如果n=1,会导致推理请求失败。 说明: n建议取值不超过10,n值过大会导致性能劣化,显存不足时,推理请求会失败。 use_beam_search 否 False Bool 是否使用beam_search替换采样。
权限加入到“策略”当中,再把策略赋给用户组。为了方便用户的权限管理,各个云服务都提供了一些预置的“系统策略”供用户直接使用。如果预置的策略不能满足您的细粒度权限控制要求,则可以通过“自定义策略”来进行精细控制。 表1列出了ModelArts的所有预置系统策略。 表1 ModelArts系统策略
rams.json”文件,则在推理启动脚本中需要使用环境变量来指定“inference_params.json”中的参数,否则配置的参数将无法在推理过程中生效。 “inference_params.json”文件的参数请参见表4。该参数会显示在部署推理服务页面,在“高级设置”下会