检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
完成资源配置后,单击“继续运行”,在弹框中确认继续运行后,服务部署节点将继续运行,直至状态变为“运行成功”,至此,已将模型部署为在线服务。 服务测试 服务部署节点运行成功后,单击“实例详情”可跳转至对应的在线服务详情页面。单击“预测”页签,进行服务测试。 图1 服务测试 下面
--listen --log-startup --disable-safe-unpickle --api 等待克隆仓库,下载依赖模型,启动成功后显示 图1 启动成功后显示 验证效果。 新开启一个终端,执行以下命令。 curl --noproxy '*' -kv -X POST localhos
Gallery“我的数据 > 我的发布”不会立即显示,需要刷新该页面才能看到新发布的数据集。 如果选择对象存储服务(OBS)中已有的数据集发布,则参见表2配置数据集信息。 图2 发布数据集(OBS) 表2 参数说明(OBS) 参数 说明 资产标题 在AI Gallery显示的资产名称,建议按照您的目的设置。
ch_2_1:0.5.3 打印如下信息,表示上传镜像成功。 图6 成功上传镜像 Step8 注册镜像 镜像上传至SWR成功后,在ModelArts控制台的“镜像管理”页面中单击“注册镜像”。 图7 在ModelArts控制台注册镜像 在镜像源中,选择上一步中上传到SWR自有镜像仓
如果信息正确,右下角连接状态处会显示:CONNECTED; 如果无法建立连接,如果是401状态码,检查认证信息; 如果显示WRONG_VERSION_NUMBER等关键字,检查自定义镜像的端口和ws跟wss的配置是否正确。 连接成功后结果如下: 图3 连接成功 优先验证自定义镜像提供的
后的“配置”按钮。 按照界面提示步骤操作即可。 图5 配置kubectl 验证。 在安装了kubectl工具的机器上执行如下命令,显示集群节点即为成功。 kubectl get node 父主题: Lite Cluster资源配置
装和配置kubectl。 图3 kubectl访问集群配置 在节点机器中,输入命令,查看查看Kubernetes集群信息。若显示如图图4的内容,则配置成功。 kubectl cluster-info 图4 查看Kubernetes集群信息正确弹出内容 父主题: 准备工作
中安装和配置kubectl。 图3 kubectl访问集群配置 在节点机器中,输入命令,查看Kubernetes集群信息。如果显示如图4的内容,则配置成功。 kubectl cluster-info 图4 查看Kubernetes集群信息正确弹出内容 父主题: 准备工作
Gallery服务协议》后,单击“继续订阅”才能继续进行算法订阅。 算法被订阅后,详情页的“订阅”按钮显示为“已订阅”,订阅成功的资产也会展示在“我的Gallery > 我的资产 > 算法 > 我的订阅”。 使用算法 订阅成功的算法可在ModelArts管理控制台使用,如创建训练作业等。 方式一:从算法详情页进入管理控制台
probe),则禁用所有其他探针,直到它成功为止。如果启动探针失败,将会重启实例。如果没有提供启动探针,则默认状态为成功Success。 就绪探针:用于检测应用实例是否已经准备好接收流量。如果就绪探针失败,即实例未准备好,会从服务负载均衡的池中剔除该实例,不会将流量路由到该实例,直到探测成功。 存活探针:
基于ModelArts Studio大模型即服务平台在模型广场预置的模型模板,用户可以使用推荐的模型权重文件或自定义的模型权重文件,创建一个自己的模型。 创建成功的模型可以在ModelArts Studio大模型即服务平台进行调优、压缩、推理等操作。 约束限制 用于生成专属模型的模型权重文件需要满足Hugging
json”文件,则此处会显示inference_params文件里的参数配置项,支持修改自定义镜像的部署参数。 计算规格选择 - 按需选择计算规格。单击“选择”,在弹窗中选择资源规格并设置运行时长控制,单击“确定”。 在“所在区”选择计算规格所在的区域。默认显示全部区域的计算规格。
进入Notebook实例详情页面,单击“扩容”。 图2 Notebook实例详情页 设置待扩充的存储容量大小,单击“确定”。系统显示“扩容中”,扩容成功后,可以看到扩容后的存储容量。 图3 扩容 图4 扩容中 父主题: 管理Notebook实例
驱动版本时,需要开启。 GPU驱动/Ascend驱动 打开“自定义驱动”开关,显示此参数,选择GPU/Ascend驱动。如果实例规格类型为GPU则显示“GPU驱动”,如果实例规格类型为Ascend则显示“Ascend驱动”。 开启高可用冗余 - 开启高可用冗余:是否开启资源池的高可用冗余,超节点默认开启高可用冗余。
env # 填写正确的config.env路径 配置完成后,执行如下命令查看CLI工具是否安装成功。 gallery-cli --help 如果安装成功会显示CLI中所有可用选项的列表,如下所示。 Usage: gallery-cli [OPTIONS] COMMAND
说明 is_success Boolean 请求是否成功。 error_code String 调用失败时的错误码,具体请参见错误码。 调用成功时无此字段。 error_message String 调用失败时的错误信息。 调用成功时无此字段。 job_total_count Integer
Turbo所在的VPC网络需要与专属资源池所在的网络打通,运行于该专属资源池的训练作业才能正常挂载SFS。因此,当训练作业挂载SFS失败时,可能是网络不通导致的。 处理步骤 进入训练作业详情页,在左侧获取SFS Turbo的名称。 图1 获取SFS Turbo的名称 登录弹性文件服务SFS控制台,在SFS
使用MobaXterm工具SSH连接Notebook后,经常断开或卡顿,如何解决? 问题现象 MobaXterm成功连接到开发环境后,过一段时间会自动断开。 可能原因 配置MobaXterm工具时,没有勾选“SSH keepalive”或专业版MobaXterm工具的“Stop server
Gallery”页面。 发布ModelArts模型 如果是发布新资产。 “发布方式”选择“创建新资产”。 填写“资产标题”。即在AI Gallery显示的资产名称。 “来源”选择“ModelArts”。 设置“ModelArts区域”。 设置可以使用该资产的ModelArts区域,以控制台实际可选值为准。
监控资源 用户可以通过资源占用情况窗口查看计算节点的资源使用情况,最多可显示最近三天的数据。在资源占用情况窗口打开时,会定期向后台获取最新的资源使用率数据并刷新。 操作一:如果训练作业使用多个计算节点,可以通过实例名称的下拉框切换节点。 操作二:单击图例“cpuUsage”、“g