检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
管理Workflow工作流 启动Workflow 登录ModelArts管理控制台,在左侧导航栏选择“开发空间>Workflow”,进入Workflow总览页面。 有3种操作方式运行工作流。 工作流列表页:单击操作栏的“启动”按钮,出现启动Workflow询问弹窗,单击“确定”。
等过程。您需要准备如下算法和数据集。 准备一个图像分类算法(或者可以直接从AI Gallery搜索订阅一个“图像分类-ResNet_v1_50”算法)。 准备一个图片类型的数据集,请参考准备数据集。可从AI Gallery直接下载(例如:8类常见生活垃圾图片数据集)。 from modelarts
sh需要自定义。示例如下: #!/bin/bash # 自定义脚本内容 ... # run.sh调用app.py启动服务器,app.py请参考https示例 python app.py 除了按上述要求设置启动命令,您也可以在镜像中自定义启动命令,在创建模型时填写与您镜像中相同的启动命令。
py”),任务会在启动容器后执行。 config.yaml内容如下: apiVersion: apps/v1 kind: Deployment metadata: name: yourapp labels: app: infers spec: replicas: 1 selector:
lder_type一致。 否 Any placeholder_format 支持的format格式数据,当前支持obs、flavor、train_flavor、swr、pacific。 否 str delay 参数是否运行时输入,默认为“False”,在工作流启动运行前进行配置。
ModelArts job submission and query job details. dli-job DLI spark job submission and query job details. auto-completion Auto complete
模型来源不同。订阅模型,模型来源于AI Gallery;云服务订阅模型,模型来源于其他AI服务开发的模型。 订阅模型列表 在ModelArts的“模型管理>订阅模型”页面中,罗列了从AI Gallery订阅的所有模型。 订阅模型,可通过如下操作获得: “订阅模型”列表,单击“AI Gallery订阅模型”,跳转至“AI
若要在生产环境中进行精度测试,还需修改benchmark_eval/config/config.json中app_code,app_code获取方式见访问在线服务(APP认证)。 Step2 查看精度测试结果 默认情况下,评测结果会按照result/{service_name}
流水和明细账单”页面。 选择“明细账单”,在账单列表中,单击复制资源名称。 图5 复制资源名称 登录ModelArts管理控制台,在左侧导航栏选择“AI专属资源池 > 弹性集群Cluster”,进入Standard资源池列表页面。 在搜索框中输入2中复制的资源名称,单击图标即可查找到该资源。
coding=utf-8 import requests import json if __name__ == '__main__': url = "xxxxxxxxxx/v1/chat/completions"
化架构,支持大模型分布式部署及推理 统一管理 AI 开发全流程,提升开发效率,记录模型构建实验全流程 多场景部署,灵活满足业务需求 支持云端/边端部署等多种生产环境 支持在线推理、批量推理、边缘推理多形态部署 AI工程化能力,支持AI全流程生命周期管理 支持MLOps能力,提供数
Lite使用中遇到问题时,例如模型转换失败、训练后量化转换失败、模型推理失败、模型推理精度不理想、模型推理性能不理想、使用Visual Studio报错、使用Xcode构建APP报错等,您可以先查看日志信息进行定位分析。 多数场景下的问题可以通过日志报错信息直接定位。如果日志的信息不能定位问题,您可以通过设置环境变量调整日志等级,打印更多调试日志。
安装VS Code软件 VS Code下载方式: 下载地址: https://code.visualstudio.com/updates/v1_85 图1 VS Code的下载位置 VS Code版本要求: 建议用户使用VS Code 1.85.2版本进行远程连接。 VS Code安装指导如下:
String 实际的外部租户ID,如果有的话,工作空间鉴权以该ID为准。 Content-Type 是 String 消息体的类型(格式),取值为application/merge-patch+json。 表3 请求Body参数 参数 是否必选 参数类型 描述 metadata 否 PoolMetadataUpdate
ict_analysis(预测分析)等。 model_type 是 String 模型AI引擎,表明模型使用的计算框架,支持常用AI框架和“Image”。 可选的常用AI框架请参见推理支持的AI引擎。 当model_type设置为Image,表示以自定义镜像方式创建模型,此时sw
提交训练作业时,出现xxx isn't existed in train_version错误 问题现象 提交训练作业时,出现xxx isn't existed in train_version错误,如下所示。 图1 xxx isn't existed in train_version错误 原因分析 出现上述错误,是因为用户通过PyCharm
使用预置AI算法部署在线服务报错gunicorn:error:unrecorgized arguments 问题现象 使用预置AI算法部署在线服务报错gunicorn:error:unrecorgized arguments... 图1 在线服务报错 原因分析 根据报错日志分析,
user_conda/sfs-new-env 添加新创建的虚拟环境到conda env。 # shell conda config --append envs_dirs /home/ma-user/work/envs/user_conda/ 查看现有的conda虚拟环境,此时新的
device specification refers to a valid device, The requested device appeares to be a GPU,but CUDA is not enabled” 原因分析 出现该问题的可能原因如下: 新安装的包与镜像中带的CUDA版本不匹配。
Port:云上开发环境的端口,即在开发环境实例页面远程访问模块获取的端口号。 User name:固定为ma-user。 Authentication type:Key pair方式。 Private key file:存放在本地的云上开发环境私钥文件,即在创建开发环境实例时创建并保存的密钥对文件。 单击将连接重