检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions Array of Constraint objects 数据约束条件。 value Map<String,Object>
业务场景 依赖的服务 委托授权项 说明 在线服务 LTS lts:groups:create lts:groups:list lts:topics:create lts:topics:delete lts:topics:list 建议配置,在线服务配置LTS日志上报。 批量服务 OBS
service {name}. Please disassociate it and try again. 删除在线服务{ID}失败,因为其已经和AI服务{名称}关联。请先取消关联。 取消对应在线服务的所有AI服务关联后重试。 400 ModelArts.3954 AI resource specification
该指标用于统计测试对象的入方向网络流速。 字节/秒(Bytes/Second) ≥0 NA NA NA 接收包速率 ma_container_network_receive_packets 每秒网卡接收的数据包个数。 个/秒(Packets/Second) ≥0 NA NA NA 下行错包率
dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions Array of Constraint objects 数据约束条件。 value Map<String,Object>
为离线测评,不需要启动推理服务,目前支持大语言模型。 约束限制 确保容器可以访问公网。 使用opencompass工具需用vllm接口启动在线服务。 当前的精度测试仅适用于语言模型精度验证,不适用于多模态模型的精度验证。多模态模型的精度验证,建议使用开源MME数据集和工具(GitHub
dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions 否 Array of Constraint objects 数据约束条件。 value 否 Map<String
th) # 指定OBS中的数据集路径,会自动将local_path数据上传至obs_path,用户可以在代码中通过 --data_url接收这个数据集路径 input_data = InputData(local_path=local_data_path, obs_path=data_obs_path
越大,生成文本的多样性就越高。 1 top_k 选择在模型的输出结果中选择概率最高的前K个结果。 20 在对话框中输入问题,查看返回结果,在线体验对话问答。 图7 体验模型服务 后续操作 如果不再需要使用此模型服务,建议清除相关资源,避免产生不必要的费用。 在MaaS服务的“模型
若需要部署量化模型,需在Notebook中进行模型权重转换后再部署推理服务。 在推理生产环境中部署推理服务 介绍如何创建AI应用,部署模型并启动推理服务,在线预测服务。 父主题: 主流开源大模型基于Standard适配PyTorch NPU推理指导(6.3.907)
测试推理服务:工作流运行完成后,在服务部署节点右侧单击“实例详情”跳转至推理服务详情页。或者在ModelArts管理控制台,选择“部署上线>在线服务”,找到部署的推理服务,单击服务名称,进入服务详情页。单击“预测”,右边可查看预测结果。 图6 预测样例图 图7 预测结果 父主题: 使用Workflow实现低代码AI开发
dataset:数据集 obs:OBS swr:SWR model_list:AI应用列表 label_task:标注任务 service:在线服务 conditions Array of Constraint objects 数据约束条件。 value Map<String,Object>
模型建议调大为6000) export HCCL_OP_EXPANSION_MODE=AIV #可选 设置动态分档位后,在PTA模式下不支持接收超过最大档的并发请求,超过后会导致推理服务终止。请将最大档(PTA_TORCHAIR_DECODE_GEAR_LIST参数的中设置的最大值
模型建议调大为6000) export HCCL_OP_EXPANSION_MODE=AIV #可选 设置动态分档位后,在PTA模式下不支持接收超过最大档的并发请求,超过后会导致推理服务终止。请将最大档(PTA_TORCHAIR_DECODE_GEAR_LIST参数的中设置的最大值
Integer 模型部署的实例数,即计算节点的个数。 model_id 否 String 模型ID。 specification 否 String 在线服务的资源规格。详见部署服务 weight 否 Integer 权重百分比,分配到此模型的流量权重;仅当infer_type为real-t
负责输入的增量推理。增量推理占用至少1个容器。 步骤八 启动scheduler实例:可为CPU实例,用于启动api-server服务,负责接收推理请求,向全量或增量推理实例分发请求,收集推理结果并向客户端返回推理结果。服务调度实例不占用显卡资源,建议增加1个容器,也可以在全量推理或增量推理的容器上启动。
模型建议调大为6000) export HCCL_OP_EXPANSION_MODE=AIV #可选 设置动态分档位后,在PTA模式下不支持接收超过最大档的并发请求,超过后会导致推理服务终止。请将最大档(PTA_TORCHAIR_DECODE_GEAR_LIST参数中设置的最大值)
开发环境的Notebook,根据不同的工作环境,对应支持的镜像和版本有所不同。 表3 新版Notebook支持的镜像 镜像名称 镜像描述 适配芯片 支持SSH远程开发访问 支持在线JupyterLab访问 pytorch1.8-cuda10.2-cudnn7-ubuntu18.04 CPU、GPU通用算法开发和训练基础镜像,预置AI引擎PyTorch1
开发环境的Notebook,根据不同的工作环境,对应支持的镜像和版本有所不同。 表3 Notebook支持的镜像 镜像名称 镜像描述 适配芯片 支持SSH远程开发访问 支持在线JupyterLab访问 pytorch1.8-cuda10.2-cudnn7-ubuntu18.04 CPU、GPU通用算法开发和训练基础镜像,预置AI引擎PyTorch1
建和管理等。一般用户选择此项即可。 如何获取访问密钥AK/SK? 如果在其他功能(例如PyCharmtoolKit/VSCode登录,访问在线服务等)中使用到访问密钥AK/SK认证,获取AK/SK方式请参考如何获取访问密钥章节。 如何删除已有委托列表下面的委托名称? 图8 已有委托