检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
果导入的数据集包括除了上述之外的子集,这些其他子集将被忽略。 obj.data应包含以下内容,train和valid子集必须至少有一个,其中文件路径均为相对路径。 classes = 5 # 可选 names = <path/to/obj.names>#例如 obj.names train
scripts/llama2/0_pl_pretrain_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0> apiVersion: batch.volcano.sh/v1alpha1 kind: Job ... spec:
scripts/llama2/0_pl_pretrain_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0> apiVersion: batch.volcano.sh/v1alpha1 kind: Job ... spec:
使用边缘节点部署边缘服务能否使用http接口协议? 系统默认使用https。如果您想使用http,可以采取以下两种方式: 方式一:在部署边缘服务时添加如下环境变量: MODELARTS_SSL_ENABLED = false 图1 添加环境变量 方式二:在使用自定义镜像导入模型时
al的文件与JupyterLab目录的文件相同。 挂载EVS存储的Notebook,JupyterLab目录的文件可使用Moxing接口或SDK接口,读取OBS中的文件。Terminal的文件与JupyterLab目录的文件相同。 父主题: 更多功能咨询
容器提供的健康检查接口调用失败。容器健康检查接口调用失败,原因可能有两种: 镜像健康检查配置问题 模型健康检查配置问题 解决方法 根据容器日志进行排查,查看健康检查接口失败的具体原因。 镜像健康检查配置问题,需修复代码后重新制作镜像创建模型后部署服务。了解镜像健康接口配置请参考模型配置文件编写说明中health参数说明。
(可选)本地安装ma-cli 使用场景 本文以Windows系统为例,介绍如何在Windows环境中安装ma-cli。 Step1:安装ModelArts SDK 参考本地安装ModelArts SDK完成SDK的安装。 Step2:下载ma-cli 下载ma-cli软件包。 完成软件包签名校验。
发布至AI云商店 华为云云商店是软件及服务交易交付平台。云商店AI专区汇聚优质的人工智能服务提供商,提供丰富的人工智能解决方案、应用、API及算法模型,助力用户快速部署、接入、调用相关应用,方便地购买和使用算法模型。 发布至云商店AI专区的模型为商业售卖资产。买家需购买商品的使用配额进行有偿使用。
#运行opencompass脚本 ├──install.sh #安装opencompass脚本 ├──vllm_api.py #启动vllm api服务器 ├──vllm.py #构造vllm评测配置脚本名字 ├──vllm_ppl.py
片进行服务预测。 如果您的输入类型为图片,请注意测试服务单张图片输入应小于8MB。 JSON文本预测,请求体的大小不超过8MB。 因APIG(API网关)的限制,单次预测的时间不能超过40S。 图片支持以下类型:“png”、“psd”、“jpg”、“jpeg”、“bmp”、“gi
Service,需提前在IEF(智能边缘服务)创建好节点。 是 str service_name 服务名称,支持1-64位可见字符(含中文),名称可以包含字母、中文、数字、中划线、下划线。 说明: 该字段不填时默认为自动生成的服务名称。 否 str、Placeholder description
明请见模型推理代码编写说明。 Tensorflow TensorFlow存在两种接口类型,keras接口和tf接口,其训练和保存模型的代码存在差异,但是推理代码编写方式一致。 训练模型(keras接口) 1 2 3 4 5 6 7 8 9 10 11 12 13
Admin” 策略。 选择授权范围方案为“所有资源”,单击“确定”。 精细化授权管理 如果您需要进行精细的权限管理,可参考《ModelArts API参考》中的权限策略和授权项。 数据管理权限 开发环境权限 训练作业权限 模型管理权限 服务管理权限 工作空间管理权限 精细化授权案例可参考管理员和开发者权限分离。
/home/mind/model”目录下,最后执行SWR镜像中预置的启动命令。ModelArts平台会在APIG上注册一个预测接口提供给用户使用,用户可以通过平台提供的预测接口访问服务。 自定义引擎创建模型的规范 使用自定义引擎创建模型,用户的SWR镜像、OBS模型包和文件大小需要满足以下规范:
图中蓝色loss_0是NPU迭代曲线,黄色loss_1是GPU的迭代曲线。 问题定位解决 使用ptdbg_ascend工具dump全网数据,dump接口设置方法具体参考PyTorch精度工具。dump完成后compare GPU和NPU结果进行分析。 dropout算子引入了随机性偏差,如下图:
scripts/llama2/0_pl_pretrain_70b.sh <MASTER_ADDR=xx.xx.xx.xx> <NNODES=4> <NODE_RANK=0> apiVersion: batch.volcano.sh/v1alpha1 kind: Job ... spec:
用户自定义镜像自建的conda环境会查到一些额外的包,影响用户程序,如何解决? 问题现象 用户的自定义镜像运行在Notebook里会查到一些额外的pip包。如下图所示,左侧为自定义镜像运行在本地环境,右侧为运行在Notebook里。 可能原因 Notebook自带moxing、m
将OBS中的文件下载到Notebook,可以通过在Notebook中运行代码的方式完成数据下载,具体方式有2种,ModelArts的SDK接口或者调用MoXing接口。 方法一:使用ModelArts SDK接口将OBS中的文件下载到Notebook后进行操作。 示例代码: 1 2 3 from modelarts
#运行opencompass脚本 ├──install.sh #安装opencompass脚本 ├──vllm_api.py #启动vllm api服务器 ├──vllm.py #构造vllm评测配置脚本名字 ├──vllm_ppl.py
├──start.sh #安装opencompass脚本 ├──vllm_api.py #启动vllm api服务器 ├──vllm.py #构造vllm评测配置脚本名字 相关文档