检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
该镜像所对应的描述信息,长度限制512个字符。 dev_services Array of strings 镜像支持的服务。枚举值如下: NOTEBOOK:镜像支持通过https协议访问Notebook。 SSH:镜像支持本地IDE通过SSH协议远程连接Notebook。 id String 待创建Noteboo
Long 传输完成文件大小(字节)。 file_size_total Long 总文件大小(字节)。 请求示例 查询导入任务详情 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/import-tasks/{task_id}
String 数据集的版本名称,名称仅包含数字、字母、中划线和下划线,长度是0-32位。 请求示例 查询数据处理任务版本的详情 GET https://{endpoint}/v2/{project_id}/processor-tasks/{task_id}/versions/{version_id}
unreviewed_sample_count Integer labeler标注完未被reviewer审核的样本数目。 请求示例 团队成员查询团队标注任务列表 GET https://{endpoint}/v2/{project_id}/workforces/worker-tasks?offset=0&limit
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询指定节点池详情。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/nodepools/{nodepool_name}
使用自定义引擎在ModelArts Standard创建模型 使用自定义引擎创建模型,用户可以通过选择自己存储在SWR服务中的镜像作为模型的引擎,指定预先存储于OBS服务中的文件目录路径作为模型包来创建模型,轻松地应对ModelArts平台预置引擎无法满足个性化诉求的场景。 自定义引擎创建模型的规范
可以根据实际需求设置。 --num-requests:输出数据集的数量,可以根据实际需求设置。 进入benchmark_tools目录下,切换一个conda环境。 cd benchmark_tools conda activate python-3.9.10 执行脚本benchmark_serving
可以根据实际需求设置。 --num-requests:输出数据集的数量,可以根据实际需求设置。 进入benchmark_tools目录下,切换一个conda环境。 cd benchmark_tools conda activate python-3.9.10 执行脚本benchmark_serving
传输完成文件大小(字节)。 file_size_total Long 总文件大小(字节)。 请求示例 获取数据集导入任务列表 GET https://{endpoint}/v2/{project_id}/datasets/{dataset_id}/import-tasks 响应示例
最小GPU规格。 min_memory String 最小内存。 min_ascend String 最小Ascend规格。 请求示例 GET https://{endpoint}/v1/{project_id}/models 响应示例 状态码:200 模型列表 { "total_count"
参数 参数类型 描述 az String AZ的名称。 count Integer AZ的资源数量。 请求示例 查询节点池列表。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/nodepools { } 响应示例 状态码:200
内置属性:三元组关系标签的指向实体类型,创建关系标签时必须指定,该参数仅文本三元组数据集使用。 请求示例 查询团队标注任务中未审核样本的统计信息 GET https://{endpoint}/v2/{project_id}/datasets/WxCREuCkBSAlQr9xrde/workforce
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/models/ai-engine-runtimes 响应示例 状态码:200
2312-aarch64-snt9b-20240606190017-b881580 RUN cd /home/ma-user && git clone https://github.com/comfyanonymous/ComfyUI.git -c http.sslVerify=false && cd
transforms.Normalize((0.1307,), (0.3081,)) ]) # 将 raw mnist 数据集转换为 pytorch mnist 数据集 convert_raw_mnist_dataset_to_pytorch_mnist_dataset(args
基本参数请参考步骤八 启动scheduler实例,额外的参数如下: --dynamic:是否开启自适应角色转换,如果不开启,则下方参数无效 --replan-interval:重新计算pd配比转换的间隔时间,默认6000,单位为秒 --profile-input-len:profiling的输入长度,默认"64
py #构造vllm评测配置脚本名字 ├──vllm_ppl.py #ppl精度测试脚本 精度评测切换conda环境,确保之前启动服务为vllm接口,进入到benchmark_eval目录下,执行如下命令。 conda activate python-3
ret = dataset.with_transform(_format_transforms) return ret # 转换函数 def _format_transforms(examples): examples["pixel_values"] = [_transforms(img
SDK中,“request.setBody()”只支持String类型,所以只支持输入为文本格式的预测请求。如果输入的是文件格式,需要先进行base64编码转换成文本。 输入为文件格式 此处以json格式为例介绍读取本地预测文件并进行base64编码的请求体,请求体示例如下: package com
查询开发环境实例详情 功能介绍 该接口用于查询开发环境实例详情。 URI GET /v1/{project_id}/demanager/instances/{instance_id} 参数说明如表1所示 表1 参数说明 参数 是否必选 参数类型 说明 project_id 是 String