检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
精度评测可以在原先conda环境,进入到一个固定目录下,执行如下命令。 rm -rf lm-evaluation-harness/ git clone https://github.com/EleutherAI/lm-evaluation-harness.git cd lm-evaluation-harness
如果无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx.xxx.xxx.xxx" --build-arg "http_proxy=http://xxx.xxx
计费时期。 queries_limit Long 查询次数。 price Float 价格。 请求示例 给指定的工作流购买资源包 POST https://{endpoint}/v2/{project_id}/workflows{workflow_id}/service/packages
ModelArts错误码。 error_msg String 具体错误信息。 请求示例 解除指定的API对APP的授权。 DELETE https://{endpoint}/v1/{project_id}/services/{service_id}/app-auth-apis/{api_id}/app-auth-api
Integer 可用节点数。 count Integer 节点数。 specification String 节点规格。 请求示例 GET https://{endpoint}/v1/{project_id}/clusters 响应示例 状态码:200 服务部署规格列表。 { "total_count"
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v2/{project_id}/pools/{pool_name}/workloads 响应示例 状态码:400
status_info String 状态描述,默认为空。该字段会补充显示状态的详细信息。如删除失败时,可通过该字段查看删除失败的原因。 请求示例 GET https://{endpoint}/v1/{project_id}/workspaces?limit=2&offset=3&sort_by=na
ModelArts错误码。 error_msg String 具体错误信息。 请求示例 通过patch操作对服务进行更新。 PATCH https://{endpoint}/v1/{project_id}/services/{service_id} [ { "op" : "replace"
npu_memory_total Float npu总显存,单位MB。 npu_memory_usage Float 已使用npu显存,单位MB。 请求示例 GET https://{endpoint}/v1/{project_id}/services/{service_id}/monitor 响应示例 状态码:200
如下以查询训练作业状态为7,每页展示10条记录,指定到第1页,按照“job_name”排序并递增排列,查询作业名字中包含job的所有训练作业数据为例。 GET https://endpoint/v1/{project_id}/training-jobs?status=7&per_page=10&page=
index-url = https://repo.huaweicloud.com/repository/pypi/simple trusted-host = repo.huaweicloud.com timeout = 120 在华为开源镜像站https://mirrors.huaweicloud
实际情况,使用generate_datasets.py脚本生成和业务数据分布接近的数据集。 公开数据集下载地址: ShareGPT: https://huggingface.co/datasets/anon8231489123/ShareGPT_Vicuna_unfiltered
import workflow as wf 如果执行失败,可执行如下命令进行手动安装。 !rm modelarts*.whl !wget -N https://cn-north-4-training-test.obs.cn-north-4.myhuaweicloud.com/workflow-apps/v1
kubernetes会根据config.yaml文件中配置的卡数分配资源给pod,如下图所示由于配置了1卡因此在容器中只会显示1卡,说明配置生效。 图2 查看卡信息 修改pod的卡数。由于本案例中为分布式训练,因此所需卡数修改为8卡。 删除已创建的pod。 kubectl delete
d Extension for PyTorch(torch_npu)。 在torch_npu安装后,该部分并没有直接植入到PyTorch中生效,需要用户显式调用。 # torch npu初始化。 import torch_npu 调用后,前端会通过monkey-patch的方式注
py #启动vllm api服务器 ├──vllm.py #构造vllm评测配置脚本名字 精度评测切换conda环境,确保之前启动服务为vllm接口,进入到benchmark_eval目录下,执行如下命令。 conda activate python-3
#构造vllm评测配置脚本名字 ├──vllm_ppl.py #ppl精度测试脚本 精度评测切换conda环境,确保之前启动服务为vllm接口,进入到benchmark_eval目录下,执行如下命令。 conda activate python-3
此处下拉框有4个选项,分别是: Code(写python代码),Markdown(写Markdown代码,通常用于注释),Raw(一个转换工具),-(不修改)。 查看代码历史版本。 git插件,图标显示灰色表示当前Region不支持。 当前的资源规格。 单击可以选择Kernel。
String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 授权应用给指定的api POST https://{endpoint}/v1/{project_id}/services/{service_id}/app-auth-apis/{api_id}/app-auth-api
描述 error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 GET https://{endpoint}/v1/{project_id}/services/{service_id}/api-auths 响应示例 状态码:200