检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
deploy:部署 delete:删除 node_id String 边缘节点ID。在IEF上创建边缘节点后可得到。 请求示例 GET https://{endpoint}/v1/{project_id}/services/{service_id}/logs 响应示例 状态码:200
其中,index-url为pip源ip地址,使用时需自行替换。本示例以华为源为例,具体如下: [global] index-url = https://mirrors.huaweicloud.com/repository/pypi/simple trusted-host = mirrors
bash Step4 安装依赖和软件包 从github拉取MiniCPM-V代码。 cd /home/ma-user git clone https://github.com/OpenBMB/MiniCPM-V.git cd /home/ma-user/MiniCPM-V git checkout
指定网络地址进行访问,也可以将网络地址映射为本地目录后进行访问。 可以通过互联网或专线访问。需要指定桶地址进行访问,使用的是HTTP和HTTPS等传输协议。 只能在BMS中挂载使用,不能被操作系统应用直接访问,需要格式化成文件系统进行访问。 使用场景 如高性能计算、媒体处理、文件共享和内容管理和Web服务等。
String 参数名称。 value String 参数值。 请求示例 如下以查询名为“config123”的作业参数详情为例。 GET https://endpoint/v1/{project_id}/training-job-configs/config123 响应示例 成功响应示例
Object 节点执行条件为true时的分支。 right Object 节点执行条件为false时的分支。 请求示例 停止step POST https://{endpoint}/v2/{project_id}/workflows/{workflow_id}/executions/4dd
ppCode的参数值修改为真实的AppCode值。 Python示例代码如下: import requests API_URL = "https://xxxxxxx/v1/gallery/65f38c4a-bbd0-4d70-a724-5fccf573399a/" headers
训练作业的版本名称。 请求示例 如下以创建“job_id”为10,“pre_version_id”为20的一个新版本作业为例。 POST https://endpoint/v1/{project_id}/training-jobs/10/versions/ { "job_desc":
I引擎”。 “容器调用接口” 当“AI引擎”选择“Custom”时,才会显示该参数。 模型提供的推理接口所使用的协议和端口号,缺省值是HTTPS和8080,端口和协议需要根据模型实际定义的推理接口进行配置。 “健康检查” 用于指定模型的健康检查。使用Custom引擎时,会显示该参
String 数据集的版本名称,名称仅包含数字、字母、中划线和下划线,长度是0-32位。 请求示例 查询数据处理任务版本列表 GET https://{endpoint}/v2/{project_id}/processor-tasks/{task_id}/versions?offset=0&limit=5
资源池的创建、续费、退订等与计费相关的功能。 CCE cce:cluster:list cce:cluster:get 获取CCE集群列表、集群详情、集群证书等信息。 KMS kms:cmk:list kms:cmk:getMaterial 获取用户创建的密钥对列表信息。 AOM aom:metric:get
接口启动2种方式。详细启动服务与请求方式参考:https://docs.vllm.ai/en/latest/getting_started/quickstart.html。 以下服务启动介绍的是在线推理方式,离线推理请参见https://docs.vllm.ai/en/lates
{} to obs bucket {}".format(log_tar, obs_bucket)) obs_url = "https://%s.obs.%s.myhuaweicloud.com/%s/%s" % (obs_bucket, self.region_id,
若无法访问公网,则可以配置代理,增加`--build-arg`参数指定代理地址,可访问公网。 docker build --build-arg "https_proxy=http://xxx.xxx.xxx.xxx" --build-arg "http_proxy=http://xxx.xxx
/AscendCloud/AscendCloud-LLM/llm_inference/ascend_vllm/Dockfile中。内容如下: git clone https://gitee.com/ascend/vision.git vision_npu cd vision_npu git checkout
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 创建节点池。 POST https://{endpoint}/v2/{project_id}/pools/{pool_name}/nodepools { "kind"
参数种类。 请求示例 如下以查询uuid为2e5451fe-913f-4492-821a-2981031382f7的算法为例。 GET https://endpoint/v2/{project_id}/algorithms/2e5451fe-913f-4492-821a-2981031382f7
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 删除资源池。 DELETE https://{endpoint}/v2/{project_id}/pools/{pool_name} { } 响应示例 状态码:200 OK。
error_code String ModelArts错误码。 error_msg String 具体错误信息。 请求示例 查询资源池详情。 GET https://{endpoint}/v2/{project_id}/pools/{pool_name} { } 响应示例 状态码:200 OK。
型图模式启动不支持multi step。 MoE模型依赖MindSpeed,当使用MoE模型推理时,需提前安装: git clone https://gitee.com/ascend/MindSpeed.git cd MindSpeed git checkout a956b907