检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
解除API对APP的授权 功能介绍 解除指定的API对APP的授权,请求用户对API所属服务必须有更新权限。同URL:/v1/{project_id}/app-auth/{service_id}/apis/{api_id}/auths 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API
查询OS的配置参数 功能介绍 获取ModelArts OS服务的配置参数,如网络网段,用户资源配额等。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v1
附录:config.json文件 config.json文件用于推理服务启动时,需要修改以下参数,2台机器的每个容器中config.json文件内容一致。 ipAddress:主节点IP地址,即rank_table_file.json文件中的server_id。 manageme
免费资产无需支付费用,只需要支付在使用过程中消耗的硬件资源,硬件资源费用将根据实际使用情况由华为云ModelArts等管理控制台向使用方收取。 当前支持免费分享和订阅的资产类型有:Notebook代码样例、数据集、算法、模型、镜像。 商用资产由华为云云商店提供卖家发布和买家购买相关功能,AI Gallery仅提
--enable-prefix-caching 执行推理参考 配置服务化参数。Ascend vllm使用该特性需参考表1和表2,其它参数请启动推理服务。 启动服务。具体请参考启动推理服务。 精度评测和性能评测。具体请参考推理服务精度评测和推理服务性能评测。 父主题: 推理关键特性使用
管理Lite Cluster节点池 为帮助您更好地管理Kubernetes集群内的节点,ModelArts支持通过节点池来管理节点。一个节点池包含一个节点或多个节点,能通过节点池批量配置一组节点。 在资源池详情页,单击“节点池管理”页签,您可以创建、更新和删除节点池。 图1 节点池管理
注册API并授权给APP 功能介绍 注册API并将API授权给APP,只有对服务有更新权限的华为云用户可以调用。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST
删除API 功能介绍 删除指定的API,只有对API所属服务有删除权限的用户才可以删除API。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI DELETE /v1/
本章节介绍基于VS Code环境访问Notebook的方式。 前提条件 已下载并安装VS Code。详细操作请参考安装VS Code软件。 用户本地PC或服务器的操作系统中建议先安装Python环境,详见VSCode官方指导。 创建一个Notebook实例,并开启远程SSH开发。该实例状态必须处
ize}“,其中memSize为要设置的共享内存大小,如2g。 --shm-size 2g \ 如何解决MindIE服务已退出情况下显存依然占用的问题 问题:服务退出显存未完全释放 解决方法:重启机器。 MindIE和vLLM在深度思考返回接口差异 对于DeepSeek-R1这类模型,其返回信息包含深度思考的内容。
Notebook云上云下,无缝协同,更多关于ModelArts Notebook的详细资料请查看开发环境介绍。本案例中使用ModelArts的开发环境Notebook部署推理服务进行调试,请按照以下步骤完成Notebook的创建。 登录ModelArts控制台,在贵阳一区域,进入开发环境的Notebook界面,单击
benchmark_parallel.csv 参数说明: --backend:服务类型,支持tgi、vllm、mindspore等。本文档使用的推理接口是vllm。 --host:服务IP地址,如127.0.0.1。 --port:服务端口,和推理服务端口8080。 --url:API接口公网地址与"/v
除对应的版本。 如果模型的版本已经部署服务,需先删除关联的服务后再执行删除操作。版本删除后不可恢复,请谨慎操作。 删除模型 在“模型管理”页面,单击模型“操作”列的“删除”,即可删除对应的模型。 如果模型的版本已经部署服务,需先删除关联的服务后再执行删除操作。模型删除后不可恢复,请谨慎操作。
EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse object 服务器镜像信息。 category String 服务器归属类型。 HPS:超节点服务器 SPOD:整柜服务器 SERVER:单台服务器 server_hps ServerHpsInfo
EndpointsRes objects 服务器的私有IP信息。 image ServerImageResponse object 服务器镜像信息。 category String 服务器归属类型。 HPS:超节点服务器 SPOD:整柜服务器 SERVER:单台服务器 server_hps ServerHpsInfo
参数说明 --backend:服务类型,支持tgi、vllm、mindspore、openai等后端。本文档使用的推理接口是openai。 --host:服务部署的IP,${docker_ip}替换为宿主机实 际的IP地址。 --port:推理服务端口。 --tokenizer:
的方案,高效解决业务内容审核的算力/国产化需求,助力企业业务稳健发展。 政府 提高公共服务的效率和质量,加强公共安全,优化政策方案和决策过程等。 金融 为金融机构带来更加高效、智能、精准的服务。 矿山 提供端到端AI生产线能力和高性能AI算力,提升大模型推理效率,为矿山行业带来更高效、智能、安全和可持续的生产方案。
镜像保存时报错“The container size (xG) is greater than the threshold (25G)”如何解决? 问题现象 镜像保存时报错“The container size (30G) is greater than the threshold
ModelArts入门指引 本文旨在帮助您了解ModelArts的基本使用流程以及相关的常见问题,帮助您快速上手ModelArts服务。 面向不同AI基础的开发者,本文档提供了相应的入门教程,帮助用户更快速地了解ModelArts的功能,您可以根据经验选择相应的教程。 面向AI开
本案例在Notebook上部署推理服务进行调试,因此需要创建Notebook。 部署推理服务 在Notebook调试环境中部署推理服务 介绍如何在Notebook中配置NPU环境,部署并启动推理服务,完成精度测试和性能测试。 若需要部署量化模型,需在Notebook中进行模型权重转换后再部署推理服务。 在推理生产环境中部署推理服务