检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
称。 pool_name 是 String 系统生成的资源池名称。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-ModelArts-User-ID 否 String 实际的外部租户ID,如果有的话,工作空间鉴权以该ID为准。 响应参数 状态码:200
显示如图所示时,即可调用服务成功。 curl -X POST -H "Content-Type: application/json" --data '{"name":"Tom"}' 127.0.0.1:8080/ curl -X POST -H "Content-Type: application/json"
需收费。 存储资源费用:数据存储到对象存储OBS、云硬盘EVS、弹性文件服务SFS中的计费。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用可参见ModelArts价格详情。 按需计费 规格单价 * 计算节点个数 *
算资源为训练作业运行的费用。存储资源包括数据存储到OBS或SFS的费用。具体内容如表1所示。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用可参见ModelArts价格详情。 按需计费 规格单价 * 计算节点个数 *
“确定”。 图1 动态挂载OBS并行文件系统 挂载成功后,可以在Notebook实例详情页查看到挂载结果。 图2 挂载成功 方式2:API模式 动态挂载API接口已发布至华北-北京四和华东-上海一站点。请参考JupyterLab主页介绍、在JupyterLab中新建ipynb文件,新建一个ipynb文件然后执行脚本。
othquant或者gptq加载的量化权重,根据量化方式选择对应参数,可选awq,smoothquant,gptq。 model:模型启动模式,可选vllm,openai或hf,hf代表huggingface。 tasks:评测数据集任务,比如openllm。 batch_siz
和名称。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token。通过调用IAM服务获取用户Token接口获取(响应消息头中X-Subject-Token的值)。 响应参数 状态码:200 表3 响应Body参数
er_lite命令时),通过--configFile参数指定配置文件aoe_config.ini,配置文件通过aoe_mode参数指定调优模式。可选值有: “subgraph tuning”:子图调优。 “operator tuning”:算子调优。 “subgraph tuning
othquant或者gptq加载的量化权重,根据量化方式选择对应参数,可选awq,smoothquant,gptq。 model:模型启动模式,可选vllm,openai或hf,hf代表huggingface。 tasks:评测数据集任务,比如openllm。 batch_siz
存储到OBS中的数据需在OBS控制台进行手动删除。如果未删除,则会按照OBS的计费规则进行持续计费。 包年/包月资源 对于包年/包月计费模式的资源,用户在购买时会一次性付费,服务将在到期后自动停止使用。 如果在计费周期内不再使用包年/包月资源,您可以执行退订操作,系统将根据资源
是否必填 数据类型 template_id 所使用的模板ID,模板中会内置一个输入输出模式 是 str、Placeholder infer_format 输入输出模式ID,提供时覆盖模板中的内置输入输出模式 否 str、Placeholder template_inputs 模板输入项配置,即配置模型的源路径
计费。计算资源为运行推理服务的费用。存储资源包括数据存储到OBS的计费。具体内容如表1所示。 表1 计费项 计费项 计费项说明 适用的计费模式 计费公式 计算资源 公共资源池 使用计算资源的用量。 具体费用可参见ModelArts价格详情。 按需计费 规格单价 * 计算节点个数 *
othquant或者gptq加载的量化权重,根据量化方式选择对应参数,可选awq,smoothquant,gptq。 model:模型启动模式,可选vllm,openai或hf,hf代表huggingface。 tasks:评测数据集任务,比如openllm。 batch_siz
othquant或者gptq加载的量化权重,根据量化方式选择对应参数,可选awq,smoothquant,gptq。 model:模型启动模式,可选vllm,openai或hf,hf代表huggingface。 tasks:评测数据集任务,比如openllm。 batch_siz
中所需的工具集,且已经适配到最新的版本可以直接使用。 开发者可以通过浏览器入口以Notebook方式访问,也可以通过VSCode远程开发的模式直接接入到云上环境中完成迁移开发与调测,最终生成适配昇腾的推理应用。 当前支持以下两种迁移环境搭建方式: ModelArts Standa
Standard推理中,将模型部署为批量服务时,只支持使用公共资源池,暂不支持使用专属资源池。 对于同步请求模式的模型,如果预测请求时延超过60s,会造成请求失败,甚至会有服务业务中断的风险,预测请求时延超过60s时,建议制作异步请求模式的镜像。 Lite Server ModelArts Lite Server
编辑版本 选择“版本”页签,单击右上方的“编辑”进入编辑模式。 单击“版本说明”列的,添加版本说明,单击完成添加。 编辑数据集的版本信息便于区分数据集信息。 编辑限制 选择“限制”页签,单击右上方的“编辑”进入编辑模式。 在“谁可以看”右侧的下拉框中选择公开权限,单击“保存”完成修改。
学习页面。 在您需要的自动学习项目列表中。例如选择预测分析项目,单击“创建项目”,进入创建自动学习项目界面。 在创建自动学习项目页面,计费模式默认“按需计费”,参考表1填写相应参数。 表1 参数说明 参数 说明 “名称” 项目的名称。 名称只能包含数字、字母、下划线和中划线,长度不能超过64位且不能为空。
在ModelArts控制台“AI专属资源池 > 弹性集群Cluster”页面中的Standard资源池页签中,单击“购买AI专属资源池”,选择“计费模式”为“包年/包月”,在页面最下方勾选“自动续费”。 购买成功后开通自动续费 在ModelArts控制台“AI专属资源池 > 弹性集群Clu
动学习”,进入新版自动学习页面。 在您需要的自动学习项目列表中,单击“创建项目”,进入创建自动学习项目界面。 在创建自动学习项目页面,计费模式默认“按需计费”,参考表1填写相应参数。 表1 参数说明 参数 说明 “名称” 项目的名称。 名称只能包含数字、字母、下划线和中划线,长度不能超过64位且不能为空。