检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在线服务的API接口组成规则是什么? AI应用部署成在线服务后,用户可以获取API接口用于访问推理。 API接口组成规则如下: https://域名/版本/infer/服务ID 示例如下: https://6ac81cdfac4f4a30be95xxxbb682.apig.xxx
URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": { "identity": { "methods":
若没有授权,ModelArts服务的数据管理、训练管理、开发环境、在线服务等功能将不能正常使用。 调用查看授权列表接口查看用户的授权信息。 在管理用户授权时,可以调用删除授权接口删除指定用户的授权或者删除全量用户的授权。 前提条件 已获取IAM的EndPoint和ModelArts的EndPoint。
查询模型runtime 功能介绍 查询模型AI引擎以及runtime。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v1/{project_id}/mo
URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": { "identity": { "methods":
MEAgEwgXXXXXX... Content-Type →application/json 其中,加粗的斜体字段需要根据实际值填写。 返回状态码“204 No Content”表示数据集删除成功。 父主题: 应用示例
更新AI应用版本时,边缘服务预测功能不可用? 针对某一部署的边缘服务,如果在更新AI应用版本时,即修改边缘服务,更新其使用的AI应用版本,导致此边缘服务的预测功能暂不可用。 针对此场景,由于更新了AI应用版本,边缘服务将重新部署,处于部署中的边缘服务,则无法使用预测功能。即更新A
已存在部署完成的服务。 已完成模型调整,创建AI应用新版本。 操作步骤 登录ModelArts管理控制台,在左侧导航栏中选择“部署上线 > 在线服务”,默认进入“在线服务”列表。 在部署完成的目标服务中,单击操作列的“修改”,进入“修改服务”页面。 在选择模型及配置中,单击“增加模型版本进行灰度发布”添加新版本。
构建可扩展的生成式AI应用的过程。 操作步骤 在Dify界面右上角单击用户头像,选择“设置”。 在“设置”页面左侧,选择“模型供应商”页签,找到“ OpenAI-API-compatible”供应商,单击添加模型。 在弹窗中,配置MaaS对应的模型名称、API Key、API Endpoint
Gallery提供了模型、数据集、AI应用等AI数字资产的共享,为高校科研机构、AI应用开发商、解决方案集成商、企业级/个人开发者等群体,提供安全、开放的共享及交易环节,加速AI资产的开发与落地,保障AI开发生态链上各参与方高效地实现各自的商业价值。 使用流程 本节主要介绍在AI Gallery中管理资产的整体流程。
为了同时兼容onnx模型和mindir模型都能够在适配后的pipeline中运行,需要对于Model进行封装。MsliteModel各参数模型说明已给出,根据模型初始化参数设置当前模型使用onnx模型(运行在CPU上)或mindir模型(运行在昇腾设备上),也能够方便进行精度的校验。 #
URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": { "identity": { "methods":
开启支持APP认证功能:开启支持APP认证功能,选择已有APP应用或者创建新的APP应用。 在线服务授权管理:对创建的APP应用进行管理,包括查看、重置或删除应用,绑定或解绑应用对应的在线服务,获取“AppKey/AppSecret”或“AppCode”。 APP认证鉴权:调用支
发布免费模型 在AI Gallery中,您可以个人开发的模型免费分享给他人使用,包括ModelArts模型和HiLens技能。 前提条件 如果是发布ModelArts模型,已经在ModelArts的“AI应用管理”中准备好待发布的模型。在“AI应用管理”界面创建或发布模型的相关操
Lite是华为自研的推理引擎,能够最大化地利用昇腾芯片的性能。在使用MindSpore Lite进行离线推理时,需要先将模型转换为mindir模型,再利用MindSpore Lite作为推理引擎,将转换后的模型直接运行在昇腾设备上。模型转换需要使用converter_lite工具。
APP编号。 app_key String APP的key。 app_name String APP名称。 app_remark String APP描述,默认为空。不超过200个字符。 app_secret String APP密钥。 app_type String APP类型。枚举值如下:
APP编号。 app_key String APP的key。 app_name String APP名称。 app_remark String APP描述,默认为空。不超过200个字符。 app_secret String APP密钥。 app_type String APP类型。枚举值如下:
/v1/{project_id}/app-auth/apps/{app_id}/app-code/{app_code} 表1 路径参数 参数 是否必选 参数类型 描述 app_code 是 String 待删除的AppCode。 app_id 是 String APP编号,可通过APP列表接口获取。
/v1/{project_id}/app-auth/apps/{app_id}/app-code/{app_code} 表1 路径参数 参数 是否必选 参数类型 描述 app_code 是 String 待重置的AppCode。 app_id 是 String APP编号,可通过APP列表接口获取。
APP编号。 app_key String APP的key。 app_name String APP名称。 app_remark String APP描述,默认为空。不超过200个字符。 app_secret String APP密钥。 app_type String APP类型。枚举值如下: