检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
租户不可见域名:指华为云服务在内网相互调用使用的域名,外部用户无法访问到对应的权威DNS服务器;或者Internet受限访问域名,只允许华为办公网络黄&绿区华为员工及合作方或外包人员访问的域名。 华为云基础域名安全使用,避免直接为租户分配基础域名。 华为云服务在内网互相调用使用的域名,避免使用外部已备案域名。
部署后的AI应用是如何收费的? ModelArts支持将AI应用按照业务需求部署为服务。训练类型不同,部署后的计费方式不同。 将AI应用部署为服务时,根据数据集大小评估模型的计算节点个数,根据实际编码情况选择计算模式。 具体计费方式请参见ModelArts产品价格详情。部署AI应
本地构建镜像:在本地制作自定义镜像包,镜像包规范可参考创建AI应用的自定义镜像规范。 本地验证镜像并上传镜像至SWR服务:验证自定义镜像的API接口功能,无误后将自定义镜像上传至SWR服务。 将自定义镜像创建为AI应用:将上传至SWR服务的镜像导入ModelArts的AI应用。 将AI应用部署为在线服务:将导入的模型部署上线。
导入AI应用对于镜像大小的限制 ModelArts部署使用的是容器化部署,容器运行时有空间大小限制,当用户的模型文件或者其他自定义文件,系统文件超过容器引擎空间大小时,会提示镜像内空间不足。 当前,公共资源池容器引擎空间的大小最大支持50G,专属资源池容器引擎空间的默认为50G,
集成在线服务API至生产环境中应用 针对已完成调测的API,可以将在线服务API集成至生产环境中应用。 前提条件 确保在线服务一直处于“运行中”状态,否则会导致生产环境应用不可用。 集成方式 ModelArts在线服务提供的API是一个标准的Restful API,可使用HTTP
如何使用soft NMS方法降低目标框堆叠度 目前华为云AI市场订阅的算法YOLOv3-Ascend(物体检测/TensorFlow)中可以使用soft NMS,YOLOv5算法文档中没有看到相关支持的信息,需要自定义算法进行使用。 父主题: 功能咨询
strings 请求模式,AI引擎支持部署为同步在线服务或异步在线服务。 sync:同步在线服务 async:异步在线服务 accelerators Array of Accelerator objects AI引擎可使用的加速卡。 arch Array of strings AI引擎架构,目前共两种:
明。 AI应用封面图 否 上传一张AI应用封面图,AI应用创建后,将作为AI应用页签的背景图展示在AI应用列表。建议使用16:9的图片,且大小不超过7MB。 如果未上传图片,AI Gallery会为AI应用自动生成封面。 应用描述 否 输入AI应用的功能介绍,AI应用创建后,将展
单击“立即创建”,跳转到AI应用列表页,查看AI应用状态,当状态变为“正常”,AI应用创建成功。 图1 创建AI应用 单击AI应用名称,进入AI应用详情页面,查看AI应用详情信息。 部署服务并查看详情 在AI应用详情页面,单击右上角“部署>在线服务”,进入服务部署页面,AI应用和版本默认选中,
如何使用soft NMS方法降低目标框堆叠度 目前华为云AI市场订阅的算法中,yolo3可以使用该方法降低目标框堆叠度,yolo5 算法中没有看到相关支持的信息,需要在自定义算法进行使用。 父主题: Standard数据管理
调整模型后,部署新版本AI应用能否保持原API接口不变? ModelArts提供多版本支持和灵活的流量策略,您可以通过使用灰度发布,实现模型版本的平滑过渡升级。修改服务部署新版本模型或者切换模型版本时,原服务预测API不会变化。 调整模型版本的操作可以参考如下的步骤。 前提条件 已存在部署完成的服务。
支持大模型场景下的AI应用管理和服务部署。 约束与限制 需要申请单个AI应用大小配额和添加使用节点本地存储缓存的白名单。 需要使用自定义引擎Custom,配置动态加载。 需要使用专属资源池部署服务。 专属资源池磁盘空间需大于1T。 操作事项 申请扩大AI应用的大小配额和使用节点本地存储缓存白名单
"cpu_image_url": "aip/pytorch_1_8:train", "gpu_image_url": "aip/pytorch_1_8:train", "image_version":
URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": { "identity": { "methods":
URI格式:POST https://{iam_endpoint}/v3/auth/tokens 请求消息头:Content-Type →application/json 请求Body: { "auth": { "identity": { "methods":
"status": "waiting" } ], "train_job_name": "AUTO_TRAINING_cls_6mHUGe7ETlhayb4qDMN_7eAtpiNSaI", "train_job_id":
模型适配 MindSpore Lite是华为自研的推理引擎,能够最大化地利用昇腾芯片的性能。在使用MindSpore Lite进行离线推理时,需要先将模型转换为mindir模型,再利用MindSpore Lite作为推理引擎,将转换后的模型直接运行在昇腾设备上。模型转换需要使用converter_lite工具。
更新AI应用版本时,边缘服务预测功能不可用? 针对某一部署的边缘服务,如果在更新AI应用版本时,即修改边缘服务,更新其使用的AI应用版本,导致此边缘服务的预测功能暂不可用。 针对此场景,由于更新了AI应用版本,边缘服务将重新部署,处于部署中的边缘服务,则无法使用预测功能。即更新A
Lite提供了Python、C++以及JAVA三种应用开发接口,此处以Python接口为例,介绍如何使用MindSpore Lite Python API构建并推理Stable Diffusion模型,更多信息请参考MindSpore Lite应用开发。 以官方onnx pipeline代码为例,其提供的onnx
什么是边缘节点? 边缘节点是您自己的边缘计算设备,用于运行边缘应用,处理您的数据,并安全、便捷地和云端应用进行协同。 父主题: 边缘服务