-
裸金属服务器支持IPV6解决方案 - AI开发平台ModelArts
单击子网,进入基本信息,在子网IPV6网段处,单击开启IPV6即可。 图2 子网开启IPV6 安全组支持放开IPV6。 安全组默认不支持IPV6放通,因此需要添加规则,使得IPV6出方向和入方向规则都放通IPV6。 图3 安全组支持放开IPV6 IPV6功能支持验证。 当创建成功后,进入到裸金属机器,通过ping6
-
创建网络 - AI开发平台ModelArts
网段类型:可选“预置”和“自定义”。 IPV6:开启IPv6功能后,将自动为子网分配IPv6网段,暂不支持自定义设置IPv6网段,该功能一旦开启,将不能关闭。(若创建网络时未勾选开启IPv6,也可在创建网络后在操作列单击“启动IPv6”,如图3) 图2 创建网络 图3 启动IPv6 单用户最多可创建15个网络。
-
部署为在线服务 - AI开发平台ModelArts
默认关闭。如需开启此功能,请参见访问在线服务(APP认证)了解详情并根据实际情况进行设置。 “订阅消息” - 订阅消息使用消息通知服务,在事件列表中选择需要监控的服务状态,在事件发生时发送消息通知。 图1 设置AI应用相关信息 可选:配置高级选项。 表3 高级选项参数说明 参数名称 说明 “支持IPV6” 默
-
ModelArts网络 - AI开发平台ModelArts
网段类型:可选“预置”和“自定义”。 IPV6:开启IPv6功能后,将自动为子网分配IPv6网段,暂不支持自定义设置IPv6网段,该功能一旦开启,将不能关闭。(若创建网络时未勾选开启IPv6,也可在创建网络后在操作列单击“启动IPv6”,如图3) 图2 创建网络 图3 启动IPv6 单用户最多可创建15个网络。
-
访问在线服务(Token认证) - AI开发平台ModelArts
访问在线服务(Token认证) 若在线服务的状态处于“运行中”,则表示在线服务已部署成功,部署成功的在线服务,将为用户提供一个可调用的API,此API为标准Restful API。在集成至生产环境之前,需要对此API进行调测,您可以使用以下方式向在线服务发起预测请求: 方式一:使
-
配置流程 - AI开发平台ModelArts
指导单EIP如何绑定在一台裸金属服务器上实现公网访问和SSH登录。 裸金属服务器支持IPV6解决方案 指导配置裸金属服务器实现支持IPV6。 可选。 2 存储 裸金属服务器存储指南 指导如何选择和使用存储服务。 必选。 3 环境配置 环境配置 指导如何在Snt9b裸金属服务器上,进行磁盘合并挂载、安装docker等环境配置。
-
创建资源池 - AI开发平台ModelArts
业类型。 逻辑资源池:仅支持“训练作业”的作业类型。 IPv6 - 开启IPv6功能。若开启了此功能,要求资源池绑定的网络也开启IPv6功能,网络开启IPv6可以参考创建网络章节。该功能一旦开启,将不能关闭。 当前支持IPv6功能的有如下规格: modelarts.kc1.2xlarge
-
在线服务的API接口组成规则是什么? - AI开发平台ModelArts
在线服务的API接口组成规则是什么? AI应用部署成在线服务后,用户可以获取API接口用于访问推理。 API接口组成规则如下: https://域名/版本/infer/服务ID 示例如下: https://6ac81cdfac4f4a30be95xxxbb682.apig.xxx
-
网络访问 - AI开发平台ModelArts
网络访问 单EIP实现多节点的SSH登录和外网访问 单EIP绑定裸金属服务器 裸金属服务器支持IPV6解决方案 父主题: DevServer资源配置
-
购买Server资源 - AI开发平台ModelArts
裸金属服务器所属虚拟私有云(VPC)及子网。 IPv6网络 若当前网络配置的子网、规格、镜像都支持IPv6,则会显示该参数,打开后可启用IPv6功能。 请确保您的子网已开启IPv6功能,若未开启请参考为虚拟私有云创建新的子网。 不同规格、镜像对IPv6支持的情况不同,若不支持则不会显示IPv6网络参数,请以控制台实际显示为准。
-
集成在线服务 - AI开发平台ModelArts
集成在线服务 针对已完成调测的API,可以将在线服务API集成至生产环境中应用。 前提条件 确保在线服务一直处于“运行中”状态,否则会导致生产环境应用不可用。 集成方式 ModelArts在线服务提供的API是一个标准的Restful API,可使用HTTPS协议访问。Model
-
使用自定义镜像创建在线服务,如何修改默认端口 - AI开发平台ModelArts
使用自定义镜像创建在线服务,如何修改默认端口 当模型配置文件中定义了具体的端口号,例如:8443,创建AI应用没有配置端口(默认端口号为8080),或者配置了其他端口号,均会导致服务部署失败。您需要把AI应用中的端口号配置为8443,才能保证服务部署成功。 修改默认端口号,具体操作如下:
-
在线服务预测报错MR.0105 - AI开发平台ModelArts
在线服务预测报错MR.0105 问题现象 部署为在线服务,服务处于运行中状态,预测时报错:{ "erno": "MR.0105", "msg": "Recognition failed","words_result": {}}。 图1 预测报错 原因分析 请在“在线服务”详情页面
-
访问在线服务(VPC高速访问通道) - AI开发平台ModelArts
图5 购买弹性云服务器时选择VPC 图6 查看虚拟私有云配置信息 获取在线服务的IP和端口号 可以通过使用图形界面的软件(以Postman为例)获取服务的IP和端口号,也可以登录弹性云服务器(ECS),创建Python环境运行代码,获取服务IP和端口号。 API接口: GET /v1
-
WebSocket访问在线服务 - AI开发平台ModelArts
传输。 前提条件 在线服务部署时需选择“升级为WebSocket”。 在线服务中的AI应用导入选择的镜像需支持WebSocket协议。 约束与限制 WebSocket协议只支持部署在线服务。 只支持自定义镜像导入AI应用部署的在线服务。 WebSocket在线服务调用 WebSo
-
访问在线服务(APP认证) - AI开发平台ModelArts
口。 在线服务授权管理 如果您需要使用支持APP认证功能,建议您在部署在线服务之前进行授权管理操作完成应用创建。进入“部署上线>在线服务”页面,单击“授权管理”,进入“在线服务授权管理”对话框。在此页面您可以实现应用的创建和管理,包括查看、重置或删除应用,解绑应用对应的在线服务,
-
从0-1制作自定义镜像并创建AI应用 - AI开发平台ModelArts
"application/json" } } ] 将AI应用部署为在线服务 参考部署为在线服务将AI应用部署为在线服务。 在线服务创建成功后,您可以在服务详情页查看服务详情。 您可以通过“预测”页签访问在线服务。 图5 访问在线服务 父主题: 使用自定义镜像创建AI应用(推理部署)
-
在线服务预测报错DL.0105 - AI开发平台ModelArts
在线服务预测报错DL.0105 问题现象 在线服务预测报错DL.0105,报错日志:“TypeError:‘float’object is not subscriptable”。 原因分析 根据报错日志分析,是因为一个float数据被当做对象下标访问了。 处理方法 将模型推理代码
-
ModelArts中常用概念 - AI开发平台ModelArts
指按某种策略由已知判断推出新判断的思维过程。人工智能领域下,由机器模拟人类智能,使用构建的神经网络完成推理过程。 在线推理 在线推理是对每一个推理请求同步给出推理结果的在线服务(Web Service)。 批量推理 批量推理是对批量数据进行推理的批量作业。 Ascend芯片 Asce
-
JupyterLab操作流程 - AI开发平台ModelArts
JupyterLab操作流程 ModelArts支持通过JupyterLab工具在线打开Notebook,开发基于PyTorch、TensorFlow和MindSpore引擎的AI模型。具体操作流程如下图所示。 图1 使用JupyterLab在线开发调试代码 创建Notebook实例。 在ModelAr