-
查询DevServer实例详情 - AI开发平台ModelArts
SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 支持的服务,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。 SSH:可以通过SSH协议远程连接Notebook。 uri String 实例私有IP地址。 表6 ServerImageResponse
-
创建DevServer - AI开发平台ModelArts
SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 支持的服务,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。 SSH:可以通过SSH协议远程连接Notebook。 uri String 实例私有IP地址。 表10 ServerImageResponse
-
实时同步用户所有DevServer实例状态 - AI开发平台ModelArts
SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 支持的服务,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。 SSH:可以通过SSH协议远程连接Notebook。 uri String 实例私有IP地址。 表8 ServerImageResponse
-
查询用户所有DevServer实例列表 - AI开发平台ModelArts
SSH密钥对名称列表,允许设置多个密钥对实现同时对SSH实例的访问。 service String 支持的服务,枚举值如下: NOTEBOOK:可以通过https协议访问Notebook。 SSH:可以通过SSH协议远程连接Notebook。 uri String 实例私有IP地址。 表8 ServerImageResponse
-
安装Gallery CLI配置工具 - AI开发平台ModelArts
云服务器”,单击专属资源池页签进入云服务详情页面。 在节点页签,单击选择“配置工具”,弹出该节点的配置工具页面。 在配置工具页面,单击“下载”启动下载任务。当配置工具的状态记录中“工具状态”为“下载完成”时表示下载完成,工具包存放在“下载位置”的目录下。 如果下载失败,单击“下载”可以重新下载。 登录云服务器查看工具包是否下载成功。
-
PyCharm手动连接Notebook - AI开发平台ModelArts
此时可以进入debug模式,代码运行暂停在该行,且可以查看变量的值。 图9 Debug模式 使用debug方式调试代码的前提是本地的代码和云端的代码是完全一致的,如果不一致可能会导致在本地打断点的行和实际运行时该行的代码并不一样,会出现意想不到的错误。 因此在配置云上Python Interp
-
VS Code连接后长时间未操作,连接自动断开 - AI开发平台ModelArts
配置中不存在超时主动断连的动作,但是防火墙会关闭超时空闲连接(参考:http://bluebiu.com/blog/linux-ssh-session-alive.html),后台的实例运行是一直稳定的,重连即可再次连上。 解决方法 如果想保持长时间连接不断开,可以通过配置SSH
-
DCGM监控方案 - AI开发平台ModelArts
xx为Grafana的所在宿主机的IP地址 图1 Prometheus 在HTTP的URL输入框中输入Prometheus的IP地址和端口号,单击Save&Test: 图2 IP地址和端口号 至此,指标监控方案安装完成。指标监控效果展示如下: 图3 指标监控效果 这里使用的是Grafan
-
VS Code连接开发环境失败时,请先进行基础问题排查 - AI开发平台ModelArts
VS Code连接开发环境失败时,请先进行基础问题排查 VS Code连接开发环境失败时,请参考以下步骤进行基础排查: 排查插件包是否为最新版:在extensions中搜索,看是否需要升级。 检查实例状态是否为运行中,如果是,请执行下一步继续排查。 在VS Code的Terminal中执行如下命令,连接到远端开发环境。
-
状态码 - AI开发平台ModelArts
表明请求超出了客户端访问频率的限制或者服务端接收到多于它能处理的请求。建议客户端读取相应的Retry-After首部,然后等待该首部指出的时间后再重试。 500 InternalServerError 表明服务端能被请求访问到,但是不能理解用户的请求。 501 Not Implemented 服务器不支持请求的功能,无法完成请求。
-
手动续费/自动续费包周期 - AI开发平台ModelArts
此时如果显示需要配置委托,请联系您的账号管理员进行ModelArts委托权限配置。 复制需要续费的服务器资源的ID。 图5 复制服务器资源的ID 在顶部菜单栏,单击“费用”,进入费用中心。 图6 费用 单击“订单管理 > 续费管理”,在“手动续费项”页签中,搜索实例ID信息,在对应的服务器操作列,单击“续费”。
-
不同机型的对应的软件配套版本 - AI开发平台ModelArts
不同机型的对应的软件配套版本 由于弹性集群资源池可选择弹性裸金属或弹性云服务器作为节点资源,不同机型的节点对应的操作系统、适用的CCE集群版本等不相同,为了便于您制作镜像、升级软件等操作,本文对不同机型对应的软件配套版本做了详细介绍。 裸金属服务器的对应的软件配套版本 表1 裸金属服务器
-
推理服务支持虚拟私有云(VPC)直连的高速访问通道 - AI开发平台ModelArts
只有专属资源池部署的服务才支持VPC直连的高速访问通道。 VPC直连的高速访问通道,目前只支持访问在线服务。 因流量限控,获取在线服务的IP和端口号次数有限制,每个主账号租户调用次数不超过2000次/分钟,每个子账号租户不超过20次/分钟。 目前仅支持自定义镜像导入模型,部署的服务支持高速访问通道。
-
推理服务访问公网 - AI开发平台ModelArts
推理服务访问公网 本章节提供了推理服务访问公网的方法。 应用场景 推理服务访问公网地址的场景,如: 输入图片,先进行公网OCR服务调用,然后进行NLP处理; 进行公网文件下载,然后进行分析; 分析结果回调给公网服务终端。 方案设计 从推理服务的算法实例内部,访问公网服务地址的方案。如下图所示:
-
模型配置文件编写说明 - AI开发平台ModelArts
框架时,请选择您使用的引擎所对应的运行时环境。目前支持的运行时环境列表请参见推理支持的AI引擎。 需要注意的是,如果您的模型需指定CPU或GPU上运行时,请根据runtime的后缀信息选择,当runtime中未包含cpu或gpu信息时,请仔细阅读“推理支持的AI引擎”中每个runtime的说明信息。
-
在容器镜像中安装MLNX - AI开发平台ModelArts
3.0-LTS 安装MLNX_OFED 以Ubuntu18.04的容器镜像为例,安装MLNX_OFED 4.9-6.0.6.0-LTS的Dockerfile示例如下。 Dockerfile中涉及文件下载,构建容器镜像的主机要求能够连通公网。 FROM nvidia/cuda:11.1
-
本地IDE操作流程 - AI开发平台ModelArts
将调试好的训练脚本和用于训练的数据集上传至OBS目录。 提交训练作业。提交训练作业方式如下: 在本地IDE中提交训练作业 可以通过调用ModelArts提供的SDK,创建训练作业,上云训练,调用SDK创建训练作业的操作请参见调用SDK创建训练作业。 可以基于PyCharm ToolK
-
镜像管理 - AI开发平台ModelArts
ModelArts提供的预置镜像版本是依据用户反馈和版本稳定性决定的。当用户的功能开发基于ModelArts提供的版本能够满足的时候,比如用户开发基于MindSpore1.X,建议用户使用预置镜像,这些镜像经过充分的功能验证,并且已经预置了很多常用的安装包,用户无需花费过多的时间来配置环境即可使用。
-
NFS服务安装与配置 - AI开发平台ModelArts
NFS服务安装与配置 NFS服务是ModelArts边缘资源池提供的数据存储卷服务,创建部署时可通过NFS挂载的方式访问共享数据,比如obs的模型文件。 涉及以下场景时,必须为资源池配置NFS服务: 创建AI应用时,元模型来源选择“从对象存储服务(OBS)中选择”,且AI引擎选择“Custom”。
-
DevServer简介 - AI开发平台ModelArts
ModelArts Lite DevServer提供不同型号的xPU裸金属服务器,您可以通过弹性公网IP进行访问,在给定的操作系统镜像上可以自行安装加速卡相关的驱动和其他软件,使用SFS或OBS进行数据存储和读取相关的操作,满足算法工程师进行日常训练的需要。 父主题: 弹性裸金属DevServer