-
数据标注 - AI开发平台ModelArts
在标注窗口中,您可以滚动鼠标,放大或缩小图片,方便您快速定位到物体位置。 图1 物体检测图片标注 当图片目录中所有图片都完成标注后,单击左上角“自动学习”,在弹出的对话框中单击“确定”保存标注信息。页面将进入数据标注页面,可以在“已标注”页签下查看已完成标注的图片,或者通过右侧的标签信息,了解当前已完成的标签名称和标签数量。
-
pipeline应用准备 - AI开发平台ModelArts
git ll modelarts-ascend/examples/AIGC/stable_diffusion 代码目录如下图所示,onnx_pipeline.py是图生图推理脚本。mslite_pipeline.py、mslite_model_proxy.py、pipeline_onn
-
Step1 准备Docker机器并配置环境信息 - AI开发平台ModelArts
共镜像,推荐使用ubuntu18.04的镜像;系统盘设置为100GiB。具体操作请参考购买并登录弹性云服务器。 图1 选择镜像和磁盘 购买弹性公网IP并绑定到弹性云服务器。具体操作请参考配置网络。 配置VM环境 在docker机器中,使用如下命令下载安装脚本。 wget http
-
GPU裸金属服务器无法Ping通的解决方案 - AI开发平台ModelArts
MySQL数据库对外提供服务的端口。 Windows Server Remote Desktop Services 3389 Windows远程桌面服务端口,通过这个端口可以连接Windows弹性云服务器。 代理 8080 8080端口常用于WWW代理服务,实现网页浏览,实现网页
-
数据标注 - AI开发平台ModelArts
在标注窗口中,您可以滚动鼠标,放大或缩小图片,方便您快速定位到物体位置。 图2 物体检测图片标注 “物体检测”类型的数据集,在标注时,支持在一张图片中添加多个标注框以及标签。需注意的是,标注框不能超过图片边缘。 当图片目录中所有图片都完成标注后,返回“自动学习工作流”页面,单
-
如何安装C++的依赖库? - AI开发平台ModelArts
在训练作业的过程中,会使用到第三方库。以C++为例,请参考如下操作步骤进行安装: 将源码下载至本地并上传到OBS。使用OBS客户端上传文件的操作请参见上传文件。 将上传到OBS的源码使用Moxing复制到开发环境Notebook中。 以下为使用EVS挂载的开发环境,将数据复制至notebook中的代码示例:
-
数据标注 - AI开发平台ModelArts
中的图片数据。 图3 添加本地图片 图4 同步OBS图片数据 添加数据:您可以将本地图片快速添加到ModelArts,同时自动上传至创建项目时所选择的OBS路径中。单击“添加数据”,根据弹出的对话框的引导,输入正确的数据并添加。 同步新数据:将图片数据上传至创建项目时指定的OBS
-
单EIP绑定裸金属服务器 - AI开发平台ModelArts
单EIP绑定裸金属服务器 弹性公网IP支持与单个裸金属服务器绑定实现公网访问和SSH登录,具体步骤可参考绑定弹性公网IP至服务器。 父主题: 网络访问
-
示例:从0到1制作自定义镜像并用于训练(PyTorch+CPU/GPU) - AI开发平台ModelArts
1-cuda11.1 Step5 上传镜像至SWR服务 登录容器镜像服务控制台,选择区域,要和ModelArts区域保持一致,否则无法选择到镜像。 单击右上角“创建组织”,输入组织名称完成组织创建。请自定义组织名称,本示例使用“deep-learning”,下面的命令中涉及到组织名称“deep-
-
动态挂载OBS并行文件系统成功,但是在Notebook的JupyterLab中无法看到本地挂载点 - AI开发平台ModelArts
在Notebook中动态挂载OBS并行文件系统,本地挂载目录为/data/demo-yf/,实际在JupyterLab左侧导航看不到此目录。 图1 本地挂载目录 图2 Notebook的JupyterLab 原因分析 本地挂载目录是在Notebook容器的“~/data”目录下创建的demo-
-
GPU裸金属服务器环境配置 - AI开发平台ModelArts
GPU裸金属服务器环境配置 GP Vnt1裸金属服务器EulerOS 2.9安装NVIDIA 515+CUDA 11.7 GP Vnt1裸金属服务器Ubuntu 18.04安装NVIDIA 470+CUDA 11.4 GP Vnt1裸金属服务器的Docker模式环境搭建 GP Ant8裸金属服务器Ubuntu
-
模型训练 - AI开发平台ModelArts
系统仍然在执行训练操作。 在“图像分类”节点中,待训练状态由“运行中”变为“运行成功”,即完成了模型的自动训练。 训练完成后,您可以单击“图像分类”节点上方的按钮,查看相关指标信息,如“准确率”、“评估结果”等。评估结果参数说明请参见表1。 图1 模型评估报告 表1 评估结果参数说明
-
示例:从0到1制作自定义镜像并用于训练(Tensorflow+GPU) - AI开发平台ModelArts
0-ofed-cuda11.2 Step6 上传镜像至SWR服务 登录容器镜像服务控制台,选择区域,要和ModelArts区域保持一致,否则无法选择到镜像。 单击右上角“创建组织”,输入组织名称完成组织创建。请自定义组织名称,本示例使用“deep-learning”,下面的命令中涉及到组织名称“deep-
-
准备数据 - AI开发平台ModelArts
准备数据 使用ModelArts自动学习构建模型时,您需要将数据上传至对象存储服务(OBS)中。OBS桶需要与ModelArts在同一区域。 数据上传至OBS 在本文档中,采用管理控制台上传数据至OBS。 执行如下操作,将数据导入到您的数据集中,以便用于模型训练和构建。 登录OBS管理控
-
示例:从0到1制作自定义镜像并用于训练(MindSpore+GPU) - AI开发平台ModelArts
1-ofed-cuda11.1 Step6 上传镜像至SWR服务 登录容器镜像服务控制台,选择区域,要和ModelArts区域保持一致,否则无法选择到镜像。 单击右上角“创建组织”,输入组织名称完成组织创建。请自定义组织名称,本示例使用“deep-learning”,下面的命令中涉及到组织名称“deep-
-
Step3 制作自定义镜像 - AI开发平台ModelArts
Successfully tagged mindspore:2.1.1-cann6.3.RC2 将制作完成的镜像上传至SWR服务,具体参见Step4 上传镜像至SWR。 父主题: 示例:从 0 到 1 制作自定义镜像并用于训练(MindSpore+Ascend)
-
准备数据 - AI开发平台ModelArts
准备数据 使用ModelArts自动学习构建模型时,您需要将数据上传至对象存储服务(OBS)中。OBS桶需要与ModelArts在同一区域。 数据上传至OBS 在本文档中,采用管理控制台上传数据至OBS。 执行如下操作,将数据导入到您的数据集中,以便用于模型训练和构建。 登录OBS管理控
-
示例:从0到1制作自定义镜像并用于训练(MPI+CPU/GPU) - AI开发平台ModelArts
0-cuda11.1 Step5 上传镜像至SWR服务 登录容器镜像服务控制台,选择区域,要和ModelArts区域保持一致,否则无法选择到镜像。 单击右上角“创建组织”,输入组织名称完成组织创建。请自定义组织名称,本示例使用“deep-learning”,下面的命令中涉及到组织名称“deep-
-
访问在线服务(Token认证) - AI开发平台ModelArts
路径,调用地址后需拼接自定义路径。如:“{在线服务的调用地址}/predictions/poetry”。 图1 获取在线服务API接口地址和文件预测输入参数信息 图2 获取在线服务API接口地址和文本预测输入参数信息 方式一:使用图形界面的软件进行预测(以Postman为例) 下
-
部署到推理调试 - AI开发平台ModelArts
部署到推理调试 在开发环境容器内调试完成后,开发者可以将自己开发好的AI应用和ModelBox runtime镜像打包成新的运行镜像,并发布到ModelArts推理服务,直接测试部署的服务并查看日志,以确保开发好的AI应用可以在ModelArts推理平台正常运行。具体调试步骤如下: