-
PyCharm ToolKit连接Notebook - AI开发平台ModelArts
图8 开启自动上传 Step7 远程调试 单击本地IDE右下角interpreter,选择Notebook的python解释器。 图9 选择Python解释器 像本地运行代码一样,直接单击运行按钮运行代码即可,此时虽然是在本地IDE点的运行按钮,实际上运行的是云端Notebo
-
GP Vnt1裸金属服务器EulerOS 2.9安装NVIDIA 515+CUDA 11.7 - AI开发平台ModelArts
解析当前正在运行的内核和其他相关信息。 安装过程中的提示均选OK或YES,安装好后执行reboot重启机器,再次登录后执行命令查看GPU卡信息。 nvidia-smi -pm 1 #该命令执行时间较长,请耐心等待,作用为启用持久模式,可以优化Linux实例上GPU设备的性能
-
申请购买专属昇腾AI云服务器 - AI开发平台ModelArts
弹性集群”进入资源池列表,查看资源池“状态”为“运行中”。 在AI Gallery,单击右上角“我的Gallery”进入我的Gallery页面,左侧菜单栏选择“我的资源 > 云服务器”,单击专属资源池页签进入云服务详情页面,可以查看节点状态为运行中。 图1 云服务器详情页 单击“前往集群控制台”跳
-
场景描述 - AI开发平台ModelArts
场景描述 本文旨在指导如何在Snt9b裸金属服务器上,进行磁盘合并挂载、安装docker等环境配置。在配置前请注意如下事项: 首次装机时需要配置存储、固件、驱动、网络访问等基础内容,这部分配置尽量稳定减少变化。 裸机上的开发形式建议开发者启动独立的Docker容器作为个人开发环境
-
GP Ant8裸金属服务器Ubuntu 20.04安装NVIDIA 470+CUDA 11.3 - AI开发平台ModelArts
Ant8裸金属服务器Ubuntu 20.04安装NVIDIA 470+CUDA 11.3 场景描述 本文介绍如何配置NVIDIA驱动、CUDA和FabricManager, 并安装PyTorch2.0,最后验证是否正常运行。 服务器信息: GP Ant8裸金属服务器 操作系统:Ubuntu
-
Atlas800训练服务器硬件指南 - AI开发平台ModelArts
卡,插在主板上的。 ifconfig能看到的网卡信息吗 能看到主板上的网卡信息,即VPC分配的私有IP。若要看RoCE网卡的命令需要执行“hccn_tools”命令查看,参考Atlas 800 训练服务器 1.0.11 HCCN Tool接口参考中的指导。 NPU上的网卡在哪里可以看到,
-
裸金属服务器存储指南 - AI开发平台ModelArts
裸金属服务器存储指南 裸金属服务器结合OBS、SFS两种云存储服务,提供了多种场景下的存储解决方案。两种存储类型对比可参考SFS和OBS的区别。 1、弹性文件服务SFS 提供按需扩展的高性能文件存储(NAS),可为云上多个裸金属服务器(BMS)提供共享访问。 购买指南 挂载指南 服务器重启后自动挂载指南
-
在Notebook中,如何使用昇腾多卡进行调试? - AI开发平台ModelArts
在Notebook中,如何使用昇腾多卡进行调试? 昇腾多卡训练任务是多进程多卡模式,跑几卡需要起几个python进程。昇腾底层会读取环境变量:RANK_TABLE_FILE,开发环境已经设置,用户无需关注。比如跑八卡,可以如下片段代码: export RANK_SIZE=8
-
同步裸金属服务器状态 - AI开发平台ModelArts
同步裸金属服务器状态 当用户在云服务器页面修改了裸金属服务器状态后,可同步其状态至ModelArts的弹性裸金属实例。 登录ModelArts管理控制台。 在左侧导航栏中,选择“专属资源池 > 弹性裸金属”,进入“弹性裸金属”列表页面。 在弹性裸金属列表中,单击操作列的“同步”,
-
moxing.tensorflow是否包含整个TensorFlow,如何对生成的checkpoint进行本地Fine Tune? - AI开发平台ModelArts
low,如何对生成的checkpoint进行本地Fine Tune? 问题现象 使用MoXing训练模型,“global_step”放在Adam名称范围下,而非MoXing代码中没有Adam名称范围,如图1所示。其中1为使用MoXing代码,2代表非MoXing代码。 图1 代码示例
-
使用Notebook进行代码调试 - AI开发平台ModelArts
使用Notebook进行代码调试 由于Notebook的/cache目录只能支持500G的存储,超过后会导致实例重启,ImageNet数据集大小超过该限制,因此建议用线下资源调试、或用小批量数据集在Notebook调试(Notebook调试方法与使用Notebook进行代码调试、使用Notebook进行代码调试相同)。
-
GP Ant8裸金属服务器Ubuntu 20.04安装NVIDIA 525+CUDA 12.0 - AI开发平台ModelArts
如果Tree算法算出来的总线带宽相当于是相对Ring算法的性能加速。 算法计算总耗时减少了,所以用公式算出来的总线带宽也增加了。 理论上Tree算法是比Ring算法更优的,但是Tree算法对网络的要求比Ring高,计算可能不太稳定。 Tree算法可以用更少的数据通信量完成all
-
如何设置SSH免密登录 - AI开发平台ModelArts
如何设置SSH免密登录 本文介绍如何设置SSH免密登录。 操作步骤 客户端生成公私钥。 执行如下命令,在本地客户端生成公私钥(一路回车默认即可)。 ssh-keygen 上面这个命令会在用户目录.ssh文件夹下创建“id_rsa.pub”(公钥)和“id_rsa”(私钥),可通过如下命令查看:
-
GP Ant8裸金属服务器Ubuntu 20.04安装NVIDIA 515+CUDA 11.7 - AI开发平台ModelArts
如果Tree算法算出来的总线带宽相当于是相对Ring算法的性能加速。 算法计算总耗时减少了,所以用公式算出来的总线带宽也增加了。 理论上Tree算法是比Ring算法更优的,但是Tree算法对网络的要求比Ring高,计算可能不太稳定。 Tree算法可以用更少的数据通信量完成all
-
VS Code手动连接Notebook - AI开发平台ModelArts
自定义设置的云上开发环境名称。 HostName: 云上开发环境的访问地址,即在开发环境实例页面远程访问模块获取的访问地址。例如:dev-modelarts-cnnorth4.huaweicloud.com Port: 云上开发环境的端口,即在开发环境实例页面远程访问模块获取的端口号。
-
保存Notebook镜像环境 - AI开发平台ModelArts
保存Notebook镜像环境 通过预置的镜像创建Notebook实例,在基础镜像上安装对应的自定义软件和依赖,在管理页面上进行操作,进而完成将运行的实例环境以容器镜像的方式保存下来。镜像保存后,默认工作目录是根目录“/”路径。 保存的镜像中,安装的依赖包不丢失,持久化存储的部分(
-
华为云CCE集群纳管GPU裸金属服务器由于CloudInit导致纳管失败的解决方案 - AI开发平台ModelArts
userdata机制拉取cce-agent,但是在服务器上查看没有拉cce-agent的动作,理论上该动作是cloudinit中的脚本在创建时自动执行的,可能是由于安装脚本没有注入userdata或者注入了但未执行。 经查看是由于userdata未执行,可能原因为服务器A制作镜像时没有清理残留目录导致,即:
-
GPU裸金属服务器无法Ping通的解决方案 - AI开发平台ModelArts
MySQL数据库对外提供服务的端口。 Windows Server Remote Desktop Services 3389 Windows远程桌面服务端口,通过这个端口可以连接Windows弹性云服务器。 代理 8080 8080端口常用于WWW代理服务,实现网页浏览,实现网页
-
如何在CodeLab上安装依赖? - AI开发平台ModelArts
如何在CodeLab上安装依赖? ModelArts CodeLab中已安装Jupyter、Python程序包等多种环境,您也可以使用pip install在Notebook或Terminal中安装依赖包。 在Notebook中安装 在总览页面进入CodeLab。 在“Noteb
-
单EIP绑定裸金属服务器 - AI开发平台ModelArts
单EIP绑定裸金属服务器 弹性公网IP支持与单个裸金属服务器绑定实现公网访问和SSH登录,具体步骤可参考绑定弹性公网IP至服务器。 父主题: 网络访问