检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Windows云服务器配置文件共享和网络磁盘映射方法 操作场景 本节操作介绍在内网环境下,Windows云服务器之间怎样实现文件夹共享。 约束限制 部分运营商可能会屏蔽139、445端口,导致广域网无法访问共享。因此,Windows云服务器文件共享方案建议仅在内网环境下使用。 操作步骤
emergency mode(紧急模式)问题处理方法 问题现象 Linux系统启动时进入紧急模式,提示:Welcome to emergency mode,如图1所示,并提示输入root密码进入维护。 图1 紧急模式 根因分析 紧急模式提供尽可能最小的环境,即使在系统无法进入救援
需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 当SSL选择“允许”和“需要”时,需要选择SSL证书。可以选择已有的SSL证书,也可以制作一个SSL证书,具体制作证书的方法请参见3。 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous”
需要:需要对FTP服务器和客户端之间的通信进行SSL加密。 当SSL选择“允许”和“需要”时,需要选择SSL证书。可以选择已有的SSL证书,也可以制作一个SSL证书,具体制作证书的方法请参见3。 设置身份认证和授权信息,并单击“完成”。 身份认证 匿名:允许任何仅提供用户名 “anonymous”
故障信息收集方法 用户可使用故障信息收集脚本一键收集所有信息或使用命令进行获取相应信息。 故障信息一键收集脚本使用方法如下: 故障信息一键收集脚本下载地址:https://hgcs-drivers-cn-north-4.obs.cn-north-4.myhuaweicloud.c
bit ecc error错误,并无待隔离页 问题原因 显存可能某个地方存在异常。 问题影响 可能影响一个或多个GPU的相关应用程序。 处理方法 执行nvidia-smi命令,查看显卡信息。 如果在volatile Uncorr. ECC下ecc error > 0,执行nvidia-smi
PAGE_RETIREMENT 如果3的回显结果中Pending Page Blacklist为Yes,说明存在待隔离页,需要重新加载驱动去隔离。 处理方法 方法一: 执行以下命令,查看GPU使用情况并停掉所有占用GPU的进程。 nvidia-smi 执行以下命令,重置GPU。 nvidia-smi
程。本节以云备份方法为例,了解更多备份方法请参考云备份概述。 云备份可以为云服务器、云硬盘提供简单易用的备份服务,当发生病毒入侵、人为误删除、软硬件故障等事件时,可将数据恢复到任意备份点。保障用户数据的安全性和正确性,确保业务安全。 购买云服务器时启用云备份的方法: 购买云服务器
kernel module 'nvidia.ko'” 问题原因 总线脱落。 内核版本不一致。 问题影响 显卡驱动安装失败,显卡无法使用。 处理方法 执行以下命令,查看内核版本,检查内核版本是否一致。 rpm -qa | grep gcc #查看gcc版本 rpm -qa | grep
CPU积分计算方法 什么是CPU积分 CPU积分是一种用来衡量云服务器计算、存储以及网络配置利用率的方式。云服务器利用CPU积分机制保证云服务器基准性能,解决超分云服务器长期占用CPU资源的问题。 使用CPU积分机制的弹性云服务器适用于平时CPU负载不高、但突发时可接受因积分不足
非硬件故障自恢复处理方法 如何处理Nouveau驱动未禁用导致的问题 如何处理ECC ERROR:存在待隔离页问题 如何处理升级内核后,驱动不可用问题 如何处理GPU掉卡问题 如何处理显卡ERR!问题 如何处理用户自行安装NVIDIA驱动、CUDA软件,安装过程出错问题 如何处理驱动兼容性问题
执行以下命令,查看GPU信息。 nvidia-smi 如果回显正常,则问题已修复。 如果回显仍报错,请参考GPU驱动不可用中的处理方法进行操作。 父主题: 非硬件故障自恢复处理方法
Cap(能耗)显示ERR! 处理方法 如果当前用户业务正常,仅nvidia-smi执行后存在ERR!显示问题,无需处理。 如果当前业务已经受到影响,迁移虚拟机,再根据故障信息收集收集故障信息后联系技术支持处理。 父主题: 非硬件故障自恢复处理方法
18 准备测试工具。 要求:需分别在被测机和辅助云服务器上安装测试工具netperf、iperf3、sar。安装方法如表4所示。 表4 安装测试工具 测试工具 安装方法 netperf 执行以下命名,安装gcc。 yum -y install unzip gcc gcc-c++ 执行以下命令,下载netperf。
用户执行nvidia-smi命令回显报错“No devices were found”。 No devices were found 处理方法 查看云服务器的实例规格,确认用户使用的镜像信息。 如果使用NVIDIA Tesla T4 GPU(例如,Pi2或G6规格),请参见T4 GPU设备显示异常进行处理。
ERROR:执行nvidia-smi存在SRAM的ECC错误(V100显卡) 问题原因 显存可能某个地方存在异常。 问题影响 可能影响一个或多个GPU的相关应用程序。 处理方法 执行nvidia-smi命令查看显卡信息。 如果在volatile Uncorr. ECC下发现存在ecc error,执行nvidia-smi
CPU、内存、镜像、GPU)不计费,但系统盘仍会收取容量对应的费用。 如有其他绑定的产品,如云硬盘、弹性公网IP、带宽等,按各自产品的计费方法进行收费。 G6v型云服务器,关机后资源会被释放,下次开机时如果后台资源不足,可能会导致云服务器开机失败。如果您需要长期使用该云服务器,建
NetworkManager.service is masked。 可能原因 服务单元被禁用,导致NetworkManager服务无法启动。 处理方法 执行以下命令,解除服务单元mask状态。 systemctl unmask NetworkManager 父主题: 操作系统类(Linux)
显卡故障诊断及处理方法 如何处理infoROM错误 如何处理ECC ERROR:执行nvidia-smi -q存在double bit ecc error错误,并无待隔离页 如何处理ECC ERROR:执行nvidia-smi存在SRAM的ECC错误(V100显卡) 如何处理GPU掉卡,执行lspci
器查看GPU使用率。 本节操作介绍了两种查看GPU使用率的方法,方法一是在cmd窗口执行命令查看GPU使用率,方法二是通过安装gpu-Z工具查看GPU使用率。 前提条件 GPU加速型云服务器已安装NVIDIA驱动。 方法一 登录GPU加速型云服务器。 打开cmd命令窗口。 执行如下命令,查看GPU使用情况。