检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/first/aaa/bbb/end 时,path会匹配到 /first/(.*)/(.*)/end,重写规则会把 $1 替换成 aaa,$2替换成 bbb,最终后端服务接收到的请求路径为 /aaa/bbb。 path配置为 /first/(.*)/end,注解配置为 /newpath/$1。当客户发送的请求为
集群转包周期。 企业项目:显示集群所属的企业项目。了解更多企业项目相关信息,请查看企业管理。 删除保护:开启删除保护后,需通过虚拟MFA、手机短信或邮箱等再次确认当前操作。请前往“IAM 服务 > 安全设置 > 敏感操作”开启操作保护。 资源标签:对资源进行自定义标记,实现资源的分类。
通过静态存储卷使用已有对象存储 本文介绍如何使用已有的对象存储静态创建PV和PVC,并在工作负载中实现数据持久化与共享性。 前提条件 您已经创建好一个集群,并且在该集群中安装CCE容器存储(Everest)。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。
发场景可临时突破预分配的资源限制。 详细说明请参见设置容器规格。 内存配额 申请值为512MiB,限制值为512MiB 申请:容器预分配的内存值,默认512MiB。 限制:容器允许使用的内存资源最大上限,默认与申请值相同。如果设置限制值大于申请值,则表示在突发场景可临时突破预分配的资源限制。
指标名称 指标类型 单位 说明 DCGM_FI_DEV_GPU_TEMP Gauge 摄氏度 设备的当前GPU温度读数 DCGM_FI_DEV_POWER_USAGE Gauge W 设备的电源使用情况 父主题: 监控
虚拟接口创建完成,即可打通客户IDC与云上VPC之间的网络。 客户可通过VPC内的主机设备向云下数据中心网络主机IP地址进行ping操作,以确认网络连通。 创建虚拟接口后您还需要配置用户侧设备,云上放通安全组规则,允许云上云下访问。 连通性测试 使用traceroute命令测试IDC机器和云上容器间是否可以互通:
权限。本节以步骤一中新建的develop用户为例,验证权限是否配置成功。 利用新建用户登录管理控制台。 根据页面提示绑定手机号,进行登录验证。是否需要绑定手机号,取决于配置用户基本信息时的选择。 按照页面提示,重置密码(仅首次登录需要)。 图9 登录管理控制台 单击左上角,选择“
NUMA对齐的Pod。 best-effort:kubelet会优先选择在 CPU 和设备资源上实现NUMA对齐的Pod。 none(默认):不启用拓扑管理策略。 single-numa-node:kubelet仅允许在 CPU和设备资源上对齐到同一NUMA节点的Pod。 默认:none 须知: 请
incident:表示比操作失败更严重的情况,例如引起其他故障等。 企业项目ID:输入企业项目ID。 访问密钥ID:输入访问密钥ID(包含临时访问凭证和永久访问密钥)。 时间范围:可选择查询最近1小时、最近1天、最近1周的操作事件,也可以自定义最近7天内任意时间段的操作事件。 您
er类型的Service接收请求时,会先访问到节点,然后转到Service,再由Service选择一个Pod转发到该Pod,但Service选择的Pod不一定在接收请求的节点上。默认情况下,从任意节点IP+服务端口都能访问到后端工作负载,当Pod不在接收请求的节点上时,请求会再跳
AI套件(NVIDIA GPU)是支持在容器中使用GPU显卡的设备管理插件,仅支持Nvidia驱动。 CCE AI套件(Ascend NPU) CCE AI套件(Ascend NPU)是支持容器里使用Huawei NPU设备的管理插件。 容器网络插件 插件名称 插件简介 CoreDNS域名解析
本文介绍如何使用GPU虚拟化能力实现算力和显存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 单个GPU卡最多虚拟化成20个GPU虚拟设备。 init容器不支持使用GPU虚拟化资源。
发场景可临时突破预分配的资源限制。 详细说明请参见设置容器规格。 内存配额 申请值为512MiB,限制值为512MiB 申请:容器预分配的内存值,默认512MiB。 限制:容器允许使用的内存资源最大上限,默认与申请值相同。如果设置限制值大于申请值,则表示在突发场景可临时突破预分配的资源限制。
Controller配置Ingress转发规则,配置域名和路径的转发策略,且对外通过DNS域名提供服务。客户端访问域名example.com时,Nginx Ingress接收到请求会根据对应的转发策略将流量转发至对应Service的Pod上。 由于业务发展需要,该企业需要将自建Nginx Ingress迁移到ELB
json文件移动至“$HOME/.kube/config”。 cd /home mkdir -p $HOME/.kube mv -f kubeconfig-a.json $HOME/.kube/config 将集群B对应的kubeconfig-b.json文件移动至“$HOME/
236MB 把镜像推送到镜像仓库 登录SWR控制台,在左侧选择“我的镜像”,然后单击右侧“客户端上传镜像”,在弹出的窗口中单击“生成临时登录指令”,然后复制该指令在本地机器上执行,登录到SWR镜像仓库。 上传镜像前需要给镜像取一个完整的名称,如下所示: # docker tag
ig/ip6tables中配置的规则。 容器 表3 容器 高危操作 导致后果 误操作后解决方案 将负载设置为特权容器,并直接操作主机的硬件设备,误操作节点系统文件等。 例如将启动命令配置为/usr/sbin/init,在容器内使用systemctl,影响节点/lib路径下的系统文件。
时,GC将会清空大于5秒的表项。请勿修改。 gc_thresh3:最大可允许的非永久表项数量。如果系统拥有庞大的接口数量,或者直连了大量的设备,应增大此值。 查看参数: sysctl net.ipv4.neigh.default.gc_thresh1 sysctl net.ipv4
GPU驱动的一个漏洞CVE-2021-1056,该漏洞是存在于NVIDIA GPU驱动程序中与设备隔离相关的安全漏洞。当容器以非特权模式启动,攻击者利用这个漏洞,通过在容器中创建特殊的字符设备文件后,能够获取宿主机上所有GPU设备的访问权限。 关于漏洞的详细信息,请参见CVE-2021-1056。 如
务器”。 登录目标节点。 使用lsblk命令查看节点块设备信息。 这里存在两种情况,根据容器存储Rootfs而不同。 Overlayfs:没有单独划分thinpool,在dockersys空间下统一存储镜像相关数据。 查看设备的磁盘和分区大小。 # lsblk NAME