检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
载均衡模式时,您可能会在CoreDNS缩容或重启时遇到DNS概率性解析超时的问题。 该问题由社区Linux内核缺陷导致,具体信息请参见https://github.com/torvalds/linux/commit/35dfb013149f74c2be1ff9c78f14e6a3cd1539d1。
DNSCache的介绍及如何在CCE集群中部署NodeLocal DNSCache的具体步骤,请参见使用NodeLocal DNSCache提升DNS性能。 父主题: 客户端
该指标用于统计负载均衡器当前出网带宽。 m2_act_conn 活跃连接数 个 该指标用于统计当前处理的活跃连接数量。 m3_inact_conn 非活跃连接数 个 该指标用于统计当前处理的非活跃连接数量。 m4_ncps 新建连接数 个 该指标用于统计当前处理的新建连接数量。 m5_in_pps 流入数据包数
Everest版本为2.4.4及以上支持使用通用型SSD V2和极速型SSD V2。通用型SSD V2支持自定义设置IOPS和吞吐量,极速型SSD V2支持自定义设置IOPS,设置范围参见云硬盘性能数据表。 容量(GiB) 申请的存储卷容量大小。 计费模式 集群版本为v1.23.14-r0、v1
使用这些注解来控制资源的行为,但它存储的额外信息可以被外部工具获取,用于扩展Kubernetes的功能。 存储卷(PersistentVolume) PersistentVolume(PV)是集群的一块存储资源,可以是本地磁盘或网络存储。它具有独立于Pod的生命周期,这意味着即使
要使用对等连接打通VPC网络,让Jenkins可访问集群的API Server控制集群。 登录VPC控制台,在左侧导航栏中选择“虚拟私有云 > 对等连接”。 打通Jenkins服务器与测试集群的网络。 单击右上角“创建对等连接”。根据界面提示设置对等连接参数。 对等连接名称:本例中设置为peering-XA。
使用CCE设置工作负载访问方式时,端口如何填写? CCE支持工作负载的内部互访和被互联网访问两种方式。 内部访问:包括集群内访问(通过集群虚拟IP)和节点访问(通过节点私有IP)两种方式。 表1 内部访问类型说明 内部访问类型 说明 端口如何填写 集群内访问(通过集群虚拟IP)
修改集群中节点的resolve.conf文件时,如果节点有CoreDNS实例,请及时重启节点上的CoreDNS,保持状态一致。 父主题: 客户端
已通过kubectl连接集群,详情请参见通过kubectl连接集群。 步骤一:安装云原生监控插件 登录CCE控制台,单击集群名称进入集群,单击左侧导航栏的“插件中心”。 在“插件中心”页面右侧找到云原生监控插件,单击“安装”。 建议您关注以下配置,其他配置可按需进行设置。详情请参见云原生监控插件。
alive连接,并产生大量TIME_WAIT状态连接。 为避免产生大量的TIME_WAIT连接,建议您在高并发环境中增大Nginx与client的keepalive连接的最大请求数量,在Nginx Ingress中配置对应keep-alive-requests,可以设置为1000
等待工作负载正常运行后,您可登录容器执行以下语句,查看该密钥是否已被设置为工作负载的环境变量。 printenv username 如输出与Secret中的内容一致,则说明该密钥已被设置为工作负载的环境变量。 使用kubectl方式 请参见通过kubectl连接集群配置kubectl命令。
节点异常立即触发告警 登录集群查看告警节点状态,确认异常后,优先将此节点设置为不可调度,并将业务pod调度到其他节点 节点操作系统内核故障 CCE 节点异常立即触发告警 登录集群查看告警节点状态,确认异常后,优先将此节点设置为不可调度,并将业务pod调度到其他节点 节点的连接跟踪表已满 CCE
内存平均使用率 远程写Bps 字节/秒 每秒远程写入的字节数 远程写平均耗时 秒 远程写入平均耗时 远程写Pending字节数 字节 远程写入挂起的数据字节数 远程写Packet每秒丢弃次数 次 远程写入每秒丢弃的数据包数 远程写每秒错误请求次数 次 远程写每秒错误请求次数 远程写错误请求百分比
Replication Controller(RC)和DaemonSet:必须设置为Always,需要保证该容器的持续运行。 Job:OnFailure或Never,确保容器执行完成后不再重启。 父主题: 容器设置
集群下所有节点的IP+访问端口均可以访问到此服务关联的负载。 只有通过负载所在节点的IP+访问端口才可以访问此服务关联的负载。 获取客户端源IP 无法获取到客户端源IP。 可以获取到客户端源IP。 访问性能 服务访问会因路由跳转导致一定性能损失,可能导致第二跳到另一个节点。 服务访问没有因路由跳转导致的性能损失。
该参数值应该根据实际需求合理设置。如果设置得太短,可能会导致频繁的预检请求;如果设置得太长,可能会在CORS策略更新后延迟生效。 nginx.ingress.kubernetes.io/cors-max-age: "3600" 验证跨域访问配置是否生效 使用curl命令行工具发送跨域请求,并检查响应头部。
发终止操作到强制容器运行时停止该容器之前等待的宽限时长,如果不设置则为30秒,最小值为 1。在Pod被终止之前,容器可以在这个宽限时间中完成优雅关闭,例如保存状态、完成当前处理的任务、关闭网络连接等操作。因此,正确设置terminationGracePeriodSeconds对于确保应用程序能够优雅地关闭非常重要。
工作负载中未声明需要gpu资源。 建议方案 节点安装了gpu-beta(gpu-device-plugin)插件后,会自动安装nvidia-smi命令行工具。引起部署GPU服务报错通常是由于nvidia驱动安装失败,请排查nvidia驱动是否下载成功。 GPU节点: # 插件版本为2.0.0以下时,执行以下命令:
如何设置CCE集群中的VPC网段和子网网段? VPC中的子网网段一旦创建,便无法更改。创建虚拟私有云时,请预留一定的VPC网段和子网网段资源,避免后续无法扩容。 子网网段可在“创建虚拟私有云”页面的“子网配置 > 子网网段”中进行设置。在设置选项下可查看到“可用IP数”。 容器网
开启GPU虚拟化时,在工作负载中设置nvidia.com/gpu等价于开启虚拟化GPU显存隔离,可以和显存隔离模式(即设置volcano.sh/gpu-mem.128Mi资源)的工作负载共用一张GPU卡,但不支持和算显隔离模式负载(即同时设置volcano.sh/gpu-mem