检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置Gitlab项目 获取源码到本地。本实践中将使用一个Java示例。 在Gitlab上创建ccedemo项目组。 在ccedemo项目组中添加java-demo项目。 上传项目代码至本地Gitlab仓库。 cd ~/java-demo-main //目录地址按实际情况 git
该漏洞主要影响以逻辑多租的方式使用CCE集群并且普通用户拥有创建Ingress对象的场景。 判断方法 1.23及以下版本的CCE集群、CCE Turbo集群中: 1. 客户自行安装nginx-ingress的场景,判断nginx-ingress应用的镜像版本是否小于1.2.0 2. 使用CCE提供的ng
22.3、1.23.2、1.24.0。 CCE集群未使用CRI-O,因此不受此漏洞影响。 漏洞修复方案 1.19、1.20版本CRI-O,将manage_ns_lifecycle设置为false, 由OCI运行时配置sysctl。 创建PodSecurityPolicy,将所有sysctl指定为false。
包年/包月节点修改自动续费配置 购买包年/包月计费模式的节点后,您可以根据需求为您的节点开通自动续费,或者修改已有的自动续费配置。 开通自动续费配置 登录CCE控制台,单击集群名称进入集群。 单击左侧导航栏的“节点管理”,并切换至“节点”页签。 单击包年/包月节点操作栏中的“更多>开通自动续费”按
ImplementationSpecific ingressClassName: cce 1.21及以下版本集群: apiVersion: networking.k8s.io/v1beta1 kind: Ingress metadata: name:
ingressClassResource: name: ccedemo #同一个集群中不同套Ingress Controller名称必须唯一,且不能设置为nginx和cce controllerValue: "k8s.io/ingress-nginx-demo"
由于云原生监控插件在3.9.0之后的版本,不再聚合grafana的能力,因此升级前需要重新安装开源版本grafana插件。 重新安装grafana不会影响已有的数据。 手动创建的grafana的服务(service)和路由(ingress)无法直接绑定至新的grafana插件,需要手动修改服务的选择器的配置,请及时修改对应的选择器。
解决方案 NodeLocal DNSCache可以提升服务发现的稳定性和性能。 关于NodeLocal DNSCache的介绍及如何在CCE集群中部署NodeLocal DNSCache的具体步骤,请参见使用NodeLocal DNSCache提升DNS性能。 父主题: 客户端
apiextensions.k8s.io/v1beta1已弃用,推荐使用apiextensions.k8s.io/v1。 apiregistration.k8s.io/v1beta1已弃用,推荐使用apiregistration.k8s.io/v1。 authentication.k8s.io/v
检查当前集群中是否存在残留的packageversion。 解决方案 检查提示您的集群中存在残留的CRD资源10.12.1.109,该问题一般由于CCE早期版本节点删除后,对应的CRD资源未被清除导致。 您可以尝试手动执行以下步骤: 备份残留的CRD资源。10.12.1.109 为示例资源,请根据报错中提示的资源进行替换。
externalTrafficPolicy: Cluster ports: - name: cce-service-0 targetPort: 1 nodePort: 0 port: 1 protocol: TCP - name: cce-service-1
clusterIPs: - 10.247.93.235 externalTrafficPolicy: Cluster internalTrafficPolicy: Cluster ipFamilies: - IPv4 ipFamilyPolicy: SingleStack
conf文件可查看所有Ingress配置。 查询nginx-ingress-controller的Pod名称。 kubectl get pod -n kube-system | grep nginx-ingress-controller 回显如下: cceaddon-nginx-ingress-controller-66855ccb9b-52qcd
挂载文件存储的节点,Pod创建删除卡死 故障现象 在挂载文件存储(SFS或SFS Turbo)的节点上,删除Pod卡在“结束中”,创建Pod卡在“创建中”。 可能原因 后端文件存储被删除,导致无法访问挂载点。 节点与文件存储间网络异常,导致无法访问挂载点。 解决方案 登录挂载文件
云硬盘存储卷 云硬盘存储卷概述 使用kubectl自动创建云硬盘 使用kubectl对接已有云硬盘 使用kubectl部署带云硬盘存储卷的工作负载 父主题: 存储管理-Flexvolume(已弃用)
解决方案 问题场景:节点使用的docker为定制的Euler-docker而非社区的docker 登录相关节点。 执行rpm -qa | grep docker | grep euleros命令,如果结果不为空,说明节点上使用的docker为Euler-docker。 执行stat /r
仪表盘提供了丰富的视图监控指标呈现,包括集群视图、APIServer视图、Pod视图、主机视图、Node视图等等。 前提条件 集群版本高于v1.17。 集群处于“运行中”状态。 集群已开通“监控中心”。 查看/切换视图 登录CCE控制台,单击集群名称进入集群详情页。 在左侧导航栏中选择“监控
yaml”的创建Pod的yaml文件。 touch sfs-deployment-example.yaml vi sfs-deployment-example.yaml 在无状态工作负载中基于pvc共享式使用文件存储示例: apiVersion: apps/v1 kind: Deployment
的示例如下,本示例将访问example.com/test的HTTP请求重定向至HTTPS 443端口。 前提条件 已创建一个CCE Standard或CCE Turbo集群,且集群版本满足以下要求: v1.23集群:v1.23.14-r0及以上 v1.25集群:v1.25.9-r0及以上
cluster-2作为流量的接收方,不需要进行任何配置修改,只需要在cluster-1上配置即可。 在将cluster-1中应用的访问流量复制到cluster-2中对应的应用服务后,客户端只会收到cluster-1中的请求响应,cluster-2中的请求响应会被丢弃。 对cluster-1执行以下命令来配置流量镜像。更多关于Nginx