检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
什么是云容器引擎 云容器引擎(Cloud Container Engine,简称CCE)是一个企业级的Kubernetes集群托管服务,支持容器化应用的全生命周期管理,为您提供高度可扩展的、高性能的云原生应用部署和管理方案。 为什么选择云容器引擎 云容器引擎深度整合高性能的计算(
建议您在新建节点时选择更加轻量、安全的Containerd运行时,同时将存量节点的容器运行时逐步迁移至Containerd,具体操作请参见将节点容器引擎从Docker迁移到Containerd。 Containerd和Docker的对比请参见容器引擎Containerd和Docker。 父主题:
如何设置容器umask值? 问题描述 tailf /dev/null的方式启动容器,然后手动执行启动脚本的方式得到的目录的权限是700,而不加tailf由Kubernetes自行启动的方式得到的目录权限却是751。 解决方案 这个问题是因为两种方式设置的umask值不一样,所以创建出来的目录权限不相同。
24版本中移除了Dockershim,并从此不再默认支持Docker容器引擎,建议您使用Containerd容器引擎。如果您需要将Docker节点迁移至Containerd节点,详情请参见将节点容器引擎从Docker迁移到Containerd。 表4 v1.27补丁版本发布说明 CCE集群补丁版本号 Kubernetes社区版本
地址。 安装配置kubectl。具体请参见通过kubectl连接集群。 迁移工作负载。 给需要迁移工作负载的节点打上Taint(污点)。 kubectl taint node [node] key=value:[effect] 其中,[node]为待迁移工作负载所在节点的IP;[
24版本中移除了Dockershim,并从此不再默认支持Docker容器引擎,建议您使用Containerd容器引擎。如果您需要将Docker节点迁移至Containerd节点,详情请参见将节点容器引擎从Docker迁移到Containerd。 表4 v1.27补丁版本发布说明 CCE集群补丁版本号 Kubernetes社区版本
无需修改代码,即可实现灰度发布、流量治理和流量监控能力。 优势 开箱即用 与云容器引擎无缝对接,一键开启后即可提供非侵入的智能流量治理解决方案。 策略化智能路由 无需修改代码,即可实现HTTP、TCP等服务连接策略和安全策略。 流量治理可视化 基于无侵入的监控数据采集,深度整合A
r的支持。 解决方案 若您的节点的运行时非containerd,您可通过节点重置功能重置节点的运行时为containerd。 如果您仍想在1.27以上集群中创建并使用docker节点,可跳过该告警,但推荐您尽快切换至containerd,它提供了更出色的用户体验和更强大的功能。 父主题:
持。 解决方案 若您的节点池的运行时非containerd,您可通过更新节点池功能将节点池的运行时修改为containerd。 如果您仍想在1.27以上集群中创建并使用docker节点池,可跳过该告警,但推荐您尽快切换至containerd,它提供了更出色的用户体验和更强大的功能。
在Kubernetes中,Pod的spec中包含一个restartPolicy字段,其取值包括:Always、OnFailure和Never,默认值为:Always。 Always:当容器失效时,由kubelet自动重启该容器。 OnFailure:当容器终止运行且退出不为0时(正常退出),由kubelet自动重启该容器。
top node命令为何报错 故障现象 执行kubectl top node命令报错Error from server (ServiceUnavailable): the server is currently unable to handle the request (get nodes
查看是否存在排水任务,以下为正常回显: kubectl get drainage 图1 排水任务,以下回显表示存在排水任务 请将drainage资源进行删除,删除之后再次触发升级前检查。 执行以下命令删除排水任务。 kubectl delete drainage {排水任务名称} 父主题: 升级前检查异常问题排查
persistentVolumeClaim: claimName: cce-sfs-demo 表1 关键参数说明 前置路径 参数 描述 spec replicas 实例数。 metadata name 新建工作负载的名称。 spec.template.spec.containers image
affinity: {} containers: image: nginx:latest imagePullPolicy: Always name: container-0 volumeMounts:
io/storage-class: sas labels: failure-domain.beta.kubernetes.io/region: cn-north-4 failure-domain.beta.kubernetes.io/zone: cn-north-4b
25及以上集群中的service存在废弃的annotation:tolerate-unready-endpoints 报错日志信息如下: some check failed in cluster upgrade: this cluster has deprecated service list: map[***]
olumeClaim metadata 是 PersistentVolumeClaimMetadata object metadata是集群对象的元数据定义,是集合类的元素类型,包含一组由不同名称定义的属性。 spec 是 PersistentVolumeClaimSpec object
Worker: replicas: 2 restartPolicy: OnFailure template: spec: containers: - name: tensorflow
安装kube-prometheus-stack插件时, 插件状态一直处于“部分就绪”,查看插件的prometheus实例事件中提示“0/x nodes are available: x node(s) had volume node affinity conflict.”。 如果选择安装grafana组件,也可能出现同样的问题。
spec.claimRef.apiVersion 固定值"v1"。 spec.claimRef.kind 固定值"PersistentVolumeClaim"。 spec.claimRef.name 与下一步创建的pvc的name一致。 spec.claimRef.namespace