检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
# 可以执行GET、LIST操作 创建RoleBinding 有了Role之后,就可以将Role与具体的用户绑定起来,实现这个的就是RoleBinding了。如下所示。 kind: RoleBinding apiVersion: rbac.authorization
heus-stack)获取各节点 CPU、内存的真实负载数据,根据用户指定的周期计算各节点的负载平均值,优先调度任务至真实负载较低的节点,实现节点负载均衡。详情请参见负载感知调度。 AI任务性能增强调度(Volcano调度器支持) 公平调度(DRF) DRF(Dominant Resource
若云数据库RDS实例与CCE集群处于同一VPC下,则可通过内网地址访问,否则只能通过绑定EIP的方式进行公网访问。建议使用内网访问方式,安全性高,并且可实现RDS的较好性能。 请确认RDS所在安全组入方向规则已对集群放通,否则将连接失败。 登录RDS控制台,在该实例的“基本信息”页面获取其“内网地址”及端口。
Storage),由本地挂载的可写入设备或者有时也用RAM来提供支持。临时性存储所存储的数据不提供长期可用性的保证,Pod通常可以使用本地临时性存储来实现缓冲区、保存日志等功能,也可以使用emptyDir类型的存储卷挂载到容器中。更多详情请参见本地临时存储。 Kubernetes支持在容器的
一条conditions中的数组中不同的规则是“与”关系,但同一个规则块中的值是“或”关系。例如,Method和QueryString两种转发条件都配置时,需要同时满足,才能实现目标流量分发。但如果Method值为GET,POST,即只需要满足Method为GET或POST,且QueryString满足条件即可。 表2
登录CCE控制台,单击CCE Turbo集群名称进入集群,单击左侧导航栏的“插件中心”,在右侧找到CCE容器网络扩展指标插件,单击“安装”。 在安装插件页面,查看插件配置。 当前该插件无可配置参数。 单击“安装”。 待插件安装完成后,选择对应的集群,然后单击左侧导航栏的“插件中心”,可在“已安装插件”页签中查看相应的插件。
时间点工作负载的推荐副本数,提前准备Pod应对即将到来的业务量上涨,保障资源供给。 AHPA可与HPA策略以及CronHPA策略共同使用,实现复杂场景下的工作负载伸缩。 AHPA支持根据推荐结果调整HPA策略的最大和最小实例数,或者直接调整Deployment工作负载的副本数。
否则会出现在线Pod占用了所有的CPU或者memory资源导致上报的超卖资源很少的情况。 登录CCE控制台,单击集群名称进入集群。 在左侧导航栏中选择“节点管理”,在需要开启动态资源超卖的节点池中,单击“更多 > 混部配置”。 确认“节点池混部开关”及“资源超卖”开关已打开,详情请参见云原生混部配置。
有状态负载需要配置一个用于实例间发现的Headless Service,Headless Service会生成每个Pod的集群DNS地址,可以实现对有状态负载某个特定实例的访问,对于多副本具有主副关系的MySQL 数据库,需要使用Headless Service对MySQL主服务器进
apply引入了--prune标志来删除不再需要的资源,允许kubectl apply自动清理从当前配置中删除的资源。然而,现有的--prune实现存在设计缺陷,会降低性能并导致意外行为。Kubernetes 1.27中,kubectl apply提供基于ApplySet的剪裁方式,当
apply引入了--prune标志来删除不再需要的资源,允许kubectl apply自动清理从当前配置中删除的资源。然而,现有的--prune实现存在设计缺陷,会降低性能并导致意外行为。Kubernetes 1.27中,kubectl apply提供基于ApplySet的剪裁方式,当
命名空间级别的资源,PV可以与任何命名空间的PVC资源绑定。 图2 PV与PVC StorageClass 上节说的PV和PVC方法虽然能实现屏蔽底层存储,但是PV创建比较复杂(可以看到PV中csi字段的配置很麻烦),通常都是由集群管理员管理,这非常不方便。 Kubernetes
节点thinpool空间大小,理论上有概率出现节点thinpool空间耗尽的场景。 解决方案 当节点已出现thinpool空间耗尽时,可将部分业务迁移至其他节点实现业务快速恢复。但对于此类问题,建议采用以下方案从根因上解决问题: 方案1: 合理规划业务分布及数据面磁盘空间,避免和减少出现业务容器数*basesize
容器网段为172.16.0.0/16,可用IP数量为65536,如容器IP地址管理中所述,VPC网络IP分配是分配固定大小的网段(使用掩码实现,确定每个节点最多分配多少容器IP),例如上限为128,则此时集群最多支撑65536/128=512个节点。 图3 容器网段配置(创建集群时配置)
不会销毁,创建完成后将一直占用集群资源,配置过程较简单。 动态Agent:构建任务时动态创建Agent容器,并在任务构建完成后销毁容器,可实现资源动态分配,资源利用率高,但是配置过程较为复杂。 本文使用容器化安装Agent,示例的Agent镜像为jenkins/inbound-agent:4
服务转发模式,支持以下两种实现: 约束限制: 此参数已废弃,若同时指定此参数和ClusterSpec下的kubeProxyMode,以ClusterSpec下的为准。 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载
向到HTTPS,您可以使用nginx.ingress.kubernetes.io/force-ssl-redirect: "true"注释实现。 请参见通过kubectl连接集群,使用kubectl连接集群。 创建名为“ingress-test.yaml”的YAML文件,此处文件名可自定义。
服务转发模式,支持以下两种实现: 约束限制: 此参数已废弃,若同时指定此参数和ClusterSpec下的kubeProxyMode,以ClusterSpec下的为准。 取值范围: iptables:社区传统的kube-proxy模式,完全以iptables规则的方式来实现service负载
支持如下类型。 ImplementationSpecific: 对于这种路径类型,匹配方法取决于具体Ingress Controller的实现。在CCE中会使用ingress.beta.kubernetes.io/url-match-mode指定的匹配方式,这与v1beta1方式相同。
设置拓扑管理策略。 合法值包括: restricted:kubelet 仅接受在所请求资源上实现最佳 NUMA对齐的Pod。 best-effort:kubelet会优先选择在 CPU 和设备资源上实现NUMA对齐的Pod。 none(默认):不启用拓扑管理策略。 single-numa-node:kubelet仅允许在