检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
操作步骤如下: 创建名为access-demo1.yaml文件。 vim access-demo1.yaml 以下为YAML文件内容: apiVersion: networking.k8s.io/v1 kind: NetworkPolicy metadata: name: access-demo1
NAMESPACE * internal internalCluster user 登录Argo服务端,用户名为admin,服务端地址及密码可从1中获取。如果ECS服务器与集群处于同一VPC下,此处节点IP可使用私网IP。 argocd login <节点IP:端口号> --username
迁移的主要原理是通过创建静态PV的形式关联原有底层存储,并创建新的PVC关联该新建的静态PV,之后应用升级挂载这个新的PVC到原有挂载路径,实现存储卷迁移。 迁移时会造成服务断服,请合理规划迁移时间,并做好相关备份。 操作步骤 数据备份(可选,主要防止异常情况下数据丢失)。 根据FlexVolume格式的PV,
AI套件(Ascend NPU)。 使用NPU 创建工作负载申请NPU资源,可按如下方法配置,指定显卡的数量。 kind: Deployment apiVersion: apps/v1 metadata: name: npu-test namespace: default spec:
配置完成后,可以在工作负载或Volcano Job中使用优先级定义(PriorityClass)进行优先级调度。 创建一个或多个优先级定义(PriorityClass)。 apiVersion: scheduling.k8s.io/v1 kind: PriorityClass metadata: name: high-priority
tdout的日志策略,并上报所有命名空间下的标准输出到云日志服务(LTS)。 Kubernetes事件:开启后,将创建名为default-event的日志策略,并上报所有命名空间下的Kubernetes事件到云日志服务(LTS)。 配置完成后,单击右下角“下一步:确认配置”,在弹出的窗口中单击“确定”,完成创建。
方式三: 整体微服务架构改造,再容器化 单独扩展:拆分为微服务后,可单独增加或缩减每个微服务的实例数量。 提升开发速度:各微服务之间解耦,某个微服务的代码开发不影响其他微服务。 通过隔离确保安全:整体应用中,若存在安全漏洞,会获得所有功能的权限。微服务架构中,若攻击了某个服务,只可获得该服务的访问权限,无法入侵其他服务。
CoreDNS配置优化概述 应用场景 DNS是K8s中至关重要的基础服务之一,当容器DNS策略配置不合理,集群规模较大时,DNS容易出现解析超时、解析失败等现象,极端场景下甚至会引起集群内业务大面积解析失败。本文介绍Kubernetes集群中CoreDNS配置优化的最佳实践,帮助您避免此类问题。
everest.io/sfsturbo-share-id 否 SFS Turbo的ID。 获取方法:在CCE控制台,单击顶部的“服务列表 > 存储 > 弹性文件服务”,并选择SFS Turbo。在列表中单击对应的极速弹性文件存储名称,在详情页中复制“ID”后的内容即可。 everest
configmap-example -oyaml apiVersion: v1 data: configmap_key: configmap_value kind: ConfigMap ... $ kubectl get secret secret-example -oyaml apiVersion: v1
您可根据实际生产需求,选择是否使用云数据库服务RDS和对象存储服务OBS。完成迁移后,新建CCE集群中的应用需要重新配置数据库与存储。 数据库迁移 若您的数据库采用集群外的非容器化部署方案,且需将数据库同步搬迁上云,可以使用数据复制服务 DRS帮助完成数据库迁移。DRS服务具有实时迁移、备份迁移、
okup命令查看Pod对应的域名,可以发现能解析出Pod的IP地址。这里可以看到DNS服务器的地址是10.247.3.10,这是在创建CCE集群时默认安装CoreDNS插件,用于提供DNS服务,后续在Kubernetes网络会详细介绍CoreDNS的作用。 $ kubectl run
如果安装插件时,在“默认404服务”配置项中指定了自定义的DefaultBackend Service,请您自行重新创建相同的Service。 如果安装插件时使用默认的DefaultBackend Service,则重新创建的YAML示例如下。 apiVersion: v1 kind:
器之间互相争资源的情况,最终导致kubelet将其全部驱逐。那么能不能设定策略让其中一个服务一直保留?如何设定? 问题建议 Kubelet会按照下面的标准对Pod的驱逐行为进行评判: 根据服务质量:即BestEffort、Burstable、Guaranteed。 根据Pod调度请求的被耗尽资源的消耗量。
roller,它提供了微服务的弹性能力,并且和Serverless密切相关。 弹性伸缩是很好理解的一个概念,当微服务负载高(CPU/内存使用率过高)时水平扩容,增加pod的数量以降低负载,当负载降低时减少pod的数量,减少资源的消耗,通过这种方式使得微服务始终稳定在一个理想的状态。
vim tiller-rbac.yaml apiVersion: v1 kind: ServiceAccount metadata: name: tiller namespace: kube-system --- apiVersion: rbac.authorization
GET方式是最常见的探测方法,其具体机制是向容器发送HTTP GET请求,如果Probe收到2xx或3xx,说明容器是健康的,定义方法如下所示。 apiVersion: v1 kind: Pod metadata: name: liveness-http spec: containers:
Job中使用Gang调度能力。 创建工作负载使用Gang调度能力 首先创建PodGroup,需指定minMember和minResources信息如下: apiVersion: scheduling.volcano.sh/v1beta1 kind: PodGroup metadata: name:
let/kubelet_config.yaml kubeAPIQPS v1.19以上 kubelet /opt/cloud/cce/kubernetes/kubelet/kubelet_config.yaml kubeAPIBurst v1.19以上 kubelet /opt/c
如果您已经使用CCE部署了容器应用,您需要应用性能管理时,需要将容器服务上的JAVA应用通过Pinpoint探针接入到APM,详细介绍请参见为部署在CCE容器中的JAVA应用安装Agent。 前提条件 若您还未开通APM服务,请前往APM控制台,并参照界面提示进行开通。 操作步骤 登录CCE控制台。