检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
kubernetes.io/managed-by: Helm”时,则会提示资源冲突。 解决方案 删除相关报错资源,重新通过helm创建。 查看报错内容,确认产生冲突的资源。请您关注“Unable to continue with install:”后的信息,例如以下报错为defa
kubernetes.io/elb.custom-eip-id String 自定义EIP的ID,您可以前往EIP控制台查看。该EIP必须是处于可绑定状态。 Ingress更新成功后,重新查看Ingress。 apiVersion: networking.k8s.io/v1 kind: Ingress
解决方案一:删除关联无IPv4私网地址ELB的负载均衡型Service。 解决方案二:为无IPv4私网IP地址的ELB绑定一个私网IP。步骤如下: 查找负载均衡类型的Service所关联的ELB。 方法一:通过升级前检查的日志信息中,获取对应的ELB ID。然后前往ELB控制台通过ELB ID进行筛选。
“有状态负载”页签,找到目标工作负载,记录缩容前的实例数,并将工作负载实例数需要缩容到0。 对每个实例使用的PVC均需要执行步骤2~6。 查看有状态应用使用PVC的方式。 kubectl get statefulset {statefulset-name} -n {namespace}
完成配置后,单击“下一步:规格确认”,确认所设置的服务选型参数、规格和费用等信息,并单击“提交”,开始创建节点。 待GPU节点创建完成后,可前往“节点列表”查看节点状态。 导入OBS存储卷 进入存储管理页面,导入OBS存储数据预置中创建的OBS存储卷。 父主题: 在CCE集群中部署使用Caffe
联的网关服务。 将istio-system命名空间下自动生成的Service改为节点级别。 验证获取源IP 使用kubectl连接集群。 查看nginx应用日志。 kubectl logs <pod_name> 本示例中,nginx应用获取到的源IP如下: 父主题: 网络指导
建Pod并调度到同一个节点,挂载后依然可以读取到之前Pod写的内容。 HostPath存储的内容与节点相关,所以它不适合像数据库这类的应用,想象下如果数据库的Pod被调度到别的节点了,那读取的内容就完全不一样了。 记住永远不要使用HostPath存储跨Pod的数据,一定要把Hos
forward . 10.150.0.1 } 单击“确定”完成配置更新。 在左侧导航栏中选择“配置与密钥”,在“kube-system”命名空间下,查看名为coredns的配置项数据,确认是否更新成功。 合理配置Host 如果您需要为特定域名指定hosts,可以使用Hosts插件来配置。示例配置如下:
并创建新的PVC关联该新建的静态PV,之后应用升级挂载这个新的PVC到原有挂载路径,实现存储卷迁移。 迁移时会造成服务断服,请合理规划迁移时间,并做好相关备份。 操作步骤 数据备份(可选,主要防止异常情况下数据丢失)。 根据FlexVolume格式的PV,准备CSI格式的PV的yaml文件关联已有存储。
并创建新的PVC关联该新建的静态PV,之后应用升级挂载这个新的PVC到原有挂载路径,实现存储卷迁移。 迁移时会造成服务断服,请合理规划迁移时间,并做好相关备份。 操作步骤 数据备份(可选,主要防止异常情况下数据丢失)。 根据FlexVolume格式的PV,准备CSI格式的PV的yaml文件关联已有存储。
行域名解析,也说明已完成该设置,如下图: 但是在容器内进行解析却提示bad address无法解析域名返回地址,如下图: 登录CCE控制台查看该集群的插件安装情况。 如果已安装插件列表中没有coredns插件,可能是用户卸载了该插件等原因导致。 安装coredns插件,并添加相应
安全组名称为“集群名称-node-xxx”,此安全组关联CCE用户节点。 安全组名称为“集群名称-control-xxx”,此安全组关联CCE控制节点。 图1 查看集群安全组 单击用户节点安全组,确保含有如下规则允许Master节点使用ICMP协议访问节点。 图2 Node节点安全组 若不含有该规则请
对于包周期的存储卷,单击卷名称前往云硬盘控制台,并单击右上角“扩容”。 输入目标容量,并单击“下一步”。 磁盘不支持缩容,建议您合理选择扩容容量。 仔细查看须知后,重新提交包周期订单。 等待云硬盘扩容完成后,返回CCE控制台,单击扩容页面的“刷新”并同步存储卷声明容量。 图3 同步容量 父主题:
至少有一个未分区且符合规格的数据盘。 排查步骤 您也可以参考以下步骤,通过集群日志查看节点纳管失败的报错信息,然后根据相应的解决方法解决问题: 登录CCE控制台,单击集群列表上方的“操作记录”查看具体的报错信息。 单击“操作记录”窗口中失败状态的报错信息。 根据上一步获取的失败报错信息自行解决后,尝试重新纳管节点。
dataVolumes中创建的另一块100G 数据盘未被任何selector选中并被group管理。因此此块云盘作为裸盘挂载至节点,不做初始化。 创建后登录节点查看,可以发现有一块100G的盘已经挂载但没有被初始化。 API示例如下: { "kind": "Node", "apiVersion":
型资源共存的环境下,尽可能满足分配的公平原则。 配置建议: DRF调度算法优先考虑集群中业务的吞吐量,适用单次AI训练、单次大数据计算以及查询等批处理小业务场景。 组调度 将一组Pod看做一个整体进行资源分配。观察Job下的Pod已调度数量是否满足了最小运行数量,当Job的最小运
-f ingress-test.yaml 回显如下,表示Ingress服务已创建。 ingress/ingress-test created 查看已创建的Ingress。 kubectl get ingress 回显如下,表示Ingress服务创建成功。 NAME CLASS
缺省。 如将绑定的安全组未创建,可单击“创建安全组”,完成创建后单击刷新按钮。 须知: 最多可选择5个安全组。 鼠标悬浮在安全组名称上,可查看安全组的详细信息。 64566556-bd6f-48fb-b2c6-df8f44617953 5451f1b0-bd6f-48fb-b2c6-df8f44617953
efs-deployment-example.yaml 创建完成后,在CCE界面“存储管理 > 极速文件存储卷”中单击PVC名称,在PVC详情页面可查看极速文件存储服务和PVC的绑定关系。 父主题: 极速文件存储卷
ding、ingressClass、validatingWebhookConfiguration 解决方案 使用kubectl连接集群。 查找NGINX Ingress相关资源。 className="nginx" namespace="kube-system" className=`if