检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
开启后将以客户端请求头的Host重写X-Forwarded-Host传递到后端云服务器。 独享型ELB实例的端口启用HTTP/HTTPS时支持配置。 图1 配置HTTP/HTTPS头字段 单击“确定”,创建Service。 通过kubectl命令行创建 以关联已有ELB为例,Service配
服务器后,在等待超过响应超时时间没有响应,负载均衡将终止等待,并返回 HTTP504错误码。 仅端口启用HTTP/HTTPS时支持配置。 图1 配置超时时间 单击“确定”,创建Service。 通过kubectl命令行创建 当前支持通过注解的方式设置客户端连接空闲超时时间,示例如下:
若功能或数据检查异常需要回退,请执行步骤4,选择FlexVolume格式的PVC并单击提交升级。 卸载FlexVolume格式的PVC。 检查正常,存储管理界面执行解关联操作。 也可以后台通过kubectl指令删除Flexvolume格式的PVC和PV。 在删除之前需要修改PV的回收策略per
matplotlib;python /home/basicClass.py 。 挂载刚刚创建的OBS存储盘: 单击“创建”。等待job执行完成,进入OBS页面,可以查看到以图片形式展示的执行结果。 通过kubectl创建可以按如下YAML执行。 kind: Job apiVersion: batch/v1 metadata:
systemctl daemon-reload && systemctl restart docker 其中1048576为最大文件句柄数的建议取值。 下图中命令仅做示例,请根据实际情况填写。 节点创建完成后,登录节点查看参数是否修改成功。 父主题: 节点系统参数优化
规格:网络型(TCP/UDP),小型 I 规格(10LCU) 公网带宽:5Mbit/s,按流量计费 1 在业务验证过程中,出于一些原因,该用户对集群的资源进行了以下变更: 图1 资源变更样例 该用户于2023/03/18 17:30:00对集群进行休眠,并同时对节点进行关机。 该用户于2023/03/19 8:3
当显存设置为单张GPU卡的容量上限或算力设置为100%时,将会使用整张GPU卡。 使用GPU虚拟化时,工作负载调度器将默认指定为Volcano且不可更改。 图1 设置xGPU配额 本文主要为您介绍GPU虚拟化的使用,其他参数详情请参见工作负载。 其余信息都配置完成后,单击“创建”。 工作负载创建成
nts.topologyKey 表示节点标签的键。当两个节点都使用此键标记且标签值相同时,调度器会认为这两个节点处于相同的拓扑中,调度器试图向每个拓扑域放入数量均衡的Pod。 topologySpreadConstraints.whenUnsatisfiable 表示当Pod不满
echo net.ipv4.tcp_keepalive_time=600 >> /etc/sysctl.conf && sysctl -p 下图中命令仅做示例,请根据实际情况填写。 节点创建完成后,登录节点执行表1中的查看参数命令检查是否修改成功。 父主题: 节点系统参数优化
填写为不存在的键值则数据导入不会生效。 通过子路径导入的数据不会随Secret的更新而动态更新。 权限 只读。只能读容器路径中的数据卷。 图1 使用密钥挂载到工作负载数据卷 其余信息都配置完成后,单击“创建工作负载”。 等待工作负载正常运行后,本示例将在/etc/foo目录下生成
PVC名称:自定义PVC名称,需与原SFS1.0 PVC名称不同。 创建方式:选择“已有存储卷”。 关联存储卷:选择上一步中已创建的存储卷。 PVC创建完成后,如下图所示。 在左侧导航栏中选择“工作负载”,找到目标工作负载,将工作负载实例数需要缩容到0。 单击工作负载“操作”栏中的“升级”按钮。在“容器配
t。 在CCE中创建工作负载时,在配置容器信息时可以设置容器日志。 单击添加日志策略。 以nginx为例,不同工作负载根据实际情况配置。 图1 添加日志策略 存储类型有“主机路径”和“容器路径”两种类型可供选择: 表1 配置日志策略 参数 参数说明 存储类型 主机路径:HostP
不存在的键值则数据导入不会生效。 通过子路径导入的数据不会随ConfigMap的更新而动态更新。 权限 只读。只能读容器路径中的数据卷。 图1 使用配置项挂载到工作负载数据卷 其余信息都配置完成后,单击“创建工作负载”。 等待工作负载正常运行后,本示例将在/etc/config目
内的其他服务访问,您可以通过部署两套独立的Nginx Ingress Controller,绑定两个不同的ELB实例来满足这类需求场景。 图1 多个Nginx Ingress应用场景 解决方案 您可以通过以下方案,实现在同一个集群中部署多个Nginx Ingress Controller。
okie中包含foo=bar的用户请求转发到新版本Service A'中。待运行一段时间稳定后,再逐步全量上线新版本,平滑下线旧版本。示意图如下: 场景二:切分一定比例的流量到新版本 假设线上已运行了一套对外提供七层服务的Service B,此时修复了一些问题,需要发布上线一个新的版本Service
osts文件中,在本地系统中实现简单的域名解析。更多使用详情请参见使用HostAliases向Pod /etc/hosts文件添加条目。 图1 工作负载DNS配置 单击“创建工作负载”。 通过工作负载YAML进行DNS配置 您也可以通过YAML的方式创建工作负载,以nginx应用
rgoCD可以实现应用快速发布到Kubernetes中,并且能够根据版本标识快速跟踪和多集群部署功能,实现多个集群之间同一应用部署问题。 图1 Argo CD工作流程 本文介绍在ArgoCD中对接CCE执行持续部署的过程,并通过一个具体的示例演示该过程。 准备工作 创建一个CCE