检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
默认取值: 不涉及 fixedIps 否 Array of strings 参数解释: 主网卡的IP将通过fixedIps指定,数量不得大于创建的节点数。 约束限制: fixedIps或ipBlock同时只能指定一个。扩展网卡不支持指定fiexdIps。 ipBlock 否 String
请求超时时间 等待客户端请求超时时间。包括两种情况: 读取整个客户端请求头的超时时长,如果客户端未在超时时长内发送完整个请求头,则请求将被中断。 两个连续body体的数据包到达LB的时间间隔,超出请求超时时间将会断开连接。 仅端口启用HTTP/HTTPS时支持配置。 响应超时时间 等待后
map-test”的ConfigMap,再将Volume挂载到容器的“/tmp”路径下。Pod创建成功后,在容器的“/tmp”路径下,就有两个文件property_1和property_2,它们的值分别为“Hello”和“World”。 apiVersion: v1 kind: Pod
管理,CCE后台提供了多种维度的细粒度权限策略和管理方式。CCE的权限管理包括“集群权限”和“命名空间权限”两种能力,分别从集群和命名空间两个层面对用户组或用户进行细粒度授权,具体解释如下: 集群权限:是基于IAM系统策略的授权,可以让用户组拥有“集群管理”、“节点管理”、“应用模板”、“插件中心”权限。
需前往弹性负载均衡控制台进行创建,详情请参见创建证书。 ProxyProtocol:支持通过ProxyProtocol协议携带客户端真实IP到后端服务器。 请确保后端服务器具有解析ProxyProtocol协议的能力,否则可能导致业务中断,请谨慎开启。 安全策略:当监听器端口启
metadata: name: high-priority value: 1000000 globalDefault: false description: "" 创建工作负载或Volcano Job,并指定priorityClassName。 工作负载 apiVersion: apps/v1
parameters 否 String 上传模板的配置参数,示例如下:"{"override":true,"skip_lint":true,"source":"package"}"- skip_lint: whether lint uploaded chart - override: whether
~/java-demo-main //目录地址按实际情况 git init git remote add origin http://**.**.**.**/ccedemo/java-demo.git // 步骤3中java-demo项目地址 git config --global
将请求转发给其他节点上的Pod,在跨节点转发会丢失源IP。 节点级别的服务亲和(externalTrafficPolicy: Local):Local模式下,请求会直接转发给Pod所在的节点,不存在跨节点转发,因此可以保留源IP。但是在Local模式下,如果实例滚动升级时Pod所
RBAC更注重角色和任务的匹配。 本示例主要介绍如何实现命名空间级别的子账号权限管理。了解CCE权限管理的更多内容,请参见权限。 解决方案 假设现有两个团队,分别是研发与测试团队和运维团队。两个团队需要访问子账号A创建的集群A,并且对资源的访问需求不同,具体请参见表2。 表2 资源访问需求 团队 权限范围 权限内容
纳管后节点的企业项目保持不变。 批量纳管仅支持添加相同数据盘配置的云服务器。 集群开启IPv6后,只支持纳管所在的子网开启了IPv6功能的节点;集群未开启IPv6,只支持纳管所在的子网未开启IPv6功能的节点。 CCE Turbo集群要求节点支持Sub-ENI或可以绑定至少16张
23.5-r0、1.25.1-r0及之后的版本时,会移除匹配目的地址是容器网段且源地址非容器网段的SNAT规则;如果您之前通过配置VPC路由实现集群外直接访问所有的Pod IP,升级后只支持直接访问对应节点上的Pod IP。 NGINX Ingress控制器插件新版本(参见版本记录)
CCI)插件前预留空间配额。 单实例:需要预留一个节点,节点下至少需要有7个Pod空间配额。若开启网络互通,则需要有8个Pod空间配额。 高可用:需要预留两个节点,节点下至少需要有7个Pod空间配额,共计14个Pod空间配额。若开启网络互通,则需要有8个Pod空间配额,共计16个Pod空间配额。
至“节点”页签,查看GPU节点的IP。本文中以192.168.0.106为例。 登录GPU节点,通过以下命令查看GPU卡的信息。 nvidia-smi 可以看到该机器上存在1张卡GPU0。本文以GPU0为例,定位使用这张卡的Pod。 根据节点IP(即192.168.0.106)和
设置:AOM每分钟扫描一次日志文件,当某个日志文件超过50MB时会对其转储(转储时会在该日志文件所在的目录下生成一个新的zip文件。对于一个日志文件,AOM只保留最近生成的20个zip文件,当zip文件超过20个时,时间较早的zip文件会被删除)。 不设置:若您在下拉列表框中选择“不设置”,则AOM不会对日志文件进行转储。
prometheus prometheus: server type: LoadBalancer 创建完成后在浏览器访问“负载均衡公网IP地址:服务端口”,访问Prometheus。 图1 访问Prometheus 单击“Status > Targets”,可以查看到Prometheus监控了哪些目标。
application/json application/json;charset=utf-8 application/x-pem-file multipart/form-data(注:存在FormData参数时使用) 默认取值: 不涉及 X-Auth-Token 是 String 参数解释:
指定容器网络配置名:只支持选择关联资源类型为工作负载类型的自定义容器网络配置。 IPv6共享带宽:仅支持该功能的集群显示该选项,开启后可为Pod的IPv6双栈网卡绑定共享带宽,详情请参见为IPv6双栈网卡的Pod配置共享带宽。 单击右下角“创建工作负载”。 使用kubectl创建CronJob
RollingUpdate rollingUpdate: maxUnavailable: 25% # 配合以下两个参数,可以控制ELB后端个数,实现优雅滚动升级。 maxSurge: 25% 单击“确定”创建工作负载后,查看工作负载状态,Pod处于未就绪状态。
当Job具有多个资源时,将Share值最大的资源作为主资源,在进行优先级调度时,仅根据主资源的Share值进行优先级调度。 例如,Job 1和Job 2分别为两个工作负载,其请求的资源量如图所示, 通过DRF计算之后,Job 1的主资源为Memory,对应的Share值为0.4,Job 2的主资源为CPU,对应的Share值为0