检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
sh/enable-quota-burst 是 为工作负载开启CPU Burst。 volcano.sh/quota-burst-time 否 为保障CPU调度稳定性以及降低多个容器同时发生CPU Burst时的争用,默认设置的CPU Burst值与CPU Quota值相等,即容器最多可以使用两倍的CPU Limi
些资源特征的Burstable Pod(要求CPU的requests和limits参数值都是正整数)优先使用某些CPU的能力,以减少应用在多个CPU间频繁切换带来的影响。能够使用优先使用CPU的Burstable Pod举例如下: ... spec: containers:
skip_lint: 是否验证上传的模板 override: 是否覆盖已存在的模板 visible: 模板是否可见 content 是 File 模板包文件 响应参数 状态码: 201 表3 响应Body参数 参数 参数类型 描述 id String 模板ID name String 模板名称
override existed chart - visible: update chart visible content 是 File 模板包文件 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 id String 模板ID name String 模板名称
206 Partial Content 服务器成功处理了部分GET请求。 300 Multiple Choices 多种选择。请求的资源可包括多个位置,相应可返回一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资
Controller 在应用中,您可能会因为内外网隔离等需要,在集群中部署多套Nginx Ingress Controller。操作详情请参见安装多个NGINX Ingress控制器。 通过Nginx Ingress Controller进行应用的蓝绿或灰度发布 支持通过Nginx In
DNSCache,您需要修改CoreDNS配置,让其总是优先采用UDP协议与上游DNS服务器进行通信,避免解析异常。建议您使用以下方式修改CoreDNS配置文件。 在forward插件用于设置 upstream Nameservers 上游 DNS 服务器。包含以下参数: prefer_udp:即
Node 节点docker夯住 DockerHung 次要 检查节点Docker进程是否夯住。 Node 节点文件系统只读 FilesystemIsReadOnly 次要 检查节点文件系统是否只读。 Node 节点ntp服务故障 NTPIsDown 次要 检查节点NTP服务是否正常。 Node
创建Headless Service 如前所述,创建Statefulset需要一个Headless Service用于Pod访问。 使用如下文件描述Headless Service,其中: spec.clusterIP:必须设置为None,表示Headless Service。 spec
且为有效的IPv4网段。 正确示例: 192.168.1.0/24 错误示例: 192.168.1.1/24 (不符合CIDR格式) 所设置的多个网段之间不得存在任何重叠。 正确示例: 192.168.1.0/24 和 192.168.2.0/24 错误示例: 192.168.1.0/24
得分越高。Binpack算法能够尽可能填满节点,将应用负载靠拢在部分节点,这非常有利于集群节点的自动扩缩容功能。 Binpack为调度器的多个调度插件之一,与其他插件共同为节点打分,用户可以自定义该插件整体权重和各资源维度打分权重,用以提高或降低Binpack在整体调度中的影响力
od 调度到带有与之匹配的污点的节点上。 污点和容忍度相互配合,可以用来避免 Pod 被分配到不合适的节点上。 每个节点上都可以应用一个或多个污点,这表示对于那些不能容忍这些污点的 Pod,是不会被该节点接受的。 在 Pod 中设置容忍度示例如下: apiVersion: v1 kind:
是否删除sfs(文件存储卷)。 枚举取值: true或block:执行删除流程,失败则阻塞后续流程。 try:执行删除流程,失败则忽略,并继续执行后续流程。 false或skip:跳过删除流程,默认选项。 delete_sfs30 否 String 是否删除sfs3.0(文件存储卷3.0)。
DNSCache地址如下: CCE Standard集群:169.254.20.10 CCE Turbo集群:169.254.1.1 创建nginx.yaml文件,示例如下: apiVersion: v1 kind: Pod metadata: name: nginx spec: containers:
使用kubectl命令行工具连接集群,详情请参见通过kubectl连接集群。 在集群中创建一个Deployment。 创建deployment.yaml文件,文件内容示例如下: kind: Deployment apiVersion: apps/v1 metadata: name: example
度器对于Pod调度是逐个进行的,对于Kubeflow作业TFJob的Ps和Worker是不感知的。在集群高负载(资源不足)的情况下,会出现多个作业各自分配到部分资源运行一部分Pod,而又无法正执行完成的状况,从而造成资源浪费。以下图为例,集群有4块GPU卡,TFJob1和TFJo
图1 配置TLS 单击“确定”,创建Service。 通过kubectl命令行创建 以关联已有ELB为例,Service使用TLS的YAML文件配置如下: apiVersion: v1 kind: Service metadata: name: test-tls labels:
用。 每开启一个基于流的IP监控任务(一个MonitorPolicy中开启一个和多个IP监控项)会占用内核2.6M内存;每开启一个基于流的TCP监控任务(一个MonitorPolicy中开启一个和多个TCP监控项)会占用内核14M内存。 apiVersion: crd.dolphin
及以上版本 其他更高版本的集群 约束与限制 创建灰度Ingress后,不应删除原Ingress。 单个ELB下的监听器,如果关联的多个Ingress配置了多个灰度策略,按HTTP请求头的灰度策略优先级最高,按Cookie的灰度策略次之,按比例的灰度策略优先级最低。 通过控制台配置灰度发布服务
远端网关与本端网关需要设置为同一网段的IP地址,一般使用30位掩码。 本例中为10.0.0.2/30。 远端子网 用户数据中心的子网和子网掩码。多个远端子网时,请以逗号隔开。 本例中为10.1.123.0/24。 路由模式 路由模式:静态路由/BGP 双线或者后期有冗余专线接入请选择BGP模式。