检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
create -f ingress-test.yaml 回显如下,表示Ingress服务已创建。 ingress/ingress-test created 查看已创建的Ingress。 kubectl get ingress 回显如下,表示Ingress服务创建成功。 NAME
资源规划和版本迭代带来的变化中解脱出来。 资源分级管控 应用被调度到合适的运行环境后,如何来保障其所需要的资源呢? 基于Huawei Cloud EulerOS 2.0操作系统,从CPU、L3缓存、内存、网络、存储等全方位提供资源隔离能力,并以内核态为主,用户态为辅,通过快速抢占
创建NetworkAttachmentDefinition。 kubectl create -f networkattachment-test.yaml 回显如下,表示NetworkAttachmentDefinition已创建。 networkattachmentdefinition.k8s.cni
使用kubectl命令行登录集群中的任意一个Nginx容器中,然后访问ELB的地址。 查询集群中的Nginx容器。 kubectl get pod 回显如下: NAME READY STATUS RESTARTS AGE nginx-7c4c5cc6b5-vpncx
使用kubectl命令行登录集群中的任意一个Nginx容器中,然后访问ELB的地址。 查询集群中的Nginx容器。 kubectl get pod 回显如下: NAME READY STATUS RESTARTS AGE nginx-7c4c5cc6b5-vpncx
environment variables CLOUD_SDK_AK and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"]
"cce-service-1":["500,600", "700,800"]}' 创建Service。 kubectl create -f service-test.yaml 回显如下,表示Service已创建。 service/service-test created 父主题: 负载均衡(LoadBalancer)
通过以下命令,可以查询节点当前的超卖资源量并持续观察其变化。 kubectl describe node 192.168.98.230 回显如下: Name: 192.168.98.230 Roles: <none> Labels:
get APIServices | grep v1beta1.custom.metrics.k8s.io 若存在回显,表示已开启自定义指标Metrics API;若不存在回显,则按照以下方式进行APIService对象注册(这里需要注意Service的名称prometheus-ad
当Service设置了服务亲和为节点级别,即externalTrafficPolicy取值为Local时,在使用中可能会碰到从集群内部(节点上或容器中)访问不通的情况,回显类似如下内容: upstream connect error or disconnect/reset before headers. reset
23 v1.25 v1.27 修复部分问题 2.1.51 v1.19 v1.21 v1.23 v1.25 v1.27 支持Huawei Cloud EulerOS 2.0系统 2.1.50 v1.19 v1.21 v1.23 v1.25 v1.27 - 2.1.46 v1.19 v1
记录当前版本驱动状态。根据CCE AI套件(NVIDIA GPU)插件版本差异,查询驱动的命令如下: 1.x.x版本执行: /opt/cloud/cce/nvidia/bin/nvidia-smi 2.0.0-2.5.3版本执行:/usr/local/nvidia/bin/nvidia-smi
zone),可在指定可用区调度时使用。 kubernetes.io/hostname:节点的hostname,可在指定节点调度时使用。 cce.cloud.com/cce-nodepool:节点所属的节点池,可在指定节点池调度时使用。 本示例中,必须满足的规则表示调度的节点必须包含一个键名
使用Spark on CCE 使用Spark的Kubernetes调度程序spark-submit,可以将Spark应用程序提交到Kubernetes集群中运行,详情请参见在Kubernetes上运行Spark。使用spark-submit提交Spark应用程序的工作原理如下:
curl -X OPTIONS -H 'Origin: frontend.example.com' api.example.com -i 回显如下,跨域访问会在原始后端响应中添加Access-Control-**相关的请求头: HTTP/1.1 200 OK Access-Control-Allow-Origin:
Probe高级配置 与Liveness Probe相同,Readiness Probe也有同样的高级配置选项,上面nginx Pod的describe命令回显有中有如下行。 Readiness: exec [ls /var/ready] delay=0s timeout=1s period=10s
示例: docker tag hpa-example:latest swr.cn-east-3.myhuaweicloud.com/cloud-develop/hpa-example:latest 上传镜像至镜像仓库。 docker push [镜像仓库地址]/[组织名称]/[镜像名称2:版本名称2]
等待AHPA生成副本推荐数,执行以下命令查看AHPA资源详情。 kubectl get ahpa hamster-ahpa -oyaml 回显如下: apiVersion: autoscaling.cce.io/v1alpha1 kind: AdvancedHorizontalPodAutoscaler
示例: docker tag hpa-example:latest swr.cn-east-3.myhuaweicloud.com/cloud-develop/hpa-example:latest 上传镜像至镜像仓库。 docker push [镜像仓库地址]/[组织名称]/[镜像名称2:版本名称2]
Off:关闭该容器的VPA策略。 等待VPA生成资源期望值,执行以下命令查看VPA资源详情。 kubectl get vpa hamster-vpa -oyaml 回显如下: apiVersion: autoscaling.k8s.io/v1 kind: VerticalPodAutoscaler metadata: