检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
将有可能被与该节点在同一局域网中的其他主机,或与该服务运行在同一节点上的容器所访问。如果端口1234上的服务不需要额外的认证(因为假设只有其他localhost进程可以),那么很容易受到利用此bug进行攻击。 华为云提醒使用kube-proxy的用户及时安排自检并做好安全加固。
本示例中共2个对等连接,网络连通需求如下: peer-XA:连通vpc-X和vpc-A的网络。 peer-XB:连通vpc-X和vpc-B的网络。 父主题: 使用Jenkins和Gitlab实现多集群隔离的DevOps流程
收集容器日志 通过云原生日志采集插件采集容器日志 通过ICAgent采集容器日志(不推荐) 父主题: 日志中心
image:预置镜像到SWR步骤中上传至SWR的镜像地址。 local:使用本地的jar包路径。本例中使用本地文件存放jar包,因此使用local类型。根据实际情况,该参数可采用多种类型(file/http/local等),详情请参见官方文档。 访问对象存储服务OBS 使用spark-submit下
如何配置Pod使用GPU节点的加速能力? 问题描述 我已经购买了GPU节点,但运行速度还是很慢,请问如何配置Pod使用GPU节点的加速能力。 解答 方案1: 建议您将集群中GPU节点的不可调度的污点去掉,以便GPU插件驱动能够正常安装,同时您需要安装高版本的GPU驱动。 如果您的集群中有
elb。其中,default-secret用于SWR的私有镜像拉取,paas.elb用于该命名空间下的服务对接ELB。 使用密钥设置工作负载的环境变量 使用密钥配置工作负载的数据卷 本节以下面这个Secret为例,具体介绍Secret的用法。 apiVersion: v1 kind: Secret metadata:
S)”,否则监听器端口将无法启用HTTP/HTTPS。 创建方式:本文中以选择已有ELB为例进行说明,关于自动创建的配置参数请参见表1。 端口配置: 协议:请选择TCP协议,选择UDP协议将无法使用HTTP/HTTPS。 服务端口:Service使用的端口,端口范围为1-65535。
表NPU卡的第0张卡)信息的Pod。最终输出了Pod所在的命名空间和Pod名称。查询结果如下: 代表default命名空间下名为test-564f996c77-fws6z的Pod使用了192.168.0.138节点上的第0张卡。 在使用其他卡时,Ascend310-0的Ascend310应该修改为对应卡名称。
镜像仓库 如何制作Docker镜像?如何解决拉取镜像慢的问题? 如何上传我的镜像到CCE中使用?
不同命名空间下的Ingress共用监听器时如何同步生效的证书? 问题背景 在同一个集群中,多个Ingress可以使用同一个监听器(即使用同一个负载均衡器的同一个端口)。如果两个Ingress均配置了HTTPS证书,则生效的服务器证书将以最早创建的Ingress配置为准。 但是不同
创建对等连接 单击“立即创建”。 单击已创建的对等连接名称,添加路由。 单击“添加路由表”,在vpc-X的路由表中,添加vpc-A的网段,即172.16.0.0/16。 同时勾选“添加另一端VPC的路由”,在vpc-A的路由表中,添加vpc-X的网段,即192.168.0.0/16。 图2
和静态端口(NodePort)暴露服务。 为了让节点端口可用,Kubernetes 设置了集群 IP 地址,这等同于您请求 type: ClusterIP 的服务。 LoadBalancer:使用云提供商的负载均衡器向外部暴露服务。华为云的Loadbalancer类型服务对接的ELB负载均衡服务。 ExternalName:将服务映射到
架构的兴起,DevOps重要性日益显著。 方案架构 该方案使用Gitlab和Jenkins来实现容器应用的自动化构建和持续部署,其中Gitlab提供了源码管理和版本控制的功能,而Jenkins则负责进行容器应用的构建和部署。并且为了保证生产环境和测试环境互不影响,该方案使用了两个
以上命令会给Deployment创建一个服务,--port为服务暴露出去的端口,--type为服务类型,--target-port为服务对应后端Pod的端口,port提供了集群内部访问服务的入口,即ClusterIP:port。 run 在集群中运行一个特定的镜像。 例如: kubectl run
io/elb.port String 界面上的对外端口,为注册到负载均衡服务地址上的端口。 取值范围:1~65535。 说明: 部分端口为高危端口,默认被屏蔽,如21端口。 v1.9及以上 kubernetes.io/elb.id String 仅关联已有ELB的场景:必填。 为负载均衡实例的ID。
在CCE集群中部署使用Kubeflow Kubeflow部署 Tensorflow训练 使用Kubeflow和Volcano实现典型AI训练任务 父主题: 批量计算
如下配置示例适用于Kubernetes 1.13及以下版本的集群。 操作步骤 请参见通过kubectl连接集群,使用kubectl连接集群。 执行如下命令,配置名为“evs-deployment-example.yaml”的创建无状态工作负载的yaml文件。 touch evs-deployment-example
会显示。 端口配置: 协议:请根据业务的协议类型选择。 服务端口:Service使用的端口,端口范围为1-65535。 容器端口:工作负载程序实际监听的端口,需用户确定。例如nginx默认使用80端口。 节点端口:即NodePort,建议选择“自动生成”;也可以指定端口,默认范围为30000-32767。
配置Gitlab项目 获取源码到本地。本实践中将使用一个Java示例。 在Gitlab上创建ccedemo项目组。 在ccedemo项目组中添加java-demo项目。 上传项目代码至本地Gitlab仓库。 cd ~/java-demo-main //目录地址按实际情况 git
在CCE集群中部署使用Caffe 预置条件 资源准备 Caffe分类范例 父主题: 批量计算