检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在CCE集群中部署使用Flink Flink是一个用于大规模数据处理的分布式流处理框架和计算引擎,可以处理有界(批处理)和无界(流处理)数据,提供低延迟、高吞吐量的实时数据处理能力,同时支持复杂事件处理和数据分析。在CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据
设置文件存储挂载参数 本章节主要介绍如何设置文件存储的挂载参数。您可以在PV中设置挂载参数,然后通过PVC绑定PV,也可以在StorageClass中设置挂载参数,然后使用StorageClass创建PVC,动态创建出的PV会默认带有StorageClass中设置的挂载参数。 前提条件
配置自定义Header转发策略 配置跨域访问 配置高级转发规则 配置高级转发动作 在同一个集群中,多个Ingress可以使用同一个监听器(即使用同一个负载均衡器的同一个端口)。如果两个Ingress设置了不同的监听器配置,则实际生效的监听器配置将以最早创建的Ingress(简称为“
为什么Pod在节点不是均匀分布? Kubernetes中的Pod调度原理 Kubernetes中kube-scheduler组件负责Pod的调度,对每一个新创建的 Pod 或者是未被调度的 Pod,kube-scheduler 会选择一个最优的节点去运行这个 Pod。kube-scheduler
超时时间,单位为秒。 例如,设置为10,表明执行健康检查的超时等待时间为10秒,如果超过这个时间,本次健康检查就被视为失败。若设置为0或不设置,默认超时等待时间为1秒。 成功阈值(successThreshold) 探测失败后,将状态转变为成功所需要的最小连续成功次数。例如,设置为1时,表明健
在CCE集群中部署使用Tensorflow 资源准备 购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 在集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取
运行的多个Pod同时挂载同一文件存储,后设置的挂载参数不会覆盖已有参数值。针对上述场景希望设置不同的挂载参数,可以同时设置nosharecache挂载参数。 极速文件存储挂载参数 CCE的存储插件everest在挂载极速文件存储时默认设置了如表1所示的参数。 表1 极速文件存储挂载参数
如何设置容器内的DNS策略? CCE支持通过dnsPolicy标记每个Pod配置不同的DNS策略: None:表示空的DNS设置,这种方式一般用于想要自定义DNS配置的场景,而且,往往需要和dnsConfig配合一起使用达到自定义DNS的目的。 Default:从运行所在的节点继
bernetes社区原生版本,与社区最新版本保持紧密同步,完全兼容Kubernetes API和Kubectl。 在Kubernetes中,Pod的spec中包含一个restartPolicy字段,其取值包括:Always、OnFailure和Never,默认值为:Always。
停止前处理:容器停止前触发。设置停止前处理,确保升级或实例删除时可提前将实例中运行的业务排水。详细请参见停止前处理。 启动命令 在默认情况下,镜像启动时会运行默认命令,如果想运行特定命令或重写镜像默认值,需要进行相应设置。 Docker的镜像拥有存储镜像信息的相关元数据,如果不设置生命周期命令和
Kubeflow的诞生背景 基于Kubernetes构建一个端到端的AI计算平台是非常复杂和繁琐的过程,它需要处理很多个环节。如图1所示,除了熟知的模型训练环节之外还包括数据收集、预处理、资源管理、特性提取、数据验证、模型的管理、模型发布、监控等环节。对于一个AI算法工程师来讲,如果要做模型训练,
权。 步骤二:创建集群 您需要在CCE服务中创建一个集群,以提供Kubernetes服务。 步骤三:在集群中创建节点池和节点 您需在集群中创建节点,即可在节点上运行您的容器化应用。 步骤四:使用kubectl命令行工具连接集群 在使用Helm模板前,您需要在一台虚拟机上使用kubectl命令行工具连接刚刚创建的集群。
添加多条反亲和性规则时,即设置多个标签筛选需要反亲和的Pod,则本次创建的Pod会尽量同时反亲和多个满足标签筛选的Pod。但即使每个拓扑域都存在需要反亲和的Pod,也会选择一个拓扑域进行调度。 在右侧弹出窗口中单击“添加策略”,设置节点标签筛选规则。 表3 负载亲和/反亲和调度策略设置参数说明 参数
Turbo集群时如何设置IPv6服务网段 问题背景 当您需要创建一个IPv4/IPv6双栈的CCE Turbo集群时,需要设置IPv6服务网段,该网段默认值为fc00::/112,包含了65536个IPv6服务地址。如果您需要自定义服务网段,您可参考本文进行设置。 IPv6介绍 IPv6地址
步骤二:创建集群 您需要在CCE服务中创建一个集群,以提供Kubernetes服务。 步骤三:在集群中创建节点池和节点 您需在集群中创建节点,即可在节点上运行您的容器化应用。 步骤四:部署MySQL 在集群中创建MySQL工作负载,并为其创建一个集群内部访问服务,可供WordPress应用访问。
资源准备 在集群中添加GPU节点 登录CCE控制台,单击已创建的集群,进入集群控制台。 安装GPU插件。 在左侧导航栏中选择“插件管理”,在右侧找到gpu-beta(或gpu-device-plugin),单击“安装”。 在安装插件页面,设置插件关键参数。 Nvidia驱动:填写
应用程序完成后,执行程序的Pod将终止并清理,但驱动程序Pod仍然存在并保持在“已停止”状态,直到最终进行垃圾回收或手动清理。在“已停止”状态下,驱动程序Pod不会使用任何计算或内存资源。 图1 提交机制的工作原理 在CCE上运行SparkPi例子 在执行Spark的机器上安装kubectl,详情请参见通过kubectl连接集群。
ubernetes服务。 步骤三:在集群中创建节点池和节点 您需在集群中创建节点,即可在节点上运行您的容器化应用。 步骤四:创建并访问工作负载 在集群中创建工作负载以运行您的容器,并为其创建一个服务,然后您就可以从公网访问您的应用。 后续操作:释放资源 如果您在完成实践后不需要继
Tensorflow训练 Kubeflow部署成功后,使用ps-worker的模式来进行Tensorflow训练就变得非常容易。本节介绍一个Kubeflow官方的Tensorflow训练范例,您可参考TensorFlow Training (TFJob)获取更详细的信息。 创建MNIST示例
通过YAML配置 本文示例中,集群内已创建GPU节点,并设置标签为gpu=true,您可以通过该标签将Pod调度到GPU节点上。 登录CCE控制台。 单击集群名称进入集群,在左侧选择“工作负载”,在右上角单击“创建工作负载”。 在创建工作负载时,在“高级配置”中找到“调度策略”,选择节点亲和