检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过ICAgent采集容器日志(不推荐) CCE配合AOM收集工作负载的日志,在创建节点时会默认安装AOM的ICAgent(在集群kube-system命名空间下名为icagent的DaemonSet),ICAgent负责收集工作负载的日志并上报到AOM,您可以在CCE控制台和AOM
成本计算模型 工作负载成本计算原理 工作负载成本是由Pod成本聚合而成。 Pod成本:使用监控指标和实际账单作为输入,通过CPU、内存使用量占整体节点资源比例计算出来的成本,结合Pod关联PVC存储的成本。 计算过程中,Pod的使用量为当前采样时刻下申请量(Request)和实际使用量
选择通用型SSD V2,当IOPS大于3000时会收取额外IOPS费用,详情请参见价格计算器。 极速型SSD v2类型的IOPS范围为100~256000,最高可配置 1000*容量(GiB)。 选择极速型SSD V2,使用IOPS会收取额外IOPS费用,详情请参见价格计算器。
费用说明 LTS创建日志组免费,并每月赠送每个账号一定量免费日志采集额度,超过免费额度部分将产生费用(价格计算器)。 步骤一:开启插件日志采集 集群中需要安装NGINX Ingress控制器插件,并在插件中开启“日志采集”功能。
选择通用型SSD V2,当IOPS大于3000时会收取额外IOPS费用,详情请参见价格计算器。 极速型SSD v2类型的IOPS范围为100~256000,最高可配置 1000*容量(GiB)。 选择极速型SSD V2,使用IOPS会收取额外IOPS费用,详情请参见价格计算器。
选择通用型SSD V2,当IOPS大于3000时会收取额外IOPS费用,详情请参见价格计算器。 极速型SSD v2类型的IOPS范围为100~256000,最高可配置 1000*容量(GiB)。 选择极速型SSD V2,使用IOPS会收取额外IOPS费用,详情请参见价格计算器。
此时,弹性公网IP涉及一定费用,具体请参见弹性公网IP价格计算器。 使用kubectl连接集群 使用kubectl连接集群时,您需要先在客户端中安装kubectl。随后在集群中下载kubectl配置文件,并复制至客户端,在客户端中完成相关配置后即可访问对应的CCE集群。
选择通用型SSD V2,当IOPS大于3000时会收取额外IOPS费用,详情请参见价格计算器。 极速型SSD v2类型的IOPS范围为100~256000,最高可配置 1000*容量(GiB)。 选择极速型SSD V2,使用IOPS会收取额外IOPS费用,详情请参见价格计算器。
选择通用型SSD V2,当IOPS大于3000时会收取额外IOPS费用,详情请参见价格计算器。 极速型SSD v2类型的IOPS范围为100~256000,最高可配置 1000*容量(GiB)。 选择极速型SSD V2,使用IOPS会收取额外IOPS费用,详情请参见价格计算器。
关于计费详情请参见价格计算器。 集群中Everest版本要求2.4.14及以上。
合理分配容器计算资源 只要节点有足够的内存资源,那容器就可以使用超过其申请的内存,但是不允许容器使用超过其限制的资源。如果容器分配了超过限制的内存,这个容器将会被优先结束。如果容器持续使用超过限制的内存,这个容器就会被终结。如果一个结束的容器允许重启,kubelet就会重启它,但是会出现其他类型的运行错误
同步云服务器 操作场景 集群中的每一个节点对应一台云服务器,集群节点创建成功后,您仍可以根据需求,修改云服务器的名称或变更规格。由于规格变更对业务有影响,建议一台成功完成后再对下一台进行规格变更。 CCE节点的部分信息是独立于弹性云服务器ECS维护的,当您在ECS控制台修改云服务器的名称
云原生异构计算插件 CCE AI套件(NVIDIA GPU) CCE AI套件(Ascend NPU) 父主题: 插件
在CTS事件列表查看云审计事件 操作场景 用户进入云审计服务创建管理类追踪器后,系统开始记录云服务资源的操作。在创建数据类追踪器后,系统开始记录用户对OBS桶中数据的操作。云审计服务管理控制台会保存最近7天的操作记录。 本节介绍如何在云审计服务管理控制台查看或导出最近7天的操作记录
在CCE集群中部署使用Caffe 预置条件 资源准备 Caffe分类范例 父主题: 批量计算
在CCE集群中部署使用Spark 安装Spark 使用Spark on CCE 父主题: 批量计算
CCE AI套件(NVIDIA GPU) 插件简介 CCE AI套件(NVIDIA GPU)插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 约束与限制 下载的驱动必须是后缀为“.run”的文件。 仅支持Nvidia Tesla驱动,不支持GRID
在CCE集群中部署使用Kubeflow Kubeflow部署 Tensorflow训练 使用Kubeflow和Volcano实现典型AI训练任务 父主题: 批量计算
在CCE集群中部署使用Tensorflow 资源准备 购买CCE集群,购买GPU节点并使用gpu-beta插件安装显卡驱动。 在集群下添加一个对象存储卷。 数据预置 从https://github.com/zalandoresearch/fashion-mnist下载数据。 获取tensorflow
在CCE集群中部署使用Flink Flink是一个用于大规模数据处理的分布式流处理框架和计算引擎,可以处理有界(批处理)和无界(流处理)数据,提供低延迟、高吞吐量的实时数据处理能力,同时支持复杂事件处理和数据分析。在CCE集群中部署Flink,可以帮助您构建高效、可靠且灵活的数据处理系统