检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
应用迁移 不同AZ UCS华为云集群应用的迁移包含两个步骤:应用备份和应用迁移,即备份源AZ集群中应用,然后通过数据恢复的方式迁移至目标AZ集群。 k8clone是一个简便的Kubernetes元数据克隆工具,它可以将Kubernetes元数据(对象)保存为本地压缩包,然后将这些元数据恢复到目标集群中。
k8spsphostnetworkingports 基本信息 策略类型:安全 推荐级别:L3 生效资源类型:Pod 参数: exemptImages: 字符串数组 hostNetwork: max: 整型 min: 整型 作用 约束PodSecurityPolicy中的
86、ARM64等硬件架构。如需安装HCE OS 2.0,请提交工单,联系技术支持人员。详细了解HCE OS请参见HCE OS文档。 集群节点CPU架构暂不支持异构混部,请规划好集群的节点架构为X86或ARM64。 1.28.5及之后集群版本,支持HCE OS 2.0 ARM系统架构类型。
在左侧导航栏选择“负载伸缩”,选择“指标伸缩策略”,在需要编辑的策略所在行右侧单击“编辑”,在策略详情页面可以修改策略配置,详细的参数说明请参见表2。 修改完成后,单击“确定”。 删除FederatedHPA策略 登录UCS控制台,在左侧导航栏中选择“容器舰队”。 单击已开通集群
CronFederatedHPA工作原理 FederatedHPA是基于指标数据进行工作负载扩缩的,因此存在一定的时延。CronFederatedHPA策略基于固定的时间周期,而非指标数据对工作负载进行扩缩。 您可以对一些有周期性变化的工作负载应用CronFederatedHPA
因此您需要进行仔细的规划和准备。kspider是一款用于采集源集群信息的工具,它向用户提供了集群的Kubernetes版本、规模、工作负载数量、存储以及正在使用的镜像等数据,这些信息有助于用户了解集群的当前状况,评估迁移风险,并选择合适的目标集群版本和规模。 kspider工作原理
数据(对象)保存为本地压缩包,然后将这些元数据恢复到目标集群(UCS华为云集群或多云集群)中,从而实现第三方云集群应用的迁移上云。 建议在用户业务量小时执行备份操作。 前提条件 确认云原生应用依赖的服务(镜像、存储、数据库等非集群内的数据)都已经迁移完成。 k8clone数据备份原理
创建NPU应用 前提条件 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 当前不支持npu负载多容器能力。 通过控制台创建NPU应用 本节以创建无状态工作负载(Deployment)为例,说明通过控制台创建npu资源应用的方法。
k8spspselinuxv2 基本信息 策略类型:安全 推荐级别:L3 生效资源类型:Pod 参数: allowedSELinuxOptions:对象数组,包含level、role、type、user四个字符串对象 exemptImages:字符串数组 作用 约束Pod定义SELinux配置的允许列表。
k8spspprocmount 基本信息 策略类型:安全 推荐级别:L3 生效资源类型:Pod 参数: exemptImages:字符串数组 procMount:字符串 作用 约束PodSecurityPolicy中的“allowedProcMountTypes”字段。 策略实例示例
k8spspapparmor 基本信息 策略类型:安全 推荐级别:L3 生效资源类型:Pod 参数: allowedProfiles:数组 exemptImages:字符串数组 作用 约束AppArmor字段列表。 策略实例示例 以下策略实例展示了策略定义生效的资源类型,para
k8sblockloadbalancer 基本信息 策略类型:合规 推荐级别:L1 生效资源类型:Service 参数:无 作用 不允许Service为LoadBalancer类型。 策略实例示例 apiVersion: constraints.gatekeeper.sh/v1beta1
k8sblockendpointeditdefaultrole 基本信息 策略类型:合规 推荐级别:L1 生效资源类型:ClusterRole 参数:无 作用 默认情况下,许多Kubernetes都预定义了一个名为system:aggregate-to-edit的ClusterR
点,您可以跳过此步骤。 在集群中纳管支持GPU虚拟化的节点,具体操作步骤请参见纳管节点。 纳管成功后,给对应支持GPU虚拟化节点打上“accelerator: nvidia-{显卡型号}”标签,具体操作步骤请参见为节点添加标签/污点。 图1 为虚拟化节点打标签 步骤二:安装插件
存隔离,高效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 init容器不支持进行GPU虚拟化。 对于单张GPU卡: 最多虚拟化为20个GPU虚拟设备。 最多调度20个使用隔离能力的Pod。
当前本地集群已创建GPU资源。 当前本地集群开启了监控能力。 GPU监控 登录UCS控制台,在左侧导航栏选择“容器智能分析”。 选择对应的集群并开启监控,详细操作请参照集群开启监控。 单击集群名称,进入“容器洞察”总览页面。 选择“仪表盘”,在“集群视图”旁单击“切换视图”,切换为“GPU视图/XGPU视图”。
签,分别为: “集群”页签:具体信息请参见查看集群详情。 “节点”页签:具体信息请参见查看集群内节点详情。 “工作负载”页签:具体信息请参见查看集群内工作负载详情。 “Pod”页签:具体信息请参见查看集群内Pod详情。 “事件”页签:具体信息请参见查看集群内事件详情。 查看集群详情
response: remove: - foo weight: 75 请根据实际需求调整配置参数。 父主题: 服务路由
创建流量策略 YAML创建流量策略 通过YAML创建流量策略,步骤如下: 登录UCS控制台,在左侧导航栏中单击“服务网格”。 单击服务网格名称,进入详情页。 在左侧导航栏,单击“流量治理”下的“流量策略”,进入流量策略列表页。 单击右上角“YAML创建”,弹出流量策略YAML创建界面。
x86系统架构类型。 纳管gpu节点前,请确保节点依赖libsecurec已安装。 前提条件 在集群中纳管支持GPU虚拟化的节点,具体操作步骤请参见纳管节点。 纳管成功后,给对应支持GPU虚拟化节点打上“accelerator: nvidia-{显卡型号}”标签,具体操作步骤请参见为节点添加标签/污点。