检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
时,可将数据恢复到任意备份点。 具体请参见创建云硬盘备份或创建SFS Turbo备份。 云数据库迁移 云数据库的跨区域迁移可以使用数据复制服务 DRS。DRS服务具有实时迁移、备份迁移、实时同步、数据订阅和实时灾备等多种功能。 其他数据迁移 大数据场景迁移:推荐使用云数据迁移 CDM。
符合app_*格式的目录中后缀名为.log的文件。 如果业务容器的数据目录是通过数据卷(Volume)挂载的,插件不支持采集它的父目录,需设置采集目录为完整的数据目录。例如/var/log/service目录是数据卷挂载的路径,则设置采集目录为/var/log或/var/log/
数据规划 防火墙规划 防火墙的规划需符合表1中要求。 表1 防火墙规划 源设备 源IP 源端口 目的设备 目的IP 目的端口(侦听) 协议 端口说明 侦听端口是否可更改 认证方式 加密方式 ucsctl执行机 源设备所在节点IP ALL 所有节点 目的设备所在节点IP 22 TCP
数据规划 在AWS基础设施上构建多云集群时,将自动在AWS控制台创建以下资源,请确保资源配额足够: 表1 资源数量 资源类型 EC2 NAT VPC 子网 路由表 互联网网关 弹性IP 安全组 网络ACL ELB 网络接口 存储卷 数量 3台 3个 1个 6个 7个 1个 3个 5个
gpu-device-plugin 插件简介 gpu-device-plugin插件是支持在容器中使用GPU显卡的设备管理插件,集群中使用GPU节点时必须安装本插件。 约束与限制 下载的驱动必须是后缀为“.run”的文件。 仅支持Nvidia Tesla驱动,不支持GRID驱动。
集群--XGPU设备显存使用率 集群--XGPU设备算力使用率 节点--XGPU设备显存使用率 节点--XGPU设备算力使用率 节点--XGPU设备数量 节点--XGPU设备显存分配量 GPU卡--XGPU设备显存使用率 GPU卡--XGPU设备显存分配量 GPU卡--XGPU设备显存分配率
建议在用户业务量小时执行备份操作。 前提条件 确认云原生应用依赖的服务(镜像、存储、数据库等非集群内的数据)都已经迁移完成。 k8clone数据备份原理 数据备份的流程参考如下: 图1 数据备份流程 k8clone备份使用方法 k8clone工具支持在Linux(x86、arm)和Windows环境中运行,使
建议在用户业务量小时执行备份操作。 前提条件 确认云原生应用依赖的服务(镜像、存储、数据库等非集群内的数据)都已经迁移完成。 k8clone数据备份原理 数据备份的流程参考如下: 图1 数据备份流程 k8clone备份使用方法 k8clone工具支持在Linux(x86、arm
痛点三:流量治理层面难以满足数据敏感业务和时延敏感业务的高性能要求。 痛点四:智能终端的快速发展带来运营监管的难度,无法集中管理海量终端,实施有效的监管和运营。 痛点五:缺少跨中心的业务监控与治理能力,业务实例无法实现跨云迁移。 优势 UCS提供了跨云跨数据中心的大规模治理能力,统一
在弹出的“卸载插件”按钮中选择“是”,即可卸载该插件。 昇腾芯片驱动安装 请确保昇腾芯片已插入到节点上,确认设备型号,并从昇腾官方社区下载设备驱动,以及参考驱动安装指导进行安装: 安装完成后,执行以下命令,可查看节点的/dev目录下所有的芯片设备。 ls -l /dev/davinci* 执行如下命令,查看驱动加载是否成功。
在分布式集群场景下,为了给用户提供低延迟的服务,应用可能部署在不同区域、不同厂商的云端上,在某个地区集群发生故障时,该地区的用户访问也随之会受到影响。利用UCS的流量管理和应用数据管理功能,可以实现多云多集群场景下的应用故障倒换、调度和迁移,故障倒换方案示意如图1所示。 图1 多云集群应用故障倒换示意图 约束限制 您
SFS,具体请参见数据迁移。 数据库迁移 若您的数据库采用集群外的非容器化部署方案,且需将数据库搬迁上云,可以使用华为云数据复制服务 DRS帮助完成数据库迁移。DRS服务具有实时迁移、备份迁移、实时同步、数据订阅和实时灾备等多种功能。 其他数据迁移 大数据场景迁移:推荐使用华为云云数据迁移 CDM。
本节介绍集群依赖服务的相关数据迁移,如存储、数据库、分布式缓存、分布式消息等。若您的集群不涉及这些数据,或者这些数据不需要搬迁至华为云,可忽略本节内容。 存储迁移 若您的集群使用了云硬盘,跨云迁移可以使用华为云数据快递服务 DES。DES服务是一种海量数据传输解决方案,支持TB到几百TB级数据上云,
效利用GPU设备资源。 前提条件 已完成GPU虚拟化资源准备。 如果您需要通过命令行创建,需要使用kubectl连接到集群,详情请参见通过kubectl连接集群。 约束与限制 init容器不支持进行GPU虚拟化。 对于单张GPU卡: 最多虚拟化为20个GPU虚拟设备。 最多调度20个使用隔离能力的Pod。
请到Kubernetes版本发布页面下载1.25版本对应的kubectl。 Apple M1芯片是darwin-arm64架构,如果使用Apple M1芯片的设备,需要下载对应架构的kubectl。 下载asm-iam-authenticator 在ASM官网下载asm-iam-authenticator二进制,最新版本为v1
显卡)方式。 GPU虚拟化:UCS On Premises GPU采用xGPU虚拟化技术,能够动态对GPU设备显存与算力进行划分,单个GPU卡最多虚拟化成20个GPU虚拟设备。相对于静态分配来说,虚拟化的方案更加灵活,最大程度保证业务稳定的前提下,可以完全由用户定义使用的GPU数量,提高GPU利用率。
后通过数据恢复的方式迁移至目标AZ集群。 k8clone是一个简便的Kubernetes元数据克隆工具,它可以将Kubernetes元数据(对象)保存为本地压缩包,然后将这些元数据恢复到目标集群中。 前提条件 确认云原生应用依赖的存储数据已经迁移完成。 确认源集群中元数据备份数据
确认云原生应用依赖的服务(镜像、存储、数据库等非集群内的数据)都已经迁移完成。 确认源集群中元数据备份数据已经下载到执行k8clone的服务器上。 k8clone数据恢复原理 数据恢复的流程参考如下: 图1 数据恢复流程 在执行恢复操作前,需要准备一个数据恢复配置文件“restore.j
确认云原生应用依赖的服务(镜像、存储、数据库等非集群内的数据)都已经迁移完成。 确认源集群中元数据备份数据已经下载到执行k8clone的服务器上。 k8clone数据恢复原理 数据恢复的流程参考如下: 图1 数据恢复流程 在执行恢复操作前,需要准备一个数据恢复配置文件“restore.j
E-Backup插件集成开源的Restic组件完成PV数据备份,会对备份时间点的数据做自有快照,并上传数据,不影响用户后续数据的读写,但Restic不进行文件内容的校验和业务一致性校验,其特性遵循restic约束。 Restic组件占用内存大小与初次备份的PV卷数据大小有关。若PV卷数据大于300G,建议采用云