检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安全集群下,与MRS ClickHouse 服务器通信的HTTPS 端口。 可以登录目的端集群的FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”,搜索“https_port”参数获取。 创建阿里云云数据库 Click
ess),如果没有,请参考如下步骤生成AK/SK并添加权限。 登录阿里云RAM控制台。 在左侧导航栏,选择身份管理 > 用户。 在用户页面,单击用户名称,进入用户详情页面。 在用户 AccessKey区域,单击“创建 AccessKey”,生成AccessKey ID和AccessKey
作日志,提示异常信息,并生成操作总结。 在迁移Linux主机之前,执行此脚本以更新源端主机的hosts配置。 rollback_hosts_linux.sh 批量恢复源端Linux主机的/etc/hosts文件。脚本会自动记录操作日志,提示异常信息,并生成操作总结。 在完成Lin
目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份,源端各自独立备份完成后,立即开始生成镜像和目的端主机。 目的端是否关机 选择“是”,生成目的端后,目的端保持关机状态。 选择“否”,生成目的端后,目的端自动开机。 增量备份前源端是否关机 选择“是”,工作流在执行增量备份前,
目的虚拟机创建策略 立即创建 工作流立即开始进行源端备份,源端各自独立备份完成后,立即开始生成镜像和目的端主机。 目的端是否关机 选择“是”,生成目的端后,目的端保持关机状态。 选择“否”,生成目的端后,目的端自动开机。 增量备份前源端是否关机 选择“是”,工作流在执行增量备份前,
地文件名(例如:s3url.txt)。 打开生成的列表文件(在本文示例中为s3url.txt),您将看到桶内所有文件的共享s3地址列表。将“s3://及其之前的所有参数”替换为“http://<DOMAIN>:<PORT>/”,以生成可通过浏览器访问的URL(即文件共享下载链接)
“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 校验完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 参数配置完成后,单击“测试连接”,系统会校验配置信息并与执
操作日志,提示异常信息,并生成操作总结。 在迁移Windows主机之前,执行此脚本以更新源端主机的hosts配置。 rollback_hosts_win.ps1 批量恢复源端Windows主机的hosts文件。脚本会自动记录操作日志,提示异常信息,并生成操作总结。 在完成Wind
配置完成后,选择任务的运行方式。 创建的迁移任务可重复运行,每运行一次,即会生成一条任务实例。 单击任务名称,可以修改任务配置。 立即运行:如果需要立即运行迁移任务,可以勾选“保存后立即运行”,然后单击“保存”按钮,会在任务管理列表中生成一条元数据增量感知任务并自动开始执行迁移。 手动运行:如果需
选择至少包含:读取和列表,如果要迁移归档类对象权限则需要再勾选:写入。 开始和到期日期/时间 需要确保在迁移任务过程中,连接字符串不会失效。 单击“生成SAS和连接字符串”,即可显示连接字符串和SAS令牌、Blob服务SAS URL,单击连接字符串后的复制图标即可复制连接字符串。 可以使用连接字符串来访问
如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 在元数据采集区域,单击“创建任务 > 数据湖元数据同步”按
“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 在MgC控制台,创建Hive统计任务并执行,方法请参考创建
服务器通信的 HTTP 端口。默认为8123。 HTTP SSL/TLS端口 安全集群下,填写与目的端ClickHouse 服务器通信的HTTPS 端口。 表4 Hive Metastore连接参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称 默认创建名称为“Hive-
如果该参数不为空,则环境变量文件在命令执行前将被自动“source” SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。 须知: 迁移完成后,您需要手动清理该路径下生成的文件夹,以释放存储空间。 在元数据采集区域,单击“查看库表清单”或“数据表”,进入库表清单页签。
5倍的存储库,用于辅助迁移,该存储库在迁移结束后自动删除。 有关云备份服务的收费标准,请参见CBR计费说明。 镜像服务费用 跨可用区(AZ)迁移,在迁移过程中会生成源端服务器的整机镜像,可能会产生一定的费用。 有关镜像服务的费用说明,请参见IMS计费说明。 目的端服务器费用 跨可用区(AZ)迁移,不支
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
如果开启了用户认证,请在ip:port前加上用户名@。例如:http://user@ip1:port1,http://ip2:port2 如果开启了https认证,将“http://”改成“https://”。 父主题: 采集器参数配置说明
问MgC调研数据,MgC相关权限请参考权限管理。 数据采集项透明性:数据采集的具体项目参见采集项列表。 本地导出 具备审计日志:导出操作会生成日志记录,这些日志可以用于审计和追踪导出活动,确保操作的透明性和可追溯性。 导出数据项透明展示:所有被导出的数据项都是透明的,可以通过查看采集项列表来了解哪些数据将被导出。
表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采集结果。当元数据同步任
表以及参数配置信息。单击操作列的“更多>修改”,可以修改任务参数配置。 单击操作列的“运行任务”,即可触发一次任务执行。每执行一次任务,会生成一条任务实例。 单击操作列的“查看实例”,进入任务实例管理页签。可以查看该任务的运行记录,以及每条任务实例的状态和采集结果。当数据湖元数据