检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在第一步:输入云凭证区域,输入华为云账号的AK/SK,单击“查询项目”按钮。系统会对输入的AK/SK进行验证,验证通过后,即可进行下一步。如果提示AK/SK错误,请参考AK/SK验证失败,如何处理?进行排查处理。 如果是进行主机迁移,输入的AK/SK需要具备SMS服务的相关权限。需要
核对凭证信息。 请仔细检查凭证中的用户名和密码是否输入正确,包括大小写和特殊字符。 测试凭证有效性。 使用核对后的用户名和密码尝试登录源端主机,验证凭证的有效性。 如果可以登录,请更新在Edge上添加的源端主机凭证信息为核对后的信息,然后重新进行迁移准备度检查。 如果无法登录,则是用户名或密码错误。请继续执行后续步骤。
installed如何处理? 大数据-Hive Metastore凭证文件获取方法 Edge安装端口被占用,导致无法安装,如何处理? AK/SK验证失败,如何处理? Windows服务器WinRM服务配置与故障排查
密通道来保护数据在传输过程中的安全。 通道认证:只有经过验证的用户账号才能上传数据,增加了数据传输的安全性。 审计日志: 上传操作会被记录在后台日志中,这些日志可以用于审计和监控数据上传活动,确保所有操作都是可追踪和可验证的。 操作权限与最小权限原则:无论哪种采集方式,都需要具备
服务器通信的 HTTP 端口。默认为8123。 HTTP SSL/TLS端口 安全集群下,填写与目的端ClickHouse 服务器通信的HTTPS 端口。 表4 Hive Metastore连接参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称 默认创建名称为“Hive-
额充足。 迁移前 迁移前请确认主机已经评估完成。 迁移中 迁移工作流创建后,不能关闭或者重启源端主机,不能变更源端磁盘,否则会导致迁移失败,需要重新迁移。 源端主机设置 源端Windows主机需要关闭防火墙和杀毒软件,并开启winrm服务(在powershell命令窗口中输入winrm
Kafka采集器(app-discovery-kafka) 通过连接到Kafka节点,获取Kafka节点IP、版本、消费者信息等。参数配置说明参见表1。 表1 Kafka采集器参数配置说明 参数 必选 配置说明 output_path 否 自定义采集结果(app-discovery-kafka-xxx
页面。 选择所有应用程序页签,单击应用程序名称,进入该应用的概述页面。在概要区域可以获取客户端(应用)ID和租户ID。 在左侧导航树选择“证书和密码”,选择“客户端密码”页签,单击“新客户端密码”,创建一个新的密码。新创建的密码只能在创建时立即查看,请务必复制并备份。 父主题: 资源采集
行后续迁移步骤。 否,则跳过该步骤。 迁移步骤中的“增量同步”为可重复步骤,在进行业务验证前,可以重复执行。 当迁移步骤(进度条)到达“业务割接”时,代表迁移完成。请前往目的端进行业务验证,验证无误后,手动将业务切换到目的端。切换完成后单击“确认”系统将自动进行后续“源端专项清理”和“迁移任务清理”操作。
单击“开始执行”,系统会自动采集当前账号下所选区域主机信息,并自动创建应用将主机加入到该应用内,开始迁移评估。 评估执行完成后,单击“关闭”按钮,进行工作流配置。 根据表1参数说明,配置工作流参数。 表1 参数说明 区域 参数 说明 工作流详情 名称 用户自定义 描述 用户自定义
安全集群下,与MRS ClickHouse 服务器通信的HTTPS 端口。 可以登录目的端集群的FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 配置 > 全部配置”,搜索“https_port”参数获取。 创建阿里云云数据库 Click
行后续迁移步骤。 否,则跳过该步骤。 迁移步骤中的“增量同步”为可重复步骤,在进行业务验证前,可以重复执行。 当迁移步骤(进度条)到达“业务割接”时,代表迁移完成。请前往目的端进行业务验证,验证无误后,手动将业务切换到目的端。切换完成后单击“确认”系统将自动进行后续“源端专项清理”和“迁移任务清理”操作。
txt文件中。 打开生成的URL列表文件(在本文示例中为test2.txt),您将看到每个文件的共享下载链接。通过浏览器尝试访问这些链接,以验证生成的URL是否有效。 如果链接无法访问,请检查文件的访问权限是否设置为可读,并重新生成链接。 根据MgC的要求,编辑URL列表文件内容,
如果开启了用户认证,请在ip:port前加上用户名@。例如:http://user@ip1:port1,http://ip2:port2 如果开启了https认证,将“http://”改成“https://”。 父主题: 采集器参数配置说明
行后续迁移步骤。 否,则跳过该步骤。 迁移步骤中的“增量同步”为可重复步骤,在进行业务验证前,可以重复执行。 当迁移步骤(进度条)到达“业务割接”时,代表迁移完成。请前往目的端进行业务验证,验证无误后,手动将业务切换到目的端。切换完成后单击“确认”系统将自动进行后续“源端专项清理”和“迁移任务清理”操作。
1.1,主机名是source-node-01,则添加: 192.168.1.1 source-node-01 完成所有映射的添加后,保存并关闭/etc/hosts文件。 为了确保配置正确,可以通过ping命令测试主机名解析是否成功。例如: ping source-node-01 操作步骤
ecs:servers:list(查询云服务器列表) ecs:cloudServers:list(查询云服务器详情列表) ecs:servers:stop(关闭云服务器) ecs:cloudServers:listServerInterfaces(查询云服务器网卡信息) ecs:cloudServ
非安全集群下,与源端ClickHouse 服务器通信的 HTTP 端口。默认为8123。 HTTP SSL/TLS端口 安全集群下,与源端ClickHouse 服务器通信的HTTPS 端口。 表4 Hive Metastore连接参数配置说明 参数 配置说明 所属源 选择源端。 连接名称 默认创建名称为“Hive-M
影响大对象迁移速度的关键因素有哪些? 影响小对象迁移速度的关键因素有哪些? 如何监控和查看影响迁移速度的关键指标? 为什么存储迁移工作流进度长时间没有变化? 将HTTP/HTTPS数据源迁移到OBS时,如果存在URL不同但对象名称相同的情况,会如何处理? OBS迁移到NAS,如果源端存在同名但大小写不同的对象,会如何处理?
Yarn:适用于大型分布式环境,可以充分利用集群资源,提高任务的并行度和效率。 Local:适用于小规模数据集或开发测试环境,可以快速进行调试和验证。 参数 根据所选的运行模式和实际需求,添加命令行参数。 命令参数(Delta Lake和Hudi配置参数) spark-sql命令 Spark