检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
部分表迁移失败,报错:CRC Check failed 问题描述 进行大数据数据迁移时,部分表迁移失败,报错:CRC Check failed 解决方法 通过修改DLI作业中迁移sql,将源端timestamp字段类型转成String类型,进行数据迁移。 父主题: 大数据数据迁移
csv。 ssl_ca_file 否 使用SSL连接,填写CA证书文件(.pem)路径。建议使用一组特定的CA证书,而不是由知名机构颁发签署的服务器证书。 ssl_client_private_key_password 否 如果证书密钥文件中包含的私钥已加密,则需要填写密码或口令短语。
可以在主机的基本信息页面,通过主机规格名称来判断是否为XEN规格。当前XEN规格名称包括:C1、C2、S1、M1、E1、E2、Et2、D1、H1、G1、G2型弹性云服务器。 图1 查看主机规格 安装驱动 源端为Linux主机,请参考以下任一方案安装驱动。 XEN实例变更为KVM实例(Linux-自动配置)中的步骤1~步骤2
执行如下命令,启动Edge安装脚本。 ./install.sh 输入Linux本机网卡的IP地址作为后续访问Edge页面的地址。如果输入的地址不在本机拥有的IP列表中,会提示是否开放本机所拥有的任何公网IP作为访问地址。 当出现如下图所示提示时,表示Linux版的Edge已安装完成。其中提示的端
登录目的端主机,鼠标右键单击开始菜单。 单击“运行”,输入cmd,进入命令行提示符界面。 执行diskpart,启动磁盘管理工具。 执行list disk,列出当前服务器所有磁盘。 如下图所示,磁盘0处于“联机”状态,磁盘1处于“脱机”状态。 执行select disk 1选择脱机状态的磁盘(根据实际情况,选择对应的脱机磁盘)。
在Edge侧添加的源端Delta Lake执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 Spark客户端目录 填写Spark客户端的bin目录的绝对路径 环境变量地址 请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env,
优先级设置 性能优先 推荐的目的端规格要求性能最佳。 价格优先 推荐的目的端规格在满足要求的前提下尽量节约成本。 偏好设置 可以设置“虚拟机类型”、“虚拟机规格族”、“系统盘规格”、“数据盘规格”,推荐目的端时优先推荐满足以上要求的主机。 配置完成后,单击“确认”,创建评估成功。 在迁
端口)是否可以访问。命令格式分别为:ping {源端主机IP地址}、telnet {源端主机IP地址} {端口}。 如果IP或端口不通,请检查源端主机安全组入方向规则中,协议端口号为TCP:22和ICMP:全部的源地址是否配置为安装Edge主机的公网IP。确认安全组规则配置无误后,重新进行深度采集。
用户名/密码 输入大数据所部署主机的登录用户名、密码;网段限制填写网段地址,可以是单个IP地址或IP地址段。 例如: 单个IP地址:192.168.10.10/32 IP地址段:192.168.52.0/24 所有IP地址:0.0.0.0/0 大数据-Hive Metastore 用户名/密钥
pp-discovery-mysql-generallog-xxx.csv。 exclude_ip 否 填写不需要采集的客户端IP地址,多个IP地址之间用逗号分隔。例如:127.0.0.1,192.168.1.1 import 是 填写general-log日志所在路径,例如:C:\data\logs
在Edge侧添加的源端Delta Lake执行机凭证。 执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 Spark客户端目录 填写Spark客户端的bin目录的绝对路径 环境变量地址 请添加环境变量文件的绝对路径,示例:/opt/bigdata/client/bigdata_env,
选择步骤4.在Edge添加的源端阿里云 ClickHouse凭证。 数据库链接 填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 在元数据采集区域,单击“创建任务 > 元数据同步”按钮,右侧弹出创建任务-元数据同步窗口。 根据元数据同步任务参数配置
执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录 填写MRS客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。
计费说明 在创建迁移集群时,会产生以下费用: 创建Master节点、迁移节点和列举节点会产生ECS服务费用。具体计费详情请参见ECS按需计费说明或ECS价格计算器。 如果您使用公网迁移时,会产生NAT网关服务费用。计费详情请参见NAT网关计费说明或NAT价格计算器。 启用LTS服
当配置通用队列连接时,填写通用队列名称。 创建目的端连接完成后,在连接管理页面,可以查看已创建的连接列表。如有需要,可以单击列表操作列的“修改链接”对连接配置进行修改。 父主题: 大数据数据迁移
创建N个Delta元数据连接,除了执行机IP和端口不同以外,其余参数配置需要与步骤1.中的第一个元数据连接保持一致。 “N”需要根据您现有的ECS资源和表的数量来确定。在ECS资源充足且表数量非常多的情况下,增加元数据连接的数量可以提高数据校验的效率。 为避免数据重复,除了步骤1.创建的第一个元数
Linux开放22端口。 如果源端是Windows主机,需要开启WinRM远程访问,并与安装Edge的主机建立连接,方法请参考Windows服务器WinRM服务配置与故障排查。 完成用户注册后,建议每3-6个月更换一次密码。 操作步骤 使用在源端内网环境准备好的Windows主机,登录迁移中心管理控制台。
Linux开放22端口。 如果源端是Windows主机,需要开启WinRM远程访问,并与安装Edge的主机建立连接,方法请参考Windows服务器WinRM服务配置与故障排查。 完成用户注册后,建议每3-6个月更换一次密码。 操作步骤 使用在源端内网环境准备好的Windows主机,登录迁移中心管理控制台。
设置大表条件,当符合大表的条件时,将自动按分区拆分迁移子任务。建议保持默认,也可根据实际需求修改。 小表规则 设置小表条件,当符合小表的条件时,自动将多个小表合并到一个迁移子任务中,提高迁移效率。建议保持默认,也可根据实际需求修改。 并发连接数 设置迁移并发数。默认为3,1≤取值范围≤10。 单文件SQL数
) Windows进程与网络采集器(app-discovery-process-netstat-win) RabbitMQ采集器(app-discovery-rabbitmq) Kafka采集器(app-discovery-kafka) Eureka采集器(app-discovery-eureka)