检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
catalogImplementation=hive 如果源端是阿里云 EMR Delta 2.2版本并且是通过Delta 2.3版本依赖访问时,请添加如下参数: 参数名:master 参数值:local 如果源端是阿里云 EMR Delta 2.1.0版本并且配置了Spark 2.4.8来处理Delta Lake数据,请添加如下参数:
迁移中心(MgC)采集数据的方式主要包括以下两种: 利用MgC Agent远程在线采集 通过调用API在线采集云平台资源 利用MgC Agent远程在线采集 适用于公有云、私有云(如VMware、Hyper-V等虚拟化环境)以及数据中心(IDC)部署,或者以上部署方式的混合场景。迁移中心 MgC利用部署在源端网络中的MgC
x与Hive 3.x版本间数据校验时,由于Hive 2.x版本在查询固定长度字符串类型char(N)数据时,如果实际数据长度不满足N长度,Hive会以空格补齐至N长度。而Hive 3.x版本在查询时不会进行这种补齐操作。这可能导致在不同版本间比较结果时出现差异。为了避免因版本差异导致的数
x与Hive 3.x版本间数据校验时,由于Hive 2.x版本在查询固定长度字符串类型char(N)数据时,如果实际数据长度不满足N长度,Hive会以空格补齐至N长度。而Hive 3.x版本在查询时不会进行这种补齐操作。这可能导致在不同版本间比较结果时出现差异。为了避免因版本差异导致的数
出现该问题是因为,在VMware创建主机的时候,实际使用的镜像版本与预选的镜像版本不一致(如选择的是CentOS6,但实际使用的是CentOS7),虽然在VMware上可以正常运行,但在迁移过程中,这种版本差异可能会导致兼容性问题,从而引发错误。建议您在安装VMware时使用与预选的镜像版本一致的镜像。 父主题: 主机迁移工作流
0 或更高版本。 Microsoft .NET Framework 2.0 或更高版本。 Windows 远程管理 2.0版本。 在 PowerShell 3.0及更高版本上运行的功能(如会话断开和重连),仅在两台计算机都使用 PowerShell 3.0 或以上版本时可用。 使用以下命令可以检查
如迁移工具状态为“在线”、“已启用”,代表该工具已被用于对数相关操作,单击“确定”按钮,继续使用该工具进行后续操作。 如迁移工具状态为“在线”、“未启用”,代表该工具尚未被用于对数,单击“启用”按钮,启用该工具进行后续操作。 如迁移工具状态为“离线”、“已删除”,代表该工具已被删
手动添加资源 目前支持手动添加的资源类型包括:主机、Oracle数据库。通过在源端环境中安装Edge工具进行资源采集。 准备工作 在MgC控制台创建项目。 在源端内网环境安装Edge工具,并与迁移中心连接。 在Edge上添加源端资源凭证。 添加主机 登录迁移中心管理控制台。 单击左侧
问题描述 在使用sudo用户进行主机迁移时,主机迁移工作流在“校验源端环境”步骤中提示失败。 问题分析 主机迁移工作流在执行环境检测时,会上传一个检测脚本到源端主机,该脚本只有读取和执行权限。如果源端主机已存在该脚本,而sudo用户没有足够的权限去修改或删除旧脚本,这将导致新脚本无法上传,从而使校验步骤失败。
证的获取以及添加方法请参考添加资源凭证中的大数据-Hive Metastore。 Hive版本 选择源端Hive的实际版本。 注意: 如果源端Hive为2.1.1版本,此处需要选择1.x版本。 MetaStore节点IP 填写连接MetaStore的IP地址。 MetaStore
手动添加资源 支持在应用内手动添加主机和Oracle数据库两种资源类型。通过在源端环境中安装Edge工具进行资源采集。 准备工作 在MgC控制台创建项目。 在源端内网环境安装Edge工具,并与迁移中心连接。 在Edge上添加源端资源凭证。 已在应用管理页面创建应用。 添加主机 登录迁移中心管理控制台。
最少完成一次元数据全量迁移。 准备工作 开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。
最少完成一次元数据全量迁移。 准备工作 开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。
创建并运行元数据同步任务 利用元数据连接,创建元数据同步任务,将源端数据库的库、表、字段信息同步至迁移中心。 支持创建元数据同步任务的连接类型如下: Hive Metastore连接 Doris连接 HBase连接 ClickHouse连接 Hudi(有元数据)连接 Hudi(无元数据)连接
证的获取以及添加方法请参考添加资源凭证中的大数据-Hive Metastore。 Hive版本 选择源端Hive的实际版本。 注意: 如果源端Hive为2.1.1版本,此处需要选择1.x版本。 MetaStore节点IP 填写连接MetaStore的IP地址。 MetaStore
单,选择“UTF-8”,然后保存即可。 方法二(适用于Windows操作系统) 使用Notepad++工具转换CSV文件编码为UTF-8。确保您已经安装了Notepad++工具。如果尚未安装,请从官方网站下载并安装。 打开Notepad++,将csv文件拖进Notepad++窗口中,使用快捷键“Ctrl
首次使用大数据数据迁移功能时,需要先启用迁移工具Edge。单击页面左上角的“修改”或单击“选择迁移工具”按钮,弹出选择迁移工具窗口。在下拉列表中,选择在完成准备工作时与迁移中心连接成功的Edge。 在进行大数据数据迁移时,请确保迁移工具Edge一直处于在线并启用状态。 启用迁移工具Edge后,单击页面右
Kafka:需要具备访问所有topic的权限以及对topic的容量等信息进行访问的权限。 采集原理:利用Java语言编写的应用程序,集成对应中间件的SDK(Software Development Kit,软件开发工具包)。通过SDK提供的方法和API,与中间件进行交互,实现数据的采集。 容器采集
导出作业,弹出的导出作业窗口。 导出方式选择“导出到OBS”,选择作业保存目录。 “导出范围”和“导出状态”根据实际需求选择。 若待导出的作业未提交过任何版本,“导出状态”建议选择“开发态”,如果选择了“提交态”导出时会跳过该作业。 单击“确定”,导出完成后,前往步骤6.选择的OBS目录获取导出结果。
导出作业,弹出的导出作业窗口。 导出方式选择“导出到OBS”,选择作业保存目录。 “导出范围”和“导出状态”根据实际需求选择。 若待导出的作业未提交过任何版本,“导出状态”建议选择“开发态”,如果选择了“提交态”导出时会跳过该作业。 单击“确定”,导出完成后,前往步骤6.选择的OBS目录获取导出结果。