检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
catalogImplementation=hive 如果源端是阿里云 EMR Delta 2.2版本并且是通过Delta 2.3版本依赖访问时,请添加如下参数: 参数名:master 参数值:local 如果源端是阿里云 EMR Delta 2.1.0版本并且配置了Spark 2.4.8来处理Delta Lake数据,请添加如下参数:
已在源端内网环境安装MgC Agent,并与迁移中心连接。 已在MgC Agent上添加源端主机凭证。为确保采集过程具备充分的系统访问权限,主机凭证要求如下: Linux主机,请添加Root账号和密码作为采集凭证。 Windows主机,请添加Administrator账号和密码作为采集凭证。 操作步骤 登
MemoryPerShellMB 1024 如果原本的配置参数值不小于1024 MB,请继续执行步骤2。 处理老旧系统版本的内存限制问题。 如果源端主机系统版本较旧(如Windows Server 2008或Windows Server 2012),WinRM服务可能不使用自定义
面,系统自动开始资源采集。 当任务状态为“成功”时,返回资源采集页面,查看发现的源端资源列表和资源详情。 当任务状态为“失败”时,单击任务名称,查看采集失败的数据源,将鼠标放到失败数据源的采集状态上,可以查看失败原因。 父主题: 阿里云主机迁移至华为云
“rda-collector-server.exe”的程序,查看其对应pid。 获取到pid后,以打开命令提示符(cmd),输入如下指令并回车: jinfo PID PID 为 之前获取到的Agent程序pid,在命令提示符返回的内容中,可查看生效的JVM参数。 图2 命令提示符 Linux系统 以下步骤以cent
当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置缩容,系统也会自动创建一个与源端磁盘容量相同的目的端磁盘。 单击“确认”。目的端绑定成功后,该主机资源绑定目的端列的状态会变为“已绑定”,单击“详情”可以查看绑定的目的端
当前仅支持Linux主机磁盘缩容,需确保缩容后容量大于源端实际使用量。 跨可用区迁移场景仅支持扩容,即使配置缩容,系统也会自动创建一个与源端磁盘容量相同的目的端磁盘。 单击“确认”。目的端绑定成功后,该主机资源绑定目的端列的状态会变为“已绑定”,单击“详情”可以查看绑定的目的端
在集群管理界面中,您可以添加/删除节点、流量控制规则等。 升级插件版本 当集群的插件版本有更新时,可以一键升级集群插件版本。在集群列表中,单击操作列的“更多 > 升级插件版本”,即可将集群插件升级为最新版本。 删除集群 当您完成数据迁移并且集群不再需要时,可以直接删除闲置的集群以释放资源。
接并选择凭证。凭证的获取以及添加方法请参考添加资源凭证中的大数据-Hive Metastore。 Hive版本 选择目的端Hive的实际版本。 注意: 目前只支持3.x版本。 MetaStore节点IP 填写连接MetaStore的IP地址。 MetaStore Thrift服务端口
上传成功后,单击“确认”按钮,进入任务中心页面,系统自动开始采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看导入结果。 如果任务状态为“失败”,单击任务名称,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。处理完失败原因后,重新导入文件进行采集。 父主题: 资源采集
上传成功后,单击“确认”按钮,进入任务中心页面,系统自动开始采集。 当任务状态为“成功”时,您可以前往应用管理页面,查看导入结果。 如果任务状态为“失败”,单击任务名称,可以查看采集失败的数据源,将鼠标放到数据源的采集状态上,可以查看失败原因。处理完失败原因后,重新导入文件进行采集。 父主题: 资源采集
在集群管理界面中,您可以添加/删除节点、流量控制规则等。 升级插件版本 当集群的插件版本有更新时,可以一键升级集群插件版本。在集群列表中,单击操作列的“更多 > 升级插件版本”,即可将集群插件升级为最新版本。 删除集群 当您完成数据迁移并且集群不再需要时,可以直接删除闲置的集群以释放资源。
general_log_file="D:\mysqllog\mysql_general.log" 其中general_log_file代表日志文件路径。Linux路径示例:/data/log/mysql_general.log 重启MySQL服务。 net stop mysql net start
接并选择凭证。凭证的获取以及添加方法请参考添加资源凭证中的大数据-Hive Metastore。 Hive版本 选择目的端Hive的实际版本。 注意: 目前只支持3.x版本。 MetaStore节点IP 填写连接MetaStore的IP地址。 MetaStore Thrift服务端口
tomcat9.exe 的程序,查看其对应pid。 图7 任务管理器 若是由启动脚本启动的MgC Agent,则寻找 java.exe 的程序,查看其对应pid。若有多个 java.exe 的程序的情况,解决方法如下: 多个 java.exe 的程序,在查询了某个java程序JVM信息后,可通过命令提示符返回的内容中
x与Hive 3.x版本间数据校验时,由于Hive 2.x版本在查询固定长度字符串类型char(N)数据时,如果实际数据长度不满足N长度,Hive会以空格补齐至N长度。而Hive 3.x版本在查询时不会进行这种补齐操作。这可能导致在不同版本间比较结果时出现差异。为了避免因版本差异导致的数
重要性:影响数据传输速度和迁移时间。 推荐值与预估时长:详情请参见迁移需要多长时间? CPU和内存要求 内存:至少预留520 MB。 CPU:Linux系统预留不少于0.3核,Windows系统不低于1核。 系统兼容性列表 支持迁移的操作系统列表,请参见兼容性列表。 主机迁移重要声明 了
界面和日志文件查看和了解操作行为,并进行错误排查和资源定位。 功能介绍 日志记录:系统会生成详细的操作日志,日志文件存储于:{MgC Agent安装路径}/logs/audit/audit.log 。 事件记录界面:MgC Agent控制台提供事件记录页面,可以查看事件来源、资源
x与Hive 3.x版本间数据校验时,由于Hive 2.x版本在查询固定长度字符串类型char(N)数据时,如果实际数据长度不满足N长度,Hive会以空格补齐至N长度。而Hive 3.x版本在查询时不会进行这种补齐操作。这可能导致在不同版本间比较结果时出现差异。为了避免因版本差异导致的数
集。 在任务列表页面,单击采集任务操作列的“查看”,进入任务详情页面。 单击采集项操作列的“新增数据源”,弹出新增数据源窗口。 选择区域和资源类型,单击“确认”按钮。新增数据源成功,系统开始对新增的数据源进行采集。 单击采集项,可以查看数据源的采集状态。 父主题: 资源采集