检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
支持规格评估的数据库类型 目前支持规格评估的数据库类型包括:MySQL、PostgreSQL、MongoDB、Oracle和SQL Server。 父主题: 规格评估
如果是公网迁移,需要填写以下4个参数: spark.dli.metaAccess.enable:填写true。 spark.dli.job.agency.name:填写在完成准备工作时配置的DLI委托权限名称。
如果是公网迁移,需要填写以下4个参数: spark.dli.metaAccess.enable:填写true。 spark.dli.job.agency.name:填写在完成准备工作时配置的DLI委托权限名称。
如果是公网迁移,需要填写以下4个参数: spark.dli.metaAccess.enable:填写true。 spark.dli.job.agency.name:填写在完成准备工作时配置的DLI委托权限名称。
如果是公网迁移,需要填写以下4个参数: spark.dli.metaAccess.enable:填写true。 spark.dli.job.agency.name:填写在完成准备工作时配置的DLI委托权限名称。
主机迁移权限配置 概述 创建一个新的用户组migration_users,赋予MgC和SMS所需要的最小权限,后续使用的AK/SK权限以此为准。 用户通过属于admin组的用户,创建属于migration_users组的、仅支持编程访问的用户mgc-user(同时勾选访问密钥,在创建用户后下载访问密钥
挂载信息示例: [root@oms-cluster-ecs filter_test]# pwd /mnt/sts_turbo/mgc/filter_test [root@oms-cluster-ecs- filter_test]# ll drwxr-xr-x 2 root root
挂载信息示例: [root@oms-cluster-ecs filter_test]# pwd /mnt/sts_turbo/mgc/filter_test [root@oms-cluster-ecs- filter_test]# ll drwxr-xr-x 2 root root
该账号的AK/SK需要拥有“只读访问云服务器ECS的权限(AliyunECSReadOnlyAccess)”。 是 区域 选择源端主机所在区域,支持多选。 是 资源发现 云平台采集 开启云平台采集,并在资源类型下拉列表,勾选“主机”资源。
准备工作 配置PowerShell执行策略 检查执行策略,确保PowerShell允许运行脚本。打开PowerShell,输入以下命令检查当前执行策略: Get-ExecutionPolicy 以下是不同的返回结果说明: Restricted:不允许执行任何脚本。 AllSigned
挂载信息示例: [root@oms-cluster-ecs filter_test]# pwd /mnt/sts_turbo/mgc/filter_test [root@oms-cluster-ecs- filter_test]# ll drwxr-xr-x 2 root root
主机迁移运行到“启动迁移Agent”步骤时报错:System.OutOfMemoryException 问题描述 主机迁移工作流进行“启动迁移Agent”步骤时失败,报错信息为:System.OutOfMemoryException 问题分析 MgC Agent(原Edge)使用WinRM
迁移准备度检查失败,失败原因:下发命令到Edge失败 问题描述 对Windows主机进行迁移准备度检查时,检查失败,提示:下发命令到Edge失败。 问题分析 可能导致该问题的原因如下: 配置参数中的接入IP填写错误。 源端主机处于关机状态。 源端主机的IP或端口异常。 您可以通过查看
迁移准备度检查失败,失败原因:主机IP或端口不可达 问题描述 对Linux主机进行迁移准备度检查时,检查失败,提示:主机IP或端口不可达。 问题分析 可能导致该问题的原因如下: 源端主机处于关机状态。 源端主机的IP或端口异常。 源端主机有防火墙、杀毒软件等安全拦截。 您可以通过查看
如何获取Linux版本的MgC Agent(原Edge)各种运行日志? 查看MgC Agent各种日志文件 执行如下命令,进入MgC Agent安装目录中的日志目录。该目录包含了MgC Agent运行时产生的各种日志文件。 cd /opt/cloud/Edge/logs/edge-server
准备工作 CSV文件准备 创建一个包含源端主机信息的CSV文件,确保文件能被访问,并且格式符合要求。格式如下: username,ip,port,password username:该字段表示登录源端主机时所使用的用户名。为了确保脚本具有足够的权限执行修改操作,通常应使用具有管理员权限的用户名
--master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
--master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
数据迁移失败,提示超过DLI网管流控上限 问题描述 进行大数据数据迁移失败,在数据湖探索的Spark作业查看报错信息为:The throttling thershold has been reached 问题分析 出现该问题,是因为您创建的资源数量已达到DLI服务流控限制阈值。 解决方法
执行脚本后报错:连接到远程服务器失败,且登录凭证信息正确 问题现象 执行脚本后报错,错误信息为“[ERROR] Failed to update hosts on xxx.xxx.x.xx: [xxx.xxx.x.xx] 连接到远程服务器 xxx.xxx.x.xx 失败有关详细信息