检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
进入集群HBase客户端的lib目录,执行如下命令,复制新包并存放到指定目录。请根据实际情况替换xxxx@xxx.xx.xx.xx为MgC Agent所在主机的用户名和IP地址。 scp hadoop-c* hadoop-m* hadoop-y* zookeeper-* hbase-* opentracing-*
check capacity: capacity is not enough. 用户ecs配额不足 申请扩大容量,增加配额。更多信息查询:弹性云服务器 ECS错误码 Vpc.0702 query privateIps error. 参数错误 请根据实际返回的Error Message检查传入的参数值是否合法。更多信息查询:
大数据迁移概述 迁移场景 将阿里云 MaxCompute数据迁移至华为云数据湖探索(DLI)。 数据迁移原理图 图1 大数据数据迁移原理图 迁移操作流程 图2 大数据数据迁移流程图 父主题: 大数据数据迁移(MaxCompute迁移到DLI)
在功能入口区域,单击“表管理”,进入表管理页面的表组页签。 单击“新增表组”,弹出新增表组窗口。 根据表1,配置参数。 表1 新增表组参数说明 参数 说明 表组名 用户自定义 元数据连接 根据实际需求,选择创建的源端连接。 注意: 表组中的所有表必须来源于同一个元数据来源。 校验标准 选择可以接受的数据差
创建目的端连接 创建目的端连接是为了将源端数据写入到华为云DLI。 使用须知 元数据迁移:只需要配置一条连接到DLI SQL队列的连接。 数据迁移:需要配置两条连接,分别为连接到DLI SQL队列的连接和连接到DLI通用队列的连接。 前提条件 已完成准备工作。 操作步骤 登录迁移
导入文件的大小超出限制。 请导入10MB以内的文件。 文件名无效。 请按规则输入文件名。 文件格式无效。 请导入正确的文件格式。 新增数据源失败,导入文件不存在。 请检查导入文件是否成功,或尝试再次导入。 采集阿里云RM资源信息失败。 请参考阿里云资源管理产品文档进行API Searc
端所在地域为“香港”,则填写“http://service.cn-hongkong.maxcompute.aliyun-inc.com/api” spark.hadoop.odps.tunnel.end.point:填写源端MaxCompute服务所在地域的VPC网络Tunnel
查看并导出执行结果 每运行一次迁移任务,即会生成一条任务实例。在任务实例的进度详情页面,可以查看并导出任务的执行结果。 导出的结果文件可以在生成的15天内下载,15天后自动删除。 前提条件 已创建迁移任务并运行。 操作步骤 在任务进度列表,单击进度统计列的“查看”,进入进度详情页面。
提示“请检查当前用户是否具有IAM权限”,如何处理? 问题描述 使用TCO对比功能或评估推荐功能时,提示“请检查当前用户是否具有IAM权限”。 问题分析 出现该提示可能是因为登录账号未授予“IAM ReadOnly”权限。 解决方法 为您的账号授予“IAM ReadOnly”权限
关联到应用(可选) 应用是资源分组的概念,将资源关联到应用,后续的评估推荐和迁移工作流都将以应用作为整体进行(可以自由添加和删除资源到应用中)。 已提前创建应用,在“应用”的下拉列表中选择要关联的应用。 未提前创建应用,单击“新建应用”,弹出新建应用窗口,输入自定义的应用名称和描
22端口,也可以单独指定。 采集原理:通过枚举网段下所有IP地址,得到扫描范围,然后依次循环使用TCP连接到对应IP的远程连接端口。如果3389存在监听则判定该IP操作系统为Windows,如果22端口存在监听则判定该IP操作系统为Linux。 性能采集 权限要求: Window
"Starting update for $user@$ip:$port" # Create temporary script and SSH_ASKPASS script tmp_script=$(mktemp) askpass_script=$(mktemp) cat <<EOF
迁移准备度检查失败,失败原因:用户名和密码错误 问题描述 对主机进行迁移准备度检查时,检查失败,提示:用户名和密码错误。 问题分析 出现该问题的原因可能是您所选凭证的用户名和密码与源端主机不匹配。 解决方法 核对凭证信息。 请仔细检查凭证中的用户名和密码是否输入正确,包括大小写和特殊字符。
)集群的凭证。凭证的添加方法请参考添加资源凭证中的大数据-ClickHouse。认证方式选择“用户名/密码”,填写在CloudTable服务创建的目的端ClickHouse集群的登录用户名和密码。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址
)集群的凭证。凭证的添加方法请参考添加资源凭证中的大数据-ClickHouse。认证方式选择“用户名/密码”,填写在CloudTable服务创建的目的端ClickHouse集群的登录用户名和密码。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址
rollback for $user@$ip:$port" # Create temporary script and SSH_ASKPASS script tmp_script=$(mktemp) askpass_script=$(mktemp) cat <<EOF
元数据增量感知 识别出上一次迁移后,在源端数据库中发生变化的元数据,并同步至目的端华为云数据湖探索(DLI)。 前提条件 已创建源端连接。 已创建目的端连接。 最少完成一次元数据全量迁移。 准备工作 开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark
Agent通过凭证登录容器集群:MgC Agent使用用户提供的凭证登录至目标容器集群中。 K8s接口采集信息:MgC Agent通过Kubernetes(K8s)API接口与容器集群交互,采集容器集群的详细信息,包括容器的详细规格、节点配置、持久卷配置以及网络策略等。 信息上报给迁移中心:MgC
le\app-discovery-rabbitmq-xxx.csv。 password 是 填写登录用户名对应的密码。 username 是 填写RabbitMQ管理插件登录用户名。 server_port 是 填写RabbitMQ服务端口。例如:5672 plugin_port
参数配置说明 参数 配置说明 VPC 选择创建集群时所选择的VPC。 读写权限 选择“读写”。 用户权限 在下拉列表中选择“root用户不匿名(no_root_squash)”。 授权地址条目 选择“所有IP地址”。 父主题: SFS1.0迁移至SFS 3.0