检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/IAM用户的访问密钥(AK/SK)。获取方法请参考准备工作。 阿里云访问密钥(AK/SK)准备 准备一组源端阿里云账号的Access Key(AK)和Secret Key(SK),获取方法请参考查看RAM用户的AccessKey信息。 确保该AK/SK具备以下最小权限要求: 拥
y。 获取华为云访问密钥(AK/SK) 添加华为云凭证时,需要填写源端资源所在华为云账号或IAM用户的访问密钥(AK/SK,Access Key ID/Secret Access Key)。获取方法请参考新增访问密钥。 获取AWS访问密钥(Access keys) 添加AWS凭证
此时会显示账户访问密钥,以及每个密钥的完整连接字符串。 选择“显示”,即可显示访问密钥和连接字符串,单击复制图标即可复制密钥和字符串。 可以使用这key1和key2两个密钥中的任何一个来访问 Azure 存储,但通常情况下,最好使用第一个密钥,并保留第二个密钥在轮换密钥时使用。 获取共享访问签名
支持的ssl参数信息登录,参数说明参见表2,格式为"参数名1,参数值1,参数名2,参数值2"。 例如:"ca,/data/ca.pem,key,/data/client-key.pem,cert,/data/client-cert.pem,check_hostname,True" ca 否 使用
机构颁发签署的服务器证书。 ssl_client_private_key_password 否 如果证书密钥文件中包含的私钥已加密,则需要填写密码或口令短语。 ssl_client_certificate_key_file 否 填写证书与其私钥的串联文件(.pem)路径。如果证书
DeltaLake(有元数据)迁移至MRS DeltaLake数据校验 本文主要介绍将自建DeltaLake环境上的数据迁移至华为云MRS DeltaLake之后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 DeltaLake存在元数据,可通过数据湖元数据同步方式进行数据采集。
DeltaLake(无元数据)迁移至MRS DeltaLake数据校验 本文主要介绍将自建DeltaLake环境上的数据迁移至华为云MRS DeltaLake之后,使用迁移中心 MgC进行数据一致性校验的步骤和方法。 DeltaLake不存在元数据,无法通过数据湖元数据同步方式进
、准确地完成AKS资源的数据采集工作。 采集原理 使用MgC采集Azure容器服务AKS资源的原理图,如图1所示。 图1 采集AKS资源原理图 调用SDK:通过Azure提供的SDK,MgC调用AKS API,获取容器、虚拟机等资源信息。 接口返回:MgC接收API调用的返回值,这些返回值通常包含丰富的资源数据。
例如,C:\Edge\tools\plugins\collectors\app-discovery-collectors\python\mgc-app-discovery-collectors\app-discovery-kafka\output\file\app-discovery-kafka-xxx.csv。
<安装路径>\Edge\tools\SecAs-1.2.29\webmanagementapps\edge-server-0.0.1\WEB-INF\classes\application.yml edge.mgc-host MgC服务地址 华南-广州: https://mgc.cn-south-1.myhuaweicloud
AK/SK验证失败,如何处理? 问题描述 安装Edge并注册成功后,连接迁移中心时,输入AK/SK查询项目,提示AK/SK错误。 问题分析 出现该问题可能的原因有: AK,SK输入错误。 AK,SK被删除或停用。 AK,SK所属账号没有开通编程访问方式。 处理方法 AK,SK输入错误
s\python\mgc-app-discovery-collectors\app-discovery-eureka\output\file\app-discovery-eureka-xxx.csv。 password 否 开启用户认证时,填写Eureka服务器访问密码,多个密码
USER(REQUIRED) PASSWORD(SENSITIVE) PRI_KEY_PATH(SENS_PATH) CLUSTER APPLICATION BUSINESS_DOMAIN PASSWORD(ENCRYPTED) PRI_KEY_PATH(ENCRYPTED) 注意: 填写的账号信息(
目前支持创建源端连接的大数据组件包括: Doris HBase ClickHouse Hive Metastore Delta Lake(有元数据) Delta Lake(无元数据) Hudi(有元数据) Hudi(无元数据) 操作步骤 登录迁移中心管理控制台。 在左侧导航栏选择“实施>大
创建并运行数据湖元数据同步任务 利用创建的Delta Lake元数据连接,将源端数据库的库、表、字段信息同步至迁移中心。仅Delta Lake(有元数据)支持创建数据湖元数据同步任务。 Delta Lake(无元数据)只能通过手动添加、导入模板等方式添加元数据库表信息,方法请参见查看元数据。
即可看到“存储账户名称”和“密钥”。 在“key1”下单击密钥后的“显示”按钮,即可显示访问密钥,并出现复制按钮。 分别复制“存储账户名称”和“密钥”,添加到Edge凭证管理中。添加方法请参考添加资源凭证。认证方式选择“AK/SK”。AK对应存储账户名称,SK对应密钥。 父主题: 资源采集
thon\mgc-app-discovery-collectors\app-discovery-nacos\output\file\app-discovery-nacos-xxx.csv rules_path 否 填写自定义采集规则文件(properties文件)所在路径。不填则
/bin/bash # Backup hosts file if [ ! -f /etc/hosts.bak ]; then cp /etc/hosts /etc/hosts.bak fi # Remove old Migration-proxy section sed -i
y-collectors\python\mgc-app-discovery-collectors\app-discovery-mysql-generallog\output\file\app-discovery-mysql-generallog-xxx.csv。 exclude_ip
/bin/bash # Backup hosts file if [ ! -f /etc/hosts.bak ]; then cp /etc/hosts /etc/hosts.bak fi # Remove old Migration-proxy section sed -i