检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户名/密码 输入大数据所部署主机的登录用户名、密码;网段限制填写网段地址,可以是单个IP地址或IP地址段。 例如: 单个IP地址:192.168.10.10/32 IP地址段:192.168.52.0/24 所有IP地址:0.0.0.0/0 大数据-Hive Metastore 用户名/密钥
Linux主机,可以直接使用vim创建和编辑脚本文件,步骤如下: 在Vim编辑器中按 i 进入插入模式。 复制并粘贴脚本代码,完成后按 Esc。 输入 :wq 保存并退出。 #!/bin/bash # Configuration # Log directory path: Used
填写RabbitMQ服务端口。例如:5672 plugin_port 是 填写RabbitMQ管理插件端口。例如:15672 host 是 填写连接RabbitMQ的IP地址。例如:127.0.0.1 父主题: 采集器参数配置说明
主机列表”,进入主机列表页面。 单击列表上方的“发现主机”按钮,弹出发现主机窗口。 图1 发现主机 发现方式选择VMware采集,在连接地址填写vCenter的IP地址。 图2 VMware采集 凭证方式选择“创建凭证”,在用户名和密码分别填写vCenter的登录用户名和密码。 参数配置完成后,单击“确认”,MgC
Agent所在主机开放白名单)。默认情况下Windows开放3389端口,Linux开放22端口,也可以单独指定。 采集原理:通过枚举网段下所有IP地址,得到扫描范围,然后依次循环使用TCP连接到对应IP的远程连接端口。如果3389存在监听则判定该IP操作系统为Windows,如果22端口
群的登录用户名和密码。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址。可以在ClickHouse集群的基本信息获取,对应参数为“集群访问地址”。 表3 CloudTable(HBase)服务参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称
群的登录用户名和密码。 数据库链接 填写连接到CloudTable(ClickHouse)的数据库链接地址。可以在ClickHouse集群的基本信息获取,对应参数为“集群访问地址”。 表3 CloudTable(HBase)服务参数配置说明 参数 配置说明 所属源 选择目的端。 连接名称
源端信息参数说明 参数 说明 备注 数据站点类型 选择“NAS_NFS_V3_PROTOCOL” - 文件存储服务地址 输入源端文件系统的挂载地址,格式为:IP地址+:/或IP地址+:/ xxx,例如:192.1.1.1:/或192.1.1.1:/0001 - 路径 输入待迁移文件路径,格式为:/文件夹
迁移大文件时,该指标比较重要,建议速率能达到2 Gbit/s至3 Gbit/s。 以上指标的查看方法如下: 在ECS管理控制台,单击集群对应ECS实例的名称,进入ECS详情页面。 选择“监控 > 基础监控”页签,查看CPU使用情况和网络流量的实时数据。 网络指标 网络包含的关键指标和说明参见下表。
Agent侧添加的源端MRS Doris凭证。 数据库地址 填写连接到源端Doris数据库的Doris FE实例IP地址。 Doris FE实例IP地址可通过登录MRS集群的Manager界面,单击“集群 > 服务 > Doris > 实例”,查看任一FE实例的IP地址。 数据库端口 填写连接到源端Doris数据库的连接端口。
auth 是 Redis认证方式。 0表示无认证 1表示密码认证 port 是 填写Redis端口。 host 是 填写Redis节点IP地址。 父主题: 采集器参数配置说明
1表示PLAINTEXT认证 2表示SASL_PLAINTEXT认证 3表示SASL_SSL认证 endpoint 是 填写Kafka连接地址。例如:127.0.0.1:9092 父主题: 采集器参数配置说明
tion.yml edge.mgc-host MgC服务地址 华南-广州: https://mgc.cn-south-1.myhuaweicloud.com edge.vars.sms-agent-url SMS服务桶地址 https://sms-resource-cn-cn-north-4
证的添加方法请参考添加资源凭证中的大数据-ClickHouse。 数据库链接 填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 参数配置完成后,单击“测试连接”,系统会校验配置信息并与云服务建立连接,测试通过代表与云服务连接成功。 测试连接通过后
开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤 登
资源类型 云服务 Action 最小权限策略 主机 EC2 ec2:DescribeInstances AmazonEC2ReadOnlyAccess ec2:DescribeAddresses ec2:DescribeImages ec2:DescribeVolumes cloudw
证的添加方法请参考添加资源凭证中的大数据-ClickHouse。 数据库链接 填写连接源端ClickHouse集群的外网地址。可以在集群信息页面,查看外网地址。 参数配置完成后,单击“测试连接”,系统会校验配置信息并与云服务建立连接,测试通过代表与云服务连接成功。 测试连接通过后
开通spark 3.3.1白名单 使用该功能前,请联系技术支持人员,将您添加到spark 3.3.1版本的白名单中。 配置DLI作业桶 需要购买一个OBS桶或并行文件系统并设置为DLI作业桶,该桶用于存储DLI作业运行过程中产生的临时数据。方法请参考配置DLI作业桶。 操作步骤 登录迁移中心控制台。
执行机IP 填写连接执行机的IP地址。 执行机连接端口 填写连接执行机的端口,默认为22端口。 安装目录 填写MRS客户端的安装目录路径。即安装客户端时,“./install.sh” 所填写的地址。 SQL文件地址 填写用于存放执行作业时生成的SQL文件的文件夹地址。您需要拥有该文件夹的读写权限。
勾选此选项,并配置安全认证命令。配置前,需要您手动将包含认证密钥的.keytab文件上传至执行机。 keytab文件地址:输入.keytab文件在执行机的存放地址。 keytab文件用户名:输入.keytab文件对应的用户名。 执行命令 可以通过设置Beeline或Spark-sql命令行参数,对数据进行处理。