检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
zookeeper.quorum Hive连接的ZooKeeper所在节点IP地址。 hive.zookeeper.client.port Hive连接的ZooKeeper客户端端口。 hive.zookeeper.session.timeout Hive连接ZooKeeper会话超时时间。 hive
设置IoTDBServer所在的节点IP、端口、用户名和密码。 在FusionInsight Manager界面,选择“集群 > 服务 > IoTDB > 实例”,查看待连接的IoTDBServer所在的节点的业务IP。 RPC端口可通过登录FusionInsight Manager,选择“集群
指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明: 如果涉及到的PORT值和配置的mapreduce.shuffle.port值不一样时,mapreduce.shuffle.port将不会生效。 - 父主题:
-p数据库登录用户密码 -P数据库连接端口 -hDoris FE实例IP地址 数据库连接端口为Doris FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。 Doris FE实例I
onnector的驱动连接数据源,读取数据源元数据和对数据进行增删改查等操作。 Catalog:HetuEngine中一个catalog配置文件对应一个数据源,一个数据源可以有多个不同catalog配置,可以通过数据源的properties文件进行配置。 Schema:对应数据库的Schema名称。
该参数,sqoop将把数据先导入到一个临时目录中,然后重新给文件命名到一个正式的目录中,以避免和该目录中已存在的文件重名。 -as-avrodatafile 将数据导入到一个Avro数据文件中。 -as-sequencefile 将数据导入到一个sequence文件中。 -as-textfile
指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明: 如果涉及到的PORT值和配置的mapreduce.shuffle.port值不一样时,mapreduce.shuffle.port将不会生效。 - 父主题:
rumpeer实例业务IP:ZooKeeper客户端端口号,ZooKeeper的quorumpeer实例业务IP:ZooKeeper客户端端口号,ZooKeeper的quorumpeer实例业务IP:ZooKeeper客户端端口号 192.168.10.10:24002,192.168
onnector的驱动连接数据源,读取数据源元数据和对数据进行增删改查等操作。 Catalog:HetuEngine中一个catalog配置文件对应一个数据源,一个数据源可以有多个不同catalog配置,可以通过数据源的properties文件进行配置。 Schema:对应数据库的Schema名称。
参数说明 url jdbc:XXX://HSFabric1_IP:HSFabric1_Port,HSFabric2_IP:HSFabric2_Port,HSFabric3_IP:HSFabric3_Port/catalog/schema?serviceDiscoveryMode=hsfabric
2024/11/22 10:29:11 任务第一次启动的时间。 周期 1天 任务下次启动,与上一次运行的时间间隔,支持按“小时”或按“天”。 备份策略 每次都全量备份 选择数据周期备份策略。 首次全量备份,后续增量备份 每次都全量备份 每n次进行一次全量备份 说明: 备份组件元数据时不支持增量备份,仅支持“每次都全量备份”。
Spark REST API接口介绍 功能简介 Spark的REST API以JSON格式展现Web UI的一些指标,提供用户一种更简单的方法去创建新的展示和监控的工具,并且支持查询正在运行的app和已经结束的app的相关信息。开源的Spark REST接口支持对Jobs、Sta
复数据。 只支持进行数据备份时的系统版本与当前系统版本一致时的数据恢复。 当业务正常时需要恢复数据,建议手动备份最新管理数据后,再执行恢复数据操作。否则会丢失从备份时刻到恢复时刻之间的IoTDB数据。 建议一个恢复任务只恢复一个组件的元数据,避免因停止某个服务或实例影响其他组件的
双击对应的Source、Channel以及Sink,根据实际环境并参考表1设置对应的配置参数。 如果对应的Flume角色之前已经配置过客户端参数,为保证与之前的配置保持一致,可以到“客户端安装目录/fusioninsight-flume-1.9.0/conf/properties.properties”获取已
云服务器可以访问集群,若集群为安全集群则需要同时将UDP的21731、21732端口和TCP的21730、21731、21732及Hive的HiveServer实例端口和ZooKeeper服务的端口添加在安全组的入方向规则中。请参见“虚拟私有云 > 用户指南 > 安全性 > 安全组
2 。($pid与$IP为上一步获取的pid值与IP值) 获取端口号port成功。 是,执行8。 否,执行15。 获取连接进程的进程号。依次登录到各IP,根据获取到的port号,执行命令lsof -i|grep $port。($port为上一步获取端口号) 获取进程号成功。 是,执行10。
安全模式:true 普通模式:false spark.network.sasl.serverAlwaysEncrypt 是否为已经启用SASL认证的端口禁止未加密连接。 false spark.network.crypto.keyLength 要生成的加密密钥的长度,支持设置为“192”或“256”。
在“入方向规则”页签,选择“添加规则”,在“添加入方向规则”窗口配置Windows的IP和21007、21730TCP、21731TCP/UDP、21732TCP/UDP端口。 图3 添加入方向规则 在Manager界面选择“集群 > 服务 > Kafka > 配置 > 全部配置”,搜索“kafka.config
管理安全组规则”。 图2 管理安全组规则 在“入方向规则”页签,选择“添加规则”,在“添加入方向规则”窗口配置Windows的IP和9092端口。 图3 添加入方向规则 。 在Manager界面选择“集群 > 服务 > Kafka > 配置 > 全部配置”,搜索“kafka.config
LoadBalance的HTTP、HTTPS端口。 登录FusionInsight Manager,选择“集群 > 服务 > ClickHouse > 逻辑集群”,查看对应逻辑集群的“HTTP Balancer端口号”中的“非加密端口”及“加密端口”。 loadBalancerHttpsPort