检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
其中在Session对象的参数里,设置IoTDBServer所在的节点IP、端口、用户名和密码。 待连接的IoTDBServer所在的节点IP地址,可通过登录FusionInsight Manager界面,选择“集群 > 服务 > IoTDB > 实例”查看。 RPC端口可通过登录FusionInsight Manager,选择“集群
所有BlockManager监测的端口。这些同时存在于Driver和Executor上。 随机端口范围 spark.driver.port Driver监测的端口,用于Driver与Executor进行通信。 随机端口范围 随机端口范围 所有随机端口必须在一定端口范围内。 表22 参数说明 参数 描述
在管理控制台上获取到账号ID。账号ID获取步骤如下: 登录管理控制台。 单击用户名,在下拉列表中单击“我的凭证”。 在“API凭证”页面中查看账号ID。 图1 获取账号ID 父主题: 附录
MRS集群创建成功后,登录集群Manager页面或者修改用户密码失败。 原因分析 登录到集群的Kerberos服务节点,查看“/var/log/Bigdata/kerberos/krb5kdc.log”。 登录到主、备OMS节点,查看“/var/log/Bigdata/okerberos/oms-krb5kdc.log”。
WebUI界面 用户可以通过Impala的WebUI,在图形化界面查看Impala作业的相关信息。Impala的WebUI根据实例不同分为如下三种: StateStore WebUI:用于管理节点。 Catalog WebUI:用于查看元数据。 前提条件 已安装Impala服务的集群。 访问StateStore
服务 > ZooKeeper > 实例”,查看ZooKeeper角色实例的IP地址。 --partitions主题分区数和--replication-factor主题备份个数不能大于Kafka角色实例数量。 ZooKeeper侦听客户端连接的端口获取方式:登录FusionInsight
设置IoTDBServer所在的节点IP、端口、用户名和密码。 待连接的IoTDBServer所在的节点IP地址,可通过登录FusionInsight Manager界面,选择“集群 > 服务 > IoTDB > 实例”查看。 RPC端口可通过登录FusionInsight Manager,选择“集群
参数说明 url jdbc:XXX://HSFabric1_IP:HSFabric1_Port,HSFabric2_IP:HSFabric2_Port,HSFabric3_IP:HSFabric3_Port/catalog/schema?serviceDiscoveryMode=hsfabric
ZooKeeper集群信息,格式为IP:port。 {partitionNum} topic的分区数。 {replicationNum} topic中每个partition数据的副本数。 {Topic} Topic名称。 示例:在Kafka的客户端路径下执行命令,此处以ZooKeeper集群的IP:port是10
hive/default?serviceDiscoveryMode=hsfabric 主机 hsfabric实例所在节点IP 端口 HSFabric服务gateway.port端口 用户名 已创建的“人机”用户的用户名,如:admintest 密码 已创建的“人机”用户的用户密码 说明: 使用用户名密码方式登录时需要配置该参数。
FE节点可通过在Manager界面,选择“集群 > 服务 > Doris”,查看“Leader所在的主机”获取。 将代码中PORT = "xxx"的“xxx”修改为Doris的MySQL协议查询连接端口,默认为29982,可登录FusionInsight Manager,选择“集群
<table>同步表schema信息,需要查询该表时才会同步全量元数据;而新增分区,插入数据等场景可主动执行refresh即可增量更新元数据。 定时使用compute increment stats <table_name>刷新常用表的统计信息,加速查询 Impala依赖表统计信息对查询消耗的资源做预估,
> ZooKeeper > 实例”,可查看所有quorumpeer实例所在主机业务IP地址。 ZooKeeper客户端端口号: 登录FusionInsight Manager,选择“集群 > 服务 > ZooKeeper”,在“配置”页签查看“clientPort”的值。默认为24002。
快速创建和使用HBase离线数据查询集群 操作场景 本入门提供从零开始创建HBase查询集群并通过集群客户端进行HBase表的创建与查询操作指导。 HBase集群使用Hadoop和HBase组件提供一个稳定可靠、性能优异、可伸缩、面向列的分布式云存储系统,适用于海量数据存储以及分
2x > 默认”,“SPARK_DRIVER_MEMORY”参数默认值为4G。若参数值调整后,仍偶现告警,可按0.5倍速率调大。若告警次数比较频繁,可以按1倍速率调大。多业务量、高并发的情况可以考虑增加实例。 重启所有的JDBCServer2x实例。 重启实例期间实例不可用,当前实例节点的任务会执行失败。
查询集群详情 功能介绍 查看指定集群的详细信息。该接口不兼容Sahara。 接口约束 无 调用方法 请参见如何调用API。 URI GET /v1.1/{project_id}/cluster_infos/{cluster_id} 表1 路径参数 参数 是否必选 参数类型 描述 cluster_id
nData Table,用于加载数据和执行查询操作。 加载数据到CarbonData表 用户从HDFS中的CSV文件加载数据到所创建的表中。 在CarbonData中查询数据 在CarbonData表加载数据之后,用户可以执行所需的查询操作,例如groupby或者where等。 前提条件
${BIGDATA_HOME}/om-server/om/sbin/status-oms.sh命令后查看到oldap的“ResHAStatus”为“Normal”。 执行ps -ef | grep slapd,可以查看到有端口为21750的slapd进程。 是,执行3。 否,执行4。 执行kill -2
1-build1-bin.jar JDBC URL 连接GBase的JDBC URL地址。 格式:jdbc:gbase://gbase数据库所在的IP地址:端口号。 端口号默认为5258。 jdbc:gbase://192.168.1.1:5258 用户名 连接GBase数据源的GBase用户名。 - 密码
参数说明 url jdbc:XXX://HSFabric1_IP:HSFabric1_Port,HSFabric2_IP:HSFabric2_Port,HSFabric3_IP:HSFabric3_Port/catalog/schema?serviceDiscoveryMode=hsfabric