检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers
Kafka Java API介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers
SUCCEEDED Tracking-URL : https://linux1:26014/jobhistory/job/job_1455853029114_0027 RPC Port : 27100 AM Host : SZV1000044726
-oozie <arg> 指定oozie server地址 -status 显示oozie服务状态 Oozie其他的命令和参数可参见以下地址:https://oozie.apache.org/docs/5.1.0/DG_CommandLineTool.html。 父主题: 常用Oozie
-oozie <arg> 指定oozie server地址 -status 显示oozie服务状态 Oozie其他的命令和参数可参见以下地址:https://oozie.apache.org/docs/5.1.0/DG_CommandLineTool.html。 父主题: 常用Oozie
Kafka Java API介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers
Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见https://kafka.apache.org/24/documentation.html。 Producer重要接口 表1 Producer重要参数 参数 描述 备注 bootstrap.servers
application.path”属性和“workflowAppUri”属性的值保持一致。 执行流程文件 命令: oozie job -oozie https://oozie server hostname:port/oozie -config job.properties文件所在路径 -run
参数说明 url jdbc:XXX://HSBroker1_IP:HSBroker1_Port,HSBroker2_IP:HSBroker2_Port,HSBroker3_IP:HSBroker3_Port/catalog/schema?serviceDiscoveryMode=hsbroker
SUCCEEDED Tracking-URL : https://linux1:26014/jobhistory/job/job_1455853029114_0027 RPC Port : 27100 AM Host : SZV1000044726
242:9093"],"rack":"/default/rack0","jmx_port":21006,"host":"192.168.2.242","timestamp":"1580886124398","port":9092,"version":4} [zk: node-master
--output-path HFile文件输出路径,最终导出的HFile会在该目录下的一个临时目录中,导入成功后会被清除。 如果开启了HDFS联邦,HFile文件输出路径必须和需要导入数据的HBase在同一个NameService中。 例如:HDFS目录挂载情况如表3所示,如果HBase服务目录挂载在NS1上,则Spark
connect="192.168.234.231:2181/kafka" Rebalance异常。 同一个消费者组(consumer group)有多个consumer先后启动,就是一个消费者组内有多个consumer同时消费多个partition数据,consumer端也会有负载均
样例工程中的data文件需要放到HDFS上的home目录下 保证data文件和创建的表的所属的用户和用户组保持一致 拼接JDBC URL。 HA模式下url的host和port必须为“ha-cluster”。 普通集群需要将样例代码中com.huawei.bigdata.spark.examples
x及之后版本)确认集群的主备管理节点(即主备OMS节点)。 在主备模式下,由于Master1和Master2之间会进行主备切换,Master1节点不一定是主管理节点。 通过执行脚本确定主备管理节点 获取MRS集群的Master节点信息。 登录MRS管理控制台,选择“现有集群”,单击待操作集群名称,进入集群信息页面。
ClickHouse表数据导出到指定目录下。 clickhouse client --host 主机名/实例IP --secure --port 9440 --query="表查询语句" > 输出的csv格式文件路径 例如,如下是在ClickHouse实例10.244.225.1
ClickHouse表数据导出到指定目录下。 clickhouse client --host 主机名/实例IP --secure --port 9440 --query="表查询语句" > 输出的csv格式文件路径 例如,如下是在ClickHouse实例10.244.225.1
Impala SQL接口介绍 Impala SQL提供对HiveQL的高度兼容性,详情请参见https://impala.apache.org/docs/build/html/topics/impala_langref.html。 父主题: Impala应用开发常见问题
Impala SQL接口介绍 Impala SQL提供对HiveQL的高度兼容性,详情请参见https://impala.apache.org/docs/build/html/topics/impala_langref.html。 父主题: Impala应用开发常见问题
该值超出阈值(默认值为10)时产生该告警。该线程池为FE端ThriftServer的工作线程池,对应“fe.conf”文件中的“rpc_port”,用于和BE进行交互。 当系统检查到FE中和BE交互的线程池中正在排队的任务数低于阈值时,告警清除。 告警属性 告警ID 告警级别 是否可自动清除