检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
EXISTS productDatabase.productSalesTable; 系统响应 Table将被删除。 父主题: CarbonData语法参考
请联系运维人员,并发送已收集的故障日志信息和堆栈信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 不涉及。 父主题: MRS集群告警处理参考
db_Name为可选配置。 示例 SHOW TABLES IN ProductDatabase; 系统响应 显示所有Table。 父主题: CarbonData语法参考
容错性好 支持online和offline场景 接口类型简介 Kafka主要提供了的API主要可分Producer API和Consumer API两大类,均提供有Java API,使用的具体接口说明请参考Kafka Java API介绍。 常用概念 Topic Kafka维护的同一类的消息称为一个Topic。
log日志,搜索Resource group info可看到资源组监控采集信息。 请联系运维人员,并发送已收集的故障日志信息。 参考信息 无。 父主题: MRS集群告警处理参考
12000ms IoTDBServer堆内存使用率 45586 IoTDBServer堆内存使用率超过阈值 IoTDBServer进程堆内存使用率过高,会影响IoTDBServer进程运行的性能,甚至造成内存溢出导致IoTDBServer进程不可用。 90% IoTDBServer直接内存使用率
系统响应 CarbonData库中的文件夹将显示新表名称,可以通过运行SHOW TABLES显示新表名称。 父主题: CarbonData语法参考
系统采集周期为3秒,检测周期为30秒或300秒,当系统连续3个30秒、300秒的周期均不满足以上条件时,告警自动清除。 相关参数获取方法请参考参考信息。 告警属性 告警ID 告警级别 是否自动清除 12033 次要:MRS 1.9.3.10及之后的补丁版本 重要:其他MRS 2.x及之前版本
系统响应 二级索引表将被删除,索引信息将在CarbonData表中被清除,删除成功的消息将记录在系统日志中。 父主题: CarbonData语法参考
开启后,SDK通过worker读取缓存需要经过token校验。SDK首次向worker发送读请求时,worker会做一次kerberos认证,生成一个密钥,保存在本地和Zookeeper,然后用这个密钥生成一个token,返回给SDK,SDK向worker发送读请求时,会将该token传入,和密钥进行校验,校验通过才允许读取缓存。
productSalesTable; 系统响应 显示列出给定CarbonData表中的所有索引表和相应的索引列。 父主题: CarbonData语法参考
productSalesTable; 系统响应 通过运行该命令,已有的Carbon表数据会被注册到Hive元数据库中。 父主题: CarbonData语法参考
-----+------------+-------------+--------------+--+ 父主题: CarbonData语法参考
/opt/client/FlinkPipelineScalaExample.jar 运行Stream SQL Join样例程序。 Java 启动程序向Kafka生产,Kafka配置可参考运行向Kafka生产并消费数据样例程序 bin/flink run --class com.huawei.bigdata.flink
采用此密钥文件进行API方式认证。 Client 客户端直接面向用户,可通过Java API、HBase Shell或者Web UI访问服务端,对HBase的表进行读写操作。本文中的HBase客户端特指HBase client的安装包,可参考HBase对外接口介绍。 父主题: HBase应用开发概述
但是当前开源YARN提供的WebUI/RestAPI/JavaAPI等接口上不会根据用户角色进行权限控制,任何用户都有权限访问应用和集群的信息,无法满足多租户场景下的隔离要求。 增强: 安全模式下,对开源YARN提供的WebUI/RestAPI/JavaAPI等接口上进行了权限管理上的增强,支持
roducer,让其每秒向Kafka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。可参考Kafka Shell命令介绍。 开发一个Producer向该Topic生产数据。
roducer,让其每秒向Kafka集群某Topic发送一条消息,另外还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。可参考Kafka Shell命令介绍。 开发一个Producer向该Topic生产数据。
select count(*) from ${table_name}_rt; 实时视图读取(Spark dataSource API为例):和cow表一样,请参考cow表相关操作。 增量视图读取(hive为例): set hive.input.format=org.apache.hudi
select count(*) from ${table_name}_rt; 实时视图读取(Spark dataSource API为例):和cow表一样,请参考cow表相关操作。 增量视图读取(hive为例): set hive.input.format=org.apache.hudi