检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
处理步骤 查看告警定位信息 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选择“告警ID”为“19020”的告警,查看“定位信息”中产生该告警的服务实例和主机名。 检查主备集群RegionServer之间的网络连接。 执行ping命令,查看故障R
根据场景开发工程 提供了Java、Python两种不同语言的样例工程,还提供了从建表、数据加载到数据查询的样例工程。 Impala样例程序开发思路 运行程序及查看结果 指导用户将开发好的程序编译提交运行并查看结果。 调测Impala应用 父主题: Impala应用开发概述
根据场景开发工程 提供了Java、Python两种不同语言的样例工程,还提供了从建表、数据加载到数据查询的样例工程。 Impala样例程序开发思路 运行程序及查看结果 指导用户将开发好的程序编译提交运行并查看结果。 调测Impala应用 父主题: Impala应用开发概述
根据场景开发工程 提供了Java、Python两种不同语言的样例工程,还提供了从建表、数据加载到数据查询的样例工程。 开发Hive应用 运行程序及结果查看 指导用户将开发好的程序编译提交运行并查看结果。 调测Hive应用 父主题: Hive开发指南(安全模式)
为什么数据查询/加载失败,且发生“org.apache.carbondata.core.memory.MemoryException: Not enough memory”异常? 问题 为什么数据查询/加载失败,且发生“org.apache.carbondata.core.memory
SQL接口 提交SQL语句 查询SQL结果 取消SQL执行任务 父主题: API V2
in”执行Kafka shell命令。 常用的命令如下: 查看当前集群Topic列表。 sh kafka-topics.sh --list --zookeeper <ZooKeeper集群IP:2181/kafka> 查看单个Topic详细信息。 sh kafka-topics.sh
分布式在Session内部做了缓存,实现客户端时避免每次读写都新建Session,或者使用SessionPool进行复用连接。 查询结果集ResultSet、SessionDataSet使用完成后注意关闭 查询结果集ResultSet、SessionDataSet使用完成后需要关闭,否则会造成服务资源浪费。 父主题:
切换到Kafka客户端安装目录,例如“/opt/kafkaclient”。 cd /opt/kafkaclient 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。
张原本很大的表经过Filter操作之后结果集小于BroadCast的阈值,在没有CBO情况下是无法感知大表过滤后变小的情况,采用的是SortMergeJoin算法,涉及到大量Shuffle操作,很耗费性能;在有CBO的情况下是可以感知到结果集的变化,采用的是BroadcastHa
Hive应用开发建议 HQL编写之隐式类型转换 查询语句使用字段的值做过滤时,不建议通过Hive自身的隐式类型转换来编写HQL。因为隐式类型转换不利于代码的阅读和移植。 建议示例: select * from default.tbl_src where id = 10001; select
Content Content-Type: application/json; charset=UTF-8 Content-Length:0 查询数据 例如,可查询指标testdata在过去三年的汇总信息。 curl -ks https://<tsd_ip>:4242/api/query?st
{host=web01, cpu=0} <START-DATE>:要查询指标的起始时间点。 <END-DATE>:要查询指标的结束时间点。 <aggregator>:查询数据的聚合方式。 <metric>:所需查询的指标名称。 <tagk=tagv>:标签的key和value。 删除录入的Opentsdb指标
已获取待创建集群区域的项目ID,请参考获取项目ID获取。 已获取集群ID,即创建集群成功后返回结果中的“cluster_id” 或参考获取集群ID获取。 已获取作业ID,即作业提交成功后返回结果中的“job_id”或参考获取作业ID获取。 IAM用户已同步完成,可通过在集群详情页的“
擎一起协同工作: 首先在计算引擎上(比如Impala)用SQL语句创建表对象; 然后通过Kudu的驱动往这个表里写数据; 在计算引擎上直接查询这个表里的数据。 在本开发程序示例中,为了不引入额外的计算引擎,将以Kudu为主,全部通过Java API接口来进行描述: 建立Kudu连接
option(TABLE_NAME, tableName). mode(Overwrite). save(tablePath)} 查询数据: def queryData(spark: SparkSession, tablePath: String, tableName: String
由于为后台运行,ALTER TABLE COMPACTION命令不会显示压缩响应。 如果想要查看MINOR合并和MAJOR合并的响应结果,用户可以检查日志或运行SHOW SEGMENTS命令查看。 示例: +------+------------+------------------
根据场景开发工程 提供了Java、Python两种不同语言的样例工程,还提供了从建表、数据加载到数据查询的样例工程。 开发Hive应用 运行程序及查看结果 指导用户将开发好的程序编译提交运行并查看结果。 调测Hive应用 父主题: Hive开发指南(普通模式)
要附加到任何指定的ApplicationName客户端信息属性的前辍,该属性用于设置HetuEngine查询的源名称,如果既未设置此属性也未设置ApplicationName,则查询的源将为HetuEngine JDBC。 accessToken 基于令牌的身份验证令牌。 SSL 是
服务端配置了web访问为https通道,如果客户端没有配置,默认使用http访问,客户端和服务端的配置不同,就会导致访问结果显示乱码。在客户端和服务端配置相同的“yarn.http.policy”参数,可以防止客户端访问结果显示乱码。 操作步骤 在Manager系统中,选择“集群 > 服务 > Yarn > 配