检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
查看OpenTSDB应用调测结果 操作场景 OpenTSDB样例程序运行完后,可直接通过运行结果查看应用程序运行情况,也可以通过运行日志获取应用运行情况。 操作步骤 运行结果会有如下成功信息: 2019-06-27 14:05:20,713 INFO [main] examples
} } 注意事项 需要在“hbase-site.xml”中配置用于存放中间查询结果的临时目录路径,该目录大小限制可查询结果集大小; Phoenix实现了大部分java.sql接口,SQL紧跟ANSI SQL标准。 父主题: HBase应用开发常见问题
} } 注意事项 需要在“hbase-site.xml”中配置用于存放中间查询结果的临时目录路径,该目录大小限制可查询结果集大小。 Phoenix实现了大部分java.sql接口,SQL紧跟ANSI SQL标准。 父主题: HBase应用开发常见问题
填写正确的用户名,获取JDBC连接,确认Impala SQL的类型(DDL/DML),调用对应的接口执行Impala SQL,输出查询的列名和结果到控制台,关闭JDBC连接。 Connection connection = null; try {
执行命令getusage /hbase/splitWAL查看该znode的容量使用情况,查看返回结果的“Data size”跟znode容量配额的比值是否接近告警的阈值。 是,执行5。 否,执行6。 在FusionInsight Manager首页,查看是否存在“告警ID”为“12007”、“1
大于或等于要写入数据的Hive数据源分区表所有分区列distinct的count值的乘积。 distinct的count值举例: 结果表“t2”有“col1”,“col2”和“col3”三列,查询结果数据如下所示: col1 col2 col3 A 100 5 C 103 4 B 101 3 E 110 4
查看Manager应用调测结果 操作场景 Manager应用程序运行完成后,可通过如下方式查看运行结果: 通过IntelliJ IDEA运行结果查看应用程序运行情况,可通过配置文件“conf\log4j.properties”配置日志打印信息。 登录主管理节点查看系统日志“/va
查看Storm应用调测结果 操作场景 Storm应用程序运行完成后,可通过登录Storm WebUI查看应用程序的运行情况。 操作步骤 登录FusionInsight Manager系统。 在浏览器地址栏中输入访问地址,地址格式为“https://FusionInsight Ma
查看Storm应用调测结果 操作场景 Storm应用程序运行完成后,可通过登录Storm WebUI查看应用程序的运行情况。 操作步骤 登录FusionInsight Manager系统。 在浏览器地址栏中输入访问地址,地址格式为“https://FusionInsight Ma
MapReduce REST API接口介绍 功能简介 通过HTTP REST API来查看更多MapReduce任务的信息。目前Mapresuce的REST接口可以查询已完成任务的状态信息。完整和详细的接口请直接参考官网上的描述以了解其使用:http://hadoop.apache
create table test(id int) location 'obs://mrs-word001/table/'; 执行如下命令查询所有表,返回结果中存在表test,即表示访问OBS成功。 show tables; 图1 Spark验证返回已创建的表名 使用“Ctrl + C”退出spark
该语法是使用SELECT查询结果创建物化视图。物化视图是一个数据库对象,它包含了一个查询的结果,例如:它可以是远程数据的本地副本,单表查询或者多表join后查询的结果的行或列、行和列的子集,也可以是使用聚合函数的汇总表。 物化视图通常基于对数据表进行聚合和连接的查询结果创建。物化视图支持
查看Storm应用调测结果 操作步骤 参考《访问开源组件UI界面》章节,访问Storm Web界面 。 在Storm UI中单击word-count应用,查看应用程序运行情况,如图1所示。 图1 Storm应用程序执行界面 Topology stats统计了最近各个不同时间段的算子之间发送数据的总数据量。
以客户端安装用户,登录安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。
慢查询界面过滤条件 条件 参数说明 慢查询运行时长大于 按照慢SQL查询语句查询累计时长过滤查询。 支持时长大于:3(s)、9(s)、15(s)、25(s) 按查询id 根据查询界面对应慢查询语句的“查询id”字段过滤查询。 支持按照“查询id”的部分值进行模糊查询,例如,查询ID为“111-22
sql.uselocalFileCollect开启的情况下生效。直接序列化的方式,还是间接序列化的方式保存结果数据到磁盘。 优点:针对分区数特别多的表查询结果汇聚性能优于直接使用结果数据保证在磁盘的方式。 缺点:和spark.sql.uselocalFileCollect开启时候的缺点一样。
在ZooKeeper中查询Broker ID的对应关系。 sh zkCli.sh -server <zk_host:port> 在ZooKeeper客户端执行如下命令。 ls /kafka/brokers/ids get /kafka/brokers/ids/<查询出的Broker id>
查询Hive数据 功能介绍 本小节介绍了如何使用HQL对数据进行查询分析。从本节中可以掌握如下查询分析方法。 SELECT查询的常用特性,如JOIN等。 加载数据进指定分区。 如何使用Hive自带函数。 如何使用自定义函数进行查询分析,如何创建、定义自定义函数请见开发Hive用户自定义函数。
sh客户端创建表存储在OBS中。 Presto对接OBS 未开启Kerberos认证的集群 使用客户端安装用户,登录已安装客户端的节点。 执行以下命令配置环境变量: cd 客户端安装目录 source bigdata_env 执行如下命令连接客户端。 presto_cli.sh 执行以下命令创建Sc
sql.uselocalFileCollect开启的情况下生效。直接序列化的方式,还是间接序列化的方式保存结果数据到磁盘。 优点:针对分区数特别多的表查询结果汇聚性能优于直接使用结果数据保证在磁盘的方式。 缺点:和spark.sql.uselocalFileCollect开启时候的缺点一样。