检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Impala开发指南(安全模式) Impala应用开发概述 准备Impala应用开发环境 开发Impala应用 调测Impala应用 Impala应用开发常见问题 Impala开发规范
开发Spark应用 Spark Core程序 Spark SQL程序 Spark Streaming程序 通过JDBC访问Spark SQL的程序 Spark on HBase程序 从HBase读取数据再写入HBase 从Hive读取数据再写入HBase Streaming从Kafka读取数据再写入HBase
开发Impala应用 Impala样例程序开发思路 创建Impala表 加载Impala数据 查询Impala数据 分析Impala数据 开发Impala用户自定义函数 父主题: Impala开发指南
调测Kafka应用 调测Kafka Producer样例程序 调测Kafka Consumer样例程序 调测Kafka High Level KafkaStreams API样例程序 调测Kafka Low Level KafkaStreams API样例程序 父主题: Kafka开发指南(普通模式)
调测Oozie应用 在本地Windows环境中调测Oozie应用 查看Oozie应用调测结果 父主题: Oozie开发指南(普通模式)
开发Manager应用 Manager样例程序开发思路 Manager登录认证 添加Manager用户 查找Manager用户 修改Manager用户 删除Manager用户 导出Manager用户列表 父主题: Manager管理开发指南
开发Kafka应用 Kafka样例程序开发思路 使用Producer API向安全Topic生产消息 使用Consumer API订阅安全Topic并消费 使用多线程Producer发送消息 使用多线程Consumer消费消息 使用KafkaStreams统计数据 使用SpringBoot生产消费Kafka集群数据
文件最大打开句柄数设置太小导致读写文件异常 问题背景与现象 文件最大打开句柄数设置太小,导致文件句柄不足。写文件到HDFS很慢,或者写文件失败。 原因分析 DataNode日志“/var/log/Bigdata/hdfs/dn/hadoop-omm-datanode-XXX.log”,存在异常提示java
执行balance失败报错“Source and target differ in block-size” 问题背景与现象 执行distcp跨集群拷贝文件时,出现部分文件拷贝失败“ Source and target differ in block-size. Use -pb to
Consumer$ConsumerThread.run(Consumer.java:40) 可能原因 客户端和服务端Jar版本不一致。 解决办法 修改Consumer应用程序中Kafka jar,确保和服务端保持一致。 父主题: 使用Kafka
使用IE浏览器在Hue中执行HQL失败 问题背景与现象 使用IE浏览器在Hue中访问Hive Editor并执行所有HQL失败,界面提示“There was an error with your query.”。 原因分析 IE浏览器存在功能问题,不支持在307重定向中处理含有form
Hive应用开发建议 HQL编写之隐式类型转换 查询语句使用字段的值做过滤时,不建议通过Hive自身的隐式类型转换来编写HQL。因为隐式类型转换不利于代码的阅读和移植。 建议示例: select * from default.tbl_src where id = 10001; select
UDF应该捕获和处理可能发生的异常,不能将异常给服务处理,以避免程序出现未知异常。可以使用try-catch块来处理异常,并在必要时记录异常信息。 UDF中应避免定义静态集合类用于临时数据的存储,或查询外部数据存在较大对象,否则会导致内存占用过高。 应该避免类中import的包和服务侧包冲突,可通过grep
Flink on Hudi开发规范 Flink流式读Hudi表规则 Flink流式读Hudi表建议 Flink流式写Hudi表规则 Flink流式写Hudi表建议 Flink on Hudi作业参数规则 Flink on Hudi作业参数建议 父主题: Flink应用开发规范
Hudi SQL使用约束 Hudi支持使用Spark SQL操作Hudi的DDL/DML的语法,使得所有用户(非工程师、分析师等)更容易访问和操作Hudi。 约束 支持在Hudi客户端执行Spark SQL操作Hudi。 支持在Spark2x的JDBCServer中执行Spark
Hudi DML语法说明 INSERT INTO MERGE INTO UPDATE DELETE COMPACTION SET/RESET ARCHIVELOG CLEAN CLEANARCHIVE Drop Partition 父主题: Hudi SQL语法参考
新建CarbonData表 操作场景 使用CarbonData前需先创建表,才可在其中加载数据和查询数据。可通过Create Table命令来创建表。该命令支持使用自定义列创建表。 使用自定义列创建表 可通过指定各列及其数据类型来创建表。 命令示例: CREATE TABLE IF
删除CarbonData表 操作场景 可使用DROP TABLE命令删除表。删除表后,所有metadata以及表中已加载的数据都会被删除。 操作步骤 运行如下命令删除表。 命令: DROP TABLE [IF EXISTS] [db_name.]table_name; 一旦执行该
CREATE TABLE As SELECT 命令功能 CREATE TABLE As SELECT命令通过指定带有表属性的字段列表来创建CarbonData Table。 命令格式 CREATE TABLE [IF NOT EXISTS] [db_name.]table_name
CREATE SECONDARY INDEX 命令功能 该命令用于在CarbonData表中创建二级索引表。 命令格式 CREATE INDEX index_name ON TABLE [db_name.]table_name (col_name1, col_name2) AS 'carbondata'