检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Alluxio应用开发简介 Alluxio简介 Alluxio是一个面向基于云的数据分析和人工智能的开源的数据编排技术。它为数据驱动型应用和存储系统构建了桥梁, 将数据从存储层移动到距离数据驱动型应用更近的位置,从而能够更容易、更快地被访问。同时使得应用程序能够通过一个公共接口连接到许多存储系统。
数据湖:其他IT系统上的数据,时序数据库可以通过跨源分析能力与数据湖中的全量数据进行关联,与IT数据进行进一步的复杂分析。 HetuEngine:跨源分析引擎,可以连接多个大数据组件进行数据查询,并可以将多个大数据组件中的数据在HetuEngine中进行统一分析。 IoTDB时序数据库:时序数据分析的核心组件,提供海量时序数据的存储和计算能力。
新建仪表板 单击“添加组件”。 图9 添加组件 添加步骤 6配置的需要用于分析的数据表。 图10 添加数据表 将“name”拖入“维度”,将“age”拖入“指标”,即可分析年龄的平均值。如图11所示。 图11 分析表 如果需要用图显示,则可在“图表类型”中选择相对应的图。样例中是选择“柱状图”。
example_db.lineorder_stream_u; 例如查询结果如下,查询数据成功,且符合预期,表示导入成功。 父主题: 实时OLAP数据分析
hive表数据共20行,其中10行数据对应Doris的unique字段重复: Doris的unique表数据: 父主题: 实时OLAP数据分析
having LO_CUSTKEY<= 10 and LO_CUSTKEY>= 5; 例如,执行结果如下,表示查询成功: 父主题: 实时OLAP数据分析
lineorder02 例如执行后结果如下,数据写入Doris成功,且按照UNIQUE KEY指定字段自动去除重复数据。 父主题: 实时OLAP数据分析
from wxk.lineorder_orc02; 例如执行后结果如下,数据写入Doris成功,且数据符合预期结果。 父主题: 实时OLAP数据分析
lineorder_noid; 例如执行后结果如下,MySQL数据写入Doris成功,且按照UNIQUE KEY指定字段自动去除重复数据。 父主题: 实时OLAP数据分析
lineorder_brokerload_u 可以查看到MySQL数据导入Doris成功,且根据UNIQUE KEY指定字段自动去重 父主题: 实时OLAP数据分析
使用JDBC提交数据分析任务 功能简介 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
数据库名称; select * from lineorder_u; 例如查看到如下信息,表示查询新增的数据成功。 父主题: 实时OLAP数据分析
快速创建和使用Hadoop离线数据分析集群 操作场景 本入门提供从零开始创建Hadoop离线数据分析集群并通过集群客户端提交一个wordcount作业的操作指导。wordcount是最经典的Hadoop作业,用于统计海量文本的单词数量。 Hadoop集群完全使用开源Hadoop生
步骤1:创建MRS集群:创建一个包含有Flink组件的MRS集群。 步骤2:准备测试数据:准备用于进行分析的源数据及程序,并上传至OBS。 步骤3:创建并运行Flink作业:在MRS集群中创建Flink作业并运行。 步骤4:查看作业执行结果:查看数据分析结果。 图2 操作流程 步骤1:创建MRS集群 创建并购买一个包
快速使用Hive进行数据分析 Hive是基于Hadoop的一个数据仓库工具,可将结构化的数据文件映射成一张数据库表,并提供类SQL的功能对数据进行分析处理,通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,适合用于数据仓库的统计分析。 背景信息 假
使用JDBC接口提交数据分析任务 功能简介 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
使用JDBC接口提交数据分析任务 功能介绍 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
使用JDBC接口提交数据分析任务 功能介绍 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
快速使用Hive进行数据分析 Hive是基于Hadoop的一个数据仓库工具,可将结构化的数据文件映射成一张数据库表,并提供类SQL的功能对数据进行分析处理,通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析。 背景信息 假
2x、Kafka组件的MRS集群。 步骤2:准备应用程序:准备用于进行分析的源数据及程序。 步骤3:上传jar包及源数据:将相关程序和数据上传至MRS集群内。 步骤4:运行作业并查看结果:运行程序并查看数据分析结果。 步骤1:创建MRS集群 创建并购买一个包含有Spark2x、K