检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
example_db.lineorder_stream_u; 例如查询结果如下,查询数据成功,且符合预期,表示导入成功。 父主题: 实时OLAP数据分析
from wxk.lineorder_orc02; 例如执行后结果如下,数据写入Doris成功,且数据符合预期结果。 父主题: 实时OLAP数据分析
子网”进行创建。 集群节点 保持默认 配置集群节点信息。 Kerberos认证 不开启 是否启用Kerberos认证。 用户名 admin/root 登录集群管理页面及ECS节点的用户名。 密码 - 设置登录集群管理页面及ECS节点用户的密码。 确认密码 - 再次输入设置用户密码。
having LO_CUSTKEY<= 10 and LO_CUSTKEY>= 5; 例如,执行结果如下,表示查询成功: 父主题: 实时OLAP数据分析
lineorder_noid; 例如执行后结果如下,MySQL数据写入Doris成功,且按照UNIQUE KEY指定字段自动去除重复数据。 父主题: 实时OLAP数据分析
lineorder_brokerload_u 可以查看到MySQL数据导入Doris成功,且根据UNIQUE KEY指定字段自动去重 父主题: 实时OLAP数据分析
记录集群的“可用区”、“虚拟私有云”、“安全组”。 在管理控制台首页服务列表中选择“弹性云服务器”,进入ECS列表,单击“购买弹性云服务器”,配置以下参数并单击“立即购买”创建一个Linux弹性云服务器: 计费模式:选择“按需计费”。 区域:与MRS集群的区域保持一致。 可用区:与MRS集群的可用区保持一致。
假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,使用Hive客户端实现A业务操作流程如下: 普通表的操作: 创建用户信息表user_info。 在用户信息中新增用户的学历、职称信息。 根据用户编号查询用户姓名和地址。 A业务结束后,删除用户信息表。 表1 用户信息 编号 姓名 性别 年龄 地址
步骤1:创建MRS集群:创建一个包含有Flink组件的MRS集群。 步骤2:准备测试数据:准备用于进行分析的源数据及程序,并上传至OBS。 步骤3:创建并运行Flink作业:在MRS集群中创建Flink作业并运行。 步骤4:查看作业执行结果:查看数据分析结果。 图2 操作流程 步骤1:创建MRS集群 创建并购买一个包
使用JDBC提交数据分析任务 功能简介 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,使用Hive客户端实现A业务操作流程如下: 普通表的操作: 创建用户信息表user_info。 在用户信息中新增用户的学历、职称信息。 根据用户编号查询用户姓名和地址。 A业务结束后,删除用户信息表。 表1 用户信息 编号 姓名 性别 年龄 地址
IoTDB时序数据查询 跨源IT/OT数据统一分析 IoTDB可以借助HetuEngine提供的数据跨源分析能力,使用HetuEngine作为统一数据查询入口,也可以将IT数据和OT数据进行联合分析,提供复杂的IT和OT数据统一分析能力。 图2 跨源IT/OT数据统一分析 使用场景如下: 统一SQL入口
A业务的用户信息,使用HBase客户端实现A业务操作流程如下: 创建用户信息表user_info。 在用户信息中新增用户的学历、职称信息。 根据用户编号查询用户姓名和地址。 根据用户姓名进行查询。 用户销户,删除用户信息表中该用户的数据。 A业务结束后,删除用户信息表。 表1 用户信息
移量位置。然后,每个batch的Job被运行,而对应偏移量的数据在Kafka中已准备好。这些偏移量信息也被可靠地存储在checkpoint文件中,应用失败重启时可以直接读取偏移量信息。 图1 Direct Kafka接口数据传输 需要注意的是,Spark Streaming可以在
A业务的用户信息,使用HBase客户端实现A业务操作流程如下: 创建用户信息表user_info。 在用户信息中新增用户的学历、职称信息。 根据用户编号查询用户姓名和地址。 根据用户姓名进行查询。 用户销户,删除用户信息表中该用户的数据。 A业务结束后,删除用户信息表。 表1 用户信息
使用JDBC接口提交数据分析任务 功能简介 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
使用JDBC接口提交数据分析任务 功能介绍 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
使用JDBC接口提交数据分析任务 功能介绍 本章节介绍如何使用JDBC样例程序完成数据分析任务。 样例代码 使用Hive JDBC接口提交数据分析任务,该样例程序在“hive-examples/hive-jdbc-example”的“JDBCExample.java”中,实现该功能的模块如下:
步骤1:创建MRS集群:创建一个包含有Kafka组件的MRS集群。 步骤2:准备应用程序:准备用于进行分析的源数据及程序。 步骤3:上传jar包及源数据:将相关程序和数据上传至MRS集群内。 步骤4:运行作业并查看结果:运行程序并查看数据分析结果。 步骤1:创建MRS集群 创建并购买一个包含有Kafka组件的MRS集群,详情请参见购买自定义集群。
( 'table_blocksize'='128'); 上述命令所创建的表的详细信息如下: 表1 表信息定义 参数 描述 productSalesTable 待创建的表的名称。该表用于加载数据进行分析。 表名由字母、数字、下划线组成。 productdb 数据库名称。该数据库将与其中的表保持逻辑连接以便于识别和管理。