检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用DLI Flink作业实时同步MRS Kafka数据至CloudTable ClickHouse集群 此章节为您介绍数据实时同步的最佳实践,通过数据湖探索服务DLI Flink作业将MRS kafka任务制造数据实时同步给ClickHouse,实现Kafka实时入库到ClickHouse的过程。
插入数据 功能简介 HBase是一个面向列的数据库,一行数据,可能对应多个列族,而一个列族又可以对应多个列。 通常,写入数据的时候,我们需要指定要写入的列(含列族名称和列名称)。 HBase通过HTable的put方法来Put数据,可以是一行数据也可以是数据集。 代码样例 public
准备开发和运行环境 准备开发环境 在进行应用开发时,要准备的开发和运行环境如表1所示。 表1 开发环境 准备项 说明 操作系统 开发环境:Windows系统,支持Windows7以上版本。 运行环境:Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK
配置并导入样例工程 背景信息 获取ClickHouse开发样例工程,将工程导入到IntelliJ IDEA开始样例学习。 操作场景 ClickHouse针对多个场景提供样例工程,帮助客户快速学习ClickHouse工程。 操作步骤 在应用开发环境中,导入代码样例工程到IntelliJ
设置属性 功能介绍 可以通过Properties设置连接属性。 如下样例代码设置socket超时时间为60s, 设置不使用SSL。 代码样例 Properties clickHouseProperties = new Properties(); clickHouseProperties
应用背景 CloudTable ClickHouse支持冷热数据分离特性。通过该特性,您可以将冷热数据分别存储在不同类型的存储介质中,以降低存储成本。 Hot(热数据):访问、更新频率较高,未来被调用的概率较高的数据,对访问的响应时间要求很高的数据。 Cold(冷数据):不允许更
ClickHouse包周期计费操作 如果您需长期使用当前集群,为节省开支,可以将按需购买的集群转为包年/包月计费模式(也称为包周期计费模式)。按需转包年/包月的具体操作,请参见本章节内容。 按需转包年包月 前提条件:集群计费模式是“按需计费”。 按需转包年/包月操作步骤 登录CloudTable管理控制台。
Thrift Server概述 HBase ThriftServer是一个运行在HBase集群上的服务程序,它通过Thrift接口提供对HBase数据库的访问,它可以将不同语言的代码生成为对应的客户端和服务端代码。 Thrift Serve特性仅支持HBase 2.4.14及以上版本。
怎么查看catalog指定数据库下的列表? catalog是外部数据目录。下面以JDBC Catalog通过标准JDBC协议,连接其他数据源为例。 语法 CREATE CATALOG [IF NOT EXISTS] catalog_name PROPERTIES ("key"="value"
ALTER TABLE修改表结构 本章节主要介绍ClickHouse修改表结构的SQL基本语法和使用说明。 基本语法 ALTER TABLE [database_name].name [ON CLUSTER ClickHouse集群名] ADD|DROP|CLEAR|COMMENT|MODIFY
最佳实践 关于Partition和Bucket的数量和数据量的建议 一个表的Tablet总数量等于 (Partition num*Bucket num)。 一个表的Tablet数量,在不考虑扩容的情况下,推荐略多于整个集群的磁盘数量。 单个Tablet的数据量理论上没有上下界,但
CREATE MATERIALIZED VIEW 本章节介绍如何在ClickHouse中创建物化视图。 创建物化视图 CREATE MATERIALIZED VIEW [IF NOT EXISTS] [db.]Materialized_name [TO[db.]name] [ON
删除数据 功能简介 HBase通过Table实例的delete方法来Delete数据,可以是一行数据也可以是数据集。 具体删除方法根据用户使用场景选取。 代码样例 public void testDelete() { LOG.info("Entering testDelete
分区(Partition) 分区用于将数据划分成不同区间,逻辑上可以理解为将原始表划分成了多个子表。可以方便的按分区对数据进行管理。 Partition列可以指定一列或多列,分区列必须为KEY列。多列分区的使用方式在后面多列分区小结介绍。 不论分区列是什么类型,在写分区值时,都需要加双引号。
分桶 根据分桶列的Hash值将数据划分成不同的Bucket。 如果使用了Partition,则DISTRIBUTED ... 语句描述的是数据在各个分区内的划分规则。如果不使用Partition,则描述的是对整个表的数据的划分规则。 分桶列可以是多列,Aggregate和Uniq
Hive 创建hive catalog 通过连接Hive Metastore,或者兼容Hive Metastore的元数据服务,Doris可以自动获取Hive的库表信息,并进行数据查询。 除了Hive外,很多其他系统也会使用Hive Metastore存储元数据。所以通过Hive
典型场景说明 通过典型场景,我们可以快速学习和掌握ClickHouse冷热分离的开发过程,并且对关键的接口函数有所了解。 场景说明 假定用户开发一个网站系统,test_tbl用于实时用户访问网站的记录,记录数据如下表: 表1 原始数据 timestamp type error_code
样例代码 此章节主要介绍CloudTable ClickHouse冷热分离的使用命令,以及冷数据如何自动存储到obs桶中。 样例代码 创建ClickHouse冷热分离表test_table。 CREATE TABLE IF NOT EXISTS test_table ( `timestamp`
使用Thrift Server 通过CloudTable管理页面开启关闭Thrift Server服务。 开启Thrift Server步骤 登录表格存储服务管理控制台。 控制台左上角,选择区域。 单击集群管理界面右上角的“购买集群”。 进入创建集群界面,在集群购买页面选择HBase数据库引擎并开启Thrift
普通查询 功能介绍 CloudTable标签索引基于Lucene语法,提供了自研的查询接口LemonTable.query(LemonQuery query)。 样例代码 public void testNormalQuery() { LOG.info("Entering testNormalQuery