检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数据分区和分桶 Doris支持两层的数据划分。第一层是Partition(分区),支持Range(按范围)和List(按枚举值)的划分方式。第二层是Bucket(分桶),仅支持Hash的划分方式。分区和分桶都是对数据进行横向分隔。 也可以仅使用一层分区。使用一层分区时,只支持Bu
HBase存储的是原始数据吗? CloudTable HBase服务存储的是原始数据,支持使用压缩存储,支持的压缩算法有SNAPPY和GZ。CloudTable HBase不会对原始数据做加解密处理,如果需要数据加解密,请在应用程序的业务代码侧实现。 父主题: 数据读写类
如:节点扩容、磁盘扩容等)时,可以执行变更操作。 规格变更只支持从小规格变更为大规格,如果要大规格更改为小规格,建议新建小规格集群,采用数据迁移进行切换。 规格变更过程中,整个集群不可用,变更结束前不能再次变更。 规格变更过程中系统不可用。 一次只支持变更一种类型的节点规格,且变更完成后只生效所选类型的节点规格。
如:节点扩容、磁盘扩容等)时,可以执行变更操作。 规格变更只支持从小规格变更为大规格,如果要大规格更改为小规格,建议新建小规格集群,采用数据迁移进行切换。 一次只支持变更一种类型的节点规格(计算节点、ZooKeeper节点),且变更完成后只生效所选类型的节点规格。 规格变更过程中
CloudTable数据进行删除,导致索引表和数据表不对应查询异常处理办法? 问题现象 查询CloudTable表内的数据,出现count值和list数据条数不一致的情况,频繁出现数据丢失的问题,项目运行中,还有许多链接超时的情况。 分析原因 删除数据后,导致索引表和数据表不对应,导致异常。
降配,因此需要对Doris集群增加纵向扩容功能。 规格变更只支持从小规格变更为大规格,如果要大规格更改为小规格,建议新建小规格集群,采用数据迁移进行切换。 一次只支持变更一种类型的节点规格(BE、FE),且变更完成后只生效所选类型的节点规格。 规格变更过程中,整个集群不可用,变更结束前不能再次变更。
HBase支持冷热分离功能,将数据分类存储在不同介质上,有效降低存储成本。针对数据使用场景,可以将数据按照时间访问频率分为热数据和冷数据。冷热数据主要从数据访问频率、更新频率划分。 Hot(热数据):访问、更新频率较高,对访问的响应时间要求很高的数据。 Cold(冷数据):不允许更新或更新
创建数据表开启标签索引 功能介绍 建表功能同创建表,在此基础上,表属性配置标签索引schema。 样例代码 public void testCreateTable() { LOG.info("Entering testCreateTable."); HTableDescriptor
t error: [E-235], host: 10.x.x.x, host: 10.x.x.x 分析原因 用户导入数据速度过快,频繁小批量数据导入会产生过多数据版本,超过max_tablet_version_num设置的值,则报错E-235。 处理办法 通过报错信息查看报错表。例如:tablet
而新的Multi-Catalog功能在原有的元数据层级上,新增一层Catalog,构成Catalog->Database->Table的三层元数据层级。其中,Catalog可以直接对应到外部数据目录。目前支持的外部数据目录包括: Hive JDBC: 对接数据库访问的标准接口(JDBC)来访问各式数据库的数据。 该功
垃圾文件。 数据文件合并完成后,并没有物理删除旧的数据,产生垃圾文件。 垃圾文件影响 过多垃圾文件,会占用磁盘,影响可用磁盘大小,可能造成有效数据丢失。 垃圾文件本身有防误删的功能,Doris可从垃圾文件中恢复数据,过少垃圾文件会影响防误删功能。 如何查看回收站数据 登录CloudTable控制台。
对于列类型转换来说,如果strict mode为true,则错误的数据将被filter。这里的错误数据是指:原始数据并不为空值,在参与列类型转换后结果为空值的这一类数据。对于导入的某列由函数变换生成时,strict mode对其不产生影响。对于导入的某列类型包含范围限制的,如果原始数据能正常通过类型转换,但无法通过范围限制的,strict
SHOW显示数据库和表信息 此章节主要介绍ClickHouse显示数据库和表信息的SQL基本语法和使用说明。 基本语法 show databases; show tables; 示例: 查询数据库。 show databases; 查询表信息。 show tables; 父主题:
Metastore的元数据服务,Doris可以自动获取Hive的库表信息,并进行数据查询。 除了Hive外,很多其他系统也会使用Hive Metastore存储元数据。所以通过Hive Catalog,我们不仅能访问Hive,也能访问使用Hive Metastore作为元数据存储的系统。 创建。
let数据量过小,则数据的聚合效果不佳,且元数据管理压力大。如果数据量过大,则不利于副本的迁移、补齐,且会增加Schema Change或者Rollup操作失败重试的代价(这些操作失败重试的粒度是Tablet)。 当Tablet的数据量原则和数量原则冲突时,建议优先考虑数据量原则。
需要转义。 步骤五:插入数据 执行以下命令,使用ClickHouse集群快速创建数据表,并对表数据进行查询。 创建数据库。 create database DB_demo; 使用数据库。 use DB_demo; 创建表。 create table DB_demo_t(user_id
Flink作业实时同步MRS Kafka数据至CloudTable HBase集群 此章节为您介绍数据实时同步的最佳实践,通过数据湖探索服务DLI Flink作业将MRS kafka数据实时同步给HBase,实现Kafka实时入库到HBase的过程。 了解DLI请参见数据湖探索产品介绍。 了解Kafka请参见MRS产品介绍。
Broker Load是一个异步的导入方式,支持的数据源取决于Broker进程支持的数据源。本文为您介绍Broker Load导入的基本原理、基本操作、系统配置以及最佳实践。 适用场景 源数据在Broker可以访问的存储系统中,如HDFS、OBS。 数据量在几十到百GB级别。 基本原理 用户
Service,简称OBS)存储集群数据的备份和快照,实现安全、高可靠和低成本的存储需求。 了解更多OBS的相关信息,请参见对象存储服务。 云数据迁移CDM CloudTable使用云数据迁移(Cloud Data Migration,简称CDM),可以将云上云下或第三方云上的多种数据源的数据迁移到CloudTable集群的HBase表中。
1000 --> 无法导入 验证方法: 插入一条数据并检查存入到哪个分区。分区字段VisibleVersionTime、VisibleVersion刚刚有更新的分区即为刚插入数据所在的分区。 insert into example_db.expamle_range_multi_partiton_key_tbl