检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
House集群中默认的用户,不能删除。 只有“用户管理”中的用户可以修改密码,root和默认用户的密码不可修改。 不支持在集群的单节点上创建用户和角色。 给用户A授予表格B的操作权限,当用户A删除数据表B时需要先手动删除授予表格B的操作权限,否则用户C创建的同名表格,用户A可操作同名表,且有表格B同等的操作权限。
关于Partition和Bucket的数量和数据量的建议 一个表的Tablet总数量等于 (Partition num*Bucket num)。 一个表的Tablet数量,在不考虑扩容的情况下,推荐略多于整个集群的磁盘数量。 单个Tablet的数据量理论上没有上下界,但建议在1G-10G的范围内。如果单
表3 参数说明 参数 说明 database_name 数据库的名称,默认为当前选择的数据库。 table_name 通过SELECT语句创建的表。 ENGINE = engine_name() 表的引擎类型。 SELECT ... SELECT子句。 示例: 创建表。 CREATE
Doris应用开发指导 Doris组件使用规范 建表 数据导入 数据湖分析 通过JDBC方式连接Doris 开发Doris冷热分离应用
'max_concurrency'='15','max_queue_size'='25','queue_timeout'='4000'); 用户绑定租户:通过设置user property将user绑定到workload group,默认为normal。 set property for doris_user
CLUSTER ClickHouse集群名。 SELECT ... SELECT子句。当数据写入视图中SELECT子句所指定的源表时,插入的数据会通过SELECT子句查询进行转换并将最终结果插入到视图中。 示例: 创建源表。 create table DB.table1 ON CLUSTER
冷热分离场景下,热盘不支持缩容。 背景 在数据分析的实际场景中,冷热数据面临着不同的查询频次及响应速度要求。而随着历史数据的不断增多,如果我们将所有数据存储在本地,将造成大量的资源浪费。冷热分离特性可将冷热数据分开存储,将冷热数据分别存储在成本不同的存储介质上。热数据提高时效数据的查询速度和响应能力,冷数
数修改的历史。“修改历史”页面中显示如下信息。 表1 参数说明 参数 参数说明 参数名 被修改过的参数名。 旧值 修改前的参数值。 新值 修改后的参数值。 修改时间 记录用户修改参数值的时间。 Doris参数修改状态 表2 状态 状态 状态说明 未更改 Doris未更改的参数。 未应用
Doris建表是按照Partition粒度依次创建的。当一个Partition创建失败时,可能会报这个错误。即使不使用Partition,当建表出现问题时,也会报Failed to create partition,因为如前文所述,Doris会为没有指定Partition的表创建一个不可更改的默认的Partition。
SELECT子句。当数据写入物化视图中SELECT子句所指定的源表时,插入的数据会通过SELECT子句查询进行转换并将最终结果插入到物化视图中。 说明: SELECT查询可以包含DISTINCT、GROUP BY、ORDER BY和LIMIT等,但是相应的转换是在每个插入数据块上独立执行的。 示例: 创建源表。 create
要从表中读取一条数据,首先需要实例化该表对应的Table实例,然后创建一个Get对象。也可以为Get对象设定参数值,如列族的名称和列的名称。查询到的行数据存储在Result对象中,Result中可以存储多个Cell。 针对开启冷热分离特性的列族,可以从冷热存储中查询数据,也可以只从热存储中查询数据。
) 仅指定上界,系统会将前一个分区的上界作为该分区的下界,生成一个左闭右开的区间。 通过VALUES[...) 同时指定上下界比较容易理解。这里举例说明,当使用VALUES LESS THAN (...) 语句进行分区的增删操作时,分区范围的变化情况。 CREATE TABLE
使用Scan读取数据 功能介绍 要从表中读取数据,首先需要实例化该表对应的Table实例,然后创建一个Scan对象,并针对查询条件设置Scan对象的参数值,为了提高查询效率,最好指定StartRow和StopRow。查询结果的多行数据保存在ResultScanner对象中,每行数据以Res
可以看到,用户10004的已有数据和新导入的数据发生了聚合。同时新增了10005用户的数据。 数据的聚合,在Doris中有如下三个阶段发生: 每一批次数据导入的ETL阶段。该阶段会在每一批次导入的数据内部进行聚合。 底层BE进行数据Compaction的阶段。该阶段,BE会对已导入的不同批次的数据进行进一步的聚合。