检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
select * from hive_hdfs_test2; ERROR 1105 (HY000): errCode = 2, detailMessage = get file split failed for table: hive_hdfs_test2, err: org.apache.hadoop
使用CDM迁移数据到CloudTable 通过云数据迁移(Cloud Data Migration,以下简称CDM),可以将云上云下或第三方云上的多种数据源的数据迁移到CloudTable集群的HBase表中。支持的数据源请参见《云数据迁移产品介绍》中的支持的数据源章节。 使用C
string, `area_id` string ) WITH ( 'connector' = 'kafka', 'topic' = 'test_flink', 'properties.bootstrap.servers' = 'ip:port', 'value.format' =
数据表中相关列族TTL必须一致,否则无法创建相关索引。 不支持自定义索引表其他属性。 索引写入约束 索引数据生成仅支持Put/Delete接口,使用其他方式(Increment、Append等)写入数据表时不会生成对应索引。 索引列数据定义为String类型时,要避免写入\x00
'mapred/hadoop.hadoop.com@HADOOP.COM' ); 创建后查询: select * from hive_catalog.DB.test_table; 元数据缓存设置 创建Catalog时可以采用参数file.meta.cache.ttl-second来设置Hive分区文
【强制】in中条件超过2000后,必须修改为子查询。 【强制】禁止使用REST API(Statement Execution Action)执行大量SQL查询,该接口仅仅用于集群维护。 【建议】一次insert into select数据超过1亿条后,建议拆分为多个insert into select语
单节点不支持扩容,不支持数据迁移。 单节点用户非生产环境。 单节点用户需要建立非Replicate表。 建表示例: CREATE TABLE test_p (`EventDate` DateTime,`CounterID` UInt32,`UserID` UInt32,`ver` UInt16)ENGINE
total_{method_name} doris_fe_thrift_rpc_total_{method_name} FE thrift接口各个方法接收的RPC请求次数 ≥0 60s Service.CloudTable doris_fe_thrift_rpc_latency_ms_{method_name}