检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
c的消息,若消费者数量少于Topic的Partition数时,并发消费得不到完全体现,因此建议两者相等。 避免写入单条记录超大的数据 单条记录超大的数据在影响处理效率的同时还可能写入失败,此时需要在初始化Kafka生产者实例时根据情况调整“max.request.size ”值,在初始化消费者实例时调整“max
HBase应用开发规范 HBase应用开发规则 HBase应用开发建议
HDFS应用开发规范 HDFS应用开发规则 HDFS应用开发建议
Hive应用开发规范 Hive应用开发规则 Hive应用开发建议
Kafka应用开发规范 Kafka应用开发规则 Kafka应用开发建议
Spark应用开发规范 Spark应用开发规则 Spark应用开发建议
Impala应用开发规范 Impala应用开发规则 Impala应用开发建议
* FROM payments WHERE payment_amount < 500; 父主题: FlinkSQL Connector开发规范
存储文件夹(降低了并发度从而)导致写入命令阻塞。 应根据自己的数据规模和使用场景,平衡存储文件的存储组设置,以达到更好的系统性能。 所有的时间序列必须以root开始、以传感器作为结尾。 时间序列可以被看作产生时序数据的传感器所在的完整路径,在IoTDB中所有的时间序列必须以root开始、以传感器作为结尾。
ClickHouse修改用户密码日志。 数据迁移日志 /var/log/Bigdata/clickhouse/migration/数据迁移任务名/clickhouse-copier_{timestamp}_{processId}/copier.log 参考使用ClickHouse数据迁移工具,使用迁移工具时产生的运行日志。
写入失败的数据要做相应的处理 在写数据的过程中,如果进程异常或一些其它的短暂的异常,可能会导致一些写入操作失败。因此,对于操作的数据,需要将其记录下来。在集群恢复正常后,重新将其写入到HBase数据表中。 另外,有一点需要注意:HBase Client返回写入失败的数据,是不会自
HBase中使用rowkey作为一行记录的唯一标识。在插入数据时,如果rowkey相同,则HBase会覆盖该行的数据。如果在Hive中对一张Hive on HBase表执行INSERT OVERWRITE,会将相同rowkey的行进行覆盖,不相关的数据不会被覆盖。 父主题: Hive应用开发规范
/dn/datadir 设置后,数据会存储到节点上每个挂载磁盘的对应目录下面。 HDFS提高读取写入性能方式 写入数据流程:HDFS Client收到业务数据后,从NameNode获取到数据块编号、位置信息后,联系DataNode,并将需要写入数据的DataNode建立起流水线,
DWS作业,DWS可以作为源表、结果表和维表。 开发FlinkSQL DWS表请参考Flink SQL概述。 父主题: FlinkSQL Connector开发规范
Elasticsearch表开发建议 FlinkSQL Elasticsearch作业,参数配置如下: 表1 Flink作业With属性 参数 是否必选 数据类型 描述 connector 必选 String 指定要使用的连接器,如elasticsearch-7,即连接到Elasticsearch
ClickHouse集群规划 ClickHouse集群业务规划 ClickHouse数据分布设计 ClickHouse容量规划设计 ClickHouse依赖服务设计 父主题: ClickHouse应用开发规范
在调用write函数写入数据时,HDFS客户端并不会将数据写入HDFS,而是缓存在客户端内存中,此时若客户端异常、断电,则数据丢失。对于有高可靠要求的数据,应该写完后,调用hflush将数据刷新到HDFS侧。 父主题: HDFS应用开发规范
IoTDB应用开发规范 IoTDB应用开发规则 IoTDB应用开发建议
Hudi表初始化 初始化导入存量数据通常由Spark作业来完成,由于初始化数据量通常较大,因此推荐使用API方式给充足资源来完成。 对于批量初始化后需要接Flink或Spark流作业实时写入的场景,一般建议通过对上有消息进行过滤,从一个指定的时间范围开始消费来控制数据的重复接入量(例如Sp
Impala的元数据存放在内存中,Impalad需要从Catalog同步全量元数据,要保证Impala的jvm内存大于Catalog的jvm内存,才可以容纳下这些元数据。 建表时分区不要超过10万个,分区太多会影响元数据加载速度,阻塞查询 Impala元数据和分区、文件数量正相