检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
节点上的数据更多,从而导致节点间的数据不均衡。 实施步骤 业务数据不均衡的处理措施: 优化业务中Topic的设计,对于数据量特别大的Topic,可对业务数据做进一步的细分,并分配到不同的Topic上。 生产者生产消息时,尽量把消息均衡发送到不同的分区上,确保分区间的数据均衡。 创
向Phoenix表中插入数据 功能简介 使用Phoenix实现写数据。 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“PhoenixSample”类的testPut方法中。 /** * Put data */ public
查询已经订阅的数据集 功能介绍 数据消费者查看已经订阅下载成功的数据集信息。 URI URI格式 GET /softcomai/datalake/v1.0/subscribtions?pageNum=1&pagesize=10 参数说明 无。 请求 请求样例 GET https:
log 登录数据库 mysql -uroot -p"数据库密码" 修改数据库密码并授权 ALTER USER 'root'@'localhost' IDENTIFIED BY '数据库密码'; create user 'root'@'%' identified by '数据库密码' ;
管理数据库安全 查看数据库连接数 管理用户及权限 数据库审计
QueueData[] body False 队列数据,成功时必须返回。 表4 QueueData参数说明 参数名称 数据类型 参数位置 必选/可选 描述 id long body False 队列数据自增ID uid string body False 队列数据UUID queueName string(32)
CIM数据汇聚管理软件 服务信息如下: 表1 服务信息 服务名 服务器 安装目录 端口 stdms-service-app 10.190.x.x 10.190.x.x 10.190.x.x /app/stdms-server 8888 stdms 10.190.x.x 10.190
ClickHouse消费Kafka数据异常 问题现象 用户在ClickHouse集群创建Kafka引擎表test.user_log_kafka消费Kafka数据,查看Kafka监控发现凌晨开始出现消息堆积,数据一直没有被消费。 原因分析 Kafka出现消息堆积,说明ClickHouse消费数据时出现异常,需要查看ClickHouse的日志。
v2x-v1-tracks:edge上报的车辆轨迹数据 v2x-v1-bsm:车载T-BOX,RSU上报的BSM消息数据 v2x-v1-rsi:RSU,edge上报的RSI消息数据 v2x-v1-rsm: RSU,edge上报的RSM消息数据 v2x-v1-spat:RSU上报的SPAT消息数据 v2x-v1-e
件中。 在导入数据时,如果header选项为on,则数据文本第一行会被识别为标题行,会忽略此行。如果header为off,而数据文件中第一行会被识别为数据。 在导出数据时,如果header选项为on,则需要指定fileheader。fileheader是指定导出数据包含标题行的定
'character' 指定数据文件行数据的字段分隔符。 分隔符不能是\r和\n。 分隔符不能和null参数相同,CSV格式数据的分隔符不能和quote参数相同。 TEXT格式数据的分隔符不能包含: \.abcdefghijklmnopqrstuvwxyz0123456789。 数据文件中单行数
16T的文本数据转成4T Parquet数据失败 问题 使用默认配置时,16T的文本数据转成4T Parquet数据失败,报如下错误信息。 Job aborted due to stage failure: Task 2866 in stage 11.0 failed 4 times
16T的文本数据转成4T Parquet数据失败 问题 使用默认配置时,16T的文本数据转成4T Parquet数据失败,报如下错误信息。 Job aborted due to stage failure: Task 2866 in stage 11.0 failed 4 times
配置HBase冷热数据分离存储 在海量大数据场景下,HBase表中的部分业务数据随着时间的推移仅作为归档数据或者访问频率很低,同时这部分历史数据体量非常大,比如订单数据或者监控数据,如果降低这部分数据的存储成本将会极大的节省企业的成本。 HBase支持冷热分离功能,将数据分类存储在不同
什么是DDS实例的只读状态? 为保护DDS实例的正常运行,在存储空间即将被写满的时候,数据库会被设置成磁盘满只读状态,该状态下只支持数据的读取,不支持写入和更新,可以通过扩容存储空间来解除该状态,重新获得写入和更新的能力。 具体规则如下: 用户购买的存储空间超过600GB,当剩余
导入导出Hive表/分区数据 操作场景 在大数据应用场景中,往往存在将Hive中的数据表迁移到另一个集群上,使用Hive的导入导出命令可以实现表级别数据迁移,即可使用Export命令将源集群的Hive表导出到目标集群的HDFS中,再在目标集群使用Import命令将导出的数据导入到相应的Hive表中。
操作下的“配置数据存储”。 进入“配置数据存储”页面。 在“配置数据存储”页面,根据页面提示设置参数,为企业路由器实例配置OBS存储。 企业路由器连接 在企业路由器列表中,单击展开目标企业路由器的连接列表,并单击连接所在行的操作下的“配置数据存储”。 进入“配置数据存储”页面。
是否支持增量迁移? CDM支持增量数据迁移。利用定时任务配置和时间宏变量函数等参数,可支持以下场景的增量数据迁移: 文件增量迁移 关系数据库增量迁移 HBase/CloudTable增量迁移 详情请参见增量迁移。 父主题: 功能类
如果手动备份所使用的空间超过您的默认存储空间,则可能会增加云数据库RDS存储成本。 复制备份不会影响实例上的业务。 计费说明 备份都是以压缩包的形式存储在对象存储服务上。具体收费规则请参见RDS的备份是如何收费的。 当数据库实例被删除后,实例赠送的备份空间会自动取消,此时手动备份会
快的磁盘上,比如一种固态设备。 一个存储归档的数据,很少使用的或者对性能要求不高的表可以存储在一个运算速度较慢的磁盘上。 管理员通过表空间可以设置占用的磁盘空间,用以在和其他数据共用分区的时候,防止表空间占用相同分区上的其他空间。 表空间可以控制数据库数据占用的磁盘空间。当表空间