检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
批量数据导入 Broker Load Stream Load 父主题: 数据导入
使用CopyTable工具导入数据 CopyTable是HBase提供的一个实用工具,可以将部分或全部表复制到同一个集群或另一个集群中。目标表必须预先存在。在CloudTable客户端工具中已经包含了CopyTable工具,用户部署客户端工具后,即可使用CopyTable工具导入数据到CloudTable集群。
数据导入导出 本章节主要介绍使用ClickHouse客户端导入导出文件数据的基本语法和使用说明。 CSV格式数据导入导出 CSV格式数据导入。 非安全集群 cat csv_ssl | ./clickhouse client --host 192.168.x.x --port port
数据导入 总览 批量数据导入 父主题: Doris应用开发指导
数据导入 使用DLI Flink作业实时同步MRS Kafka数据至CloudTable HBase集群 使用DLI Flink作业实时同步MRS Kafka数据至CloudTable ClickHouse集群
HBase数据批量导入 使用CDM迁移数据到CloudTable 使用Import工具导入数据 使用CopyTable工具导入数据 数据表复制样例代码 父主题: HBase用户指南
使用Import工具导入数据 使用Import工具,可以导入HBase的SequenceFile数据文件到CloudTable的HBase中。Import工具是客户端工具安装包中自带的一个工具。 SequenceFile文件是指使用Export工具从HBase导出的数据文件。 准
数据导入 Doris集群导入数据频繁报错E-235
命令示例如下,其中table_name请替换为在CDM集群中新建作业时指定的表名。 scan 'table_name' 父主题: HBase数据批量导入
load是一个同步的导入方式,用户通过发送HTTP协议发送请求将本地文件或数据流导入到Doris中。Stream load同步执行导入并返回导入结果。用户可直接通过请求的返回体判断本次导入是否成功。 Stream load主要适用于导入本地文件,或通过程序导入数据流中的数据。 基本原理
配置并导入工程 背景信息 将CloudTable样例代码工程导入到Eclipse,就可以开始CloudTable应用开发样例的学习。 前提条件 运行环境已经正确配置,请参见准备Windows运行环境。 操作步骤 把样例工程上传到Windows开发环境中。样例工程的获取方法请参见下载样例工程。
(puts.size() != 0) { dstTable.put(puts); } } } 父主题: HBase数据批量导入
[INTERNAL_ERROR]tablet error: [E-235], host: 10.x.x.x, host: 10.x.x.x 分析原因 用户导入数据速度过快,频繁小批量数据导入会产生过多数据版本,超过max_tablet_version_num设置的值,则报错E-235。 处理办法 通过报错信息查看报错表。例如:tablet
配置并导入样例工程 背景信息 获取ClickHouse开发样例工程,将工程导入到IntelliJ IDEA开始样例学习。 操作场景 ClickHouse针对多个场景提供样例工程,帮助客户快速学习ClickHouse工程。 操作步骤 在应用开发环境中,导入代码样例工程到IntelliJ
RDS服务MySQL数据库名。 user RDS服务MySQL数据库用户名。 password RDS服务MySQL数据库用户密码。 MySQL引擎使用示例: 连接到RDS服务的MySQL数据库。详细操作可以参考RDS服务MySQL实例连接。 在MySQL数据库上创建表,并插入数据。 使用客户端命令连接ClickHouse。
法。 mysql> help 创建数据库。 执行“CREATE DATABASE”命令创建数据库,创建数据库必须指定数据库的名字。 mysql> CREATE DATABASE demo; Query OK, 0 rows affected (0.00 sec) 使用数据库。 mysql>
使用MySQL客户端访问集群 用户在弹性云服务器里可以通过手动安装客户端的方法,使用MySQL访问集群。 手动安装客户端 准备Linux弹性云服务器,具体操作请见准备弹性云服务章节。 安装客户端,连接集群。 使用SSH登录工具,通过弹性IP远程登录到Linux弹性云服务器。 具体
默认的导入最大超时时间4小时,最好是通过切分待导入文件并且分多次导入来解决问题。主要原因是:单次导入超过4小时的话,导入失败后重试的时间成本很高。 可以通过如下公式计算出Doris集群期望最大导入文件数据量: 期望最大导入文件数据量=14400s*10M/s*BE个数。 比如:集群的BE个数为10个。
use集群。 下载客户端和客户端校验文件。 准备弹性云服务。 安装客户端并校验客户端。 建立flink数据库。 create database flink; 使用flink数据库。 use flink; 创建flink.order表。 create table flink.order(order_id
更好的使用数据导入功能。 导入的原子性保证 Doris的每一个导入任务,不论是使用Broker Load进行批量导入,还是使用INSERT语句进行单条导入,都是一个完整的事务操作。导入事务可以保证一批次内的数据原子生效,不会出现部分数据写入的情况。 同时,每个导入任务都会有一个L