检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建Doris数据库 本章节介绍创建Doris数据库样例代码。 以下代码片段在“JDBCExample”类中。 以Java JDBC方式执行SQL语句在集群中创建dbName变量对应的数据库。 String createDatabaseSql = "create database
添加IoTDB数据源 本章节适用于MRS 3.2.0及之后的版本。 本章节指导用户在安全模式集群的HSConsole界面添加IoTDB类型的JDBC数据源。 添加IoTDB数据源前提条件 数据源所在集群域名与HetuEngine集群域名不能相同。 数据源所在集群与HetuEngine集群节点网络互通。
WebUI”后的链接,进入HSConsole界面。 单击“数据源”,在Hive数据源所在行的“操作”列下单击“编辑”,在页面内新增如下自定义配置: 表1 元数据超时参数 参数名称 默认值 描述 hive.metastore-timeout 10s 共部署Hive数据源加载元数据缓存最大超时时间,单位为秒或分钟
创建FlinkServer作业写入数据至数据仓库服务(DWS) 本章节适用于MRS 3.3.1及之后的版本。 操作场景 数据仓库服务(DWS)是在线数据分析处理数据库。本示例以安全模式FlinkServer、Kafka为例,以DWS作为sink表,以及创建表时使用的with参数和
为什么存储小文件过程中,缓存中的数据会丢失 问题 在存储小文件过程中,系统断电,缓存中的数据丢失。 回答 由于断电,当写操作完成之后,缓存中的block不会立即被写入磁盘,如果要同步地将缓存的block写入磁盘,用户需要将“客户端安装路径/HDFS/hadoop/etc/hadoop/hdfs-site
为什么存储小文件过程中,缓存中的数据会丢失 问题 在存储小文件过程中,系统断电,缓存中的数据丢失。 回答 由于断电,当写操作完成之后,缓存中的block不会立即被写入磁盘,如果要同步地将缓存的block写入磁盘,用户需要将“客户端安装路径/HDFS/hadoop/etc/hadoop/hdfs-site
数据连接管理 创建数据连接 查询数据连接列表 更新数据连接 删除数据连接 父主题: API V2
Doris数据分析 导出Doris数据至HDFS 导出Doris查询结果集 父主题: 使用Doris
在Hue WebUI使用元数据浏览器 操作场景 用户需要使用图形化界面在集群中管理Hive的元数据,可以通过Hue完成任务。 元数据管理器使用介绍 访问Hue WebUI,请参考访问Hue WebUI界面。 查看Hive表的元数据 在左侧导航栏单击表,单击某一表名称,界面将显示Hive表的元数据信息。
手动导出IoTDB数据 操作场景 该任务指导用户使用“export-csv.sh”将数据从IoTDB导出为CSV格式的文件。 导出CSV格式的数据文件,可能存在注入风险,请谨慎使用。 前提条件 已安装客户端,请参见。例如安装目录为“/opt/client”,以下操作的客户端目录只是举例,请根据实际安装目录修改。
执行大数据量的shuffle过程时Executor注册shuffle service失败 问题 执行超过50T数据的shuffle过程时,出现部分Executor注册shuffle service超时然后丢失从而导致任务失败的问题。错误日志如下所示: 2016-10-19 01:33:34
Producer发送数据失败,报错“TOPIC_AUTHORIZATION_FAILED” 问题现象 使用MRS安装集群,主要安装ZooKeeper、Kafka。 在使用Producer向Kafka发送数据功能时,发现客户端报错:TOPIC_AUTHORIZATION_FAILED。
Load主要适用于导入本地文件,或通过程序导入数据流中的数据,支持导入CSV、Parquet、ORC格式的数据,默认支持导入CSV格式数据。 语法介绍 创建Stream Load导入任务 Stream Load通过HTTP协议提交和传输数据。该操作通过curl命令演示如何提交导入,也可以使用其他HTTP
运行MRS作业时如何读取OBS加密数据 MRS 1.9.x支持使用OBS文件系统中加密后的数据来运行作业,同时支持将加密后的作业运行结果存储在OBS文件系统中。目前仅支持通过OBS协议访问数据。 OBS支持使用KMS密钥的加解密方式对数据进行加解密,所有的加解密操作都在OBS完成,同时密钥管理在DEW服务。
经分析,发现在建表时没有指定存储格式,所以采用了缺省存储格式RCFile。 在导入数据时,被导入数据格式是TEXTFILE格式,最终导致此问题。 解决办法 属于应用侧问题,解决办法有多种。只要保证表所指定存储格式和被导入数据格式是一致的,可以根据实际情况采用合适方法。 方法1: 可以使用具有H
使用辅助Zookeeper或者副本数据同步表数据时,日志报错 问题 使用辅助Zookeeper或者副本数据同步表数据时,日志报错: DB::Exception: Cannot parse input: expected 'quorum:' before: 'merge_type:
使用辅助Zookeeper或者副本数据同步表数据时,日志报错 问题 使用辅助Zookeeper或者副本数据同步表数据时,日志报错: DB::Exception: Cannot parse input: expected 'quorum:' before: 'merge_type:
UTF-8 用户名 连接数据库使用的用户名。 root 密码 连接数据库使用的密码。 xxxx 设置数据源信息 单击“下一步”,进入“输入设置”界面,设置数据源信息,暂只支持选择“表方式”。 表2 输入设置参数 参数名 说明 示例 架构名称 用户指定数据库的模式名 public 表名
上传应用数据至MRS集群 MRS集群处理的数据源通常来源于OBS文件系统或集群内的HDFS文件系统,OBS为客户提供海量、安全、高可靠、低成本的数据存储能力。 用户可以基于MRS管理控制台和OBS客户端对OBS数据进行浏览、管理和使用,也可以将OBS的数据导入集群的HDFS系统后
配置多个SFTP服务器时,HBase表或phoenix表将分成多份随机保存到各个SFTP服务器。 设置数据源信息 单击“下一步”,进入“输入设置”界面,在“源文件类型”中选择“HBASE”,设置数据源信息。 表2 数据源配置参数说明 参数名 解释说明 示例 HBase实例 在HBase作业中,Loa