检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
fileName) 指定需要返回的文件。 public void addFiles(List<String> fileNames) 指定需要返回的多个文件。 org.apache.hadoop.hbase.filestream.client.FSResult继承自org.apache.hadoop
Doris建表规范 Doris数据变更规范 Doris命名规范 Doris数据查询规范 Doris数据导入规范 Doris UDF开发规范 Doris连接运行规范
详细介绍Hudi如何配置各种分区类型。 多级分区 多级分区即指定多个字段为分区键,需要注意的配置项: 配置项 说明 hoodie.datasource.write.partitionpath.field 配置为多个分区字段,例如:p1,p2,p3。 hoodie.datasource
Sqoop常见问题 连接postgresql或者gaussdb时报错 使用hive-table方式同步数据报错 导入到Hive表时报错 父主题: 使用Sqoop
详细介绍Hudi如何配置各种分区类型。 多级分区 多级分区即指定多个字段为分区键,需要注意的配置项: 配置项 说明 hoodie.datasource.write.partitionpath.field 配置为多个分区字段,例如:p1,p2,p3。 hoodie.datasource
该接口的入参是从配置文件“UserInfo.properties”中获取的,该文件中的参数需要用户填写,该接口还会调用BasicAuthAccess类内部的多个方法。 表2 restApiDemo.src.rest.BasicAuthAcces.HttpManager 方法 描述 sendHttp
的桶来存储对应的最大hash。 序列化 数据草图可以通过varbinary进行序列化和反序列化。这使得可以被方便地存储,以备后用。通过合并多个草图,可以在查询分区中所有元素的approx_distinct(),即每个元素出现的近似次数,进而通过很小的开销去完成整个查询。 例如,只
keytab”。 通过HSFabric实现用户名密码认证 通过HSFabric连接方式,实现用户名密码认证,只需要配置用户名和密码。 通过HSBroker实现用户名密码认证 通过HSBroker连接方式,实现用户名密码认证,只需要配置用户名和密码。 父主题: 准备HetuEngine应用开发环境
开发Kudu应用 建立Kudu连接 创建Kudu表 打开Kudu表 修改Kudu表 写Kudu数据 读Kudu数据 删除Kudu表 父主题: 开发Kudu应用
准备Hive应用开发环境 准备本地应用开发环境 准备连接Hive集群配置文件 导入并配置Hive样例工程 父主题: Hive开发指南(普通模式)
准备HBase应用开发环境 准备本地应用开发环境 准备连接HBase集群配置文件 导入并配置HBase样例工程 父主题: HBase开发指南(普通模式)
准备Kafka应用开发环境 准备本地应用开发环境 准备连接Kafka集群配置文件 导入并配置Kafka样例工程 父主题: Kafka开发指南(普通模式)
准备Kafka应用开发环境 准备本地应用开发环境 准备连接Kafka集群配置文件 导入并配置Kafka样例工程 父主题: Kafka开发指南(普通模式)
准备Doris应用开发环境 准备本地应用开发环境 准备连接Doris集群配置文件 配置并导入JDBC样例工程 配置并导入SpringBoot样例工程 父主题: Doris开发指南(安全模式)
API V2 集群管理接口 作业管理接口 弹性伸缩接口 集群HDFS文件接口 SQL接口 委托管理 数据连接管理 版本元数据查询 IAM同步管理接口 标签管理接口
按照原始数据加载所有数据,之后进行除错处理。 在进入数据源的过程中,可以清理或擦除Bad Data,或者在发现Bad Data时让数据加载失败。 有多个选项可用于在CarbonData数据加载过程中清除源数据。对于CarbonData数据中的Bad Records管理,请参见表2。 表2 Bad
Doris JDBC接口调用样例程序 Doris JDBC接口样例程序开发思路 创建Doris连接 创建Doris数据库 创建Doris表 向Doris表中插入数据 查询Doris表数据 删除Doris表 父主题: Doris开发指南(普通模式)
准备HBase应用开发环境 准备本地应用开发环境 准备连接HBase集群配置文件 导入并配置HBase样例工程 配置HBase应用安全认证 父主题: HBase开发指南(安全模式)
普通模式:false spark.network.sasl.serverAlwaysEncrypt 是否为已经启用SASL认证的端口禁止未加密连接。 false spark.network.crypto.keyLength 要生成的加密密钥的长度,支持设置为“192”或“256”。 256
项fs.defaultFS不能配置为viewfs://ClusterX。 设置系统的环境变量说明 Hadoop在安全认证的时候,需要获取客户端所在主机的域名(Default Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错: