检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
于上一次该HBase表的备份时间,则在增量备份任务中可能无法备份新数据。 HBase备份功能不支持对HBase的global或者命名空间的读取、写入、执行、创建和管理权限的访问控制列表(ACL)进行备份,恢复HBase数据后需要管理员在FusionInsight Manager上重新设置角色的权限。
huawei.hadoop.hbase.io.crypto.CryptoRuntimeException”异常。此时hbase shell中仍可正常读取该表数据,即加密配置成功。 修改密钥文件 在加密HFile和WAL内容操作中需要生成对应的密钥文件并设置密码,为确保系统安全,在运行一段时
/user/example/input 步骤四:提交作业并查看结果 以root用户登录客户端节点(Master1节点)。 执行如下命令提交wordcount作业,读取源数据进行分析并将执行结果输出至HDFS。 cd /opt/client source bigdata_env hadoop jar HD
视图权限在SparkSQL权限上的限制与列权限相似,详细如下: 在spark-sql模式下,只有视图权限而没有表权限,且没有HDFS的读取权限时,用户不能访问HDFS上存储的表的数据,即该情况下不支持对该表的视图进行查询。 Beeline/JDBCServer模式下,用户间赋
毫秒。 StreamLoadPutTimeMs 向FE请求获取导入数据执行计划所花费的时间,单位为:毫秒。 ReadDataTimeMs 读取数据所花费的时间,单位为:毫秒。 WriteDataTimeMs 执行写入数据操作所花费的时间,单位为:毫秒。 CommitAndPublishTimeMs
创建FlinkServer作业写入数据至ClickHouse表 本章节适用于MRS 3.1.2及之后的版本。 操作场景 Flink通过对接ClickHouse的ClickHouseBalancer实例进行读写,有效避免ClickHouse流量分发问题。FlinkSQL与ClickHouse数据类型对应关系如下表所示。
/user/example/input 步骤五:提交作业并查看结果 以root用户登录客户端节点(Master1节点)。 执行如下命令提交wordcount作业,读取源数据进行分析并将执行结果输出至HDFS。 cd /opt/client source bigdata_env kinit test hadoop
否 向Doris发送请求的连接超时时间。 doris.request.read.timeout.ms 30000 否 向Doris发送请求的读取超时时间。 sink.max-retries 3 否 Commit失败后的最大重试次数,默认为3次。 sink.enable.batch-mode
请尝试重新发起调用,或联系技术支持,或检查集群状态是否正常 400 0182 Failed to read the SQL job result. 读取SQL作业结果失败 请尝试重新发起调用,或联系技术支持,或检查集群状态是否正常 400 0183 The job is running. 作业正在运行中
口”设置为新端口。 “存放路径”最多可以包含256个字符。 “登录用户”设置为“root”。 如果使用其他用户,请确保该用户对保存目录拥有读取、写入和执行权限。 在“登录方式”选择“密码”或“SSH私钥”。 密码:输入创建集群时设置的root用户密码。 SSH私钥:选择并上传创建集群时使用的密钥文件。
+--------------------------+ 将数据导入OBS对应表目录下。 Hive内部表会默认在指定的存储空间中建立对应文件夹,只要把文件放入,表就可以读取到数据(需要和表结构匹配)。 登录OBS控制台,在已创建的文件系统的“文件”页面,将本地的原始数据分别上传至生成的“employees_i
/opt/client/Loader/loader-tools-1.99.3/sqoop-shell ./sqoop2-shell 上述命令通过读取配置文件获取认证信息。 也可以直接通过密码或者Kerberos认证。 使用密码进行认证: ./sqoop2-shell -uk false
/opt/client/Loader/loader-tools-1.99.3/sqoop-shell ./sqoop2-shell 上述命令通过读取配置文件获取认证信息。 也可以直接通过密码或者Kerberos认证。 使用密码进行认证: ./sqoop2-shell -uk false
/opt/client/Loader/loader-tools-1.99.3/sqoop-shell ./sqoop2-shell 上述命令通过读取配置文件获取认证信息。 也可以直接通过密码或者Kerberos认证。 使用密码进行认证: ./sqoop2-shell -uk false
/opt/client/Loader/loader-tools-1.99.3/sqoop-shell ./sqoop2-shell 上述命令通过读取配置文件获取认证信息。 也可以直接通过密码或者Kerberos认证。 使用密码进行认证: ./sqoop2-shell -uk false
"coreDataVolumeCount" : "1", "periodType" : "0" } ] } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
"coreDataVolumeCount" : "1", "periodType" : "0" } } SDK代码示例 SDK代码示例如下。 Java Python Go 更多 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
RDD的执行周期,单位:秒。 1 Max Rate Per Partition 使用Kafka direct stram API时,从每个Kafka分区读取数据的最大速率限制,单位:个/秒, 0表示无限制。 0 Parallelism 写Hudi时的并发数。 100 Target Hive Database
IoTDB系统管理员用户,用户权限: IoTDB管理员权限: 创建或删除存储组 使用TTL IoTDB数据操作权限: 创建、修改、删除时间序列 对时间序列进行数据写入、读取、删除。 查看用户或角色权限信息 对用户、角色授权或回收权限 说明: 普通集群下,IoTDB服务保持开源特性,默认用户:root,默认密码为root(MRS