检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
不支持删除分区列或者分桶列。 DROP COLUMN不支持rctext、rcbinary、rcfile 格式存储的表。由于connector对不同文件格式的列访问模式不同,drop column后可能会出现查询失败的情况,例如: 对于orc格式存储的非分区表 ,drop column后如果查询失败,需要设置Session属性:
Per Partition 0 Parallelism 10 Target Hive Database default Hudi表属性配置方式 可视化视图 Hudi表属性全局配置 - Hudi表属性配置-Table Name test Hudi表属性配置-Table Type Opt
Per Partition 0 Parallelism 10 Target Hive Database default Hudi表属性配置方式 可视化视图 Hudi表属性全局配置 - Hudi表属性配置-Table Name test Hudi表属性配置-Table Type Opt
tuEngine会默认缓存5分钟,不会即时生效,5分钟后才会进行JAR文件的更新和重新加载。 使用HetuEngine UDF 使用客户端访问: 进入HetuEngine客户端。 执行如下命令创建HetuEngine UDF: CREATE FUNCTION example.namespace01
log FlinkServer健康检查日志。 localhost_access_log..yyyy-mm-dd.txt FlinkServer访问URL日志。 start_thrift_server.out thrift server启动日志。 thrift_server_thriftServer_xxx
set(TableInputFormat.SCAN, scanToString) //通过spark接口获取表中的数据 val rdd = sc.newAPIHadoopRDD(hbConf, classOf[TableInputFormat], classOf[ImmutableBytesWritable]
ers>指获取元数据的Kafka地址(需使用21007端口),<subscribe-type> 指定kakfa的消费方式,<kafkaProtocol>指安全访问协议(如SASL_PLAINTEXT),<kafkaService>指kerberos服务名称(如kafka),<ka
ers>指获取元数据的Kafka地址(需使用21007端口),<subscribe-type> 指定kakfa的消费方式,<kafkaProtocol>指安全访问协议(如SASL_PLAINTEXT),<kafkaService>指kerberos服务名称(如kafka),<ka
检查该告警中NetworkCardName参数对应的网卡是否为备网卡。 是,备网卡的告警无法自动恢复,请在告警管理页面手动清除该告警,处理完毕。 否,执行5。 备网卡判断方式:查看配置文件/proc/net/bonding/bond0,NetworkCardName参数对应的网卡名称等于其中一个Slave In
HDFS”。 在“基本信息”区域,单击“NameNode(主)”,进入HDFS WebUI页面。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 在HDFS WebUI,单击“Datanodes”页签,在“In
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 NameNode无法及时处理来自HDFS客户端、依赖于HDFS的上层服务、DataNode等的RPC请求,表现为访问HDFS服务的业务运行缓慢,严重时会导致HDFS服务不可用。 可能原因 NameNode节点的CPU性能不足,导致NameNode无法及时处理消息。
集群进行扩容的时候,就需要对Colocation的locators分配进行重新规划。 2 创建一批新的locators,并重新规划数据存放方式。 旧的locators使用的是旧的数据节点,而新创建的locators偏重使用新的数据节点,所以需要根据实际业务对数据的使用需求,重新规划locators的使用。
region; INNER JOIN 两个表中至少存在一个相匹配的数据时才返回行,等价于JOIN。也可以转换为等价的WHERE语句,转换方式如下: SELECT * FROM nation (INNER) JOIN region ON nation.name=region.name;
be-type>指Kafka订阅类型(如subscribe),<topic>指读取Kafka上的topic名称,<protocol>指安全访问协议(如SASL_PLAINTEXT),<service>指kerberos服务名称(如kafka),<domain>指kerberos域名(如hadoop
Manager停止所有待恢复数据的NameNode角色实例,其他的HDFS角色实例必须保持正常运行,恢复数据后重启NameNode。NameNode角色实例重启前无法访问。 检查NameNode备份文件是否保存在主管理节点“数据存放路径/LocalBackup/”。 恢复Manager数据 查看备份数据位置。
开该HBase实例的WebUI,查看RegionServer上Region分布是否均衡。 admin用户默认不具备其他组件的管理权限,如果访问组件原生界面时出现因权限不足而打不开页面或内容显示不全时,可手动创建具备对应组件管理权限的用户进行登录。 是,执行9。 否,执行3。 图1
以unicode的模式去实现。同时,不支持上下文敏感匹配和局部敏感匹配。此外,不支持(?u)标志。 不支持Surrogate Pair编码方式。例如,\ uD800 \ uDC00不被视为U + 10000,必须将其指定为\ x {10000}。 边界字符(\b)无法被正确处理,因为它一个不带基字符的非间距标记。
<subscribe-type>指Kafka订阅类型(如subscribe)。 <topic>指读取Kafka上的topic名称。 <protocol>指安全访问协议(如SASL_PLAINTEXT)。 <service>指kerberos服务名称(如kafka)。 <domain>指kerberos域名(如hadoop
“IAM用户同步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 通过管理控制台同步配置 同步集群配置: 登录MRS管理控制台,单击待操作的集群名称。 在集群详情页,单击页面右上角“配置
已创建的角色。为新用户分配角色授权,最长可能需要3分钟时间生效。 创建用户时添加角色可细化用户的权限。 没有为新用户分配角色时,此用户可以访问HDFS、HBase、Yarn、Spark和Hue的WebUI。 根据业务实际需要“描述”。 “描述”为可选参数。 单击“确定”完成用户创建。