检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 controller进程持续重启,可能引起无法访问服务原生UI界面。 可能原因 controller进程异常。 处理步骤 检查controller进程是否异常。 打开FusionInsight
将编译后的jar包上传到客户端节点,例如上传到“/opt/client/lib”目录下。 如果本地网络无法直接连接客户端节点上传文件,可先将jar文件或者源数据上传至OBS文件系统中,然后通过MRS管理控制台集群内的“文件管理”页面导入HDFS中,再通过HDFS客户端使用hdfs dfs -get命令下载到客户端节点本地。
“Tokentest”。 指定服务使用的SASL认证机制。 查找配置项“sasl.enabled.mechanisms”,配置为“GSSAPI,SCRAM-SHA-256,SCRAM-SHA-512”(使用英文逗号将这三项分隔)。 使用Scram登录组件。 查找自定义配置项“kafka
Metastore之上,具有Hive的DDL能力。从另外一种意义上说,HCatalog还是Hadoop的表和存储管理层,它使用户能够通过使用不同的数据处理工具(比如MapReduce),更轻松地在网格上读写HDFS上的数据,HCatalog还能为这些数据处理工具提供读写接口,并使用
以下场景,物化视图不支持对包含了函数的SQL查询进行改写: SQL中包含无参函数 SQL中包含了HetuEngine支持的会根据参数的类型获得不同类型的返回值的函数 SQL中函数存在嵌套使用,或者是使用的函数会发生异常导致重写失败的函数 物化视图创建语句改写不支持二段式表名,支持一段式和三段式表名。
gateway HttpFS是个单独无状态的gateway进程,对外提供webHDFS接口,对HDFS使用FileSystem接口对接。可用于不同Hadoop版本间的数据传输,及用于访问在防火墙后的HDFS(HttpFS用作gateway)。 HDFS HA架构 HA即为High A
valueN) → [same as input] 返回提供的最小值。 批量比较判断:ALL,ANY和SOME 量词ALL,ANY和SOME可以参考以下方式,结合比较操作符一起使用: expression operator quantifier ( subquery ) 以下是一些量词和比较运
} String url = sBuilder.toString(); 直连Impalad实例时,若当前连接的Impalad实例故障则会导致访问Impala失败。 加载Hive JDBC驱动。 // 加载Hive JDBC驱动 Class.forName(HIVE_DRIVER);
21701 kinit服务的端口。 Kpasswd监听端口 21702 kpasswd服务的端口。 重置LDAP账户密码 - Kerberos访问LDAP使用的机机账户(cn=krbadmin,ou=Users,dc=hadoop,dc=com和cn=krbkdc,ou=Users,dc=hadoop
“IAM用户同步”右侧的“同步”进行IAM用户同步)。 如果通过Manager界面操作,需要已登录MRS集群Manager界面,详情请参考访问MRS集群Manager。 通过管理控制台修改实例参数 登录MRS管理控制台,单击待操作的集群名称。 在集群详情页,单击“组件管理”。 单击服务列表中指定的服务名称。
主备倒换,用户无法正常登录FusionInsight Manager平台,无法进行正常运维操作。 floatip进程持续重启,可能引起无法访问服务原生UI界面。 可能原因 浮动IP地址异常。 处理步骤 检查主管理节点的浮动IP地址状态。 打开FusionInsight Manag
ClickHouseServer(角色) > 引擎”,修改如下参数: 参数 参数说明 kafka_auth_mode ClickHouse连接Kafka的认证方式,参数值选择NoAuth。 选择“集群 > 服务 > ClickHouse > 配置 > 全部配置 > ClickHouseServer(角色)
“新节点规格”增加。 扩容集群前需要检查集群安全组是否配置正确,要确保集群入方向安全组规则中有一条全部协议,全部端口,源地址为可信任的IP访问范围的规则。 进入“扩容节点”窗口,单击“确认”。 页面右上角弹出扩容节点提交成功提示框。 集群扩容过程说明如下: 扩容中:集群正在扩容时
rk->rk_conf.api_version_request ? "" : ": try api.version.request=true");
在“任务名称”填写恢复任务的名称。 选择恢复源。 在“恢复配置”,勾选待恢复数据的元数据组件。 设置恢复参数。 在“路径类型”,选择一个备份目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示备份文件保存在主管理节点的本地磁盘上。选择此参数值,还需要配置“源端路径”,表示备
n指定路径到库后,删除表后导致库数据丢失。 Hive并发overwrite写入后,执行overwrite的任务支持拦截。 Hive并发插入不同分区数据,存在分区数据丢失问题。 Hive监控告警增强,新增MetaStore只操作DB接口的耗时、HiveServer建立连接/关闭连接耗时
为它有较好的Encoding/Decoding速度和可以接受的压缩率。 NONE BLOCKSIZE 配置HFile中block块的大小,不同的block块大小,可以影响HBase读写数据的效率。越大的block块,配合压缩算法,压缩的效率就越好;但是由于HBase的读取数据是以
在“恢复对象”选择待操作的集群。 在“恢复配置”,勾选“元数据和其它数据”区域下的“IoTDB”。 在“路径类型”参数后选择一个备份目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示备份文件保存在主管理节点的本地磁盘上。 选择此参数值,还需要配置“源端路径”,表示
在“恢复对象”选择待操作的集群。 在“恢复配置”,勾选“元数据和其他数据”下的“Flink”。 在“Flink”的“路径类型”,选择一个恢复目录的类型。 选择不同的备份目录时,对应设置如下: “LocalDir”:表示从主管理节点的本地磁盘上恢复数据。 选择此参数值,还需要配置“源端路径”,表示要恢
在“权限配置”区域,单击“用户管理”。 在用户列表上方,单击“添加用户”。 根据界面提示配置参数,填写“用户名”。 不支持创建两个名称相同但大小写不同的用户。例如已创建用户“User1”,无法创建用户“user1”。 使用已创建的用户时,请输入和用户名完全一样的大小写字符。 “用户名”为