检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
并且正常运行。 已创建或获取访问Oozie服务的人机用户账号及密码。 该用户需要从属于hadoop、supergroup、hive组,同时添加Oozie的角色操作权限。如果使用Hive多实例,该用户还需要从属于具体的Hive实例组,如hive3。 用户同时还需要至少有manager_viewer权限的角色。
并且正常运行。 已创建或获取访问Oozie服务的人机用户账号及密码。 该用户需要从属于hadoop、supergroup、hive组,同时添加Oozie的角色操作权限。若使用Hive多实例,该用户还需要从属于具体的Hive实例组,如hive3。 用户同时还需要至少有manager_viewer权限的角色。
SlapdServer连接数超过阈值 告警解释 系统每30秒周期性检查SlapdServer节点的进程连接数,并把实际进程连接数和阈值相比较,当进程连接数连续多次(默认值为5)超过设定阈值(默认值为1000)时,系统将产生此告警。 平滑次数可配置,当平滑次数为1,进程连接数小于或等于阈值
HBase ThriftServer连接样例程序 通过ThriftServer实例操作HBase表 通过ThriftServer实例向HBase表中写入数据 通过ThriftServer实例读HBase表数据 父主题: 开发HBase应用
HBase ThriftServer连接样例程序 通过ThriftServer实例操作HBase表 通过ThriftServer实例向HBase表中写入数据 通过ThriftServer实例读HBase表数据 父主题: 开发HBase应用
如果用户需要在统一的运维网管平台查看集群的告警、监控数据,管理员可以在FusionInsight Manager使用SNMP服务将相关数据上报到网管平台。 前提条件 对接服务器对应的弹性云服务器需要和MRS集群的Master节点在相同的VPC,且Master节点可以访问对接服务器的IP地址和指定端口。
Manager页面,单击“实例”,选择ClickHouseServer实例,单击“更多 > 重启实例 ”,弹出对话框输入密码,单击“确定”。重启实例对话框,单击“确定”,根据界面提示信息确认实例重启成功,单击“完成”重启操作完成。 登录ClickHouseServer实例所在主机节点,进入
上传MySQL数据库连接驱动 操作场景 Loader作为批量数据导出的组件,可以通过关系型数据库导入、导出数据。在连接关系型数据库前,需提前手动上传驱动。 操作步骤 修改关系型数据库对应的驱动jar包文件权限。 登录Loader服务的主备管理节点,获取关系型数据库对应的驱动jar
root”,勾选“default”的“提交”,单击“确定”保存。 选择“用户 > 添加用户”,在新增用户界面,创建一个机机用户,例如developuser。 “用户组”需加入“hadoop”用户组。 “角色”加入新增的角色,例如developrole。 使用admin用户登录FusionInsight Manager,选择“系统
Manager页面,单击“实例”,选择ClickHouseServer实例,单击“更多 > 重启实例 ”,弹出对话框输入密码,单击“确定”。重启实例对话框,单击“确定”,根据界面提示信息确认实例重启成功,单击“完成”重启操作完成。 登录ClickHouseServer实例所在主机节点,进入
普通模式或者使用密码认证方式时,登录使用的用户。 keytab登录方式,则不需要设置该参数。 bar authentication.password 使用密码认证方式时,登录使用的用户密码。 普通模式或者keytab登录方式,则不需要设置该参数。 用户需要对密码加密,加密方法: 进
properties参数说明 参数 说明 user 用于Kerberos认证的用户名,即准备开发用户中创建的开发用户的用户名。 KerberosPrincipal 用于认证的名字,即认证准备开发用户中创建的开发用户的用户名。 KerberosConfigPath krb5.conf的路径。
Python3访问Hive样例程序 功能介绍 本章节介绍如何使用Python3连接Hive执行数据分析任务。 样例代码 以下分析任务示例在“hive-examples/python3-examples/pyCLI_nosec.py”文件中。 导入hive类 from pyhive
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 发生连接数告警时,表示连接到HiveServer的session数过多,将会导致无法建立新的连接,导致新任务失败,甚至服务异常重启。 可能原因 连接HiveServer的客户端过多。 处理步骤 增加Hive最大连接数配置。 在FusionInsight
RegionServer的RPC连接数超过阈值 告警解释 系统每30秒周期性检测每个HBase服务的RegionServer实例的RPC连接数,当检测到某个RegionServer上的RPC打开连接数连续10次超出阈值时产生该告警。 当RegionServer实例的RPC连接数小于或等于阈值时,告警消除。
Spark Streaming任务提交问题 问题现象 连接Kafka报类找不到。 连接带Kerberos的Kafka,报认证错误。 SparkStreaming任务运行一段时间后开始报TOKEN过期问题。 原因分析 问题1:Spark提交任务默认不会加载kafka的相关包,所以需
MRS集群如何使用公网访问Presto 用户问题 用户调测Presto JDBC样例代码,需要使用公网访问Presto。 问题分析 登录MRS Manager上查看Presto全部配置,Coordinator角色配置: PRESTO_COORDINATOR_FLOAT_IP = 内网IP地址
使用MySQL客户端连接Doris数据库时,在命令中新增“connect_timeout”参数,默认值为10秒,命令如下: mysql -u数据库登录用户 -p数据库登录用户密码 -P数据库连接端口 -hDoris FE实例IP地址 --connect_timeout=120 父主题: Doris常见问题
Loader每个作业都需要关联一个连接器,连接器主要作用:对于数据导入到集群的场景来说,就是从外部数据源读取数据;对于数据从集群导出去的场景来说,就是将数据写入到外部数据源。上述示例配置的是一个SFTP数据源连接器。配置SFTP和FTP的数据源连接器需要设置密码并进行加密。密码加密方法如下:
集群外节点提交Spark作业时报错无法连接Driver 问题现象 集群外节点和集群各个节点网络已经互通,在集群外节点使用client模式提交Spark任务到Yarn上,任务失败,报错信息为无法连接Driver。 原因分析 使用client模式提交Spark任务的时候,Spark的