检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用Hue提交Oozie Streaming作业 操作场景 该任务指导用户通过Hue界面提交Streaming类型的Oozie作业。 操作步骤 创建工作流,请参考使用Hue创建工作流。 在工作流编辑页面,选择“数据流”按钮,将其拖到操作区中。 在弹出的“Streaming”窗口中配置“Mapper
单击“添加角色”,然后在“角色名称”和“描述”输入角色名字与描述。 在“配置资源权限”中,选择“待操作集群的名称 > Kafka”。 根据业务需求选择权限,具体配置项,请参见表1 表1 配置项说明 任务场景 角色授权操作 设置Kafka管理员权限 在“配置资源权限”的表格中选择“待操作集群的名称 > Kafka
在“服务”中勾选待操作集群的“Kudu”。 单击右上角的时间编辑按钮,设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。 参考信息 无 父主题: MRS集群告警处理参考
前提条件 弹性伸缩仅用于Task节点组,当集群内没有Task节点组时,需先添加Task节点组后再继续配置。 资源池维度时必须先添加资源池,具体请参考添加MRS租户资源池。 操作步骤 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称。进入集群详情页面。 选择
操作步骤 启用Kerberos认证的集群,登录MRS Manager页面,创建拥有“Hive Admin Privilege”权限的角色,创建角色请参考创建角色。 创建属于“Presto”和“Hive”组的用户,同时为该用户绑定1中创建的角色,然后下载用户认证文件,参见创建用户,下载用户认证文件。
keeper服务运行正常,迁入、迁出节点的ClickHouseServer实例状态正常。 请确保迁入节点已有待迁移数据表,且确保该表是MergeTree系列引擎的分区表。 创建迁移任务前请确保所有对待迁移数据表的写入任务已停止,且任务启动后,只允许对待迁移数据表进行查询操作,禁止
在HIVE区域单击已添加的服务名称“Hive”。 单击“Add New Policy”,新增访问控制策略。 参考表1配置参数,未在表中列出的参数请保持默认值。 表1 参数说明 参数 说明 示例值 Policy Name 策略名称。 testuser database 该策略允许访问的数据库名称。
确保客户端classpath下有“hive-site.xml”文件,且根据实际集群情况配置所需要的参数。JDBCServer相关参数详情,请参见Spark JDBCServer接口介绍。 开发思路 在default数据库下创建child表。 把“/home/data”的数据加载进child表中。
yaml”中有关HA的相关配置,具体配置请参见配置管理Flink。 SSL的keystore、truststore、keystore password、truststore password以及password等也使用“flink-conf.yaml”的相关配置,具体配置请参见配置Flink应用安全认证。
改名为Spark,服务包含的角色名也有差异,例如JobHistory2x变更为JobHistory。相关涉及服务名称、角色名称的描述和操作请以实际版本为准。 告警属性 告警ID 告警级别 是否自动清除 43007 重要 是 告警参数 参数名称 参数含义 来源 产生告警的集群名称。
登录FusionInsight Manager页面,选择“集群 > 服务”,查看LdapServer服务“运行状态”是否为“良好”。 是,执行8。 否,执行7。 请根据告警资料“ALM-25000 LdapServer服务不可用”处理“LdapServer服务不可用”告警。 等待LdapServer服务
database='database_name' and table='table_name' 对比6和7的查询结果是否一致, 是,执行10。 否,请确保分布式表和对应的本地表的列信息一致,再尝试写入分布式表。 等待几分钟查看告警是否消失, 是,操作结束。 否,执行10。 收集故障信息 在FusionInsight
使用方法和支持的参数一致,这里主要介绍get_slowlog_responses的使用方法。 已登录HBase Shell命令行,详细操作请参见HBase客户端使用实践。 查看所有RegionServer的慢请求: get_slowlog_responses '*', {'LIMIT'
WARN表示当前事件处理存在异常信息。 INFO INFO表示系统及各事件正常运行状态信息。 DEBUG DEBUG表示系统及系统调试信息。 如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Loader的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。
IP值是否合法有效。 以root用户登录到任一管理节点,执行ping命令检查SFTP服务器和集群之间的网络连接是否正常,用户密码为安装前用户自定义,请咨询系统管理员。管理节点的主备状态及对应IP地址可在FusionInsight Manager主机管理界面查看。 是,执行5。 否,执行3。
可以执行如下命令,收集系统所有进程信息,查看占用大量端口的进程。 ps -ef > $BIGDATA_HOME/tmp/ps_result.txt 请MRS集群管理员确认后,清除大量占用端口的进程,等待5分钟,检查该告警是否恢复。 是,处理完毕。 否,执行10。 收集故障信息。 在主集群的FusionInsight
可能原因 HDFS DataNode配置的非堆内存不足。 处理步骤 清除无用文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source bigdata_env。 如果集群采用安全版本,要进行安全认证。 执行kinit
frameworkId", "spark.yarn.jars" 解决方法 手动删除checkpoint目录,重启业务程序。 删除文件为高危操作,在执行操作前请务必确认对应文件是否不再需要。 父主题: Spark应用开发常见问题
2节点。 查看Master1、Master2节点的“/opt/Bigdata/tmp”路径权限是否被修改。(权限默认为770) 如果被修改请执行以下命令恢复“/opt/Bigdata/tmp”路径权限。 chmod 1770 /opt/Bigdata/tmp 登录主OMS节点,执行以下命令重启OMS。
“USER”及“PASSWD”可在用户账号一览表中查看DBservice数据库默认用户及初始密码。 Hive元数据存放在外部的关系型数据库存储时,请通过如下步骤获取信息: 集群详情页的“数据连接”右侧单击“单击管理”。 在弹出页面中查看“数据连接ID”。 在MRS控制台,单击“数据连接”。