检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装补丁 安装补丁 登录MRS管理控制台。 选择“现有集群”,选中一集群并单击集群名,进入集群基本信息页面。 进入“补丁管理”页面,在操作列表中单击“安装”。 进入“警告”页面,阅读补丁说明,并单击“确定”。
登录MRS集群详情页面,选择“告警管理”。 选中“告警ID”为“43006”的告警,查看“定位信息”中的实例的IP地址及角色名。 单击“组件管理 > Spark > 实例 > JobHistory(对应上报告警实例IP地址) > 定制 > JobHistory进程的堆内存统计”。
方法三(适用于MRS 1.9.2及之后版本): 在集群列表页面,单击集群名称,登录集群详情页面,选择“组件管理”。 若集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。
MapReduce对接OBS 登录MRS管理控制台,单击集群名称进入集群详情页面。 选择“组件管理 > Mapreduce”,进入Mapreduce服务“全部配置”页面,在左侧的导航列表中选择“Mapreduce > 自定义”。
已准备一个弹性云服务器,主机操作系统及版本请参见表1。
如果主备集群部署为安全模式,且主备集群不是由同一个FusionInsight Manager管理,则必须配置系统互信,请参见配置MRS集群间互信。如果主备集群部署为普通模式,则不需要配置互信。
单击“并行文件系统 > 创建并行文件系统”,创建一个名称为sparkpi的文件系统。 sparkpi仅为示例,文件系统名称必须全局唯一,否则会创建并行文件系统失败。其他参数分别保持默认值。 单击sparkpi文件系统名称,并选择“文件”。
以root用户登录告警所在节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行ll 路径名命令,其中路径名为2获取到的异常文件,获取到该文件或者目录在主机上的当前的用户,权限,用户组等信息。
商用 自定义购买集群 2020年8月 序号 功能名称 功能描述 阶段 相关文档 1 支持IAM账户与集群用户自动同步 将绑定MRS相关策略的IAM用户同步至MRS系统中,创建同用户名、不同密码的账号,用于集群管理。
管理功能 表管理、集群管理。 父主题: HBase应用开发概述
表1 HBase接口提供的功能 功能 说明 CRUD数据读写功能 增查改删 高级特性 过滤器、二级索引,协处理器 管理功能 表管理、集群管理 父主题: HBase应用开发概述
操作步骤 登录MRS Manager,在MRS Manager界面选择“系统设置 > 角色管理 > 添加角色”。 填写角色的名称,例如mrrole。
集群主机系统盘支持最小100GB容量,数据盘支持最小200GB容量。
选择“接入管理 > 创建客户端”,创建LakeFormation实例接入管理客户端。其中“虚拟私有云”和“所属子网”需要与待对接的MRS集群保持一致。详细操作请参考管理接入客户端。 MRS集群的VPC子网信息可通过MRS管理控制台中,MRS集群的概览页面中获取。
Hive与DBService的关系 Hive的MetaStore(元数据服务)处理Hive的数据库、表、分区等的结构和属性信息(即Hive的元数据),这些信息需要存放在一个关系型数据库中,由MetaStore管理和处理。
图3 单击“Attempt ID”列的ID 图4 单击“Logs” 使用具有FlinkServer管理操作权限的用户登录Manager,选择“集群 > 服务 > Flink”,单击“Flink WebUI”后的链接,单击“作业管理”,在作业的“操作”列选择“更多 > 作业详情”也可查看
登录MRS集群详情页面,选择“组件管理”。 选择“KrbServer > 实例”。进入KrbServer实例页面查看KrbServer服务所在节点的主机名。 在“告警管理”页面,查看是否有ALM-12006 节点故障告警产生。 是,执行1.d。 否,执行2.a。
解决方案 MRS Manager界面操作: 登录MRS Manager页面,选择“系统配置 > 角色管理 > 添加角色”。 输入角色名称。 在“权限”区域选择Hive,出现Hive管理员权限和Hive表的读写权限。
Kafka、Storm ClickHouse集群 ClickHouse是一个用于联机分析的列式数据库管理系统,具有压缩率和极速查询性能。被广泛的应用于互联网广告、App和Web流量、电信、金融、物联网等众多领域。
也可登录MRS控制台,选择“组件管理 > HDFS > 实例”。 查看HDFS服务实例状态,找到一直处于退服中的DataNode,复制这个DataNode的IP地址。