检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
登录MRS集群详情页面,在“组件管理”页签,查看ZooKeeper服务的健康状态是否为“良好”。 是,执行1.b。 否,执行2.a。 参考ALM-13000 ZooKeeper服务不可用(2.x及以前版本)对ZooKeeper服务状态异常进行处理,然后查看ZooKeeper服务的健康状态是否恢复为“良好”。
--consumer.config <config file> 业务代码排查: 查看客户端里有没有提交offerset的报错。 如果没有报错把消费的API里加上打印消息,打印少量数据(只打印key即可),查看丢失的数据。 父主题: 使用Kafka
k:list”。 创建集群时开启告警功能,需增加权限“mrs:alarm:subscribe”。 创建集群时使用外置数据源,需增加权限“rds:instance:list”。 { "Version": "1.1", "Statement": [ {
或删除“krb5.conf”配置文件的“renew_lifetime = 0m”配置项。 HBase应用程序运行完成后,可直接通过运行结果查看应用程序运行情况。 运行结果出现如下信息表示程序运行成功。 2020-03-13 14:54:13,369 INFO [main] client
> 监控指标转储配置”,查看“FTP用户名”、“保存路径”和“转储模式”配置项。 是FTP模式,执行6。 是SFTP模式,执行7。 登录服务器,在默认目录下查看相对路径“保存路径”是否有“FTP用户名”的读写权限。 是,执行9。 否,执行8。 登录服务器,查看绝对路径“保存路径”是否有“FTP用户名”的读写权限。
MRS集群服务启用Ranger鉴权 添加Ranger权限策略 Ranger权限策略配置示例 查看Ranger审计信息 配置Ranger安全区信息 普通集群修改Ranger数据源为Ldap 查看Ranger用户权限同步信息 Ranger日志介绍 Ranger常见问题
告警所在行,在告警详情中,查看该告警的主机地址。 登录主管理节点。 执行以下命令检查故障节点是否可以访问: ping 故障主机IP地址 是,执行2。 否,执行1.d。 联系运维人员查看是否为网络故障。 是,执行2。 否,执行1.f。 修复网络故障,查看告警列表中,该告警是否已清除。
13002连接数不足 > 定位信息”。查看告警上报的实例的ip。 在MRS集群详情页面,单击“组件管理 > ZooKeeper > 实例 > quorumpeer(对应上报告警实例ip) > 定制 > ZooKeeper堆内存与直接内存资源状况”。查看堆内存使用情况。 查看ZooKeeper使用
管理MRS集群 查看MRS集群基本信息 查看MRS集群运行状态 启动停止MRS集群 重启MRS集群 导出MRS集群配置参数 同步MRS集群配置 克隆MRS集群 转换MRS按需集群为包周期集群 删除MRS集群 切换MRS集群VPC子网 修改MRS集群NTP服务器 修改OMS服务配置
支持用户为多个资源进行分组管理。 支持用户查看企业项目下的资源信息、消费明细。 支持用户对企业项目级别的访问权限控制。 支持用户分企业项目查看具体的财务信息,包括订单、消费汇总、消费明细等。 若MRS集群与VPC不在同一个企业项目中,用户需要在IAM视图添加VPC查看权限后方可查看VPC及集群相关信息。
接端口'命令登录ZooKeeper。 ZooKeeper连接端口通常为2181,可通过查看ZooKeeper服务配置参数“clientPort”获取。 执行ls /thriftserver查看是否有“active_thriftserver”目录。 如果有active_thriftserver目录,执行get
为什么在往HDFS写数据时报“java.net.SocketException: No buffer space available”异常? 这个问题发生在往HDFS写文件时。查看客户端和DataNode的错误日志。 客户端日志如下: 图1 客户端日志 DataNode日志如下: 2017-07-24 20:43:39
le”文件。 当用户正在查看即将被回收的Spark应用时,可能会出现找不到“temp_shuffle”文件的错误,从而导致当前页面无法访问。 如果遇到上述问题,可参考以下两种方法解决。 重新访问这个Spark应用的HistoryServer页面,即可查看到正确的页面信息。 如果用
导入到Hive表时报错 问题 Sqoop导入数据到Hive表时打印如下报错日志: 查看Yarn上该Application对应的appattempt的Logs,在syslog中有如下任务日志: 回答 Hive中日志框架和Hadoop中的日志框架存在依赖冲突导致。需删除当前使用的Sq
user是无效用户,表明内部校验失败。 查看提交的拓扑运行Jar,发现包含keytab文件。 查看user.keytab文件,发现principal为zmk_kafka。 发现认证用户和user.keytab文件中principal不对应。 查看日志发现异常信息Delete the tmp
”文件。 当用户正在查看即将被回收的Spark应用时,可能会出现找不到“temp_shuffle”文件的错误,从而导致当前页面无法访问。 处理步骤 如果遇到上述问题,可参考以下两种方法解决。 重新访问这个Spark应用的HistoryServer页面,即可查看到正确的页面信息。
WebUI界面支持以下功能: 驱动管理:可以上传、查看和删除连接数据库对应的驱动文件。 连接管理:可以新建、查看、编辑和删除数据连接。 作业管理:使用作业管理可以新建、查看、启动、暂停、恢复、停止、重启、删除和编辑作业等。 ENV管理:可以创建、查看、编辑、删除Hudi环境变量。 父主题:
在本地Windows环境中编包并运行Spark程序 操作场景 在程序代码完成开发后,您可以在Windows环境中运行应用。使用Scala或Java语言开发的应用程序在IDEA端的运行步骤是一样的。 Windows环境中目前只提供通过JDBC访问Spark SQL的程序样例代码的运行,其他样例代码暂不提供。
在“告警管理”页面,查看是否有ALM-12006 节点故障告警产生。 是,执行1.d。 否,执行2.a。 查看告警信息里的主机名是否和1.b主机名一致。 是,执行1.e。 否,执行2.a。 按ALM-12006 节点故障提供的步骤处理该告警。 在告警列表中查看“ALM-25000
String[] words = line.toLowerCase(Locale.getDefault()).split(REGEX_STRING); for (String word : words) {