检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过获取HDFS文件来查看日志。开源Spark和Yarn服务不支持通过WebUI查看聚合后的日志。 因此,Spark在此基础上进行了功能增强。如图1所示,在HistoryServer页面添加“AggregatedLogs”页签,可以通过“logs”链接查看聚合的日志。 图1 聚合日志显示页面
OMS备份组件审计日志默认最大保留90个,可选值为“0”到“365”,如果设置的保留个数越大,会占用更多的磁盘空间。 显示如下结果,说明修改成功: Modify log config successfully 父主题: 查看MRS集群日志
单击“确定”,设置完成。 选择转储模式为SFTP,当SFTP服务公钥为空时,先进行安全风险提示,确定安全风险后再保存配置。 配置MRS集群监控指标数据转储(MRS 2.x及之前版本) 在MRS Manager,单击“系统设置”。 在“配置”区域“监控和告警配置”下,单击“监控指标转储配置”。
表示此次检查的结束时间。 操作 支持“导出报告”和“查看帮助”。 导出健康检查报告: 在目标健康检查报告所在行,单击“导出报告”,下载报告文件。 在Manager查看健康检查报告(MRS 2.x及之前版本) 登录MRS Manager。 查看或导出健康检查报告。 查看健康检查报告: 单击“服务管理”。
调整Spark日志级别 配置场景 在某些场景下,当任务已经启动后,用户想要修改日志级别以定位问题或者查看想要的信息。 用户可以在进程启动前,在进程的JVM参数中增加参数“-Dlog4j.configuration.watch=true”来打开动态设置日志级别的功能。进程启动后,就可以通过
调整Spark日志级别 配置场景 在某些场景下,当任务已经启动后,用户想要修改日志级别以定位问题或者查看想要的信息。 用户可以在进程启动前,在进程的JVM参数中增加参数“-Dlog4j.configuration.watch=true”来打开动态设置日志级别的功能。进程启动后,就可以通过
ALM-13005 ZooKeeper中组件顶层目录的配额设置失败 告警解释 系统每5小时周期性为组件和“customized.quota”配置项中的每个ZooKeeper顶层目录设置配额,当设置某个目录的配额失败时,会产生该告警。 当设置失败的目录重新设置配额成功时,告警恢复。 告警属性 告警ID
配置Spark应用安全认证 前提条件 MRS服务集群开启了Kerberos认证。 场景说明 在集群开启Kerberos认证的环境下,各个组件之间的相互通信不能够简单地互通,而需要在通信之前进行相互认证,以确保通信的安全性。 用户在开发Spark应用程序时,某些场景下,需要Spark与Hadoop、HB
inet”的实际参数值。如果在Master2节点无法查询到OMS浮动IP地址,请切换到Master1节点查询并记录。如果只有一个Master节点时,直接在该Master节点查询并记录。 LDAP管理员密码:参考MRS集群用户账号一览表获取LDAP管理员“cn=root,dc=hadoop
html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol 用于Client与ResourceManager之间。Client通过该协议可实现将应用程序提交到ResourceManager上,查询应用程序的运行状态或者中止应用程序等功能。
创建委托”,在创建委托页面配置以下参数并单击“确定”: 委托名称:填写委托名称,例如:agency-MRS-to-OBS。 委托类型:选择“普通账号”。 委托的账号:填写本用户的云账号,即使用手机号开通的账号,不能是联邦用户或者IAM用户。 持续时间:选择“永久”。 在弹出授权页面的搜索框内,搜索3新建的自定义策略
Spark主要使用到如下这几个类: pyspark.SparkContext:是Spark的对外接口。负责向调用该类的python应用提供Spark的各种功能,如连接Spark集群、创建RDD、广播变量等。 pyspark.SparkConf:Spark应用配置类。如设置应用名称,执行模式,executor内存等。
BUG,程序会打印高于或等于所设置级别的日志,设置的日志等级越高,打印出来的日志就越少: “DEFAULT”:设置后恢复到默认日志级别。 “FATAL”:严重错误日志级别,设置后日志只会打印输出“FATAL”信息。 “ERROR”:错误日志级别,设置后日志打印输出“ERROR”和“FATAL”信息。
多节点迁移。 具体的参数值可以在ClickHouse服务界面单击“实例”页签,查看当前ClickHouseServer实例所在“主机名称”列获取。 “带宽上限”为可选参数,若不填写则为无上限,最大可设置为10000MB/s。 在选择迁移数据表界面,单击“数据库”后的,选择待迁出节
节点迁移。 具体的参数值可以在ClickHouse服务界面单击“实例”页签,查看当前ClickHouseServer实例所在“主机名称”列获取。 “带宽上限”为可选参数,如果不填写则为无上限,最大可设置为10000MB/s。 在选择迁移数据表界面,单击“数据库”后的,选择待迁出节
需确保未使用“Session模式”提交作业并且需要指定作业名。 查看作业健康步骤 访问Flink WebUI,请参考访问FlinkServer WebUI界面。 单击“作业管理”进入作业管理页面。 查看作业健康度 在作业管理页面查看当前作业的健康状态: 空:作业未运行,无健康状态 绿色图标:健康
tableIndentifier 需要执行INSERT命令的Hudi表的名称。 select query 查询语句。 注意事项 写入模式:Hudi对于设置了主键的表支持三种写入模式,用户可以设置参数hoodie.sql.insert.mode来指定Insert模式,默认为upsert。 strict模式,In
服务端配置过期后更新MRS集群客户端 MRS集群提供了客户端,可以在连接服务端、查看任务结果或管理数据的场景中使用。用户如果在Manager修改了服务配置参数并重启了服务,已安装的客户端需要重新下载并安装,或者使用配置文件更新客户端。 针对MRS 2.x及之前版本集群,用户创建集
Kerberos认证 在安全集群环境下,各个组件之间不能够简单地相互通信,而需要在通信之前进行相互认证,以确保通信的安全性。Kafka应用开发需要进行Kafka、ZooKeeper、Kerberos的安全认证,这些安全认证只需要生成一个jaas文件并设置相关环境变量即可。LoginUtil相关接口可以完成这些配置。
Kerberos认证 操作场景 在安全集群环境下,各个组件之间不能够简单地相互通信,而需要在通信之前进行相互认证,以确保通信的安全性。Kafka应用开发需要进行Kafka、ZooKeeper、Kerberos的安全认证,这些安全认证只需要生成一个jaas文件并设置相关环境变量即可。LoginUtil相关接口可以完成这些配置。