检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
r界面,详情请参考访问MRS集群Manager。 修改MRS集群组件配置参数对系统的影响 配置HBase、HDFS、Hive、Spark、Yarn、MapReduce服务属性后,需要重新下载并更新客户端配置文件。 集群中只剩下一个DBService角色实例时,不支持修改DBService服务的参数。
> 下载客户端”,重新下载并安装Spark客户端,详细操作请参考安装客户端章节,并执行7。 如果不重新下载并安装客户端,则直接执行以下步骤更新Spark客户端配置文件(例如:客户端目录为“/opt/client”,具体以实际为准): 以root用户登录Spark客户端所在的节点,切换到客户端安装目录。
参数名称 参数含义 来源 产生告警的集群名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机节点信息。 对系统的影响 LdapServer数据不一致时,有可能是Manager上的LdapServer数据损坏,也有可能是集群上的LdapServer
在告警列表中,查看“Hive服务不可用”告警是否清除。 是,处理完毕。 否,执行25。 检查HDFS临时目录权限。 登录客户端所在节点,执行以下命令进入HDFS客户端安装目录。 cd 客户端安装目录 source bigdata_env kinit 具有supergroup组权限的用户(普通集群跳过该步骤)
通。 FE和BE实例状态正常。 已安装MySQL客户端。 使用约束 防御规则默认动态生效时间为5分钟。 拦截和熔断规则会中断SQL查询,请根据实际业务配置合理的值。 MRS 3.5.0版本,静态规则“static_0001”对Doris的count(distinct xxx)操作不生效。例如,SQL命令为:
conf 两个文件上传客户端所在服务器上。 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 编译打包前,样例代码中的user.keytab、krb5.conf文件路径需要修改为该文件所在客户端服务器的实际路径。例如:“/opt/female/user
running = false; } } } 生成Table1和Table2,并使用Join对Table1和Table2进行联合查询,打印输出结果。 public class SqlJoinWithSocket { public
testScanDataByIndex."); } 注意事项 需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase
/jobmanager/stdout JobManager的标准。 /jobmanager/metrics JobManager的指标。 /:* 对Web前端的静态文件(如HTML,CSS或JS文件)的请求。 表1中变量的介绍请参见表2。 表2 变量说明 变量 说明 jobid job的id。
org/docs/r3.1.1/api/index.html HDFS常用接口 HDFS常用的Java类有以下几个: FileSystem:是客户端应用的核心类。常用接口参见表1。 FileStatus:记录文件和目录的状态信息。常用接口参见表2。 DFSColocationAdmin:
inux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上 运行任务 在运行样例程序时需要指定 <kafkaBootstrapServers>
用户在开发前需要使用对接安全模式的Kafka,则需要引入FusionInsight的kafka-clients-*.jar,该jar包可在Kafka客户端目录下获取。 下面列出producer和consumer,以及Flink Stream SQL Join使用主要逻辑代码作为演示。 完整代码参见com
testScanDataByIndex."); } 注意事项 需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase
amespace=hsbroker 说明: XXX:驱动名,请以实际样例代码中的内容为准。 catalog、schema分别是JDBC客户端要连接的catalog和schema名称。 zkNode_IP:zkNode_Port是ZooKeeper的URL,多个URL以逗号隔开。例如:“192
ux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark
流。 对请求流、展示流、点击流的数据进行关联查询。 统计结果写入kafka。 应用中监控流处理任务的状态。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“
获取ZooKeeper的IP列表和端口、集群的认证模式、HiveServer的SASL配置、HiveServer在ZooKeeper中节点名称、客户端对服务端的发现模式、以及服务端进程认证的principal。这些配置样例代码会自动从“hiveclient.properties中”读取。 //zkQuorum获取后的格式为"xxx
testScanDataByIndex."); } 注意事项 需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase
将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults
ink元数据。 Flink元数据恢复和业务数据恢复不能同时进行操作,否则会导致业务数据恢复失败。建议元数据恢复完成后再进行业务数据恢复。 对系统的影响 元数据恢复前,需要停止Flink服务,在这期间所有上层应用都会受到影响,无法正常工作。 元数据恢复后,会丢失从备份时刻到恢复时刻之间的数据。