检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
可能原因 提交的YARN作业程序有问题,例如: spark提交任务参数错误导致。 处理步骤 查看运行失败的作业日志,找到作业失败的具体原因,然后修改并重新提交作业。 参考信息 无。 父主题: MRS集群告警处理参考
hriftServer服务。 配置描述 登录Manager,选择“集群 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索并修改以下参数。 表1 多主实例参数说明 参数 说明 默认值 spark.thriftserver.zookeeper.connection.timeout
insertRecord(); insertTablet(); insertTablets(); insertRecords(); nonQuery(); query(); queryWithTimeout(); rawDataQuery();
、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow.everyone.if.no.acl.found”的值修改为“true”。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics
、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow.everyone.if.no.acl.found”的值修改为“true”。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics
设置密码。 如果登录报错“认证信息无效”,可能是用户密码输入错误或者密码过期,请检查并输入正确密码,或参考如何重置或修改Manager(admin)密码?章节修改密码。 检查浏览器是否配置了内部网络代理、是否添加了会拦截用户Token的安全设置。 如果多次刷新均无法显示Manag
conf文件为安全模式下的认证文件,需要在FusionInsight Manager中下载principal用户的认证凭证,样例代码中使用的用户为:super,需要修改为准备好的开发用户。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。
DEBUG表示记录系统及系统的调试信息。 如果您需要修改日志级别,请执行如下操作: 登录Manager。 选择“集群 > 服务 > Tez > 配置”。 选择“全部配置”。 左边菜单栏中选择“TezUI > 日志”。 选择所需修改的日志级别。 单击“保存”,在弹出窗口中单击“确定”保存配置。
“com.huawei.bigdata.hbase.examples”包的“HBaseRestTest”类中。 代码认证 请根据实际情况,修改“principal”为实际用户名,例如“developuser”。 //In Windows environment
"hbase-site.xml"), false); } [1]userdir获取的是编译后资源路径下conf目录的路径。 安全登录 请根据实际情况,修改“userName”为实际用户名,例如“developuser”。 private static void login() throws
dk对应的路径下,比如:“C:\Program Files\Java\jdk1.8.0_73\jre\lib\security”。 修改配置。修改样例工程中“resources”目录下的“opentsdb.properties”文件,配置OpenTSDB相关属性。 tsd_hostname
xml,查看local、peer节点配置是否正确,local配置主节点,peer配置备节点。 是,执行12。 否,执行10。 修改hacom_local.xml中主备节点的配置,修改完成后,按Esc回到命令模式,输入命令:wq保存退出。 查看此告警信息是否自动清除。 是,处理完毕。 否,执行12。
> Guardian > RPC”,单击“TokenServer RPC队列平均时间”,单击“default”规则所在行的“操作”列的“修改”,修改“紧急”或“重要”告警级别对应的“阈值”为告警出现后1天内监控值的峰值的150%,单击“确定”保存。 等待5分钟,查看该告警是否自动清除。
op.<系统域名>作为执行物化视图自动刷新的用户, 当创建物化视图语句查询外部Hive数据源,且该数据源已开启数据源鉴权时,需修改执行自动刷新的用户,修改方法如下: 对端集群是否已安装HetuEngine服务。 是:执行3。 否:执行2。 准备系统用于自动刷新的用户。 在本端集群和对端集群同时创建同名人机用户。
Spark从Hive读取数据再写入HBase样例程序(Python) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
Spark从Hive读取数据再写入HBase样例程序(Python) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
Spark从Hive读取数据再写入HBase样例程序(Python) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后把Hive表的数据经过分析后写到HBase表。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。
服务。 配置描述 登录Manager,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置”,单击“全部配置”,搜索并修改以下参数。 表1 多主实例参数说明 参数 说明 默认值 spark.thriftserver.zookeeper.connection.timeout
Spark SQL ROLLUP和CUBE使用的注意事项 问题 假设有表src(d1, d2, m),其数据如下: 1 a 1 1 b 1 2 b 2 对于语句select d1, sum(d1) from src group by d1, d2 with rollup其结果如下:
Spark从HBase读取数据再写入HBase样例程序开发思路 场景说明 假定HBase的table1表存储用户当天消费的金额信息,table2表存储用户历史消费的金额信息。 现table1表有记录key=1,cf:cid=100,表示用户1在当天消费金额为100元。 table2表有记录key=1