检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
utor进程OOM等问题。 解决步骤 通过root用户登录Master1或Master2其中任意一节点,执行以下命令切换到omm用户。 su - omm 执行以下命令,修改“catalina.sh”脚本,搜索“JAVA_OPTS” ,找到类似如下的配置JAVA_OPTS=“-Xms1024m
delete.mode copy-on-write 删除命令的模式,包括: copy-on-write merge-on-read write.delete.isolation-level serializable 删除命令的隔离级别,包括serializable和snapshot。
要不同的Hive权限,例如: 创建表,需要“建表”。 查询数据,需要“查询”。 插入数据,需要“插入”。 删除数据,需要“删除”。 关联使用其他组件 部分场景除了Hive权限,还可能需要组件的权限,例如: 执行部分HQL命令,例如insert,count,distinct,group
在实时告警列表中,单击此告警。在“告警详情”区域,获取告警所在主机IP地址。 使用PuTTY工具,以root用户登录告警所在主机。 执行命令ulimit -n,查看当前系统最大句柄设置数。 若文件句柄使用率超过阈值,直接联系系统管理员,增大系统文件句柄数。 等待5分钟,检查该告警是否恢复。
Spark INSERT SELECT语句调优 操作场景 在以下几种情况下,执行INSERT...SELECT操作可以进行一定的调优操作。 查询的数据是大量的小文件。 查询的数据是较多的大文件。 在Beeline/JDBCServer模式下使用非Spark用户操作。 操作步骤 可对INSERT
er是否已经完成集成Hive。 以客户端安装用户登录客户端安装节点,执行如下命令,进入hive beeline。 source /opt/client/bigdata_env beeline 执行如下命令,建立连接并使用testuser登录。 !connect jdbc:hive2://xx
案描述和操作指南,您可以根据本文查看适合您业务的实践教程文档。 MRS最佳实践 开发者社区精选最佳实践 表1 MRS最佳实践 分类 相关文档 数据分析类 使用Spark2x实现车联网车主驾驶行为分析 使用Hive加载HDFS数据并分析图书评分情况 使用Hive加载OBS数据并分析企业雇员信息
指导用户将开发好的程序编译并提交运行。 编包并运行Spark应用 查看程序运行结果 程序运行结果会写在用户指定的路径下。用户还可以通过UI查看应用运行情况。 查看Spark应用调测结果 调优程序 您可以根据程序运行情况,对程序进行调优,使其性能满足业务场景诉求。 调优完成后,请重新进行编译和运行
Client安装,具体请参考集群外节点使用MRS客户端。本操作以MRS客户端安装路径为“/srv/client/”为例进行说明。 安装完成后执行如下命令导入MRS客户端环境变量bigdata_env和Kylin所需的环境变量:HIVE_CONF、HCAT_HOME。 source /srv/client/bigdata_env
可能原因 该节点IoTDB Flush较慢,需要进一步分析日志查看。 处理步骤 收集故障信息。 在FusionInsightManager页面,选择“运维 > 告警 > 告警”,在实时告警列表中,单击此告警前的,在“定位信息”中查看角色名并确定实例的IP地址。 选择“运维 > 日志 > 下载”。
网络问题上报CES数据失败。 服务内部问题导致上报CES数据失败。 处理步骤 打开FusionInsight Manager 页面,选择“运维 > 告警 > 告警”,查看告警详细信息中的附加信息。 根据以下场景处理。 告警附加信息中显示“Call CES to send metrics fail. Permission
登录客户端所在节点。 执行以下命令创建补丁目录并解压补丁包: mkdir /opt/{MRS补丁版本号} tar -zxf /opt/patch.tar.gz -C /opt/{MRS补丁版本号} 执行客户端补丁升级。 登录客户端所在节点,并执行以下命令: cd /opt/{MRS补丁版本号}/client
userName 提交任务的用户 developuser examplesRoot 默认值或根据实际情况修改 myjobs oozie.wf.application.path 默认值或根据实际情况修改 ${nameNode}/user/${userName}/${examplesRoot}/apps/spark2x
txt到此目录,命令如下: 在Linux系统HDFS客户端使用命令hadoop fs -mkdir /tmp/input(hdfs dfs命令有同样的作用),创建对应目录。 进入到HDFS客户端下的“/tmp/input”目录,在Linux系统HDFS客户端使用命令在Linux系统HDFS客户端使用命令hadoop
Spark同步HBase数据到CarbonData开发思路 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 数据规划 运行样例程序前,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn
有的Ranger管理界面查看和操作权限不同。 Admin:Ranger安全管理员,可查看Ranger所有管理页面内容,进行服务权限管理插件及权限访问控制策略的管理操作,可查看审计信息内容,可进行用户类型设置。 Auditor:Ranger审计管理员,可查看服务权限管理插件及权限访问控制策略的内容。
HBase应用开发常见问题 Phoenix SQL查询样例介绍 HBase对外接口介绍 如何配置HBase双读功能 Phoenix命令行操作介绍 运行HBase应用开发程序产生ServerRpcControllerFactory异常如何处理 Bulkload和Put应用场景有哪些
法正常工作。只需在主管理节点执行修改操作,无需在备管理节点操作。 执行以下命令,切换用户。 sudo su - omm 执行以下命令,切换目录。 cd $OMS_RUN_PATH/tools 执行以下命令,修改ommdba用户密码。 mod_db_passwd ommdba 输入
配置过滤掉分区表中路径不存在的分区 配置Drop Partition命令支持批量删除 配置Hive表分区动态覆盖 配置Spark SQL开启Adaptive Execution特性 配置Spark SQL语法支持关联子查询不带聚合函数 父主题: 使用Spark/Spark2x
HCatalog HCatalog是建立在Hive元数据之上的一个表信息管理层,吸收了Hive的DDL命令。为MapReduce提供读写接口,提供Hive命令行接口来进行数据定义和元数据查询。基于MRS的HCatalog功能,Hive、MapReduce开发人员能够共享元数据信息,避免