检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
订规则请参见退订规则说明。 当集群已对接了OBS(存算分离或者冷热分离场景),若需要删除组件或者MRS集群,需要在删除组件或者集群后,手工将OBS上相关的业务数据进行删除。 删除MRS按需集群 登录MRS管理控制台。 在左侧导航栏中选择“现有集群”。 在需要删除的集群对应的“操作
ew视图或子查询嵌套场景下,复杂度呈指数增长,通过实测该场景下嵌套层数不能超过3层,否则会出现内存溢出。可使用临时表替代view或子查询,将一个多重嵌套拆分成多个查询执行。 分区表select * 必须带上分区键 分区表查询select * 不带分区键,会Impala触发全表,极
male,50 CaiXuyu,female,50 FangBo,female,60 数据规划 DataStream样例工程的数据存储在文本中。 将log1.txt和log2.txt文件放置在用户开发程序的某路径下,例如"/opt/log1.txt"和"/opt/log2.txt"。 开发思路
rk on HBase四种不同场景的样例工程。 帮助用户快速了解Spark各部件的编程接口。 开发Spark应用 编译并运行程序 指导用户将开发好的程序编译并提交运行。 在Linux环境中编包并运行Spark程序 父主题: Spark2x开发指南(普通模式)
HDFS支持使用Java语言进行程序开发,具体的API接口内容请参考HDFS Java API接口介绍。 常用概念 Colocation 同分布(Colocation)功能是将存在关联关系的数据或可能要进行关联操作的数据存储在相同的存储节点上。HDFS文件同分布的特性是,将那些需进行关联操作的文件存放在相同的数据节
关闭成功之后,删除表,HBase表对应的数据目录被删掉。 在删除表之后,该数据目录会被还处于flush MemStore阶段的Region重新创建。 再创建该表时,将temp目录复制到HBase数据目录时,由于HBase数据目录不为空,导致调用HDFS rename接口时,数据目录变为temp目录最后一层
节点总数进行计算,即10/10=1,大于黑名单节点释放阈值,节点被释放。 因此即使故障节点数与集群总节点数的比值没有超过阈值,也存在黑名单将这些节点释放的情况。 父主题: MapReduce常见问题
服务 > Spark2x > 配置 > 全部配置”。在搜索框中输入“spark.dynamicAllocation.enabled”参数名称,将JDBCServer下的该参数值设置为“true”,表示开启动态资源调度功能。 下面是一些可选配置,如表1所示。 表1 动态资源调度参数 配置项
连接HiveServer的客户端过多。 处理步骤 增加Hive最大连接数配置。 登录MRS集群详情页面,选择“组件管理”。 选择“Hive > 服务配置”,将“基础配置”切换为“全部配置”。 然后查找“hive.server.session.control.maxconnections”,调大该配
0%。 是,执行1.e。 否,执行2。 单击“组件管理 > Spark > 服务配置 > 全部配置 > JobHistory > 默认”。将“SPARK_DAEMON_JAVA_OPTS”参数中-XX:MaxMetaspaceSize的值根据实际情况调大。 观察界面告警是否清除。
是,执行1.e。 否,执行2。 单击“组件管理 > Spark > 服务配置 > 全部配置 > JDBCServer > Tuning”。将“spark.driver.extraJavaOptions”参数中-XX:MaxDirectMemorySize的值根据实际情况调大。 观察界面告警是否清除。
选择“Yarn”时,系统自动在Yarn中以子租户名称创建任务队列。 如果是叶子租户,叶子租户可直接提交到任务队列中。 如果是非叶子租户,非叶子租户不能直接将任务提交到队列中。但是,Yarn会额外为非叶子租户增加一个任务队列(隐含),队列默认命名为“default”,用于统计当前租户剩余的资源容量,实际任务不会分配在此队列中运行。
e等结构化数据源,也支持HBase、Elasticsearch等非结构化数据源。 全局元数据:对于非结构化数据源HBase,提供映射表方式将非结构化SCHEMA映射成结构化SCHEMA,实现HetuEngine对HBase的无差别SQL访问;对于数据源信息,提供全局管理。 全局权
行删除。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”
数据进行删除。 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”
n的FileSlice,最后CompactionPlan会写入Hudi的Timeline。 执行Compaction:一个单独的进程/线程将读取CompactionPlan并对FileSlice执行Compaction操作。 使用Compaction的方式分为同步和异步两种: 同步方式由参数hoodie
rk on HBase四种不同场景的样例工程。 帮助用户快速了解Spark各部件的编程接口。 开发Spark应用 编译并运行程序 指导用户将开发好的程序编译并提交运行。 调测Spark应用 查看程序运行结果 程序运行结果会写在用户指定的路径下。用户还可以通过UI查看应用运行情况。
是,执行1.e。 否,执行2。 单击“组件管理 > Spark > 服务配置 > 全部配置 > JDBCServer > Tuning”。将“spark.driver.extraJavaOptions”参数中-XX:MaxMetaspaceSize的值根据实际情况调大。 观察界面告警是否清除。
登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > meta > OBS的write接口调用失败总数”,将阈值或平滑次数参数的值根据实际情况调大。 观察界面告警是否清除。 是,处理完毕。 否,执行3。 联系OBS运维人员查看OBS服务是否正常。 是,执行4。
以下操作步骤以导入Java样例代码为例。操作流程如图1所示。 图1 导入样例工程流程 操作步骤 参考获取MRS应用开发样例工程,下载样例工程到本地。 将Java样例工程导入到IDEA中。 打开IntelliJ IDEA。在“Quick Start”页面选择“Import Project”。