检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
和spark-submit脚本(运行的应用中带SQL操作),不支持使用proxy user参数去提交任务。另外,由于本文档中涉及的样例程序已添加安全认证,建议不要使用proxy user参数去提交任务。 基本概念 RDD 即弹性分布数据集(Resilient Distributed
springboot应用程序也支持在Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致,并设置好Java环境变量。 编译并运行程序 在IDEA中
springboot应用程序也支持在Linux环境中运行。在程序代码完成开发后,您可以上传Jar包至准备好的Linux运行环境中运行。 前提条件 Linux环境已安装JDK,版本号需要和IntelliJ IDEA导出Jar包使用的JDK版本一致,并设置好Java环境变量。 编译并运行程序 在IDEA中
目录,安装方法可参考《MapReduce服务用户指南》的“客户端管理”章节。 确认服务端HDFS组件已经安装,并正常运行。 客户端运行环境已安装1.7或1.8版本的JDK。 获取并解压缩安装“MRS_HDFS_Client.tar”包。执行如下命令解压。 tar -xvf MRS_HDFS_Client
规则列表中的条目为触发告警的规则。 修改告警规则。 添加新规则 单击“添加规则”,参考表1新增指标的监控行为。 单击“确定”保存规则。 在当前已应用规则的所在行,单击“操作”中的“取消应用”。如果没有已应用的规则,则请跳过该步骤。 在新添加规则的所在行,单击“操作”中的“应用”,此时规则的“生效状态”变成“生效”。
认证、导出用户、下载用户。 通过在“conf\log4j.properties”文件中配置日志打印信息,便于查看程序运行过程和结果。 默认已配置,具体填写示例如下: ##set log4j DEBUG < INFO < WARN < ERROR < FATAL log4j.logger
Integer 参数解释: 作业最终状态码。 约束限制: 不涉及 取值范围: 0:未完成 1:执行错误,终止执行 2:执行完成并且成功 3:已取消 默认取值: 不涉及 hive_script_path String 参数解释: sql程序路径。 约束限制: 仅Spark Script和Hive
Flink运行Job时,Task之间的数据传输和反压检测都依赖Netty,某些环境下可能需要对Netty参数进行配置。对于高级调优,可调整部分Netty配置项,默认配置已可满足大规模集群并发高吞吐量的任务。 JobManager Web Frontend: JobManager启动时,会在同一进程内启动Web
Flink运行Job时,Task之间的数据传输和反压检测都依赖Netty,某些环境下可能需要对Netty参数进行配置。对于高级调优,可调整部分Netty配置项,默认配置已可满足大规模集群并发高吞吐量的任务。 JobManager Web Frontend: JobManager启动时,会在同一进程内启动Web
DataNode磁盘故障 ALM-14028 待补齐的块数超过阈值 ALM-14029 单副本的块数超过阈值 ALM-14030 HDFS已开启允许写入单副本数据 ALM-14031 DataNode进程状态异常 ALM-14032 JournalNode进程状态异常 ALM-14033