检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
toYYYYMMDD(pt_d) ORDER BY (app_id, region); 在表上配置TTL: CREATE TABLE default.t_table_ttl ON CLUSTER default_cluster ( `did` Int32, `app_id` Int32, `region`
执行Spark Core应用,尝试收集大量数据到Driver端,当Driver端内存不足时,应用挂起不退出 问题 执行Spark Core应用,尝试收集大量数据到Driver端,当Driver端内存不足时,应用挂起不退出,日志内容如下。 16/04/19 15:56:22 ERROR
配置MRS集群告警阈值 配置MRS集群告警屏蔽状态 配置MRS集群对接SNMP网管平台上报告警 配置MRS集群对接Syslog服务器上报告警 配置定时备份告警与审计信息 开启MRS集群维护模式停止上报告警 配置MRS集群告警事件消息通知 父主题: MRS集群运维
用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new FsStateBackend("hdfs://hacluster/flink/checkpoint/")); 父主题: Flink应用开发常见问题
<name>mapred.mapper.class</name> <value>org.apache.oozie.example.SampleMapper</value> </property>
用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new FsStateBackend("hdfs://hacluster/flink/checkpoint/")); 父主题: Flink应用开发常见问题
--class:Spark应用的类名。 --master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
描述 默认值 spark.history.retainedApplications HistoryServer缓存的Spark应用数,当需要缓存的应用个数超过此参数值时,HistoryServer会回收最先缓存的Spark应用。 50 父主题: Spark2x常见问题
--class:Spark应用的类名。 --master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
--class:Spark应用的类名。 --master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
为什么Spark Streaming应用创建输入流,但该输入流无输出逻辑时,应用从checkpoint恢复启动失败 问题 Spark Streaming应用创建1个输入流,但该输入流无输出逻辑。应用从checkpoint恢复启动失败,报错如下: 17/04/24 10:13:57
在Linux环境中调测HDFS应用 操作场景 HDFS应用程序支持在Linux环境中运行。在程序代码完成开发后,可以上传Jar包至准备好的Linux环境中运行。 HDFS应用程序运行完成后,可直接通过运行结果查看应用程序运行情况,也可以通过HDFS日志获取应用运行情况。 前提条件 已安装客户端时:
--class:Spark应用的类名。 --master:Spark用于所连接的master,如yarn-client,yarn-cluster等。 application-jar:Spark应用的jar包的路径。 application-arguments:提交Spark应用的所需要的参数(可以为空)。
使用Spark 运行Spark应用时修改split值报错 提交Spark任务时提示参数格式错误 磁盘容量不足导致Spark、Hive和Yarn服务不可用 引入jar包不正确导致Spark任务无法运行 Spark任务由于内存不够或提交作业时未添加Jar包,作业卡住 提交Spark任
在Linux环境中调测MapReduce应用 操作场景 在程序代码完成开发后,您可以在Linux环境中运行应用。 MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 通过运行结果查看程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn
setAppName(appname)里面的应用名一样。 比如代码里设置的应用名为Spark Pi,用yarn-cluster模式提交应用时可以这样设置,在--name后面添加应用名,执行的命令如下: ./spark-submit --class org.apache.spark
用户需要在应用代码中将checkpoint设置为FsStateBackend。例如: env.setStateBackend(new FsStateBackend("hdfs://hacluster/flink/checkpoint/")); 父主题: Flink应用开发常见问题
<name>mapred.mapper.class</name> <value>org.apache.oozie.example.SampleMapper</value> </property>
恢复失败后数据状态未知(2.x及以前版本) 告警解释 执行恢复任务失败后,系统会自动回滚,如果回滚失败,可能会导致数据丢失等问题,如果该情况出现,则上报告警,如果下一次该任务恢复成功,则发送恢复告警。 告警属性 告警ID 告警级别 可自动清除 12035 致命 是 告警参数 参数名称 参数含义
快速开发Flink应用 Flink是一个批处理和流处理结合的统一计算框架,其核心是一个提供了数据分发以及并行化计算的流数据处理引擎。它的最大亮点是流处理,是业界最顶级的开源流处理引擎。 Flink最适合的应用场景是低时延的数据处理(Data Processing)场景:高并发pi