检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
通过“CSV文件输入”算子,生成两个字段a_str和b_str。 源文件如下: 配置“Hive输出”算子,将a_str和b_str输出到Hive的表中。 执行成功后,查看表数据: 父主题: 输出算子
重启实例”,重启MetaStore实例。 正在重启的MetaStore实例无法对外提供服务,该实例上正在执行的SQL任务可能失败。 等待MetaStore实例重启完成后,查看该告警是否恢复。 是,操作结束。 否,执行6。 收集故障信息。 在FusionInsight Manager首页,选择“运维 > 日志 >
处理步骤 检查Topic副本数配置。 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,单击此告警所在行的,查看定位信息中上报告警的“主题名”列表。 确认发生告警Topic是否需要增加副本。 是,执行3。 否,执行5。 在FusionInsight客
使用Hue创建工作流 操作场景 用户通过Hue管理界面可以进行提交Oozie作业,提交作业之前,首先需要创建一个工作流。 前提条件 使用Hue提交Oozie作业之前,需要提前配置好Oozie客户端,并上传样例配置文件和jar至HDFS指定目录,具体操作请参考Oozie客户端配置说明章节。
使用Hue创建工作流 操作场景 用户通过Hue管理界面可以进行提交Oozie作业,提交作业之前,首先需要创建一个工作流。 前提条件 使用Hue提交Oozie作业之前,需要提前配置好Oozie客户端,并上传样例配置文件和jar至HDFS指定目录,具体操作请参考Oozie客户端配置说明章节。
一览表。 在“拓扑调整”页面勾选服务部署的节点,部署方案可参考表2。 确认操作影响后,单击“确认”。服务添加完成后,在“组件管理”页面可以查看所添加的服务。 如果需要删除服务,可以在指定服务所在行,单击“删除”操作。 如果确认删除,在弹出的“删除服务”窗口中输入“DELETE ”,单击“确定”,删除该服务。
在“备份配置”指定需要备份的数据。 支持备份元数据和业务数据。 各组件不同数据的备份任务操作请参考备份恢复MRS集群数据。 单击“确定”保存。 在备份任务列表,可以查看刚创建的备份任务。 在指定的备份任务“操作”列,选择“更多 > 即时备份”,可以立即运行备份任务。 创建元数据备份任务(MRS 2.x及之前版本)
Manager,选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper”,单击“资源”,在表“资源使用(按二级Znode)”中,查看告警对应Znode是否被写入较多数据。 是,执行3。 否,执行4。 图1 资源使用(按二级Znode) 登录ZooKeeper客户端,删除告警对应Znode下的无用数据。
8] //识别为更新操作可以得到正确结果。 对于如何识别是更新数据有三种方式: 通过状态后端解决 通过状态后端存储所有原始数据,新来的数据根据状态来判断是否是更新操作,进而通过Flink聚合回撤机制实现聚合结果数据的更新。 优点:可以解决聚合准确性问题,而且对用户友好,对数据没有要求。
Driver负责任务的调度,和Executor、AM之间的消息通信。当任务数变多,任务平行度增大时,Driver内存都需要相应增大。 您可以根据实际任务数量的多少,为Driver设置一个合适的内存。 将“spark-defaults.conf”中的“spark.driver.memory”配置项设置为合适大小。
优先级最高,对于dt=2023/05/01分区来说策略B会生效,策略A不生效。 runInline为true时,TTL会在每次写入完成后会根据strategy和value属性的值去判断是否要检查所有分区的TTL情况,如果需要检查并且检查出老化的分区,则逻辑删除老化的分区,逻辑删除
Driver负责任务的调度,和Executor、AM之间的消息通信。当任务数变多,任务平行度增大时,Driver内存都需要相应增大。 您可以根据实际任务数量的多少,为Driver设置一个合适的内存。 将“spark-defaults.conf”中的“spark.driver.memory”配置项设置为合适大小。
call(Tuple3<String, String, Integer> person) throws Exception { //根据第二列性别,筛选出是female的记录 Boolean isFemale = person._2().equals("female");
call(Tuple3<String, String, Integer> person) throws Exception { //根据第二列性别,筛选出是female的记录 Boolean isFemale = person._2().equals("female");
call(Tuple3<String, String, Integer> person) throws Exception { //根据第二列性别,筛选出是female的记录 Boolean isFemale = person._2().equals("female");
Manager,选择“集群 > 待操作集群的名称 > 服务 > ZooKeeper”,单击“资源”,在表“资源使用(按二级Znode)”中,查看告警对应顶级Znode是否被写入较多数据。 是,执行3。 否,执行5。 登录FusionInsight Manager,选择“运维 > 告警
若接口值为true,则代表sparkContext已完全stop。 若接口值为false,则代表sparkContext没有完成stop。 例如:用户根据 jsc.sc().isSparkContextDown().get() == true 可判断sparkContext已完全stop。 Spark
若接口值为true,则代表sparkContext已完全stop。 若接口值为false,则代表sparkContext没有完成stop。 例如:用户根据 jsc.sc().isSparkContextDown().get() == true 可判断sparkContext已完全stop。 Spark
Ranger基本原理 Apache Ranger提供一个集中式安全管理框架,提供统一授权和统一审计能力。它可以对整个Hadoop生态中如HDFS、Hive、HBase、Kafka、Storm等进行细粒度的数据访问控制。用户可以利用Ranger提供的前端WebUI控制台通过配置相关策略来控制用户对这些组件的访问权限
若接口值为true,则代表sparkContext已完全stop。 若接口值为false,则代表sparkContext没有完成stop。 例如:用户根据jsc.sc().isSparkContextDown().get() == true 可判断sparkContext已完全stop。 Spark