检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的NameService名称。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 HDFS存储数据丢失,HDFS可能会进入安全模式,无法提供写服务。丢失的块数据无法恢复。 可能原因 DataNode实例异常。 数据被删除。 处理步骤
产生告警的NameService名称。 Trigger condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 HDFS存储数据丢失,HDFS可能会进入安全模式,无法提供写服务。丢失的块数据无法恢复。 可能原因 DataNode实例异常。 数据被删除。 写入文件的副本数大于DataNode的节点数。
设置Mapreduce任务日志清理任务的检查周期(秒)。设置为“-1”时检查周期为日志保留时间的十分之一。 86400 如果是任务日志将HDFS存储空间占用太多,主要修改“mapreduce.jobhistory.max-age-ms”和“yarn.log-aggregation.re
失败重试次数超过这个值,就会删除该任务记录,下次运行时将从头开始运行,默认是10次。 beeline.reconnect.zk.path:存储任务执行进度的根节点,Hive服务默认是“/beeline”。 父主题: Hive企业级能力增强
管理Loader作业,包括创建作业、查询作业、更新作业、删除作业、激活作业、去激活作业、启动作业、停止作业。 Metadata Repository 元数据仓库,存储和管理Loader的连接器、转换步骤、作业等数据。 HA Manager 管理Loader Server进程的主备状态,Loader Server包含2个节点,以主备方式部署。
执行程序路径配置为OBS上存放程序的地址。例如:obs://wordcount01/program/hadoop-mapreduce-examples-x.x.x.jar。 执行程序参数中填写的参数为:wordcount obs://wordcount01/input/ obs://wordcount01/output/。
产生告警的主机名。 对系统的影响 当Guardian调用ECS的securitykey接口失败时,可能会导致任务获取访问OBS的临时aksk失败,进而业务无法正常访问OBS。 可能原因 集群未绑定ECS委托。 ECS底层接口异常,导致请求失败。 处理步骤 确认是否绑定委托。 登录MapReduce服务管理控制台。
设置数据保存信息并运行作业 单击“下一步”,进入“输出设置”界面,根据实际场景在“存储类型”选择“HBASE_BULKLOAD”或“HBASE_PUTLIST”,设置数据保存方式。 表4 输出设置参数 存储类型 适用场景 参数名 说明 示例 HBASE_BULKLOAD 数据量大 HBase实例
Include:策略适用于当前输入的对象。 Exclude:策略适用于除去当前输入内容之外的其他对象。 Schema 适用该策略的schema名称,填写*时表示所有schema。 Include:策略适用于当前输入的对象。 Exclude:策略适用于除去当前输入内容之外的其他对象。 table 适
demand array demand对象数组。 priority int 请求的优先级。 ismaster boolean 判断是否为application master需求。 capability object Capability对象。 vcores, memory, ..
出现OOM。 阻塞Clean,如果没有Compaction操作来产生新版本的Parquet文件,那旧版本的文件就不能被Clean清理,增加存储压力。 CPU与内存比例为1:4~1:8。 Compaction作业是将存量的parquet文件内的数据与新增的log中的数据进行合并,需
demand array demand对象数组。 priority int 请求的优先级。 ismaster boolean 判断是否为application master需求。 capability object Capability对象。 vcores, memory, ..
demand array demand对象数组。 priority int 请求的优先级。 ismaster boolean 判断是否为application master需求。 capability object Capability对象。 vcores, memory, ..
demand array demand对象数组。 priority int 请求的优先级。 ismaster boolean 判断是否为application master需求。 capability object Capability对象。 vcores, memory, ..
registrator", "com.huawei.bigdata.spark.examples.MyRegistrator"); 在SparkConf对象使用set方法设置,代码如下: val conf = new SparkConf().setAppName("HbaseTest"); conf
15:39:00", "duration" : "2 s", "runningJobs" : [ ], "successedJobs" : [ 0 ], "failedJobs" : [ ] } ], "sqls" : [ { "id" : 0
15:39:00", "duration" : "2 s", "runningJobs" : [ ], "successedJobs" : [ 0 ], "failedJobs" : [ ] } ], "sqls" : [ { "id" : 0
B表都有个名为name的列。对A、B表进行join操作。 估计表的大小。 根据每次加载数据的大小,来估计表大小。 也可以在Hive的数据库存储路径下直接查看表的大小。首先在Spark的配置文件“hive-site.xml”中,查看Hive的数据库路径的配置,默认为“/user/h
use-column-names 是否按照列名方式访问ORC存储文件: true:是 false(默认值):否 false hive.parquet.use-column-names 是否按照列名方式访问PARQUET存储文件。: true:是 false(默认值):否 false
问题三:如何彻底删除HDFS文件? 由于HDFS的回收站机制,一般删除HDFS文件后,文件会移动到HDFS的回收站中。如果确认文件不再需要并且需要立马释放存储空间,可以继续清理对应的回收站目录(例如:hdfs://hacluster/user/xxx/.Trash/Current/xxx)。 父主题: