检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用率指标默认提供一个阈值范围。当检测到DataNode磁盘空间使用率指标超出阈值范围时产生该告警。 用户可通过“运维 > 告警 > 阈值设置 > 待操作集群的名称 > HDFS”修改阈值。 平滑次数为1,DataNode磁盘空间使用率指标的值小于或等于阈值时,告警恢复;平滑次数
e计算实例的Worker个数,当检测到HetuEngine计算实例的Worker个数小于初始设置值的80%时产生该告警。 HetuEngine计算实例运行的Worker个数大于等于初始设置值的80%时,告警清除。 告警属性 告警ID 告警级别 是否可自动清除 45007 重要 是
37:21088” - hive.metastore.sasl.enabled MetaStore服务是否使用SASL安全加固。表权限功能需要设置为“true”。 true hive.metastore.kerberos.principal Hive组件中MetaStore服务的Pr
START TRANSACTION 语法 START TRANSACTION [ mode [, ...] ] 其中mode用于设置事务的隔离级别,可选的参数有: ISOLATION LEVEL { READ UNCOMMITTED | READ COMMITTED | REPEATABLE
为什么提交Spark Streaming应用超过token有效期,应用失败 问题 修改kerberos的票据和HDFS token过期时间为5分钟,设置“dfs.namenode.delegation.token.renew-interval”小于60秒,提交Spark Streaming
值是不存在或者null,则可能会发生这种情况。 建议以使用向后兼容的演进schema。本质上,这意味着要么将每个新添加的字段设置为空值,要么为每个新字段设置为默认值。从Hudi版本0.5.1起,如果依赖字段的默认值,则该故障处理对此无效。 父主题: Hudi常见问题
尽力避免OOM。 配置描述 提供两种不同的数据汇聚功能配置选项,两者在Spark JDBCServer服务端的tunning选项中进行设置,设置完后需要重启JDBCServer。 表1 参数说明 参数 说明 默认值 spark.sql.bigdata.thriftServer.useHdfsCollect
com/templeton/v1/jobs 参数 参数 描述 fields 如果设置成*,那么会返回每个job的详细信息。如果没设置,只返回任务ID。现在只能设置成*,如设置成其他值,将出现异常。 jobid 如果设置了jobid,那么只有字典顺序比jobid大的job才会返回。比如,如果
后顺序对其进行拼接。 map 是 无 数据处理规则 将字段值输出到Hive表中。 如果指定了一个或多个列为分区列,则在作业配置第四步“输出设置”页面上,会显示“分割程序”属性,该属性表示使用多少个处理器去对分区数据进行处理。 如果没有指定任何列为分区列,则表示不需要对输入数据进行分区处理,“分割程序”属性默认隐藏。
其进行拼接。 map 是 无 数据处理规则 将字段值输出到SparkSQL表中。 如果指定了一个或多个列为分区列,则在作业配置第四步“输出设置”页面上,会显示“分割程序”属性,该属性表示使用多少个处理器去对分区数据进行处理。 如果没有指定任何列为分区列,则表示不需要对输入数据进行分区处理,“分割程序”属性默认隐藏。
后顺序对其进行拼接。 map 是 无 数据处理规则 将字段值输出到Hive表中。 如果指定了一个或多个列为分区列,则在作业配置第四步“输出设置”页面上,会显示“分割程序”属性,该属性表示使用多少个处理器去对分区数据进行处理。 如果没有指定任何列为分区列,则表示不需要对输入数据进行分区处理,“分割程序”属性默认隐藏。
各个角色对应的权限如下: 集群运维管理员:拥有在YARN集群上执行管理操作(如访问ResourceManager WebUI、刷新队列、设置NodeLabel、主备倒换等)的权限。 队列管理员:拥有在YARN集群上所管理队列的修改和查看权限。 普通用户:拥有在YARN集群上对自己提交应用的修改和查看权限。
5.0之前版本) 登录Manager页面。 MRS 3.x及之后版本:选择“系统 > 权限 > 用户”。 MRS 3.x之前版本:选择“系统设置 > 权限配置 > 用户管理”。 在需导出文件的用户所在行,选择“更多 > 下载认证凭据”,待文件自动生成后指定保存位置,并妥善保管该文件。
多原因,如果是主节点出问题,那么心跳中断后备节点会升为主节点,继续对外提供服务;如果是因为其他原因,比如网络问题导致心跳中断,很可能会出现双主的现象,因为备节点也会升为主节点,会导致主备数据同步出现问题,但Flinkserver可以提供服务。 可能原因 FlinkServer的主备实例中,有一个实例处于停止状态。
在某些情况下,已经观察到诊断消息可能无限增长。由于诊断消息存储在状态存储中,不建议允许诊断消息无限增长。因此,需要有一个属性参数用于设置诊断消息的最大大小。 若您需要设置“yarn.app.attempt.diagnostics.limit.kc”参数值,具体操作参考修改集群服务配置参数,进
BE安装节点有多个网卡IP,没有正确设置“priority_network”参数值导致BE启动时匹配了错误的IP地址。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > Doris > 配置”。 搜索“priority_network”参数,并正确设置BE的该参数值,
创建SparkSQL角色 操作场景 该任务指导MRS集群管理员在Manager创建并设置SparkSQL的角色。SparkSQL角色可设置Spark管理员权限以及数据表的数据操作权限。 用户使用Hive并创建数据库需要加入hive组,不需要角色授权。用户在Hive和HDFS中对自
登录Manager,选择“系统设置 > 角色管理 > 添加角色”。 在“角色名称”和“描述”输入角色名字与描述。 设置角色“权限”请参见表1。 Yarn权限: “Cluster Admin Operations”:Yarn管理员权限。 “Scheduler Queue”:队列资源管理。 表1 设置角色 任务场景
选择“系统设置 > 权限配置 > 角色管理”。 单击“添加角色”,输入“角色名称”和“描述”。 设置角色“权限”请参见表1。 “Hive Admin Privilege”:Hive管理员权限。如需使用该权限,在执行SQL语句时需要先执行set role admin来设置权限。 “Hive
和删除文件/文件夹;HDFS还有其他的业务处理,例如设置文件权限等,其他操作可以在掌握本代码样例之后,再扩展学习。 本代码样例讲解顺序为: HDFS初始化 创建目录 写文件 追加文件内容 读文件 删除文件 删除目录 多线程 设置存储策略 Colocation 开发思路 根据前述场