检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置字段分割长度,大于原字段值的长度,则数据分割失败,当前行成为脏数据。 样例 源文件如下图: 配置“固定宽度文件输入”算子,生成三个字段A、B和C。 将三个字段依次输出,结果如下: 父主题: 输入算子
fsync(FSNamesystem.java:3805) HDFS客户端调用close关闭文件,NameNode收到客户端的close请求之后就会检查最后一个块的完成状态,只有当有足够的DataNode上报了块完成才可用关闭文件,检查块完成的状态是通过checkFileProgress函数检查的,打印如下:
[编号].log.zip”。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 表1 Hive日志列表 日志类型 日志文件名 描述 运行日志 /fe/fe.out 标准/错误输出的日志(stdout和stderr) /fe/fe.log 主日志,包括除fe.out外的所有内容
usionInsight Manager,选择“集群 > 服务 > HBase > 配置”,在搜索框中分别搜索“fs.defaultFS”和“hbase.data.rootdir”参数查看。 告警属性 告警ID 告警级别 是否可自动清除 19026 重要 是 告警参数 参数名称 参数含义
可以通过以下3种方式的任意一种指定安全认证信息。 在客户端的“spark-default.conf”配置文件中,配置“spark.yarn.keytab”和“spark.yarn.principal”参数指定认证信息。 执行bin/spark-submit的命令中添加如下参数来指定认证信息。 --conf
keytab 对于Kerberos安全认证提供HDFS用户信息。 如果是安全模式集群,您可以联系管理员获取相应账号对应权限的keytab文件和krb5文件。 krb5.conf Kerberos server配置信息。 表1中${HADOOP_HOME}表示服务端Hadoop的安装目录。
在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选“Controller”和“OmmServer”,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。
在FusionInsight Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选“Controller”和“OmmServer”,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。
在FusionInsight Manager界面,选择“运维>日志>下载”。 在“服务”中勾选“Controller”和“OmmServer”,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。
Print)中参数“rocksdb.mem-table-flush-pending”的值(单位:个)和“rocksdb.compaction-pending”的值(单位:个)的和是否大于RocksDB线程数的n倍(metrics.reporter.alarm.job.alarm.rocksdb
在FusionInsight Manager的“告警”页面,查看是否有“节点故障”告警产生。 是,执行3。 否,执行6。 查看告警信息里的主机名是否和1主机名一致。 是,执行4。 否,执行6。 按“ALM-12006 节点故障”提供的步骤处理该告警。 在告警列表中查看“KrbServer服务不可用”告警是否清除。
Partition总数”进行查看。 Kafka滚动重启过程中,建议设置客户端Producer的配置参数“acks”的值为“-1”(配置方式和其他Producer配置参数的配置方式一致),否则在逐个重启Broker实例的瞬间有丢失少量数据的风险。设置“acks”为“-1”在提升数据
指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明: 如果涉及到的PORT值和配置的mapreduce.shuffle.port值不一样时,mapreduce.shuffle.port将不会生效。 - 父主题: 使用Mapreduce
组件数据库用户密码字符长度为8~32。 至少需要包含大写字母、小写字母、数字、特殊字符~`!@#$%^&*()-+_=\|[{}];",<.>/?中的3种类型字符。 不可和用户名相同或用户名的倒序字符相同。 不可与前20个历史密码相同。 勾选“我已阅读此信息并了解其影响”,单击“确定”。 密码修改完成后,选择“更多
Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“ZooKeeper”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
可以通过以下3种方式的任意一种指定安全认证信息。 在客户端的“spark-defaults.conf”配置文件中,配置“spark.kerberos.keytab”和“spark.kerberos.principal”参数指定认证信息。 执行bin/spark-submit的命令中添加如下参数来指定认证信息。
可以通过以下3种方式的任意一种指定安全认证信息。 在客户端的“spark-defaults.conf”配置文件中,配置“spark.kerberos.keytab”和“spark.kerberos.principal”参数指定认证信息。 执行bin/spark-submit的命令中添加如下参数来指定认证信息。
配置字段分割长度,大于原字段值的长度,则数据分割失败,当前行成为脏数据。 样例 源文件如下图: 配置“固定宽度文件输入”算子,生成三个字段A、B和C。 将三个字段依次输出,结果如下: 父主题: Loader输入类算子
指定地址来运行shuffle服务,格式是IP:PORT,参数的默认值为空。当参数值为空时,将绑定localhost,默认端口为13562。 说明: 如果涉及到的PORT值和配置的mapreduce.shuffle.port值不一样时,mapreduce.shuffle.port将不会生效。 - 父主题: 使用MapReduce
0版本,开启Ranger后如何对接kudu外表? 通过impala-shell连接不上Impalad的21000端口 Impala集群查询数据的时候出现bad version和invalid TType错误 如何关闭MRS集群Impalad角色的cas认证 Impala查询parquet表的Schema和文件Schema不一致时报错