检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
string 是 无 文件名 自定义一个字段,以当前数据所在的文件名作为该字段值。 string 否 无 绝对文件名 配置“文件名”引用文件名环境,选中单选框时是带绝对路径的文件名;不选中单选框时是不带路径的文件名。
修复完成后,查看“比较结果”是否为“一致”,“一致”则表示数据修复成功;如果比较结果为“不一致”,则表示修复失败,可以根据“报告地址”在HDFS对应目录中获取报告,进行手动修复。 父主题: 创建CDL作业
对系统的影响 产生该告警表示HBase服务的znode的容量使用率已经超过规定的阈值,如果不及时处理,可能会导致问题级别升级为紧急,影响数据写入。 可能原因 HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢; HBase集群存在大量的WAL文件在进行split。
如果不清楚哪些Topic业务数据量较大,可以根据2中获取到的主机节点信息,登录到实例节点上,进入对应的数据目录(即6中“log.dirs”修改之前的配置路径),查看该目录下哪些Topic的Patition目录占用的磁盘空间比较大。 是,执行15。 否,执行16。
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,打开告警“ALM-13008 ZooKeeper Znode数量使用率超出阈值”左侧下拉菜单,在“定位信息”的“服务目录”中获取告警的Znode路径。
v1.1/{project_id}/clusters/{cluster_id}/hosts mrs:host:list √ √ 查询文件列表(V2) GET/v2/{project_id}/clusters/{cluster_id}/files mrs:file:list √ √
如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。 约束限制: 不涉及 取值范围: 只能由英文字母、数字以及“_”和“-”组成,且长度为[1-64]个字符。
以数据源的方式操作HBase,将上面生成的RDD写入HBase表中。 读取HBase表中的数据,并且对其进行简单的操作。 运行前置操作 安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。
根据table1表数据的key值去table2表做查询。 把前两步相应的数据记录做相加操作。 把上一步骤的结果写到table2表。 运行前置操作 安全模式下Spark Core样例代码需要读取两个文件(user.keytab、krb5.conf)。
输入与输出 输入:HTML文件 输出:多个字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 父标签 所有字段的上层HTML标签,用于限定搜索范围 string 是 无 文件名 自定义一个字段,以当前数据所在的文件名作为该字段值。
向MRS集群管理员获取密码。 执行hdfs dfs -rm -r 文件或目录路径命令,确认删除无用的文件。 检查本告警是否恢复。 是,处理完毕。 否,执行4。 查看DataNode JVM内存使用情况和当前配置。
说明: Hive应用开发需要到的额外的操作权限需要从系统管理员处获取。 ClickHouse 在“配置资源权限”的表格中选择“待操作集群的名称 > ClickHouse > Clickhouse Scope”,勾选对应数据库的创建权限。
查看“定位信息”,获取告警产生的JournalNode节点IP地址。 选择“集群 > 待操作集群的名称 > 服务 > HDFS > 实例”,在实例列表中查看告警节点上是否存在JournalNode实例。 是,执行5。 否,执行4。
--config-file 配置文件的名称。 --secure 如果指定,将通过SSL安全模式连接到服务器。 --history_file 存放命令历史的文件的路径。 --param_<name> 带有参数的查询,并将值从客户端传递给服务器。
map 是 无 数据处理规则 清空值两边的空格,支持只清除左边、只清除右边和同时清除左右空格。 传入数据为NULL值,不做转换处理。 配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。 样例 通过“CSV文件输入”算子,生成三个字段A、B和C。
通过Hue创建Sqoop任务将数据从HBase导入HDFS时报错 用户问题 利用Hue的Sqoop操作把HBase中的数据导入HDFS时报错: Caused by: java.lang.ClassNotFoundException: org.apache.htrace.Trace
步骤四:准备应用程序及数据 MRS集群创建成功后,可获取集群客户端内的wordcount样例程序进行运行,也可准备上层业务自行开发的大数据应用程序并上传至集群。
用户无法读写文件。 可能原因 KrbServer服务异常。 JournalNode节点故障。 DataNode节点故障。 磁盘容量不足。 NameNode节点进入安全模式。 处理步骤 检查KrbServer服务状态。
查询的数据是大量的小文件。 查询的数据是较多的大文件。 在beeline/thriftserver模式下使用非spark用户操作。 操作步骤 可对INSERT...SELECT操作做如下的调优操作。
在Flink实时写入数据到Doris的场景下,CheckPoint设置的时间需要考虑每批次数据量,如果每批次数据太小会造成大量小文件,推荐值为60s。