检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
指定为具体的表字段 hoodie.datasource.write.payload.class 在更新过程中,该类用于提供方法将要更新的记录和更新的记录做合并,该实现可插拔,如要实现自己的合并逻辑,可自行编写。 org.apache.hudi.common.model.Defaul
这里join操作,只指inner join。 操作步骤 在Spark SQL中进行Join操作时,可以按照以下步骤进行优化。为了方便说明,设表A和表B,且A、B表都有个名为name的列。对A、B表进行join操作。 估计表的大小。 根据每次加载数据的大小,来估计表大小。 也可以在Hiv
这里join操作,只指inner join。 操作步骤 在Spark SQL中进行Join操作时,可以按照以下步骤进行优化。为了方便说明,设表A和表B,且A、B表都有个名为name的列。对A、B表进行join操作。 估计表的大小。 根据每次加载数据的大小,来估计表大小。 也可以在Hiv
然后单击,进入“文件浏览器”页面。您可以进行以下操作。 查看文件和目录 默认显示登录用户的目录及目录中的文件,可查看目录或文件的“名称”、“大小”、“用户”、“组”、“权限”和“日期”信息。 单击文件名,可查看文本文件的文本信息或二进制数据。支持编辑文件内容。 如果文件和目录数量比较多,可以在搜索框输入关键字,搜索特定的文件或目录。
如上步骤中,故障节点“10-10-10-153”同步数据到“PeerID”为“abc1”的备集群失败。 继续执行list_peers命令,查找该“PeerID”对应的集群和HBase实例。 PEER_ID CLUSTER_KEY STATE TABLE_CFS abc1 10.10.10.110,10.10.10
Manager升级ARM JDK MRS Manager解决Core节点日志撑满系统盘问题 MRS大数据组件 解决Ranger日志不能设置个数,有撑满磁盘风险的问题 MRS 1.9.0.2 修复问题列表: MRS Manager 解决集群中部分Core节点互信丢失问题 解决补丁安装后添加实例失败问题
退。 如客户有特殊要求,必须回退到Capacity调度器,需满足以下两个条件: 只能在观察期内,做切换回Capacity调度器的操作。 在观察期内,不允许对资源池、Yarn节点标签(Label)和租户做添加、删除的操作。 如果对资源池、Yarn节点标签(Label)和租户做了添加
Spark Streaming性能调优 操作场景 Streaming作为一种mini-batch方式的流式处理框架,它主要的特点是:秒级时延和高吞吐量。因此Streaming调优的目标:在秒级延迟的情景下,提高Streaming的吞吐能力,在单位时间处理尽可能多的数据。 本章节适用于输入数据源为Kafka的使用场景。
以root用户登录主NameNode节点,用户密码为安装前用户自定义,请咨询系统管理员。 使用ping命令检查主NameNode与该JournalNode之间的网络状况,是否有超时或者网络不可达的情况。 ping JournalNode的业务IP地址 是,执行14。 否,执行15。 联系网络管理员处理网络故障,故障恢复后等待5分钟,查看告警是否清除。
该目录继续增加条目。一旦超过系统最大阈值,继续增加条目会失败。 可能原因 监控目录的条目数超过系统阈值的90%。 处理步骤 检查系统中是否有不需要的文件。 以root用户登录HDFS客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行cd命令进入客户端安装目录,然后执行source
SparkStreaming访问Kafka,只能读到一个分区。 HBase组件问题: HBase健康检查时,遇到非HBase问题引起的错误码与HBase本身的错误码有重合,导致误告警。 在MRS Manager界面上无法修改HBase服务端的部分配置文件(hdfs-site.xml、core-site.xml、mapred-site
S为例) 可能原因三:端口被占用,每一个Spark任务都会占用一个SparkUI端口,默认为22600,如果被占用则依次递增端口重试。但是有个默认重试次数,为16次。16次重试都失败后,会放弃该任务的运行。 查看端口是否被占用: ssh -v -p port username@ip
Spark Streaming性能调优 操作场景 Streaming作为一种mini-batch方式的流式处理框架,它主要的特点是:秒级时延和高吞吐量。因此Streaming调优的目标:在秒级延迟的情景下,提高Streaming的吞吐能力,在单位时间处理尽可能多的数据。 本章节适用于输入数据源为Kafka的使用场景。
Flume客户端。 已创建用户flume_hdfs并授权验证日志时操作的HDFS目录和数据。 操作步骤 分别生成Flume角色服务端和客户端的证书和信任列表。 以omm用户登录Flume服务端所在节点。进入“${BIGDATA_HOME}/FusionInsight_Porter
jks”证书的导出文件,“-f”配置项是证书和证书库的密码; “flume_cChat.jks”是Flume角色客户端的证书库,“flume_cChat.crt”是“flume_cChat.jks”证书的导出文件,“-g”配置项是证书和证书库的密码; “flume_sChatt.jks”和“flume_cChatt
kafka_sink.kafka.kerberos.domain.name = Kafka Domain名称,安全集群必填,如hadoop.example.com client.sinks.kafka_sink.requiredAcks = 0 client.sources.static_log_source
Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“DBService”和“NodeAgent”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除
色。 表1 IoTDB权限一览 权限名称 说明 用户需要的权限 示例 SET_STORAGE_GROUP 创建存储组,包含设置存储组的权限和设置或取消存储组的存活时间(TTL)。 设置存储组 set storage group to root.ln; set ttl to root
在FusionInsight Manager页面,选择“集群 > 服务 > Flink > 实例”,查看并记录“FlinkServer (主)”和“FlinkServer (备)”的业务IP。 以root用户登录主FlinkServer节点,用户密码为安装前用户自定义,请咨询系统管理员。
说明: user.keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时间,取值为"true"或者"false"。