检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
latitude,longitude'); SPATIAL_INDEX:自定义索引处理器。此处理程序允许用户从表结构列集合中创建新的列。新创建的列名与处理程序名相同。处理程序的type和sourcecolumns属性是必需的属性。目前,type属性只支持“geohash”。Carbon提供
Spark2x如何访问外部集群组件 问题 存在两个集群:cluster1 和cluster2,如何使用cluster1中的Spark2x访问cluster2中的HDFS、Hive、HBase和Kafka组件。 回答 可以有条件的实现两个集群间组件互相访问,但是存在以下限制: 仅允许访问一个Hive
具体数值,也可以关闭不再显示。 图5 监控状态的报表 告警分析: MRS 3.3.0及之后版本的Manager主页界面中,告警信息展示页面与历史版本有所不同,具体请以实际页面呈现为准。 “告警分析”页面展示“Top20告警统计”表和“Top3告警分析”图。单击“Top20告警统计
"replication_allocation" = "tag.location.default: 1" ); 写时合并 Unique模型的写时合并实现与Aggregate模型是完全不同的两种模型,查询性能更接近于Duplicate模型,在有主键约束需求的场景上相比Aggregate模型有较大
内存不足导致HDFS NameNode启动失败 问题背景与现象 场景一:重启HDFS服务后,HDFS的状态为Bad,且NameNode实例状态异常,并且很久没有退出安全模式。 场景二:NameNode启动时,启动超时后启动失败,原生页面无法打开。 原因分析 在NameNode运行
需要提前部署B服务,B为A提供基础能力。 A关联于B(服务级):A服务与B服务在业务进行中会产生数据交互,不存在部署上的依赖关系。 A与B共机部署(角色级):若集群中部署A角色,需要同时部署B角色,且A与B需要部署在相同的节点上。 表2 MRS集群角色部署规则 服务名称 依赖关系
内存比例建议>1:2,推荐1:4~1:8 上一个规则是指纯读写的资源配比,如果Spark的作业除了读写还有业务逻辑计算,该过程会导致需要内存增加,因此建议CPU核心与内存的比例大于1:2,如果逻辑比较复杂适当调大内存,这要基于实际情况进行调整。一般默认推荐配置为1:4~1:8。 针对bucket表的写入资
Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。 在数据内容中增加前缀并进行打印。 父主题: Flink Kafka样例程序
latitude,longitude'); SPATIAL_INDEX:自定义索引处理器。此处理程序允许用户从表结构列集合中创建新的列。新创建的列名与处理程序名相同。处理程序的type和sourcecolumns属性是必须的属性。目前,type属性只支持“geohash”。Carbon提供
客户端连接ProxyServer时,需要指定Namespace,即访问ZooKeeper哪个目录下的ProxyServer实例。在连接的时候,会根据当前租户名的Hash值与Zookeeper下的Namespace实例个数取模获取连接的实例,详细URL参见URL连接介绍。 客户端成功连接ProxyServer服务
m.huawei.storm.example.kafka.NewKafkaTopology.java。 本章节只适用于MRS产品Storm与Kafka组件间的访问。本章中描述的jar包的具体版本信息请以实际情况为准。 应用开发操作步骤 确认MRS产品Storm和Kafka组件已经安装,并正常运行。
hbase.coprocessor.region.classes 单击“保存配置”,并勾选“重新启动受影响的服务或实例。”重启HMaster与RegionServer实例。 在HBase Service hbasedev下创建对应的Policy。 登录Ranger WebUI界面。
17:58:22.820 INFO 20556 --- [ main] o.apache.catalina.core.StandardService : Starting service [Tomcat] 2023-02-06 17:58:22.821 INFO 20556
实例”,单击对应IP地址的“角色”列的“quorumpeer”。单击图表区域右上角的下拉菜单,选择“定制 > CPU 和内存”,勾选“ZooKeeper堆内存与直接内存使用率”,单击“确定”,查看堆内存使用情况。 查看ZooKeeper使用的堆内存是否已达到ZooKeeper设定的最大堆内存的95%。
节点规格 选择节点组内主机的规格类型。 节点数量 设置新增节点组内的节点数量。 系统盘 设置新增节点的系统盘的规格与容量。 数据盘/数据盘数量 设置新增节点的数据盘的规格与容量及数量。 部署角色 添加“NodeManager”角色。 单击“确定”。 添加资源池 在集群详情页,单击“租户管理”。
mapPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,使用mapPartition接口并行遍历HBase表。 数据规划 使用foreachPartition接口使用章节创建的HBase数据表。 开发思路 构造
ttl Flink状态TTL(join ttl),通过-yD添加,默认值:0。 根据实际填写 必填 heartbeat.timeout jm与tm之间心跳超时时间,通过-yD添加。 1800000 必填 akka.ask.timeout akka通信超时时间,通过-yD添加。 240s
foreachPartition接口使用 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,将要插入的数据的rowKey构造成rdd,然后通过HBaseContext的mapPartition接口将rdd并发写入HBase表中。 数据规划
全局属性 全局属性配置请参见表4。 表4 全局属性 配置项 必选/可选 配置说明 cpuQuotaPeriod 可选 CPU配额生效的时间段,与资源组属性的softCpuLimit以及hardCpuLimit结合使用。 选择器属性的配置 数据源名称(source)可设置如下: CLI:使用--source选项。
Kafka Producer应用向Kafka发送数据。 启动Flink Kafka Consumer应用从Kafka接收数据,保证topic与producer一致。 在数据内容中增加前缀并进行打印。 父主题: Flink Kafka样例程序