检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
JDBCServer默认值为true,client默认值为false。 false spark.executor.memory 每个Executor进程使用的内存数量,与JVM内存设置字符串的格式相同(例如:512m,2g)。 4G spark.sql.autoBroadcastJoinThreshold 当进行join操作时,配置广播的最大值。
JDBCServer默认值为true,client默认值为false。 false spark.executor.memory 每个Executor进程使用的内存数量,与JVM内存设置字符串的格式相同(例如:512m,2g)。 4G spark.sql.autoBroadcastJoinThreshold 当进行join操作时,配置广播的最大值。
HDFS提供了一个容量均衡程序Balancer。通过运行这个程序,可以使得HDFS集群达到一个平衡的状态,使各DataNode磁盘使用率与HDFS集群磁盘使用率的偏差不超过阈值。图1和图2分别是Balance前后DataNode的磁盘使用率变化。 图1 执行均衡操作前DataNode的磁盘使用率
HDFS提供了一个容量均衡程序Balancer。通过运行这个程序,可以使得HDFS集群达到一个平衡的状态,使各DataNode磁盘使用率与HDFS集群磁盘使用率的偏差不超过阈值。图1和图2分别是Balance前后DataNode的磁盘使用率变化。 图1 执行均衡操作前DataNode的磁盘使用率
口功能,只能提供Get、Scan查询服务。 操作步骤 将在准备集群认证用户信息时获取的主集群keytab认证文件“user.keytab”与“krb5.conf”放置到二次样例“src/main/resources/conf”目录下。 参考准备连接HBase集群配置文件章节,获取
告警阈值可进行调整,用户也可以根据需要自定义集群监控指标,或屏蔽对应告警,使告警不再上报。 MRS集群阈值转告警监控指标可分为节点信息指标与集群服务指标,相关指标及其对系统的影响、默认阈值等信息请参考监控指标参考。 方案架构 Manager的整体逻辑架构如图1所示。 图1 Manager逻辑架构
在“hbase-dual.xml”中新增主备集群配置 将在准备MRS应用开发用户时获取的主集群keytab认证文件“user.keytab”与“krb5.conf”放置到二次样例“src/main/resources/conf”目录下。 参考准备HBase应用开发和运行环境章节,获
使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
DataStream[String] 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName指的是编码格式的名字。 def readTextFile(filePath: String, charsetName: String): DataStream[String]
DataStream[String] 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName指的是编码格式的名字。 def readTextFile(filePath: String, charsetName: String): DataStream[String]
DataStream[String] 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName指的是编码格式的名字。 def readTextFile(filePath: String, charsetName: String): DataStream[String]
DataStream[String] 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName指的是编码格式的名字。 def readTextFile(filePath: String, charsetName: String): DataStream[String]
filePath) 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName是编码格式的名字。 public DataStreamSource<String> readTextFile(String filePath, String
filePath) 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName是编码格式的名字。 public DataStreamSource<String> readTextFile(String filePath, String
filePath) 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName是编码格式的名字。 public DataStreamSource<String> readTextFile(String filePath, String
filePath) 获取用户定义的某路径下的文本文件数据,作为输入流数据。 filePath是指文本文件的路径。 charsetName是编码格式的名字。 public DataStreamSource<String> readTextFile(String filePath, String
使用root用户登录安装了集群客户端的节点。 cd /opt/client source bigdata_env 创建输入Topic和输出Topic,与样例代码中指定的Topic名称保持一致,输出Topic的清理策略设置为compact。 kafka-topics.sh --create --zookeeper
参数类型 描述 tags 否 String 参数解释: 标签列表。可以通过集群的标签来搜索指定标签的集群,当指定多个tag进行查询时,标签之间是与的关系。 约束限制: 不涉及 取值范围: tags参数的格式为tags=k1*v1,k2*v2,k3*v3 当标签的value为空时,格式为tags=k1
Streaming和Receiver。 Direct Streaming方式主要通过采用Direct API对数据进行处理。以Kafka Direct接口为例,与启动一个Receiver来连续不断地从Kafka中接收数据并写入到WAL中相比,Direct API简单地给出每个batch区间需要读取的偏
默认取值: 不涉及 NodeNum Integer 参数解释: 节点数量,取值范围0-500,Master节点和Core节点数量至少为1,Core与Task节点总数最大为500个。 约束限制: 不涉及 取值范围: 0-500 默认取值: 不涉及 NodeSize String 参数解释: