正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
set:”选择“UTF-8”。 单击“Open”登录云服务器。 如果首次登录云服务器,PuTTY会显示安全警告对话框,询问是否接受服务器的安全证书。单击“是”将证书保存到本地注册表中。 建立到云服务器的SSH连接后,根据提示输入用户名和密码登录弹性云服务器。 用户名、密码分别是root和创建集群时设置的密码。
connectionTimeout) < RPC响应超时时间(spark.rpc.askTimeout),在特殊条件下(Full GC,网络延时等)消息响应时间较长,消息还没有反馈,channel又达到了过期时间,该channel就被终止了,AM端感知到channel被终止后认为driver失联,然后整个应用停止。
singletonList(this.topic)); // 消息消费请求 ConsumerRecords<Integer, String> records = consumer.poll(waitTime); // 消息处理 for (ConsumerRecord<Integer
singletonList(this.topic)); // 消息消费请求 ConsumerRecords<Integer, String> records = consumer.poll(waitTime); // 消息处理 for (ConsumerRecord<Integer
connectionTimeout) < RPC响应超时时间(spark.rpc.askTimeout),在特殊条件下(Full GC,网络延时等)消息响应时间较长,消息还没有反馈,channel又达到了过期时间,该channel就被终止了,AM端感知到channel被终止后认为driver失联,然后整个应用停止。
#checkBlockplacementLog checkAutoDiskBalancer } 保存文件后,登录Manager,选择“集群 > 服务 > HDFS > 实例”,勾选所有NameNode实例,选择“更多 > 重启实例”。 父主题: 使用HDFS
提交SQL语句 功能介绍 在MRS集群中提交并执行一条SQL语句。 接口约束 无 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/clusters/{cluster_id}/sql-execution 表1 路径参数 参数 是否必选 参数类型
查询标签配额 功能介绍 查询标签配额信息 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/clusters/{cluster_id}/tags/quota 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 参数解释:
支持 批量读 支持 支持 流式写 支持 支持 流式读 支持 支持 前提条件 集群已安装HDFS、Yarn、Flink和Hudi等服务。 包含Hudi服务的客户端已安装,例如安装路径为:/opt/client。 Flink要求1.12.2及以后版本,Hudi要求0.9.0及以后版本。
注意:在此处设定的输出结果序列的类型,决定了“transform”方法中“PointCollector”实际能够接收的数据类型。“setOutputDataType”中设定的输出类型和“PointCollector”实际能够接收的数据输出类型关系如下: 表4 “PointCollector”能接受到的数据类型与输出的对应关系
INTERVAL '5' SECOND)) GROUP BY `name`, window_start, window_end 该特性还支持窗口接收到迟到数据时输出当前窗口的开始时间和结束时间,可通过添加在Hint中'window.start.field'和'window.end.fi
YARN接口介绍 YARN Command介绍 YARN Java API接口介绍 YARN REST API接口介绍 Superior Scheduler REST API接口介绍 父主题: YARN开发指南(安全模式)
enterpriseProjectId 否 String 参数解释: 通过企业项目ID来搜索指定项目的集群。获取方式请参见《企业管理API参考》的“查询企业项目列表”响应消息表“enterprise_project字段数据结构说明”的“id”。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 0 请求参数 无
AK/SK会明文暴露在配置文件中,请谨慎使用。 为了提高数据写入性能,可以在Manager页面选择“集群 > 服务 > 需要修改的服务名称 > 配置”,修改对应服务的配置参数“fs.obs.buffer.dir”的值为数据盘目录。 大数据存算分离场景,请务必使用OBS并行文件系
topics.split(",").toSet // 通过brokers和topics直接创建kafka stream // 1.接收Kafka中数据,生成相应DStream val kafkaParams = Map[String, String]("metadata
10/3.1.5.0.3及之后补丁版本 否:MRS 3.3.0之前版本 告警参数 参数名称 参数含义 来源 产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 挂载目录名 产生告警的挂载目录名。 设备分区名 产生告警的设备分区名。
内存计算,CQL的输出结果为数据流在某一时刻的计算结果。使用CQL,可以快速进行业务开发,并方便地将业务提交到Storm平台开启实时数据的接收、处理及结果输出;并可以在合适的时候中止业务。 高可用性 Nimbus HA机制,避免了开源Storm集群中Nimbus出现单点故障而导致
Hive支持ZSTD压缩格式 ZSTD(全称为Zstandard)是一种开源的无损数据压缩算法,其压缩性能和压缩比均优于当前Hadoop支持的其他压缩格式,本特性使得Hive支持ZSTD压缩格式的表。Hive支持基于ZSTD压缩的存储格式有常见的ORC、RCFile、TextFi
HBase Region的多点分割 功能简介 一般通过org.apache.hadoop.hbase.client.HBaseAdmin进行多点分割。 分割操作只对空Region起作用。 可在创建表时对表进行预分区,或者对某些region直接进行split操作来替代。 本例使用m
optimize.skewjoin=true”并调整“hive.skewjoin.key”的大小。“hive.skewjoin.key”是指Reduce端接收到多少个key即认为数据是倾斜的,并自动分发到多个Reduce。 父主题: Hive性能调优