检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
准备本地应用开发环境 准备开发环境 在进行应用开发时,要准备的开发和运行环境如表1所示。 表1 开发环境 准备项 说明 操作系统 开发环境:Windows系统,推荐Windows 7以上版本。 运行环境:Windows或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。
Hive已经使用HDFS的空间大小可在Hive的监控界面查看。 检查该告警是否恢复。 是,操作结束。 否,执行2.a 对系统进行扩容。 添加节点。 检查该告警是否恢复。 是,操作结束。 否,执行3.a。 检查数据节点是否正常。 登录MRS集群详情页面,选择“告警管理”。 查看是否有“ALM-12006
T-Digest函数 概述 T-digest是存储近似百分位信息的数据草图。HetuEngine中用tdigest表示这种数据结构。T-digest可以合并,在存储时可以强转为VARBINARY,检索时再由VARBINARY转换为T-digest 函数 merge(tdigest)→tdigest
SparkStreaming批量写入HBase表 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,使用streamBulkPut接口将流数据写入HBase表中。 数据规划 在客户端执行hbase shell进入HBase命令行。 在hb
SparkStreaming批量写入HBase表 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,使用streamBulkPut接口将流数据写入HBase表中。 数据规划 在客户端执行hbase shell进入HBase命令行。 在hb
133:24002:/hbase ENABLED 如上所示,/hbase2表示数据是同步到备集群的HBase2实例。 在备集群的服务列表中,查看通过2.f获取的HBase实例健康状态是否为“良好”。 是,执行3.a。 否,执行2.h。 在告警列表中,查看是否有“ALM-19000 HBase服务不可用”告警产生。
> 创建配置”,参考如下配置计算实例。 配置“基本配置”,参数配置请参考表1。 表1 基本配置说明 参数 描述 取值样例 所属租户 实例所属租户,新建计算实例只能选择无计算实例的租户。 在“所属租户”下拉列表中选取。 实例部署超时时间(秒) 通过Yarn Service部署启动计
SparkStreaming批量写入HBase表 场景说明 用户可以在Spark应用程序中使用HBaseContext的方式去操作HBase,使用streamBulkPut接口将流数据写入Hbase表中。 数据规划 在客户端执行hbase shell进入HBase命令行。 在HB
educe和ZooKeeper等。 Loader作为客户端使用这些组件的某些功能,如存储数据到HDFS和HBase,从HDFS和HBase表读数据,同时Loader本身也是一个Mapreduce客户端程序,完成一些数据导入导出任务。 Loader通过MapReduce作业实现并行
参数解释: 资源计划列表。若该参数为空表示不启用资源计划。 约束限制: 当启用弹性伸缩时,资源计划与自动伸缩规则需至少配置其中一种。不能超过5条。 取值范围: 不涉及 默认取值: 不涉及 rules 否 Array of Rule objects 参数解释: 自动伸缩的规则列表。 约束限制:
参数解释: core节点支持的规格列表。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 task Array of strings 参数解释: task节点支持的规格列表。 约束限制: 不涉及 取值范围: 不涉及 默认取值: 不涉及 表10 RoleDeployMeta
Cluster类的集群对象,通过调用集群类的add方法和REST server的集群IP和端口来添加集群。 Cluster cluster = new Cluster(); cluster.add("10.10.10.10:21309"); 使用在步骤2中添加的集群初始化类“org.apache.hadoop.hbase
水平扩展能力 TaskManager支持手动水平扩展。 Flink DataStream API提供Scala和Java两种语言的开发方式,如表1所示。 表1 Flink DataStream API接口 功能 说明 Scala API 提供Scala语言的API,提供过滤、join、窗口
2); records.addAll(toBeUpdated); recordsSoFar.addAll(toBeUpdated); writeRecords = jsc.parallelize(records, 1); client.upsert(writeRecords, newCommitTime);
2); records.addAll(toBeUpdated); recordsSoFar.addAll(toBeUpdated); writeRecords = jsc.parallelize(records, 1); client.upsert(writeRecords, newCommitTime);
2); records.addAll(toBeUpdated); recordsSoFar.addAll(toBeUpdated); writeRecords = jsc.parallelize(records, 1); client.upsert(writeRecords, newCommitTime);
在客户端安装节点下创建文件目录:“/home/data”。将上述文件上传到此“/home/data”目录下。 创建Topic。 {zkQuorum}表示ZooKeeper集群信息,格式为IP:port。 $KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper
Iceberg Iceberg原理介绍 Iceberg是一种开放的数据湖表格式,可以基于Iceberg快速地在HDFS或OBS上构建自己的数据湖存储服务。 Iceberg当前为公测阶段,若需使用需联系技术支持申请白名单开通。 当前版本Iceberg仅支持Spark引擎,如需使用其他引擎构建数据湖服务,请使用Hudi。
um]h的格式表示。其中num表示数字。 其中字母的意思如下: * y--年(一年是365天)。 * m--月(一个月是30天)。 * w--周(一周是7天)。 * d--天。 * h--小时。 可以单独使用年,月,周,天或小时,也可以将时间组合。比如,1y2d表示1年零2天或者367天。
Impala应用开发流程 开发流程中各阶段的说明如图1和表1所示。 图1 Impala应用程序开发流程 表1 Impala应用开发的流程说明 阶段 说明 参考文档 了解基本概念 在开始开发应用前,需要了解Impala的基本概念。 Impala应用开发常用概念 准备开发和运行环境