检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
多文件合并 文件系统检查 文件链接 Hive审计日志 元数据操作 元数据定义,如创建数据库、表等 元数据删除,如删除数据库、表等 元数据修改,如增加列、重命名表等 元数据导入/导出 数据维护 向表中加载数据 向表中插入数据 权限管理 创建/删除角色 授予/回收角色 授予/回收权限
用于删除现有的物化视图。若删除的视图不存在,且指定了可选参数if exists,则不会抛出错误信息。 删除物化视图将导致删除与指定视图关联的元数据和表数据。 如果在删除物化视图之前部分数据被删除(元数据或表数据),则删除物化视图将失败。 示例 创建表。 hetuengine:tpcds_2gb> create table
控状态及指标数据。 主机隔离后部分服务的实例不再工作,服务的配置状态可能过期。 待操作节点的SSH端口需保持默认(22),否则将导致本章节任务操作失败。 前提条件 如果通过MRS管理控制台操作,需要已完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。
Flume在重启后是否直接定位到文件最新的位置处读取最新的数据。设置为true,则重启后直接定位到文件最新位置读取最新数据。 idleTimeout 120000 设置读取文件的空闲时间,单位:毫秒,如果在该时间内文件内容没有变更,关闭掉该文件,关闭后如果该文件有数据写入,重新打开并读取数据。 writePosInterval
向ZooKeeper数据目录空间写入大量数据,导致依赖本目录(详细参见告警定位信息)的上游组件(例如Yarn、Flink、Spark等)的业务异常。 可能原因 往ZooKeeper数据目录空间写入大量数据,或者自定义阈值设置不合理。 处理步骤 检查告警目录是否写入大量数据 在FusionInsight
tion接口并行遍历HBase表。 数据规划 使用foreachPartition接口使用章节创建的HBase数据表。 开发思路 构造需要遍历的HBase表中rowkey的RDD。 使用mapPartition接口遍历上述rowkey对应的数据信息,并进行简单的操作。 打包项目
CarbonData块分布对于数据处理进行了如下优化: 优化数据处理并行度。 优化了读取块数据的并行性。 为了优化并行数据处理及并行读取块数据,CarbonData根据块的局域性申请executor,因此CarbonData可获得所有节点上的executor。 为了优化并行数据处理及并行读取块数据,运用动态分配的用户需配置以下特性。
CarbonData块分布对于数据处理进行了如下优化: 优化数据处理并行度。 优化了读取块数据的并行性。 为了优化并行数据处理及并行读取块数据,CarbonData根据块的局域性申请executor,因此CarbonData可获得所有节点上的executor。 为了优化并行数据处理及并行读取块数据,运用动态分配的用户需配置以下特性。
FlinkSQL支持MultiJoin算子 本章节适用于MRS 3.5.0及以后版本。 当使用Flink的Full outer Join算子实现宽表拼接功能时,由于状态会被多次重复存储导致状态后端压力大,计算性能差。使用MultiJoin算子进行宽表拼接计算性能可以提升1倍。 Fl
创建CDL作业前准备 开启Kafka高可靠功能 登录CDLService WebUI界面 上传数据库驱动文件 创建CDL数据库连接 管理CDL ENV变量 配置源数据心跳表实现数据判齐功能 父主题: 使用CDL
配置Hive视图的访问控制权限示例: 不采用“current_user”函数,要实现不同的用户,访问不同数据,需要创建不同的视图: 将视图v1授权给用户hiveuser1,hiveuser1用户可以访问表table1中“type='hiveuser1'”的数据: create view v1 as select
Hudi Savepoint操作说明 Savepoint用于保存并还原自定义的版本数据。 Hudi提供的savepoint就可以将不同的commit保存起来以便清理程序不会将其删除,后续可以使用Rollback进行恢复。 使用spark-sql管理savepoint。 示例如下:
单击“新建连接”,进入配置页面,并填写参数创建一个Loader连接。 Loader作业介绍 Loader作业用于管理数据迁移任务,每个作业包含一个源数据的连接,和一个目的数据的连接,通过从源连接读取数据,再将数据保存到目的连接,完成数据迁移任务。 父主题: 使用Loader
建立连接:建立和ClickHouse服务实例的连接。 创建库:创建ClickHouse数据库。 创建表:创建ClickHouse数据库下的表。 插入数据:插入数据到ClickHouse表中。 查询数据:查询ClickHouse表数据。 删除表:删除已创建的ClickHouse表。 父主题: 开发ClickHouse应用
配置时间字段格式,时间格式如:“yyyyMMdd HH:mm:ss”。 string 否 无 数据处理规则 原始数据包含null值,不做转换处理。 配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。 遇到类型转换错误,当前数据保存为脏数据。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下图:
配置时间字段格式,时间格式如:“yyyyMMdd HH:mm:ss”。 string 否 无 数据处理规则 原始数据包含null值,不做转换处理。 配置输入字段列数,大于原始数据实际包含字段列数,全部数据成为脏数据。 遇到类型转换错误,当前数据保存为脏数据。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下图:
整个流图。 拆分成多个作业目前还存在问题。 通常情况下,作业之间可以通过Kafka实现数据传输,如作业A可以将数据发送到Kafka的Topic A下,然后作业B和作业C可以从Topic A下读取数据。该方案简单易行,但是延迟一般大于100ms。 采用TCP直接相连的方式,算子在分
最大内存数参考值:master节点内存-16GB * 0.65 (保守估计值) 修改完成后需要重启ZooKeeper服务。 修改ZooKeeper的数据盘和日志盘默认配置,改为不同磁盘。 完成后同步修改ClickHouse服务的ZooKeeper相关配置。 登录MRS集群的FusionInsight Manager界面,单击“集群
xml”(“coordinator.xml”是对工作流进行调度,“bundle.xml”是对一组coordinator进行管理)与“job.properties”。 如果有实现代码,需要开发对应的jar包,例如Java Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖的jar
xml”(“coordinator.xml”是对工作流进行调度,“bundle.xml”是对一组Coordinator进行管理)与“job.properties”。 如果有实现代码,需要开发对应的jar包,例如Java Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖的jar