检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
(col_name, ...) [[ENABLE|DISABLE] [VALIDATE|NOVALIDATE] [RELY|NORELY]] 参数说明 请参考使用Hive语法创建OBS表,和Hive 文档了解每个DDL语句的语义。 有关可用配置的完整列表,请参阅流式处理接收器。Streaming
”->”参数设置”中可以配置Hudi参数。 提交DLI Spark jar作业时,Hudi参数可以通过Spark datasource API的option来配置。 或者,在提交作业时配置到"Spark参数(--conf)" 中,注意,此处配置的参数,键需要添加前缀 ”spark
table1.proctime [AS <alias2>] ON table1.column-name1 = table2.key-name1 语法说明 table1.proctime表示table1的proctime处理时间属性(计算列) 使用FOR SYSTEM_TIME AS OF table1
table1.proctime [AS <alias2>] ON table1.column-name1 = table2.key-name1 语法说明 table1.proctime表示table1的proctime处理时间属性(计算列) 使用FOR SYSTEM_TIME AS OF table1
12版本的跨源访问场景,使用DLI提供的“跨源认证”管理数据源的访问凭证。 本节操作为您介绍DLI提供的跨源认证的使用方法。 约束与限制 表1 跨源认证约束限制 限制项 说明 适用场景约束限制 仅Spark SQL、和Flink OpenSource SQL 1.12版本的作业支持使用跨源认证。 仅在2023年
| 10.00 | GROUPING SETS 窗口聚合也支持 GROUPING SETS 语法。Grouping Sets 可以通过一个标准的 GROUP BY 语句来描述更复杂的分组操作。数据按每个指定的 Grouping Sets 分别分组,并像简单的 GROUP BY 子句一样为每个组进行聚合。
配置资源权限:选择“当前MRS集群的名称 > hive”,勾选“Hive管理员权限”。 图1 Manager创建Hive的角色 更多MRS创建角色的操作说明可以参考:创建Hive管理员角色。 在MRS Manager上,选择“系统 > 权限 > 用户”,单击“添加用户”,在添加用户页面分别配置如下参数。
table1.proctime [AS <alias2>] ON table1.column-name1 = table2.key-name1 语法说明 table1.proctime表示table1的proctime处理时间属性(计算列) 使用FOR SYSTEM_TIME AS OF table1
如果当前MRS集群为普通集群则选择为SIMPLE,如果是MRS集群启用了Kerberos安全认证则选择为KERBEROS。 本示例选择为:KERBEROS。 更多参数的详细说明可以参考CDM上配置Kafka连接。 图3 CDM配置MRS Kafka数据源连接 单击“保存”完成MRS Kafka数据源配置。 配置目的端DLI的数据源连接。
户“dbadmin”。 密码 对应的DWS数据库用户的密码。 图2 CDM配置DWS数据源 其他更多参数保持默认即可,如果需要了解更多参数说明,可以参考配置关系数据库连接。单击“保存”完成DWS数据源连接配置。 创建目的端DLI数据源的连接。 登录CDM控制台,选择“集群管理”,
操作。 A <> B BOOLEAN 若A与B不相等,则返回TRUE,否则返回FALSE。若A或B为NULL,则返回NULL,该种运算符为标准SQL语法。 A < B BOOLEAN 若A小于B,则返回TRUE,否则返回FALSE。若A或B为NULL,则返回NULL。 A <= B
关键字 DROP:删除表分区。 IF EXISTS:所要删除的分区必须是已经存在的,否则会出错。 PARTITIONS:分区。 参数说明 表1 参数描述 参数 描述 db_name Database名称,由字母、数字和下划线(_)组成。不能是纯数字,且不能以下划线开头。 table_name
操作。 A <> B BOOLEAN 若A与B不相等,则返回TRUE,否则返回FALSE。若A或B为NULL,则返回NULL,该种运算符为标准SQL语法。 A < B BOOLEAN 若A小于B,则返回TRUE,否则返回FALSE。若A或B为NULL,则返回NULL。 A <= B
流生态作业开发指引 流生态系统基于Flink和Spark双引擎,完全兼容Flink/Storm/Spark开源社区版本接口,并且在此基础上做了特性增强和性能提升,为用户提供易用、低时延、高吞吐的数据湖探索。 数据湖探索的流生态开发包括云服务生态、开源生态和自拓展生态: 云服务生态
OPTIONS(property_name=property_value, ...); 关键字 INPATH:数据路径。 OPTIONS:属性列表。 参数说明 表1 参数描述 参数 描述 folder_path 原始数据文件夹或者文件的OBS路径。 db_name 数据库名称。若未指定,则使用当前数据库。
values_row ...]; values_row: : (val1 [, val2, ...]) 关键字 表1 INSERT关键字说明 参数 描述 db_name 需要执行INSERT命令的表所在数据库的名称。 table_name 需要执行INSERT命令的表的名称。 part_spec
一个musicTable用于存放音乐版权相关数据。 “数据工程师A”和“数据工程师B”对于队列和数据的使用权限如表3所示。 表3 使用权限说明 用户 数据工程师A(游戏数据分析) 数据工程师B(音乐数据分析) 队列 队列A(队列使用权限) 队列B(队列使用权限) 数据(表) gameTable(表管理和使用权限)
对于Flink Jar作业,您需要在代码中开启Checkpoint,同时如果有自定义的状态需要保存,您还需要实现ListCheckpointed接口,并为每个算子设置唯一ID。然后在作业配置中,勾选“从Checkpoint恢复”,并准确配置Checkpoint路径。 图2 开启Checkpoint
precombine.field' = 'xx', 'read.streaming.enabled' = 'true' ... ); 参数说明 参数名称 是否必选 默认值 数据类型 参数描述 connector 是 无 String 读取表类型。需要填写为'hudi' path 是
新建策略完成后,单击“下一步”,返回委托授权页面。 选择步骤8新建的自定义策略。 图3 选择自定义策略 单击“下一步”,选择委托的授权范围。 了解更多授权操作说明请参考创建用户组并授权。 所有资源:授权后,IAM用户可以根据权限使用账号中所有资源,包括企业项目、区域项目和全局服务资源。 全局服务资源