检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
函数 自定义函数 自定义函数类型推导 自定义函数参数传递 内置函数 父主题: Flink Opensource SQL1.15语法参考
使用客户端工具连接DLI 使用JDBC提交SQL作业 使用Spark-submit提交Spark Jar作业 使用Livy提交Spark Jar作业
创建一个REPLACE提交,并更新HoodieReplaceCommitMetadata中的元数据。 如何执行Clustering Spark SQL(设置如下参数,写数据时触发) hoodie.clustering.inline=true // 默认值 false,即默认为关闭状态 hoodie.clustering
'connector.table-name' = '', 'connector.zookeeper.quorum' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为hbase connector.version
单击“用户权限信息”右侧的“授权”,弹出“授权”对话框。 “用户名”参数处填写具体要被授权的IAM用户名,并勾选需要赋权给该用户的对应权限。 单击“确定”,完成新用户的权限的设置。 待设置的参数说明如表1所示。 图1 弹性资源池权限授权 表1 参数说明 参数名称 描述 用户名 被授权的用户名称。 说明:
hashLength) 使用 SHA-2 系列散列函数(SHA-224,SHA-256,SHA-384 或 SHA-512)返回散列值。第一个参数字符串是要散列的字符串, 第二个参数 hashLength 是结果的位长(224,256,384 或 512)。如果 string 或 hashLength
select sign(32.133); -- 1 select sign(0);--0 对于double类型的参数 参数是NaN,返回NaN 参数是+∞,返回1 参数是-∞,返回-1 select sign(NaN());--NaN select sign(Infinity());--
properties.bootstrap.servers' = '', 'format.type' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector类型,对于upsert kafka,需配置为'upsert-kafka'
'', 'connector.username' = '', 'connector.password' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 数据源类型,‘jdbc’表示使用JDBC connector,必须为jdbc
'connector.table-name' = '', 'connector.zookeeper.quorum' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为hbase connector.version
范去优化对应的配置参数即可。 建议 基于Flink的流式写入的表,在数据量超过2亿条记录,采用Bucket索引,2亿以内可以采用Flink状态索引。 参照Flink状态索引的特点,Hudi表超过一定数据量后,Flink作业状态后端压力很大,需要优化状态后端参数才能维持性能;同时由
UPDATE_BEFORE 和 UPDATE_AFTER 分别编码为 DELETE 和 INSERT 类型的 Canal 消息。 参数说明 表1 参数说明 参数 是否必选 默认值 类型 说明 format 是 (none) String 指定要使用的格式,此处应为 'canal-json'
如何呢?其实PySpark本身就已经考虑到这一点了,那就是基于PyFiles来指定依赖,在DLI Spark作业页面中可以直接选取存放在OBS上的Python第三方程序库(支持zip、egg等)。 图1 Spark作业编辑页面 对于依赖的这个Python第三方库的压缩包有一定的结
'connector.properties.bootstrap.servers' = '', 'format.type' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector类型,对于kafka,需配置为'kafka'。 connector
'print', 'print-identifier' = '', 'standard-error' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector 是 固定为print。 print-identifier 否 配置一个标识符作为输出数据的前缀。
ws/* 通过控制台提交作业请参考《数据湖探索用户指南》中的“选择依赖资源参数说明”。 通过API提交作业请参考《数据湖探索API参考》>《创建批处理作业》中“表2-请求参数说明”关于“modules”参数的说明。 完整示例代码 通过DataFrame API访问 认证用的pas
'connector.username' = '', 'connector.password' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 数据源类型,‘jdbc’表示使用JDBC connector,必须为jdbc
from, string|char|varchar to) →varchar 描述:对于input字符串,将其中的参数from指代字符串替换为参数to指代的字符串。三个参数有一个为NULL,则结果返回NULL。 select translate('aabbcc','bb','BB');
SQL防御规则参数配置 参数 说明 规则名称 自定义SQL防御规则名称。 系统规则 选择防御规则,DLI支持的系统防御规则请参考DLI支持的SQL防御系统规则。 队列 选择绑定规则的队列。 描述信息 输入规则描述信息。 防御规则动作 配置当前SQL防御规则动作的阈值参数。 SQL规则支持的类型:
db/* 通过控制台提交作业请参考《数据湖探索用户指南》中的“选择依赖资源参数说明”。 通过API提交作业请参考《数据湖探索API参考》>《创建批处理作业》中“表2-请求参数说明”关于“modules”参数的说明。 完整示例代码 Maven依赖 1 2 3 4 5 <dependency>