检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
返回ARRAY类型。如果任一输入ARRAY数组为NULL,返回结果为NULL。 返回STRING类型。如果没有参数或任一参数为NULL,返回结果为NULL。 示例代码 连接ARRAY数组array(1, 2)和array(2, -2)。命令示例如下。 返回[1, 2, 2, -2]。 select concat(array(1
如果date1小于date2,返回值为负数。 date1或date2值为NULL时,返回NULL。 datepart值为NULL时,返回NULL。 示例代码 返回14400。 select datediff1('2023-06-30 00:00:00', '2023-06-20 00:00:00'
如果replace_string值为NULL但pattern不匹配,返回NULL。 source、pattern或occurrence值为NULL时,返回NULL。 示例代码 返回 2222。 select regexp_replace1('abcd', '[a-z]', '2'); 返回 2bcd。 select
返回报错。 start或end非BIGINT类型常量时,返回报错。 除separator外,如果任一参数值为NULL,返回NULL。 示例代码 返回aa。 select split_part('aa,bb,cc,dd', ',', 1); 返回aa,bb。 select split_part('aa
输入kafka的地址 > 测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,并提交运行,其代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
Jar作业读写DIS数据的操作方法。 Spark Jar作业开发 使用Spark Jar作业读取和查询OBS数据 介绍从编写Spark程序代码读取和查询OBS数据、编译打包到提交Spark Jar作业的开发样例。
"2018-01-01" Flink作业不支持使用CAST将“BIGINT”转换为“TIMESTAMP”,可以使用to_timestamp进行转换。 详细样例代码 /** source **/ CREATE TABLE car_infos (cast_int_to_string int, cast_String_to_int
指定分区。分区列的值相同的行被视为在同一个窗口内。 orderby_clause 否 指定数据在一个窗口内如何排序。 返回值说明 返回DOUBLE类型的值。 示例代码 示例数据 为便于理解函数的使用方法,本文为您提供源数据,基于源数据提供函数相关示例。创建表salary,并添加数据,命令示例如下: CREATE
最新成功Checkpoint记录位点到异常时间段内的数据会重复消费)。 图1 Flink作业配置参数 对于Flink Jar作业,您需要在代码中开启Checkpoint,同时如果有自定义的状态需要保存,您还需要实现ListCheckpointed接口,并为每个算子设置唯一ID。然
} } } } 到这里为止这个请求需要的内容就具备齐全了,您可以使用curl、Postman或直接编写代码等方式发送请求调用API。对于IAM获取用户Token接口,返回的响应消息头中“x-subject-token”就是需要获取的用户Toke
据挖掘等场景。 管理Jar作业的程序包 DLI允许用户提交编译为Jar包的Flink或Spark作业,Jar包中包含了Jar作业执行所需的代码和依赖信息,用于在数据查询、数据分析、机器学习等特定的数据处理任务中使用。通过DLI管理控制台可以管理作业所需的呈现包。 在提交Spark
orderby_clause 否 指定数据在一个窗口内如何排序。 返回值说明 返回INT类型的值。 a为NULL,则返回NULL。 示例代码 为便于理解函数的使用方法,本文为您提供源数据,基于源数据提供函数相关示例。创建表logs,并添加数据,命令示例如下: CREATE TABLE
timestamp值为NULL时,返回NULL。 timestamp和pattern都为空时,返回从“1970-01-01 00:00:00”到现在的秒数代表的时间戳。 示例代码 返回1692149997。 select unix_timestamp('2023-08-16 09:39:57') 假设当前系统时间为2023-08-16
请求参数说明 参数名称 是否必选 参数类型 说明 sql_body 是 String SQL。 cu_number 否 Integer 是在作业编辑页面配置的作业占用资源总CU数,需配置与实际占用资源一致,作业实际占用资源根据算子并行数按需申请。 cu_number = 管理单元 + (算子总并行数
urlString、partToExtract或keyToExtract值为NULL时,返回NULL。 partToExtract 取值不符合要求时,返回报错。 示例代码 返回example.com。 select parse_url('file://username@example.com:666/over/there/index
orderby_clause 否 指定数据在一个窗口内如何排序。 返回值说明 返回DOUBLE类型的值。 a为NULL,则返回NULL。 示例代码 为便于理解函数的使用方法,本文为您提供源数据,基于源数据提供函数相关示例。创建表logs,并添加数据,命令示例如下: CREATE TABLE
实际发送数据量请参考streaming-writer或StreamingFileWriter算子的记录数。 注意事项 请在Flink“作业编辑”页面选择“运行参数配置”,选择“开启Checkpoint”,否则会导致FileSystem结果表无法写入数据。 语法格式 1 2 3
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.15,并提交运行,其代码如下: CREATE TABLE kafkaSource ( id bigint, name string, description
否则表示未成功 创建flink opensource sql作业,并选择flink版本为1.15,选择保存日志,然后提交并运行,其SQL代码如下: CREATE TABLE kafkaSource ( order_id string, order_channel string
数据湖探索简介 什么是数据湖探索 数据湖探索(Data Lake Insight,简称DLI)是完全兼容Apache Spark、Apache Flink、HetuEngine生态,提供一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务。用户不需要管理任何服务器,即开即用。