检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参数d非INT类型时,会隐式转换为INT类型后参与运算。 返回值说明 返回DOUBLE类型的值。 d为负数时,返回报错。 a或d值为NULL时,返回NULL。 示例代码 返回123.0。 select round(123.321); 返回123.4。 select round(123.396, 1); 返回NULL。
参数说明 参数 是否必选 说明 col 是 数据类型为数值的列。 参数为其他类型的列返回NULL。 返回值说明 返回DOUBLE类型的值。 示例代码 计算所有商品库存(items)的方差。命令示例如下: select variance(items) from warehouse; --等效于如下语句。
返回值说明 返回STRING类型的日期值,格式为yyyy-mm-dd hh:mi:ss。 unixtime值为NULL时,返回NULL。 示例代码 返回2023-08-16 09:39:57。 select from_unixtime(1692149997); 返回NULL。 select
hh代表小时。 mi代表分钟。 ss代表秒。 返回值说明 返回BOOLEAN类型的值。 date或format值为NULL时,返回NULL。 示例代码 返回true。 select isdate('2023-08-10','yyyy-mm-dd'); 返回false。 select isdate(123456789
、TINYINT、FLOAT、DECIMAL类型 数据类型为数值的列。其他类型返回NULL。 返回值说明 返回DOUBLE类型的值。 示例代码 计算所有商品库存(items)和价格(price)的相关系数。命令示例如下: select corr(items,price) from
测试)。如果能连通,则表示跨源已经绑定成功;否则表示未成功。 创建flink opensource sql作业,选择flink1.15,并提交运行,其代码如下: CREATE TABLE kafkaSource ( id bigint, name string, description
UdfScalarFunction'; UDF UDF函数需继承ScalarFunction函数,并实现eval方法。open函数及close函数可选。 编写代码示例 import org.apache.flink.table.functions.FunctionContext; import org
UdfScalarFunction'; UDF UDF函数需继承ScalarFunction函数,并实现eval方法。open函数及close函数可选。 编写代码示例 import org.apache.flink.table.functions.FunctionContext; import org
mismatch。 date为DATE或STRING类型,但不符合日期值的入参格式时,返回NULL。 date值为NULL时,返回NULL。 示例代码 返回2023-08-31。 select lastday('2023-08-10'); 返回2023-08-31 00:00:00。
中访问所有Flink和Spark支持的数据源与输出源,如Kafka、Hbase、ElasticSearch等。 自拓展生态 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 DLI Flink Connector支持列表请参考Connector概述。
mismatch。 date为DATE或STRING类型,但不符合日期值的入参格式时,返回NULL。 date值为NULL时,返回NULL。 示例代码 返回2023-08-31。 select last_day('2023-08-15'); 返回2023-08-31。 select
colname可以为*,即count(*),返回所有行数。 返回值说明 返回BIGINT类型。 colname值为NULL时,该行不参与计算。 示例代码 计算所有仓库表中的记录数。命令示例如下: select count(*) from warehouse; 返回结果如下: _c0
日期值的入参格式时,返回NULL。 timestamp值为NULL时,返回NULL。 timezone值为NULL时,返回NULL。 示例代码 返回1692028800000。 select to_utc_timestamp('2023-08-14 17:00:00','PST');
get(“filename”)的方式获取。 SparkFiles.get()方法需要spark初始化以后才能调用。 图1 添加其他依赖文件 代码段如下所示 package main.java import org.apache.spark.SparkFiles import org
zip”压缩包,解压后目录结构如下: 表1 目录结构 名称 说明 dli python环境的DLI SDK基础模块。 examples python样例代码。 pyDLI pyHive的实现接口。 setup.py Python SDK安装脚本。 安装DLI Python SDK 下载并解压SDK安装包。
p的范围为0-1。参数p的格式包括浮点数格式。 返回值说明 返回DOUBLE或ARRAY类型。 列名不存在时,返回报错。 p为NULL或在[0,1]之外时,返回报错。 示例代码 假设列int_test中的元素为1、2、3、4,类型为INT类型。 返回3.0999999999999996。 select percentile(int_test
返回BIGINT类型的值。 当str2中无法匹配到str1或str1中包含逗号(,)时,返回0。 当str1或str2值为NULL时,返回NULL。 示例代码 查找字符串ab在字符串abc,123,ab,c中的位置。命令示例如下。 返回3。 select find_in_set('ab', 'abc
返回STRING类型的值。 返回最大的一级分区的值。 如果只是用alter table的方式新加了一个分区,但是此分区中并无任何数据,则此分区不会做为返回值。 示例代码 例如 table1 是分区表,该表对应的分区为20120801和20120802,且都有数据。则以下语句中max_pt返回值为‘20120802’。DLI
合日期值的入参格式时,返回NULL; datepart值为NULL时,返回NULL。 datepart值为NULL时,返回NULL。 示例代码 返回2023。 select datepart(date '2023-08-14 17:00:00', 'yyyy'); 返回2023。
str中无法匹配到substr时,返回0。 str或substr值为NULL时,返回NULL。 start_pos值为NULL时,返回0。 示例代码 查找字符串ab在字符串abhiab中的位置。命令示例如下。 返回1。 select locate('ab', 'abhiab'); 返回5。