检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
于显示执行失败的原因。 sql_id String 新增SQL模板的ID。 group String SQL模板分组名称。 请求示例 创建一个SQL模板。 { "sql": "select * from t1", "sql_name": "sql1", "description":
start_position 否 BIGINT BIGINT类型常量,必须大于0。其他类型或值小于等于0时返回报错。不指定时默认为1,表示从source的第一个字符开始匹配。 返回值说明 返回BIGINT类型的值。 如果没有匹配成功,返回0。 source、pattern值为NULL时,返回NULL。
内连接 功能描述 仅将两个表中满足连接条件的行组合起来作为结果集。 语法格式 1 2 SELECT attr_expr_list FROM table_reference {JOIN | INNER JOIN} table_reference ON join_condition;
属性指定 1 set table.sql-dialect=hive; 注意事项 Hive方言只能用于操作Hive对象,并要求当前Catalog是一个HiveCatalog 。 Hive方言只支持db.table这种两级的标识符,不支持带有Catalog名字的标识符。更多信息请参考Apache
29577951308232 round(x) → [same as input] 返回x舍入到最近的整数 select round(8.57);-- 9 round(x, d) → [same as input] x四舍五入到保留d位小数 select round(8.57,1);-- 8.60 s
STRING类型常量或正则表达式。待匹配的模型。 start_position 否 BIGINT 起始位置,必须大于0。不指定时默认为1,表示从source的第一个字符开始匹配。 occurrence 否 BIGINT BIGINT常量,必须大于0。不指定时默认为1,表示返回第一次匹配的子串。 返回值说明
真正处理在process函数中,在process中,每一次forward()调用产生一行。 如果产生多列可以将多个列的值放在一个数组中,然后将该数组传入到forward()函数。 public void process(Object[] args) throws HiveException
read.partition.num必须同时存在或者同时不存在 connector.read.partition.lower-bound 否 第一个分区的最小值 与connector.read.partition.column、connector.read.partition.upper-bound、
read.partition.num必须同时存在或者同时不存在 connector.read.partition.lower-bound 否 第一个分区的最小值 与connector.read.partition.column、connector.read.partition.upper-bound、
LOG2(numeric) 返回以 2 为底的 numeric 的对数。 LOG(numeric2) LOG(numeric1, numeric2) 当用一个参数调用时,返回 numeric2 的自然对数。当使用两个参数调用时,此函数返回 numeric2 以 numeric1 为底的对数。numeric2
考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 构造依赖信息,创建SparkSession 导入依赖。 涉及到mvn依赖 1 2 3 4 5 6 7 8
x版本中使用Mesos作为资源管理器,升级到Spark 3.3.x后,你需要考虑切换到其他资源管理器。 Spark3.3.x会在应用程序自行终止时删除K8s driver 说明:Spark3.3.x会在应用程序自行终止时删除K8s driver。 升级引擎版本后是否对作业有影响: 功能增强,升级到Spark 3
PowerBI、Fine BI、SuperSet、Tableau和Beeline,它们可以通过Kyuubi建立与DLI的连接。Kyuubi是一个分布式SQL查询引擎,提供了标准的SQL接口,使得BI工具能够通过Kyuubi与DLI进行交互,执行数据查询和分析。 BI工具连接DLI的方案中使用了DLI
上传分组资源(废弃) 功能介绍 该API用于上传分组资源到某个project下。该API对应控制台的创建程序包功能。 当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: POST /v2.0/{project_id}/resources
“1.15”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。 认证用的username和password等硬编码到代码中或者明文存储都有很大的安全风险,建议使用DEW管理凭证。配置文件或者环境变量中密文存放,使用时解密,确保安全。Flink Opensource
substring_index substring_index函数用于截取字符串str第count个分隔符之前的字符串。如果count为正,则从左边开始截取。如果count为负,则从右边开始截取。 命令格式 substring_index(string <str>, string
数据管理能力的一站式治理运营平台,支持行业知识库智能化建设,支持大数据存储、大数据计算分析引擎等数据底座,帮助企业快速构建从数据接入到数据分析的端到端智能数据系统,消除数据孤岛,统一数据标准,加快数据变现,实现数字化转型。 在DataArts Studio管理中心控制台创建数据连
在DLI管理控制台上已完成创建跨源连接。具体操作请参考《数据湖探索用户指南》。 CSS非安全集群 开发说明 代码实现 构造依赖信息,创建SparkSession 导入依赖 涉及到的mvn依赖库 <dependency> <groupId>org.apache.spark</groupId>
Time(UTC+8),但在 Java 里被理解为Central Standard Time (USA)(UTC-5)。 Flink taskmanager本质是一个 java 进程,在Mysql 的jdbc驱动的代码里会设置时区,这个时区是通过TimeZone.getTimeZone(canonicalTimezone)
执行请求是否成功。“true”表示请求执行成功。 message 否 String 系统提示信息,执行成功时,信息可能为空。 请求示例 创建一个data_location为OBS表,数据格式为CSV。 { "table_name": "tb1", "data_location":