检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
默认值application/json。 Content-Type 是 指定类型为application/json。 charset 是 指定编码格式为utf8。 请求参数如表3所示。 表3 请求参数说明 参数 是否必选 参数类型 说明 cluster_name 是 String 新建的集群名
参数 是否必选 参数类型 说明 v1 是 DOUBLE、BIGINT、DECIMAL类型。 参数v1的格式包括浮点数格式、整数格式。 v2 是 DOUBLE、BIGINT、DECIMAL类型。 参数v2的格式包括浮点数格式、整数格式。 返回值说明 返回DOUBLE类型的值。 v1、v2
是否必选 参数类型 说明 date 是 DATE或STRING 需要处理的日期。 格式: yyyy-mm-dd yyyy-mm-dd hh:mi:ss yyyy-mm-dd hh:mi:ss.ff3 返回值说明 返回INT类型的值。 date非DATE或STRING类型时,返回报错,错误信息:data
connector类型,对于upsert kafka,需配置为'upsert-kafka' connector.version 否 Kafka版本,仅支持:'0.11' format.type 是 数据序列化格式,支持:'csv', 'json'及'avro'等 connector.topic
hh:mi:ss.ff3 返回值说明 返回DOUBLE类型的值。 date1、date2非DATE或STRING类型时,返回报错,错误信息:data type mismatch。 date1、date2为DATE或STRING类型,但不符合日期值的入参格式时,返回NULL。 当da
startdate 指定时间,数据类型为TIMESTAMP或者STRING。 STRING类型日期格式为yyyy-MM-dd HH:mm:ss。 支持参数为NULL的特殊情况处理 days 目标天数,数据类型为INT。 返回值 指定日期增加目标天数后的日期,数据类型为STRING。 示例 提交FlinkSQL语句
ule模块并执行Spark作业。 如果选择spark版本为2.3.2(即将下线)或2.4.5提交作业时,需要指定Module模块,名称为:sys.datasource.hbase。 如果选择Spark版本为3.1.1及以上版本时,无需选择Module模块, 需在 'Spark参数(--conf)'
类型至固定长度字节的数组。 下表列举了 Flink 中的数据类型与 JSON 中的数据类型的映射关系。 注意:复合数据类型暂只支持写不支持读(Array、Map 与 Row)。 表2 数据类型映射 Flink数据类型 Parquet类型 Parquet逻辑类型 CHAR / VARCHAR / STRING
管理员权限的角色并绑定给用户。 注意事项 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.15”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。 认证用的username和passwor
CDM集群与云上服务同区域情况下,同虚拟私有云、同子网、同安全组的不同实例默认网络互通;如果同虚拟私有云但是子网或安全组不同,还需配置路由规则及安全组规则。 配置路由规则请参见如何配置路由规则章节,配置安全组规则请参见如何配置安全组规则章节。 iii. 此外,您还必须确保该云服务的实例与CDM集群所属的企业项目必须相
具体方式请参考客户端SSL加密功能使用说明。 若运行作业提示“Message stream modified (41)”,可能与JDK的版本有关系,可以尝试修改运行样例代码的JDK为8u_242以下版本或删除“krb5.conf”配置文件的“renew_lifetime = 0m”配置项。 端口请使用KafKa服务配置中设置的sasl_ssl
DATE_FORMAT (order_time, 'yyyyMMdd') from orderSource; 配置作业运行参数: 选择队列,并配置Flink版本至少为1.15。 配置权限足够的委托。 配置OBS桶。 开启Checkpoint,使用Hudi时必须开启Checkpoint。 提交作业并检查Flink
是否必选 参数类型 说明 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 表2 query参数 参数名称 是否必选 参数类型 说明 queue_type 否 String 队列的类型,有如下三种类型: sql:查询SQL队列类型的队列。
是否必选 参数类型 说明 separator 是 STRING STRING类型的分隔符。 str1、str2 是 STRING 至少要指定2个字符串。 STRING类型。如果输入为BIGINT、DECIMAL、DOUBLE或DATETIME类型,则会隐式转换为STRING类型后参与运算。
作业开始的时间。是单位为“毫秒”的时间戳。 duration Long 作业运行时长,单位毫秒。 status String 此作业的当前状态,包含运行中(RUNNING)、规格变更中(SCALING)、提交中(LAUNCHING)、已完成(FINISHED)、已失败(FAILED)、已取消(CANCELLED)。
批量删除资源标签 功能介绍 为指定实例批量删除标签。 此接口为幂等接口: 删除时,如果删除的标签不存在,默认处理成功。 单次最多支持删除20个标签 删除时不对标签字符集范围做校验。 删除时tags结构体不能缺失,key不能为空,或者空字符串。 调试 您可以在API Explore
JDBC源表 功能描述 JDBC连接器是Flink内置的Connector,用于从数据库读取相应的数据。 前提条件 要与实例建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,请参考《数据湖探索用户指南》中增强型跨源连接章节。 如何设置安全组规
企业级多租户 基于表的权限管理,可以精细化到列权限。 基于文件的权限管理。 高性能 性能 基于软硬件一体化的深度垂直优化。 大数据开源版本性能。 跨源分析 支持多种数据格式,云上多种数据源、ECS自建数据库以及线下数据库,数据无需搬迁,即可实现对云上多个数据源进行分析,构建企
separator 格式 无。 说明 分隔符,仅支持CHAR类型,支持用户自定义,如逗号、分号、冒号等。 父主题: 标示符
返回表达式不为NULL的输入行数。对每个值的一个唯一实例使用DISTINCT。 COUNT(*) COUNT(1) BIGINT 返回元组个数 AVG([ ALL | DISTINCT ] expression) DOUBLE 返回所有值的平均值。 对每个值的一个唯一实例使用DISTINCT。 SUM([