检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
删除作业 功能介绍 该API可用于删除任何状态的Flink作业。 删除作业接口只删除作业,不删除作业记录。 调试 您可以在API Explorer中调试该接口。 URI URI格式 DELETE /v1.0/{project_id}/streaming/jobs/{job_id}
Flink作业模板相关API 新建模板 更新模板 删除模板 查询模板列表
模板相关API(废弃) 查询所有SQL样例模板(废弃) 父主题: 历史API
跨源认证相关API 创建跨源认证 获取跨源认证列表 更新跨源认证 删除跨源认证
alias 格式 无。 说明 别名,可给字段、表、视图、子查询起别名,仅支持字符串类型。 父主题: 标示符
condition 格式 说明 语法 描述 condition 逻辑判断条件。 > 关系运算符:大于。 >= 关系运算符:大于等于。 < 关系运算符:小于。 <= 关系运算符:小于等于。 = 关系运算符:等于。 <> 关系运算符:不等于。 is 关系运算符:是。 is not 关系运算符:不是。
separator 格式 无。 说明 分隔符,仅支持CHAR类型,支持用户自定义,如逗号、分号、冒号等。 父主题: 标示符
别名SELECT 表别名 列别名 父主题: SELECT
cte_name 格式 无。 说明 公共表达式的名字。 父主题: 标示符
function_name 格式 无。 说明 函数名称,仅支持字符串类型。 父主题: 标示符
OpenSource SQL作业开发指南 从Kafka读取数据写入到RDS 从Kafka读取数据写入到DWS 从Kafka读取数据写入到Elasticsearch 从MySQL CDC源表读取数据写入到DWS 从PostgreSQL CDC源表读取数据写入到DWS Flink作业高可靠推荐配置指导(异常自动重启)
connector 是 无 String 指定需要使用的连接器,此处应为'blackhole'。 示例 通过DataGen源表产生数据,BlackHole结果表接收传来的数据。 create table datagenSource ( user_id string, user_name string
项目编号,用于资源隔离。获取方式请参考获取项目ID。 请求消息 表2 请求参数说明 参数名称 是否必选 参数类型 说明 data 是 Object 系统事件数据。具体参数内容详见表3说明。 表3 data参数说明 参数名称 是否必选 参数类型 说明 event_type 是 String 事件类型。
ConnectionState - Authentication failed 问题原因 因为账号没有在全局配置中配置服务授权,导致该账号在创建跨源连接访问外部数据时因为权限不足而导致跨源访问失败。 解决方案 登录DLI管理控制台,选择“全局配置 > 服务授权”。 在委托设置页面,按需选择所需的委托权限。
compress=SNAPPY 来允许spappy压缩。 数据类型映射 Orc 格式类型的映射和 Apache Hive 是兼容的。下面的表格列出了 Flink 类型的数据和 Orc 类型的数据的映射关系。 表2 数据类型映射 Flink数据类型 Orc物理类型 Orc逻辑类型 CHAR bytes
否 kafka数据读取起始时间。 当该参数配置时则从配置的时间开始读取数据,有效格式为yyyy-MM-dd HH:mm:ss。start_time要不大于当前时间,若大于当前时间,则不会有数据读取出。 该参数配置后,只会读取Kafka topic在该时间点后产生的数据。 kafka_properties
_admin。 具体含义如下: obs_adm:DLI获得访问和使用OBS的委托权限。 dis_adm:访问和使用DIS数据源,需要获得访问和使用DIS(数据接入服务)DIS Administrator权限。 ctable_adm:访问和使用CloudTable(表格存储服务)的CloudTable
跨源连接DCS表 创建DLI表关联DCS 插入数据至DCS表 查询DCS表 父主题: Spark SQL语法参考(即将下线)
跨源连接DWS表 创建DLI表关联DWS 插入数据至DWS表 查询DWS表 父主题: 跨源连接相关
跨源连接OpenTSDB表 创建DLI表关联OpenTSDB 插入数据至OpenTSDB表 查询OpenTSDB表 父主题: 跨源连接相关