-
跨源分析问题 - 数据湖探索 DLI
跨源分析问题 如何实现跨数据源查询 如何实现跨区域访问数据 创建DLI关联RDS表时,如果RDS表有自增主键或者其他自动填充的字段时,在DLI中插入数据时,对应字段如何填写? 父主题: 跨源连接相关问题
-
Spark作业相关API - 数据湖探索 DLI
Spark作业相关API 创建批处理作业 查询批处理作业列表 查询批处理作业详情 查询批处理作业状态 取消批处理作业
-
创建数据库(废弃) - 数据湖探索 DLI
开通了企业管理服务的用户可设置该参数绑定指定的项目。 tags 否 Array of Objects 数据库的标签。具体请参考表3。 表3 tags参数 参数名称 是否必选 参数类型 说明 key 是 String 标签的键。 说明: 标签的键的最大长度为128个字符,标签的键可以包含任意语种字母、数字、空格和_
-
队列相关API(推荐) - 数据湖探索 DLI
队列相关API(推荐) 创建队列 删除队列 查询所有队列 查询队列详情 重启/扩容/缩容队列 创建指定地址连通性测试请求 查询指定地址连通性测试详情
-
Hbase - 数据湖探索 DLI
HBase连接器支持读取和写入HBase集群。本文档介绍如何使用HBase连接器基于HBase进行SQL查询。 HBase连接器在upsert模式下运行,可以使用 DDL 中定义的主键与外部系统交换更新操作消息。但是主键只能基于HBase的rowkey字段定义。如果没有声明主键,HBase连接器默认取rowkey作为主键。详情可参考HBase
-
attrs - 数据湖探索 DLI
attrs_value_set_expr 格式 说明 语法 描述 attrs_value_set_expr 属性值集合。 sub_query 子查询语句。 ( 指定子查询表达式开始。 ) 指定子查询表达式结束。 父主题: 标示符
-
标示符 - 数据湖探索 DLI
non_equi_join_condition number partition_col_name partition_col_value partition_specs property_name property_value regex_expression result_expression select_statement
-
attrs - 数据湖探索 DLI
attrs_value_set_expr 格式 说明 语法 描述 attrs_value_set_expr 属性值集合。 sub_query 子查询语句。 ( 指定子查询表达式开始。 ) 指定子查询表达式结束。 父主题: 标示符
-
增强型跨源连接相关API - 数据湖探索 DLI
增强型跨源连接相关API 创建增强型跨源连接 删除增强型跨源连接 查询增强型跨源连接列表 查询增强型跨源连接 绑定队列 解绑队列 修改主机信息 查询增强型跨源授权信息 创建路由 删除路由
-
上传jar类型分组资源(废弃) - 数据湖探索 DLI
of strings 该模块包含的资源包名列表。 details 否 Array of body 分组资源包的详细信息。具体请参考表4。 create_time 否 Long 模块上传的unix时间戳。 update_time 否 Long 模块更新的unix时间戳。 is_async
-
SQL作业相关API(废弃) - 数据湖探索 DLI
SQL作业相关API(废弃) 提交SQL作业(废弃) 取消作业(废弃) 查询作业结果-方式一(废弃) 查询作业结果-方式二(废弃) 父主题: 历史API
-
标示符 - 数据湖探索 DLI
output_format_classname partition_col_name partition_col_value partition_specs property_name property_value regex_expression result_expression row_format
-
Flink SQL作业相关问题 - 数据湖探索 DLI
Flink SQL作业相关问题 Flink SQL作业的消费能力如何,即一天可以处理多大的数据量? Flink SQL中的temp流中数据是否需要定期清理,如何清理? Flink SQL作业将OBS表映射为DLI的分区表 Flink SQL作业Kafka分区数增加或减少,不用停止Flink作业,实现动态感知
-
经典型跨源连接相关API(废弃) - 数据湖探索 DLI
经典型跨源连接相关API(废弃) 创建经典型跨源连接 删除经典型跨源连接 查询经典型跨源连接列表 查询经典型跨源连接 父主题: 历史API
-
分组资源相关API(废弃) - 数据湖探索 DLI
分组资源相关API(废弃) 上传分组资源(废弃) 查询分组资源列表(废弃) 上传jar类型分组资源(废弃) 上传pyfile类型分组资源(废弃) 上传file类型分组资源(废弃) 查询组内资源包(废弃) 删除组内资源包(废弃) 修改组或资源包拥有者(废弃) 父主题: 历史API
-
上传file类型分组资源(废弃) - 数据湖探索 DLI
of strings 该模块包含的资源包名列表。 details 否 Array of body 分组资源包的详细信息。具体请参考表4。 create_time 否 Long 模块上传的unix时间戳。 update_time 否 Long 模块更新的unix时间戳。 is_async
-
通过DLI跨源写DWS表,非空字段出现空值异常 - 数据湖探索 DLI
创建目标表 查询源表数据,发现导致问题产生的记录ctr值为1675,整数位(4位)超出所定义的decimal精度(9 – 6 = 3位),导致double转decimal时overflow产生null值,而对应dws表字段为非空导致插入失败。 处理步骤 修改目的表所定义的decimal精度即可解决。
-
数据湖探索 DLI - 数据湖探索 DLI
None 服务介绍 数据湖探索 DLI 介绍什么是数据湖探索 02:47 数据湖探索DLI产品介绍 功能介绍 数据湖探索 DLI 熟悉数据湖探索控制台 03:10 数据湖探索控制台介绍 操作指导 数据湖探索 DLI 介绍怎样创建提交SQL作业 07:36 数据湖探索SQL作业入门指导
-
Parquet Format - 数据湖探索 DLI
使用kafka发送数据,输出到print中。 根据kafka所在的虚拟私有云和子网创建相应的跨源,并绑定所要使用的队列。然后设置安全组,入向规则,使其对当前将要使用的队列放开,并根据kafka的地址测试队列连通性(通用队列> 找到作业的所属队列> 更多> 测试地址连通性 > 输入kafka的地址 > 测试)。如果能连
-
表相关API(废弃) - 数据湖探索 DLI
表相关API(废弃) 查询所有表(废弃) 父主题: 历史API