-
DWS结果表(不推荐使用) - 数据湖探索 DLI
key'时,支持copy及insert两种模式追加写入。 配置'primary key',支持copy、upsert以及insert三种模式更新写入。 注意:由于dws不支持更新分布列,因而配置的更新主键必须包含dws表中定义的所有分布列。 sink.buffer-flush.max-rows 否 100 Integer
-
Elasticsearch - 数据湖探索 DLI
如果开启安全模式,未开启https,需要配置用户名username、密码password,且语法中hosts字段值以http开头。 如果开启安全模式,开启https,需要配置用户名username、密码password、证书位置certificate。请注意该场景hosts字段值以https开头。
-
Upsert Kafka - 数据湖探索 DLI
作为source,upsert-kafka 连接器生产changelog流,其中每条数据记录代表一个更新或删除事件。 数据记录中的value被解释为同一key的最后一个value的UPDATE,如果有这个key(如果不存在相应的key,则该更新被视为INSERT)。用表来类比,changelog 流中的数据记录
-
查询所有弹性资源池 - 数据湖探索 DLI
String 弹性资源池的子网信息。 create_time 否 Long 弹性资源池创建时间。 update_time 否 Long 弹性资源池更新时间。 current_cu 否 Integer 当前CU数量。 status 否 String 弹性资源池状态。具体参数范围如下: AVAILABLE:可使用
-
查询所有表(推荐) - 数据湖探索 DLI
只有OBS表有该参数。 data_location 是 String 数据存储位置,分为DLI和OBS。 last_access_time 是 Long 最近更新时间。是单位为“毫秒”的时间戳。 location 否 String OBS表的存储路径。 说明: 只有OBS表有该参数。 owner 是
-
Upsert Kafka结果表 - 数据湖探索 DLI
些参数的值。 ssl_auth_name 否 无 String DLI侧创建的Kafka_SSL类型的跨源认证名称。Kafka配置SSL时使用该配置。 注意:若仅使用SSL类型,则需要同时配置'properties.security.protocol '= 'SSL'; 若使用S
-
Upsert Kafka结果表 - 数据湖探索 DLI
些参数的值。 ssl_auth_name 否 无 String DLI侧创建的Kafka_SSL类型的跨源认证名称。Kafka配置SSL时使用该配置。 注意:若仅使用SSL类型,则需要同时配置'properties.security.protocol '= 'SSL'; 若使用S
-
创建增强型跨源连接访问RDS - 数据湖探索 DLI
est。 单击“全局配置”>“服务授权”,选中“VPC Administrator”,单击“更新委托权限”,赋予DLI操作用户VPC资源的权限,用于创建VPC的“对等连接”。 图5 更新委托权限 在DLI管理控制台左侧导航栏中,选择“跨源管理”。 选择“增强型跨源”页签,单击左上角的“创建”按钮。配置参数:
-
(推荐)创建Flink OpenSource SQL作业 - 数据湖探索 DLI
“从Checkpoint恢复”:需要同时勾选“开启Checkpoint”才可配置该参数。 空闲状态保留时长 用于清除GroupBy或Window经过最大保留时间后仍未更新的中间状态,默认设置为1小时。 脏数据策略 选择处理脏数据的策略。支持如下三种策略:“忽略”,“抛出异常”和“保存”。 “脏数据策略”选择
-
状态码 - 数据湖探索 DLI
客户端可以随时再次提交该请求而无需进行任何更改。 409 Conflict 服务器在完成请求时发生冲突。 返回该状态码,表明客户端尝试创建的资源已经存在,或者由于冲突请求的更新操作不能被完成。 410 Gone 客户端请求的资源已经不存在。 返回该状态码,表明请求的资源已被永久删除。 411 Length Required
-
创建跨源成功但测试网络连通性失败怎么办? - 数据湖探索 DLI
源连接失败。 解决措施:请在服务授权添加DLI Datasource Connections Agency Access授权。 了解DLI更新委托权限。 图4 查看连接日志-2 图5 查看连接日志-3 图6 DLI服务授权 检查对端安全组是否放通队列的网段 创建完跨源连接后,连接
-
CSS安全集群配置 - 数据湖探索 DLI
4或以上集群版本,创建CSS安全集群,并下载安全集群证书(CloudSearchService.cer)。 登录云搜索服务控制台,单击“集群管理”,选择需要建立跨源连接的集群,如图1所示: 图1 CSS集群管理 单击“安全模式”中的“下载证书”下载安全证书。 使用keytool工具生成keystore和truststore文件。
-
使用Flink Jar读写DIS开发指南 - 数据湖探索 DLI
disConfig.put(DisConsumerConfig.GROUP_ID_CONFIG, groupId); // 是否主动更新分片信息及更新时间间隔(毫秒),若有主动扩缩容需求,可以开启 disConfig.put(FlinkDisConsumer.KEY
-
Flink Jar作业开发基础样例 - 数据湖探索 DLI
OBS桶中。并在DLI“数据管理”>“程序包管理”页面创建程序包,具体请参考创建程序包。 DLI不支持下载功能,如果需要更新已上传的数据文件,可以将本地文件更新后重新上传。 由于DLI服务端已经内置了Flink的依赖包,并且基于开源社区版本做了安全加固。 为了避免依赖包兼容性问题
-
Hive源表 - 数据湖探索 DLI
'streaming-source.partition.include' 设置为 'latest'。同时,用户可以通过配置以下分区相关选项来分配分区比较顺序和数据更新间隔。 streaming-source.monitor-interval 否 None Duration 连续监视分区/文件的时间间隔。注意:Hive
-
自定义函数 - 数据湖探索 DLI
{ return acc.sum / acc.count; } } // 根据输入更新中间计算值 public void accumulate(WeightedAvgAccum acc, long iValue) {
-
自定义函数 - 数据湖探索 DLI
return null; } else { return acc.sum / acc.count; } } // 根据输入更新中间计算值 public void accumulate(WeightedAvgAccum acc, long iValue) { acc
-
Flink Opensource SQL使用DEW管理访问凭据 - 数据湖探索 DLI
Management Service,CSMS),提供一种安全、可靠、简单易用隐私数据加解密方案。 用户或应用程序通过凭据管理服务,创建、检索、更新、删除凭据,轻松实现对敏感凭据的全生命周期的统一管理,有效避免程序硬编码或明文配置等问题导致的敏感信息泄露以及权限失控带来的业务风险。 本节操作介绍Flink
-
自定义函数 - 数据湖探索 DLI
return null; } else { return acc.sum / acc.count; } } // 根据输入更新中间计算值 public void accumulate(WeightedAvgAccum acc, long iValue) { acc
-
SELECT - 数据湖探索 DLI
BY子句中不止一列,查询语句将按照GROUP BY的所有字段分组,所有字段都相同的记录将被放在同一组中。 注意事项 GroupBy在流处理表中会产生更新结果 示例 根据score及name两个字段对表student进行分组,并返回分组结果。 1 2 insert into temp SELECT