-
窗口 - 数据湖探索 DLI
HOP(time_attr, interval, interval) 定义一个跳跃的时间窗口(在 Table API 中称为滑动窗口)。滑动窗口有一个固定的持续时间( 第二个 interval 参数 )以及一个滑动的间隔(第一个 interval 参数 )。若滑动间隔小于窗口的持续时间,滑动
-
如何给子用户授权查看Flink作业? - 数据湖探索 DLI
执行对应操作。 图2 授权 IAM授权管理 登录统一身份认证IAM控制台,在“权限”页面,单击“创建自定义权限”。 为查看DLI Flink作业创建权限策略: 策略名称:可以使用默认名称,也可以自定义。 作用范围:选择“项目级服务”。 策略配置方式:选择“可视化视图”。 策略内容
-
get - 数据湖探索 DLI
提取owner字段信息,返回Tony。 select get_json_object(jsonString, '$.owner'); 提取store.fruit字段第一个数组信息,返回{"weight":8,"type":"apple"}。 select get_json_object(jsonString
-
怎样升级DLI作业的引擎版本 - 数据湖探索 DLI
怎样升级DLI作业的引擎版本 DLI提供了Spark和Flink计算引擎,为用户提供了一站式的流处理、批处理、交互式分析的Serverless融合处理分析服务,当前,Flink计算引擎推荐版本:Flink 1.15,Spark计算引擎推荐版本: Spark 3.3.1。 本节操作介绍如何升级作业的引擎版本。
-
get - 数据湖探索 DLI
提取owner字段信息,返回Tony。 select get_json_object(jsonString, '$.owner'); 提取store.fruit字段第一个数组信息,返回{"weight":8,"type":"apple"}。 select get_json_object(jsonString
-
JDBC源表 - 数据湖探索 DLI
username 否 数据库认证用户名,需要和'connector.password'一起配置 connector.password 否 数据库认证密码,需要和'connector.username'一起配置 connector.read.partition.column 否 用于对输入进行分区的列名
-
Flink Opensource SQL使用DEW管理访问凭据 - 数据湖探索 DLI
隐私安全。 数据加密服务(Data Encryption Workshop,DEW)、云凭据管理服务(Cloud Secret Management Service,CSMS),提供一种安全、可靠、简单易用隐私数据加解密方案。 用户或应用程序通过凭据管理服务,创建、检索、更新、删
-
pyspark样例代码 - 数据湖探索 DLI
提交Spark作业 将写好的python代码文件上传至DLI中。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《
-
Flink作业详情 - 数据湖探索 DLI
“脏数据策略”选择“保存”时,保存脏数据的OBS路径。 创建时间 作业创建的具体时间。 更新时间 作业最近一次更新的时间。 查看作业监控 用户可以通过云监控服务(CES)查看作业数据输入输出的详细信息。 在DLI管理控制台的左侧导航栏中,单击“作业管理”>“Flink作业”,进入Flink作业管理页面。
-
入门指引 - 数据湖探索 DLI
介绍,让您初步了解数据湖探索DLI。 快速入门 DLI服务的快速使用指导,通过一些示例指导您快速完成如何准备账号、准备环境、创建数据库及表、导入数据、运行SQL等操作。 SQL编辑器 您需要在提交作业分析数据前掌握SQL编辑器的使用。 如果您是数据分析师 如果您是数据分析师,建议
-
JDBC源表 - 数据湖探索 DLI
username 否 数据库认证用户名,需要和'connector.password'一起配置 connector.password 否 数据库认证密码,需要和'connector.username'一起配置 connector.read.partition.column 否 用于对输入进行分区的列名
-
更新SQL作业 - 数据湖探索 DLI
参数类型 说明 name 否 String 作业名称。长度限制:0-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:0-128个字符。 sql_body 否 String Stream SQL语句,至少包含source
-
Print结果表 - 数据湖探索 DLI
数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。
-
Print结果表 - 数据湖探索 DLI
数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error 否 false Boolean 该值只能为true或false,默认为false。
-
DataGen源表 - 数据湖探索 DLI
select * from dataGenSOurce; 该作业提交后,作业状态变成“运行中”,后续您可通过如下操作查看输出结果。 方法一: 登录DLI管理控制台,选择“作业管理 > Flink作业”。 在对应Flink作业所在行的“操作”列,选择“更多 > FlinkUI”。 在FlinkUI界面,选择“Task
-
创建Kafka - 数据湖探索 DLI
下载认证凭据”,保存后解压得到Truststore文件。 上传认证凭证到OBS桶。 关于如何创建OBS桶并上传数据,请参考《对象存储服务快速入门》。 创建跨源认证。 登录DLI管理控制台。 选择“跨源管理 > 跨源认证”。 单击“创建”。 填写Kafka认证信息,详细参数说明请参考表2。 表2 参数说明
-
DataGen源表 - 数据湖探索 DLI
select * from dataGenSOurce; 该作业提交后,作业状态变成“运行中”,后续您可通过如下操作查看输出结果。 方法一: 登录DLI管理控制台,选择“作业管理 > Flink作业”。 在对应Flink作业所在行的“操作”列,选择“更多 > FlinkUI”。 在FlinkUI界面,选择“Task
-
弹性资源池计费 - 数据湖探索 DLI
15:50:04购买了包年/包月弹性资源池(CU范围:100CUs),购买时长为一个月,并在到期前手动续费1个月,则: 第一个计费周期为:2023/03/08 15:50:04 ~ 2023/04/08 23:59:59 第二个计费周期为:2023/04/08 23:59:59 ~ 2023/05/08
-
扫描量计费 - 数据湖探索 DLI
扫描量计费=单价*扫描量数据(GB)。 如果扫描字节数量少于10M, 则按10M计算。 按扫描量计费,您可以在控制台查看扫描量。 以SQL作业为例: 单击“作业管理 > SQL作业”。 在作业管理控制台页面筛选使用default队列的作业。 单击展开作业详情,查看作业扫描量。 图1 配置费用示例 计费示例
-
java样例代码 - 数据湖探索 DLI
提交Spark作业 将写好的java代码文件上传至DLI中。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《数据湖探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据湖探索用户指南》。API操作请参考《