检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
file_path 格式 无。 说明 文件路径,该路径是OBS路径。 父主题: 标示符
OpenSource SQL作业编辑界面,配置如下参数,其他参数默认即可。 所属队列:选择步骤1:创建队列中创建的队列。 Flink版本:选择1.12。 保存作业日志:勾选。 OBS桶:选择保存作业日志的OBS桶,根据提示进行OBS桶权限授权。 开启Checkpoint:勾选。 F
ordinal函数用于将输入变量按从小到大排序后,返回nth指定位置的值。。 命令格式 ordinal(bigint <nth>, <var1>, <var2>[,...]) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 nth 是 BIGINT类型。 指定要返回的位置值。 var
[GROUP BY field] [ORDER BY field] ...; 关键字 SELECT对应关键字说明请参考基本语句。 参数说明 表1 参数描述 参数 描述 DLI_TABLE 已创建跨源连接的DLI表名称。 DLI_TEST 为包含待查询数据的表。 field1,field2
目ID。 请求参数 表2 请求Body参数 参数 是否必选 参数类型 描述 job_id 是 Long Flink作业的ID。 savepoint_path 是 String Savepoint路径。 配置示例:obs://bucket-name/dir 响应参数 状态码: 200
ROLL_BACK 命令功能 用于回滚指定的commit。 命令格式 call rollback_to_instant(table => '[table_name]', instant_time => '[instant]'); 参数描述 表1 参数描述 参数 描述 table_name
sql作业,输入以下作业运行脚本,提交运行作业。 注意:创建作业时,在作业编辑界面的“运行参数”处,“Flink版本”选择“1.12”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。如下脚本中的加粗参数请根据实际环境修改。 CREATE TABLE kafkaSource (
encode encode函数用于使用charset的编码方式对str进行编码。 命令格式 encode(string <str>, string <charset>) 参数说明 表1 参数说明 参数 是否必选 参数类型 说明 str 是 STRING 至少要指定2个字符串。 STRING
INTERVAL '10' SECOND, INTERVAL '10' SECOND, INTERVAL '10' SECOND) 参数说明 表3 参数说明 参数 说明 参数格式 time_attr 表示相应的事件时间或者处理时间属性列。 - window_interval 表示窗口的持续时长。
table' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据类型 说明 connector.type 是 无 String 固定为:clickhouse connector.url 是 无 String ClickHouse的url。 参数格式为:jdbc:cli
待迁移的DWS数据表名。当前为DWS集群上创建数据库和表中的“table1”表。 更多详细参数配置请参考配置关系数据库源端参数。 目的端作业参数配置,具体参考如下: 表3 目的端作业配置 参数名 参数值 目的连接名称 选择已创建的DLI数据源连接。 资源队列 选择已创建的DLI SQL类型的队列。
出现这个提示,表示进行join操作的两个表中包含相同的字段,但是在执行命令时,没有指定该字段的归属。 例如:在表tb1和tb2中都包含字段“id”。 错误的命令: select id from tb1 join tb2; 正确的命令: select tb1.id from tb1 join tb2;
UPDATE 命令功能 UPDATE命令根据列表达式和可选的过滤条件更新Hudi表。 命令格式 UPDATE tableIdentifier SET column = EXPRESSION(,column = EXPRESSION) [ WHERE boolExpression]
[GROUP BY field] [ORDER BY field] ...; 关键字 SELECT对应关键字说明请参考基本语句。 参数说明 表1 参数描述 参数 描述 DLI_TABLE 已创建跨源连接的DLI表名称。 DLI_TEST 为包含待查询数据的表。 field1,field2
等待时间 可选参数,超出等待时间还是无法读取到数据,则不再读取数据,单位秒。当前示例不配置该参数。 消费组ID 用户指定消费组ID。当前使用MRS Kafka默认的消息组ID:“example-group1”。 其他参数的详细配置说明可以参考:CDM配置Kafka源端参数。 目的端作业配置,具体参考如下:
'database-name' = 'mysqlDatabaseName', 'table-name' = 'mysqlTableName' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据类型 说明 connector 是 无 String connector类型,需配置为'mysql-cdc'。
编写UDAF函数代码 3 调试,编译代码并导出Jar包 4 上传Jar包到OBS OBS控制台 将生成的UDAF函数Jar包文件上传到OBS目录下。 5 创建DLI程序包 DLI控制台 选择刚上传到OBS的UDAF函数的Jar文件,由DLI进行纳管。 6 创建DLI的UDAF函数
VALUES values_row [, values_row ...]; 关键字 SELECT对应关键字说明请参考基本语句。 参数说明 表1 参数描述 参数 描述 DLI_TABLE 已创建跨源连接的DLI表名称。 DLI_TEST 为包含待查询数据的表。 field1,field2
'print', 'print-identifier' = '', 'standard-error' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据类型 说明 connector 是 无 String 固定为:print。 print-identifier
'password' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认值 数据类型 说明 connector 是 无 String connector类型,需配置为'gaussdb'。 url 是 无 String jdbc连接地址。“url”参数中的ip地址请使用DWS的内网地址。