检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
[ FOR integer2 ]) STRING 用string2代替string1中的字符串,从integer1开始,替换长度为integer2,并返回替换后的string1字符串 integer2默认为string2的长度 例如OVERLAY('This is an old string'
[ FOR integer2 ]) STRING 用string2代替string1中的字符串,从integer1开始,替换长度为integer2,并返回替换后的string1字符串 integer2默认为string2的长度 例如OVERLAY('This is an old string'
'connector.url' = 'jdbc:mysql://xx.xx.xx.xx:3306/xx', 'connector.table' = 'jdbc_table_name', 'connector.driver' = 'com.mysql.jdbc.Driver', 'connector
该API用于从DLI表中导出数据到文件。 该API为异步操作。 目前只支持从DLI表导出数据到OBS中,且导出的路径必须指定到文件夹级别。OBS路径中不支持逗号,且其中的桶名不能以正则格式“.[0-9]+(.*)”结尾,即,若桶名包含“.”, 则最后一个“.”不可以数字开头(例如:**.12abc
= 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--其中url中的flink表示MySQL中orders表所在的数据库名 'table-name' = 'orders', 'username' = 'MySQLUsername'
')时,可以指定分隔符,默认值为“,”。 对于CSV数据,支持如下所述分隔符: 制表符tab,例如:'DELIMITER'='\t'。 支持通过unicode编码指定分割符,例如:'DELIMITER'='\u0001'。 单引号('),单引号必须在双引号(" ")内。例如:'DELIMITER'= "'"。
自定义分隔符 当“文件格式”为“CSV”,勾选自定义分隔符前的方框时,该参数有效。 支持选择如下分隔符。 逗号(,) 竖线(|) 制表符(\t) 其他:输入自定义分隔符 默认值:逗号(,) 自定义引用字符 当“文件格式”为“CSV”,勾选自定义引用字符前的方框时,该参数有效。 支持选择如下引用字符。
创建DMS Kafka实例时,不能开启Kafka SASL_SSL。 已创建RDS MySQL实例。 本示例创建的RDS MySQL数据库版本选择为:8.0。 具体步骤可参考:购买RDS for MySQL实例。 整体作业开发流程 整体作业开发流程参考图1。 图1 作业开发流程 步骤1:创建队列:创建DLI作业运行的队列。
图2 选择连接器类型 选择“云数据库 MySQL”后单击“下一步”,配置云数据库 MySQL连接的参数。 单击“显示高级属性”可查看更多可选参数,具体请参见配置云数据库MySQL/MySQL数据库连接。这里保持默认,必填参数如表1所示。 表1 MySQL连接参数 参数名 说明 取值样例
Flink 1.7版本停止服务后,可以使用哪个版本替换? 推荐使用DLI Flink 1.15版本。 Flink 1.12版本有哪些优势? Flink 1.12新增支持DataGen源表、DWS源表、JDBC源表、MySQL CDC源表、Postgres CDC源表、Redis源表、Upsert
'url' = 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--flink为RDS MySQL创建的数据库名 'table-name' = 'orders', 'username' = 'MySQLUsername', 'password'
SQL作业开发 从Kafka读取数据写入到RDS 从Kafka读取数据写入到DWS 从Kafka读取数据写入到Elasticsearch 从MySQL CDC源表读取数据写入到DWS 从PostgreSQL CDC源表读取数据写入到DWS Flink作业高可靠推荐配置指导(异常自动重启)
db_name]; 关键字 COLUMNS:表中的列。 FROM/IN:指定数据库,显示指定数据库下的表的列名。FROM和IN没有区别,可替换使用。 参数说明 表1 参数说明 参数 描述 table_name 表名称。 db_name 数据库名称。 注意事项 所指定的表必须是数据库中存在的表,否则会出错。
DataGen Doris DWS Elasticsearch 对象存储OBS Hbase Hive Hudi JDBC Kafka MySql CDC Print Redis Upsert Kafka 父主题: Flink Opensource SQL1.15语法参考
预览SQL作业查询结果 功能介绍 该API用于在执行SQL查询语句的作业完成后,查看该作业执行的结果。目前仅支持查看“QUERY”类型作业的执行结果。 该API只能查看前1000条的结果记录,且不支持分页查询。若要查看全部的结果记录,需要先导出查询结果再进行查看,详细请参见导出查询结果。
Spark应用的Driver内存,参数配置例如2G, 2048M。该配置项会替换“sc_type”中对应的默认参数,使用时必需带单位,否则会启动失败。 driverCores Integer Spark应用Driver的CPU核数。该配置项会替换sc_type中对应的默认参数。 executorMemory
必须大于等于1,表示将第occurrence次匹配的字符串替换为replace_string,为1时表示替换所有匹配的子串。为其他类型或小于1时,返回报错。默认值为1。 返回值说明 返回STRING类型的值。 当引用不存在的组时,不进行替换。 如果replace_string值为NULL且pattern有匹配,返回NULL。
通用队列操作OBS表如何设置AK/SK 如何查看DLI Spark作业的实际资源使用情况 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库? 如何在DLI中运行复杂PySpark程序? 如何通过JDBC设置spark.sql.shuffle
property_name 数据库属性名。 property_value 数据库属性值。 注意事项 DATABASE与SCHEMA两者没有区别,可替换使用,建议使用DATABASE。 “default”为内置数据库,不能创建名为“default”的数据库。 示例 完整的SQL作业提交流程
[RESTRICT|CASCADE]; 关键字 IF EXISTS:所需删除的数据库不存在时使用,可避免系统报错。 注意事项 DATABASE与SCHEMA两者没有区别,可替换使用,建议使用DATABASE。 RESTRICT表示如果该database不为空(有表存在),DROP操作会报错,执行失败,RESTRICT是默认逻辑。