检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
12新增支持DataGen源表、DWS源表、JDBC源表、MySQL CDC源表、Postgres CDC源表、Redis源表、Upsert Kafka源表、Hbase源表。 Flink 1.12新增支持小文件合并功能。 Flink 1.12新增支持Redis维表、RDS维表。 父主题: 版本支持公告
的时候,指定字符串常量替换 Map 中的空 key 值。 canal-json.database.include 否 (none) String 仅读取指定数据库的 changelog 记录(通过对比 Canal 记录中的 "database" 元数据字段)。 canal-json.table.include
true 时,则会表示为 0.000000027。 canal-json.database.include 否 (none) String 一个可选的正则表达式,通过正则匹配 Canal 记录中的 "database" 元字段,仅读取指定数据库的 changelog 记录。正则字符串与
appName("datasource-rds").getOrCreate(); 通过SQL API 访问 创建DLI跨源访问RDS的关联表,填写连接参数。 1 2 3 4 5 6 7 sparkSession.sql( "CREATE TABLE IF NOT EXISTS dli_to_rds USING
p的范围为0-1。参数p的格式包括浮点数格式。 返回值说明 返回DOUBLE或ARRAY类型。 列名不存在时,返回报错。 p为NULL或在[0,1]之外时,返回报错。 示例代码 假设列int_test中的元素为1、2、3、4,类型为INT类型。 返回3.0999999999999996。
参数p的范围为0-1。参数p的格式包括浮点数格式。 返回值说明 返回DOUBLE类型或ARRAY类型的值。 列名不存在时,返回报错。 p为NULL或在[0,1]之外时,返回报错。 示例代码 假设列int_test中的元素为1、2、3、4,类型为INT类型。 返回3。 select perce
是 无 String 数据库的URL。 连接MySQL数据库时,格式为:jdbc:mysql://MySQLAddress:MySQLPort/dbName 。 连接PostgreSQL数据库时,格式为:jdbc:postgresql://PostgreSQLAddress:Po
builder.appName("datasource-rds").getOrCreate() 通过DataFrame API 访问 连接参数配置 1 2 3 4 5 url = "jdbc:mysql://to-rds-1174404952-ZgPo1nNC.datasource
sql.shuffle.partitions参数提高并行度 操作场景 Spark作业在执行shuffle类语句,包括group by、join等场景时,常常会出现数据倾斜的问题,导致作业任务执行缓慢。 该问题可以通过设置spark.sql.shuffle.partitions提高shuffle
一站式开发平台,自带开发和运维功能,免除自建集群运维的麻烦;在connector方面除了支持开源connector之外,还可以对接云上Mysql、GaussDB、MRS HBase、DMS、DWS、OBS等,开箱即用;在资源方面,产品可以自适应业务的流量,智能对资源进行弹性伸缩,
运算。 返回值说明 返回STRING类型。 str非STRING、BIGINT、DOUBLE、DECIMAL或DATETIME类型时,返回报错。 str值为NULL时,返回NULL。 示例代码 返回 LQS krapS。 SELECT reverse('Spark SQL'); 返回[3
参数 参数说明 队列 作业所属队列的名称。 执行引擎 SQL作业支持Spark和HetuEngine两种引擎。 Spark:显示执行引擎为“Spark”的作业。 HetuEngine:显示执行引擎为“HetuEngine”的作业。 用户名 执行该作业的用户名。 类型 作业的类型,包括如下。
property_name 数据库属性名。 property_value 数据库属性值。 注意事项 DATABASE与SCHEMA两者没有区别,可替换使用,建议使用DATABASE。 “default”为内置数据库,不能创建名为“default”的数据库。 示例 完整的SQL作业
SQL作业使用咨询 DLI是否支持创建临时表? 问题描述:临时表主要用于存储临时中间结果,当事务结束或者会话结束的时候,临时表的数据可以自动删除。例如MySQL中可以通过:“create temporary table ...” 语法来创建临时表,通过该表存储临时数据,结束事务或者会话后该表数据自动清除。当前DLI是否支持该功能?
Access key cannot be null错误 问题现象 在DLI上提交Flink SQL作业,作业运行失败,在作业日志中有如下报错信息: connect to DIS failed java.lang.IllegalArgumentException: Access key
Restricted for no budget. 执行查询语句报错:There should be at least one partition pruning predicate on partitioned table XX.YYY LOAD数据到OBS外表报错:IllegalArgumentException:
创建DMS Kafka实例时,不能开启Kafka SASL_SSL。 已创建RDS MySQL实例。 本示例创建的RDS MySQL数据库版本选择为:8.0。 具体步骤可参考:购买RDS for MySQL实例。 整体作业开发流程 整体作业开发流程参考图1。 图1 作业开发流程 步
返回STRING类型的值。 str非STRING、BIGINT、DECIMAL、DOUBLE或DATETIME类型时,返回报错。 length非BIGINT类型或值小于等于0时,返回报错。 当length被省略时,返回到str结尾的子串。 str、start_position或length值为NULL时,返回NULL。
登录DLI管理控制台,单击“作业管理 > SQL作业”,在对应报错作业的“操作”列,单击“编辑”进入到SQL编辑器页面。 单击“设置”,在参数设置中选择“spark.sql.autoBroadcastJoinThreshold”参数,其值设置为“-1”。 重新单击“执行”,运行该作业,观察作业运行结果。 父主题:
源表,通过Redis维表将商品ID关联维表获取商品分类,并计算不同类别的商品销售金额,将计算结果写入 RDS(Relational Database Service,如 MySQL) 结果表中。 表信息如下: 源表:订单数据表,包含用户ID、商品ID、订单ID、订单金额等信息。 维