检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
table_name 是 要插入数据的数据库表名。数据库表需事先创建好。 db_columns 否 支持配置输出流属性和数据库表属性的对应关系,需严格按照输出流的属性顺序配置。 示例: 1 2 3 4 5 6 7 8 9 create sink stream a3(student_name
restart:重启。只有SQL类型的队列支持重启。 scale_out:扩容 scale_in:缩容 说明: 目前只支持restart、scale_out、scale_in。 force 否 Boolean 是否强制重启,“action”为“restart”时可选择配置,默认为“false”。 cu_count
str不支持指定起始搜索位置和匹配次数。 命令格式 instr1(string <str1>, string <str2>[, bigint <start_position>[, bigint <nth_appearance>]]) 参数说明 表1 参数说明 参数 是否必选 参数类型
row_number row_number函数用于计算行号。从1开始递增。 使用限制 窗口函数的使用限制如下: 窗口函数只能出现在select语句中。 窗口函数中不能嵌套使用窗口函数和聚合函数。 窗口函数不能和同级别的聚合函数一起使用。 命令格式 row_number() ove
row_number row_number函数用于计算行号。从1开始递增。 使用限制 窗口函数的使用限制如下: 窗口函数只能出现在select语句中。 窗口函数中不能嵌套使用窗口函数和聚合函数。 窗口函数不能和同级别的聚合函数一起使用。 命令格式 row_number() ove
功能描述 返回从指定位置开始的A的子字符串。起始位置从1开始。 如果未指定len,则截取从位置start开始,到字符串结尾的子字符串。 如果指定len,则截取从位置start开始,长度为len的子字符串。 start从1开始,start为0时当1看待,为负数时表示从字符串末尾倒序计算位置。
认修改WITH参数是否正确。 表1 支持类别 类别 详情 支持表类型 结果表 注意事项 创建Flink OpenSource SQL作业时,在作业编辑界面的“运行参数”处,“Flink版本”需要选择“1.15”,勾选“保存作业日志”并设置保存作业日志的OBS桶,方便后续查看作业日志。
查看对应作业的DAG图,判断是否有BroadcastNestedLoopJoin节点。 图8 作业的DAG图。 如果存在广播,则参考SQL作业中存在join操作,因为自动广播导致内存不足,作业一直运行中处理。 可能原因2:数据倾斜 判断当前作业运行慢是否是数据倾斜导致: 登录DLI控制台,单击“作业管理
'standard-error' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认参数 数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error
static_estimator_config 否 String 每个算子的流量/命中率配置,json格式的字符串。 当static_estimator为true时需要配置该参数,配置时传入算子ID和算子流量配置。 可先行调用该接口获取算子ID,即响应消息中stream_graph包含的o
tion: Access key cannot be null 问题根因 该Flink SQL作业在配置作业运行参数时,有选择保存作业日志或开启Checkpoint,配置了OBS桶保存作业日志和Checkpoint。但是运行该Flink SQL作业的IAM用户没有OBS写入权限导致该问题。
DLI,再使用DLI提交作业分析数据。 CDM支持数据库、数据仓库、文件等多种类型的数据源,通过可视化界面对数据源迁移任务进行配置,提高数据迁移和集成的效率。 具体操作请参考迁移外部数据源数据至DLI。 图1 迁移数据至DLI 配置DLI读写外部数据源 如果您不想将数据导入OBS
'standard-error' = '' ); 参数说明 表1 参数说明 参数 是否必选 默认参数 数据类型 说明 connector 是 无 String 固定为:print。 print-identifier 否 无 String 配置一个标识符作为输出数据的前缀。 standard-error
Spark SQL语法参考(即将下线) 批作业SQL常用配置项说明 批作业SQL语法概览 Spark开源命令支持说明 数据库 创建OBS表 创建DLI表 删除表 查看表 修改表 分区表相关 导入数据 插入数据 清空数据 导出查询结果 多版本备份恢复数据 表生命周期管理 跨源连接HBase表
is_restarting 否 Boolean 是否重启队列。默认值为“false”。 labels 否 String 创建队列的标签信息,目前包括队列是否跨AZ的标签信息的Json字符串。目前只支持值为“2”,即创建两个队列。 feature 否 String 队列的镜像类型。支持以下两种类型: basic:基础型
Boolean 是否跳过null。 lookup.async 否 false Boolean 作为redis维表时,是否使用异步 I/O。 lookup.parallelism 否 无 int 定义查找联接运算符的自定义并行度。默认情况下,如果未定义此选项,则规划器将通过考虑全局配置(如果定义了选项“lookup
查找字符串str1在以逗号(,)分隔的字符串str2中的位置,从1开始计数。 get_json_object get_json_object(string <json>, string <path>) STRING 根据所给路径对json对象进行解析,当json对象非法时将返回NULL。 instr instr(string
查找字符串str1在以逗号(,)分隔的字符串str2中的位置,从1开始计数。 get_json_object get_json_object(string <json>, string <path>) STRING 根据所给路径对json对象进行解析,当json对象非法时将返回NULL。 instr instr(string
hosts 是 Array of objects 用户自定义主机信息,最大支持2万条记录,详细信息参见表 hosts请求参数。内容填空表示清除所有已配置的主机信息。 表3 hosts请求参数 参数名称 是否必选 参数类型 说明 name 否 String 自定义主机名称。长度12
参数 是否必选 说明 type 是 数据源类型,“edgehub”表示数据源为智能边缘平台的edgehub。 topic 是 主题,需要消费数据的edgehub中的主题名称。 encode 是 数据编码格式,可选为“csv”和“json”。 若编码格式为“csv”,则需配置“field_delimiter”属性。