检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
当encode为user_defined时,需配置该参数,指定用户自实现解码类的类名(包含完整包路径),该类需继承类DeserializationSchema。 encode_class_parameter 否 当encode为user_defined时,可以通过配置该参数指定用户自实现解码类的入参,仅支持一个string类型的参数。
当encode为user_defined时,需配置该参数,指定用户自实现解码类的类名(包含完整包路径),该类需继承类DeserializationSchema。 encode_class_parameter 否 当encode为user_defined时,可以通过配置该参数指定用户自实现解码类的入参,仅支持一个string类型的参数。
在弹出的确认对话框中,单击“是”。 在“SQL编辑器”页面删除表。 在SQL作业管理控制台的顶部菜单栏中,选择“SQL编辑器”。 在左侧导航栏选择“数据库”页签,鼠标左键单击需要删除表的数据库名,进入“表”区域。 鼠标左键单击对应表右侧的,在列表菜单中选择“删除”。 在弹出的确认对话框中,单击“确定”。
创建DLI表关联CSS 功能描述 使用CREATE TABLE命令创建DLI表并关联CSS上已有的表。 Spark跨源开发场景中直接配置跨源认证信息存在密码泄露的风险,优先推荐您使用DLI提供的跨源认证方式。 跨源认证简介及操作方法请参考跨源认证简介。 前提条件 创建DLI表关联
创建DLI表关联CSS 功能描述 使用CREATE TABLE命令创建DLI表并关联CSS上已有的表。 Spark跨源开发场景中直接配置跨源认证信息存在密码泄露的风险,优先推荐您使用DLI提供的跨源认证方式。 跨源认证简介及操作方法请参考跨源认证简介。 前提条件 创建DLI表关联
击“启动”重新运行作业。作业重新运行完成后再执行3及后续步骤。 在Flink作业列表单击对应作业名称,进入作业详情页面,选择“运行日志”页签。 单击OBS桶,获取对应作业的完整运行日志。 图2 查看运行日志 下载最新“jobmanager.log”文件,搜索“RUNNING to
perBound”、“numPartitions”四个参数必须同时设置,不支持仅设置其中某一个或某几个。 为了提升并发读取的性能,建议使用自增列。 lowerBound partitionColumn设置的字段数据最小值,该值包含在返回结果中。 upperBound partit
perBound”、“numPartitions”四个参数必须同时设置,不支持仅设置其中某一个或某几个。 为了提升并发读取的性能,建议使用自增列。 lowerBound partitionColumn设置的字段数据最小值,该值包含在返回结果中。 upperBound partit
名),单击“确定”。 在“SQL编辑器”页面修改数据库所有者。 在管理控制台左侧,单击“SQL编辑器”。 在左侧导航栏单击选择“数据库”页签,鼠标左键单击对应数据库右侧的,在列表菜单中选择“修改数据库”。 在弹出的确认对话框中,输入新的所有者用户名(已存在的用户名),单击“确定”。
约束与限制 作业相关约束限制 DLI支持的作业类型:Spark SQL、SparkJar、Flink SQL、Flink Jar DLI支持的Spark版本:Spark 3.3.1、Spark 3.1.1(EOM)、Spark 2.4.5(EOM)、Spark 2.3(EOS) DLI支持的Flink版本:Flink
管理控制台。 在左侧导航栏中,单击“集群管理”。 在集群列表中找到所需要的集群,单击集群名称,进入集群“基本信息”页面。 单击“参数修改”页签,修改参数“session_timeout”,然后单击“保存”。 在“修改预览”窗口,确认修改无误后,单击“保存”。 更多问题处理步骤,请参考DWS数据库连接问题。
Kafka源表 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka是
Kafka源表 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kafka是
OpenSource SQL作业。 基于现有作业模板新建模板 在DLI管理控制台的左侧导航栏中,单击“作业模板”>“Flink模板”,单击“自定义模板”页签。 在自定义模板列表中,单击所需作业模板“操作”列中的“编辑”,进入“模板编辑”页面。 修改完成后,“保存方式”选择“新增”。 单击右上角“保存”,完成另存一个新模板。
单击“确定”完成添加队列配置。 步骤3:创建专属队列和VPC的增强型跨源连接 在DLI管理控制台左侧导航栏中,选择“跨源管理”。 选择“增强型跨源”页签,单击左上角的“创建”按钮。 输入连接名称,选择创建的弹性资源池/队列,虚拟私有云,子网,输入主机信息(可选)。 图4 创建增强型跨源连接 步骤4:购买弹性公网IP
选择“spark”,“队列”选择“default”,“数据库”选择“default”,单击“执行”。 SQL作业编辑窗口下方“查看结果”页签查看查询结果。 本示例使用系统预置的“default”队列和数据库进行演示,也可以在自建的队列和数据库下执行。 创建队列请参考创建队列。创建数据库请参考创建数据库。
件名。 表table1创建成功后,单击左侧“数据库”页签,再单击db1,新创建的表table1会在“表”区域下方显示。 步骤5:查询数据 完成以上步骤后,就可以开始进行数据查询了。 单击“SQL编辑器”页面左侧的“数据库”页签,选择新创建的表table1,双击表,在右侧编辑窗口中
T1; 测试数据和结果 表8 测试数据和结果 测试数据(content) 测试结果(case_result) https://www.testweb.com true https://www.testweb.com:443 true www.testweb.com:443 false
T1; 测试数据和结果 表8 测试数据和结果 测试数据(content) 测试结果(case_result) https://www.testweb.com true https://www.testweb.com:443 true www.testweb.com:443 false
Elasticsearch结果表 功能描述 DLI将Flink作业的输出数据输出到云搜索服务CSS的Elasticsearch中。Elasticsearch是基于Lucene的当前流行的企业级搜索服务器,具备分布式多用户的能力。其主要功能包括全文检索、结构化搜索、分析、聚合、高亮