检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在永洪SaaS生产环境主页,单击左侧导航栏中的“添加数据源”,请参见图1。 图1 添加数据源 “选择数据源类型”页面中,新建数据源类型选择“GENERIC”。请参见图2。 图2 选择数据源类型 添加数据源的相关配置,请参见图3。 “驱动”栏填写DLI JDBC的驱动:com.huawei
ID。 图6 获取作业ID 在对应作业的“操作”列,单击“Spark UI”,进入“Spark UI”页面。 在“Spark UI”页面,在上方菜单栏选择“SQL”。参考下图,根据作业ID,单击Description中的超链接。 图7 单击作业链接 查看对应作业的DAG图,判断是
从DLI导入数据到OBS,数据量不一致怎么办? 问题现象 使用DLI插入数据到OBS临时表文件,数据量有差异。 根因分析 出现该问题可能原因如下: 作业执行过程中,读取数据量错误。 验证数据量的方式不正确。 通常在执行插入数据操作后,如需确认插入数据量是否正确,建议通过查询语句进行查询。
source可以在open里引入。 图1 获取kafka source kafka sink可以在initializeState里引入。 图2 获取kafka sink 操作步骤 从Kafka实例的基本信息页面下载SSL证书,解压后将其中的clinet.jks文件上传到OBS。 图3 下载SSL证书
单击需要查看的作业名称,进入“作业详情”页面。 单击“执行计划”,在“执行计划”页签可以查看作业的算子流向。 图3 执行计划 单击对应的节点,在页面右侧显示对应的信息。 滚动鼠标滚轮可对流图进行缩放查看。 流图展示当前运行作业的实时算子流图信息。 父主题: 管理Flink作业
*小时数。 步骤1:创建并上传数据 创建CSV数据,例如,如图2所示test.csv: 图2 创建test.csv文件 在OBS上建桶obs-csv-parquet,并将test.csv文件上传至OBS,如图3所示: 图3 上传CSV数据至OBS 在OBS上创建一个新的桶obs-
鼠标左键单击需要导出数据的表(Managed表,即DLI表)右侧的,在列表菜单中选择“导出”,选择弹出“导出数据”页面。 图1 Managed表导出 在“导出数据”对话框,参考表1填写导出数据相关信息。 图2 导出数据 表1 参数说明 参数名称 描述 数据库 当前表所在的数据库。 表名称 当前表名称。 数据格式
络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 图1阐明了区域和可用区之间的关系。 图1 区域和可用区 目前,华为云已在全球多个地域开放云服务,您可以根据需求选择适合自己的区域和可用区。更多信息请参见华为云全球站点。
UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用,例如 将增量数据从数据库同步到其他系统 日志审计 数据库的实时物化视图 关联维度数据库的变更历史,等等。 参数说明 表1 参数 是否必选 默认值 是否必选 描述 format 是 (none)
UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用,例如 将增量数据从数据库同步到其他系统 日志审计 数据库的实时物化视图 关联维度数据库的变更历史,等等。 参数说明 表1 参数 是否必选 默认值 是否必选 描述 format 是 (none)
使用Eclipse集成开发环境的项目,在集成开发环境中导入JAR文件。 从Eclipse官网下载并安装Eclipse IDE for Java Developers最新版本。在Eclipse中配置好JDK。 创建新工程,选择JRE版本,请参见图1 图1 创建新工程 配置并导入SDKjar包。 在工程“JRE
brand ORDER BY like_count desc limit 10 单击“执行”,运行结果如图2所示: 图2 查询结果 单击“结果图形化”,对结果进行图形展示: 图3 结果图形化 分析出10大评级最差的商品 执行以下SQL语句,可以分析出10大评级最差的商品。 SELECT
(密码和访问密钥)。 在我的凭证下,您可以查看账号ID和用户ID。通常在调用API的鉴权过程中,您需要用到账号、用户和密码等信息。 区域 从地理位置和网络时延维度划分,同一个Region内共享弹性计算、块存储、对象存储、VPC网络、弹性公网IP、镜像等公共服务。Region分为通
10”和“1.11”和“1.12”。 1.12 图4 创建Flink Jar作业 结果校验。 作业处于运行中状态时,向DIS的source通道发送数据,验证DIS的sink通道能否收到数据。发送和接受都有字节数证明接收到数据。 图5 查看校验结果 JAVA样例代码 DIS Flink
UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用,例如 将增量数据从数据库同步到其他系统 日志审计 数据库的实时物化视图 关联维度数据库的变更历史,等等。 Flink 还支持将 Flink SQL 中的 INSERT / UPDATE
UPDATE / DELETE 消息到 Flink SQL 系统中。在很多情况下,利用这个特性非常的有用,例如 将增量数据从数据库同步到其他系统 日志审计 数据库的实时物化视图 关联维度数据库的变更历史,等等。 Flink 还支持将 Flink SQL 中的 INSERT / UPDATE
弹性资源池 弹性资源池后端采用CCE集群的架构,支持异构,对资源进行统一的管理和调度。详细内容可以参考用户指南的弹性资源池。 图1 弹性资源池架构图 弹性资源池的优势主要体现在以下几个方面: 统一资源管理 统一管理内部多集群和调度作业,规模可以到百万核级别。 多AZ部署,支持跨AZ高可用。
单击“确定”,进入“编辑”页面。 选择队列。Flink Jar作业只能运行在通用队列上。 图2 选择队列 上传Jar包。 Flink版本需要和用户Jar包指定的Flink版本保持一致。 图3 上传Jar包 表2 参数说明 名称 描述 应用程序 用户自定义的程序包。在选择程序包之前
使用文件系统输出流的Flink作业必须开启checkpoint,保证作业的一致性。 为了避免数据丢失或者数据被覆盖,开启作业异常自动重启或者手动重启,需要配置为“从checkpoint恢复”。 checkpoint间隔设置需在输出文件实时性、文件大小和恢复时长之间进行权衡,比如10分钟。 checkpoint支持如下两种模式:
使用文件系统输出流的Flink作业必须开启checkpoint,保证作业的一致性。 为了避免数据丢失或者数据被覆盖,开启作业异常自动重启或者手动重启,需要配置为“从checkpoint恢复”。 checkpoint间隔设置需在输出文件实时性、文件大小和恢复时长之间进行权衡,比如10分钟。 checkpoint支持如下两种模式: