检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
set location truncate table V1表 √ √ √ × × × × × × V2表 √ √ √ √ √ √ √ √ √ 怎么确认当前用户创建的表是v1还是v2表? 1. 使用datasource语法建表: CREATE TABLE IF NOT EXISTS table_name
所有算子反压都正常(绿色),但存在数据堆积 该场景说明性能瓶颈点在Source,主要是受数据读取速度影响,此时可以通过增加Kafka分区数并增加source并发解决。 作业一个算子反压高(红色),而其后续的多个并行算子都不存在反压(绿色) 该场景说明性能瓶颈在Vertex2或者Vertex3,为了进一
Flink作业开始运行的时间。 运行时长 作业运行所消耗的时间。 操作 编辑:编辑已经创建好的作业。 启动:启动作业并运行。 更多 FlinkUI:单击后,将跳转至Flink任务运行情况界面。 说明: 如果是新建队列,在该队列提交作业后,如果立即单击FlinkUI,因为后台大约需要10分钟创建集群,
中,处于单task读写可接受范围之内。 如果是单个Bucket的数据量超过了该值范围,可能会有什么影响? 读写任务可能会出现OOM的问题,解决方法就是提升单个task的内存占比。 读写性能下降,因为单个task的处理的数据量变大,导致处理耗时变大。 父主题: Hudi数据表设计规范
ORC,JSON,Avro格式。编码格式仅支持UTF-8。 CSV 数据源路径 直接输入路径或单击选择OBS的路径,如果没有合适的桶可直接跳转OBS创建。 创建OBS表时指定的路径必须是文件夹,如果建表路径是文件将导致导入数据失败。 当OBS的目录下有同名文件夹和文件时,数据导入指向该路径会优先指向文件而非文件夹。
多操作。 了解更多实例监控。 图19 设置实例监控 常见问题 如果 DataArts 作业失败,且 DataArts 提供的日志不够详细,怎么办?还能从哪里找更具体的日志?您可以可通过 DataArts 的日志找到 DLI job id,然后根据 DLI job id 在DLI控制台中找到具体的作业。
单击“语义校验”,确保语义校验成功。 单击“启动”,进入“启动Flink作业”页面,确认作业规格和费用后,单击“立即启动”,启动作业。 启动作业后,系统将自动跳转到Flink作业管理页面,新创建的作业将显示在作业列表中,在“状态”列中可以查看作业状态。作业提交成功后,状态将由“提交中”变为“运行中”。
datasource v2 tables is only supported in spark3.3 or later version.”怎么办? 使用default创建DataSource表时引擎版本不低于Spark 3.3.1,如果引擎版本低于Spark 3.3.1则会提示上
SON对象。 JSON数组可以具有混合元素类型,JSON Map可以有混合值类型。这使得在某些情况下无法将其转换为SQL数组和Map。为了解决该问题,HetuEngine支持对数组和Map进行部分转换: SELECT CAST(JSON'[[1, 23], 456]'AS ARRAY(JSON));--
格式:IP:端口 测试连接前,请确保外部数据源的安全组已放通队列的网段。 图3 测试队列与数据源的网络连通性 相关操作 创建跨源成功但测试网络连通性失败怎么办? 父主题: 配置DLI与数据源网络连通(增强型跨源连接)
增强型跨源链接:选择步骤3:创建增强型跨源连接中创建的增强型跨源连接。 图1 预置创建Notebook实例相关的DLI资源信息 单击“确定”创建Notebook实例。系统跳转至Notebook实例创建页面 在Notebook实例页面配置Notebook实例相关参数。 创建Notebook实例. 具体参数说明请参考创建Notebook实例。
id是唯一的。如果作为Document id的字段存在重复值,则在执行插入es时,重复id的Document将会被覆盖。 该特性可以用作容错解决方案。当插入数据执行一半时,DLI作业失败,会有部分数据已经插入到es中,这部分为冗余数据。如果设置了Document id,则在重新执行DLI作业时,会覆盖上一次的冗余数据。
2021-03-2512:03:00,0002,Bob,330110) 常见问题 Q:MySQL CDC源表不支持定义Watermark,怎么进行窗口聚合? A:可以采用非窗口聚合的方式,即将时间字段转换成窗口值,然后根据窗口值进行GROUP BY聚合。 例如:基于上述示例,统计
用其他云服务,代替您进行一些资源运维工作。 仍在使用DLI上一代委托dli_admin_agency,请参考本节操作更新DLI委托。 为了解决在满足实际业务使用的同时,避免委托权限过大的风险,DLI升级了系统委托,做到更细粒度的委托权限控制,将原有的dli_admin_agenc
保证资源的利用率和应对资源洪峰等诉求。 弹性资源池对后端资源统一进行管理和调度,多个队列绑定弹性资源池后,资源池内资源共享,资源利用率高,解决了场景二的问题。 父主题: 创建弹性资源池和队列
也可以在作业列表中,勾选一个作业,单击作业列表左上方的“启动”。 批量启动作业 勾选多个作业,单击作业列表左上方的“启动”,可以启动多个作业。 单击“启动”后,跳转至“作业配置清单”页面。 在“作业配置清单”页面,确认作业信息及价格,如果无误,单击“立即启动”。 作业启动后,可在对应作业的“状态”列中查看运行成功或失败。
Flink作业”,在Flink作业管理界面,单击“创建作业”。 在创建作业界面,类型选择“Flink SQL”,名称填写为:testFlinkSqlJob。单击“确定”,跳转到Flink作业编辑界面。 在Flink SQL作业编辑界面,配置如下参数。 图5 创建Flink SQL作业 所属队列:选择步骤二:添加
a中,当Flink从Kafka中消费的时候就会得到重复的事件。 这可能会导致Flink query的运行得到错误的结果或者非预期的异常。 解决方案:将作业参数 table.exec.source.cdc-events-duplicate 设置成true,并在该source上定义PRIMARY
理页面找到对应模板进行SQL查询和修改。 具体操作为:选择“作业模板 > SQL模板 > 自定义模板”,在对应模板的操作列,单击“执行”会跳转到SQL语句编辑器,修改查询条件可以很方便地查找对应的数据。 select driverID, carNumber, sum(isRapidlySpeedup)
创建作业”。 在创建队列界面,类型选择“Flink OpenSource SQL”,名称填写为:FlinkKafkaDWS。单击“确定”,跳转到Flink作业编辑界面。 在Flink OpenSource SQL作业编辑界面,配置如下参数,其他参数默认即可。 所属队列:选择步骤1:创建队列中创建的队列。