检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
每日数据调用量是多少? 本示例不涉及 若取数逻辑复杂造成数据库响应时间较长,调用量会下降 每秒数据调用量峰值是多少? 本示例不涉及 根据不同规格和具体的取数逻辑有所增减 单次数据调用平均时延是多少? 本示例不涉及 数据库响应耗时与用户取数逻辑相关 是否需要数据访问记录? 本示例不涉及
步骤3:数据开发处理 本步骤通过电影信息和评分信息的原始数据,分析评分最高的Top10电影和最活跃的Top10电影,然后通过作业定期调度执行并将结果每日导出到表中,以支撑信息分析。 创建DWS SQL脚本top_rating_movie(用于存放评分最高的Top10电影) 评分最
目录创建请参见图1。 定义关系 关系是定义指标和数值间或者指标和指标间的逻辑表达式,可以包含算术运算。指标使用小写字母a-z代替它的缩写,按添加指标的顺序依次为a,b,c,...。 说明: 只支持一个合法逻辑表达式,支持简单的四则算术运算。 父主题: 业务指标监控(待下线)
CDM不同集群规格对应并发的作业数是多少? CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此
在本章节您可以学习到数据开发模块资源管理、作业编辑等功能。 场景说明 用户在使用DLI服务时,大部分时间会使用SQL对数据进行分析处理,有时候处理的逻辑特别复杂,无法通过SQL处理,那么可以通过Spark作业进行分析处理。本章节通过一个例子演示如何在数据开发模块中提交一个Spark作业。 操作流程如下:
CDM迁移作业的抽取并发数应该如何设置? CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此某
问题描述 新建的DLI SQL脚本默认队列是一个已删除的队列。 图1 DLI SQL脚本 问题分析 新建的DLI SQL脚本队列显示的逻辑是这样的,在该工作空间,上一次使用DLI SQL脚本或打开DLI SQL脚本时,所选择的队列会在缓存中进行存储。新建DLI SQL脚本的时候,就会自动选择该队列。
CDM数据迁移时,简化的迁移模型如图1所示。 图1 CDM数据迁移模型 CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作
For Each节点使用介绍 适用场景 当您进行作业开发时,如果某些任务的参数有差异、但处理逻辑全部一致,在这种情况下您可以通过For Each节点避免重复开发作业。 For Each节点可指定一个子作业循环执行,并通过数据集对子作业中的参数进行循环替换。关键参数如下: 子作业:选择需要循环执行的作业。
数据架构支持最大导入文件大小为4Mb;支持最大导入指标个数为3000个;支持一次最大导出500张表。 导入表到逻辑模型 在DataArts Studio数据架构控制台,单击左侧导航栏的“逻辑模型”进入逻辑模型页面。 在逻辑模型中,找到所需要的逻辑模型,单击模型卡片进入,在主题目录中选中一个对象,然后单击“更多 > 导入”。
For Each节点使用介绍 适用场景 当您进行作业开发时,如果某些任务的参数有差异、但处理逻辑全部一致,在这种情况下您可以通过For Each节点避免重复开发作业。 For Each节点可指定一个子作业循环执行,并通过数据集对子作业中的参数进行循环替换。关键参数如下: 子作业:选择需要循环执行的作业。
SUMMARY_TIME: 汇总表时间周期属性 TABLE_MODEL: 关系模型(逻辑模型/物理模型) TABLE_MODEL_ATTRIBUTE: 关系模型属性(逻辑模型/物理模型) TABLE_MODEL_LOGIC: 逻辑实体 TABLE_TYPE: 表类型 TAG: 标签 TIME_CONDITION:
SUMMARY_TIME: 汇总表时间周期属性 TABLE_MODEL: 关系模型(逻辑模型/物理模型) TABLE_MODEL_ATTRIBUTE: 关系模型属性(逻辑模型/物理模型) TABLE_MODEL_LOGIC: 逻辑实体 TABLE_TYPE: 表类型 TAG: 标签 TIME_CONDITION:
务指标监控模块即将下线。 业务指标监控模块是对业务指标进行质量管理的工具。 为了进行业务指标监控,您可以先自定义SQL指标,然后通过指标的逻辑表达式定义规则,最后新建并调度运行业务场景。通过业务场景的运行结果,您可以判断业务指标是否满足质量规则。业务场景的运行结果说明如下: 正常
SUMMARY_TIME: 汇总表时间周期属性 TABLE_MODEL: 关系模型(逻辑模型/物理模型) TABLE_MODEL_ATTRIBUTE: 关系模型属性(逻辑模型/物理模型) TABLE_MODEL_LOGIC: 逻辑实体 TABLE_TYPE: 表类型 TAG: 标签 TIME_CONDITION:
选择需要授权的数据架构的物理模型或逻辑模型。 说明: 即使仅选择物理模型或仅选择逻辑模型,策略配置后,对于非授权对象的普通用户(即非DAYU Administrator、Tenant Administrator、数据安全管理员或预置的工作空间管理员角色的用户)而言,数据架构中的所有物理模型和逻辑模型将由于无权限而置灰。
资产采集受限。 数据模型数量增量包: 不同版本的DataArts Studio实例,提供了不同的数据模型数量规格限制。该规格是以数据架构中逻辑模型、物理模型、维度表、事实表和汇总表的数量计算的,您可以在新商业模式的DataArts Studio实例卡片上通过“更多 > 配额使用量
定义识别规则分组 定义敏感数据识别规则组,可以将多个零散的规则组合成为一个有业务逻辑的规则组,该操作是用户后续进行敏感数据发现任务操作的前提 。 前提条件 识别规则创建完成,请参考定义识别规则。 约束与限制 敏感数据识别过程中,当某个字段同时匹配到识别规则组中的多个识别规则时,此
出要抽取数据写入目标端Kafka Topic的所有分表。 图5 添加逻辑表 已添加的逻辑表支持预览表结构及来源库表,单击“操作”列的预览即可。预览逻辑表时,源表数量越多,等待时间可能越长,请耐心等待。 图6 逻辑表预览 配置目的端参数。 图7 Kafka目的端配置项 目标Topic名称规则。
端分库中再次过滤出要写入目标端Hudi汇聚表的所有分表。 图6 添加逻辑表 已添加的逻辑表支持预览表结构及来源库表,单击“操作”列的预览即可。预览逻辑表时,源表数量越多,等待时间可能越长,请耐心等待。 图7 逻辑表预览 配置目的端参数。 源库表和目标匹配策略。 各同步场景下源端库表和目标端库表的匹配策略请参考表6。