检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
这样CDM每天凌晨自动执行全量迁移,但因为“重复文件处理方式”选择了“跳过重复文件”,相同名称且相同大小的文件不迁移,所以只会上传每天新增的文件。 单击“保存”,完成CDM的增量同步配置。 父主题: 使用CDM上传数据到OBS
可以查看基线预警的数据。支持查看今日预警的基线实例数量。当预测到基线上任务无法在基线承诺时间内完成时,将触发基线预警。 可以查看出错事件的数据。支持查看今日出错的事件数量。基线监控范围内的任务,即影响基线数据产出的任务执行出错将会产生出错事件。 可以查看变慢事件的数据。支持查看今日变
如果不设置该参数,默认查询default工作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 表3 Script参数说明 参数名 是否必选 参数类型 说明 name 是 String 脚本名称,只能包含五种字符:英文字母、数字、中文、中划线和点号,且长度小于等于128个字符。脚本名称不能重复。
如果不设置该参数,默认查询default工作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 表3 Script参数说明 参数名 是否必选 参数类型 说明 name 是 String 脚本名称,只能包含五种字符:英文字母、数字、中文、中划线和点号,且长度小于等于128个字符。脚本名称不能重复。
本文将为您介绍如何将已有的后端服务API,借助数据服务统一注册发布到API网关,与通过数据服务生成的API进行统一管理。 目前数据服务共享版支持Restful风格的API注册,包含GET/POST常见请求方式。 配置API基本信息 在DataArts Studio控制台首页,选择对应工作空间的“数据服务”模块,进入数据服务页面。
元数据管理模块是数据湖治理的基石,支持创建自定义策略的采集任务,可采集数据源中的技术元数据。支持自定义业务元模型,批量导入业务元数据,关联业务和技术元数据、全链路的血缘管理和应用。 图5 全链路数据血缘 数据地图 数据地图围绕数据搜索,服务于数据分析、数据开发、数据挖掘、数据运营等数据表的使用
I。 当源端数据为MySQL类型时,支持的目的端数据类型为MySQL。 当源端数据为OBS类型时,支持的目的端数据类型为DLI、DWS。 须知: DLI到DWS端的数据转换: 因为数据开发模块调用DWS的集群时,需要走网络代理。所以导入数据到DWS时,需要提前先在数据开发模块中创建DWS的数据连接。
Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 选择“作业标签”,进入“作业标签管理”页面。 单击“新建”,配置作业名称,确认后完成新建。 作业标签最多支持创建100个。 删除作业标签 在数据开发主界面的左侧导航栏,选择“配置管理
Studio数据开发调度CDM迁移作业时,系统会将时间宏变量替换为“数据开发作业计划启动时间-偏移量”,而不是“CDM作业实际启动时间-偏移量”。 table 导入开始前 导入数据前,选择是否清除目的表的数据: 不清除:写入数据前不清除目标表中数据,数据追加写入。 清除全部数据:写入数据前会清除目标表中数据。
层流程。第一层标识为L1层,第二层标识为L2层,第三层标识为L3。 示例如下: 图3 流程设计示例 导出流程 您可以将数据架构中已创建的流程导出到文件中。 在数据架构控制台,单击左侧导航树中的“流程设计”,进入流程设计页面。 单击流程列表上方的“导出”按钮,等待几秒钟后,页面右上
作业任务参数调优 概述 实时数据集成服务底层使用Flink流处理框架进行开发,因此包含了Flink系统中最重要的两个部分:JobManager和TaskManager。 作业任务配置中调整的处理器核数、并发数、执行内存参数等便是用来调整JobManager和TaskManager
SQL、Shell、RDS SQL(通过代理方式连接数据源) DAYU Administrator KMS Administrator DAYU Administrator:数据治理中心服务的所有执行权限。 KMS Administrator:数据加密服务加密密钥的管理员权限。 CSS DAYU Administrator
返回的数据信息。 状态码:401 表8 响应Body参数 参数 参数类型 描述 data Object 返回的数据信息。 状态码:403 表9 响应Body参数 参数 参数类型 描述 data Object 返回的数据信息。 请求示例 根据uuid查询导入excel的处理结果。 GET
新建资源。 Jar包参数 否 Jar包的参数。 输入数据路径 否 选择输入数据所在的路径。 输出数据路径 否 选择输出数据存储的路径。 表2 高级参数 参数 是否必选 说明 节点状态轮询时间(秒) 是 设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 节点执行的最长时间
Studio实例,提供了不同的数据模型数量规格限制。该规格是以数据架构中逻辑模型、物理模型、维度表、事实表和汇总表的数量计算的,您可以在新商业模式的DataArts Studio实例卡片上通过“更多 > 配额使用量”查看使用量。当您的数据模型数量接近或达到该规格时,建议购买数据模型数量增量包,以避免新建数据模型受限。
套餐包计费情况以实际费用为准。 数据服务专享集群增量包 数据服务专享集群增量包对应数据服务专享版集群。 数据服务定位于标准化的数据服务平台,提供一站式数据服务开发、测试部署能力,实现数据服务敏捷响应,降低数据获取难度,提升数据消费体验和效率,最终实现数据资产的变现。数据服务当前提供共享版与专
通过节点可以执行的操作: 移动文件:将源文件或目录,移动到新目录中。 复制文件:复制源文件或目录。 重命名文件:重命名文件仅支持最后一级目录或文件重命名。 如重命名目录时,源文件或目录:obs://test/a/b/c/,目的目录:obs://test/a/b/d/;重命名文件时,源文件或目录:obs://test/a/b/hello
查看规则实例的详细运行日志信息。 更多 > 处理问题 对当前业务场景实例进行进一步处理。支持填写处理意见,关闭问题和移交他人。 如果实例的处理人是当前登录用户则可以对业务场景实例进行处理操作,包括填写意见和转交给他人处理。 更多 > 处理日志 可查看历史处理记录。 父主题: 业务指标监控(待下线)
当前任务从源端进行读取最大线程数。 说明: 由于数据源限制,实际执行时并发的线程数可能小于等于此处配置的并发数,如CSS,ClickHouse数据源不支持多并发抽取。 1 是否写入脏数据 选择是否记录脏数据,默认不记录脏数据。 是 脏数据写入连接 当“是否写入脏数据”为“是”才显示该参数。 脏数据要写入的连接,目前只支持写入到OBS连接。
默认选择SQL脚本中设置的数据库,支持修改。 选择SQL语句时: DLI数据目录如果选择DLI默认的数据目录dli,表示为DLI的数据库和数据表。 DLI数据目录如果选择DLI所绑定的LakeFormation已创建元数据catalog,表示为LakeFormation的数据库和数据表。 DLI环境变量 否 环境变量配置项需要以"hoodie