检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
合理配置基线承诺时间和预警余量 本章节介绍如何合理的配置基线承诺时间和预警余量。 基线运维能够及时捕捉导致任务无法按时完成的异常情况并提前预警,保障复杂依赖场景下重要数据能在预期时间内顺利产出。 基线承诺时间是任务运行成功的最晚时间点。即面向数据应用,任务承诺在该时间点前完成。如
数据架构 码表和数据标准有什么关系? 关系建模和维度建模的区别? 数据架构支持哪些数据建模方法? 规范化的数据如何使用? 数据架构支持逆向数据库吗? 数据架构中的指标与数据质量的指标的区别? 为什么关系建模或维度建模修改字段后,数据库中表无变化? 表是否可配置生命周期管理?
单击“下一步”,进入“订阅配置”页面。 如果开启通知状态,需选择通知类型,并选择主题。通知类型有“触发告警”和“运行成功”两类,可根据实际业务场景选择。 单击“下一步”,进入“调度配置”页面。 调度方式分为“单次调度”和“周期调度”。单次统计选择“单次调度”即可。 单击“提交”,进入质量作业列表页面。 图5
传统周期调度依赖和自然周期调度依赖对比 数据开发当前支持两种调度依赖策略:传统周期调度依赖和自然周期调度依赖。 传统周期调度依赖,只支持同周期或者大周期依赖于小周期,不支持小周期依赖于大周期。详细说明如下: 同周期依赖,依赖时间段范围为从当前批次时间往前推一个周期。 跨周期依赖,依赖时间段范围为上一个周期时间段内。
强的关键字,可以帮助您对资产进行分类和描述,以便于检索。 为方便管理技术资产,可以从业务角度定义标签,并与技术资产关联,比如标识某个表是SDI贴源数据层、DWI数据整合层等。 标签和分类 “标签”是相关性很强的关键字,帮助用户对资产进行分类和描述,以便于检索。 “分类”是指按照种
引用脚本模板和参数模板的使用介绍 使用场景 该功能适用于以下场景: Flink SQL脚本可以引用脚本模板。 在pipeline作业开发中,MRS Flink Job节点可以使用引入了脚本模板的Flink SQL脚本,同时在MRS Flink Job节点的“运行程序参数”里面可以引用参数模板。
作业的计划时间和开始时间相差大,是什么原因? 问题描述 如图所示,在作业实例监控页面查看作业运行记录时,发现作业的计划时间和开始时间相差较大。其中计划时间是作业预期开始执行的时间,即用户为作业配置的调度计划。开始时间是作业实际开始执行的时间。 图1 问题示例图 可能原因 这是因为
咨询与计费 区域和可用区如何选择? 数据库、数据仓库、数据湖与华为智能数据湖方案是什么,有哪些区别和联系? DataArts Studio和沃土是什么关系? DataArts Studio和ROMA有什么差异? DataArts Studio是否支持私有化部署到本地或私有云? 如何在IAM中创建细粒度权限策略?
查询敏感数据发现概览结果(以分类和密级为单位) 功能介绍 查询敏感数据发现概览结果(以分类和密级为单位)。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/security/sensitive-data/result/overview 表1 路径参数
车联网大数搬迁入湖简介场景介绍 场景描述 为搭建H公司车联网业务集团级的云管理平台,统一管理、部署硬件资源和通用类软件资源,实现IT应用全面服务化、云化,CDM(Cloud Data Migration,简称CDM)助力H公司做到代码“0”改动、数据“0”丢失迁移上云。 约束限制
Oracle数据源如何开通归档日志、查询权限和日志解析权限? 问题描述 Oracle数据源默认权限无法正常执行实时处理集成作业。 原因分析 Oracle库需要开启归档日志,归档日志建议至少保留三天。 Oracle表没有表查询权限和日志解析权限。 解决方案 开启归档日志。 以sysdba身份登录Oracle数据库。
如何解决HANA集群只有部分节点和CDM集群网络互通? 问题描述 HANA集群只有部分节点和CDM集群网络互通,怎么办? 解决方案 如果HANA集群只有部分节点和CDM网络互通,为确保CDM正常连接HANA集群,则需要进行如下配置: 关闭HANA集群的Statement Rout
参数说明 表1 URI参数说明 参数名 是否必选 参数类型 说明 project_id 是 String 项目编号,获取方法请参见项目ID和账号ID。 job_name 是 String 作业名称。 instance_id 是 Long 作业实例ID, 获取方法请参见查询作业实例列表
说明 *所属主题 单击“选择主题”,选择表所属的主题域分组、主题域和业务对象。 *表名称 设置表名称。只允许除\、<、>、%、"、'、;及换行符以外的字符。 *表英文名称 设置表英文名称。只能包含英文字母、数字和下划线,且以dws_开头。 *资产责任人 在下拉框中选择资产责任人,
Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因? 可能原因 Hive SQL和Spark SQL脚本执行失败,界面只显示执行失败,没有显示具体的错误原因,可能是由于连接方式导致的。 解决方案 请确认当前Hive SQL和Spark SQL脚本使用的数据连接为“MRS
库需要开启归档日志,归档日志建议至少保留三天,开通归档日志详情请参考Oracle数据源如何开通归档日志、查询权限和日志解析权限?。 Oracle 需表查询权限和日志解析权限,开通对应权限详情请参考Oracle数据源如何开通归档日志、查询权限和日志解析权限?。 整库场景 源端配置。 添加数据源,选择需要迁移的Oracle表。
库需要开启归档日志,归档日志建议至少保留三天,开通归档日志详情请参考Oracle数据源如何开通归档日志、查询权限和日志解析权限?。 Oracle 需表查询权限和日志解析权限,开通对应权限详情请参考Oracle数据源如何开通归档日志、查询权限和日志解析权限?。 整库场景 源端配置。 添加数据源,选择需要迁移的Oracle表。
配置目标端参数 源库表和目标匹配策略: 目标端库名:自定义目标端库名。 表匹配策略:默认为与源端逻辑表同名,不可更改。 写入模式:选择数据写入模式。 UPSERT为批量更新入库模式,COPY为DWS专有的高性能批量入库模式。 批写最大数据量:根据表数据大小和作业内存使用,适当调整,数据范围1-10000000。
逻辑表预览 目标端配置。 源库表和目标匹配策略: 目标端库名:自定义目标端库名。 表匹配策略:默认为与源端逻辑表同名,不可更改。 写入模式:选择数据写入模式。 UPSERT为批量更新入库模式,COPY为DWS专有的高性能批量入库模式。 批写最大数据量:根据表数据大小和作业内存使用,适当调整,数据范围1-10000000。
DDL支持新增列。 Hudi目的端配置。 支持配置源端与目的端库名与表名映射的规则,方便用户对Hudi库名表名做重命名。 同时迁移Hudi表到HDFS和OBS。 支持对Hudi的自动建表。 支持用户为Hudi表添加简单的附加字段。 支持用户配置Hudi表的分区信息,包括定义“无分区”“时间分区”“自定义分区”Hudi表。