检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SQL不支持),脚本独立执行时可通过编辑器下方配置,如图3所示;通过作业调度时可通过节点属性赋值,如图4所示。 Shell脚本可以配置参数和交互式参数以实现参数传递功能。 Python脚本可以配置参数和交互式参数以实现支持参数传递功能。 图3 独立执行时的脚本参数 图4 作业调度时的脚本参数 父主题:
Kafka - 上表中非云服务的数据源,例如MySQL,既可以支持用户本地数据中心自建的MySQL,也可以是用户在ECS上自建的MySQL,还可以是第三方云的MySQL服务。 整库迁移支持的数据源类型 整库迁移适用于将本地数据中心或在ECS上自建的数据库,同步到云上的数据库服务或大数据服务
查看资产总览 通过总览,可以查看资产总览及资产报告。 资产总览可展示业务资产、技术资产和指标资产的情况。 业务资产来自于数据架构组件中定义并发布过的逻辑实体与数据表,资产总览展示业务对象、逻辑实体、业务属性的数量及其详情。 技术资产来自于数据连接和元数据采集任务,资产总览展示数据库、数据表、数据量的数量及其详情。
Kafka连接时,源端作业参数如表1所示。 表1 Kafka作为源端时的作业参数 参数类型 参数 说明 取值样例 基本参数 Topics 支持单个或多个topic。 est1,est2 数据格式 解析数据时使用的格式: 二进制格式:适用于文件迁移场景,不解析数据内容原样传输。 CSV格式:以CSV格式解析源数据。
s/{id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 id 是 String 实体ID,ID字符串。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token
配置HDFS目的端参数 表1 HDFS作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 写入目录 写入数据到HDFS服务器的目录。 /user/cdm/output 文件格式 传输数据时使用的格式。其中CSV和JSON仅支持迁移到数据表场景,二进制格式适用于文件迁移场景。
n/models/statistic 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String
级别5是最高级别,专注于持续优化提升,已经步入卓越状态。 图1 数据治理成熟度级别分层 数据治理评分卡对各维度度量是按5分制进行评分,每一个度量细项只有得分0或得分1,如果满足度量细项要求得分1,否则得分0。 图2 数据治理评分卡数据执行维度度量评分计算范例 如上示例,针对流程7
is_primary_key Boolean 是否主键。 is_biz_primary Boolean 是否业务主键。 is_partition_key Boolean 是否分区。 ordinal Integer 序号。 not_null Boolean 是否不为空。 stand_row_id
is_primary_key Boolean 是否主键。 is_biz_primary Boolean 是否业务主键。 is_partition_key Boolean 是否分区。 ordinal Integer 序号。 not_null Boolean 是否不为空。 stand_row_id
"fromJobConfig" } ] } 参数说明 参数 是否必选 类型 说明 fromJobConfig.index 是 String 抽取数据的索引,类似关系数据库中的数据库名称。 fromJobConfig
is_primary_key Boolean 是否主键。 is_biz_primary Boolean 是否业务主键。 is_partition_key Boolean 是否分区。 ordinal Integer 序号。 not_null Boolean 是否不为空。 stand_row_id
产、销售等)或者实施环境(开发、测试、生产等),没有特定的划分要求。 随着业务的不断发展,您可能进行了更细致的工作空间划分。这种情况下,您可以参考本文档,将原有工作空间的数据(包含管理中心数据连接、数据集成连接和作业、数据架构表、数据开发脚本、数据开发作业、数据质量作业等),搬迁到新建的工作空间中。
Studio实例的规格请参见版本规格说明。 您可以在DataArts Studio实例卡片上,通过“更多 > 查看增量包”,查看已购买的增量包。 您可以在DataArts Studio实例卡片上,通过“更多 > 配额使用量”,查看当前实例的配额使用量。也支持可以在空间管理处,通过对应空间的“操作
/v1/{project_id}/metadata/async-bulk 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String
录为1,否则记录为0。如果某单元格为空,导入时系统会按0标记。 导入的文件大小最大支持10Mb。 如果导入的标签名有重复,且标签标识一个为0,一个为1,系统会按1处理。 如果导入的作业名有重复,系统会按后面一列来识别,标签标识按照该行来处理。 添加方式:支持追加和覆盖两种。 追加
路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,获取方法请参见项目ID和账号ID。 id 是 String 实体ID,ID字符串。 表2 Query参数 参数 是否必选 参数类型 描述 latest 否 Boolean 是否查询最新的。 请求参数
当前企业数据面临很多的问题:没有统一的数据标准,各业务系统间数据无法充分共享,关键核心数据无法识别及跨系统无法拉通等。为有效管理企业数据资产,实现数据价值的最大化,急需建立一个完善的数据治理框架体系,为企业数字化转型打下坚实的数据基础。 数据治理方法论是华为数据管理方法论的精华总结,参考了业界数据治理最佳实践,并
支持按表字段分片。 仅当配置“按表分区抽取”时,按表分区分片。 SAP HANA 支持按表字段分片。 不支持按表分区分片。 分库 每个后端连接一个子作业,子作业支持按主键分片。 NoSQL 分布式缓存服务(DCS) 不支持分片。 Redis 不支持分片。 文档数据库服务(DDS) 不支持分片。
海量的、分散在不同角落的数据导致了数据资源利用的复杂性和管理的高难度。企业无法从统一的业务视角去概览整个企业内部的数据信息。暴露出来的只是一个个独立的系统,系统与系统之间的关系、标准数据从哪里获取都无从知晓。 数据是企业争夺优质客户的关键 数据是企业的生命线,谁掌握了准确的数据谁