检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. quality_id
责任人。 parent_id String 父目录ID,没有则为根目录,ID字符串。 swap_order_id String 同层排序,目标节点的ID,ID字符串。 id String 主题ID,ID字符串。 qualified_id String 认证ID,自动生成。 from_public
strings 复合指标名称信息。 cal_fn_ids Array of strings 引用函数ID,ID字符串。 cal_exp String 计算表达式,复合指标类型为“表达式”时必填。形如${index_id} + ${compound#index_id},其中index_id代表
原子指标英文名。 description String 描述。 create_by String 创建人。 cal_exp String 计算表达式,形如'sum(${fact_column_id})',其中fact_column_id表示引用事实表中的字段ID。 cal_fn_ids
责任人。 parent_id String 父目录ID,没有则为根目录,ID字符串。 swap_order_id String 同层排序,目标节点的ID,ID字符串。 id String 主题ID,ID字符串。 qualified_id String 认证ID,自动生成。 from_public
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. quality_id
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. alias
strings 复合指标名称信息。 cal_fn_ids Array of strings 引用函数ID,ID字符串。 cal_exp String 计算表达式,复合指标类型为“表达式”时必填。形如${index_id} + ${compound#index_id},其中index_id代表
Array of DatasourceOrderPara objects 排序参数。 total_size_sql 否 String 总条数计算脚本SQL。 表6 RequestPara 参数 是否必选 参数类型 描述 name 否 String 参数名。 position 否 String
动态修改任务配置 Migration实时集成任务拥有断点续传能力,支持用户通过“暂停 > 恢复”的方式动态加减表、修改任务配置、资源参数等,便于用户根据自身需求调整作业。 前提条件 实时集成作业正在运行中。 操作步骤 暂停运行中的实时集成作业。 方式一: 登录DataArts S
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. compression
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. compression
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column 否 String DISTRIBUTE BY HASH column. alias
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. alias
guid String 资产同步后的guid,只读。 definition String 指标定义。 expression String 计算公式。 remark String 备注。 approval_info ApprovalVO object 审批信息,只读参数。业务对象最
SQL脚本的运行程序参数,除了在SQL脚本中参考语句“set hive.exec.parallel=true;”配置参数,也可以在对应作业节点属性的“运行程序参数”中配置该参数。 图1 运行程序参数 支持设置脚本责任人 单击编辑器右侧的“脚本基本信息”,可设置脚本的责任人和描述信息。
field_id。 field_names 否 Array of strings 字段名称信息,格式:表名称.字段名称。 cal_exp 是 String 计算表达式,形如'${table_id.column_id} > 1',其中table_id表示引用字段所属表ID,column_id表示引用字段ID。
数据治理组织架构框架 数据治理可以采用集中化(全时投入)和虚拟化(部分投入)混合的组织模式。结合具备专业技能的专职数据治理人员和熟悉业务和IT系统的已有人员,在运作上实现数据治理团队的快速构建和能力导入,捆绑业务、IT开发和数据团队利用已有人员熟悉度快速切入重点工作。 在工作内容和责任上具体到三层的工作组织:
枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column String DISTRIBUTE BY HASH column. is_partition
数据治理实施方法论 数据治理实施方法论按照数据治理成熟度评估->评估现状、确定目标、分析差距->计划制定、计划执行->持续监测度量演进的关键实施方法形成数据治理实施闭环流程。 图1 数据治理实施方法论 这也遵循了PDCA(Plan-Do-Check-Action)循环的科学程序,