检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
配置完成后保存作业。 测试运行主作业 单击主作业EL_test_master画布上方的“测试运行”按钮,测试作业运行情况。主作业运行后,会通过For Each节点循环调用运行子作业EL_test_slave。 单击左侧导航栏中的“实例监控”,进入实例监控中查看作业运行结果。 待作业运行完
/etc/hosts,可以列出所有节点的IP和域名。 测试网络连接。 在DataArts Studio工作空间下创建数据连接,并创建实时集成作业,选择对应数据连接和资源组进行连通性测试,详情请参考创建实时集成作业。 父主题: 数据库部署在本地IDC
组规则端口配置。 测试网络连接。 在DataArts Studio工作空间下创建数据连接,并创建实时集成作业,选择对应数据连接和资源组进行连通性测试,详情请参考创建实时集成作业。 父主题: 数据库部署在本地IDC
群并发执行作业。 注意事项 当迁移动作影响到客户的HDFS集群时,需要手动停止作业。 如果作业出现大批量的失败: 先检查DES盒子是否被写满。如果写满,需要清除最近写入的目录,保证后面写入的数据都是完整的。 再检查网络是否连通。 检查客户的HDFS集群。检查是否有指标异常的现象,如果有,则需要暂停迁移任务。
ATOMIC_INDEX: 原子指标 ATOMIC_METRIC: 原子指标(新) BIZ_CATALOG: 流程架构目录 BIZ_METRIC: 业务指标 CODE_TABLE: 码表 COMMON_CONDITION: 通用限定 COMPOSITE_METRIC: 复合指标(新) COMPOUND_METRIC:
/etc/hosts,可以列出所有节点的IP和域名。 测试网络连接。 在DataArts Studio工作空间下创建数据连接,并创建实时集成作业,选择对应数据连接和资源组进行连通性测试,详情请参考创建实时集成作业。 父主题: 数据库部署在其他云
CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 说明: 不同源端数据源的作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片的情况。
配置完成后保存作业。 测试运行主作业 单击主作业EL_test_master画布上方的“测试运行”按钮,测试作业运行情况。主作业运行后,会通过For Each节点循环调用运行子作业EL_test_slave。 单击左侧导航栏中的“实例监控”,进入实例监控中查看作业运行结果。 待作业运行完
迁移。 CDM与OMS的区别: OMS用于入云迁移,支持以下源端云服务商:亚马逊云、阿里云、微软云、百度云、青云、七牛云、腾讯云。 CDM主要用于OBS数据迁移到数据湖或其他大数据系统,以便对数据进行开发、清洗、治理等。同时,整桶迁移建议使用OMS。 什么是对象存储迁移服务(OMS)?
标准)、BIZ_METRIC(业务指标)、COMPOUND_METRIC(复合指标)、SUBJECT(主题)、ATOMIC_METRIC(原子指标(新))、DERIVED_METRIC(衍生指标(新))、COMPOSITE_METRIC(复合指标(新))。 请求参数 表3 请求Header参数
流程架构接口 数据标准模板接口 审批管理接口 主题管理接口 主题层级接口 目录管理 原子指标接口 衍生指标接口 复合指标接口 维度接口 限定接口 维度表接口 事实表接口 汇总表接口 业务指标接口 版本信息接口 关系建模接口 导入导出接口 自定义项接口 标签接口 质量规则接口
ATOMIC_INDEX: 原子指标 ATOMIC_METRIC: 原子指标(新) BIZ_CATALOG: 流程架构目录 BIZ_METRIC: 业务指标 CODE_TABLE: 码表 COMMON_CONDITION: 通用限定 COMPOSITE_METRIC: 复合指标(新) COMPOUND_METRIC:
消息体中的数据是一条类似CSV格式的记录,可以支持多种分隔符。不支持二进制格式或其他格式的消息内容解析。 作业中源连接为DIS连接时,源端作业参数如所表1示。 表1 DIS作为源端时的作业参数 参数类型 参数 说明 取值样例 基本参数 DIS通道 DIS的通道名。 dis 是否持久运行
/etc/hosts,可以列出所有节点的IP和域名。 测试网络连接。 在DataArts Studio工作空间下创建数据连接,并创建实时集成作业,选择对应数据连接和资源组进行连通性测试,详情请参考创建实时集成作业。 父主题: 数据库部署在本地IDC
数据开发可以创建多少个作业,作业中的节点数是否有限制? DataArts Studio支持自定义的Python脚本吗? 作业关联的CDM集群删除后,如何快速修复? 作业的计划时间和开始时间相差大,是什么原因? 相互依赖的几个作业,调度过程中某个作业执行失败,是否会影响后续作业?这时该如何处理?
ATOMIC_INDEX: 原子指标 ATOMIC_METRIC: 原子指标(新) BIZ_CATALOG: 流程架构目录 BIZ_METRIC: 业务指标 CODE_TABLE: 码表 COMMON_CONDITION: 通用限定 COMPOSITE_METRIC: 复合指标(新) COMPOUND_METRIC:
管理中心”创建数据连接。 数据集成组件中集成作业支持的数据源与其他组件数据源情况维度不同,因此在数据集成章节内呈现,不在本章节内进行说明。当前集成作业包含CDM作业、离线作业和实时作业三种场景,支持的数据源情况如下: 数据集成(CDM作业)的数据连接在CDM集群中创建,CDM集成作业支持的数据源与CDM
发布作业任务 在企业模式中,开发者提交作业版本后,系统会对应产生一个作业类型的发布任务。开发者确认发布后,待拥有管理员、部署者、DAYU Administrator、Tenant Administrator权限的用户审批通过,然后将修改后的作业同步到生产环境。 管理员导入作业时,选择导入提交态,会生成对应的待发布项。
Studio生成的血缘关系图如图1所示,为数据表对象,为作业节点对象,通过对象和箭头的编排表示血缘信息。从血缘关系图中可以看到,wk_02表数据是由wk_01表数据经过hive_1作业节点加工而生成的,wk_02表数据经由hive_2作业节点加工又分别生成了wk_03、wk_04和wk_05的表数据。
所有文件都会被解压。 * 启动作业标识文件 选择是否开启作业标识文件的功能。当源端路径下存在启动作业的标识文件时才启动作业,否则会挂起等待一段时间,等待时长在下方“等待时间”中配置。 否 标识文件名 选择开启作业标识文件的功能时,需要指定启动作业的标识文件名。指定文件后,只有在