检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在作业开发页面,拖动1个Dummy节点、8个CDM Job节点、和2个Import GES节点到画布中,选中连线图标并拖动,编排图3所示的作业。 其中Dummy节点不执行任何操作,只作为起始点的标识。CDM Job节点用于调用在创建数据集成作业中创建的数据集成作业。Import GES节点用于将图数据导入GES。
Dummy: 空节点作业类型 location 是 Location数据结构 节点在作业画布上的位置,参考表6。 preNodeName 否 List<String> 本节点依赖的前面的节点名称列表。 conditions 否 List<Condition> 节点执行条件,如果配
高的场景。实时作业是由一个或多个节点组成的业务关系,每个节点可单独被配置调度策略,而且节点启动的任务可以永不下线。在实时作业里,带箭头的连线仅代表业务上的关系,而非任务执行流程,更不是数据流。 实时处理作业可以配置节点级别的调度任务,即每一个节点可以独立调度,具体请参见配置作业调度任务(实时作业)。
据开发作业job1。分别选择Dummy节点和DIS Client节点,选中连线图标并拖动,编排如图2所示的作业。 Dummy节点不执行任何操作,本例选择Dummy节点仅为演示操作,实际使用中您可以用其他作业节点替代。 DIS Client节点用于发送消息。您需要选择DIS所属Re
String OBS桶类型。 对象桶:OB。 并行文件系统:PFS。 说明: 桶类型分为对象桶和并行文件系统,对象桶过滤文件会比较慢,建议客户使用并行文件桶。 linkConfig.server 是 String OBS服务器的终端节点(Endpoint)。 linkConfig.port
前提条件 已完成数据开发作业的开发和调度配置。 配置作业节点失败重试 您可以通过关键业务作业中的节点配置,逐一开启节点失败重试;也可以通过批量作业配置,统一开启各作业中的节点失败重启。本章节以批量作业配置为例,为您介绍如果配置作业节点失败重试。 参考访问DataArts Studio实例控制台,登录DataArts
需要解压缩的文件的后缀名。 当一批文件中以该值为后缀时,才会执行解压缩操作,否则就保持原样传输。当输入"*"时或输入为空时,所有文件都会被解压。 tar.gz 文件分隔符 多文件列表时指定的文件分隔符。 | 启动作业标识文件 当源端路径下存在启动作业的标识文件时才启动任务,否则会挂起等待一段时间。
单击“新增”,可给作业重新添加一个标签。也可选择管理作业标签中已配置的标签。 节点状态轮询时间(秒) 设置轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 节点执行的最长时间 设置节点执行的超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将会再次重试。 失败重试 如果作业执行失败,可选择
是 Location数据结构 节点在作业画布上的位置,参考表7。 preNodeName 否 List<String> 本节点依赖的前面的节点名称列表。 conditions 否 List<Condition> 节点执行条件,如果配置此参数,本节点是否执行由condition的字
参数 说明 节点状态轮询时间 设置所选作业的所有节点轮询时间(1~60秒),每隔x秒查询一次节点是否执行完成。 如果设置为保持不变,则各节点保持原来的节点轮询时间。 节点执行的最长时间 设置所选作业的所有节点执行超时时间,如果节点配置了重试,在超时时间内未执行完成,该节点将会再次重试。
新建表/文件迁移作业 操作场景 CDM可以实现在同构、异构数据源之间进行表或文件级别的数据迁移,支持表/文件迁移的数据源请参见支持的数据源。 约束限制 记录脏数据功能依赖于OBS服务。 作业导入时,JSON文件大小不超过1MB。 单文件传输大小不超过1TB。 配置源端和目的端参数时,字段名不可包含&和%。
码表维度数据填充节点:为MRS Hive SQL节点,用于将付款方式、费率代码和供应商的集成数据写入DWR层相应的维度表中。其中,“SQL脚本”请选择在脚本开发中创建的脚本demo_taxi_dim_data。 图12 码表维度数据填充节点属性 等待节点:不做任何事情,等待前面的节点运行结束。
配额使用量”查看使用量。当您的每日作业节点调度的已使用次数+运行中次数+本日将运行次数之和达到该规格时,建议购买作业节点调度次数/天增量包,以避免作业调度受限。 技术资产数量增量包: 不同版本的DataArts Studio实例,提供了不同的技术资产数量规格限制。该规格是以数据目录中表和OBS文件的数量计算
选择MRS Spark SQL节点和For Each循环执行的节点,让CDM子作业循环执行,并配置节点属性参数。 配置MRS Spark SQL节点的属性参数,并关联已创建的脚本maxtime。 图3 配置MRS Spark SQL节点属性参数 配置For Each节点的属性参数,并关联已创建的CDM子作业。
重跑实例 task retryTask/restart(api) 节点暂停 task pauseJob 节点恢复 task resumeJob 节点手工重试 task redoJobs 节点跳过 task skipJob 节点强制成功 task forceJobSuccess 新建脚本
getNodeOutput(String nodeName) 获取指定节点的输出。此方法只能获取前面依赖节点的输出。 获取test节点输出。 #{Job.getNodeOutput("test")} 当前一节点执行无结果时,输出结果为“null”。 当前一节点的输出结果是一个字段时,输出结果形如[["00
[2] 作业节点调度次数/天:该规格是以每天执行的数据开发作业、质量作业、对账作业、业务场景和元数据采集作业的调度次数之和计算的,可以通过“作业节点调度次数/天增量包”进行扩容,如何购买请参考购买作业节点调度次数/天增量包。其中数据开发作业的每天调度次数,是以节点(包含Dumm
The OBS file fails to be accessed. 读取OBS文件失败。 请检查OBS文件。 400 DLF.1006 The job node is empty. 作业的节点为空。 请检查节点。 400 DLF.1242 The OBS bucket does not
自动存储在以“备份日期”命名的文件夹内。环境变量,资源,脚本和作业分别存储在1_env,2_resources,3_scripts和4_jobs文件夹内。 备份成功后,在以“备份日期”命名的文件夹内,自动生成backup.json文件,该文件按照节点类型存储了作业信息,支持恢复作业前进行修改。
在数据资产搜索结果中,类型名称末尾带“_node”的数据资产为节点,单击某一节点名称,可以查看节点的详情。在节点(需是支持血缘的节点类型)详情页面,可以查看节点的血缘信息。 单击血缘图中节点左右两端“+”、“-”图标,可以进一步展开查看血缘的上下链路。 单击血缘图中的某一个节点,可以查看该节点的详情。 进入“作业”页