检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
作业消息体的一部分,推荐使用该方式。 分组设置 否 当“资源类型”选择“DLI程序包”时,才需要配置该参数。 将Spark程序资源包上传到指定的分组中,主Jar包和依赖包会上传到同一个分组中。 已有分组:选择已有的分组 创建新分组:创建新的分组,分组名称只能包含英文字母、数字、点号、中划线和下划线。
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
Query参数 参数 是否必选 参数类型 描述 database_name 是 String 数据库名称。 table_name 否 String 指定查询表的名称。 limit 否 String 数据条数限制。 offset 否 String 偏移量。 请求参数 表3 请求Header参数
否 String 排序参数, CREATE_TIME, MEMBER_NAME。 order_by_asc 否 Boolean 是否升序(仅指定排序参数时有效)。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 workspace 是 String 工作空间I
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
表名称。 order_by 否 String 排序参数,UPDATE_TIME。 order_by_asc 否 Boolean 是否升序(仅指定排序参数时有效)。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 workspace 是 String 工作空间I
String 排序参数, CLUSTER_NAME, DATABASE_NAME。 order_by_asc 否 Boolean 是否升序(仅指定排序参数时有效)。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 workspace 是 String 工作空间I
String 排序参数, NAME,CREATE_TIME,UPDATE_TIME。 order_by_asc 否 Boolean 是否升序(仅指定排序参数时有效)。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 workspace 是 String 工作空间I
选择需要使用批量数据迁移增量包的工作空间。只有在关联了工作空间后,才能在此工作空间中使用创建的CDM集群。 企业项目 当关联了多个工作空间后,需要为CDM集群指定一个企业项目。 集群名称 自定义数据集成集群名称。 实例类型 目前数据集成集群支持以下部分规格供用户选择: cdm.large:大规格,8
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
UPDATE_TIME 按照更新时间排序 SYNC_TIME 按照同步时间排序 order_by_asc 否 Boolean 是否升序(仅指定排序参数时有效)。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 workspace 是 String 工作空间I
留了表的完整数据,造成数据的冗余。一般情况下只有较小的维度表才会定义为Replication表。 HASH:采用这种分布方式,需要为用户表指定一个分布列(distribute key)。当插入一条记录时,系统会根据分布列的值进行hash运算后,将数据存储在对应的DN中。对于Has
String 项目ID,获取方法请参见项目ID和账号ID。 表2 Query参数 参数 是否必选 参数类型 描述 tag 否 String 标签名,指定标签名称可以获取此标签对应技术资产的统计信息。 offset 否 Integer 分页参数,查询偏移量,默认查询所有。 limit 否 Integer
选择需要使用批量数据迁移增量包的工作空间。只有在关联了工作空间后,才能在此工作空间中使用创建的CDM集群。 企业项目 当关联了多个工作空间后,需要为CDM集群指定一个企业项目。 集群名称 自定义数据集成集群名称。 实例类型 目前数据集成集群支持以下部分规格供用户选择: cdm.large:8核CPU
Token、用户名密码两种认证鉴权方式的RESTful请求。 主机连接 通过主机连接,用户可以在DataArts Studio数据开发中连接到指定的主机,通过脚本开发和作业开发在主机上执行Shell或Python脚本。主机连接保存连接某个主机的连接信息,当主机的连接信息有变化时,只需
是否必选 参数类型 说明 type 是 String 调度类型。 EXECUTE_ONCE :作业立即运行,只运行一次。 CRON:作业按指定频率周期执行。 EVENT : 根据事件触发执行。 cron 否 数据结构 当type为CRON时,配置调度频率、启动时间等信息,参考表10。
String DISTRIBUTE BY [HASH(column)|REPLICATION]。 枚举值: HASH: 对指定的列进行Hash,通过映射,把数据分布到指定DN REPLICATION: 表的每一行存在所有数据节点(DN)中,即每个数据节点都有完整的表数据 distribute_column
点将被跳过。 此Demo中使用的EL表达式为“#{Job.getNodeStatus("node_name")}”,这个表达式的作用为获取指定节点的执行状态,成功状态返回success,失败状态返回fail。本例使用中,IF条件表达式分别为: 上面的A分支IF条件表达式为: #{(Job