正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
STATUS_TYPE_PENDING_CHECK:待确认 STATUS_TYPE_PENDING_EXECUTE:待执行 STATUS_TYPE_SYNCHRONOUS_EXECUTE:同步执行 STATUS_TYPE_FORCED_CANCEL:强制取消 STATUS_TYPE_PASSED:已通过
路径。 last_run_time 否 String 最后一次执行时间。 start_time 否 String 开始时间。 end_time 否 String 结束时间。 next_run_time 否 String 下一次执行时间。 duty_person 否 String 责任人。
STATUS_TYPE_PENDING_CHECK:待确认 STATUS_TYPE_PENDING_EXECUTE:待执行 STATUS_TYPE_SYNCHRONOUS_EXECUTE:同步执行 STATUS_TYPE_FORCED_CANCEL:强制取消 STATUS_TYPE_PASSED:已通过
STATUS_TYPE_PENDING_CHECK:待确认 STATUS_TYPE_PENDING_EXECUTE:待执行 STATUS_TYPE_SYNCHRONOUS_EXECUTE:同步执行 STATUS_TYPE_FORCED_CANCEL:强制取消 STATUS_TYPE_PASSED:已通过
Rest Client数据连接参数说明 表1 Rest Client连接 参数 是否必选 说明 数据连接类型 是 Rest Client连接固定选择为Rest Client。 数据连接名称 是 数据连接的名称,只能包含字母、数字、下划线和中划线,且长度不超过100个字符。 标签 否
权限操作列表。 表5 PermissionActions 参数 参数类型 描述 - String HIVE数据源支持权限操作类型: ALL - 所有执行权限 SELECT - 查询权限 UPDATE - 更新权限 CREATE - 创建权限 DROP - drop操作权限 ALTER - alter操作权限
String 路径。 last_run_time String 最后一次执行时间。 start_time String 开始时间。 end_time String 结束时间。 next_run_time String 下一次执行时间。 duty_person String 责任人。 update_type
Read:读权限 Write:写权限 Excute:执行权限 Hive Hive数据库、数据表、列的权限: Select:查询权限 Update:更新权限 Create:创建权限 Drop:drop操作权限 Alter:alter操作权限 All:所有执行权限 Temporary UDF Admin:临时UDF管理权限
access_type String 取数方式(已弃用)。 枚举值: SCRIPT:脚本方式 CONFIGURAITON:配置方式 pagination String 分页方式。 枚举值: DEFAULT:默认分页 CUSTOM:自定义分页 sql String 脚本模式下的SQL语句。
这个参数是必选的。用户可以通过查询连接列表(待下线)接口获取当前系统中已经存在的连接。默认值为空。 database 否 String 执行SQL语句所关联的数据库,当type参数值为DLISQL、SparkSQL、HiveSQL、DWSSQL、PRESTO、ClickHous
这个参数是必选的。用户可以通过查询连接列表(待下线)接口获取当前系统中已经存在的连接。默认值为空。 database 否 String 执行SQL语句所关联的数据库,当type参数值为DLISQL、SparkSQL、HiveSQL、DWSSQL、PRESTO、ClickHous
For Each节点主作业编排如图5所示。其中,For Each节点的关键配置如下: 数据集:数据集就是HIVE SQL节点的Select语句的执行结果。使用EL表达式#{Job.getNodeOutput("select95")},其中select95为前一个节点的名称。 子作业参数
For Each节点主作业编排如图5所示。其中,For Each节点的关键配置如下: 数据集:数据集就是HIVE SQL节点的Select语句的执行结果。使用EL表达式#{Job.getNodeOutput("select95")},其中select95为前一个节点的名称。 子作业参数
在“血缘”页签,可查看数据表的血缘关系,包括血缘和影响。如何配置数据血缘请参见通过数据目录查看数据血缘关系。数据开发作业配置了支持自动血缘的节点或手动配置节点的血缘关系后,作业执行时可以自动解析,在数据目录中展示数据血缘。 在“概要”页签,查看数据表的概要信息(当前仅支持DWS、DLI、OBS类型数据表查看概要,概要采样方式以元数据采集任务配置为准)。
用户可以通过图表的形式查看作业实例的统计数据,目前支持查看以下四种统计数据。 今日作业实例调度情况概览 近七天作业实例调度情况概览 近30天作业实例执行时长排行TOP 10:查看执行时间长的作业实例的详细运行记录。 近30天作业实例运行失败TOP 10:查看运行异常的作业实例的详细运行记录。 运维调度 配置管理
创建CDM与数据源之间的连接 操作场景 用户在创建数据迁移的任务前,需要先创建连接,让CDM集群能够读写数据源。一个迁移任务,需要建立两个连接,源连接和目的连接。不同的迁移方式(表或者文件迁移),哪些数据源支持导出(即作为源连接),哪些数据源支持导入(即作为目的连接),详情请参见支持的数据源。
String 自定义项英文名称。 not_null Boolean 是否必填。 optional_values String 可选值。当可选值有多个时,用分号分隔。 type String 自定义项类型。 枚举值: TABLE: 表自定义项 ATTRIBUTE: 属性自定义项 SUBJECT:
offset 否 Integer 偏移量,默认值:0。 attributes 否 Object key当前支持Table,value可为以下中的一个或多个:rowCounts、tableSize、database、schema、namespace、ddlUpdateTime、dataUpda
如果不同,您需要修改工作空间的企业项目。 创建DWS集群后,您需要在管理中心创建DWS连接,然后通过数据开发组件新建数据库、数据库模式,再执行SQL来创建DWS表。操作步骤如下: 参考访问DataArts Studio实例控制台,登录DataArts Studio管理控制台。 在DataArts
根据所选的调度周期,选择合理的调度间隔。调度间隔为距离上一次运行时间的间隔,手动同步也计入运行时间。 例如间隔为5分钟时,20:00开始调度,20:03手动执行,则下次调度时间为20:08分。 用户同步任务新建完成后,并不会直接运行。需要您手动同步或调度任务,任务同步成功后才能生效,详见同步或调度任务。