检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
目的端为HDFS JSON样例 "to-config-values": { "configs": [ { "inputs": [ { "name": "toJobConfig
strings 空间id列表。 status String 状态。 created_by String 创建人。 updated_by String 修改人。 create_time String 创建时间。 update_time String 修改时间。 表6 Entity 参数 参数类型
sync_log String 同步运行日志, 格式为 字段同步信息+换行符。 create_time Long 策略创建时间。 create_user String 策略创建者。 update_time Long 策略更新时间。 update_user String 策略更新者。 schema_name
lock_check_endpoint String CBC锁定节点域名。 create_user String 创建用户。 create_time Number 创建时间点。 domain_id String 用户domain id。 is_trial_order Integer
String 前端展示名。 displayed_name_en 否 String 前端展示名英文。 create_by 否 String 创建人。 update_by 否 String 更新人。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 data data
CDM不同集群规格对应并发的作业数是多少? CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此
启用细粒度认证 在DataArts Studio数据开发组件执行脚本、测试运行作业时,数据源会使用数据连接上的账号进行认证鉴权。因此,即使已通过配置角色/权限集对用户进行权限管控,当用户在数据开发时,权限管控依然无法生效。 而在配置细粒度认证后,在DataArts Studio数
不支持数据类型转换规避指导 操作场景 CDM在配置字段映射时提示字段的数据类型不支持,要求删除该字段。如果需要使用该字段,可在源端作业配置中使用SQL语句对字段类型进行转换,转换成CDM支持的类型,达到迁移数据的目的。 操作步骤 修改CDM迁移作业,通过使用SQL语句的方式迁移。
CDM迁移作业的抽取并发数应该如何设置? CDM通过数据迁移作业,将源端数据迁移到目的端数据源中。其中,主要运行逻辑如下: 数据迁移作业提交运行后,CDM会根据作业配置中的“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源的作业分片维度有所不同,因此某
全量导出/导出/导入API 操作场景 数据服务支持全量导出/批量导出/导入API,可以快速复制或迁移现有的API。 约束限制 全量导出必须具备 Administrator或Tenant Administrator权限。 每个工作空间每分钟仅能全量导出一次,同时只能有一个全量导出任务执行。
传统周期调度 解释说明 周期调度作业支持设置调度周期符合条件的作业为依赖作业。设置依赖作业的操作详情请参考配置作业调度任务(批处理作业)章节。 例如周期调度作业A,可设置其依赖作业为作业B,如图1所示进行配置。则仅当其依赖的作业B在某段时间内所有实例运行完成、且不存在失败实例时,才开始执行作业A。
作业的计划时间和开始时间相差大,是什么原因? 问题描述 如图所示,在作业实例监控页面查看作业运行记录时,发现作业的计划时间和开始时间相差较大。其中计划时间是作业预期开始执行的时间,即用户为作业配置的调度计划。开始时间是作业实际开始执行的时间。 图1 问题示例图 可能原因 这是因为
移动作业/作业目录 您可以通过移动功能把作业文件或作业目录从当前目录移动到另一个目录。 前提条件 已完成作业开发。如何开发作业,请参见开发Pipeline作业。 操作步骤 参考访问DataArts Studio实例控制台,登录DataArts Studio管理控制台。 在DataArts
查看脚本引用 当您需要查看某个脚本或者某个文件夹下的所有脚本被引用的情况时,可以参考如下操作查看引用。 前提条件 已完成脚本开发,请参见开发脚本。 操作步骤 参考访问DataArts Studio实例控制台,登录DataArts Studio管理控制台。 在DataArts St
如何处理CDM从OBS迁移数据到DLI出现迁移中断失败的问题? 问题描述 CDM从OBS迁移数据到DLI出现迁移中断失败。 解决方案 此类作业问题表现为配置了脏数据写入,但并无脏数据。这种情况下需要调低并发任务数,即可避免此类问题。 父主题: 数据集成(CDM作业)
acle等传统数据库,支持程度各有不同,详情请参见表1。 如需对接这些数据源,请前往“DataArts Studio控制台 > 管理中心”创建数据连接。 DataArts Studio管理中心数据连接与数据集成数据连接相互独立,使用场景各有不同。 管理中心的数据连接用于对接数据湖底座,DataArts
值。 connection Connection object 数据连接。 create_time Number 创建时间。 created_by String 创建人。 display_text String 资产的名称。 guid String 资产guid。 relationship_attributes
TGRESQL、MRS_SPARK、CLICKHOUSE、MYSQL、ORACLE和DORIS等。 create_time String 创建时间,只读,格式遵循RFC3339,精确到秒,UTC时区,即yyyy-mm-ddTHH:MM:SSZ,如1970-01-01T00:00:00Z。
集群id(仅集群角色需要)。 cluster_name String 集群名称(仅集群角色需要)。 create_time Long 创建时间。 create_user String 创建者。 deadline Long 到期时间。 状态码: 400 表5 响应Body参数 参数 参数类型 描述 error_code
sync_msg String 同步信息。 sync_time Long 同步时间。 create_time Long 创建时间。 create_user String 创建者。 update_time Long 更新时间。 update_user String 更新者。 状态码: 400