检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
*JSON消息体中一般只需要替换连接名、导入和导出的表名、导入导出表的字段列表、源表中用于分区的字段。**/ String json = "{\r\n"+ "\"jobs\": [\r\n"+ "{\r\n"+ "\"from-connector-name\": \"generic-jdbc-connector\"
ken的值)。 表3 请求Body参数 参数 是否必选 参数类型 描述 start 是 Object 集群启动操作,定义集群启动标识,为空对象。 响应参数 状态码: 200 表4 响应Body参数 参数 参数类型 描述 jobId Array of strings 作业ID。 请求示例
配置过大或过小,可能影响作业的时长。 10000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 1000 连接属性 自定义连接属性。可选参数,单击“添加”可增加
参数 参数类型 描述 total Integer 总量。 records Array of CatalogVO objects 查询到的审批单对象(CatalogVO)数组。 表7 CatalogVO 参数 参数类型 描述 name_ch String 中文名称。 name_en String
name_ch 是 String 中文名称。 name_en 是 String 英文名称。 description 否 String 描述信息,业务对象必填。 alias 否 String 别名。 data_owner 否 String 数据owner部门。 data_owner_list
场景说明 本案例基于某电影网站的用户和评分数据,使用DataArts Studio将MySQL原始数据处理为标准点数据集和边数据集,并同步到OBS和MRS Hive中,然后通过Import GES节点自动生成元数据后,将图数据导入到GES服务中。 图1 业务场景说明 需要额外说明的是
Migration自动建表时,源库中char、varchar、nvarchar、enum、set字符类型长度在目标库会按照字节长自动扩大(因为DWS目标库为字节长)。 操作步骤 本小节以PostgreSQL到DWS的实时同步为示例,介绍如何配置Migration实时集成作业。配置作业前请务必阅读使用前自检概览, 确认已做好所有准备工作。
项目ID,获取方法请参见项目ID和账号ID。 表2 Query参数 参数 是否必选 参数类型 描述 action-id 是 String 需要执行的动作,根据导入的对象不同而选择不同的导入动作。 枚举值: import_relation: 导入关系模型:逻辑实体/物理表 import_dimension:
name String 脏数据OBS路径。 description String 工作空间描述。 eps_id String 企业项目ID,获取方法请参见项目ID和账号ID。 job_log_location_name String 作业日志OBS路径。 name String 工作空间名称。
name String 脏数据OBS路径。 description String 工作空间描述。 eps_id String 企业项目ID,获取方法请参见项目ID和账号ID。 job_log_location_name String 作业日志OBS路径。 name String 工作空间名称。
请求服务器返回指定资源。 PUT 请求服务器更新指定资源。 POST 请求服务器新增资源或执行特殊操作。 DELETE 请求服务器删除指定资源,如删除对象等。 HEAD 请求服务器资源头部。 PATCH 请求服务器更新资源的部分内容。 当资源不存在的时候,PATCH可能会去创建一个新的资源。
Storm的Topology权限: Submit Topology:提交拓扑 File Upload:上传文件 File DownLoad:下载文件 Kill Topology:删除拓扑 Rebalance:Rebalance权限 Activate:激活权限 Deactivate:去激活权限
作业id node_name 否 String 算子名称 table_lineage 否 TableLineageV2 object 血缘对象 表4 TableLineageV2 参数 是否必选 参数类型 描述 input_tables 是 Array of TableInfoV2
不支持源数据库Microsoft SQL Server为TLS 1.0、TLS 1.1协议的同步,如果需要同步,建议源库升级到TLS 1.2及以上版本。 操作步骤 本小节以Microsoft SQL Server到MRS Hudi的实时同步为示例,介绍如何配置Migration实时集成作业。配置作业前请务必阅读使用前自检概览,
密码,不能为PDB用户名和密码,因为Oracle日志统一在存储在CDB库中,同时Oracle logminer只能运行在CDB库中。 操作步骤 本小节以Oracle到MRS Hudi的实时同步为示例,介绍如何配置Migration实时集成作业。配置作业前请务必阅读使用前自检概览,
务失败。 目标数据库多的列要求非空且没有默认值,源数据库insert数据,同步到目标数据库后多的列为null,不符合目标数据库要求。 操作步骤 本小节以RDS for MySQL到MRS Hudi的实时同步为示例,介绍如何配置Migration实时集成作业。配置作业前请务必阅读使用前自检概览,
关联数据标准 如果您已创建数据标准,在“数据标准”列,单击按钮可以选择一个数据标准与字段相关联。在“配置中心 > 功能配置”页面中的“模型设计业务流程步骤 > 创建质量作业”勾选的情况下,将字段关联数据标准后,表发布上线后,就会自动生成一个质量作业,每个关联了数据标准的字段会生成一个质量规则
参数类型 描述 total Integer 总量。 records Array of ApproverVO objects 查询到的审批人对象(ApproverVO)数组。 表7 ApproverVO 参数 参数类型 描述 id String 审批单ID,ID字符串。 approver_name
果配置过大或过小,可能影响作业的时长。 1000 单次提交行数 可选参数,单击“显示高级属性”后显示。 指定每次批量提交的行数,根据数据目的端和作业数据规模的大小配置该参数。如果配置过大或过小,可能影响作业的时长。 10000 SSL加密 可选参数,控制是否通过SSL加密方式连接
约束与限制 CDM系统级限制和约束 DataArts Studio实例赠送的数据集成集群,由于规格限制,仅用于测试业务、数据连接代理场景。 用于运行数据迁移作业的其他规格CDM集群可以在DataArts Studio控制台以增量包的形式购买,也可以在云数据迁移CDM服务控制台直接购买。二者差异体现在如下方面: