检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
accessed. 读取OBS文件失败。 请检查OBS文件。 400 DLF.1006 The job node is empty. 作业的节点为空。 请检查节点。 400 DLF.1242 The OBS bucket does not exist. OBS桶不存在。 请检查OBS桶。 400
String 父目录ID,没有则为根目录。ID字符串。 prev_id 否 String 上个节点ID,没有则为首节点。ID字符串。 next_id 否 String 下个节点ID,没有则为尾节点。ID字符串。 id 是 String 创建时传空,更新时必填。ID字符串。 qualified_id
String 父目录ID,没有则为根目录。ID字符串。 prev_id 否 String 上个节点ID,没有则为首节点。ID字符串。 next_id 否 String 下个节点ID,没有则为尾节点。ID字符串。 id 是 String 创建时传空,更新时必填。ID字符串。 qualified_id
程 通过CDM节点批量创建分表迁移作业 业务系统中,数据源往往会采用分表的形式,以减少单表大小,支持复杂的业务应用场景。在这种情况下,通过CDM进行数据集成时,需要针对每张表创建一个数据迁移作业。您可以参考本教程,通过数据开发模块的For Each节点和CDM节点,配合作业参数,实现批量创建分表迁移作业。
> 创建数据开发作业”(默认不勾选),发布表时,系统支持根据表的映射信息,在数据开发中自动创建一个ETL作业,每一个映射会生成一个ETL节点,作业名称以“数据库名称_表编码”开头。当前该功能处于内测阶段,仅支持DLI->DLI和DLI->DWS两种映射的作业创建。 已创建的ETL作业可以进入“数据开发
率与业务稳定性。 需要作为不同的用途或给多个业务部门使用。例如既需要用于数据迁移作业,又需要作为DataArts Studio管理中心连接代理时,建议各配置至少一个CDM集群。 待迁移任务库表较多,迁移量较大。此时可以使用多个CDM集群同时作业,提升迁移效率。 当前CDM集群的C
绑定Agent:需选择一个数据集成集群作为连接代理,该集群和MRS集群必须处于相同的区域、可用区、VPC和子网,并且安全组规则允许两者网络互通。本示例可选择创建DataArts Studio实例时自动创建的数据集成集群。 如需连接MRS 2.x版本的集群,请选择2.x版本的数据集成集群作为Agent代理。 用户名:
作业名称。 如果要查询指定批处理作业的实例列表,job_name就是批处理作业名称; 如果要查询实时作业下某个节点关联的子作业,job_name格式为[实时作业名称]_[节点名称]。 min_plan_time 否 Long 返回作业实例开始时间大于min_plan_time的作业
1000001, "max_score" : 1.0 }] 记录节点 记录数据的根节点。该节点对应的数据为JSON数组,CDM会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分隔。 从JSON文件复制数据 示例一 从行分隔/串连的多个对象中提取
实例”,查看ClickHouseServer所在的“业务IP”。 192.168.0.1 端口 配置为要连接的数据库的端口。 说明: 如果使用Server节点,开启“SSL加密”,配置默认端口。登录MRS ClickHouse数据源所在集群的Manager页面,选择“集群 > 服务 > ClickHouse
Y Y 编辑解决方案 Y Y N N N 查询IAM代理 Y Y Y Y Y 更新IAM代理 Y N N N N 操作环境变量 Y Y N N N 查询环境变量 Y Y N Y Y 编辑环境变量 Y Y N N N 操作作业节点 Y Y N Y N 查看发布包 Y Y Y Y Y
”。 在环境变量中已新增一个变量,“参数名”为“job”,“参数值”为“123”。 打开作业“test”,从左侧节点库中拖拽一个“Create OBS”节点。 在节点属性页签中配置属性。 图3 Create OBS 单击“保存”后,选择“前往监控”页面监控作业的运行情况。 父主题:
JSON文件中存储的JSON对象的类型,可以选择JSON对象或JSON数组。 JSON对象 记录节点 文件类型为JSON对象时支持此参数。 记录数据的根节点。该节点对应的数据为JSON数组,系统会以同一模式从该数组中提取数据。多层嵌套的JSON节点以字符“.”分割。 data.list 高级属性 使用rfc4180解析器
parent_id String 父目录ID,首层传null。ID字符串。 prev_id String 上个节点ID,首节点传null。ID字符串。 root_id String 根节点ID,根节点此ID为自身ID,只读。ID字符串。 qualified_name String 目录的资产名称,只读。
作业开发”。 在作业目录中选择需要的作业,右键单击作业名称,选择“前往监控”,进入作业监控界面。 图1 前往监控 在监控界面,可以查看该作业节点的日志信息、版本信息、对该作业执行调度、单击编辑或者作业名称进行作业开发界面修改作业信息等。 图2 作业监控界面 父主题: (可选)管理作业
创建集群 连接管理 连接管理实现的能力如下: 支持DLI、MRS Hive、Spark SQL、DWS、MySQL、主机等连接管理。 支持代理连接、直连、MRS API等连接方式。 创建连接 作业管理 作业管理可以实现在同构、异构数据源之间进行表或文件级别的数据迁移,支持表/文件迁移的数据源请参见支持的数据源。
为转换不合理而无法写入的数据。 作业(数据开发) 在数据开发中,作业由一个或多个节点组成,共同执行以完成对数据的一系列操作。 节点 节点用于定义对数据执行的操作。例如,使用“MRS Spark”节点可以实现在MRS中执行预先定义的Spark作业。 解决方案 解决方案定位于为用户提
parent_id String 父目录ID,首层传null。ID字符串。 prev_id String 上个节点ID,首节点传null。ID字符串。 root_id String 根节点ID,根节点此ID为自身ID,只读。ID字符串。 qualified_name String 目录的资产名称,只读。
这里以恢复“/hbase/data/default/table_20180811”表为例,恢复步骤如下: 进入MRS Client所在的节点,例如master1节点。 切换为omm用户。 su – omm 加载环境变量。 source /opt/client/bigdata_env 执行修改目录权限命令。
际启动时间-偏移量”。 table 导入模式 导入数据到DWS时,用户可以指定导入模式。 COPY模式,源数据经过管理节点后,复制到DWS的DataNode节点。 UPSERT模式,数据发生主键或唯一约束冲突时,更新除了主键和唯一约束列的其他列数据。 COPY_UPSERT模式,使用DWS专有的高性能批量入库工具。