检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
参数名 说明 取值样例 索引 待写入数据的Elasticsearch的索引,类似关系数据库中的数据库名称。CDM支持自动创建索引和类型,索引和类型名称只能全部小写,不能有大写。 index 类型 待写入数据的Elasticsearch的类型,类似关系数据库中的表名称。类型名称只能全部小写,不能有大写。
导入导出接口 导出资源 获取导入导出的任务状态 下载资源任务文件 上传导入的文件接口 导入资源 父主题: 数据质量API
源端作业参数说明 源端为关系数据库 源端为对象存储 源端为HDFS 源端为Hive 源端为HBase/CloudTable 源端为FTP/SFTP 源端为HTTP/HTTPS 源端为MongoDB/DDS 源端为Redis 源端为DIS 源端为Kafka 源端为Elasticsearch/云搜索服务
Studio。 数据源准备 本入门示例以某电商商城的BI报表数据为例,分析用户和商品的各种数据特征。 为方便演示,本示例提供了用于模拟原始数据的部分数据。为了方便将源数据集成到云上,我们需要先将样例数据存储为CSV文件,将CSV文件上传至OBS服务中。 创建CSV文件(UTF-8无
method String 规则方式, REGULAR, NONE, DEFAULT content_expression String 内容表达式。 column_expression String 列表达式。 commit_expression String 备注表达式。 project_id
0 是否写入脏数据 选择是否记录脏数据,默认不记录脏数据,当脏数据过多时,会影响同步任务的整体同步速度。 否:默认为否,不记录脏数据。 表示不允许脏数据存在。如果同步过程中产生脏数据,任务将失败退出。 是:允许脏数据,即任务产生脏数据时不影响任务执行。 允许脏数据并设置其阈值时:
Studio管理控制台。 在DataArts Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 脚本开发”或“数据开发 > 作业开发”。 在左侧目录上方,单击解决方案图标,显示解决方案目录。 单击解决方
method String 规则方式, REGULAR, NONE, DEFAULT content_expression String 内容表达式。 column_expression String 列表达式。 commit_expression String 备注表达式。 project_id
Studio控制台首页,选择对应工作空间的“数据开发”模块,进入数据开发页面。 在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 选择“作业标签”,进入“作业标签管理”页面。 单击“新建”,配置作业名称,确认后完成新建。 作业标签最多支持创建100个。 删除作业标签 在数据开发主界面的左侧导航栏,选择“配置管理
String 规则方式, REGULAR, NONE, DEFAULT, COMBINE content_expression 否 String 内容表达式;只有当rule_type为CUSTOM且method为REGULAR时才必需要此参数。 column_expression 否 String
method String 规则方式, REGULAR, NONE, DEFAULT content_expression String 内容表达式。 column_expression String 列表达式。 commit_expression String 备注表达式。 project_id
参数类型 说明 workspace 否 String 工作空间id。 如果不设置该参数,默认查询default工作空间下的数据。 如果需要查询其他工作空间的数据,需要带上该消息头。 响应参数 表3 Resource参数说明 参数名 是否必选 参数类型 说明 name 是 String
如何查看套餐包的剩余时长? 套餐包的剩余时长需要在官网查询。 您可以进入华为云官网,在用户名下拉列表中选择“费用中心”,然后进入“订单管理 - 续费管理”查看对应套餐包的剩余时长。 父主题: 咨询与计费
记录数据迁移入库时间 CDM在创建表/文件迁移的作业,支持连接器源端为关系型数据库时,在表字段映射中使用时间宏变量增加入库时间字段,用以记录关系型数据库的入库时间等用途。 前提条件 已创建连接器源端为关系型数据库,以及目的端数据连接。 目的端数据表中已有时间日期字段或时间戳字段。
HBase或者CloudTable导出数据时,源端作业参数如表1所示。 CloudTable或HBase作为源端时,CDM会读取表的首行数据作为字段列表样例,如果首行数据未包含该表的所有字段,用户需要自己手工添加字段。 由于HBase的无Schema技术特点,CDM无法获知数据类型,如果数据内容是使用二进制格式存储的,CDM会无法解析。
批量导出可将需要导出的作业导出保存为JSON文件,用于备份或导入到别的集群中。 由于安全原因,CDM导出作业时没有导出连接密码,连接密码全部使用“Add password here”替换。 批量导入作业 单击“导入”,选择JSON格式的文件导入或文本导入。 文件导入:待导入的作业文件必须为JSON格式(
method String 规则方式, REGULAR, NONE, DEFAULT content_expression String 内容表达式。 column_expression String 列表达式。 commit_expression String 备注表达式。 project_id
SparkPython content 是 String 脚本内容,最大支持64KB。 directory 否 String 脚本所在目录路径。 通过DataArts Studio管理控制台 > 数据开发,左侧列表选择“数据开发 > 脚本开发”。在脚本的目录树上,可以查看到当前已经创建的目录,默认在根目录/。
submission-id Integer 作业提交id。 delete_rows Integer 删除数据行数。 update_rows Integer 更新数据行数。 write_rows Integer 写入数据行数。 execute-date Long 执行时间。 status String 作业状态:
submission-id Integer 作业提交id。 delete_rows Integer 删除数据行数。 update_rows Integer 更新数据行数。 write_rows Integer 写入数据行数。 execute-date Long 执行时间。 status String 作业状态: