已找到以下 140 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    ManagerIP地址,可以单击输入框后“选择”来选定已创建MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS

  • OBS数据迁移到云搜索服务 - 云数据迁移 CDM

    新建作业”,开始创建从OBS导出数据到云搜索服务任务。 图6 创建OBS到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建OBS连接中“obslink”。 桶名:待迁移数据桶。 源目录或文件:待迁移数据路径,也可以迁移桶下所有目录、文件。 文

  • OBS数据迁移到云搜索服务 - 云数据迁移 CDM

    新建作业”,开始创建从OBS导出数据到云搜索服务任务。 图6 创建OBS到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建OBS连接中“obslink”。 桶名:待迁移数据桶。 源目录或文件:待迁移数据路径,也可以迁移桶下所有目录、文件。 文

  • 新建Hadoop集群配置 - 云数据迁移 CDM

    集群配置名:根据连接数据源类型,用户可自定义便于记忆、区分集群配置名。 上传集群配置:单击“添加文件”以选择本地集群配置文件,然后通过操作框右侧“上传文件”进行上传。 Principal:仅安全模式集群需要填写该参数。Principal即Kerberos安全模式下用户名,需要与Keytab文件保持一致。

  • MRS HDFS数据迁移到OBS - 云数据迁移 CDM

    ManagerIP地址,可以单击输入框后“选择”来选定已创建MRS集群,CDM会自动填充下面的鉴权参数。 用户名:选择KERBEROS鉴权时,需要配置MRS Manager用户名和密码。 从HDFS导出目录时,如果需要创建快照,这里配置用户需要HDFS系统管理员权限。 密码:访问MRS

  • Oracle数据迁移到云搜索服务 - 云数据迁移 CDM

    索服务任务。 图4 创建Oracle到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中“oracle_link”。 模式或表空间:待迁移数据数据库名称。 表名:待迁移数据表名。 高级属性里可选参数一般情况下保持默认即可。

  • Oracle数据迁移到云搜索服务 - 云数据迁移 CDM

    索服务任务。 图4 创建Oracle到云搜索服务迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中“oracle_link”。 模式或表空间:待迁移数据数据库名称。 表名:待迁移数据表名。 高级属性里可选参数一般情况下保持默认即可。

  • 源端为对象存储 - 云数据迁移 CDM

    CDM会将CSV文件第一行数据作为标题行,不写入目的端表。 fromJobConfig.fromCompression 否 枚举 压缩格式,当文件格式为“CSV_FILE”或“JSON”时此参数有效。选择对应压缩格式源文件: NONE:表示传输所有格式文件。 GZIP:表示只传输GZIP格式的文件。

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 dwslink 数据库服务器 DWS数据库IP地址或域名。 192.168.0.3 端口 DWS数据库端口。 8000 数据库名称 DWS数据库名称。 db_demo 用户名 拥有DWS数据库读、写和删除权限用户。 dbadmin 密码 用户密码。

  • MySQL数据迁移到DWS - 云数据迁移 CDM

    输入便于记忆和区分连接名称。 dwslink 数据库服务器 DWS数据库IP地址或域名。 192.168.0.3 端口 DWS数据库端口。 8000 数据库名称 DWS数据库名称。 db_demo 用户名 拥有DWS数据库读、写和删除权限用户。 dbadmin 密码 用户密码。

  • Oracle数据迁移到DWS - 云数据迁移 CDM

    到DWS任务。 图4 创建Oracle到DWS迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中“oracle_link”。 模式或表空间:待迁移数据数据库名称。 表名:待迁移数据表名。 高级属性里可选参数一般情况下保持默认即可。

  • Oracle数据迁移到DWS - 云数据迁移 CDM

    到DWS任务。 图4 创建Oracle到DWS迁移任务 作业名称:用户自定义便于记忆、区分任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中“oracle_link”。 模式或表空间:待迁移数据数据库名称。 表名:待迁移数据表名。 高级属性里可选参数一般情况下保持默认即可。

  • 错误码 - 云数据迁移 CDM

    必须指定MongoDB服务数据库名称。 未指定MongoDB服务数据库名称。 未指定MongoDB服务数据库名称,请指定数据库后,再重试。 Cdm.1307 400 必须指定MongoDB服务字段列表。 未指定MongoDB服务字段列表。 未指定MongoDB服务字段列表,请指定字段列表后,再重试。

  • 配置FTP/SFTP源端参数 - 云数据迁移 CDM

    标识文件名 选择开启作业标识文件功能时,需要指定启动作业标识文件名。指定文件后,只有在源端路径下存在该文件情况下才会运行任务。该文件本身不会被迁移。 ok.txt 等待时间 选择开启作业标识文件功能时,如果源路径下不存在启动作业标识文件,作业挂机等待时长,当超时后任务会失败。

  • 通过数据开发实现数据增量迁移 - 云数据迁移 CDM

    Studio服务DLF组件提供了一站式大数据协同开发平台,借助DLF在线脚本编辑、周期调度CDM迁移作业,也可以实现增量数据迁移。 这里以DWS导入到OBS为例,介绍DLF配合CDM实现增量迁移流程: 获取CDM作业JSON 修改JSON 创建DLF作业 获取CDM作业JSON

  • 配置OBS源端参数 - 云数据迁移 CDM

    压缩格式 选择对应压缩格式源文件: 无:表示传输所有格式文件。 GZIP:表示只传输GZIP格式文件。 ZIP:表示只传输ZIP格式文件。 TAR.GZ:表示只传输TAR.GZ格式文件。 无 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩文件后缀名。当一批文件

  • 查询作业 - 云数据迁移 CDM

    源连接名称,即为通过“创建连接”接口创建连接对应连接名。 creation-user String 创建作业用户。由系统生成,用户无需填写。 creation-date Long 作业创建时间,单位:毫秒。由系统生成,用户无需填写。 update-date Long 作业最后更新时间,单位:毫秒。由系统生成,用户无需填写。

  • 随机集群创建作业并执行 - 云数据迁移 CDM

    源连接名称,即为通过“创建连接”接口创建连接对应连接名。 creation-user 否 String 创建作业用户。由系统生成,用户无需填写。 creation-date 否 Long 作业创建时间,单位:毫秒。由系统生成,用户无需填写。 update-date 否 Long 作业最后更新时间,单位:毫秒。由系统生成,用户无需填写。

  • 指定集群创建作业 - 云数据迁移 CDM

    源连接名称,即为通过“创建连接”接口创建连接对应连接名。 creation-user 否 String 创建作业用户。由系统生成,用户无需填写。 creation-date 否 Long 作业创建时间,单位:毫秒。由系统生成,用户无需填写。 update-date 否 Long 作业最后更新时间,单位:毫秒。由系统生成,用户无需填写。

  • 修改作业 - 云数据迁移 CDM

    源连接名称,即为通过“创建连接”接口创建连接对应连接名。 creation-user 否 String 创建作业用户。由系统生成,用户无需填写。 creation-date 否 Long 作业创建时间,单位:毫秒。由系统生成,用户无需填写。 update-date 否 Long 作业最后更新时间,单位:毫秒。由系统生成,用户无需填写。