已找到以下 247 条记录
AI智能搜索
产品选择
云数据迁移 CDM
没有找到结果,请重新输入
产品选择
云数据迁移 CDM
在搜索结果页开启AI智能搜索
开启
产品选择
没有找到结果,请重新输入
会话过期
当前登录超时,请重新登录
  • MySQL整库迁移到RDS服务 - 云数据迁移 CDM

    单击“下一步”,进入选择待迁移表界面,您可以选择全部或者部分表进行迁移。 单击“保存并运行”,CDM会立即开始执行整库迁移任务。 作业任务启动后,每个待迁移表都会生成一个子任务,单击整库迁移作业名称,可查看子任务列表。 单击作业操作列“历史记录”,可查看该作业历史执行记录、读取和写入统计数据。

  • MySQL整库迁移到RDS服务 - 云数据迁移 CDM

    单击“下一步”,进入选择待迁移表界面,您可以选择全部或者部分表进行迁移。 单击“保存并运行”,CDM会立即开始执行整库迁移任务。 作业任务启动后,每个待迁移表都会生成一个子任务,单击整库迁移作业名称,可查看子任务列表。 单击作业操作列“历史记录”,可查看该作业历史执行记录、读取和写入统计数据。

  • Hive连接 - 云数据迁移 CDM

    式,只能使用STANDALONE模式。 说明:STANDALONE模式主要是用来解决版本冲突问题运行模式。当同一种数据连接源端或者目的端连接器版本不一致时,存在jar包冲突情况,这时需要将源端或目的端放在STANDALONE进程里,防止冲突导致迁移失败。 linkConfig

  • Elasticsearch整库迁移到云搜索服务 - 云数据迁移 CDM

    作业管理界面,在整库迁移作业管理界面可查看执行进度和结果。 本地Elasticsearch索引中每个类型都会生成一个子作业并发执行,可以单击作业名查看子作业进度。 作业执行完成后,单击作业操作列“历史记录”,可查看该作业历史执行记录、读取和写入统计数据,以及日志信息(子作业才有日志)。

  • Elasticsearch整库迁移到云搜索服务 - 云数据迁移 CDM

    作业管理界面,在整库迁移作业管理界面可查看执行进度和结果。 本地Elasticsearch索引中每个类型都会生成一个子作业并发执行,可以单击作业名查看子作业进度。 作业执行完成后,单击作业操作列“历史记录”,可查看该作业历史执行记录、读取和写入统计数据,以及日志信息(子作业才有日志)。

  • 云数据迁移安全结论 - 云数据迁移 CDM

    M实例隔离,提升CDM实例安全性。 数据加密 用户数据源访问信息(用户名和密码)存储在CDM实例数据库中,并采用AES-256加密,CDM管理员无法访问。 数据删除 用户删除CDM实例时,存储在实例中数据都会被删除,任何人都无法查看及恢复数据。

  • 基本概念 - 云数据迁移 CDM

    用户注册时账号,账号对其所拥有的资源及云服务具有完全访问权限,可以重置用户密码、分配用户权限等。由于账号是付费主体,为了确保账号安全,建议您不要直接使用账号进行日常管理工作,而是创建IAM用户并使用他们进行日常管理工作。 IAM用户 由账号在IAM中创建用户,是云服务使用人员,具有身份凭证(密码和访问密钥)。

  • 通过数据开发使用参数传递灵活调度CDM作业 - 云数据迁移 CDM

    作业)。 实时处理作业:处理实时连续数据,主要用于实时性要求高场景。实时作业是由一个或多个节点组成业务关系,每个节点可单独被配置调度策略,而且节点启动任务可以永不下线。在实时作业里,带箭头连线仅代表业务上关系,而非任务执行流程,更不是数据流。 实时处理作业可以配置节点

  • CDM作业配置管理 - 云数据迁移 CDM

    数据迁移作业提交运行后,CDM会根据作业配置中“抽取并发数”参数,将每个作业拆分为多个Task,即作业分片。 不同源端数据源作业分片维度有所不同,因此某些作业可能出现未严格按作业“抽取并发数”参数分片情况。 CDM依次将Task提交给运行池运行。根据集群配置管理中“最大抽取并发数”参数,超出规格Task排队等待运行。

  • 配置MySQL/SQL Server/PostgreSQL目的端参数 - 云数据迁移 CDM

    不存在时创建:当目的端数据库没有“表名”参数中指定表时,CDM会自动创建该表。如果“表名”参数配置表已存在,则不创建,数据写入到已存在表中。 先删除后创建:CDM先删除“表名”参数中指定表,然后再重新创建该表。 不自动创建 表名 写入数据目标表名,单击输入框后面的按钮可进入表选择界面。

  • 配置OBS源端参数 - 云数据迁移 CDM

    压缩格式 选择对应压缩格式源文件: 无:表示传输所有格式文件。 GZIP:表示只传输GZIP格式文件。 ZIP:表示只传输ZIP格式文件。 TAR.GZ:表示只传输TAR.GZ格式文件。 无 压缩文件后缀 压缩格式非无时,显示该参数。 该参数需要解压缩文件后缀名。当一批文件

  • 通过数据开发实现数据增量迁移 - 云数据迁移 CDM

    Studio服务DLF组件提供了一站式大数据协同开发平台,借助DLF在线脚本编辑、周期调度CDM迁移作业,也可以实现增量数据迁移。 这里以DWS导入到OBS为例,介绍DLF配合CDM实现增量迁移流程: 获取CDM作业JSON 修改JSON 创建DLF作业 获取CDM作业JSON

  • 修改集群 - 云数据迁移 CDM

    cluster_id 是 String CDM集群ID,获取方法请参见查询集群列表。 请求参数 表2 请求Header参数 参数 是否必选 参数类型 描述 Content-Type 是 String 消息体类型(格式),有Body体情况下必选,没有Body体无需填写。如果请求消息体中含有中文

  • API概览 - 云数据迁移 CDM

    查询并显示支持集群版本。 20次/min 查询版本规格 查询并显示集群版本规格。 20次/min 查询规格详情 查询并显示集群规格详情。 20次/min 查询所有集群企业项目ID 查询并显示所有集群企业项目ID。 20次/min 查询集群企业项目ID 查询并显示集群企业项目ID。 20次/min

  • 源端为对象存储 - 云数据迁移 CDM

    启动作业的标识文件名。指定文件后,只有在源端路径下存在该文件情况下才会运行任务,不指定时默认不启用该功能,例如:“ok.txt”。 fromJobConfig.waitTime 否 String 选择开启作业标识文件功能时,如果源路径下不存在启动作业标识文件,作业挂机等待时长,当超时后任务会失败。 等

  • 构造请求 - 云数据迁移 CDM

    资源路径,即API访问路径。从具体APIURI模块获取,例如“获取用户Token”APIresource-path为“/v3/auth/tokens”。 query-string 查询参数,可选,查询参数前面需要带一个“?”,形式为“参数名=参数取值”,例如“limit=10”,表示查询不超过10条数据。

  • 新建Hadoop集群配置 - 云数据迁移 CDM

    集群配置名:根据连接数据源类型,用户可自定义便于记忆、区分集群配置名。 上传集群配置:单击“添加文件”以选择本地集群配置文件,然后通过操作框右侧“上传文件”进行上传。 Principal:仅安全模式集群需要填写该参数。Principal即Kerberos安全模式下用户名,需要与Keytab文件保持一致。

  • 批量管理CDM作业 - 云数据迁移 CDM

    选择集群后“作业管理”。 单击“表/文件迁移”显示作业列表,提供以下批量操作: 作业分组 CDM支持对分组进行新增、修改、查找、删除。删除分组时,会将组内所有作业都删除。 创建作业任务配置中,如果已经将作业分配到了不同分组中,则这里可以按分组显示作业、按分组批量启动作业、按分组导出作业等操作。

  • 源端为FTP/SFTP - 云数据迁移 CDM

    启动作业的标识文件名。指定文件后,只有在源端路径下存在该文件情况下才会运行任务,不指定时默认不启用该功能,例如:“ok.txt”。 fromJobConfig.waitTime 否 String 选择开启作业标识文件功能时,如果源路径下不存在启动作业标识文件,作业挂机等待时长,当超时后任务会失败。 等

  • Oracle迁移到DWS报错ORA-01555 - 云数据迁移 CDM

    net/SongYang_Oracle/article/details/6432182。 解决方案 三种解决办法: 调小每次查询数据量。 调大Oracle数据RBS,需要修改数据库配置。 减少频繁commit操作,这个需要调整生产业务逻辑,基本不可能。 父主题: 故障处理类