-
Oracle数据迁移到DWS - 数据治理中心 DataArts Studio
到DWS的任务。 图4 创建Oracle到DWS的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 源连接名称:选择创建Oracle连接中的“oracle_link”。 模式或表空间:待迁移数据的数据库名称。 表名:待迁移数据的表名。 高级属性里的可选参数一般情况下保持默认即可。
-
查询统计用户相关的总览调用指标 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
MySQL数据迁移到OBS - 数据治理中心 DataArts Studio
输入便于记忆和区分的连接名称。 mysqllink 数据库服务器 MySQL数据库的IP地址或域名。 - 端口 MySQL数据库的端口。 3306 数据库名称 MySQL数据库的名称。 sqoop 用户名 拥有MySQL数据库的读、写和删除权限的用户。 admin 密码 用户的密码。 -
-
开发一个MRS Flink作业 - 数据治理中心 DataArts Studio
r/WordCount.jar 下载的Flink作业资源包需要进行JAR包完整性校验。Windows操作系统下,打开本地命令提示符框,输入如下命令,在本地生成已下载JAR包的SHA256值,其中,“D:\wordcount.jar”为JAR包的本地存放路径和JAR包名,请根据实际情况修改。
-
Rest Client - 数据治理中心 DataArts Studio
挂起当前作业执行计划:当前作业实例的状态为运行异常,该节点的后续节点以及依赖于当前作业的后续作业实例都会处于等待运行状态。 是否空跑 否 如果勾选了空跑,该节点不会实际执行,将直接返回成功。 任务组 否 选择任务组。任务组配置好后,可以更细粒度的进行当前任务组中的作业节点的并发数控制,比如作业中包含多个节点、补数据、重跑等场景。
-
OBS数据迁移到云搜索服务 - 数据治理中心 DataArts Studio
新建作业”,开始创建从OBS导出数据到云搜索服务的任务。 图6 创建OBS到云搜索服务的迁移任务 作业名称:用户自定义便于记忆、区分的任务名称。 源端作业配置 源连接名称:选择创建OBS连接中的“obslink”。 桶名:待迁移数据的桶。 源目录或文件:待迁移数据的路径,也可以迁移桶下的所有目录、文件。
-
导出包含API信息的EXCEL文件 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
查询统计用户相关的总览开发指标 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
步骤2:数据集成 - 数据治理中心 DataArts Studio
字段映射:在本示例中,由于数据迁移的目标表字段顺序和原始数据的字段顺序是一样的,因此这里不需要调整字段映射的顺序。 如果目标表字段顺序和原始数据不一致,请一一将源字段指向含义相同的目的字段。请将鼠标移至某一个字段的箭头起点,当光标显示为“+”的形状时,按住鼠标,将箭头指向相同含义的目的字段,然后松开鼠标。
-
数据服务专享版发布的API如何绑定公网和域名? - 数据治理中心 DataArts Studio
数据服务专享版发布的API如何绑定公网和域名? 进入数据服务模块,单击页面左侧“专享版”。 单击API管理,找到需要发布的API,选择操作列的“更多>发布”。 在弹出的发布页面中选择更多,选择网关类型为APIGW,即API网关服务。并选择分组。 发布完成后即可在对应的API网关服
-
配置云搜索服务(CSS)连接 - 数据治理中心 DataArts Studio
配置云搜索服务(CSS)连接 华为云的云搜索服务(CSS)是一个基于Elasticsearch且完全托管的在线分布式搜索服务,CSS连接适用于将各类日志文件、数据库记录迁移到CSS,Elasticsearch引擎进行搜索和分析的场景。 导入数据到CSS推荐使用Logstash,请
-
获取当前目录下的API列表 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
Elasticsearch整库迁移到云搜索服务 - 数据治理中心 DataArts Studio
合通配符条件的索引。例如这里配置为cdm*时,CDM将迁移所有名称为cdm开头的索引:cdm01、cdmB3、cdm_45…… 目的端作业配置 目的连接名称:选择创建云搜索服务连接中的“csslink”。 索引:待写入数据的索引,这里可以选择一个云搜索服务中已存在的索引,也可以手
-
管理驱动 - 数据治理中心 DataArts Studio
接并将对应的驱动上传至线下文件服务器(可选)。 如何获取驱动 不同类型的关系数据库,需要适配不同类型的驱动。注意,上传的驱动版本不必与待连接的数据库版本相匹配,直接参考表1获取建议版本的JDK8 .jar格式驱动即可。 表1 获取驱动 关系数据库类型 驱动名称 获取地址 建议版本
-
数据集成数据搬迁 - 数据治理中心 DataArts Studio
请您登录控制台首页,选择并进入新工作空间的“数据集成”模块,然后执行如下操作进行批量导入。 在CDM主界面,单击左侧导航上的“集群管理”,单击集群“操作”列的“作业管理”,进入到“表/文件迁移”界面。 单击作业列表上方的“导入”按钮,准备导入JSON文件。 图3 批量导入 在弹出的窗口中,选择导出作业获取的JSON文件,上传JSON文件。
-
获取当前目录下的所有类型列表 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
配置Redis连接 - 数据治理中心 DataArts Studio
Manager的用户名和密码。从HDFS导出目录时,如果需要创建快照,这里配置的用户需要HDFS系统的管理员权限。 如果要创建MRS安全集群的数据连接,不能使用admin用户。因为admin用户是默认的管理页面用户,这个用户无法作为安全集群的认证用户来使用。您可以创建一个新的MRS用户
-
获取当前目录下的目录列表(全量) - 数据治理中心 DataArts Studio
即跳过前X条数据。仅支持0或LIMIT的整数倍,不满足则向下取整。 请求参数 表3 请求Header参数 参数 是否必选 参数类型 描述 X-Auth-Token 是 String 用户Token,使用Token认证时必选。通过调用[ManageOne平台的](tag:hcs, hcs_sm)IAM服务的“获取
-
全量导出包含API的EXCEL压缩文件 - 数据治理中心 DataArts Studio
e平台的](tag:hcs, hcs_sm)IAM服务的“获取用户Token”接口获取响应消息头中X-Subject-Token的值。 workspace 是 String 工作空间ID,获取方法请参见实例ID和工作空间ID。 Dlm-Type 否 String 数据服务的版本类
-
配置DIS连接 - 数据治理中心 DataArts Studio
节点不同。本服务的Endpoint可从终端节点Endpoint获取。 - 访问标识(AK) 登录DIS服务器的访问标识。 您需要先创建当前账号的访问密钥,并获得对应的AK和SK。 - 密钥(SK) 登录DIS服务器的密钥。 您需要先创建当前账号的访问密钥,并获得对应的AK和SK。