检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
1:27017,192.168.0.2:27017。 KMS密钥 是 通过KMS加解密数据源认证信息,选择KMS中已创建的密钥。 KMS是一种安全、可靠、简单易用的密钥托管服务,对密钥的所有操作都会进行访问控制及日志跟踪,提供所有密钥的使用记录,满足审计和合规性要求。 绑定Agent
其他场景下,CDM会自动匹配源端和目的端数据表字段,需用户检查字段映射关系和时间格式是否正确,例如:源字段类型是否可以转换为目的字段类型。 您可以单击字段映射界面的选择“添加新字段”自定义新增字段,通常用于标记数据库来源,以确保导入到目的端数据的完整性。 图1 字段映射 目前支持以下类型自定义字段: 常量 常量
其他场景下,CDM会自动匹配源端和目的端数据表字段,需用户检查字段映射关系和时间格式是否正确,例如:源字段类型是否可以转换为目的字段类型。 您可以单击字段映射界面的选择“添加新字段”自定义新增字段,通常用于标记数据库来源,以确保导入到目的端数据的完整性。 图1 字段映射 目前支持以下类型自定义字段: 常量 常量
配置完成后,单击“确定”即可新增自定义角色。 添加工作空间成员并配置角色 使用华为账号登录DataArts Studio管理控制台的首页,单击“空间管理”。 图19 空间管理 选择需要加入的工作空间,单击“编辑”。 图20 编辑工作空间 在空间信息界面,单击“添加”。 图21 添加成员 将新建的IAM用户加入工作空间,单击“确定”。
件做数据过滤及在字段映射页面添加新字段的需求,选择HDFS方式即可。 HDFS文件方式读取数据时,性能较好,但不支持使用WHERE条件做数据过滤及在字段映射页面添加新字段。 JDBC方式读取数据时,支持使用WHERE条件做数据过滤及在字段映射页面添加新字段。 HDFS 数据库 输
的能力以应对极端情况。例如最常见的作业内存溢出,可以在实时集成作业的“任务配置”中添加自定义属性,根据实际情况调整JobManager和TaskManager的各类内存来适应同步场景。 图1 添加自定义属性 表1 作业任务参数一览表 参数名 参数类型 默认值 参数说明 jobmanager
行数据过滤及在字段映射页面添加新字段的需求,选择HDFS方式即可。 HDFS文件方式读取数据时,性能较好,但不支持使用WHERE条件进行数据过滤及在字段映射页面添加新字段。 JDBC方式读取数据时,支持使用WHERE条件进行数据过滤及在字段映射页面添加新字段。 说明: 源端为Hi
配置增量元数据采集任务 配置、运行采集任务是构建数据资产的前提,下面举例说明如何通过配置采集任务达到灵活采集元数据的目的。 场景一:仅添加新元数据 用户的数据库中新增的数据表,采集任务仅采集新增的表。 例如新增table4的情况下: 采集前的数据表元数据:table1,table2,table3
CDM上支持导出的数据包括配置的连接和作业,可以导出到本地保存。 约束与限制 数据集成中的集群配置、环境变量等数据不支持导入导出,如有需要,请您进行手动配置同步。 由于安全原因,CDM不会将对应数据源的连接密码导出。因此在重新导入前,需要通过手工编辑导出的JSON文件补充密码或在导入窗口配置密码。 从本地导入
用户可以通过基线名称、责任人、优先级、承诺时间快速查询目标基线实例。系统支持对优先级进行过滤,可以对指定承诺时间的某时间内的基线实例进行查询。 基线状态: 安全:任务在预警时间之前完成。 预警:任务在预警时间之后未完成,但还未到达承诺时间。 破线:任务在承诺时间之后仍未完成。 异常:基线所有任务处于暂停状态或基线没有关联任务。
用户在配置中心打开了“表别名”时显示此项,名称别名。 表级标签 给表添加的标签,请输入已有的标签或新的标签名称。您也可以先前往DataArts Studio数据目录模块的“标签管理”页面添加标签,然后再回到此处设置相应的标签。添加标签的具体操作,请参见管理资产标签。 *描述 表的描述信息。
param=xxx¶m2=xxx2 header参数 请求头参数,作为请求头的一部分,参数名不区分大小写。 参数:param = xxx 调用方法添加header头参数/构造请求时添加等(以各语言SDK为准) 例:request.addHeader("param"," xxx"); body参数 请求体参
每个用户仅允许新增两个访问密钥。 为保证访问密钥的安全,访问密钥仅在初次生成时自动下载,后续不可再次通过管理控制台界面获取。请在生成后妥善保管。 - 密钥(SK) - 连接属性 可选参数,单击“显示高级属性”后显示。 自定义连接属性,单击“添加”可增加多个属性。 只支持配置connect
如果未选上,表示实例运行时等待时间会被计入超时时间。 自定义字段 配置自定义字段的参数名称和参数值。 作业标签 配置作业的标签,用以分类管理作业。 单击“新增”,可给作业重新添加一个标签。也可选择管理作业标签中已配置的标签。 作业描述 作业的描述信息。 配置作业参数 单击编辑器右侧的“参数”,展开配置页面,配置如表4所示的参数。
已开通数据集成CDM,并创建CDM集群,为数据开发模块提供数据开发模块与MRS通信的代理。 CDM集群创建时,需要注意:虚拟私有云、子网、安全组与MRS集群保持一致,确保网络互通。 建立Hive的数据连接 开发Hive SQL前,我们需要在“管理中心 > 数据连接”模块中建立一个到MRS
csv”的文件,即可查看访问密钥(Access Key Id和Secret Access Key)。 每个用户仅允许新增两个访问密钥。 为保证访问密钥的安全,访问密钥仅在初次生成时自动下载,后续不可再次通过管理控制台界面获取。请在生成后妥善保管。 获取项目ID和账号ID 项目ID表示租户的资源
编辑工作空间用户或用户组 编辑工作空间用户或用户组。 3000 20 获取工作空间用户信息 获取工作空间用户信息。 3000 20 添加工作空间用户 添加工作空间用户。 3000 20 删除工作空间用户 删除工作空间用户。 3000 20 数据源元数据获取 表7 数据源元数据获取 API
的列名、字段类型和描述。 支持通过“责任人”和“更新时间”进行过滤查询,方便快速过滤出最近更新的脚本。 脚本开发支持细粒度权限管控,在数据安全模块对数据开发脚本目录权限管控策略进行配置。 脚本开发的使用流程如下: 图1 脚本开发流程 新建脚本:新建相应类型的脚本。具体请参见新建脚本。
“tinyInt1isBit”参数,参数值设为“false”。 “mysql.bool.type.transform”参数,参数值设为“false”。 图1 添加连接属性 父主题: 数据集成(CDM作业)
填写DLI Flink作业的名称,只能包含英文字母、数字、“_”,且长度为1~64个字符。默认与节点的名称一致。 作业名称添加工作空间前缀 否 设置是否为创建的作业名称添加工作空间前缀。 脚本路径 是 选择需要执行的Flink SQL脚本。如果脚本未创建,请参考新建脚本和开发SQL脚本创建和开发Flink