检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DWS_COLUMN:列存表。列存储是指将表按列存储到硬盘分区上。 DWS_VIEW:视图存表。视图存储是指将表按视图存储到硬盘分区上。 MRS_HIVE模型支持HIVE_TABLE和HIVE_EXTERNAL_TABLE。 MRS_SPARK模型支持HUDI_COW和HUDI_MOR。 POSTGRESQL
日期的偏移量以及偏移量的类型。 例如当前日期为“2017-10-16 09:00:00”,则“timestamp(-10, MINUTE)”返回当前时间点10分钟前的时间戳,即“1508115000000”。 时间变量宏定义具体展示 假设当前时间为“2017-10-16 09:0
来在进行描述时,表的字段注释不能重复。 数据架构使用MRS Spark连接,数据目录使用MRS Hive连接进行采集时,同一个集群下,如果创建了多个hive连接,则需要将这些hive连接都在数据目录进行采集,否则数据架构进行逆向时可能会找不到表。 数据质量 质量作业和对账作业执行
String 父权限集ID。获取方法请参见查询权限集列表 注意: 当该值为0时,则所有库表均支持查询。 当该值为父权限集ID时,则基于父权限集中的权限查询。 cluster_id 是 String 集群ID,获取方法请参见查询单个数据连接信息 查询Hive和DWS数据源操作信息时该数值为必填项,当数据源为DLI时无需填写。
配置DataArts Studio企业模式环境隔离 管理中心的环境隔离,当前支持配置DLI和DB配置的开发、生产环境隔离。 配置环境隔离后,数据开发时脚本/作业中的开发环境数据连接通过发布流程后,将自动切换对应生产环境的数据连接。 前提条件 创建DLI环境隔离前,应已创建DLI的数据连接。
CDM采用独立集群的方式为用户提供安全可靠的数据迁移服务,各集群之间相互隔离,不可相互访问。 CDM集群可用于如下场景: 用于创建并运行数据迁移作业。 作为管理中心组件连接数据湖时的Agent代理。 前提条件 已申请VPC、子网和安全组。CDM集群连接云上其它服务时,需确保CDM集群与待连接的云服务在同一个VP
包含子分类。 limit 否 Integer 分页参数,每页限制数量,默认查询所有。 offset 否 Integer 分页参数,偏移量,默认查询所有。 order 否 String 排序方式。 query 否 String 查询参数。 search_name_and_description
图4 查看节点血缘 在数据资产搜索结果中,图标为表格的数据资产为表,单击某一表名称,可以查看表的详情。在详情页面,可以查看表的血缘信息。 单击血缘图中表左右两端“+”、“-”图标,可以进一步展开查看血缘的上下链路。 单击血缘图中的某一个表,可以查看该表的详情。 图5 查看表血缘 父主题:
数据集成配置数据搬迁 当前管理中心支持直接搬迁数据集成组件中的CDM作业及其中的连接数据。 您可以通过管理中心配置数据搬迁进行搬迁,也可以参考本章节通过CDM组件的导入导出功能进行搬迁。 数据集成数据搬迁依赖于CDM的批量导入导出作业功能。 CDM上支持导出的数据包括配置的连接和作业,可以导出到本地保存。
配置建库申请(高级特性) 为了管控存算分离MRS Hive数据源的创建数据库流程,数据安全支持通过申请审批的流程在数据源上创建数据库。 在新版本模式下仅当使用企业版时,才支持建库申请和建库审批。旧版本模式使用基础版及更高版本时即可支持。 本章主要介绍管理员如何配置数据库路径,申请
查看维度颗粒度 功能介绍 查询维度颗粒度,依据tableId查询涉及所有维度,不传tableId查询所有维度组颗粒度。 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/design/dimension/groups 表1 路径参数 参数 是否必选
当“失败重试”配置为“是”才显示“超时重试”。 当前节点失败后,后续节点处理策略 是 节点执行失败后的操作: 终止后续节点执行计划:停止后续节点的运行,当前作业实例状态显示为“失败”。 终止当前作业执行计划:停止当前作业运行,当前作业实例状态显示为“失败”。 继续执行下一节点:忽略当前节点失败,当前作业实例状态显示为“忽略失败”。
过集群最大抽取并发数上限。 源端为Hive数据源且使用JDBC方式读取数据时,CDM不支持多并发,此时应配置为单进程抽取数据。 目的端为DLI数据源时,抽取并发数建议配置为1,否则可能会导致写入失败。 定时备份/恢复 该功能依赖于OBS服务。当前定时备份内容不会自动老化删除,您需要定期手动清理备份文件。
数据连接名称,创建时自定义,编辑时通过数据连接列表获取。 dw_type 是 String 数据连接类型,如:DWS、DLI、HIVE、RDS、SparkSQL等,可在console界面查看所有数据连接类型,编辑时通过数据连接列表获取。 dw_config 是 Object 连接动态变化配置项,每种连接略有区别,建议在界面进行调试。
DataArts Studio支持连接哪些数据源? 创建数据连接需要注意哪些事项? DWS/Hive/HBase数据连接无法获取数据库或表的信息怎么办? 为什么在创建数据连接的界面上MRS Hive/HBase集群不显示? DWS数据连接开启SSL时测试连接失败怎么办? 一个空间可以创建同一数据源的多个连接吗?
配置为要连接的数据库的端口。 不同的数据库端口不同,请根据具体情况配置。 数据库名称 配置为要连接的数据库名称。 dbname 用户名 待连接数据库的用户。该数据库用户需要有数据表的读写权限,以及对元数据的读取权限。 cdm 密码 用户名密码。 - 驱动版本 不同类型的关系数据库,需要适配不同的驱动。
支持按HBase的Region分片。 MRS Hive HDFS读取方式时,支持按Hive文件分片。 JDBC读取方式时,不支持分片。 FusionInsight HDFS 支持按文件分片。 FusionInsight HBase 支持按HBase的Region分片。 FusionInsight Hive HDFS读取方式时,支持按Hive文件分片。
是 String 项目编号,获取方法请参见项目ID和账号ID。 type 否 String 查询任务的类型,默认为all,查询所有任务。类型如下:Dummy、CDM Job、MRS Hive SQL、MRS Spark SQL、DLI SQL、DLI Spark、Python、DWS
数据连接名称,创建时自定义,编辑时通过数据连接列表获取。 dw_type 是 String 数据连接类型,如:DWS、DLI、HIVE、RDS、SparkSQL等,可在console界面查看所有数据连接类型,编辑时通过数据连接列表获取。 dw_config 是 Object 连接动态变化配置项,每种连接略有区别,建议在界面进行调试。
示业务指标及其详情。 DataArts Studio中的技术元数据来源于元数据采集任务,您需要在创建并运行元数据采集任务后才能在数据地图中查看元数据。 父主题: 采集数据源的元数据