检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
新建如表9所示的3个码表维度。 表9 码表维度 *所属主题 *维度名称 *维度英文名称 *维度类型 *资产责任人 描述 *数据连接类型 *数据连接 *数据库 选择码表 供应商 供应商 dim_vendor 码表维度 - 无 MRS_HIVE mrs_hive_link demo_dwr_db
移效率与业务稳定性。 需要作为不同的用途或给多个业务部门使用。例如既需要用于数据迁移作业,又需要作为DataArts Studio管理中心连接代理时,建议各配置至少一个CDM集群。 待迁移任务库表较多,迁移量较大。此时可以使用多个CDM集群同时作业,提升迁移效率。 当前CDM集群
“数据目录”模块,进入数据目录页面。 选择“数据权限 > 数据表权限”,在“我的权限”页签中单击“申请”。 输入使用场景说明,选择对应数据连接、数据库和数据表。 选择需要申请的表/列权限。 申请单张表/列权限。 勾选自己当前无权限但需要使用的表权限/列权限。 申请多张表/列权限。
SQL作业/脚本配置运行时,通过默认参数模板去管控是否允许用户去设置任意参数覆盖模板设置的默认参数。 在MRS API连接方式下,Spark SQL脚本支持配置默认运行参数。代理连接不支持。 在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 单击“默认项设置”,可设置“Spark
100 注释: [1] DataArts Studio数据集成集群:DataArts Studio实例赠送的数据集成集群,推荐作为管理中心数据连接的Agent代理使用,不建议同时作为Agent代理和运行数据迁移作业使用。用于运行数据迁移作业的其他规格数据集成集群推荐通过“批量数据迁移
String 数据连接类型,对应表所在的数仓类型,取值可以为DWS、MRS_HIVE、POSTGRESQL、MRS_SPARK、CLICKHOUSE、MYSQL、ORACLE和DORIS等。 queue_name String dli数据连接执行sql所需的队列,数据连接类型为DLI时必须。
审计与日志 云审计服务(Cloud Trace Service,以下简称CTS),是华为云安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 CTS可记录的DataArts Studi
新建如表10所示的3个码表维度。 表10 码表维度 *所属主题 *维度名称 *维度英文名称 *维度类型 *资产责任人 描述 *数据连接类型 *数据连接 *数据库 选择码表 供应商 供应商 dim_vendor 码表维度 - 无 MRS_HIVE mrs_hive_link demo_dwr_db
t-Token的值)使用Token认证时必选。 表3 请求Body参数 参数 是否必选 参数类型 描述 dw_id 否 String 数据连接id。 ids 否 Array of strings id列表。 响应参数 状态码: 400 表4 响应Body参数 参数 参数类型 描述
t-Token的值)使用Token认证时必选。 表3 请求Body参数 参数 是否必选 参数类型 描述 dw_id 否 String 数据连接id。 ids 否 Array of strings id列表。 响应参数 状态码: 400 表4 响应Body参数 参数 参数类型 描述
项目ID,获取方法请参见项目ID和账号ID。 表2 Query参数 参数 是否必选 参数类型 描述 cluster_id 否 String 集群ID,获取方法请参见查询单个数据连接信息。 datasource_type 否 String 数据源类型 HIVE数据源 parent_permission_set_id 否
/052101/DAY20211110.data /052101/DAY20211111.data 是 列表文件源连接 当“列表文件”选择为“是”时,才有该参数。可选择列表文件所在的OBS连接。 OBS_test_link 列表文件OBS桶 当“列表文件”选择为“是”时,才有该参数。该参数表示列表文件所在的OBS桶名。
DWS:DWS数据源 HIVE:HIVE数据源 HBASE:HBASE数据源 connection_name String 数据连接名称。 connection_id String 数据连接ID。 database String 数据库名。 datatable String 数据表名称。 table_id
当该值为0时,则所有库表均支持查询。 当该值为父权限集ID时,则基于父权限集中的权限查询。 cluster_id 是 String 集群ID,获取方法请参见查询单个数据连接信息 查询Hive和DWS数据源操作信息时该数值为必填项,当数据源为DLI时无需填写。 datasource_type 是 String 数据源类型
Studio实例ID,获取方法请参见实例ID和工作空间ID。 表2 Query参数 参数 是否必选 参数类型 描述 limit 否 Integer 每次查询的数据连接条数的限制量,默认20。 offset 否 Integer 数据偏移量,默认0。 请求参数 表3 请求Header参数 参数 是否必选 参数类型
工作空间ID,获取方法请参见实例ID和工作空间ID。 表3 请求Body参数 参数 是否必选 参数类型 描述 dw_id 否 String 连接id。 db_type 否 String 数据源类型。 database_name 否 String 数据库名称。 table_name 否
示自定义规则。 template_id Long 规则模板ID。 connection String 数据连接ID。 connection_type String 数据连接类型。 databases String 数据库名,当存在多个值时以逗号分隔。 sql String 自定义规则中的SQL脚本。
result_status String 是否成功。 content_length Integer 内容大小。 connection String 连接状态。 cache_control String 缓存控制(固定值)。 content_type String 内容类型 (固定值)。 date
作业任务参数调优 概述 实时数据集成服务底层使用Flink流处理框架进行开发,因此包含了Flink系统中最重要的两个部分:JobManager和TaskManager。 作业任务配置中调整的处理器核数、并发数、执行内存参数等便是用来调整JobManager和TaskManager
推荐您通过配置角色进行权限管控。 前提条件 配置权限集前,已完成空间权限集的配置,请参考配置空间权限集。 如果希望在权限配置时能够展示数据连接中数据库、表以及字段等元数据提示信息,则需要在数据目录组件,对数据表成功进行过元数据采集,详见元数据采集任务。 约束与限制 DAYU Administrator、Tenant