检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
id 是 String 脚本ID。 type 是 String 脚本类型,包含: FlinkSQL DLISQL SparkSQL HiveSQL DWSSQL RDSSQL Shell PRESTO ClickHouseSQL HetuEngineSQL PYTHON ImpalaSQL
建议使用的组件版本既可以作为目的端使用,也可以作为源端使用。 表1 建议使用的组件版本 Hadoop类型 组件 说明 MRS/Apache/FusionInsight HD Hive 暂不支持2.x版本,建议使用的版本: 1.2.X 3.1.X HDFS 建议使用的版本: 2.8.X 3.1.X Hbase 建议使用的版本:
进行访问权限管理时,除了可以自上而下地通过权限集/角色方式为用户授权外,也支持自下而上的用户权限申请、审批流程。 本章主要描述申请者如何申请权限,以及审批者如何审批权限和回收权限。 前提条件 权限申请前,已完成空间权限集的配置,请参考配置空间权限集。 权限申请前,需要在数据目录组件,对
ROMA FDI Job DLI Flink Job DLI SQL DLI Spark DWS SQL MRS Spark SQL MRS Hive SQL MRS Presto SQL MRS Spark MRS Spark Python MRS ClickHouse MRS HetuEngine
id 是 String 脚本ID。 type 是 String 脚本类型,包含: FlinkSQL DLISQL SparkSQL HiveSQL DWSSQL RDSSQL Shell PRESTO ClickHouseSQL HetuEngineSQL PYTHON ImpalaSQL
"agent" }, "env_type" : 0, "dw_type" : "HIVE", "dw_name" : "test_hive_01", "agent_id" : "91f81a12-75c5-43ce-aab8-7149ecef3b17"
查询单个资源权限策略 功能介绍 查询单个资源权限策略 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/security/permission-resource/{policy_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
查询某个脱敏策略的详细信息 功能介绍 查询某个脱敏策略的详细信息。 调用方法 请参见如何调用API。 URI GET /v1/{project_id}/security/masking/dynamic/policies/{id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
- Hudi changelog功能开关,开启后Migration作业可输出DELETE和UPDATE BEFORE数据。 logical.delete.enabled boolean true - 逻辑删除开关,changelog开启时必须关闭逻辑删除。 hoodie.write
Client节点返回值教程 For Each节点使用介绍 引用脚本模板和参数模板的使用介绍 开发一个Python作业 开发一个DWS SQL作业 开发一个Hive SQL作业 开发一个DLI Spark作业 开发一个MRS Flink作业 开发一个MRS Spark Python作业 父主题: 数据开发
配置作业源端参数 配置MySql源端参数 配置Hive源端参数 配置HDFS源端参数 配置Hudi源端参数 配置PostgreSQL源端参数 配置SQLServer源端参数 配置Oracle源端参数 配置DLI源端参数 配置OBS源端参数 配置SAP HANA源端参数 配置Kafka源端参数
配置CDM作业目的端参数 配置OBS目的端参数 配置HDFS目的端参数 配置HBase/CloudTable目的端参数 配置Hive目的端参数 配置MySQL/SQL Server/PostgreSQL目的端参数 配置Oracle目的端参数 配置DWS目的端参数 配置DDS目的端参数
过权限集关联角色进行权限管控)。 本章主要描述如何通过创建空间权限集和配置空间权限集定义工作空间权限范围。 前提条件 配置权限集前,已在管理中心创建数据仓库服务(DWS)、数据湖探索(DLI)、MapReduce服务(MRS Hive)和MapReduce服务(MRS Range
如何使用CDM服务将MySQL的数据导出成SQL文件,然后上传到OBS桶? 问题描述 如何使用CDM服务将MySQL的数据导出成SQL文件,然后上传到OBS桶? 解决方案 CDM服务暂不支持该操作,建议通过手动导出MySQL的数据文件,然后在服务器上开启SFTP服务,然后新建CD
配置模板 本章节主要介绍如何创建并使用模板。用户在编写业务代码时,对于重复的业务逻辑,可以直接引用SQL模板,同时在配置作业运行参数的时候,可以直接使用作业参数模板,不用再进行重复配置。 约束限制 该功能适用于以下场景: Flink SQL脚本可以引用脚本模板。 在pipeline作业开发中,MRS
配置CDM作业源端参数 配置OBS源端参数 配置HDFS源端参数 配置HBase/CloudTable源端参数 配置Hive源端参数 配置DLI源端参数 配置FTP/SFTP源端参数 配置HTTP源端参数 配置PostgreSQL/SQL Server源端参数 配置DWS源端参数
} }, { "name":"hive", "type":"HIVE", "params":{ "clusterName":"mrs_ymcc"
击“确定”完成数据连接的创建。 此处创建MapReduce服务 (MRS Hive)数据连接,参数配置如图3所示。 数据连接类型:MapReduce服务(MRS Hive)。 数据连接名称:mrs_hive_link。 标签:可选参数。您可以输入新的标签名称,也可以在下拉列表中选择已有的标签。
"掩盖英文字符和数字", //动态脱敏规则描述 }, "datasource_type":"HIVE", //数据源类型,当前仅支持Hive "users":"aaa,bbb", //指定脱敏用户 "user_groups":"ggg"
"agent" }, "env_type" : 0, "dw_type" : "HIVE", "dw_name" : "test_hive_01", "agent_id" : "91f81a12-75c5-43ce-aab8-7149ecef3b17"