检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建连接时,用户填写的队列的访问地址。 state 否 String 连接状态,具体状态请参见表4。 process 否 Double 正在创建的跨源连接进度,显示0.0至1.0代表0%至100%。 name 否 String 创建连接时,用户自定义的连接名称。 connection_url 否 String
Properties info); 其中,JDBC的配置项通过url传入,请参考表2配置参数。JDBC配置对象,除了在url中以分号间隔设置配置项外,还可以通过Info对象动态设置属性项,具体属性项参见表3。 表2 数据库连接参数 参数 描述 url url的格式如下。 jdbc:dli://<endPoint>/projectId
创建连接时,用户填写的队列的访问地址。 state 否 String 连接状态,具体状态请参见表4。 process 否 Double 正在创建的跨源连接进度,显示0.0至1.0代表0%至100%。 name 否 String 创建连接时,用户自定义的连接名称。 connection_url 否 String
跨源认证权限管理 操作场景 通过跨源认证的用户授权,可设置分配不同的跨源认证,且不同用户的作业不影响跨源认证的使用。 使用须知 管理员用户和跨源认证的所有者拥有所有权限,不需要进行权限设置且其他用户无法修改其跨源认证权限。 给新用户设置跨源认证权限时,该用户所在用户组具有Tenant Guest权限。
org/cn/docs/0.11.0/configurations/。 提交DLI Spark SQL作业时,在SQL编辑器界面右上角的”设置”->”参数设置”中可以配置Hudi参数。 提交DLI Spark jar作业时,Hudi参数可以通过Spark datasource API的option来配置。
Delta常见配置参数 提交DLI Spark SQL作业时,在“SQL编辑器”界面右上角的“设置 > 参数设置”中配置Delta参数。 表1 Delta常见配置项 参数 描述 默认值 spark.databricks.delta.retentionDurationCheck.enabled
功能描述 查看当前数据库下所有的表。显示当前数据库下的所有表及视图。 语法格式 1 SHOW TABLES [IN | FROM db_name] [LIKE regex_expression]; 关键字 FROM/IN:指定数据库名,显示特定数据库下的表及视图。 参数说明 表1
语法格式 1 DESCRIBE DATABASE [EXTENDED] db_name; 关键字 EXTENDED:除了显示上述信息外,还会额外显示数据库的属性信息。 参数说明 表1 参数说明 参数 描述 db_name 数据库名称,由字母、数字和下划线(_)组成。不能是纯数字,且不能以数字和下划线开头。
DLI不支持直接使用SET语句配置参数 点击”设置”,随后在”参数设置”一栏可以配置键和值,Hudi的参数可以通过此处提交。配置在此处的参数会在提交SQL作业时被应用。 随后可以在左侧菜单点击”作业管理”->”SQL作业”,随后在列表中选中执行的作业,并点击下方窗格,唤出作业详情,在”参数设置”一栏中,可以检查参数配置情况。
project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 queue_name 是 String 需要设置定时扩缩计划的队列名称,名称只能包含数字、英文字母和下划线,但不能是纯数字,且不能以下划线开头。名称长度为1~128个字符。 请求消息 表2
column to a struct col' after col_from_col_struct); 系统响应 通过运行DESCRIBE命令,可显示新添加的列。 父主题: Schema演进语法说明
针对不同用户,可以通过权限设置分配不同的程序包组或程序包,不同用户之间的作业效率互不影响,保障作业性能。 管理员用户、程序包组拥有程序包组的所有权限。不需要进行权限设置,且其他用户无法修改其程序包组权限。 管理员用户、程序包的所有者拥有程序包的所有权限。不需要进行权限设置,且其他用户无法修改其程序包权限。
nable和compression。 multiLevelDirEnable:本例设置为true,表示查询该表时会迭代读取表路径中的所有文件和子目录文件,若不需要此项配置可以设置为false或不设置(默认为false); compression:当创建的OBS表需要压缩时,可以使
Hudi表模型设计规范 规则 Hudi表必须设置合理的主键。 Hudi表提供了数据更新和幂等写入能力,该能力要求Hudi表必须设置主键,主键设置不合理会导致数据重复。主键可以为单一主键也可以为复合主键,两种主键类型均要求主键不能有null值和空值,可以参考以下示例设置主键: SparkSQL: //
tamp。 no-ttl:不设置过期时间。 expire-msec:设置key多久过期,参数为long类型字符串,单位为毫秒。 expire-at-date:设置key到某个时间点过期,参数为UTC时间。 expire-at-timestamp:设置key到某个时间点过期,参数为时间戳。
E。 job_mode String 作业执行模式: async:异步 sync:同步 queue_name String 队列名称,用于显示作业是在该队列中提交的。 owner String 提交作业的用户。 start_time Long 作业开始的时间。是单位为“毫秒”的时间戳。
默认值:false nullValue 否 设置代表null的字符,例如,nullValue="nl"表示设置nl代表null。 comment 否 设置代表注释开头的字符,例如,comment='#'表示以#开头的行为注释。 compression 否 设置数据的压缩格式。目前支持gzip
据倾斜、网络问题或任务过多导致的。 解决方案: 设置并发数:通过设置合适的并发数,可以启动多任务并行运行,从而提高作业的处理能力。 例如访问DWS大批量数据库数据时设置并发数,启动多任务的方式运行,避免作业运行超时。 具体并发设置可以参考对接DWS样例代码中的partitionC
ALTER_TABLE_RECOVER_PARTITION(恢复表分区) ALTER_TABLE_SET_LOCATION(设置分区的路径) SHOW_PARTITIONS(显示所有分区) SHOW_CREATE_TABLE(查看建表语句) TABLE上可以赋权/回收的权限: DESCRIBE_TABLE(描述表)
除已有文件。 with_column_header 否 Boolean 导出csv和json格式数据时,是否导出列名。 设置为“true”,表示导出列名。 设置为“false”,表示不导出列名。 若为空,默认为“false”。 limit_num 否 Integer 需要导出的数据数量,默认值为“0”,表示全部导出。