检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
SELECT * FROM [database_name.]table_name VERSION AS OF version_code 参数描述 表1 查询Delta表历史版本参数说明 参数 描述 database_name Database名称,由字母、数字和下划线(_)组成。 table_name
Integer 数据库的总数。 databases 否 Array of objects 数据库信息。具体参数请参见表4。 表4 databases参数 参数名称 是否必选 参数类型 说明 database_name 否 String 数据库名称。 owner 否 String 数据库的创建者。
Spark作业使用咨询 Spark如何将数据写入到DLI表中 通用队列操作OBS表如何设置AK/SK 如何查看DLI Spark作业的实际资源使用情况 将Spark作业结果存储在MySQL数据库中,缺少pymysql模块,如何使用python脚本访问MySQL数据库? 如何在DLI中运行复杂PySpark程序?
pe,表示使用两个array字段,第一个字段为set中的值,第二个字段表示相应值所对应的score。fields-scores用于sorted-set的data-type,表示从定义的字段中获取score,该类型表示除主键外的奇数字段表示set中的值,该字段的下一个字段表示该字段
job_id}/preview 参数说明 表1 URI 参数 参数名称 是否必选 参数类型 说明 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 job_id 是 String 作业ID。 表2 query参数 参数名称 是否必选 参数类型
'' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为hbase connector.version 是 该值只能为1.4.3 connector.table-name 是 hbase中的表名 connector
每次从数据库拉取数据的行数。默认值为0,表示忽略该提示 connector.lookup.cache.max-rows 否 维表配置,缓存的最大行数,超过该值时,最先添加的数据将被标记为过期。-1表示不使用缓存。 connector.lookup.cache.ttl 否 维表配置,缓存超时时间,超
L作业的标签。 创建数据库和表。 您可以参考在DLI控制台创建数据库和表提前创建数据库和表。例如本例创建表,表名为“qw”。 在SQL作业编辑窗口输入表“qw”的SQL查询语句: 1 SELECT * FROM qw.qw LIMIT 10; 或者双击左侧表名“qw”,上述查询语句会自动在作业编辑窗口中输入。
内存溢出的风险。 truncate 执行overwrite时是否不删除原表,直接执行清空表操作,取值范围: true false 默认为“false”,即在执行overwrite操作时,先将原表删除再重新建表。 isolationLevel 事务隔离级别,取值范围: NONE READ_UNCOMMITTED
查询和分析。 数据库是一个框架,表是其实质内容。一个数据库包含一个或者多个表。 用户可通过管理控制台或SQL语句创建数据库和表,其中SQL语句的操作方法请参见创建数据库、创建OBS表和创建DLI表等。本章节介绍在管理控制台创建数据库和表的操作步骤。 创建数据库和表时,有权限控制,
lds和array时,只能读取redis的sorted set中的值,而不能读取score。 当data-type为string时,只能有一个非主键字段。 当data-type为sorted-set,且schema-syntax为map时,除主键字段外,只能有一个非主键字段。 该
添加分区(只支持OBS表) 功能描述 创建OBS分区表成功后,OBS表实际还没有生成分区信息。生成分区信息主要有以下两种场景: 给OBS分区表插入对应的分区数据,数据插入成功后OBS表才会生成分区元数据信息,后续则可以根据对应分区列进行查询等操作。 手工拷贝分区目录和数据到OBS分区表路径下,
权限信息。具体参数请参见表3。 表3 privileges参数 参数名称 是否必选 参数类型 说明 object 否 String 该用户有权限的对象: “databases.数据库名.tables.表名”,用户在当前表上的权限。 “databases.数据库名.tables.表名.columns
HISTORY delta.`obs://tablePath` LIMIT 1; 系统响应 返回表的历史操作记录,结果指标代表含义见下表。 表1 结果指标说明 指标名称 指标含义 version 对表操作的版本号 timestamp 当前版本操作的时间戳 userId 当前版本操作的用户id
作为redis维表时,是否使用异步 I/O。 pwd_auth_name 否 无 String DLI侧创建的Password类型的跨源认证名称。 使用跨源认证则无需在作业中配置和账号密码。 示例 从Kafka源表中读取数据,将Redis表作为维表,并将二者生成的宽表信息写入Kafka结果表中,其具体步骤如下:
'' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为hbase connector.version 是 该值只能为1.4.3 connector. table-name 是 hbase中的表名 connector
'' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 connector的类型,只能为hbase connector.version 是 该值只能为1.4.3 connector. table-name 是 hbase中的表名 connector
field -- 否 读取 Doris 表的列名列表,多列之间使用逗号分隔。 doris.filter.query -- 否 过滤读取数据的表达式,此表达式透传给 Doris。Doris 使用此表达式完成源端数据过滤。 示例 该示例是从Doris源表读取数据,并输入到 print connector。
'user-defined', 'connector.class-name' = '' ); 参数说明 表1 参数说明 参数 是否必选 说明 connector.type 是 只能为user-defined,表示使用自定义的source。 connector.class-name 是 source函数的全限定类名。
pe,表示使用两个array字段,第一个字段为set中的值,第二个字段表示相应值所对应的score。fields-scores用于sorted-set的data-type,表示从定义的字段中获取score,该类型表示除主键外的奇数字段表示set中的值,该字段的下一个字段表示该字段