检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DLI中SQL语句与数据库、表、角色相关的权限矩阵如表1所示。 表1 权限矩阵 分类 SQL语句 权限 说明 Database DROP DATABASE db1 database.db1的DROP_DATABASE权限 - CREATE TABLE tb1(...) database.db1的CREATE_TABLE权限
面。 在“SQL编辑器”页面右侧的编辑窗口中,输入如下SQL语句创建数据库db1,单击“执行”。 create database db1; 在编辑窗口中,选择队列“dli_queue_01”和数据库“db1”。输入如下SQL语句创建表,向RDS表插入数据,以及查询数据,单击“执行”。
系统提示信息,执行成功时,信息可能为空。 请求示例 赋予某项目(项目ID:0732e57c728025922f04c01273686950)数据库db1的查询权限、数据表db1.tbl的删除权限、数据表指定列db1.tbl.column1的查询权限。 { "grant_project_id":
REFRESH TABLE刷新表元数据 功能描述 Spark为了提高性能会缓存Parquet的元数据信息。当更新了Parquet表时,缓存的元数据信息未更新,导致Spark SQL查询不到新插入的数据作业执行报错,报错信息参考如下: DLI.0002: FileNotFoundException:
true。 message 否 String 系统提示信息,执行成功时,信息可能为空。示例值:空。 请求示例 赋予用户user2数据库db1的查询权限、数据表db1.tbl的删除权限、数据表指定列db1.tbl.column1的查询权限 { "user_name": "user2"
DataGen Doris DWS Elasticsearch FileSystem Hbase Hive JDBC Kafka Print Redis Upsert Kafka 父主题: Flink Opensource SQL1.15语法参考
column1 IN ('value1', 'value2'); delete from delta.`obs://bucket_name0/db0/delta_table0` where column1 = 'value1'; 系统响应 可在driver日志和客户端中查看命令运行成功或失败。
TIMESTAMP AS OF '2020-10-18T22:15:12.013Z'; RESTORE delta.`obs://bucket_name/db0/delta_table0` VERSION AS OF 2; 父主题: Delta Time Travel
完全兼容社区版的Flink,确保了作业可以在这些Flink版本上无缝运行。 在社区版Flink的基础上,DLI扩展了Connector的支持,新增了Redis、DWS作为数据源类型。为用户提供了更多的数据源选择,使得数据集成更加灵活和方便。 Flink OpenSource SQL作业适合通过
int comment 'add new column'); alter table delta.`obs://bucket_name0/db0/delta_table0` add columns(new_col string); 系统响应 通过运行DESCRIBE命令,可显示新添加的列。
delta_table0 set price = price + 20 where id = 1; update delta.`obs://bucket0/db0/delta_table1` set price = price *2, name = 'a2' where part0='xx' and
DELTA语法暂不支持parquet.`tablePath`格式的表 convert to delta parquet.`obs://bucket0/db0/table0`;
TIMESTAMP AS OF '2020-10-18 22:15:12.013'; RESTORE delta.`obs://bucket_name/db0/delta_table0` VERSION AS OF 2; 系统响应 可在driver日志和客户端中查看命令运行成功或失败。 父主题:
FORMATTED delta_table0; DESCRIBE FORMATTED delta.`obs://bucket_name0/db0/delta_table0`; DESCRIBE DETAIL delta_table0; 系统响应 返回表的详细信息或统计信息。 表2
sync:同步 请求示例 提交SQL作业,该作业执行的数据库为db1、队列为default,并为该作业设置标签workspace=space1;jobName=name1。 { "currentdb": "db1", "sql": "desc table1",
name string,price double) using parquet location 'obs://bucket_name0/db0/parquet_table0'; convert to delta parquet_table0; 系统响应 执行成功。 父主题: Delta
Array of objects 当语句类型为DDL时,直接返回其执行结果。 示例 请求样例: { "currentdb": "db1", "sql": "desc table1", "conf": [ "dli.sql.shuffle.partitions
业。 通过以下步骤,可以将老版本的“Spark队列”转换为新的“通用队列”。 重新购买“通用队列”。 将在旧的“Spark队列”中的作业迁移到新的“通用型队列”中,即在提交Spark作业时指定新的队列。 释放旧的“Spark队列”,即删除或退订队列。 父主题: DLI弹性资源池和队列类
“dli-spark-demo-obs”读取和写入OBS数据。 “dli-spark-demo-redis”读取和写入Redis数据。 dli-pyspark-demo:使用Python语言开发Spark作业。例如,样例包中的样例代码实现创建Redis表的功能。 父主题: DLI产品咨询类
创建Spark作业,访问其他外部数据源时,如访问OpenTSDB、HBase、Kafka、DWS、RDS、CSS、CloudTable、DCS Redis、DDS等,需要先创建跨源连接,打通作业运行队列到外部数据源之间的网络。 当前Spark作业支持访问的外部数据源详情请参考DLI常用跨源分析开发方式。