检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
创建SparkSQL角色 操作场景 该任务指导MRS集群管理员在Manager创建并设置SparkSQL的角色。SparkSQL角色可设置Spark管理员权限以及数据表的数据操作权限。 用户使用Hive并创建数据库需要加入hive组,不需要角色授权。用户在Hive和HDFS中对自
ELECT权限;而在spark-sql模式下,查询视图需要视图的SELECT权限和表的SELECT权限。 删除、修改视图时,必须要有视图的owner权限。 SparkSQL权限模型 用户使用SparkSQL服务进行SQL操作,必须对SparkSQL数据库和表(含外表和视图)拥有相
Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用
Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用
Hive常见SQL语法说明 Hive SQL扩展语法说明 自定义Hive表行分隔符 Hive支持的传统关系型数据库语法说明 父主题: 使用Hive
Doris常见SQL语法说明 CREATE DATABASE CREATE TABLE INSERT INTO ALTER TABLE DROP TABLE 父主题: 使用Doris
Hive SQL与SQL2003标准有哪些兼容性问题 本文列举目前已发现的Hive SQL与SQL2003标准兼容性问题。 不支持在having中写视图。 举例如下: select c_last_name ,c_first_name ,s_store_name
from pyspark.sql import SparkSession from pyspark.sql import SQLContext def contains(str1, substr1): if substr1 in str1: return
Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用
Flink SQL逻辑开发规范 Flink SQL逻辑开发规则 Flink SQL逻辑开发建议 父主题: Flink应用开发规范
Hive常见SQL语法说明 Hive SQL扩展语法说明 自定义Hive表行分隔符 Hive支持的传统关系型数据库语法说明 父主题: 使用Hive
FlinkSQL支持MultiJoin算子 本章节适用于MRS 3.5.0及以后版本。 当使用Flink的Full outer Join算子实现宽表拼接功能时,由于状态会被多次重复存储导致状态后端压力大,计算性能差。使用MultiJoin算子进行宽表拼接计算性能可以提升1倍。 F
Iceberg常用SQL语法 创建表 删除表 修改表 插入表数据 父主题: 使用Iceberg
HetuEngine常见SQL语法说明 HetuEngine数据类型说明 HetuEngine DDL SQL语法说明 HetuEngine DML SQL语法说明 HetuEngine TCL SQL语法说明 HetuEngine DQL SQL语法说明 HetuEngine SQL函数和操作符说明
Spark SQL样例程序 Spark SQL样例程序开发思路 Spark SQL样例程序(Java) Spark SQL样例程序(Scala) Spark SQL样例程序(Python) 父主题: 开发Spark应用
FlinkSQL Lookup算子复用 本章节适用于MRS 3.5.0及以后版本。 使用场景 将Lookup Join的结果写入到多个sink端时,无需为每个sink复制一个Lookup join算子,提高作业的执行效率。 使用方法 配置Flink作业时,可通过在FlinkServer
ClickHouse常用SQL语法 CREATE DATABASE创建数据库 CREATE TABLE创建表 INSERT INTO插入表数据 SELECT查询表数据 ALTER TABLE修改表结构 ALTER TABLE修改表数据 DESC查询表结构 DROP删除表 SHOW显示数据库和表信息
ClickHouse常用SQL语法 CREATE DATABASE创建数据库 CREATE TABLE创建表 INSERT INTO插入表数据 Delete轻量化删除表数据 SELECT查询表数据 ALTER TABLE修改表结构 ALTER TABLE修改表数据 DESC查询表结构
from pyspark.sql import SparkSession from pyspark.sql import SQLContext def contains(str1, substr1): if substr1 in str1: return
} 上面是简单示例,其它sparkSQL特性请参见如下链接:http://archive.apache.org/dist/spark/docs/3.3.1/sql-programming-guide.html#running-sql-queries-programmatically。