检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
删除表的入口有两个,分别在“数据管理”和“SQL编辑器”页面。 在“数据管理”页面删除表。 在管理控制台左侧,单击“数据管理”>“库表管理”。 单击需删除表的数据库名,进入该数据库的“表管理”页面。 选中目标表,单击“操作”栏中的“更多 > 删除表”。 在弹出的确认对话框中,单击“是”。 在“SQL编辑器”页面删除表。
支持配置小文件合并 使用SQL过程中,生成的小文件过多时,会导致作业执行时间过长,且查询对应表时耗时增大,建议对小文件进行合并。 参考如何合并小文件完成合并小文件。 支持修改非分区表或分区表的列注释 修改非分区表或分区表的列注释。 支持统计SQL作业的CPU消耗 支持在控制台查看“CPU累计使用量”。
<artifactId>spark-sql_2.11</artifactId> <version>2.3.2</version> </dependency> import相关依赖包 1 import org.apache.spark.sql.SparkSession; 创建会话
import print_function from pyspark.sql.types import StructType, StructField, IntegerType, StringType from pyspark.sql import SparkSession 创建会话 1 sparkSession
<artifactId>spark-sql_2.11</artifactId> <version>2.3.2</version> </dependency> import相关依赖包 1 import org.apache.spark.sql.SparkSession; 创建会话
'driver'='com.mysql.jdbc.Driver')") 创建表参数说明请参考表1。 插入数据 1 sparkSession.sql("insert into dli_to_rds values (1,'John',24)"); 查询数据 1 sparkSession.sql("select
说明 queue_type 否 String 队列的类型,有如下三种类型: sql:查询SQL队列类型的队列。 general:查询通用队列类型的队列。 all:查询所有类型的队列。 如果不指定,默认为sql。 with-priv 否 Boolean 是否返回权限信息。 with-charge-info
支持配置小文件合并 使用SQL过程中,生成的小文件过多时,会导致作业执行时间过长,且查询对应表时耗时增大,建议对小文件进行合并。 参考如何合并小文件完成合并小文件。 支持修改非分区表或分区表的列注释 修改非分区表或分区表的列注释。 支持统计SQL作业的CPU消耗 支持在控制台查看“CPU累计使用量”。
名称 弹性资源池添加的队列名称。 dli_queue_01 类型 选择创建的队列类型。 执行SQL作业请选择SQL队列。 执行Flink或Spark作业请选择通用队列。 _ 执行引擎 SQL队列可以选择队列引擎为Spark或者HetuEngine。 _ 企业项目 选择对应的企业项目。
queueActions 提交作业(SQL) queue submitJob 取消作业(SQL) jobs cancelJob 授权obs桶给DLI服务 obs authorizeObsBucketsForStream 检查SQL语法 jobs checkSQL 删除作业 jobs deleteStreamJob
<artifactId>spark-sql_2.11</artifactId> <version>2.3.2</version> </dependency> import相关依赖包 1 import org.apache.spark.sql.SparkSession; 创建会话
apache.spark.sql.*; import org.apache.spark.sql.types.DataTypes; import org.apache.spark.sql.types.StructField; import org.apache.spark.sql.types.StructType;
postgresql.Driver')") 建表参数详情可参考表1。 插入数据 1 sparkSession.sql("insert into dli_to_dws values(2,'John',24)") 查询数据 1 jdbcDF = sparkSession.sql("select
参考Flink Opensource SQL使用DEW管理访问凭据的语法格式,在作业中配置凭据信息。 WITH ( 'connector' = 'jdbc', 'url' = 'jdbc:mysql://MySQLAddress:MySQLPort/flink',--其中u
print_function from pyspark.sql.types import StructType, StructField, StringType, LongType, DoubleType from pyspark.sql import SparkSession 创建会话
<artifactId>spark-sql_2.11</artifactId> <version>2.3.2</version> </dependency> import相关依赖包 1 import org.apache.spark.sql.SparkSession;
在DLI控制台总览页面左侧,单击“SQL编辑器”,进入SQL作业编辑器页面。 在SQL作业编辑器左侧,选择“数据库”页签,单击创建demo数据库,请参见图2。 图2 创建数据库 “default”为内置数据库,不能使用该数据库名。 选择demo数据库,在编辑框中输入以下SQL语句: create
job_type 否 String Flink作业模板类型。默认值为"flink_sql_job",若填写则只能为"flink_sql_job"或者"flink_opensource_sql_job"。 表3 tags参数 参数名称 是否必选 参数类型 说明 key 是 String
实例登录 登录RDS实例后,单击“新建数据库”,创建名称为“dli-demo”的数据库。 图7 创建数据库 单击“SQL操作”>“SQL查询”,执行如下SQL创建测试用MySQL表,表相关字段含义在•数据说明中有详细介绍。 DROP TABLE `dli-demo`.`trade_channel_collect`;
“更多 > 修改数据库”。 在弹出的对话框中,输入新的所有者用户名(已存在的用户名),单击“确定”。 在“SQL编辑器”页面修改数据库所有者。 在管理控制台左侧,单击“SQL编辑器”。 在左侧导航栏单击选择“数据库”页签,鼠标左键单击对应数据库右侧的,在列表菜单中选择“修改数据库”。