检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
数设置,单击“确定”完成操作。 修改扩缩容策略:直接修改已有记录的扩缩容策略参数,单击“确定”完成操作。 删除扩缩容策略:在对应扩缩容策略所在行单击“删除”,单击“确定”删除已有的优先级设置。 “优先级”和“时间段”参数说明如下: 优先级:默认为1,设置范围为1-100,参数值越大优先级越高。
n类型,示例如下: 1 val idCol = jdbcDF.col("id") drop 删除指定字段。传入要删除的字段,返回不包含此字段的DataFrame对象,并且每次只能删除一个字段,示例如下: 1 jdbcDF.drop("id").show() 提交Spark作业
过大会有内存溢出的风险。 truncate 执行overwrite时是否不删除原表,直接执行清空表操作,取值范围: true false 默认为“false”,即在执行overwrite操作时,先将原表删除再重新建表。 isolationLevel 事务隔离级别,取值范围: NONE
过大会有内存溢出的风险。 truncate 执行overwrite时是否不删除原表,直接执行清空表操作,取值范围: true false 默认为“false”,即在执行overwrite操作时,先将原表删除再重新建表。 isolationLevel 事务隔离级别,取值范围: NONE
db_name.tables.table_name.columns.column_name 示例 回收用户user_name1对于数据库db1的删除数据库权限。 1 REVOKE DROP_DATABASE ON databases.db1 FROM USER user_name1;
db_name.tables.table_name.columns.column_name 示例 回收用户user_name1对于数据库db1的删除数据库权限。 1 REVOKE DROP_DATABASE ON databases.db1 FROM USER user_name1;
故障处理 运行Spark作业,作业运行失败,作业日志中提示No respond错误 问题现象 运行Spark作业,作业运行失败,作业日志中提示No respond错误 解决方案 重新创建Spark作业,创建作业时需要在“Spark参数(--conf)”中添加配置:“spark.sql
查询OpenTSDB表 SELECT命令用于查询OpenTSDB表中的数据。 若OpenTSDB上不存在metric,查询对应的DLI表会报错。 若OpenTSDB开了安全模式,则访问时,需要设置conf:dli.sql.mrs.opentsdb.ssl.enabled=true
查询OpenTSDB表 SELECT命令用于查询OpenTSDB表中的数据。 若OpenTSDB上不存在metric,查询对应的DLI表会报错。 若OpenTSDB开了安全模式,则访问时,需要设置conf:dli.sql.mrs.opentsdb.ssl.enabled=true
stopFlinkJob(body); System.out.println(result); } 批量删除作业 DLI提供批量删除Flink作业的接口。您可以使用该接口批量删除任何状态的Flink作业。示例代码如下: 1 2 3 4 5 6 7 8 9 10 11
问题。 OBS桶需要由用户主账户统一设置及修改,子用户无权限。 不配置DLI作业桶无法查看作业日志。 您可以通过配置桶的生命周期规则,定时删除桶中的对象或者定时转换对象的存储类别。 DLI的作业桶设置后请谨慎修改,否则可能会造成历史数据无法查找。 操作步骤 在DLI控制台左侧导航栏中单击“全局配置
过大会有内存溢出的风险。 truncate 执行overwrite时是否不删除原表,直接执行清空表操作,取值范围: true false 默认为“false”,即在执行overwrite操作时,先将原表删除再重新建表。 isolationLevel 事务隔离级别,取值范围: NONE
覆盖写之前,会删除所有符合条件的分区。例如,分区表中有一个“2021-01”的分区,当使用INSERT OVERWRITE语句向表中写入“2021-02”这个分区的数据时,会把“2021-01”的分区数据也覆盖掉。 当前配置设置为“true”时,DLI不会提前删除分区,而是在运行时覆盖那些有数据写入的分区。
string1 FROM string2) 返回从 STRING1 中删除以字符串 STRING2 开头/结尾/开头且结尾的字符串的结果。默认情况下,两边的空格都会被删除。 LTRIM(string) 返回从 STRING 中删除左边空格的字符串。 例如 ' This is a test String
gth时,由指定字符str2从左侧填补。 ltrim ltrim([<trimChars>,] string <str>) STRING 删除字符串左边的空格,其他的空格保留。 parse_url parse_url(string urlString, string partToExtract
gth时,由指定字符str2从左侧填补。 ltrim ltrim([<trimChars>,] string <str>) STRING 删除字符串左边的空格,其他的空格保留。 parse_url parse_url(string urlString, string partToExtract
orc存储格式表的一个属性,用来指定orc存储的压缩方式。支持取值为: ZLIB SNAPPY NONE auto.purge 当设置为true时,删除或者覆盖的数据会不经过回收站,直接被删除。 AS:使用CTAS创建表。 ROW FORMAT SERDE为org.apache.hadoop.hive.contrib
过大会有内存溢出的风险。 truncate 执行overwrite时是否不删除原表,直接执行清空表操作,取值范围: true false 默认为“false”,即在执行overwrite操作时,先将原表删除再重新建表。 isolationLevel 事务隔离级别,取值范围: NONE
查询结果偏移量,默认为0(连接以创建时间进行排序)。 status 否 String 连接状态,包括以下两种状态: ACTIVE:已激活 DELETED:已删除 说明: 连接状态不区分大小写。 name 否 String 连接名。 tags 否 String 标签名列表。单个标签为k=v,多个标签以“,”分隔。示例tag1=v1
orc存储格式表的一个属性,用来指定orc存储的压缩方式。支持取值为: ZLIB SNAPPY NONE auto.purge 当设置为true时,删除或者覆盖的数据会不经过回收站,直接被删除。 AS:使用CTAS创建表。 ROW FORMAT SERDE为org.apache.hadoop.hive.contrib