检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
A:这是因为输入数据中有重复数据,导致在Redis的set中会进行排重,因此个数变少了。 Q:如果Flink作业的日志中有如下报错信息,应该怎么解决? org.apache.flink.table.api.ValidationException: SQL validation failed
还原Delta表到早期状态 命令格式 还原Delta表到历史某一时刻的状态: RESTORE [TABLE] [database_name.]table_name|DELTA.`obs_path` [TO] TIMESTAMP AS OF timestamp_expression
UPDATE 命令功能 UPDATE命令根据列表达式和可选的过滤条件更新Hudi表。 命令格式 UPDATE tableIdentifier SET column = EXPRESSION(,column = EXPRESSION) [ WHERE boolExpression]
查询弹性资源池下所有队列 功能介绍 查询队列与弹性资源池的关联关系。 调试 您可以在API Explorer中调试该接口。 URI URI格式 GET /v3/{project_id}/elastic-resource-pools/{elastic_resource_pool_name}/queues
关联队列到弹性资源池 功能介绍 关联队列到弹性资源池。 调试 您可以在API Explorer中调试该接口。 URI URI格式 POST /v3/{project_id}/elastic-resource-pools/{elastic_resource_pool_name}/queues
修改弹性资源池关联队列的扩缩容策略 功能介绍 修改弹性资源池关联队列的扩缩容策略。 调试 您可以在API Explorer中调试该接口。 URI URI格式 PUT /v3/{project_id}/elastic-resource-pools/{elastic_resource
999999999) as string)随机数进行打散。 如果确实因为单个key值倾斜严重且不可对key值拼接随机值打散,则参考执行SQL作业时产生数据倾斜怎么办?处理。 父主题: SQL作业开发类
datasource v2 tables is only supported in spark3.3 or later version.”怎么办? 使用default创建DataSource表时引擎版本不低于Spark 3.3.1,如果引擎版本低于Spark 3.3.1则会提示上
set location truncate table V1表 √ √ √ × × × × × × V2表 √ √ √ √ √ √ √ √ √ 怎么确认当前用户创建的表是v1还是v2表? 1. 使用datasource语法建表: CREATE TABLE IF NOT EXISTS table_name
flink保存checkpoint的路径 checkpointPath=obs://bucket/path/ 常见问题 Q:作业运行失败,运行日志中有如下报错信息,应该怎么解决? java.lang.NoSuchMethodError: org.apache.flink.api.java.ClosureCleaner
分配权限 功能描述 授予用户或角色权限。 语法格式 1 GRANT (privilege,...) ON (resource,..) TO ((ROLE [db_name].role_name) | (USER user_name)),...); 关键字 ROLE:限定后面的role_name是一个角色。
ORDER BY ORDER BY ORDER BY子句用于按一个或多个输出表达式对结果集排序。 ORDER BY expression [ ASC | DESC ] [ NULLS { FIRST | LAST } ] [, ...] 每个expression可以由输出列组成,也可以是按位置选择输出列的序号。
查询资源实例数量 功能介绍 查询资源实例数量。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v3/{project_id}/{resource_typ
显示已授权限 功能描述 显示某个用户在resource上已经授予的权限。 语法格式 1 SHOW GRANT USER user_name ON resource; 关键字 USER:限定后面的user_name是一个用户。 注意事项 resource可以是queue、data
上传pyfile类型分组资源(废弃) 功能介绍 该API用于在project下的上传pyfile类型模块。上传同名pyfile类型模块时,新模块将会覆盖旧模块。 当前接口已废弃,不推荐使用。 调试 您可以在API Explorer中调试该接口。 URI URI格式: POST /v2
创建SQL作业的API执行超过时间限制,运行超时报错 问题现象 DLI上调用“提交SQL作业”API运行超时,报如下错误信息: There are currently no resources tracked in the state, so there is nothing to
弹性资源池扩缩容历史记录 功能介绍 该API用于查询当前弹性资源池扩缩容历史记录。 调试 您可以在API Explorer中调试该接口。 URI GET /v3/{project_id}/elastic-resource-pools/{elastic_resource_pool_name}/scale-records
查询指定资源实例的标签信息 功能介绍 查询指定资源实例的标签信息。 调试 您可以在API Explorer中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI GET /v3/{project_id}/{res
VALUES 语法 VALUES row [, ...] where row is a single expression or ( column_expression [, ...] ) 描述 VALUES用于查询可以使用的任何地方(例如SELECT、INSERT的FROM子句
故障处理 运行Spark作业,作业运行失败,作业日志中提示No respond错误 问题现象 运行Spark作业,作业运行失败,作业日志中提示No respond错误 解决方案 重新创建Spark作业,创建作业时需要在“Spark参数(--conf)”中添加配置:“spark.sql