检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
sql_containing_cte_name 格式 无。 说明 包含了cte_name定义的公共表达式的SQL语句。 父主题: 标示符
Failed to create the database. {"error_code":"DLI.1028";"error_msg":"Already reached the maximum quota of databases:XXX". 提示配额不足,如何处理?
sql_containing_cte_name 格式 无。 说明 包含了cte_name定义的公共表达式的SQL语句。 父主题: 标示符
- Authentication failed 问题原因 因为账号没有在全局配置中配置服务授权,导致该账号在创建跨源连接访问外部数据时因为权限不足而导致跨源访问失败。
创建扩容任务时 ,提示Queue plans create failed. The plan xxx target cu is out of quota报错 场景概述 创建弹性扩缩容定时任务时界面报错,提示信息为:Queue plans create failed.
Flink Opensource SQL Elasticsearch结果表failure-handler参数填写retry_rejected导致提交失败 问题说明 Flink Opensource SQL Elasticsearch结果表failure-handler参数填写retry_rejected
新建跨源连接,显示已激活,但使用时报communication link failure错误 原因 网络连通性问题,建议用户检查安全组选择是否正确,检查安全组网络(vpc)配置。
UQUERY_CONNECTOR_0001:Invoke DLI service api failed, failed reason is %s. at org.apache.sqoop.connector.uquery.intf.impl.UQueryWriter.close
Flink SQL作业运行失败,日志中有connect to DIS failed java.lang.IllegalArgumentException: Access key cannot be null错误 问题现象 在DLI上提交Flink SQL作业,作业运行失败,在作业日志中有如下报错信息
故障处理 问题1:运行Spark作业,作业运行失败,作业日志中提示java server connection或container启动失败 问题现象 运行Spark作业,作业运行失败,作业日志中提示java server connection或container启动失败。
单击“执行”,创建详单表detail_records,请参见图3。 图3 创建详单表 执行以下SQL语句,在demo数据库下创建告警事件表event_records,步骤同1.d和1.e。
-2.34.jar parquet-column-1.12.2.jar commons-lang-2.6.jar jersey-container-servlet-core-2.34.jar parquet-common-1.12.2.jar commons-lang3-3.10.
异常日志参考如下: [ERROR] Execute DLI SQL failed. Please contact DLI service.
DLI Flink作业支持哪些数据格式和数据源 DLI Flink作业支持如下数据格式: Avro,Avro_merge,BLOB,CSV,EMAIL,JSON,ORC,Parquet,XML。
URI URI格式: GET/v1.0/{project_id}/jobs/{job_id}/detail 参数说明 表1 URI 参数 参数名称 是否必选 参数类型 说明 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。
若URI中的过滤条件“with-detail=false”,则只返回“data_location”,“table_name”,“table_type”三个参数。
获取账号ID 在调用接口的时候,部分URL中需要填入账号ID(domain-id),所以需要先在管理控制台上获取到账号ID。账号ID获取步骤如下: 登录管理控制台。 鼠标指向界面右上角的登录用户名,在下拉列表中单击“我的凭证”。 在“API凭证”页面查看账号ID。
建议使用网段: 10.0.0.0~10.255.0.0/8~24 172.16.0.0~172.31.0.0/12~24 192.168.0.0~192.168.0.0/16~24 “队列特性”:运行AI相关SQL作业时选择“AI增强型”队列,运行其他作业时选择“基础型”队列。
具体操作如下: MSCK REPAIR TABLE table_name; 执行完上述命令后,再执行对应OBS分区表的数据查询即可。 父主题: 运维指导
Spark SQL作业: 查看带有“driver”或者为“container_xxx_000001”的日志文件夹则为需要查看的Driver日志目录。