检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
DLI ReadOnlyAccess),表示“DLI ReadOnlyAccess”已生效。 在“服务列表”中选择除数据湖探索外(假设当前策略仅包含DLI ReadOnlyAccess)的任一服务,如果提示权限不足,表示“DLI ReadOnlyAccess”已生效。 更多操作 创建子用户请参考《如何创建子用户》。
atabase_name}/tables?keyword=tb&with-detail=true 请求消息 无请求参数。 响应消息 表3 响应参数 参数名称 是否必选 参数类型 说明 is_success 是 Boolean 执行请求是否成功。“true”表示请求执行成功。 message
弹性资源池状态。具体参数范围如下: AVAILABLE:可使用 SCALING:规格变更中 CREATING:创建中 FAILED:已失败 tags 否 String 查询根据标签进行过滤。 请求消息 无。 响应消息 表3 响应参数说明 参数 是否必选 参数类型 描述 is_success 否 Boolean
依赖关系 DLI FullAccess 数据湖探索所有权限。 系统策略 该角色有依赖,需要在同项目中勾选依赖的角色: 创建跨源连接:VPC ReadOnlyAccess 创建包年/包月资源:BSS Administrator 创建标签:TMS FullAccess、EPS EPS FullAccess
create_time 否 Long 创建连接的时间。为UTC的时间戳。 available_queue_info 否 Array of Objects 各个队列创建跨源连接的信息,详细信息请参考表3。 表3 available_queue_info参数说明 参数名称 是否必选 参数类型
16.0.0~172.31.0.0/12~24 192.168.0.0~192.168.0.0/16~24 “队列特性”:运行AI相关SQL作业时选择“AI增强型”队列,运行其他作业时选择“基础型”队列。 标签 使用标签标识云资源。包括标签键和标签值。如果您需要使用同一标签标识多种
api failed错误 SQL作业访问报错:File not Found SQL作业访问报错:DLI.0003: AccessControlException XXX SQL作业访问外表报错:DLI.0001: org.apache.hadoop.security.AccessControlException:
获取项目ID DLI区域信息 DLI所属区域信息 地区和终端节点 步骤1:部署DBT环境 安装dbt-core 使用pip安装建议版本的dbt-core: pip install dbt-core==1.7.9 pip是Python的包管理工具,通常与Python一起安装。 如果尚未安装p
"is_success": true, "message": "Restart success" } “force”为“true” { "is_success": true, "message": "Submit restart job success, it
增强型跨源连接绑定队列失败怎么办? 问题现象 客户创建增强型跨源连接后,在队列管理测试网络连通性,网络不通,单击对应的跨源连接查看详情,发现绑定队列失败,报错信息如下: Failed to get subnet 86ddcf50-233a-449d-9811-cfef2f603213. Response code
的DLI表查询无数据 Flink SQL作业运行失败,日志中有connect to DIS failed java.lang.IllegalArgumentException: Access key cannot be null错误 Flink SQL作业消费Kafka后sink到es集群,作业执行成功,但未写入数据
D。 job_id 是 String 作业ID。 请求消息 无请求参数。 响应消息 表2 响应参数 参数名称 参数类型 说明 is_success Boolean 执行请求是否成功。“true”表示请求执行成功。 message String 系统提示信息,执行成功时,该值为空。
跨源连接正在创建中。 ACTIVE 已激活 跨源连接创建成功,与目的地址连接正常。 FAILED 已失败 跨源连接创建失败。 DELETED 已删除 跨源连接已被删除。 请求示例 无 响应示例 { "is_success": true, "message": "", "connections":
切换协议。只能切换到更高级的协议。 例如,切换到HTTP的新版本协议。 200 Success 服务器已成功处理了请求。通常,这表示服务器提供了请求的网页。 201 Created 请求成功且服务器已创建了新的资源。 202 Accepted 已经接受请求,但未处理完成。 203 Non-Authoritative
子作业跳过的task个数,对应开源spark JobData的numSkippedTasks。 num_failed_tasks 否 Integer 子作业跳失败的task个数,对应开源spark JobData的numFailedTasks。 num_killed_tasks 否 Integer 子作业
无 响应示例 { "is_success": true, "message": "", "name": "withvpc", "id": "4c693ecc-bab8-4113-a838-129cedc9a563", "available_queue_info":
功能描述 修改已存在的分区表或非分区表的生命周期。 当第一次开启生命周期时,会扫描表/分区会扫描路径下的表数据文件,更新表/分区的LAST_ACCESS_TIME,耗时与分区数和文件数相关。 约束限制 表生命周期处于公测阶段,如果有需要请联系客服申请开通白名单。 表生命周期功能支持Hi
编辑器中查询该表新增的分区数据时却查询不到。 解决方案 手动添加分区数据后,需要刷新OBS表的元数据信息。具体操作如下: MSCK REPAIR TABLE table_name; 执行完上述命令后,再执行对应OBS分区表的数据查询即可。 父主题: DLI数据库和表类
作业运行模式。包括共享、独享模式和边缘节点。“show_detail”为“true”时独有。 shared_cluster:共享 exclusive_cluster:独享 edge_node:边缘节点 job_config 否 Object 作业配置。 “show_detail”为“false”时独有。具体参数说明请参见表6。
用于指定队列,填写已创建DLI的队列名。 spark.dli.user.queueName=XXXX # 提交作业使用的access key。 spark.dli.user.access.key=XXXX # 提交作业使用的secret key。 spark.dli.user.secret.key=XXXX