检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
description String API描述。 protocol String API请求协议类型。 枚举值: PROTOCOL_TYPE_HTTP:HTTP协议请求 PROTOCOL_TYPE_HTTPS:HTTPS协议请求 publish_type String 发布类型(已弃用)。 枚举值:
{ "approverName": "userName2" } ] } 响应示例 响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.0100", "error_msg":"The job
realsize; mem->memory[mem->size] = 0; return realsize; } //send http request using curl library int perform_request(RequestParams* request)
realsize; mem->memory[mem->size] = 0; return realsize; } //send http request using curl library int perform_request(RequestParams* request)
/v1/b384b9e9ab9b4ee8994c8633aabc9505/connections/connection1 响应示例 成功响应 HTTP状态码 200 { "name":"connection1", "type":"DWS", "config":{
CSS Shell RDS SQL ETL Job Python DORIS SQL GBase SQL ModelArts Train Http Trigger OCR Create OBS Delete OBS OBS Manager Open/Close Resource Data
"tableVar": "citys", "time": "2019-07-25" } } 响应示例 成功响应 HTTP状态码 200 失败响应 HTTP状态码 400 { "error_code":"DLF.6201", "error_msg":"The script
} } ] } 响应示例 成功响应 HTTP状态码 200 { "taskId":"008aae2e675933c7016759418e870000" } 失败响应 HTTP状态码 400 { "error_code":"DLF.0815"
作业中目的连接为HDFS连接时,目的端作业参数如表1所示。 表1 HDFS作为目的端时的作业参数 参数名 说明 取值样例 写入目录 写入数据到HDFS服务器的目录。 该参数支持配置为时间宏变量,且一个路径名中可以有多个宏定义变量。使用时间宏变量和定时任务配合,可以实现定期同步新增数据,详细说明请参见使用时间宏变量完成增量同步。
成功响应 HTTP状态码 200 导出文件名为DLF_myJob.zip,解压后文件结构如下: jobs ├─myJob.job scripts ├─CS_PROCESS_TRIP.script ├─TRIP_RAW_STANDARD.script 失败响应 HTTP状态码 400
633aabc9505/factory/monitor/task-completion-data?type=all 响应示例 成功响应 HTTP状态码 200 { "yesterday": [ { "record_time": 1704124800000
时间卡住,可自定义operation超时时间(单位ms)。 Apache Hive Apache Hive连接适用于用户在本地数据中心或ECS上自建的第三方Hadoop,其中本地数据中心的Hadoop需通过专线连接。 Apache Hive的连接参数如表3所示。 表3 Apache
查询连接列表。 GET /v1/b384b9e9ab9b4ee8994c8633aabc9505/connections 响应示例 成功响应 HTTP状态码 200 { "total":1, "connections":[ { "name":"connection1"
s/deploy { "package_ids": ["23"], "startup_mode": 0 } 响应示例 成功响应 HTTP状态码 200 { "deploy_package_details": [ { "asy_subtask_num":
数据开发概述 数据开发是一个一站式的大数据协同开发平台,提供全托管的大数据调度能力。它可管理多种大数据服务,极大降低用户使用大数据的门槛,帮助您快速构建大数据处理中心。 数据开发模块曾被称为数据湖工厂(Data Lake Factory,后简称DLF)服务,因此在本文中,“数据湖
查询资源列表 GET /v1/b384b9e9ab9b4ee8994c8633aabc9505/resources 响应示例 成功响应 HTTP状态码 200 { "total":1, "resources":[ { "id
技术支持人员。 基础与网络连通配置 主机名或IP 是 服务器的IP地址或者主机名。 例如:sftp.apache.org或192.168.0.1。 端口 是 主机的SSH端口号。 数据传输超时时间 是 数据传输过程中连接服务器超时时间,单位毫秒。 默认值为:600000。 KMS密钥
如果CDM需要访问本地数据源、Internet的数据源,或者跨VPC的云服务,则必须要为CDM集群绑定一个弹性IP,或者使用NAT网关让CDM集群与其他弹性云服务器共享弹性IP访问Internet,具体操作请见添加SNAT规则。 如果用户对本地数据源的访问通道做了SSL加密,则CDM无法通过弹性IP连接数据源。
如何降低CDM使用成本? 如果是迁移公网的数据上云,可以使用NAT网关服务,实现CDM服务与子网中的其他弹性云服务器共享弹性IP,可以更经济、更方便的通过Internet迁移本地数据中心或第三方云上的数据。 具体操作如下: 假设已经创建好了CDM集群(无需为CDM集群绑定专用弹性
约束与限制 浏览器限制 您需要使用支持的浏览器版本登录DataArts Studio。 表1 浏览器兼容性 浏览器版本 建议版本 建议操作系统 备注 Google Chrome 126,125,124 Windows 10 建议分辨率为1920*1080,2560*1440。 Firefox