检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ctory/jobs/myJob/tags { "tag_names": [] } 响应示例 成功响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.100", "error_msg":"The job
基本参数 DIS通道 DIS的通道名。 dis 是否持久运行 用户自定义是否永久运行。设置为长久运行的任务,如果DIS系统发生中断,任务也会失败结束。 是 DIS分区ID DIS分区ID,该参数支持输入多个分区ID,使用英文逗号(,)分隔。 0,1,2 偏移量参数 设置从DIS拉取数据时的初始偏移量:
HTTP状态码 200 响应是一个压缩文件,压缩文件里面的文件目录如下: connections ├─{dwsConnection}.conn 失败响应 HTTP状态码 400 { "error_code":"DLF.6322", "error_msg":"The data
${score},选择Kafka连接和Topic名称。 此处不能使用EL表达式#{Job.getParam("job_param_name")} ,因为此表达式只能直接获取当前作业里配置的参数的value,并不能获取到父作业传递过来的参数值,也不能获取到工作空间里面配置的全局变量,作用域仅为本作业。
“使用SQL语句”选择“是”时,您可以在这里输入自定义的SQL语句,CDM将根据该语句导出数据。 说明: SQL语句只能查询数据,支持join和嵌套写法,但不能有多条查询语句,比如 select * from table a; select * from table b。 不支持with语句。 不支持注释
必须采用“%XY%ZA%BC”格式。 对于每个参数,追加“URI编码的参数名称=URI编码的参数值”。如果没有参数值,则以空字符串代替,但不能省略“=”。 例如以下含有两个参数,其中第二个参数parm2的值为空。 parm1=value1&parm2= 按照字符代码以升序顺序对参
${score},选择Kafka连接和Topic名称。 此处不能使用EL表达式#{Job.getParam("job_param_name")} ,因为此表达式只能直接获取当前作业里配置的参数的value,并不能获取到父作业传递过来的参数值,也不能获取到工作空间里面配置的全局变量,作用域仅为本作业。
辑并保存该连接。 数据连接中的数据湖认证信息如果发生变化(如密码过期)时,此连接会失效。建议您将数据湖认证信息设定为永久有效,避免由于连接失败导致业务受损。 当前DataArts Studio不支持对接“Kerberos加密类型”为“aes256-sha2,aes128-sha2
_index 分页大小 分页大小。 否 1000 ScrollId超时时间配置 ScrollId超时时间配置,默认5分钟。 否 5 重试次数 单次请求失败重试次数。最大限制重试次数10次。 否 3 父主题: 配置作业源端参数
"ff8080815e59d92d015e5b27ccb0004d" ] } 状态码 状态码 描述 200 OK。 400 请求错误。 401 鉴权失败。 403 没有操作权限。 404 找不到资源。 500 服务内部错误,具体返回错误码请参考错误码。 503 服务不可用。 错误码 请参见错误码。
响应示例 成功响应 HTTP状态码 200 { "is_success": true, "status_code": 200 } 失败响应 HTTP状态码 400 { "error_code": "DLF.30100", "error_msg": "Job[job_2284221]
发页面。 在数据开发主界面的左侧导航栏,选择“配置管理 > 配置”。 选择“节点并发数”。 配置工作空间的节点并发数,工作空间的节点并发数不能大于DataArts Studio实例的并行节点并发数上限。 DataArts Studio实例的节点并发数上限可通过表2获取。其中的作业
右侧返回结果回显区域打印API调用的Response信息。 调用成功时,返回HTTP状态码为“200”和Response信息。 调用超过默认60秒无结果时,会报超时错误。 调试失败时,返回HTTP状态码为4xx或5xx。 您可以通过调整请求参数与参数值,发送不同的请求,验证API服务。 如果需要修改API参数,请在右上角单击“编辑”,进入API编辑页面。
{ "approverName": "userName2" } ] } 响应示例 响应 HTTP状态码 204 失败响应 HTTP状态码 400 { "error_code":"DLF.0100", "error_msg":"The job
个字符。 标签 否 标识数据连接的属性。设置标签后,便于统一管理。 说明: 标签的名称,只能包含中文、英文字母、数字和下划线,不能以下划线开头,且长度不能超过100个字符。 适用组件 是 选择此连接适用的组件。勾选组件后,才能在相应组件内使用本连接。 说明: 当开启数据集成作业特
job和job_stream.job是作业定义文件 dws_sql.script是job_batch.job所使用的DWS SQL脚本文件。 失败响应 HTTP状态码 400 { "error_code":"DLF.3051", "error_msg":"The request
RS ClickHouse的值会为0。 请确认目的端表引擎是否为ReplicatedMergeTree引擎,该引擎自带去重机制,且去重数据不能准确预测,选用该引擎应保证数据唯一性,否则会造成不唯一数据被忽略写入,或尝试替换其他表引擎,例如MergeTree。 表1 MRS ClickHouse作为目的端时的作业参数
"tableVar": "citys", "time": "2019-07-25" } } 响应示例 成功响应 HTTP状态码 200 失败响应 HTTP状态码 400 { "error_code":"DLF.6201", "error_msg":"The script
├─myJob.job scripts ├─CS_PROCESS_TRIP.script ├─TRIP_RAW_STANDARD.script 失败响应 HTTP状态码 400 { "error_code":"DLF.0100", "error_msg":"The job
的排序参数顺序或脚本/MyBatis方式API SQL中的排序参数顺序为准,调整不生效。 修改升序或降序的排序参数为其他排序方式,则会调用失败,不允许修改。 (可选)“返回总条数”配置:在创建API时,如果已打开“返回总条数”开关,则当API对应的数据表数据量较大时,获取数据总条