云服务器内容精选

  • 支持的授权项 策略包含系统策略和自定义策略,如果系统策略不满足授权要求,管理员可以创建自定义策略,并通过给用户组授予自定义策略来进行精细的访问控制。策略支持的操作与API相对应,授权项列表说明如下: 权限:允许或拒绝对指定资源在特定条件下进行某项操作。 对应API接口:自定义策略实际调用的API接口。 授权项:自定义策略中支持的Action,在自定义策略中的Action中写入授权项,可以实现授权项对应的权限功能。 依赖的授权项:部分Action存在对其他Action的依赖,需要将依赖的Action同时写入授权项,才能实现对应的权限功能。 IAM 项目(Project)/企业项目(Enterprise Project):自定义策略的授权范围,包括IAM项目与企业项目。授权范围如果同时支持IAM项目和企业项目,表示此授权项对应的自定义策略,可以在IAM和企业管理两个服务中给用户组授权并生效。如果仅支持IAM项目,不支持企业项目,表示仅能在IAM中给用户组授权并生效,如果在企业管理中授权,则该自定义策略不生效。 关于IAM项目与企业项目的区别,详情请参见:IAM与企业管理的区别。 “√”表示支持,“x”表示暂不支持。 DLI 支持自定义策略授权项如下表所示。 表1 API授权项列表 权限 对应API接口 授权项 IAM项目 (Project) 企业项目 (Enterprise Project) 创建队列 POST /v1.0/{project_id}/queues dli:queue:createQueue √ √ 删除队列 DELETE /v1.0/{project_id}/queues/{queue_name} dli:queue:dropQueue √ √ 提交作业 POST /v1.0/{project_id}/jobs/submit-job dli:queue:submitJob √ × 取消作业 DELETE /v1.0/{project_id}/jobs/{job_id} dli:queue:cancelJob √ × 查看其他用户具备的队列权限 GET /v1.0/{project_id}/queues/{queue_name}/users dli:queue:showPrivileges √ × 重启队列 PUT /v1.0/{project_id}/queues/{queue_name}/action dli:queue:restart √ × 扩缩容队列 PUT /v1.0/{project_id}/queues/{queue_name}/action dli:queue:scaleQueue √ × 赋予指定用户弹性资源权限 PUT /v1.0/{project_id}/user-authorization dli:elasticresourcepool:grantPrivilege √ × 移除指定用户弹性资源池权限 PUT /v1.0/{project_id}/user-authorization dli:elasticresourcepool:revokePrivilege √ × 创建数据库 POST /v1.0/{project_id}/databases dli:database:createDatabase √ × 删除数据库 DELETE /v1.0/{project_id}/databases/{database_name} dli:database:dropDatabase √ × 修改数据库配置 POST /v1.0/{project_id}/jobs/submit-job dli:database:alterDatabaseProperties √ × 将SQL语句解释为执行计划 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:explain √ × 创建表 POST /v1.0/{project_id}/databases/{database_name}/tables dli:database:createTable √ × 创建视图 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:createView √ × 创建函数 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:createFunction √ × 描述函数 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:describeFunction √ × 删除函数 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:dropFunction √ × 显示函数 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:showFunctions √ × 创建角色 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:createRole √ × 删除角色 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:dropRole √ × 显示角色 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:showRoles √ × 显示所有角色 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:showAllRoles √ × 绑定角色 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:grantRole √ × 解除角色绑定 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:revokeRole √ × 显示所有角色和用户的绑定关系 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:database:showUsers √ × 查看其他用户具备的数据库权限 GET /v1.0/{project_id}/databases/{database_name}/users dli:database:showPrivileges √ × 显示数据库 GET /v1.0/{project_id}/databases dli:database:displayDatabase √ × 显示所有数据库 GET /v1.0/{project_id}/databases dli:database:displayAllDatabases √ × 显示所有表 GET /v1.0/{project_id}/databases dli:database:displayAllTables √ × 赋予指定用户数据库权限 PUT /v1.0/{project_id}/user-authorization dli:database:grantPrivilege √ × 移除指定用户数据库权限 PUT /v1.0/{project_id}/user-authorization dli:database:revokePrivilege √ × 删除表 DELETE /v1.0/{project_id}/databases/{database_name}/tables/{table_name} dli:table:dropTable √ × 显示表结构 GET /v1.0/{project_id}/databases/{database_name}/tables/{table_name} dli:table:describeTable √ × 查询表 GET /v1.0/{project_id}/databases/{database_name}/tables/{table_name}/preview dli:table:select √ × 显示表配置 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:showTableProperties √ × 显示建表语句 GET /v1.0/{project_id}/databases/{database_name}/tables/{table_name}/preview dli:table:showCreateTable √ × 显示所有分区 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:showPartitions √ × 设置表配置 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableSetProperties √ × 添加列 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableAddColumns √ × 在分区表中添加分区 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableAddPartition √ × 重命名表分区 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableRenamePartition √ × 删除分区表的分区 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableDropPartition √ × 恢复表分区 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableRecoverPartition √ × 重命名表 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableRename √ × 设置分区路径 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterTableSetLocation √ × 插入表数据 POST /v1.0/{project_id}/jobs/submit-job,语句调用 dli:table:insertIntoTable √ × 重写表数据 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:insertOverwriteTable √ × 查看其他用户具备的表权限 GET /v1.0/{project_id}/databases/{database_name}/tables/{table_name}/users dli:table:showPrivileges √ × 清空表 POST /v1.0/{project_id}/jobs/submit-job dli:table:truncateTable √ × 更新表 POST /v1.0/{project_id}/jobs/submit-job dli:table:update √ × 删除表数据 POST /v1.0/{project_id}/jobs/submit-job dli:table:delete √ × 修改列信息 POST /v1.0/{project_id}/jobs/submit-job dli:table:alterTableChangeColumn √ × 删除列 POST /v1.0/{project_id}/jobs/submit-job dli:table:alterTableDropColumns √ × 显示数据段 POST /v1.0/{project_id}/jobs/submit-job dli:table:showSegments √ × 合并数据段 POST /v1.0/{project_id}/jobs/submit-job dli:table:compaction √ × 修改视图 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:table:alterView √ × 显示表结构 POST /v1.0/{project_id}/jobs/submit-job,执行对应SQL dli:table:describeTable √ × 赋予指定用户数据表权限 PUT /v1.0/{project_id}/user-authorization dli:table:grantPrivilege √ × 移除指定用户数据表权限 PUT /v1.0/{project_id}/user-authorization dli:table:revokePrivilege √ × 查看其它用户的安全认证信息权限列表 GET /v1.0/{project_id}/datasource/auth-infos/{auth_name}/users dli:datasourceauth:showPrivileges √ × 使用安全认证信息 POST /v1.0/{project_id}/jobs/submit-job dli:datasourceauth:useAuth √ × 删除安全认证信息 DELETE /v2.0/{project_id}/datasource/auth-infos/{auth_info_name} dli:datasourceauth:dropAuth √ × 更新安全认证信息 PUT /v2.0/{project_id}/datasource/auth-infos dli:datasourceauth:updateAuth √ × 赋予指定用户安全认证权限 PUT /v1.0/{project_id}/user-authorization dli:datasourceauth:grantPrivilege √ × 移除指定用户安全认证权限 PUT /v1.0/{project_id}/user-authorization dli:datasourceauth:revokePrivilege √ × 移除指定用户作业权限 PUT /v1.0/{{project_id}}/authorization dli:jobs:revokePrivilege √ × 查询列 POST /v1.0/{project_id}/jobs/submit-job,SQL语句调用 dli:column:select √ × 赋予指定用户列权限 PUT /v1.0/{project_id}/user-authorization dli:column:grantPrivilege √ × 移除指定用户列权限 PUT /v1.0/{project_id}/user-authorization dli:column:revokePrivilege √ × 查询flink作业列表 GET /v1.0/{project_id}/streaming/jobs dli:jobs:listAll √ × 查询flink作业详情 GET /v1.0/{project_id}/streaming/jobs/{job_id} dli:jobs:get √ × 创建flink SQL作业 POST /v1.0/{project_id}/streaming/sql-jobs dli:jobs:create √ × 创建flinkJar作业 POST /v1.0/{project_id}/streaming/flink-jobs dli:jobs:create √ × 更新flinkSQL作业 PUT /v1.0/{project_id}/streaming/sql-jobs/{job_id} dli:jobs:update √ × 更新flinkJar作业 PUT /v1.0/{project_id}/streaming/flink-jobs/{job_id} dli:jobs:update √ × 删除flink作业 DELETE /v1.0/{project_id}/streaming/jobs/{job_id} dli:jobs:delete √ × 批量运行flink作业 POST /v1.0/{project_id}/streaming/jobs/run dli:jobs:start √ × 停止flink作业 POST /v1.0/{project_id}/streaming/jobs/stopob_id/stop dli:jobs:stop √ ×
  • 响应示例 { "resources": [ { "resource_detail": null, "resource_id": "test1", "resource_name": "resouece1", "tags": [ { "key": "key1", "value": "value1" }, { "key": "key2", "value": "value1" } ] } ], "total_count": 1000 }
  • 请求参数 表3 请求Body参数 参数 是否必选 参数类型 描述 without_any_tag 否 Boolean 是否不包含任意一个标签。默认值false。 true:不包含任意一个标签。 false:指定标签。 tags 否 Array of objects 包含标签。请参考tags。 最多支持20个标签。 每个资源中的键不能重复,同一个键中值不能重复。 无tag过滤条件时返回全量数据。 matches 否 Array of objects 搜索字段。 请参考matches。 表4 tags 参数 是否必选 参数类型 描述 key 是 String 键。 标签的键的最大长度为128个字符,标签的键可以包含任意语种字母、数字、空格和_ . : +-@,但首尾不能含有空格,不能以_sys_开头。 values 是 Array of strings 值列表。 标签值的最大长度为255个字符,标签的值可以包含任意语种字母、数字、空格和_ . : +-@,但首尾不能含有空格。 value可为空数组但不可缺省。 如果values为空列表,则表示any_value(查询任意value)。value之间为或的关系。 表5 matches 参数 是否必选 参数类型 描述 key 是 String 键。当前仅支持resource_name。 resource_name:资源名称。 默认按输入的资源名称前缀模糊搜索。 value 是 String 值。每个值最大长度255。
  • 请求示例 { "tags":[ { "key":"key1", "values":[ "value1", "value2" ] }, { "key":"key2", "values":[ "value1", "value2" ] } ], "matches":[ { "key":"resource_name", "value":"resource1" } ], "without_any_tag":"false" }
  • URI POST /v3/{project_id}/{resource_type}/resource-instances/filter 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 resource_type 是 String 资源类型。 dli_queue:队列 dli_elastic_resource_pool:弹性资源池 dli_enhanced_datasource:增强型跨源连接 dli_database:数据库 dli_package_resource:资源包(不支持指定有Module ID的内置资源包) dli_flink_job:Flink作业 表2 Query参数 参数 是否必选 参数类型 描述 limit 否 Integer 每页显示条数,默认为1000。 offset 否 Integer 查询结果偏移量,默认为0。
  • 请求示例 新建名为test的Flink Jar作业,并设置作业执行在testQueue上,设置作业运行所使用的CU数、开启作业日志。 { "name": "test", "desc": "job for test", "queue_name": "testQueue", "manager_cu_number": 1, "cu_number": 2, "parallel_number": 1, "tm_cus": 1, "tm_slot_num": 1, "log_enabled": true, "obs_bucket": "bucketName", "smn_topic": "topic", "main_class": "org.apache.flink.examples.streaming.JavaQueueStream", "restart_when_exception": false, "entrypoint": "javaQueueStream.jar", "entrypoint_args":"-windowSize 2000 -rate 3", "dependency_jars": [ "myGroup/test.jar", "myGroup/test1.jar" ], "dependency_files": [ "myGroup/test.csv", "myGroup/test1.csv" ] }
  • 响应消息 表4 响应参数说明 参数名称 是否必选 参数类型 说明 is_success 否 String 执行请求是否成功。“true”表示请求执行成功。 message 否 String 消息内容。 job 否 Object 作业状态信息。具体请参考表5。 表5 job参数说明 参数名称 是否必选 参数类型 说明 job_id 是 Long 作业ID。 status_name 否 String 当前状态名称。 status_desc 否 String 当前状态描述。包含异常状态原因及建议。
  • 请求消息 表2 参数说明 参数名称 是否必选 参数类型 说明 name 是 String 作业名称。长度限制:1-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:0-128个字符。 cu_number 否 Integer 用户为作业选择的CU数量。 manager_cu_number 否 Integer 用户为作业选择的管理节点CU数量,对应为flink jobmanager数量。默认值为“1”。 parallel_number 否 Integer 用户为作业选择的并发量。 log_enabled 否 Boolean 是否开启作业日志。 开启:true 关闭:false 默认:false obs_bucket 否 String 当“log_enabled”为“true”时, 用户授权保存作业日志的OBS桶名。 smn_topic 否 String 当作业异常时,向该 SMN 主题推送告警信息。 main_class 否 String 作业入口类。 entrypoint_args 否 String 作业入口类参数,多个参数之间空格分隔。 restart_when_exception 否 Boolean 是否开启异常重启功能,默认值为“false”。 entrypoint 否 String 用户已上传到DLI资源管理系统的程序包名,用户自定义作业主类所在的jar包。 dependency_jars 否 Array of Strings 用户已上传到DLI资源管理系统的程序包名,用户自定义作业的其他依赖包。 示例“myGroup/test.jar,myGroup/test1.jar”。 dependency_files 否 Array of Strings 用户已上传到DLI资源管理系统的资源包名,用户自定义作业的依赖文件。 示例:"myGroup/test.cvs,myGroup/test1.csv"。 通过在应用程序中添加以下内容可访问对应的依赖文件。其中,“fileName”为需要访问的文件名,“ClassName”为需要访问该文件的类名。 ClassName.class.getClassLoader().getResource("userData/fileName") tm_cus 否 Integer 每个taskmanager的CU数,默认值为“1”。 tm_slot_num 否 Integer 每个taskmanager的slot数,默认值为“(parallel_number*tm_cus)/(cu_number-manager_cu_number)”。 feature 否 String 作业特性。表示用户作业使用的Flink镜像类型。 basic:表示使用DLI提供的基础Flink镜像。 custom:表示使用用户自定义的Flink镜像。 flink_version 否 String Flink版本。当用户设置“feature”为“basic”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用的DLI基础Flink镜像的版本。 image 否 String 自定义镜像 。格式为:组织名/镜像名:镜像版本。 当用户设置“feature”为“custom”时,该参数生效。用户可通过与“feature”参数配合使用,指定作业运行使用自定义的Flink镜像。关于如何使用自定义镜像,请参考《 数据湖探索 用户指南》。 resume_checkpoint 否 Boolean 异常重启是否从checkpoint恢复。 resume_max_num 否 Integer 异常重试最大次数,单位:次/小时。取值范围:-1或大于0。默认值为“-1”,表示无限次数。 checkpoint_path 否 String 用户Jar中checkpoint的储存地址,不同作业路径需要保持不同。 tags 否 Array of Objects Flink jar作业的标签。具体请参考表3。 runtime_config 否 String Flink作业运行时自定义优化参数。 表3 tags参数 参数名称 是否必选 参数类型 说明 key 是 String 标签的键。 说明: 标签的键的最大长度为128个字符,标签的键可以包含任意语种字母、数字、空格和_ . : =+-@ ,但首尾不能含有空格,不能以_sys_开头。 value 是 String 标签的值。 说明: 标签值的最大长度为255个字符,标签的值可以包含任意语种字母、数字、空格和_ . : =+-@ ,但首尾不能含有空格。
  • 请求示例 更新已有的SQL作业,更新后的作业名称为myjob,以共享模式运行在testQueue上。 { "name": "myjob", "desc": "这是我的第一个作业", "queue_name": "testQueue", "sql_body": "select * from source_table", "run_mode": "shared_cluster", "cu_number": 4, "parallel_number": 4, "checkpoint_enabled": false, "checkpoint_mode": "exactly_once", "checkpoint_interval": 10, "obs_bucket": "", "log_enabled": false, "smn_topic": "", "restart_when_exception": false, "idle_state_retention": 3600, "edge_group_ids": [ "62de1e1c-066e-48a8-a79d-f461a31b2ee1", "2eb00f85-99f2-4144-bcb7-d39ff47f9002" ], "dirty_data_strategy": "0", "udf_jar_url": "group/test.jar" }
  • 请求消息 表2 请求参数说明 参数名称 是否必选 参数类型 说明 name 否 String 作业名称。长度限制:0-57个字符。 desc 否 String 作业描述。长度限制:0-512个字符。 queue_name 否 String 队列名称。长度限制:0-128个字符。 sql_body 否 String Stream SQL语句,至少包含source, query, sink三个部分。长度限制:0-1024*1024个字符。 run_mode 否 String 作业运行模式: shared_cluster:共享。 exclusive_cluster:独享。 edge_node:边缘节点。 默认值为“shared_cluster”。 cu_number 否 Integer 用户为作业选择的CU数量。默认值为“2”。 parallel_number 否 Integer 用户设置的作业并行数目。默认值为“1”。 checkpoint_enabled 否 Boolean 是否开启作业自动快照功能。 开启:true 关闭:false 默认:false checkpoint_mode 否 Integer 快照模式,。两种可选: 1:表示exactly_once,数据只被消费一次。 2:at_least_once,数据至少被消费一次。 默认值为1。 checkpoint_interval 否 Integer 快照时间间隔。单位为秒,默认值为“10”。 obs_bucket 否 String 当“checkpoint_enabled”为“true”时,该参数是用户授权保存快照的OBS桶名称。 当“log_enabled” 为“true”时,该参数是用户授权保存作业日志的OBS桶名称。 log_enabled 否 Boolean 是否开启作业的日志上传到用户的OBS功能。默认为“false”。 smn_topic 否 String 当作业异常时,向该SMN主题推送告警信息。 restart_when_exception 否 Boolean 是否开启作业异常自动重启。默认为“false”。 idle_state_retention 否 Integer 空闲状态过期周期,单位为秒,默认值为“3600”。 edge_group_ids 否 Array of Strings 边缘计算组ID列表, 多个ID以逗号分隔。 dirty_data_strategy 否 String 作业脏数据策略。 “2:obsDir”:保存,obsDir表示脏数据存储路径。 “1”:抛出异常。 “0”:忽略。 默认值为“0”。 udf_jar_url 否 String 用户已上传到DLI资源管理系统的资源包名,用户sql作业的udf jar通过该参数传入。 manager_cu_number 否 Integer 用户为作业选择的管理单元(jobmanager)CU数量,默认值为“1”。 tm_cus 否 Integer 每个taskmanager的CU数,默认值为“1”。 tm_slot_num 否 Integer 每个taskmanager的slot数,默认值为“(parallel_number*tm_cus)/(cu_number-manager_cu_number)”。 operator_config 否 String 算子的并行度配置。 resume_checkpoint 否 Boolean 异常重启是否从checkpoint恢复。 resume_max_num 否 Integer 异常重试最大次数,单位:次/小时。取值范围:-1或大于0。默认值为“-1”,表示无限次数。 static_estimator_config 否 String 每个算子的流量/命中率配置,json格式的字符串。例如: {"operator_list":[{"id":"0a448493b4782967b150582570326227","rate_factor":0.55},{"id":"6d2677a0ecc3fd8df0b72ec675edf8f4","rate_factor":1},{"id":"ea632d67b7d595e5b851708ae9ad79d6","rate_factor":0.55},{"id":"bc764cd8ddf7a0cff126f51c16239658","output_rate":2000}]} runtime_config 否 String Flink作业运行时自定义优化参数。 flink_version 否 String Flink版本。当前只支持1.10和1.12。
  • 响应参数 状态码: 200 表3 响应Body参数 参数名称 参数类型 说明 is_success Boolean 执行请求是否成功。“true”表示请求执行成功。 message String 系统提示信息,执行成功时,信息可能为空。 状态码: 400 表4 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述信息。 状态码: 500 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述信息。
  • 响应示例 { "count": 2, "tags": [ { "key": "key1", "value": "value1" }, { "key": "key2", "value": "value3" } ] }
  • URI GET /v3/{project_id}/{resource_type}/{resource_id}/tags 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目编号,用于资源隔离。获取方式请参考获取项目ID。 resource_type 是 String 资源类型。 dli_queue:队列 dli_elastic_resource_pool:弹性资源池 dli_enhanced_datasource:增强型跨源连接 dli_database:数据库 dli_package_resource:资源包(不支持指定有Module ID的内置资源包) dli_flink_job:Flink作业 resource_id 是 String 资源ID。 最小长度:1 最大长度:1000 获取方式: 队列ID:通过调用查询所有队列获队列ID。响应中的queue_id为队列ID。 弹性资源池ID:通过调用查询所有弹性资源池获弹性资源池ID。响应中的resource_id为弹性资源池ID。 增强型跨源连接ID:在DLI管理控制台的“增强型跨源连接”列表页获取“连接ID”即为增强型跨源连接ID。 数据库ID:添加标签时候传入的数据库ID即数据库名。您可以在DLI控制台的“库表管理”页面查看数据库名称。 Flink作业ID:在DLI管理控制台的“Flink作业”列表页面单击Flink作业名称,在Flink作业的详情页面即可获取Flink作业ID。 表2 Query参数 参数 是否必选 参数类型 描述 limit 否 Integer 每页显示条数,默认为1000。 offset 否 Integer 查询结果偏移量,默认为0。
  • 响应参数 状态码: 200 表3 响应Body参数 参数名称 参数类型 说明 is_success Boolean 执行请求是否成功。“true”表示请求执行成功。 message String 系统提示信息,执行成功时,信息可能为空。 状态码: 400 表4 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述信息。 状态码: 500 表5 响应Body参数 参数 参数类型 描述 error_code String 错误码。 error_msg String 错误描述信息。
  • 请求示例 创建Spark作业,作业的Spark主类为“org.apache.spark.examples.SparkPi”,指定程序包batchTest/spark-examples_2.11-2.1.0.luxor.jar,并加载上传到DLI类型为jar的程序号和类型为files的资源包。 { "file": "batchTest/spark-examples_2.11-2.1.0.luxor.jar", "className": "org.apache.spark.examples.SparkPi", "sc_type": "A", "jars": ["demo-1.0.0.jar"], "files": ["count.txt"], "resources":[ {"name": "groupTest/testJar.jar", "type": "jar"}, {"name": "kafka-clients-0.10.0.0.jar", "type": "jar"}], "groups": [ {"name": "groupTestJar", "resources": [{"name": "testJar.jar", "type": "jar"}, {"name": "testJar1.jar", "type": "jar"}]}, {"name": "batchTest", "resources": [{"name": "luxor.jar", "type": "jar"}]}], "queue": " test", "name": "TestDemo4", "feature": "basic", "spark_version": "2.3.2" } 其中“batchTest/spark-examples_2.11-2.1.0.luxor.jar”已提前通过上传分组资源(废弃)接口上传。