华为云用户手册

  • 规格 表1 通用计算增强型(C型)弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 C3型 32 64 c3.8xlarge.2 KVM C3型 16 64 c3.4xlarge.4 KVM C3型 32 128 c3.8xlarge.4 KVM C3型 60 256 c3ne.15xlarge.4 KVM C3ne型 32 64 c3ne.8xlarge.2 KVM C3ne型 16 64 c3ne.4xlarge.4 KVM C3ne型 32 128 c3ne.8xlarge.4 KVM C3ne型 60 256 c3ne.15xlarge.4 KVM C6型 32 64 c6.8xlarge.2 KVM C6型 64 128 c6.16xlarge.2 KVM C6型 16 64 c6.4xlarge.4 KVM C6型 32 128 c6.8xlarge.4 KVM C6型 64 256 c6.16xlarge.4 KVM C6s型 32 64 c6s.8xlarge.2 KVM C6s型 64 128 c6s.16xlarge.2 KVM C7型 32 64 c7.8xlarge.2 基于擎天架构的自研极简虚拟化 C7型 64 128 c7.16xlarge.2 基于擎天架构的自研极简虚拟化 C7型 128 256 c7.32xlarge.2 基于擎天架构的自研极简虚拟化 C7型 16 64 c7.4xlarge.4 基于擎天架构的自研极简虚拟化 C7型 32 128 c7.8xlarge.4 基于擎天架构的自研极简虚拟化 C7型 64 256 c7.16xlarge.4 基于擎天架构的自研极简虚拟化 C7型 128 512 c7.32xlarge.4 基于擎天架构的自研极简虚拟化 表2 内存优化型弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 M3型 8 64 m3.2xlarge.8 KVM M3型 16 128 m3.4xlarge.8 KVM M3型 32 256 m3.8xlarge.8 KVM M3型 60 512 m3.15xlarge.8 KVM M6型 8 64 m6.2xlarge.8 KVM M6型 16 128 m6.4xlarge.8 KVM M6型 32 256 m6.8xlarge.8 KVM M6型 64 512 m6.16xlarge.8 KVM M7型 8 64 m7.2xlarge.8 基于擎天架构的自研极简虚拟化 M7型 16 128 m7.4xlarge.8 基于擎天架构的自研极简虚拟化 M7型 32 256 m7.8xlarge.8 基于擎天架构的自研极简虚拟化 M7型 64 512 m7.16xlarge.8 基于擎天架构的自研极简虚拟化 M7型 128 1024 m7.32xlarge.8 基于擎天架构的自研极简虚拟化 表3 鲲鹏通用计算增强型(KC1型)弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 KC1型 16 64 kc1.4xlarge.4 KVM KC1型 32 64 kc1.8xlarge.2 KVM KC1型 32 128 kc1.8xlarge.4 KVM KC1型 60 120 kc1.15xlarge.2 KVM 表4 鲲鹏内存优化型(KM1型)弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 KM1型 8 64 km1.2xlarge.8 KVM KM1型 16 128 km1.4xlarge.8 KVM KM1型 32 256 km1.8xlarge.8 KVM KM1型 60 480 km1.15xlarge.8 KVM 表5 鲲鹏超高I/O型(KI1型)弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 KI1型 16 64 ki1.4xlarge.4 KVM KI1型 32 128 ki1.8xlarge.4 KVM KI1型 64 228 ki1.16xlarge.4 KVM 表6 超高I/O型弹性云服务器的规格 类型 vCPU 内存(GB) 规格名称 虚拟化类型 I3型 8 64 i3.2xlarge.8 KVM I3型 16 128 i3.4xlarge.8 KVM I3型 32 256 i3.8xlarge.8 KVM I3型 64 512 i3.16xlarge.8 KVM IR3型 16 64 ir3.4xlarge.4 KVM IR3型 32 128 ir3.8xlarge.4 KVM
  • AK/SK认证 AK/SK签名认证方式仅支持消息体大小12M以内,12M以上的请求请使用Token认证。 AK/SK认证就是使用AK/SK对请求进行签名,在请求时将签名信息添加到消息头,从而通过身份认证。 AK(Access Key ID):访问密钥ID。与私有访问密钥关联的唯一标识符;访问密钥ID和私有访问密钥一起使用,对请求进行加密签名。 SK(Secret Access Key):与访问密钥ID结合使用的密钥,对请求进行加密签名,可标识发送方,并防止请求被修改。 使用AK/SK认证时,您可以基于签名算法使用AK/SK对请求进行签名,也可以使用专门的签名SDK对请求进行签名。详细的签名方法和SDK使用方法请参见AK/SK签名指南。 签名SDK只提供签名功能,与服务提供的SDK不同,使用时请注意。
  • Token认证 Token的有效期为24小时,需要使用一个Token鉴权时,可以先缓存起来,避免频繁调用。 Token在计算机系统中代表令牌(临时)的意思,拥有Token就代表拥有某种权限。Token认证就是在调用API的时候将Token加到请求消息头,从而通过身份认证,获得操作API的权限。 Token可通过调用获取用户Token接口获取,调用本服务API需要project级别的Token,即调用获取用户Token接口时,请求body中auth.scope的取值需要选择project,如下所示。 {"auth": {"identity": {"methods": ["password"],"password": {"user": {"name": "username","password": "********","domain": {"name": "domainname"}}}},"scope": {"project": {"id": "xxxxxxxx"}}}} 获取Token 后,再调用其他接口时,您需要在请求消息头中添加“X-Auth-Token”,其值即为Token。例如Token值为“ABCDEFJ....”,则调用接口时将“X-Auth-Token: ABCDEFJ....”加到请求消息头即可,如下所示。 Content-Type: application/jsonX-Auth-Token: ABCDEFJ.... 您还可以通过这个视频教程了解如何使用Token认证:https://bbs.huaweicloud.com/videos/101333 。
  • 基本概念 帐号 用户注册时的帐号,帐号对其所拥有的资源及服务具有完全的访问权限,可以重置用户密码、分配用户权限等。由于帐号是付费主体,为了确保帐号安全,建议您不要直接使用帐号进行日常管理工作,而是创建用户并使用用户进行日常管理工作。 用户 由帐号在 IAM 中创建的用户,是云服务的使用人员,具有身份凭证(密码和访问密钥)。 在我的凭证下,您可以查看帐号ID和用户ID。通常在调用API的鉴权过程中,您需要用到帐号、用户和密码等信息。 区域 指云资源所在的物理位置,同一区域内可用区间内网互通,不同区域间内网不互通。通过在不同地区创建云资源,可以将应用程序设计的更接近特定客户的要求,或满足不同地区的法律或其他要求。 可用区 一个可用区是一个或多个物理数据中心的集合,有独立的风火水电,AZ内逻辑上再将计算、网络、存储等资源划分成多个集群。一个Region中的多个AZ间通过高速光纤相连,以满足用户跨AZ构建高可用性系统的需求。 项目 区域默认对应一个项目,这个项目由系统预置,用来隔离物理区域间的资源(计算资源、存储资源和网络资源),以默认项目为单位进行授权,用户可以访问您帐号中该区域的所有资源。如果您希望进行更加精细的权限控制,可以在区域默认的项目中创建子项目,并在子项目中创建资源,然后以子项目为单位进行授权,使得用户仅能访问特定子项目中资源,使得资源的权限控制更加精确。 图1 项目隔离模型 企业项目 企业项目是项目的升级版,针对企业不同项目间资源的分组和管理,是逻辑隔离。企业项目中可以包含多个区域的资源,且项目中的资源可以迁入迁出。 关于企业项目ID的获取及企业项目特性的详细信息,请参见《企业管理服务用户指南》。 Checkpoint 消费检查点。应用程序消费数据时,记录已消费数据的最新序列号作为检查点。当重新消费数据时,可根据此检查点继续消费。 APP 应用程序标识符。当多个应用程序分别消费同一通道的数据时,为区分不同应用程序的消费检查点,使用APP作为标识。 父主题: 使用前必读
  • 概述 欢迎使用 MapReduce服务 (MapReduce Service, MRS )。MRS服务提供租户完全可控的企业级大数据集群云服务,轻松运行Hadoop、Spark、HBase、Kafka、Storm等大数据组件。 您可以使用本文档提供API对MRS服务进行相关操作,如创建集群、删除集群、调整集群节点、创建作业并执行等。支持的全部操作请参见API概览。 在调用MRS服务API之前,请确保已经充分了解MRS服务相关概念,详细信息请参见产品介绍。 MRS 3.x版本镜像,不支持MRS V1.1作业管理接口,需要使用V2作业管理接口。如果仍需使用V1.1作业管理接口,请在历史API中,获取相关接口。 父主题: 使用前必读
  • API版本选择建议 当前MRS服务对外API提供云服务自定义规范的API V1.1和V2两类接口,V2版本目前仅部分接口支持,主要用于提交作业和提交SQL语句。在接口功能相同的情况下,推荐您优先使用V2接口。 MRS所有版本均支持V1.1接口。 针对MRS 1.X版本的集群,MRS 1.8.7及之后版本支持V2接口。 针对MRS 2.X版本的集群,MRS 2.0.3及之后版本支持V2接口。 在某些功能上V2接口以V1.1接口为基础,在功能上做了如下功能增强: 支持安全集群提交作业。 支持HiveSql、Spark python和Flink作业。 支持SparkSql和SparkScript结果查询。 整体API及对应功能列表详见API概览。 父主题: 使用前必读
  • 响应参数 状态码: 200 表3 响应Body参数 参数 参数类型 描述 total_count Long 文件总数,与分页无关。 files Array of FileStatusV2 objects 文件列表。 表4 FileStatusV2 参数 参数类型 描述 path_suffix String 文件在当前目录下的后缀,如获取“/tmp”目录,下面的“/tmp/test”文件,此处path_suffix内容为“test”。 owner String 文件拥有者。 group String 文件属组。 permission String 权限信息。 replication Integer 副本数。 block_size Integer 块大小。 length Integer 文件长度。 type String 文件类型: FILE:文件 DIRECTORY:目录 children_num Integer 该目录下的文件条目数。 access_time Long 文件访问时间。 modification_time Long 文件修改时间。
  • 响应示例 状态码: 200 获取指定目录文件列表成功 { "total_count" : 2, "files" : [ { "access_time" : 0, "block_size" : 0, "children_num" : 0, "group" : "hadoop", "length" : 0, "modification_time" : 1587179516623, "owner" : "hdfs", "path_suffix" : "app-logs", "permission" : 777, "replication" : 0, "type" : "DIRECTORY" }, { "access_time" : 1587267212761, "block_size" : 134217728, "children_num" : 0, "group" : "hadoop", "length" : 23666188, "modification_time" : 1587222156003, "owner" : "root", "path_suffix" : "data-m-00000", "permission" : "644", "replication" : 3, "type" : "FILE" } ]}
  • 请求消息头 附加请求头字段,如指定的URI和HTTP方法所要求的字段。例如定义消息体类型的请求头“Content-Type”,请求鉴权信息等。 详细的公共请求消息头字段请参见表3。 表3 公共请求消息头 名称 描述 是否必选 示例 X-Sdk-Date 请求的发生时间,格式为(YYYYMMDD'T'HHMMSS'Z')。 取值为当前系统的GMT时间。 使用AK/SK认证时必选。 20150907T101459Z Host 请求的服务器信息,从服务API的URL中获取。值为hostname[:port]。端口缺省时使用默认的端口,https的默认端口为443。 使用AK/SK认证时必选。 code.test.com or code.test.com:443 Content-Type 发送的实体的MIME类型。推荐用户默认使用application/json,有其他取值时会在具体接口中专门说明。 是 application/json Content-Length 请求body长度,单位为Byte。 POST/PUT请求必填。 GET不能包含。 3495 X-Project-Id project id,用于不同project取token。 否 e9993fc787d94b6c886cbaa340f9c0f4 X-Auth-Token 用户Token。 用户Token也就是调用获取用户Token接口的响应值,该接口是唯一不需要认证的接口。 请求响应成功后在响应消息头中包含的“X-Subject-Token”的值即为Token值。 否 使用Token认证时必选。 - X-Language 请求语言。 否 en-us X-Domain-Id 帐号ID。 否 - API同时支持使用AK/SK认证,AK/SK认证是使用SDK对请求进行签名,签名过程会自动往请求中添加Authorization(签名认证信息)和X-Sdk-Date(请求发送的时间)请求头。 AK/SK认证的详细说明请参见认证鉴权的“AK/SK认证”。 对于获取用户Token接口,由于不需要认证,所以只添加“Content-Type”即可,添加消息头后的请求如下所示。 POST https://iam.cn-north-1.myhuaweicloud.com/v3/auth/tokensContent-Type: application/json
  • 请求消息体(可选) 该部分可选。请求消息体通常以结构化格式(如JSON或XML)发出,与请求消息头中Content-Type对应,传递除请求消息头之外的内容。 每个接口的请求消息体内容不同,也并不是每个接口都需要有请求消息体(或者说消息体为空),GET、DELETE操作类型的接口就不需要消息体,消息体具体内容需要根据具体接口而定。 对于获取用户Token接口,您可以从接口的请求部分看到所需的请求参数及参数说明。将消息体加入后的请求如下所示,加粗的斜体字段需要根据实际值填写,其中username为用户名,domainname为用户所属的帐号名称,********为用户登录密码,xxxxxxxxxxxxxxxxxx为project的ID,获取方法请参见获取项目ID。 scope参数定义了Token的作用域,上面示例中获取的Token仅能访问project下的资源。您还可以设置Token的作用域为某个帐号下所有资源或帐号的某个project下的资源,详细定义请参见IAM服务的获取用户Token。 POST https://iam.cn-north-1.myhuaweicloud.com/v3/auth/tokensContent-Type: application/json{ "auth": { "identity": { "methods": [ "password" ], "password": { "user": { "name": "username", "password": "********", "domain": { "name": "domainname" } } } }, "scope": { "project": { "id": "xxxxxxxxxxxxxxxxxx" } } }} 到这里为止这个请求需要的内容就具备齐全了,您可以使用curl、Postman或直接编写代码等方式发送请求调用API。对于获取用户Token接口,返回的响应消息头中“x-subject-token”就是需要获取的用户Token。有了Token之后,您就可以使用Token认证调用其他API。
  • 请求URI 请求URI由如下部分组成: {URI-scheme}://{Endpoint}/{resource-path}?{query-string} 尽管请求URI包含在请求消息头中,但大多数语言或框架都要求您从请求消息中单独传递它,所以在此单独强调。 表1 URI中的参数说明 参数 说明 URI-scheme 表示用于传输请求的协议,当前所有API均采用HTTPS协议。 Endpoint 指定承载REST服务端点的服务器 域名 或IP,不同服务不同区域的Endpoint不同,具体请参考终端节点。 resource-path 资源路径,也即API访问路径。从具体接口的URI模块获取,例如获取用户TokenAPI的resource-path为“/v3/auth/tokens”。 query-string 查询参数,是可选部分,并不是每个API都有查询参数。查询参数前面需要带一个“?”,形式为“参数名=参数取值”,例如“limit=10”,表示查询不超过10条数据。 例如您需要获取IAM在“华北-北京一”区域的Token,则需使用“华北-北京一”区域的Endpoint(iam.cn-north-1.myhuaweicloud.com),并在获取用户Token的URI部分找到resource-path(/v3/auth/tokens),拼接起来如下所示。 https://iam.cn-north-1.myhuaweicloud.com/v3/auth/tokens 图1 URI示意图 为查看方便,在每个具体API的URI部分,只给出resource-path部分,并将请求方法写在一起。这是因为URI-scheme都是HTTPS,而Endpoint在同一个区域也相同,所以简洁起见将这两部分省略。
  • 请求方法 HTTP请求方法(也称为操作或动词),它告诉服务你正在请求什么类型的操作。 表2 HTTP方法 方法 说明 GET 请求服务器返回指定资源。 PUT 请求服务器更新指定资源。 POST 请求服务器新增资源或执行特殊操作。 DELETE 请求服务器删除指定资源,如删除对象等。 HEAD 请求服务器资源头部。 PATCH 请求服务器更新资源的部分内容。 当资源不存在的时候,PATCH可能会去创建一个新的资源。 在获取用户Token的URI部分,您可以看到其请求方法为“POST”,则其请求为: POST https://iam.cn-north-1.myhuaweicloud.com/v3/auth/tokens
  • 支持的授权项 策略包含系统策略和自定义策略,如果系统策略不满足授权要求,MRS集群管理员可以创建自定义策略,并通过给用户组授予自定义策略来进行精细的访问控制。策略支持的操作与API相对应,授权项列表说明如下: 权限:允许或拒绝某项操作。 对应API接口:自定义策略实际调用的API接口。 授权项:自定义策略中支持的Action,在自定义策略中的Action中写入授权项,可以实现授权项对应的权限功能。 依赖的授权项:部分Action存在对其他Action的依赖,需要将依赖的Action同时写入授权项,才能实现对应的权限功能。 IAM项目(Project)/企业项目(Enterprise Project):自定义策略的授权范围,包括IAM项目与企业项目。授权范围如果同时支持IAM项目和企业项目,表示此授权项对应的自定义策略,可以在IAM和企业管理两个服务中给用户组授权并生效。如果仅支持IAM项目,不支持企业项目,表示仅能在IAM中给用户组授权并生效,如果在企业管理中授权,则该自定义策略不生效。关于IAM项目与企业项目的区别,详情请参见:IAM与企业管理的区别。 “√”表示支持,“x”表示暂不支持。 表1 API授权项列表 权限 对应API接口 授权项(Action) IAM项目 (Project) 企业项目 (Enterprise Project) 创建集群并执行作业(V1) POST /v1.1/{project_id}/run-job-flow mrs:cluster:create √ √ 创建集群(V2) POST/v2/{project_id}/clusters √ √ 查询集群列表(V1) GET /v1.1/{project_id}/cluster_infos mrs:cluster:list √ √ 获取集群列表V2接口(可获取集群详细信息) GET/v2/{project_id}/clusters √ √ 删除集群 DELETE /v1.1/{project_id}/clusters/{cluster_id} mrs:cluster:delete √ √ 查询主机列表(V1) GET /v1.1/{project_id}/clusters/{cluster_id}/hosts mrs:host:list √ √ 查询文件列表(V2) GET/v2/{project_id}/clusters/{cluster_id}/files mrs:file:list √ √ 新增作业并执行(V1) POST /v1.1/{project_id}/jobs/submit-job mrs:job:submit √ √ 新增并执行作业(V2) POST /v2/{project_id}/clusters/{cluster_id}/job-executions √ √ 查询作业exe对象列表(V1) GET /v1.1/{project_id}/job-exes mrs:job:list √ √ 查询单个作业信息(V2) GET /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id} √ √ 查询作业列表信息(V2) GET /v2/{project_id}/clusters/{cluster_id}/job-executions √ √ 获取SQL结果(V2) GET /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/sql-result √ √ 查询作业exe对象详情(V1) GET /v1.1/{project_id}/job-exes/{job_exe_id} mrs:job:get √ √ 查询用户代理信息 GET/v2/{project_id}/clusters/{cluster_id}/agency-mapping √ √ 查询作业日志详情 GET/v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/log-detail √ √ 查询指定集群的标签 GET /v1.1/{project_id}/clusters/{cluster_id}/tags mrs:tag:list √ √ 查询所有标签 GET /v1.1/{project_id}/clusters/tags √ √ 创建单个集群标签 POST/v1.1/{project_id}/clusters/{cluster_id}/tags mrs:tag:create √ √ 批量添加/删除集群标签 POST /v1.1/{project_id}/clusters/{cluster_id}/tags/action mrs:tag:batchOperate √ √ 查询特定标签的集群列表 POST /v1.1/{project_id}/clusters/resource_instances/action mrs:tag:listResource √ × 终止作业(V2) POST /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/kill mrs:job:stop √ √ 批量删除作业(V2) POST /v2/{project_id}/clusters/{cluster_id}/job-executions/batch-delete mrs:job:batchDelete √ √ 取消sql执行 POST/v2/{project_id}/clusters/{cluster_id}/sql-execution/{sql_id}/cancel mrs:sql:cancel √ √ 提交SQL语句 POST/v2/{project_id}/clusters/{cluster_id}/sql-execution mrs:sql:execute √ √ 获取所有的弹性伸缩策略 GET/v2/{project_id}/autoscaling-policy/{cluster_id} mrs:cluster:policy √ √ 配置弹性伸缩规则 POST /v1.1/{project_id}/autoscaling-policy/{cluster_id} √ √ 更新用户代理信息 PUT/v2/{project_id}/clusters/{cluster_id}/agency-mapping mrs:cluster:syncUser √ √ 获取sql执行结果 GET/v2/{project_id}/clusters/{cluster_id}/sql-execution/{sql_id} mrs:sql:get √ √
  • 接口约束 集群登录方式有密码和密钥对两种,两者必选其一。- 使用密码方式需要配置访问集群节点的root密码,即cluster_master_secret。- 使用密钥对方式需要配置密钥对名称,即node_public_cert_name。- 磁盘参数可以使用volume_type和volume_size表示,也可以使用多磁盘相关的参数(master_data_volume_type、master_data_volume_size、master_data_volume_count、core_data_volume_type、core_data_volume_size和core_data_volume_count)表示,以上两种方式任选一组进行配置。
  • 请求示例 使用node_groups参数组,创建一个启用“集群高可用”功能的集群,集群版本号为MRS 3.1.0。 POST https://{endpoint}/v1.1/{project_id}/run-job-flow{ "billing_type" : 12, "data_center" : "", "available_zone_id" : "d573142f24894ef3bd3664de068b44b0", "cluster_name" : "mrs_HEbK", "cluster_version" : "MRS 3.1.0", "safe_mode" : 0, "cluster_type" : 0, "component_list" : [ { "component_name" : "Hadoop" }, { "component_name" : "Spark" }, { "component_name" : "HBase" }, { "component_name" : "Hive" }, { "component_name" : "Presto" }, { "component_name" : "Tez" }, { "component_name" : "Hue" }, { "component_name" : "Loader" }, { "component_name" : "Flink" } ], "vpc" : "vpc-4b1c", "vpc_id" : "4a365717-67be-4f33-80c5-98e98a813af8", "subnet_id" : "67984709-e15e-4e86-9886-d76712d4e00a", "subnet_name" : "subnet-4b44", "security_groups_id" : "4820eace-66ad-4f2c-8d46-cf340e3029dd", "enterprise_project_id" : "0", "tags" : [ { "key" : "key1", "value" : "value1" }, { "key" : "key2", "value" : "value2" } ], "node_groups" : [ { "group_name" : "master_node_default_group", "node_num" : 2, "node_size" : "s3.xlarge.2.linux.bigdata", "root_volume_size" : 480, "root_volume_type" : "SATA", "data_volume_type" : "SATA", "data_volume_count" : 1, "data_volume_size" : 600 }, { "group_name" : "core_node_analysis_group", "node_num" : 3, "node_size" : "s3.xlarge.2.linux.bigdata", "root_volume_size" : 480, "root_volume_type" : "SATA", "data_volume_type" : "SATA", "data_volume_count" : 1, "data_volume_size" : 600 }, { "group_name" : "task_node_analysis_group", "node_num" : 2, "node_size" : "s3.xlarge.2.linux.bigdata", "root_volume_size" : 480, "root_volume_type" : "SATA", "data_volume_type" : "SATA", "data_volume_count" : 0, "data_volume_size" : 600, "auto_scaling_policy" : { "auto_scaling_enable" : true, "min_capacity" : 1, "max_capacity" : "3", "resources_plans" : [ { "period_type" : "daily", "start_time" : "9:50", "end_time" : "10:20", "min_capacity" : 2, "max_capacity" : 3 }, { "period_type" : "daily", "start_time" : "10:20", "end_time" : "12:30", "min_capacity" : 0, "max_capacity" : 2 } ], "exec_scripts" : [ { "name" : "before_scale_out", "uri" : "s3a://XXX/zeppelin_install.sh", "parameters" : "${mrs_scale_node_num} ${mrs_scale_type} xxx", "nodes" : [ "master", "core", "task" ], "active_master" : "true", "action_stage" : "before_scale_out", "fail_action" : "continue" }, { "name" : "after_scale_out", "uri" : "s3a://XXX/storm_rebalance.sh", "parameters" : "${mrs_scale_node_hostnames} ${mrs_scale_node_ips}", "nodes" : [ "master", "core", "task" ], "active_master" : "true", "action_stage" : "after_scale_out", "fail_action" : "continue" } ], "rules" : [ { "name" : "default-expand-1", "adjustment_type" : "scale_out", "cool_down_minutes" : 5, "scaling_adjustment" : 1, "trigger" : { "metric_name" : "YARNMemoryAvailablePercentage", "metric_value" : "25", "comparison_operator" : "LT", "evaluation_periods" : 10 } }, { "name" : "default-shrink-1", "adjustment_type" : "scale_in", "cool_down_minutes" : 5, "scaling_adjustment" : 1, "trigger" : { "metric_name" : "YARNMemoryAvailablePercentage", "metric_value" : "70", "comparison_operator" : "GT", "evaluation_periods" : 10 } } ] } } ], "login_mode" : 1, "cluster_master_secret" : "", "cluster_admin_secret" : "", "log_collection" : 1, "add_jobs" : [ { "job_type" : 1, "job_name" : "tenji111", "jar_path" : "s3a://bigdata/program/hadoop-mapreduce-examples-2.7.2.jar", "arguments" : "wordcount", "input" : "s3a://bigdata/input/wd_1k/", "output" : "s3a://bigdata/ouput/", "job_log" : "s3a://bigdata/log/", "shutdown_cluster" : true, "file_action" : "", "submit_job_once_cluster_run" : true, "hql" : "", "hive_script_path" : "" } ], "bootstrap_scripts" : [ { "name" : "Modify os config", "uri" : "s3a://XXX/modify_os_config.sh", "parameters" : "param1 param2", "nodes" : [ "master", "core", "task" ], "active_master" : "false", "before_component_start" : "true", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "BEFORE_COMPONENT_FIRST_START", "BEFORE_SCALE_IN" ] }, { "name" : "Install zepplin", "uri" : "s3a://XXX/zeppelin_install.sh", "parameters" : "", "nodes" : [ "master" ], "active_master" : "true", "before_component_start" : "false", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "AFTER_SCALE_IN", "AFTER_SCALE_OUT" ] } ]} 不使用node_groups参数组,创建一个启用“集群高可用”功能的集群,集群版本号为MRS 3.1.0。 POST https://{endpoint}/v1.1/{project_id}/run-job-flow{ "billing_type" : 12, "data_center" : "", "master_node_num" : 2, "master_node_size" : "s3.2xlarge.2.linux.bigdata", "core_node_num" : 3, "core_node_size" : "s1.xlarge.linux.bigdata", "available_zone_id" : "d573142f24894ef3bd3664de068b44b0", "cluster_name" : "newcluster", "vpc" : "vpc1", "vpc_id" : "5b7db34d-3534-4a6e-ac94-023cd36aaf74", "subnet_id" : "815bece0-fd22-4b65-8a6e-15788c99ee43", "subnet_name" : "subnet", "security_groups_id" : "845bece1-fd22-4b45-7a6e-14338c99ee43", "tags" : [ { "key" : "key1", "value" : "value1" }, { "key" : "key2", "value" : "value2" } ], "cluster_version" : "MRS 3.1.0", "cluster_type" : 0, "master_data_volume_type" : "SATA", "master_data_volume_size" : 600, "master_data_volume_count" : 1, "core_data_volume_type" : "SATA", "core_data_volume_size" : 600, "core_data_volume_count" : 2, "node_public_cert_name" : "SSHkey-bba1", "safe_mode" : 0, "log_collection" : 1, "task_node_groups" : [ { "node_num" : 2, "node_size" : "s3.xlarge.2.linux.bigdata", "data_volume_type" : "SATA", "data_volume_count" : 1, "data_volume_size" : 600, "auto_scaling_policy" : { "auto_scaling_enable" : true, "min_capacity" : 1, "max_capacity" : "3", "resources_plans" : [ { "period_type" : "daily", "start_time" : "9: 50", "end_time" : "10: 20", "min_capacity" : 2, "max_capacity" : 3 }, { "period_type" : "daily", "start_time" : "10: 20", "end_time" : "12: 30", "min_capacity" : 0, "max_capacity" : 2 } ], "exec_scripts" : [ { "name" : "before_scale_out", "uri" : "s3a: //XXX/zeppelin_install.sh", "parameters" : "${mrs_scale_node_num}${mrs_scale_type}xxx", "nodes" : [ "master", "core", "task" ], "active_master" : "true", "action_stage" : "before_scale_out", "fail_action" : "continue" }, { "name" : "after_scale_out", "uri" : "s3a: //XXX/storm_rebalance.sh", "parameters" : "${mrs_scale_node_hostnames}${mrs_scale_node_ips}", "nodes" : [ "master", "core", "task" ], "active_master" : "true", "action_stage" : "after_scale_out", "fail_action" : "continue" } ], "rules" : [ { "name" : "default-expand-1", "adjustment_type" : "scale_out", "cool_down_minutes" : 5, "scaling_adjustment" : 1, "trigger" : { "metric_name" : "YARNMemoryAvailablePercentage", "metric_value" : "25", "comparison_operator" : "LT", "evaluation_periods" : 10 } }, { "name" : "default-shrink-1", "adjustment_type" : "scale_in", "cool_down_minutes" : 5, "scaling_adjustment" : 1, "trigger" : { "metric_name" : "YARNMemoryAvailablePercentage", "metric_value" : "70", "comparison_operator" : "GT", "evaluation_periods" : 10 } } ] } } ], "component_list" : [ { "component_name" : "Hadoop" }, { "component_name" : "Spark" }, { "component_name" : "HBase" }, { "component_name" : "Hive" } ], "add_jobs" : [ { "job_type" : 1, "job_name" : "tenji111", "jar_path" : "s3a: //bigdata/program/hadoop-mapreduce-examples-2.7.2.jar", "arguments" : "wordcount", "input" : "s3a: //bigdata/input/wd_1k/", "output" : "s3a: //bigdata/ouput/", "job_log" : "s3a: //bigdata/log/", "shutdown_cluster" : true, "file_action" : "", "submit_job_once_cluster_run" : true, "hql" : "", "hive_script_path" : "" } ], "bootstrap_scripts" : [ { "name" : "Modifyosconfig", "uri" : "s3a: //XXX/modify_os_config.sh", "parameters" : "param1param2", "nodes" : [ "master", "core", "task" ], "active_master" : "false", "before_component_start" : "true", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "BEFORE_COMPONENT_FIRST_START", "BEFORE_SCALE_IN" ] }, { "name" : "Installzepplin", "uri" : "s3a: //XXX/zeppelin_install.sh", "parameters" : "", "nodes" : [ "master" ], "active_master" : "true", "before_component_start" : "false", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "AFTER_SCALE_IN", "AFTER_SCALE_OUT" ] } ]} 使用node_groups参数组,创建一个关闭“集群高可用”功能、最小规格的集群,集群版本号为MRS 3.1.0。 POST https://{endpoint}/v1.1/{project_id}/run-job-flow{ "billing_type" : 12, "data_center" : "", "available_zone_id" : "d573142f24894ef3bd3664de068b44b0", "cluster_name" : "mrs_HEbK", "cluster_version" : "MRS 3.1.0", "safe_mode" : 0, "cluster_type" : 0, "component_list" : [ { "component_name" : "Hadoop" }, { "component_name" : "Spark" }, { "component_name" : "HBase" }, { "component_name" : "Hive" }, { "component_name" : "Presto" }, { "component_name" : "Tez" }, { "component_name" : "Hue" }, { "component_name" : "Loader" }, { "component_name" : "Flink" } ], "vpc" : "vpc-4b1c", "vpc_id" : "4a365717-67be-4f33-80c5-98e98a813af8", "subnet_id" : "67984709-e15e-4e86-9886-d76712d4e00a", "subnet_name" : "subnet-4b44", "security_groups_id" : "4820eace-66ad-4f2c-8d46-cf340e3029dd", "enterprise_project_id" : "0", "tags" : [ { "key" : "key1", "value" : "value1" }, { "key" : "key2", "value" : "value2" } ], "node_groups" : [ { "group_name" : "master_node_default_group", "node_num" : 1, "node_size" : "s3.xlarge.2.linux.bigdata", "root_volume_size" : 480, "root_volume_type" : "SATA", "data_volume_type" : "SATA", "data_volume_count" : 1, "data_volume_size" : 600 }, { "group_name" : "core_node_analysis_group", "node_num" : 1, "node_size" : "s3.xlarge.2.linux.bigdata", "root_volume_size" : 480, "root_volume_type" : "SATA", "data_volume_type" : "SATA", "data_volume_count" : 1, "data_volume_size" : 600 } ], "login_mode" : 1, "cluster_master_secret" : "", "cluster_admin_secret" : "", "log_collection" : 1, "add_jobs" : [ { "job_type" : 1, "job_name" : "tenji111", "jar_path" : "s3a://bigdata/program/hadoop-mapreduce-examples-2.7.2.jar", "arguments" : "wordcount", "input" : "s3a://bigdata/input/wd_1k/", "output" : "s3a://bigdata/ouput/", "job_log" : "s3a://bigdata/log/", "shutdown_cluster" : true, "file_action" : "", "submit_job_once_cluster_run" : true, "hql" : "", "hive_script_path" : "" } ], "bootstrap_scripts" : [ { "name" : "Modify os config", "uri" : "s3a://XXX/modify_os_config.sh", "parameters" : "param1 param2", "nodes" : [ "master", "core", "task" ], "active_master" : "false", "before_component_start" : "true", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "BEFORE_COMPONENT_FIRST_START", "BEFORE_SCALE_IN" ] }, { "name" : "Install zepplin", "uri" : "s3a://XXX/zeppelin_install.sh", "parameters" : "", "nodes" : [ "master" ], "active_master" : "true", "before_component_start" : "false", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "AFTER_SCALE_IN", "AFTER_SCALE_OUT" ] } ]} 不使用node_groups参数组,创建一个关闭“集群高可用”功能、最小规格的集群,集群版本号为MRS 3.1.0。 POST https://{endpoint}/v1.1/{project_id}/run-job-flow{ "billing_type" : 12, "data_center" : "", "master_node_num" : 1, "master_node_size" : "s3.2xlarge.2.linux.bigdata", "core_node_num" : 1, "core_node_size" : "s1.xlarge.linux.bigdata", "available_zone_id" : "d573142f24894ef3bd3664de068b44b0", "cluster_name" : "newcluster", "vpc" : "vpc1", "vpc_id" : "5b7db34d-3534-4a6e-ac94-023cd36aaf74", "subnet_id" : "815bece0-fd22-4b65-8a6e-15788c99ee43", "subnet_name" : "subnet", "security_groups_id" : "", "enterprise_project_id" : "0", "tags" : [ { "key" : "key1", "value" : "value1" }, { "key" : "key2", "value" : "value2" } ], "cluster_version" : "MRS 3.1.0", "cluster_type" : 0, "master_data_volume_type" : "SATA", "master_data_volume_size" : 600, "master_data_volume_count" : 1, "core_data_volume_type" : "SATA", "core_data_volume_size" : 600, "core_data_volume_count" : 1, "login_mode" : 1, "node_public_cert_name" : "SSHkey-bba1", "safe_mode" : 0, "cluster_admin_secret" : "******", "log_collection" : 1, "component_list" : [ { "component_name" : "Hadoop" }, { "component_name" : "Spark" }, { "component_name" : "HBase" }, { "component_name" : "Hive" }, { "component_name" : "Presto" }, { "component_name" : "Tez" }, { "component_name" : "Hue" }, { "component_name" : "Loader" }, { "component_name" : "Flink" } ], "add_jobs" : [ { "job_type" : 1, "job_name" : "tenji111", "jar_path" : "s3a://bigdata/program/hadoop-mapreduce-examples-XXX.jar", "arguments" : "wordcount", "input" : "s3a://bigdata/input/wd_1k/", "output" : "s3a://bigdata/ouput/", "job_log" : "s3a://bigdata/log/", "shutdown_cluster" : false, "file_action" : "", "submit_job_once_cluster_run" : true, "hql" : "", "hive_script_path" : "" } ], "bootstrap_scripts" : [ { "name" : "Install zepplin", "uri" : "s3a://XXX/zeppelin_install.sh", "parameters" : "", "nodes" : [ "master" ], "active_master" : "false", "before_component_start" : "false", "start_time" : "1667892101", "state" : "IN_PROGRESS", "fail_action" : "continue", "action_stages" : [ "AFTER_SCALE_IN", "AFTER_SCALE_OUT" ] } ]}
  • 规格 表1 IO优化型(IO2型)裸金属服务器的规格 规格名称/ID CPU 内存(GB) 本地磁盘 扩展配置 physical.io2.xlarge 2 * 22 Core Intel Xeon Gold 6161 V5 (2.2 GHz) 384 DDR4 RAM (GB) 2 * 800GB SSD RAID 1 + 10 * 800GB SSD 2 x 2 * 10GE 表2 本地存储型(D2型)裸金属服务器的规格 规格名称/ID CPU 内存(GB) 本地磁盘 扩展配置 physical.d2.large 2 * 12 Core Intel Xeon Gold 5118 V5 (2.3 GHz) 192 DDR4 RAM (GB) 2 * 600GB SAS System Disk RAID 1 + 12 * 10TB SATA 2 x 2 * 10GE
  • 操作步骤 接口相关信息 URI格式:PUT /v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。 {project_id}信息请通过获取项目ID获取。 {cluster_id}信息即创建集群成功后返回结果中的“cluster_id” 或参考获取集群ID获取。 Body: { "service_id": "", "plan_id": "", "parameters": { "order_id": "", "scale_type": "scale_out", "node_id": "node_orderadd", "node_group": "core_node_default_group", "instances": "1", "skip_bootstrap_scripts":false, "scale_without_start":false }, "previous_values": { "plan_id": "" } } 参数详细信息请参考调整集群节点获取。 响应示例 {"result": "succeeded"}
  • 请求示例 批量刪除 POST /v1.1/{project_id}/clusters/{cluster_id}/tags/action{ "action" : "delete", "tags" : [ { "tag" : null, "key" : "DEV1", "value" : "DEV1" }, { "tag" : null, "key" : "DEV2", "value" : "DEV2" } ]}
  • 操作步骤 接口相关信息 URI格式:POST /v2/{project_id}/clusters 详情请参见创建集群。 请求示例 POST: https://{endpoint}/v2/{project_id}/clusters {endpoint}信息具体请参考终端节点。 {project_id}信息请通过获取项目ID获取。 节点的实例规格参数“node_size”建议从MRS控制台的集群创建页面获取对应区域对应版本所支持的规格。 Body: { "cluster_version": "MRS 3.2.0-LTS.1", "cluster_name": "mrs_Demo", "cluster_type": "ANALYSIS", "charge_info": { "charge_mode": "postPaid" }, "region": "", "availability_zone": "", "vpc_name": "vpc-37cd", "subnet_name": "subnet-ed99", "components": "Hadoop,Spark2x,HBase,Hive,Hue,Flink,Oozie,Ranger,Tez", "safe_mode": "KERBEROS", "manager_admin_password": "Mrs@1234", "login_mode": "PASSWORD", "node_root_password": "Mrs@1234", "log_collection": 1, "mrs_ecs_default_agency": "MRS_E CS _DEFAULT_AGENCY", "tags": [ { "key": "tag1", "value": "111" }, { "key": "tag2", "value": "222" } ], "node_groups": [ { "group_name": "master_node_default_group", "node_num": 2, "node_size": "rc3.4xlarge.4.linux.bigdata", "root_volume": { "type": "SAS", "size": 480 }, "data_volume": { "type": "SAS", "size": 600 }, "data_volume_count": 1 }, { "group_name": "core_node_analysis_group", "node_num": 3, "node_size": "rc3.4xlarge.4.linux.bigdata", "root_volume": { "type": "SAS", "size": 480 }, "data_volume": { "type": "SAS", "size": 600 }, "data_volume_count": 1 }, { "group_name": "task_node_analysis_group", "node_num": 3, "node_size": "rc3.4xlarge.4.linux.bigdata", "root_volume": { "type": "SAS", "size": 480 }, "data_volume": { "type": "SAS", "size": 600 }, "data_volume_count": 1, "auto_scaling_policy": { "auto_scaling_enable": true, "min_capacity": 0, "max_capacity": 1, "resources_plans": [], "exec_scripts": [], "rules": [ { "name": "default-expand-1", "description": "", "adjustment_type": "scale_out", "cool_down_minutes": 5, "scaling_adjustment": "1", "trigger": { "metric_id": 2003, "metric_name": "StormSlotAvailablePercentage", "metric_value": 100, "comparison_operator_id": 2003, "comparison_operator": "LTOE", "evaluation_periods": "1" } } ] } } ]} 参数详细信息请参考创建集群获取。 响应示例 {"cluster_id": "da1592c2-bb7e-468d-9ac9-83246e95447a"}
  • 操作步骤 接口相关信息 URI格式:PUT /v1.1/{project_id}/cluster_infos/{cluster_id} 详情请参见调整集群节点。 请求示例 PUT: https://{endpoint}/v1.1/{project_id}/cluster_infos/{cluster_id} {endpoint}信息具体请参考终端节点。 {project_id}信息请通过获取项目ID获取。 {cluster_id}信息即创建集群成功后返回结果中的“cluster_id” 或参考获取集群ID获取。 Body: { "service_id": "", "plan_id": "", "parameters": { "order_id": "", "scale_type": "scale_in", "node_id": "node_orderadd", "node_group": "core_node_default_group", "instances": "1" }, "previous_values": { "plan_id": "" } } 参数详细信息请参考调整集群节点获取。 响应示例 {"result": "succeeded"}
  • 操作步骤 接口相关信息 URI格式:DELETE /v1.1/{project_id}/clusters/{cluster_id} 详情请参见删除集群。 请求示例 DELETE: https://{endpoint}/v1.1/{project_id}/clusters/{cluster_id} {endpoint}具体请参考终端节点。 {project_id}信息请通过获取项目ID获取。 {cluster_id}信息即创建集群成功后返回结果中的“cluster_id” 或参考获取集群ID获取。 Body:无 响应示例 {"result": "succeeded"}
  • 响应示例 状态码: 202 获取SQL结果成功 { "sql_results" : { "0" : [ { "result" : "succeed" } ], "1" : [ { "database" : "default", "isTemporary" : "false", "tableName" : "src_wordcount" } ], "2" : [ { "result" : "succeed" } ], "3" : [ { "result" : "succeed" } ], "4" : [ { "name" : "a", "id" : 1 }, { "name" : "b", "id" : 2 } ] }} 状态码: 500 收集SQL作业结果失败 { "error_msg" : "收集SQL作业结果失败", "error_code" : "0172"}
  • URI GET /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/sql-result 表1 路径参数 参数 是否必选 参数类型 描述 job_execution_id 是 String 作业ID。获取方法,请参见获取作业ID。 project_id 是 String 项目编号。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。获取方法,请参见获取集群ID。
  • 响应示例 状态码: 202 查询单个作业信息成功 { "job_detail" : { "job_id" : "431b135e-c090-489f-b1db-0abe3822b855", "user" : "xxxx", "job_name" : "pyspark1", "job_result" : "SUCCEEDED", "job_state" : "FINISHED", "job_progress" : 100, "job_type" : "SparkSubmit", "started_time" : 1564626578817, "submitted_time" : 1564626561541, "finished_time" : 1564626664930, "elapsed_time" : 86113, "queue" : "default", "arguments" : "[--class, org.apache.spark.examples.SparkPi, --driver-memory, 512MB, --num-executors, 1, --executor-cores, 1, --master, yarn-cluster, s3a://obs-test/jobs/spark/spark-examples_2.11-2.1.0.jar, 10000]", "launcher_id" : "application_1564622673393_0006", "app_id" : "application_1564622673393_0007", "properties" : "{}" }} 状态码: 500 查询单个作业信息失败 { "error_msg" : "查询作业失败", "error_code" : "0162"}
  • URI POST /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id}/kill 表1 路径参数 参数 是否必选 参数类型 描述 job_execution_id 是 String 作业ID。获取方法,请参见获取作业ID。 project_id 是 String 项目编号。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。获取方法,请参见获取集群ID。
  • URI GET /v2/{project_id}/clusters/{cluster_id}/job-executions/{job_execution_id} 表1 路径参数 参数 是否必选 参数类型 描述 job_execution_id 是 String 作业ID。获取方法,请参见获取作业ID。 project_id 是 String 项目编号。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。获取方法,请参见获取集群ID。
  • URI GET /v2/{project_id}/clusters/{cluster_id}/sql-execution/{sql_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目编号。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。获取方法,请参见获取集群ID。 sql_id 是 String SQL的执行ID,即提交SQL语句返回结果中的sql_id。
  • 响应示例 状态码: 200 查询SQL结果成功 { "id" : "20190909_011820_00151_xxxxx", "statement" : "show tables", "status" : "FINISHED", "result_location" : "obs://my_bucket/uuid_date/xxxx.csv", "content" : [ [ "t1", null ], [ null, "t2" ], [ null, "t3" ] ]} 状态码: 400 查询SQL结果失败 { "error_code" : "MRS.0011", "message" : "提交SQL到Executor上失败,集群ID为xxxx"}
  • 响应示例 状态码: 202 查询作业列表信息成功 { "total_record" : 2, "job_list" : [ { "job_id" : "981374c1-85da-44ee-be32-edfb4fba776c", "user" : "xxxx", "job_name" : "SparkSubmitTset", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714763119, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--class, --driver-memory, --executor-cores, --master, yarn-cluster, s3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar, dddd]", "launcher_id" : "application_1564622673393_0613", "properties" : { } }, { "job_id" : "c54c8aa0-c277-4f83-8acc-521d85cfa32b", "user" : "xxxx", "job_name" : "SparkSubmitTset2", "job_result" : "UNDEFINED", "job_state" : "ACCEPTED", "job_progress" : 0, "job_type" : "SparkSubmit", "started_time" : 0, "submitted_time" : 1564714020099, "finished_time" : 0, "elapsed_time" : 0, "queue" : "default", "arguments" : "[--conf, yujjsjhe, --driver-memory, yueujdjjd, --master,\nyarn-cluster,\ns3a://obs-test/hadoop-mapreduce-examples-3.1.1.jar]", "launcher_id" : "application_1564622673393_0611", "properties" : { } } ]} 状态码: 500 查询作业列表信息失败 { "error_msg" : "查询作业列表失败", "error_code" : "0166"}
  • URI GET /v2/{project_id}/clusters/{cluster_id}/job-executions 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目编号。获取方法,请参见获取项目ID。 cluster_id 是 String 集群ID。获取方法,请参见获取集群ID。 表2 Query参数 参数 是否必选 参数类型 描述 job_name 否 String 作业名称,只能由字母、数字、中划线和下划线组成,并且长度为1~128个字符。 job_id 否 String 作业ID,只能由字母、数字、中划线(-)组成,并且长度为1~64字符。 user 否 String 用户名称、只能由字母、数字、特殊字符(-_.)组成,且不能以数字开头,并且长度为1~32字符。 job_type 否 String 作业类型。 MapReduce SparkPython SparkSubmit:SparkPython类型的作业在查询时作业类型请选择SparkSubmit。 HiveScript HiveSql DistCp,导入、导出数据。 SparkScript SparkSql Flink job_state 否 String 作业运行状态。 FAILED:失败 KILLED:已终止 NEW:已创建 NEW_SAVING:已创建保存中 SUBMITTED:已提交 ACCEPTED:已接受 RUNNING:运行中 FINISHED:已完成 job_result 否 String 作业运行结果。 FAILED:执行失败的作业。 KILLED:执行中被手动终止的作业。 UNDEFINED:正在执行的作业。 SUCCEEDED:执行成功的作业。 queue 否 String 作业的资源对列类型名称,作业的资源对列类型名称,只能由数字、字母和特殊字符(-_)组成, 并且长度为1~64字符。 limit 否 String 返回结果中每页显示条数。缺省值:10 offset 否 String 表示作业列表从该偏移量开始查询。缺省值:1 sort_by 否 String 返回结果的排序方式,默认值为desc。 asc:按升序排列 desc:按降序排列 submitted_time_begin 否 Long 查询该时间之后提交的作业,UTC的毫秒时间戳。例如:1562032041362。 submitted_time_end 否 Long 查询该时间之前提交的作业UTC的毫秒时间戳。例如:1562032041362。
共100000条