华为云用户手册

  • 注意事项 注[1]:创建联合索引 HBase支持在多个字段上创建二级索引,例如在列name和age上。 HIndexSpecification iSpecUnite = new HIndexSpecification(indexName); iSpecUnite.addIndexColumn(new HColumnDescriptor("info"), "name", ValueType.String); iSpecUnite.addIndexColumn(new HColumnDescriptor("info"), "age", ValueType.String);
  • 功能介绍 主要分为三个部分: 从HDFS原文件中抽取name信息,查询HBase、Hive相关数据,并进行数据拼接,通过类MultiComponentMapper继承Mapper抽象类实现。 获取拼接后的数据取最后一条输出到HBase、HDFS,通过类MultiComponentReducer继承Reducer抽象类实现。 main方法提供建立一个MapReduce job,并提交MapReduce作业到Hadoop集群。
  • 回答 由于checkpoint中包含了spark应用的对象序列化信息、task执行状态信息、配置信息等,因此,当存在以下问题时,从checkpoint恢复spark应用将会失败。 业务代码变更且变更类未明确指定SerialVersionUID。 spark内部类变更,且变更类未明确指定SerialVersionUID。 另外,由于checkpoint保存了部分配置项,因此可能导致业务修改了部分配置项后,从checkpoint恢复时,配置项依然保持为旧值的情况。当前只有以下部分配置会在从checkpoint恢复时重新加载。 "spark.yarn.app.id", "spark.yarn.app.attemptId", "spark.driver.host", "spark.driver.bindAddress", "spark.driver.port", "spark.master", "spark.yarn.jars", "spark.yarn.keytab", "spark.yarn.principal", "spark.yarn.credentials.file", "spark.yarn.credentials.renewalTime", "spark.yarn.credentials.updateTime", "spark.ui.filters", "spark.mesos.driver.frameworkId", "spark.yarn.jars"
  • Oozie应用开发流程 本文档主要基于Java API对Oozie进行应用开发。 开发流程中各阶段的说明如图1和表1所示。 图1 Oozie应用程序开发流程 表1 Oozie应用开发的流程说明 阶段 说明 参考文档 了解基本概念 在开始开发应用前,需要了解Oozie的基本概念,了解场景需求等。 Oozie应用开发常见概念 准备开发和运行环境 Oozie的应用程序当前推荐使用Java语言进行开发。可使用IDEA工具。 准备本地应用开发环境 准备工程 Oozie提供了不同场景下的样例程序,您可以导入样例工程进行程序学习。 导入并配置Oozie样例工程 根据场景开发工程 提供了Java语言的样例工程。 开发Oozie应用 编译并运行程序 指导用户将开发好的程序编译并提交运行。 调测Oozie应用 查看程序运行结果 程序运行结果会写在用户指定的路径下。用户还可以通过UI查看应用运行情况。 父主题: Oozie开发指南(普通模式)
  • 代码样例 以下代码片段在com.huawei.bigdata.hbase.examples包的“HBaseSample”类的dropTable方法中 public void dropTable() { LOG .info("Entering dropTable."); Admin admin = null; try { admin = conn.getAdmin(); if (admin.tableExists(tableName)) { // Disable the table before deleting it. admin.disableTable(tableName); // Delete table. admin.deleteTable(tableName);//注[1] } LOG.info("Drop table successfully."); } catch (IOException e) { LOG.error("Drop table failed " ,e); } finally { if (admin != null) { try { // Close the Admin object. admin.close(); } catch (IOException e) { LOG.error("Close admin failed " ,e); } } } LOG.info("Exiting dropTable."); }
  • Python样例代码 下面代码片段仅为演示,具体代码参见SparkOnHbasePythonExample中HBaseBulkDeleteExample文件: def main(args: Array[String]) { # -*- coding:utf-8 -*- """ 【说明】 (1)由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现 (2)如果使用yarn-client模式运行,请确认Spark2x客户端Spark2x/spark/conf/spark-defaults.conf中 spark.yarn.security.credentials.hbase.enabled参数配置为true """ from py4j.java_gateway import java_import from pyspark.sql import SparkSession # 创建SparkSession spark = SparkSession\ .builder\ .appName("JavaHBaseBulkDeleteExample")\ .getOrCreate() # 向sc._jvm中导入要运行的类 java_import(spark._jvm, 'com.huawei.bigdata.spark.examples.hbasecontext.JavaHBaseBulkDeleteExample') # 创建类实例并调用方法,传递sc._jsc参数 spark._jvm.JavaHBaseBulkDeleteExample().execute(spark._jsc, sys.argv) # 停止SparkSession spark.stop()
  • 提交命令 假设用例代码打包后的jar包名为spark-hbaseContext-test-1.0.jar,并将jar包放在客户端“$SPARK_HOME”目录下,以下命令均在“$SPARK_HOME”目录执行,Java接口对应的类名前有Java字样,请参考具体样例代码进行书写。 yarn-client模式: java/scala 版本(类名等请与实际代码保持一致,此处仅为示例) bin/spark-submit --master yarn --deploy-mode client --class com.huawei.bigdata.spark.examples.hbasecontext.JavaHBaseBulkDeleteExample SparkOnHbaseJavaExample.jar bulktable python版本(文件名等于实际保持一致,此处仅为示例),假设对应的Java代码打包后包名为SparkOnHbaseJavaExample.jar,且放在当前提交目录。 bin/spark-submit --master yarn --deploy-mode client --jars SparkOnHbaseJavaExample.jar HBaseButDeleteExample.py bulktable yarn-cluster模式: java/scala 版本(类名等请与实际代码保持一致,此处仅为示例) bin/spark-submit --master yarn --deploy-mode cluster --class com.huawei.bigdata.spark.examples.hbasecontext.JavaHBaseBulkDeleteExample --files /opt/user.keytab,/opt/krb5.conf SparkOnHbaseJavaExample.jar bulktable python版本(文件名等于实际保持一致,此处仅为示例),假设对应的Java代码打包后包名为SparkOnHbaseJavaExample.jar,且放在当前提交目录。 bin/spark-submit --master yarn --deploy-mode cluster --files /opt/user.keytab,/opt/krb5.conf --jars SparkOnHbaseJavaExample.jar HBaseButDeleteExample.py bulktable
  • 打包项目 通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(文件上传的路径需要和生成的jar包路径一致)。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn.security.credentials.hbase.enabled”设置为“true”(该参数值默认为“false”,改为“true”后对已有业务没有影响。如果要卸载HBase服务,卸载前请将此参数值改回“false”),将配置项“spark.inputFormat.cache.enabled”设置为“false”。
  • 样例代码 -- 从本地文件系统/opt/hive_examples_data/目录下将employee_info.txt加载进employees_info表中. ---- 用新数据覆盖原有数据 LOAD DATA LOCAL INPATH '/opt/hive_examples_data/employee_info.txt' OVERWRITE INTO TABLE employees_info; ---- 保留原有数据,将新数据追加到表中 LOAD DATA LOCAL INPATH '/opt/hive_examples_data/employee_info.txt' INTO TABLE employees_info; -- 从HDFS上/user/hive_examples_data/employee_info.txt加载进employees_info表中. ---- 用新数据覆盖原有数据 LOAD DATA INPATH '/user/hive_examples_data/employee_info.txt' OVERWRITE INTO TABLE employees_info; ---- 保留原有数据,将新数据追加到表中 LOAD DATA INPATH '/user/hive_examples_data/employee_info.txt' INTO TABLE employees_info; 加载数据的实质是将数据复制到HDFS上指定表的目录下。
  • 功能介绍 本小节介绍了如何使用HQL向已有的表employees_info中加载数据。从本节中可以掌握如何从本地文件系统、 MRS 集群中加载数据。以关键字LOCAL区分数据源是否来自本地。 在启用了安全服务的集群中执行如下操作,需要在数据库中具有UPDATE权限及对加载数据文件具有owner权限和读写权限。 如果加载数据语句中有关键字LOCAL,表明从本地加载数据,除要求对相应表的UPDATE权限外,还要求该数据在当前连接的HiveServer节点上,加载用户对数据路径“PATH”具有读权限,且以omm用户能够访问该数据文件。 如果加载数据语句中有关键字OVERWRITE,表示加载的数据会覆盖表中原有的数据,否则加载的数据会追加到表中。
  • 操作步骤 在Windows本地运行程序,需要配置https ssl证书。 登录集群任意节点,进入如下目录下载ca.crt文件。 cd ${BIGDATA_HOME}/om-agent_8.1.2.2/nodeagent/security/cert/subcert/certFile/ 将ca.crt文件下载到本地,以管理员的身份打开cmd。 输入如下命令: keytool -import -v -trustcacerts -alias ca -file "D:\xx\ca.crt" -storepass changeit -keystore "%JAVA_HOME%\jre\lib\security\cacerts" 其中“D:\xx\ca.crt”是实际ca.crt文件存放路径;“%JAVA_HOME% ”为jdk安装路径。 在开发环境中(例如IDEA中),右击OozieRestApiMain.java,单击“Run 'OozieRestApiMain.main()'”运行对应的应用程序工程。 使用Oozie客户端执行以下命令: oozie job -oozie https://Oozie业务IP:21003/oozie -config job.properties -run 其中需要提前将待使用样例工程目录“src\main\resources”中的“job.properties”文件复制到Oozie客户端所在目录。
  • 回答 首先查看ZooKeeper中/flink_base的目录权限是否为:'world,'anyone: cdrwa;如果不是,请修改/flink_base的目录权限为:'world,'anyone: cdrwa,然后继续根据2排查;如果是,请根据2排查。 由于在Flink配置文件中“high-availability.zookeeper.client.acl”默认为“creator”,即谁创建谁有权限,由于原有用户已经使用ZooKeeper上的/flink_base/flink目录,导致新创建的用户访问不了ZooKeeper上的/flink_base/flink目录。 新用户可以通过以下操作来解决问题。 查看客户端的配置文件“conf/flink-conf.yaml”。 修改配置项“high-availability.zookeeper.path.root”对应的ZooKeeper目录,例如:/flink2。 重新提交任务。
  • 回答 问题原因: 在IBM JDK下建立的JDBC connection时间超过登录用户的认证超时时间(默认一天),导致认证失败。 IBM JDK的机制跟Oracle JDK的机制不同,IBM JDK在认证登录后的使用过程中做了时间检查却没有检测外部的时间更新,导致即使显式调用relogin也无法得到刷新。 解决措施: 通常情况下,在发现JDBC connection不可用的时候,可以关闭该connection,重新创建一个connection继续执行。
  • Hive WebHCat接口介绍 以下示例的IP为WebHCat的业务IP,端口为安装时设置的WebHCat HTTP端口。 除“:version”、“status”、“version”、“version/hive”、“version/hadoop”以外,其他API都需要添加user.name参数。 :version(GET) 描述 查询WebHCat支持的返回类型列表。 URL http://www.myserver.com/templeton/:version 参数 表1 :version接口请求参数说明 参数 描述 :version WebHCat版本号(当前必须是v1)。 返回结果 表2 :version接口返回参数说明 参数 描述 responseTypes WebHCat支持的返回类型列表。 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1' status (GET) 描述 获取当前服务器的状态 URL http://www.myserver.com/templeton/v1/status 参数 无 返回结果 表3 status接口返回结果参数说明 参数 描述 status WebHCat连接正常,返回OK。 version 字符串,包含版本号,比如v1。 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/status' version (GET) 描述 获取服务器WebHCat的版本 URL http://www.myserver.com/templeton/v1/version 参数 无 返回结果 表4 version接口返回结果参数说明 参数 描述 supportedVersions 所有支持的版本。 version 当前服务器WebHCat的版本。 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/version' version/hive (GET) 描述 获取服务器Hive的版本 URL http://www.myserver.com/templeton/v1/version/hive 参数 无 返回结果 表5 version/hive接口返回结果说明 参数 描述 module hive version Hive的版本 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/version/hive' version/hadoop (GET) 描述 获取服务器Hadoop的版本 URL http://www.myserver.com/templeton/v1/version/hadoop 参数 无 返回结果 表6 version/hadoop接口返回结果说明 参数 描述 module hadoop version Hadoop的版本 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/version/hadoop' ddl (POST) 描述 执行DDL语句 URL http://www.myserver.com/templeton/v1/ddl 参数 表7 ddl接口请求参数说明 参数 描述 exec 需要执行的HCatalog DDL语句。 group 当DDL是创建表时,创建表使用的用户组。 permissions 当DDL是创建表时,创建表使用的权限,格式为rwxr-xr-x。 返回结果 表8 ddl接口返回结果说明 参数 描述 stdout HCatalog执行时的标准输出值,可能为空。 stderr HCatalog执行时的错误输出,可能为空。 exitcode HCatalog的返回值。 例子 curl -i -u : --negotiate -d exec="show tables" 'http://10.64.35.144:9111/templeton/v1/ddl?user.name=user1' ddl/database (GET) 描述 列出所有的数据库 URL http://www.myserver.com/templeton/v1/ddl/database 参数 表9 ddl/database接口请求参数说明 参数 描述 like 用来匹配数据库名的正则表达式。 返回结果 表10 ddl/database接口返回结果说明 参数 描述 databases 数据库名 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/ddl/database?user.name=user1' ddl/database/:db (GET) 描述 获取指定数据库的详细信息 URL http://www.myserver.com/templeton/v1/ddl/database/:db 参数 参数 描述 :db 数据库名 返回结果 参数 描述 location 数据库位置 comment 数据库的备注,如果没有备注则不存在 database 数据库名 owner 数据库的所有者 owertype 数据库所有者的类型 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/ddl/database/default?user.name=user1' ddl/database/:db (PUT) 描述 创建数据库 URL http://www.myserver.com/templeton/v1/ddl/database/:db 参数 参数 描述 :db 数据库名 group 创建数据库时使用的用户组 permission 创建数据库时使用的权限 location 数据库的位置 comment 数据库的备注,比如描述 properties 数据库属性 返回结果 参数 描述 database 新创建的数据库的名字 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{"location": "/tmp/a", "comment": "my db", "properties": {"a": "b"}}' 'http://10.64.35.144:9111/templeton/v1/ddl/database/db2?user.name=user1' ddl/database/:db (DELETE) 描述 删除数据库 URL http://www.myserver.com/templeton/v1/ddl/database/:db 参数 参数 描述 :db 数据库名 ifExists 如果指定数据库不存在,Hive会返回错误,除非设置了ifExists为true。 option 将参数设置成cascade或者restrict。如果选择cascade,将清除一切,包括数据和定义。如果选择restrict,表格内容为空,模式也将不存在。 返回结果 参数 描述 database 删除的数据库名字 例子 curl -i -u : --negotiate -X DELETE 'http://10.64.35.144:9111/templeton/v1/ddl/database/db3?ifExists=true&user.name=user1' ddl/database/:db/table (GET) 描述 列出数据库下的所有表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table 参数 参数 描述 :db 数据库名 like 用来匹配表名的正则表达式 返回结果 参数 描述 database 数据库名字 tables 数据库下表名列表 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/ddl/database/default/table?user.name=user1' ddl/database/:db/table/:table (GET) 描述 获取表的详细信息 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table 参数 参数 描述 :db 数据库名 :table 表名 format 格式:format=extended,参考额外信息(“table extended like”)。 返回结果 参数 描述 columns 列名和类型 database 数据库名 table 表名 partitioned 是否分区表,只有extended下才会显示。 location 表的位置,只有extended下才会显示。 outputformat 输出形式,只有extended下才会显示。 inputformat 输入形式,只有extended下才会显示。 owner 表的属主,只有extended下才会显示。 partitionColumns 分区的列,只有extended下才会显示。 例子 curl -i -u : --negotiate 'http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1?format=extended&user.name=user1' ddl/database/:db/table/:table (PUT) 描述 创建表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table 参数 参数 描述 :db 数据库名 :table 新建表名 group 创建表时使用的用户组 permissions 创建表时使用的权限 external 指定位置,hive不使用表的默认位置。 ifNotExists 设置为true,当表存在时不会报错。 comment 备注 columns 列描述,包括列名,类型和可选备注。 partitionedBy 分区列描述,用于划分表格。参数columns列出了列名,类型和可选备注。 clusteredBy 分桶列描述,参数包括columnNames、sortedBy、和numberOfBuckets。参数columnNames包括columnName和排列顺序(ASC为升序,DESC为降序)。 format 存储格式,参数包括rowFormat,storedAs,和storedBy。 location HDFS路径 tableProperties 表属性和属性值(name-value对) 返回结果 参数 描述 database 数据库名 table 表名 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{"columns": [{"name": "id", "type": "int"}, {"name": "name","type": "string"}], "comment": "hello","format": {"storedAs": "orc"} }' 'http://10.64.35.144:9111/templeton/v1/ddl/database/db3/table/tbl1?user.name=user1' ddl/database/:db/table/:table (POST) 描述 重命名表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table 参数 参数 描述 :db 数据库名 :table 已有表名 rename 新表表名 返回结果 参数 描述 database 数据库名 table 新表表名 例子 curl -i -u : --negotiate -d rename=table1 'http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/tbl1?user.name=user1' ddl/database/:db/table/:table (DELETE) 描述 删除表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table 参数 参数 描述 :db 数据库名 :table 表名 ifExists 当设置为true时,不报错。 返回结果 参数 描述 database 数据库名 table 表名 例子 curl -i -u : --negotiate -X DELETE 'http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/table2?ifExists=true&user.name=user1' ddl/database/:db/table/:existingtable/like/:newtable (PUT) 描述 创建一张和已经存在的表一样的表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:existingtable/like/:newtable 参数 参数 描述 :db 数据库名 :existingtable 已有表名 :newtable 新表名 group 创建表时使用的用户组。 permissions 创建表时使用的权限。 external 指定位置,hive不使用表的默认位置。 ifNotExists 当设置为true时,如果表已经存在,Hive不报错。 location HDFS路径 返回结果 参数 描述 database 数据库名 table 表名 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{"ifNotExists": "true"}' 'http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/like/tt1?user.name=user1' ddl/database/:db/table/:table/partition(GET) 描述 列出表的分区信息 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/partition 参数 参数 描述 :db 数据库名 :table 表名 返回结果 参数 描述 database 数据库名 table 表名 partitions 分区属性值和分区名 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/x1/partition?user.name=user1 ddl/database/:db/table/:table/partition/:partition(GET) 描述 列出表的某个具体分区的信息 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/partition/:partition 参数 参数 描述 :db 数据库名 :table 表名 :partition 分区名,解码http引用时,需当心。比如country=%27algeria%27。 返回结果 参数 描述 database 数据库名 table 表名 partition 分区名 partitioned 如果设置为true,为分区表 location 表的存储路径 outputFormat 输出格式 columns 列名,类型,备注 owner 所有者 partitionColumns 分区的列 inputFormat 输入格式 totalNumberFiles 分区下文件个数 totalFileSize 分区下文件总大小 maxFileSize 最大文件大小 minFileSize 最小文件大小 lastAccessTime 最后访问时间 lastUpdateTime 最后更新时间 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/x1/partition/dt=1?user.name=user1 ddl/database/:db/table/:table/partition/:partition(PUT) 描述 增加一个表分区 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/partition/:partition 参数 参数 描述 :db 数据库名。 :table 表名。 group 创建新分区时使用的用户组。 permissions 创建新分区时用户的权限。 location 新分区的存放位置。 ifNotExists 如果设置为true, 当分区已经存在,系统报错。 返回结果 参数 描述 database 数据库名 table 表名 partitions 分区名 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{}' http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/x1/partition/dt=10?user.name=user1 ddl/database/:db/table/:table/partition/:partition(DELETE) 描述 删除一个表分区 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/partition/:partition 参数 参数 描述 :db 数据库名。 :table 表名。 group 删除新分区时使用的用户组。 permissions 删除新分区时用户的权限, 格式为rwxrw-r-x。 ifExists 如果指定分区不存在,Hive报错。参数值设置为true除外。 返回结果 参数 描述 database 数据库名 table 表名 partitions 分区名 例子 curl -i -u : --negotiate -X DELETE -HContent-type:application/json -d '{}' http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/x1/partition/dt=10?user.name=user1 ddl/database/:db/table/:table/column(GET) 描述 获取表的column列表 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/column 参数 参数 描述 :db 数据库名 :table 表名 返回结果 参数 描述 database 数据库名 table 表名 columns 列名字和类型 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/column?user.name=user1 ddl/database/:db/table/:table/column/:column(GET) 描述 获取表的某个具体的column的信息 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/column/:column 参数 参数 描述 :db 数据库名 :table 表名 :column 列名 返回结果 参数 描述 database 数据库名 table 表名 column 列名字和类型 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/column/id?user.name=user1 ddl/database/:db/table/:table/column/:column(PUT) 描述 增加表的一列 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/column/:column 参数 参数 描述 :db 数据库名 :table 表名 :column 列名 type 列类型,比如string和int comment 列备注,比如描述 返回结果 参数 描述 database 数据库名 table 表名 column 列名 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{"type": "string", "comment": "new column"}' http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/column/name?user.name=user1 ddl/database/:db/table/:table/property(GET) 描述 获取表的property URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/property 参数 参数 描述 :db 数据库名 :table 表名 返回结果 参数 描述 database 数据库名 table 表名 properties 属性列表 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/property?user.name=user1 ddl/database/:db/table/:table/property/:property(GET) 描述 获取表的某个具体的property的值 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/property/:property 参数 参数 描述 :db 数据库名 :table 表名 :property 属性名 返回结果 参数 描述 database 数据库名 table 表名 property 属性列表 例子 curl -i -u : --negotiate http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/property/last_modified_by?user.name=user1 ddl/database/:db/table/:table/property/:property(PUT) 描述 增加表的property的值 URL http://www.myserver.com/templeton/v1/ddl/database/:db/table/:table/property/:property 参数 参数 描述 :db 数据库名 :table 表名 :property 属性名 value 属性值 返回结果 参数 描述 database 数据库名 table 表名 property 属性名 例子 curl -i -u : --negotiate -X PUT -HContent-type:application/json -d '{"value": "my value"}' http://10.64.35.144:9111/templeton/v1/ddl/database/default/table/t1/property/mykey?user.name=user1 mapreduce/jar(POST) 描述 执行MR任务,在执行之前,需要将MR的jar包上传到HDFS中 URL http://www.myserver.com/templeton/v1/mapreduce/jar 参数 参数 描述 jar 需要执行的MR的jar包。 class 需要执行的MR的分类。 libjars 需要加入的classpath的jar包名,以逗号分隔。 files 需要复制到集群的文件名,以逗号分隔。 arg Main类接受的输入参数。 define 设置hadoop的配置,格式为:define=NAME=VALUE。 statusdir WebHCat会将执行的MR任务的状态写入到statusdir中。如果设置了这个值,那么需要用户手动进行删除。 enablelog 如果statusdir设置,enablelog设置为true,收集Hadoop任务配置和日志到$statusdir/logs。此后,成功和失败的尝试,都将记录进日志。$statusdir/logs下,子目录布局为: logs/$job_id (directory for $job_id) logs/$job_id/job.xml.html logs/$job_id/$attempt_id (directory for $attempt_id) logs/$job_id/$attempt_id/stderr logs/$job_id/$attempt_id/stdout logs/$job_id/$attempt_id/syslog 仅支持Hadoop 1.X。 callback 在MR任务执行完的回调地址,使用$jobId,将任务ID嵌入回调地址。在回调地址中,任务ID替换该$jobId。 返回结果 参数 描述 id 任务ID,类似“job_201110132141_0001” 例子 curl -i -u : --negotiate -d jar="/tmp/word.count-0.0.1-SNAPSHOT.jar" -d class=com.huawei.word.count.WD -d statusdir="/output" "http://10.64.35.144:9111/templeton/v1/mapreduce/jar?user.name=user1" mapreduce/streaming(POST) 描述 以Streaming方式提交MR任务 URL http://www.myserver.com/templeton/v1/mapreduce/streaming 参数 参数 描述 input Hadoop中input的路径。 output 存储output的路径。如没有规定,WebHCat将output储存在使用队列资源可以发现到的路径。 mapper mapper程序位置。 reducer reducer程序位置。 files HDFS文件添加到分布式缓存中。 arg 设置argument。 define 设置hadoop的配置变量,格式:define=NAME=VALUE cmdenv 设置环境变量,格式:cmdenv=NAME=VALUE statusdir WebHCat会将执行的MR任务的状态写入到statusdir中。如果设置了这个值,那么需要用户手动进行删除。 enablelog 如果statusdir设置,enablelog设置为true,收集Hadoop任务配置和日志到$statusdir/logs。此后,成功和失败的尝试,都将记录进日志。$statusdir/logs下,子目录布局为: logs/$job_id (directory for $job_id) logs/$job_id/job.xml.html logs/$job_id/$attempt_id (directory for $attempt_id) logs/$job_id/$attempt_id/stderr logs/$job_id/$attempt_id/stdout logs/$job_id/$attempt_id/syslog 仅支持Hadoop 1.X。 callback 在MR任务执行完的回调地址,使用$jobId,将任务ID嵌入回调地址。在回调地址中,任务ID将替换该$jobId。 返回结果 参数 描述 id 任务ID,类似job_201110132141_0001 例子 curl -i -u : --negotiate -d input=/input -d output=/oooo -d mapper=/bin/cat -d reducer="/usr/bin/wc -w" -d statusdir="/output" 'http://10.64.35.144:9111/templeton/v1/mapreduce/streaming?user.name=user1' 本接口的使用需要前置条件,请参阅“开发规范”中的Hive规则。 /hive(POST) 描述 执行Hive命令 URL http://www.myserver.com/templeton/v1/hive 参数 参数 描述 execute hive命令,包含整个和短的Hive命令。 file 包含hive命令的HDFS文件。 files 需要复制到集群的文件名,以逗号分隔。 arg 设置argument。 define 设置Hive的配置,格式:define=key=value,如果使用多实例,需要配置实例的scratch dir,如WebHCat实例使用define=hive.exec.scratchdir=/tmp/hive-scratch,WebHCat1实例使用define=hive.exec.scratchdir=/tmp/hive1-scratch,以此类推。 statusdir WebHCat会将执行的MR任务的状态写入到statusdir中。如果设置了这个值,那么需要用户手动进行删除。 enablelog 如果statusdir设置,enablelog设置为true,收集Hadoop任务配置和日志到$statusdir/logs。此后,成功和失败的尝试,都将记录进日志。$statusdir/logs下,子目录布局为: logs/$job_id (directory for $job_id) logs/$job_id/job.xml.html logs/$job_id/$attempt_id (directory for $attempt_id) logs/$job_id/$attempt_id/stderr logs/$job_id/$attempt_id/stdout logs/$job_id/$attempt_id/syslog callback 在MR任务执行完的回调地址,使用$jobId,将任务ID嵌入回调地址。在回调地址中,任务ID将替换该$jobId。 返回结果 参数 描述 id 任务ID,类似job_201110132141_0001 例子 curl -i -u : --negotiate -d execute="select count(*) from t1" -d statusdir="/output" -d define=hive.exec.scratchdir=/tmp/hive-scratch "http://10.64.35.144:9111/templeton/v1/hive?user.name=user1" jobs(GET) 描述 获取所有的job id URL http://www.myserver.com/templeton/v1/jobs 参数 参数 描述 fields 如果设置成*,那么会返回每个job的详细信息。如果没设置,只返回任务ID。现在只能设置成*,如设置成其他值,将出现异常。 jobid 如果设置了jobid,那么只有字典顺序比jobid大的job才会返回。比如,如果jobid为"job_201312091733_0001",只有大于该值的job才能返回。返回的job的个数,取决于numrecords。 numrecords 如果设置了numrecords和jobid,jobid列表按字典顺序排列,待jobid返回后,可以得到numrecords的最大值。如果jobid没有设置, 而numrecords设置了参数值,jobid按字典顺序排列后,可以得到numrecords的最大值。相反,如果numrecords没有设置,而jobid设置了参数值,所有大于jobid的job都将返回。 showall 如果设置为true,用户可以获取所有job,如果设置为false,则只获取当前用户提交的job。默认为false。 返回结果 参数 描述 id Job id detail 如果showall为true,那么显示detail信息,否则为null。 例子 curl -i -u : --negotiate "http://10.64.35.144:9111/templeton/v1/jobs?user.name=user1" jobs/:jobid(GET) 描述 获取指定job的信息 URL http://www.myserver.com/templeton/v1/jobs/:jobid 参数 参数 描述 jobid Job创建后的Jobid 返回结果 参数 描述 status 包含job状态信息的json对象。 profile 包含job状态的json对象。WebHCat解析JobProfile对象中的信息,该对象因Hadoop版本不同而不同。 id Job的id。 percentComplete 完成百分比,比如75% complete,如果完成后则为null。 user 创建job的用户。 callback 回调URL(如果有)。 userargs 用户提交job时的argument参数和参数值。 exitValue job退出值。 例子 curl -i -u : --negotiate "http://10.64.35.144:9111/templeton/v1/jobs/job_1440386556001_0255?user.name=user1" jobs/:jobid(DELETE) 描述 kill任务 URL http://www.myserver.com/templeton/v1/jobs/:jobid 参数 参数 描述 :jobid 删除的Job的ID 返回结果 参数 描述 user 提交Job的用户。 status 包含Job状态信息的JSON对象。 profile 包含Job信息的JSON对象。WebHCat解析JobProfile对象中的信息,该对象因Hadoop版本不同而不同。 id Job的ID。 callback 回调的URL(如果有)。 例子 curl -i -u : --negotiate -X DELETE "http://10.64.35.143:9111/templeton/v1/jobs/job_1440386556001_0265?user.name=user1" 父主题: Hive对外接口介绍
  • 代码样例 具体代码参见com.huawei.bigdata.flink.examples.TestCreateTenants。 public class TestCreateTenants { public static void main(String[] args) { ParameterTool paraTool = ParameterTool.fromArgs(args); final String hostName = paraTool.get("hostName"); // 修改hosts文件,使用主机名 final String keytab = paraTool.get("keytab文件路径"); // user.keytab路径 final String krb5 = paraTool.get("krb5文件路径"); // krb5.conf路径 final String principal = paraTool.get("认证用户名"); // 认证用户 System.setProperty("java.security.krb5.conf", krb5); String url = "https://"+hostName+":28943/flink/v1/tenants"; String jsonstr = "{" + "\n\t \"tenantId\":\"92\"," + "\n\t \"tenantName\":\"test92\"," + "\n\t \"remark\":\"test tenant remark1\"," + "\n\t \"updateUser\":\"test_updateUser1\"," + "\n\t \"createUser\":\"test_createUser1\"" + "\n}"; try { LoginClient.getInstance().setConfigure(url, principal, keytab, ""); LoginClient.getInstance().login(); System.out.println(HttpClientUtil.doPost(url, jsonstr, "utf-8", true)); } catch (Exception e) { System.out.println(e); } } }
  • 功能介绍 本小节介绍了如何使用HQL创建内部表、外部表的基本操作。创建表主要有以下三种方式: 自定义表结构,以关键字EXTERNAL区分创建内部表和外部表。 内部表,如果对数据的处理都由Hive完成,则应该使用内部表。在删除内部表时,元数据和数据一起被删除。 外部表,如果数据要被多种工具(如Pig等)共同处理,则应该使用外部表,可避免对该数据的误操作。删除外部表时,只删除掉元数据。 根据已有表创建新表,使用CREATE LIKE句式,完全复制原有的表结构,包括表的存储格式。 根据查询结果创建新表,使用CREATE AS SELECT句式。 这种方式比较灵活,可以在复制原表表结构的同时指定要复制哪些字段,不包括表的存储格式。 在启用了安全服务的集群中执行如下操作,需要在数据库中CREATE权限,使用CREATE AS SELECT句式创建表,需要对SELECT查询的表具有SELECT权限。 目前表名长度最长为128,字段名长度最长为128,字段注解长度最长为4000,WITH SERDEPROPERTIES 中key长度最长为256,value长度最长为4000。以上的长度均表示字节长度。
  • 修订记录 发布日期 修订记录 2024-05-13 新增 Windows无法打开开始菜单及搜索框 为什么Linux云服务器df和du统计磁盘空间的大小不一致? NetworkManager服务无法启动,报错:Failed to restart NetuorkManager.service: Unit NetworkManager.service is masked 修改弹性云服务器的时间后,为什么IP地址丢失了? SSH密钥无法登录,报错Authentication refused: bad ownership or modes for directory /root 如何解决Ubuntu 16.04云服务器可以通过SSH成功登录,但VNC界面无法到达登录界面的问题 2024-05-09 新增GPU实例故障自诊断。 2024-05-07 新增错误的系统配置导致启动或远程登录失败。 2024-04-29 修改怎样配置Linux分析工具:atop和kdump。 2024-03-27 新增S CS I磁盘IO压力大时,在线并发扩容失败怎么办?。 2023-10-27 新增扩容云硬盘后使用growpart扩容分区失败怎么办?。 2023-08-22 修改GPU设备显示异常。 2023-06-01 新增Linux实例执行命令或启动服务时出现错误:Cannot allocate memory。 2023-05-30 新增内核参数kernel.unknown_nmi_panic配置错误导致Linux ECS实例异常重启。 2023-04-20 新增Linux实例IP地址丢失怎么办?。 2022-12-14 修改Linux云服务器如何进入单用户模式重置root密码。 2022-09-30 修改 Windows云服务器卡顿怎么办? Linux云服务器卡顿怎么办? 2022-08-19 新增T4 GPU设备显示异常。 修改ping不通或丢包时如何进行链路测试?。 2021-11-12 修改ping不通或丢包时如何进行链路测试?。 2021-09-17 修改网站无法访问怎么办?。 2021-06-16 修改 弹性云服务器访问中国大陆外网站时加载缓慢怎么办?,修改DNS使用的IP地址。 2020-04-26 新增 GPU驱动异常怎么办? GPU驱动不可用 GPU设备显示异常 修改 优化故障案例分类,新增GPU驱动故障、SSH连接、多用户登录。 2020-02-17 新增 Windows云服务器如何配置多用户登录?(Windows 2008) 2020-01-19 修改 Linux云服务器如何进入单用户模式重置root密码,补充 EulerOS进入内核编辑模式的说明。 怎样长时间保持SSH会话连接不断开?,修改示例。 2019-12-25 新增 开启UseDNS导致SSH连接缓慢怎么办? CentOS 7中/etc/rc.local开机启动脚本不生效怎么办? 2019-11-30 修改 防火墙设置 Linux云服务器怎样关闭防火墙、添加例外端口? Ubuntu系列弹性云服务器如何安装图形化界面? 2019-10-11 新增 为什么操作系统实际版本与购买时镜像版本不一致? 云服务器新内核启动失败如何设置使用第二内核启动 CentOS 7中修改fstab无法挂载怎么办? NetworkManager在运行docker容器时占用大量内存怎么办? Linux操作系统云服务器中buffer和cache占用内存怎么办? /etc/passwd文件损坏导致云服务器登录失败怎么办? Linux系统ping 域名 失败,提示Name or service not known Linux操作系统执行passwd命令重置密码失败提示:Authentication token manipulation error 2019-09-27 下线 2.7-Windows弹性云服务器安装VPN 3.8-CentOS 7.3弹性云服务器搭建VPN服务端和客户端 修改 怎样长时间保持SSH会话连接不断开? 2019-09-10 新增 ping不通或丢包时如何进行链路测试? 云服务器端口不通怎样排查? 访问ECS实例上运行的网站卡顿,如何定位问题? 云服务器带宽占用高怎么办? Windows云服务器如何保持会话连接长时间不断开? Linux云服务器怎样关闭防火墙、添加例外端口? Linux操作系统云服务器磁盘分区提示空间不足怎么办? 修改/etc/security/limits.conf文件,重启后不生效怎么办? 使用taskset命令让进程运行在指定CPU上 修改 Windows云服务器如何配置多用户登录?(Windows 2012) 申请多用户会话授权的license并激活云服务器 2019-08-16 新增 Inode节点耗尽导致无法创建新文件问题处理 Web访问超时系统日志打印:nf_conntrack:table full, dropping packet CentOS 7修改SSH默认端口后无法连接怎么办? Linux云服务器VNC登录失败,提示信息:Permission denied Ubuntu操作系统如何设置默认启动内核 怎样配置Linux分析工具:atop和kdump Linux启动sshd服务出现/var/empty/sshd无法访问的解决方案 Linux文件系统提示:Read-only file system 文件已经删除,但空间未释放怎么办? 如何查看Windows云服务器的登录日志? 修改 弹性云服务器访问中国大陆外网站时加载缓慢怎么办? 2019-07-26 修改 Windows云服务器如何配置多用户登录?(Windows 2012) 远程桌面连接Windows云服务器云主机报错:由于协议错误会话中断 远程桌面连接Windows云服务器云主机报错:无法验证此远程计算机的身份 远程桌面链接Windows云服务器云主机报错:两台计算机无法在分配的时间内连接 远程桌面链接Windows云服务器云主机报错:连接被拒绝未授权此用户 远程桌面链接Windows云服务器云主机报错:您的连接已丢失
  • 处理方法 关闭AppX Deployment Service服务,操作步骤如下: 按“Win+R”键打开运行对话框,输入regedit并按回车键,打开注册表编辑器。 打开至注册表键值:“HKEY_LOCAL_MACHINE\SYSTEM\ControlSet001\Services\AppXSvc”。 双击右侧子项中的“Start”,将“数值数据”中的“3”修改为“4”。 图1 修改数值数据 如果要启用AppX Deployment Service服务,将“数值数据”由“4”改回“3”即可。
  • 配置kdump操作步骤 查看是否已经安装kexec-tools。 rpm -q kexec-tools 如果没有安装,则执行下面命令安装。 yum install -y kexec-tools 开启kdump默认启动。 systemctl enable kdump 设置craskkernel参数,设置这个参数的目的是预留内存给capture kernel。 首先查看参数是否已经设置。 grep crashkernel /proc/cmdline 如果有显示,则表示已经设置,如果没有显示,则需要重新设置。 设置crashkernel,编辑/etc/default/grub文件。 GRUB_TIMEOUT=5 GRUB_DEFAULT=saved GRUB_DISABLE_SUBMENU=true GRUB_TERMINAL_OUTPUT="console" GRUB_CM DLI NE_LINUX="crashkernel=auto rd.lvm.lv=rhel00/root rd.lvm.lv=rhel00/swap rhgb quiet" GRUB_DISABLE_RECOVERY="true" 找到GRUB_CMDLINE_LINUX参数,添加crashkernel=auto,其他内容不变。 执行grub命令,使以上配置生效。 grub2-mkconfig -o /boot/grub2/grub.cfg 打开/etc/kdump.conf文件中找到“path”参数,添加以下内容。 path /var/crash 默认是保存在/var/crash目录下,如果要保存到其他目录,则改成对应的目录, 例如保存在/home/kdump下,则改成: path /home/kdump 要确保指定的路径有足够的空间保存vmcore,建议剩余空间不小于 RAM 大小;也可以保存在SAN,nfs等共享设备上。 设置转存vmcore级别。 修改/etc/kdump.conf文件,添加如下参数,如果存在则无需添加。 core_collector makedumpfile -d 31 -c -c表示压缩vmcore文件, -d表示过滤掉部分无效的内存数据,可以根据需要调整,一般31即可,31是由如下的值与计算而成。 zero pages = 1 cache pages = 2 cache private = 4 user pages = 8 free pages = 16 执行如下命令重启系统,使以上配置生效。 reboot
  • CentOS 6系列操作系统配置atop 执行以下命令,安装atop。 yum install -y atop 编辑配置文件,修改采样周期。 vi /etc/sysconfig/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 LOGINTERVAL=15 vi /etc/logrotate.d/atop 修改如下配置参数,修改后保存并退出。 默认atop日志保存周期为40天,可以根据实际修改“-mtime”的值为3,单位为天。 postrotate /usr/bin/find /var/log/atop/ -maxdepth 1 -mount -name atop_\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\[0-9\]\* -mtime +3 -exec /bin/rm {} \; endscript 启动atop服务。 service atop start 检查是否启动成功,is running 表示运行正常。 service atop status atop (pid 3170) is running
  • Ubuntu 20/22、Debian 10/11系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 启动atop服务。 systemctl start atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - Atop advanced performance monitor Loaded: loaded (/etc/init.d/atop; bad; vendor preset: disabled) Active: active (running) since Sat 2024-03-11 14:09:47 CST; 16s ago
  • Ubuntu 16系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,不支持修改。 LOGINTERVAL=15 启动atop服务。 systemctl start atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - LSB: Monitor for system resources and process activity Loaded: loaded (/etc/init.d/atop; bad; vendor preset: enabled) Active: active (running) since Mon 2024-04-29 19:33:22 CST; 38s ago
  • SUSE 15、SUSE 12系列操作系统配置atop 下载atop源码安装包。 wget https://www.atoptool.nl/download/atop-2.6.0-1.src.rpm 执行以下命令安装源码atop。 rpm -ivh atop-2.6.0-1.src.rpm 安装编译atop依赖软件包 zypper -n install rpm-build ncurses-devel zlib-devel 执行以下命令编译atop cd /usr/src/packages/SPECS rpmbuild -bb atop-2.6.0.spec 执行以下命令安装atop cd /usr/src/packages/RPMS/x86_64 rpm -ivh atop-2.6.0-1.x86_64.rpm 编辑配置文件,修改采样周期。 vi /etc/default/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 重启atop服务。 systemctl restart atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: disabled) Active: active (running) since Sat 2021-06-19 16:50:01 CST; 6s ago
  • 分析atop日志 atop启动后,会将采集记录存放在/var/log/atop目录下的日志文件中。 执行如下命令,查看日志文件。 atop -r /var/log/atop/atop_2024XXXX atop常用命令 打开日志文件后,您可以使用以下命令筛选数据。 c:按照进程CPU使用率进行降序筛选。 m:按照进程内存使用率进行降序筛选。 d:按照进程磁盘使用率进行降序筛选。 a:按照进程资源综合使用率进行降序筛选。 n:按照进程网络使用率进行降序筛选。 t:跳转到下一个监控采集点。 T:跳转到上一个监控采集点。 b:指定时间点,格式为YYYYMMDDhhmm。 系统资源监控字段含义 下图为部分监控字段以及数值,具体数值根据采样周期和atop版本有所不同。下图仅供参考,具体数据以您实际数据为准。 图1 系统资源监控字段 主要参数说明如下: ATOP 行:主机名、信息采样日期和时间点。 PRC 行:进程整体运行情况。 #sys 及 user:内核态和用户态所占 CPU 的时间值。 #proc:进程总数。 #zombie:僵死进程的数量。 #exit:采样周期期间退出的进程数量。 CPU 行:CPU 整体(即多核 CPU 作为一个整体 CPU 资源)的使用情况。CPU 行的各字段数值相加结果为 N*100%,N 为 CPU 核数。 #sys 及 user:内核态和用户态所占 CPU 的时间比例。 #irq:CPU 被用于处理中断的时间比例。 #idle:CPU 处在完全空闲状态的时间比例。 #wait:CPU 处在进程等待磁盘 IO ,导致 CPU 空闲状态的时间比例。 CPL 行:CPU 负载情况。 #avg1、avg5 和 avg15:过去1分钟、5分钟和15分钟内运行队列中的平均进程数量。 #csw:指示上下文交换次数。 #intr:指示中断发生次数。 MEM 行:内存的使用情况。 #tot:物理内存大小。 #free:空闲的物理内存大小 #cache :用于页缓存的内存大小。 #buff:用于文件缓存的内存大小。 #slab:系统内核占用的内存大小。 SWP 行:交换空间的使用情况。 #tot:交换区总量。 #free:空闲交换空间大小。 DSK 行:磁盘使用情况,每一个磁盘设备对应一列。如果有 sdb 设备,那么增加一行 DSK 信息。 #sda:磁盘设备标识。 #busy:磁盘忙时比例。 #read 及 write:读、写请求数量。 NET 行:多列 NET 展示了网络状况,包括传输层(TCP 和 UDP)、IP 层以及各活动的网口信息。 #xxxxxi:各层或活动网口收包数目。 #xxxxxo:各层或活动网口发包数目。 停止 atop atop运行会占用额外的系统和磁盘资源,不建议在业务环境下长期运行,您可在问题排查完成后,执行以下命令停止atop。 systemctl stop atop CentOS 6执行以下命令停止atop。 service atop stop
  • CentOS 7/8、AlmaLinux、 Rocky Linux系列操作系统配置atop 执行以下命令,安装atop。 yum install -y atop 编辑配置文件,修改采样周期。 vi /etc/sysconfig/atop 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改LOGGENERATIONS的值为3,单位为天。 LOGINTERVAL=15 LOGGENERATIONS=3 启动atop服务。 systemctl start atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - Atop advanced performance monitor Loaded: loaded (/usr/lib/systemd/system/atop.service; enabled; vendor preset: disabled) Active: active (running) since Sat 2024-03-6 11:49:47 CST; 2h 27min ago
  • Ubuntu 18、Debian 8/9系列操作系统配置atop 执行以下命令,安装atop。 apt-get install -y atop 编辑配置文件,修改采样周期。 vi /usr/share/atop/atop.daily 修改如下配置参数,修改后保存并退出。 LOGINTERVAL默认是600,可以修改成15,单位秒。 默认atop日志保存周期为28天,可以根据实际修改“-mtime”的值为3,单位为天。 LOGINTERVAL=15 …… ( (sleep 3; find $LOGPATH -name 'atop_*' -mtime +3 -exec rm {} \;)& ) 启动atop服务。 systemctl start atop 检查是否启动成功,active(running) 表示运行正常。 systemctl status atop atop.service - Atop advanced performance monitor Loaded: loaded (/etc/init.d/atop; bad; vendor preset: disabled) Active: active (running) since Sat 2024-03-6 14:09:47 CST; 15s ago
  • 操作场景 本节操作介绍atop和kdump的配置方法。 不同的Linux版本使用的atop工具版本不同,因此配置方法稍微有所不同。 配置atop: atop简介 atop安装前准备 CentOS 7/8、AlmaLinux、 Rocky Linux系列操作系统配置atop CentOS 6系列操作系统配置atop Ubuntu 20/22、Debian 10/11系列操作系统配置atop Ubuntu 18、Debian 8/9系列操作系统配置atop Ubuntu 16系列操作系统配置atop SUSE 15、SUSE 12系列操作系统配置atop 使用源码方式安装(适用于CentOS Stream 9、openEuler、EulerOS等系列操作系统) 分析atop日志 配置kdump: 配置kdump使用须知 kdump简介 配置kdump操作步骤 检查kdump配置是否生效
  • 文档修订记录 发布日期 修订记录 2024-06-12 第七十七次正式发布。 修改 查询规格详情和规格扩展信息列表,os_extra_specs字段数据结构新增参数“cond:storage:type”。 2024-05-30 第七十六次正式发布。 新增 更新云服务器指定网卡属性 2024-05-20 第七十五次正式发布。 新增 云服务器切换虚拟私有云 2024-05-14 第七十四次正式发布。 查询规格详情和规格扩展信息列表,os_extra_specs字段数据结构新增参数“network_interface:traffic_mirroring_supported”和“security:enclave_supported”。 错误码,新增错误码Ecs.0235。 2024-04-07 第七十三次正式发布。 新增参数“cpu_options”,涉及: 创建云服务器 创建云服务器(按需) 变更云服务器规格 变更云服务器规格(按需) 新增参数“isAutoPay”,涉及: 切换弹性云服务器操作系统(安装Cloud-init) 切换弹性云服务器操作系统(未安装Cloud-init) 2024-03-25 第七十二次正式发布。 修改参数“name”的取值范围,涉及: 创建云服务器 创建云服务器(按需) 修改云服务器 批量修改弹性云服务器 创建云服务器 修改云服务器 2024-01-15 第七十一次正式发布。 修改 修改云服务器,server字段新增参数“OS-EXT-SRV-ATTR:user_data”。 查询API版本信息列表,更新响应示例。 2023-10-13 第七十次正式发布。 修改 查询规格详情和规格扩展信息列表,os_extra_specs字段新增参数“quota:vif_max_num”和“quota:sub_network_interface_max_num”。 数据结构(查询云服务器详情),address字段新增参数“primary”。 2023-09-12 第六十九次正式发布。 新增 修改云服务器定时删除时间。 修改 错误码,新增错误码Ecs.0090。 2023-08-18 第六十八次正式发布。 “volumetype”新增GPSSD2和ESSD2类型云硬盘,root_volume和data_volume字段数据结构说明新增参数“iops”和“throughput”,涉及: 创建云服务器 创建云服务器(按需) 2023-07-20 第六十七次正式发布。 异步接口增加说明,涉及: 删除云服务器 重装弹性云服务器操作系统(安装Cloud-init) 切换弹性云服务器操作系统(安装Cloud-init) 重装弹性云服务器操作系统(未安装Cloud-init) 切换弹性云服务器操作系统(未安装Cloud-init) 冷迁移云服务器 变更云服务器规格(按需) 批量启动云服务器 批量重启云服务器 批量关闭云服务器 批量挂载指定共享盘 批量添加云服务器网卡 批量删除云服务器网卡 弹性云服务器挂载磁盘 弹性云服务器卸载磁盘 2023-06-20 第六十六次正式发布。 修改接口约束,涉及: 创建云服务器 创建云服务器(按需) 2023-06-08 第六十五次正式发布。 新增 更换云服务器计费模式 修改 创建云服务器、创建云服务器(按需):新增参数“allowed_address_pairs”、“metadata”。 查询云服务器详情列表,新增参数“ip_eq”。 2023-05-25 第六十四次正式发布。 新增 查询规格销售策略 智能购买组管理 规格推荐管理 修改 查询云服务器详情列表,修改参数status的描述。 2023-05-23 第六十三次正式发布。 修改 错误码,新增错误码Ecs.0089。 2023-05-19 第六十二次正式发布。 修改 查询云服务器详情,修改参数hw:cpu_threads的描述。 2023-05-12 第六十一次正式发布。 新增__system__encrypted、__system__cmkid参数,涉及: 重装弹性云服务器操作系统(安装Cloud-init) 切换弹性云服务器操作系统(安装Cloud-init) 重装弹性云服务器操作系统(未安装Cloud-init) 切换弹性云服务器操作系统(未安装Cloud-init) 新增错误码Ecs.0227。 2023-04-25 第六十次正式发布。 修改 获取VNC远程登录地址,修改参数url的描述。 2023-01-11 第五十九次正式发布。 修改 错误码,新增错误码Ecs.0066~Ecs.0071。 2022-12-09 第五十八次正式发布。 修改 查询云服务器详情列表,新增参数server_id。 2022-11-25 第五十七次正式发布。 新增 资源粒度授权 修改 权限及授权项说明,增加实例授权和标签授权的内容。 生命周期管理~FPGA逻辑文件管理,补充实例授权和标签授权列。 错误码,新增错误码Ecs.0812、Ecs.0813。 2022-08-19 第五十六次正式发布。 按标签查询云服务器列表(废弃),API废弃,移入“历史API”。 2022-07-29 第五十五次正式发布。 修改 错误码,新增错误码Ecs.0513。 2022-07-07 第五十四次正式发布。 新增 请求幂等性说明 修改 创建云服务器、创建云服务器(按需),补充支持请求幂等性的说明。 2022-06-20 第五十三次正式发布 修改 错误码,新增错误码Ecs.0706。 2022-05-20 第五十二次正式发布 修改 创建云服务器(按需),修改“hw:passthrough”参数说明。 2022-03-23 第五十一次正式发布 移动如下API至“历史API”: 查询云服务器是否配置了自动恢复动作(废弃) 管理云服务器自动恢复动作(废弃) 云服务器网卡配置虚拟IP地址(废弃) 云服务器网卡解绑虚拟IP地址(废弃) 数据结构(创建云服务器),删除参数support_auto_recovery。 2022-03-17 第五十次正式发布 修改 通用请求返回值,增加通用请求返回值201。 2022-02-09 第四十九次正式发布 修改 移动废弃API至历史API。 2021-11-01 第四十八次正式发布 创建云服务器,修改请求参数metadata的参数类型。 创建云服务器(按需),修改请求参数metadata的参数类型。 2021-09-30 第四十七次正式发布 创建和导入SSH密钥,修改请求示例信息。 创建云服务器(按需),修改请求参数server_tags的参数类型。 2021-09-18 第四十六次正式发布 错误码,新增错误码Ecs.0016。 2021-08-27 第四十五次正式发布 创建云服务器、创建云服务器(按需)、创建云服务器新增auto_terminate_time字段。 查询云服务器网卡信息,新增attachableQuantity字段、interfaceAttachments补充delete_on_termination,driver_mode,min_rate,multiqueue_num,pci_address字段。 查询指定云服务器安全组列表,修改cidr字段为可选。 数据结构(创建云服务器),bandwidth字段中修改size字段的取值说明。 2021-08-17 第四十四次正式发布 查询规格详情和规格扩展信息列表,响应参数os_extra_specs新增以下字段: flavors.extra_specs.hw:numa_nodes, flavors.extra_specs.hpet_support, flavors.extra_specs.instance_vnic:type, flavors.extra_specs.instance_vnic:instance_bandwidth, flavors.extra_specs.instance_vnic:max_count, flavors.extra_specs.extra_spec:io:persistent_grant, flavors.extra_specs.cond:operation:charge:stop, flavors.extra_specs.cond:spot:operation:az, flavors.extra_specs.cond:operation:roles, flavors.extra_specs.cond:spot:operation:status, flavors.extra_specs.cond:network, flavors.extra_specs.cond:storage, flavors.extra_specs.cond:compute:live_resizable, flavors.extra_specs.info:gpu:name, flavors.extra_specs.info:cpu:name, flavors.extra_specs.quota:gpu。 2021-06-24 第四十三次正式发布 新增 查询云服务器组列表,响应参数新增page_info字段。 修改 移动FPGA逻辑文件管理至“历史API”。 2021-05-27 第四十二次正式发布 新增 创建ECS高频场景示例 获取Token 并检验Token的有效期 2021-05-10 第四十一次正式发布 修改 查询规格详情和规格扩展信息列表,新增字段ecs:instance_architecture。 2021-04-29 第四十次正式发布 修改 查询云服务器详情,status字段补充取值DELETED。 错误码,错误码Ecs.0003状态码修改为403。 2021-03-03 第三十九次正式发布 新增 数据结构(创建云服务器),新增关于云备份策略和云备份存储库详情的字段CB_CSBS_BACKUP。 修改 查询云服务器详情列表,修改了sort_key的取值范围。 查询云服务器操作行为列表,新增字段changes-since。 2021-02-20 第三十八次正式发布。 新增 查询弹性云服务器关联的弹性公网IP。 修改 查询云服务器详情,新增os:scheduler_hints参数说明。 2021-01-29 第三十七次正式发布。 修改 查询云服务器组列表,新增page_info参数信息。 2020-11-30 第三十六次正式发布。 修改 查询云服务器组列表,新增字段limit、marker。 2020-10-10 第三十五次正式发布。 修改 创建云服务器、创建云服务器(按需),修改name字段描述,新增支持使用“正则排序”设置云服务器名称。 2020-09-22 第三十四次正式发布。 修改 创建云服务器、创建云服务器(按需),修改name取值范围描述。 2020-08-05 第三十三次正式发布。 新增 查询云服务器组列表 查询云服务器组详情 修改 移动废弃API至历史API。 创建云服务器、创建云服务器(按需),修改volumetype字段描述。 2020-07-16 第三十二次正式发布。 修改 查询云服务器详情、查询云服务器详情列表,修改status取值范围。 数据结构(查询云服务器详情),补充metering.resourcetype的取值。 创建云服务器,修改请求示例中hw:passthrough的取值。 重装弹性云服务器操作系统(安装Cloud-init)、切换弹性云服务器操作系统(安装Cloud-init)、重装弹性云服务器操作系统(未安装Cloud-init)、切换弹性云服务器操作系统(未安装Cloud-init)补充响应示例的描述。 查询云服务器详情列表,补充说明ip字段的匹配规则为模糊匹配。 查询云服务器列表,补充说明ip字段的匹配规则为模糊匹配。 查询云服务器详情列表,补充说明ip字段的匹配规则为模糊匹配。 数据结构(创建云服务器),补充spotPrice字段说明。 2020-06-20 第三十一次正式发布。 修改 一键重置弹性云服务器密码,新增字段is_check_password。 重装弹性云服务器操作系统(安装Cloud-init),新增mode字段,支持开机重装操作系统。 切换弹性云服务器操作系统(安装Cloud-init),新增mode字段,支持开机切换操作系统。 重装弹性云服务器操作系统(未安装Cloud-init),新增mode字段,支持开机重装操作系统。 切换弹性云服务器操作系统(未安装Cloud-init),新增mode字段,支持开机切换操作系统。 数据结构(创建云服务器),创建云服务器的extendparam新增字段spot_duration_hours、spot_duration_count、interruption_policy。 2019-10-30 第三十次正式发布。 新增 添加云服务器组成员 删除云服务器组成员 修改 变更云服务器规格(按需)、变更云服务器规格,新增mode字段,支持开机变更规格。 删除“弹性云服务器监控指标说明”章节,移动至弹性云服务器用户指南中。 创建云服务器(按需),响应参数中新增details字段。 创建云服务器,响应参数中新增details字段。 响应(任务类),补充details数据结构。 生命周期管理修改查询云服务器详情列表(Openstack原生)的授权项,删除vpc:securityGroups:list。 生命周期管理修改查询云服务器详情(Openstack原生)的授权项,删除vpc:securityGroups:list。 查询云服务器列表、查询云服务器详情列表修改tag、not-tags字段说明,删除“受微版本2.26限制”说明。 查询云服务器详情列表、查询云服务器详情修改status取值范围,删除DELETED。 查询云服务器详情列表、查询云服务器详情补充host_status说明微版本2.16后支持。 查询规格详情和规格扩展信息列表新增响应参数attachableQuantity。 数据结构(查询规格详情),cond:operation:status补充取值:obt_sellout:公测售罄。 修改云服务器,补充接口约束。 一键重置弹性云服务器密码,新增字段is_check_password、new_password。 2019-09-30 第二十九次正式发布。 修改 数据结构(创建云服务器)修改snapshotId字段说明。 数据结构(创建云服务器)新增字段__support_agent_list,云服务器支持主机安全服务、主机监控。 创建云服务器、修改云服务器、查询云服务器详情,补充响应参数server。 2019-09-12 第二十八次正式发布。 修改 变更云服务器规格(按需)功能介绍。 创建云服务器,支持创建按需和包年/包月弹性云服务器。 2019-08-23 第二十七次正式发布。 修改 新增查询弹性云服务器详情列表。 重装弹性云服务器操作系统(安装Cloud-init)删除v2.1URI。 切换弹性云服务器操作系统(安装Cloud-init)删除v2.1URI。 2019-07-30 第二十六次正式发布。 新增 API版本选择建议新增“版本选择”。 查询弹性云服务器单个磁盘信息 查询弹性云服务器挂载磁盘列表详情信息 查询弹性云服务器挂载磁盘列表信息 创建云服务器组 删除云服务器组 查询云服务器网卡信息 更新云服务器元数据 删除云服务器指定元数据 获取VNC远程登录地址 查询云服务器规格变更支持列表 查询项目标签 查询云服务器标签 批量添加云服务器标签 批量删除云服务器标签 冷迁移云服务器 一键重置弹性云服务器密码 获取云服务器密码 清除云服务器密码 修改云服务器 获取VNC远程登录地址(微版本2.6及以上) 重装弹性云服务器操作系统(安装Cloud-init)新增v2.1URI 切换弹性云服务器操作系统(安装Cloud-init)新增v2.1URI 查询云服务器标签(废弃) 变更弹性云服务器规格 弹性云服务器挂载磁盘 弹性云服务器挂载网卡 修改 创建云服务器(按需)、创建云服务器修改响应消息和响应示例,新增参数serverIds。 创建云服务器(按需)、创建云服务器修改subnet_id字段描述。 错误码新增Ecs.0802-Ecs.08010。 错误码新增Ecs.0046、Ecs.0048-Ecs.0053。 数据结构(创建云服务器)补充说明创建磁盘的metadata字段。 查询FPGA镜像详情列表、关联FPGA镜像与弹性云服务器镜像、解关联FPGA镜像与弹性云服务器镜像、查询关联列表、创建FPGA镜像修改请求参数的字段结构说明。 变更云服务器规格(按需),修改响应示例。 数据结构(创建云服务器),v1.1接口补充enterprise_project_id字段。 查询云服务器详情列表,删除API接口未返回的参数evsOpts、hyperThreadAffinity、numaOpts、vcpuAffinity。 查询云服务器详情,删除API接口未返回的参数evsOpts、hyperThreadAffinity、numaOpts、vcpuAffinity。 查询云服务器详情列表,补充参数fault。 查询云服务器详情,补充参数fault。 查询租户配额下线limit_by_flavor字段。 生命周期管理修改查询云服务器详情(OpenStack原生)对应的授权项。 调整API授权列表结构。 2019-06-30 第二十五次正式发布。 新增 查询云服务器规格列表、查询云服务器规格详情列表新增响应参数flavors_links。 查询规格详情和规格扩展信息列表新增参数“quota:local_disk”和“quota:nvme_ssd”。 2019-05-30 第二十四次正式发布。 新增 API版本选择建议 数据结构(创建云服务器) 数据结构(查询规格详情) 数据结构(查询云服务器详情) 权限及授权项说明 云服务器状态 修改 调整文档结构。 将创建云服务器(按需)公共参数移动至数据结构(创建云服务器)。 将查询规格详情和规格扩展信息列表公共参数移动至数据结构(查询规格详情)。 将查询云服务器详情公共参数移动至数据结构(查询云服务器详情)。 批量重置弹性云服务器密码,修改接口约束:支持开机状态下批量重置云服务器密码。 一键重置云服务器密码(废弃),修改接口约束:支持开机状态下重置云服务器密码。 API(OpenStack Nova 原生)删除V2接口URI,推荐使用v2.1接口。 查询云服务器规格列表、查询云服务器规格详情列表新增响应参数flavors_links。 查询规格详情和规格扩展信息列表新增参数“quota:local_disk”和“quota:nvme_ssd”。 创建云服务器(按需)修改hw:passthrough字段描述。 数据结构(创建云服务器)新增数据结构导航。 删除“按标签查询云服务器列表”。 删除“按标签查询云服务器数量”。 查询规格详情和规格扩展信息列表修改disk、swap、OS-FLV-EXT-DATA:ephemeral、OS-FLV-DISABLED:disabled、rxtx_factor、rxtx_quota、rxtx_cap、os-flavor-access:is_public参数描述。 查询云服务器规格变更支持列表(废弃)修改rxtx_quota、rxtx_cap参数描述。 查询云服务器规格详情列表修改disk、swap、OS-FLV-EXT-DATA:ephemeral、OS-FLV-DISABLED:disabled参数描述。 查询云服务器规格详情修改disk、swap、OS-FLV-EXT-DATA:ephemeral、OS-FLV-DISABLED:disabled参数描述。 修改创建弹性云服务器。 2019-05-23 第二十三次正式发布。 新增 标签类型介绍 批量添加云服务器标签 批量删除云服务器标签 按标签查询云服务器列表 按标签查询云服务器数量 查询项目标签 查询云服务器标签 修改 API手册结构调整,优化使用前必读、如何调用API。 2019-04-30 第二十二次正式发布。 新增 创建FPGA镜像 修改 错误码,新增错误码Ecs.0119、Ecs.0027、Ecs.0028。 查询云服务器详情列表,修改offset参数描述。 2018-12-30 第二十一次正式发布。 新增创建云服务器 新增变更云服务器规格 修改删除云服务器 修改批量修改弹性云服务器 修改批量启动云服务器 修改批量重启云服务器 修改批量关闭云服务器 错误码,新增错误码。 修改权限和授权项,新增“授权项作用域”。 修改查询浮动IP资源池列表(废弃),修改接口约束。 2018-11-30 第二十次正式发布。 新增批量重置弹性云服务器密码 新增批量修改弹性云服务器 修改错误码,新增错误码。 修改查询FPGA镜像详情列表,URI中新增fpga_image_id查询参数。 修改查询FPGA镜像详情列表,新增log_directory字段。 修改查询关联列表,新增log_directory字段。 2018-11-19 第十九次正式发布。 支持竞价实例。涉及如下内容修改: 修改创建云服务器(按需),新增参数“marketType”和“spotPrice”。 修改查询租户配额,新增参数“maxTotalSpotInstances”、“maxTotalSpotCores”、“maxTotalSpotRAMSize”、“totalSpotInstancesUsed”、“totalSpotCoresUsed”和“totalSpotRAMUsed”,并修改响应样例。 修改错误码,新增错误码Ecs.0702、Ecs.0703、Ecs.0704、Ecs.0705。 2018-10-30 第十八次正式发布。 修改错误码,新增错误码Ecs.0018、Ecs.0019。 新增查询云服务器规格变更支持列表(废弃) 修改创建云服务器(按需)和创建云服务器的“description”字段,补充校验规则。 2018-09-25 第十七次正式发布。 本次变更说明如下:查询租户配额 新增查询云服务器详情 新增查询云服务器详情列表 2018-07-30 第十六次正式发布。 本次变更说明如下: 修改切换弹性云服务器操作系统(安装Cloud-init)和切换弹性云服务器操作系统(未安装Cloud-init),修改约束限制,重装操作系统失败后,支持切换操作系统。 优化文档大纲。 2018-07-04 第十五次正式发布。 本次变更说明如下: 修改创建云服务器(按需),修改字段adminPass的用法。 修改创建云服务器(按需),修改字段name的取值范围。 新增一键重置云服务器密码(废弃) 2018-05-25 第十四次正式发布。 本次变更说明如下: 新增权限和授权项,支持策略授权功能。 2018-04-30 第十三次正式发布。 本次变更说明如下: 支持v2.1版本的原生接口。 修改创建云服务器(按需),创建弹性云服务器时购买的弹性IP,该弹性IP支持使用共享带宽。 修改错误码,补充2个包年/包月错误码。 2018-03-30 第十二次正式发布。 本次变更说明如下: 新增查询弹性云服务器磁盘信息(废弃) 新增查询弹性云服务器单个磁盘信息(废弃) 修改弹性云服务器卸载磁盘,增加参数delete_flag,支持强制卸载数据盘。 修改创建云服务器(按需),增加参数isAutoRename,弹性云服务器的名称允许重名。 2018-03-03 第十一次正式发布。 本次变更说明如下: 修改重装弹性云服务器操作系统(安装Cloud-init)、切换弹性云服务器操作系统(安装Cloud-init)、重装弹性云服务器操作系统(未安装Cloud-init)和切换弹性云服务器操作系统(未安装Cloud-init)的adminpass字段描述。 2018-02-08 第十次正式发布。 本次变更说明如下: 修改创建云服务器(按需)的各字段描述。 修改创建云服务器(按需),新增字段snapshotId。 修改查询指定云服务器安全组列表 修改创建快照(废弃)的响应样例 修改查询快照(废弃)的响应样例 2017-10-18 第九次正式发布。 本次变更说明如下: 新增OpenStack原生接口。 新增重装弹性云服务器操作系统(未安装Cloud-init)。 新增切换弹性云服务器操作系统(未安装Cloud-init)。 新增云服务器网卡配置虚拟IP地址(废弃)。 新增云服务器网卡解绑虚拟IP地址(废弃)。 修改FPGA逻辑文件管理。 2017-08-14 第八次正式发布。 本次变更说明如下: 新增添加安全组。 新增移除安全组。 新增FPGA逻辑文件管理。 修改创建云服务器(按需)中“root_volume”字段数据结构说明,新增“size”字段。 修改查询云服务器详情列表中“security_groups”字段数据结构说明。 修改查询云服务器规格详情中“security_groups”字段数据结构说明。 修改创建和导入SSH密钥,修改private_key的字段说明,更新请求样例、响应样例。 2017-06-01 第七次正式发布。 本次变更说明如下: 修改创建云服务器(按需)的“data_volumes”字段说明:新增“shareable”字段、“multiattach”字段和“hw:passthrough”字段。 修改查询规格详情和规格扩展信息列表,新增字段“ecs:generation”和“ecs:virtualization_env_types”。 修改错误码,新增错误码“Ecs.0219 创建云服务器失败”。 2016-11-28 第六次正式发布。 本次变更说明如下: 修改创建云服务器(按需),新增“adminpass”的密码复杂度要求。 支持Cloudinit特性。 2016-09-12 第五次正式发布。 本次变更说明如下: 修改查询云服务器规格详情列表,新增查询云服务器规格时可选的查询检索参数。 修改添加云服务器网卡,新增“fixed_ips”字段。 修改查询租户配额,修改“maxSecurityGroups”和“maxSecurityGroupRules”的说明项。 2016-08-25 第四次正式发布。 本次变更说明如下: 修改弹性云服务器监控指标说明,新增“带外网络流入速率”和“带外网络流出速率”两个监控指标。 修改弹性云服务器监控指标说明,更新各监控指标的备注信息。 2016-07-10 第三次正式发布。 本次变更说明如下: 修改创建云服务器(按需)参数信息。 修改删除云服务器参数信息。 修改批量关闭云服务器os-stop字段信息。 修改查询规格详情和规格扩展信息列表参数信息。 修改查询任务的执行状态的“响应样例”。 修改错误码。 2016-01-26 第二次正式发布。 本次变更说明如下: 修改“请求签名流程”,更新了SDK jar包和签名过程。 修改“示例代码”,优化代码。 修改“公共请求消息头”,新增消息头,部分消息头更改为非必选。 新增“云服务器挂载磁盘”。 新增“云服务器卸载磁盘”。 新增“弹性云服务器监控指标说明”。 修改原生API URI中版本号为v2。 2015-10-15 第一次正式发布。
  • 请求消息 表2 请求参数 参数 是否必选 参数类型 描述 auto_terminate_time 是 String 按需云服务器定时删除时间。 按照ISO8601标准表示,并使用UTC +0时间,格式为yyyy-MM-ddTHH:mm:ssZ。 如果秒(ss)取值不是 00,则自动取为当前分钟(mm)开始时。 最短定时删除时间为当前时间半小时之后。 最长定时删除时间不能超过当前时间三年。 如果参数auto_terminate_time为空字符串,表示不设置定时删除或取消定时删除。 示例:2020-09-25T12:05:00Z
  • 请求示例 设置云服务器的定时删除时间为“2020-09-25T12:05:00Z”。 POST https://{endpoint}/v1/{project_id}/cloudservers/{server_id}/actions/update-auto-terminate-time { "auto_terminate_time": "2020-09-25T12:05:00Z", } 取消云服务器的定时删除。 POST https://{endpoint}/v1/{project_id}/cloudservers/{server_id}/actions/update-auto-terminate-time { "auto_terminate_time": "", }
共100000条