华为云用户手册

  • 问题现象 安装Flume客户端失败,提示JAVA_HOME is null或flume has been installed。 CS T 2016-08-31 17:02:51 [flume-client install]: JAVA_HOME is null in current user,please install the JDK and set the JAVA_HOME CST 2016-08-31 17:02:51 [flume-client install]: check environment failed. CST 2016-08-31 17:02:51 [flume-client install]: check param failed. CST 2016-08-31 17:02:51 [flume-client install]: install flume client failed.
  • 处理步骤 以root用户登录集群Master1节点。 执行如下命令,查看 MRS 服务认证的jar包。 ll /opt/share/local_policy/local_policy.jar ll /opt/Bigdata/jdk{version}/jre/lib/security/local_policy.jar 将步骤2中的jar包下载到本地。 将下载的jar包替换到本地JDK目录/opt/Bigdata/jdk/jre/lib/security。 执行cd 客户端安装目录/HBase/hbase/bin命令,进入到HBase的bin目录。 执行sh start-hbase.sh命令,重启HBase组件。
  • 问题现象 客户侧HBase用户认证失败,报错信息如下: 2019-05-13 10:53:09,975 ERROR [localhost-startStop-1] xxxConfig.LoginUtil: login failed with hbaseuser and /usr/local/linoseyc/hbase-tomcat/webapps/bigdata_hbase/WEB-INF/classes/user.keytab. 2019-05-13 10:53:09,975 ERROR [localhost-startStop-1] xxxConfig.LoginUtil: perhaps cause 1 is (wrong password) keytab file and user not match, you can kinit -k -t keytab user in client server to check. 2019-05-13 10:53:09,975 ERROR [localhost-startStop-1] xxxConfig.LoginUtil: perhaps cause 2 is (clock skew) time of local server and remote server not match, please check ntp to remote server. 2019-05-13 10:53:09,975 ERROR [localhost-startStop-1] xxxConfig.LoginUtil: perhaps cause 3 is (aes256 not support) aes256 not support by default jdk/jre, need copy local_policy.jar and US_export_policy.jar from remote server in path ${BIGDATA_HOME}/jdk/jre/lib/security.
  • 处理步骤 检查备份目录是否软链接到系统盘。 以root用户登录集群主备Master节点。 执行df -h命令查看磁盘情况,检查系统盘的存储情况。 执行 ll /srv/BigData/LocalBackup命令, 查看备份目录是否软连接到/opt/Bigdata/LocalBackup。 检查备份文件是否软链接到系统盘且系统盘空间是否足够。如果软链接到系统盘且系统盘空间不足,请执行步骤2。如果否,说明不是由于系统盘空间不足导致,请联系技术服务。 将历史备份数据移到数据盘的新目录中。 以root用户登录Master节点。 执行su - omm命令,切换到omm用户。 执行rm -rf /srv/BigData/LocalBackup命令,删除备份目录软连接。 执行mkdir -p /srv/BigData/LocalBackup命令,创建备份目录。 执行mv /opt/Bigdata/LocalBackup/* /srv/BigData/LocalBackup/命令,将历史备份数据移到新目录。 重新执行备份任务。
  • 原因分析 HDFS开源3.0.0以下版本的默认端口为50070,3.0.0及以上的默认端口为9870。用户使用的端口和HDFS版本不匹配导致连接端口失败。 登录集群的主Master节点。 执行su - omm命令,切换到omm用户。 执行/opt/Bigdata/om-0.0.1/sbin/queryVersion.sh或者sh ${BIGDATA_HOME}/om-server/om/sbin/queryVersion.sh命令,查看集群中的HDFS版本号。 根据版本号确认开源组件的端口号,查询开源组件的端口号可参考开源组件端口列表,获取对应版本的HDFS端口号。 执行netstat -anp|grep ${port}命令,查看组件的默认端口号是否存在。 如果不存在,说明用户修改了默认的端口号。请修改为默认端口,再重新连接HDFS。 如果存在,请联系技术服务。 ${ port }:表示与组件版本相对应的组件默认端口号。 如果用户修改了默认端口号,请使用修改后的端口号连接HDFS。不建议修改默认端口号。
  • 问题现象 运行Spark任务报找不到指定的类“ClassNotFoundException”。 详细报错内容如下: Exception encountered | org.apache.spark.internal.Logging$class.logError(Logging.scala:91) org.apache.hadoop.hbase.DoNotRetryIOException: java.lang.ClassNotFoundException: org.apache.phoenix.filter.SingleCQKeyValueComparisonFilter
  • 处理步骤 以root用户登录集群的任意节点。 在集群节点中执行cat /etc/hosts命令,查看各个节点的hostname值,根据此值来配置newhostname变量值 。 在hostname被修改的节点上执行sudo hostnamectl set-hostname ${newhostname}命令,恢复正确的hostname。 ${newhostname}:表示新的hostname取值。 修改完成后,重新登录修改的节点,查看修改后的hostname是否生效。
  • 问题现象 使用Spark提交作业后,长期卡住不动。反复运行作业后报错,内容如下: Exception in thread "main" org.apache.spark.SparkException: Job aborted due to stage failure: Aborting TaskSet 3.0 because task 0 (partition 0) cannot run anywhere due to node and executor blacklist. Blacklisting behavior can be configured via spark.blacklist.*.
  • 处理步骤 登录Manager,停止HDFS服务。 在停止HDFS时,建议不要停止相关服务。 停止成功后,登录到被修改了RPC端口的Master节点。 如果两个Master节点都被修改了RPC端口,则只需登录其中一个修改即可。 执行su - omm命令切换到omm用户。 如果是安全集群,需要执行kinit hdfs命令进行认证。 执行如下命令,将环境变量脚本加载到环境中。 cd ${BIGDATA_HOME}/MRS_X.X.X/1_8_Zkfc/etc source ${BIGDATA_HOME}/MRS_X.X.X/install/ FusionInsight -Hadoop-3.1.1/hadoop/sbin/exportENV_VARS.sh 命令中的“MRS_X.X.X”和“1_8”根据实际版本而定。 加载完成后,执行如下命令,格式化Zkfc。 cd ${HADOOP_HOME}/bin ./hdfs zkfc -formatZK 格式化成功后,在Manager页面“重启”HDFS服务。 如果更改了NameNode的RPC端口,则之前安装的所有客户端都需要刷新配置文件。
  • 问题现象 在MRS 2.x集群详情页面调整集群Task节点,将Task节点调整成0个,最终缩容失败,提示如下: This operation is not allowed because the number of instances of NodeManager will be less than the minimum configuration after scale-in, which may cause data loss.
  • 处理步骤 检查用户执行命令./bin/spark-submit --class cn.interf.Test --master yarn-client 客户端安装目录/Spark/spark1-1.0-SNAPSHOT.jar;,排查是否引入了非法字符。 如果是,修改非法字符,重新执行命令。 重新执行命令后,发生其他错误,查看该jar包的属主属组信息,发现全为root。 修改jar包的属主属组为omm:wheel,重新执行成功。
  • 处理步骤 使用 --jars 加载flume-ng-sdk-{version}.jar依赖包。 同时修改“spark-default.conf”中两个配置项。 spark.driver.extraClassPath=$PWD/*:{加上原来配置的值} spark.executor.extraClassPath =$PWD/* 作业运行成功。如果还有报错,则需要排查还有哪个jar没有加载,再次执行步骤1和步骤2。
  • 源站资源更新后在CDN侧执行了刷新操作,访问的还是旧资源 有以下几种可能的原因: 预热刷新时间间隔太近:可能是您缓存刷新和预热的时间间隔太近,导致刷新失败,建议您刷新和预热的间隔时间为五分钟以上。 源站资源未更新完毕就执行了刷新操作:请等源站资源更新完成后再执行刷新操作,避免源站资源在更新过程中刷新,导致CDN无法刷新到新变更的资源。 刷新URL有误:刷新的URL或目录不包含当前资源,例如 域名 为example.com,需要刷新图片/test/test1/1.jpg: 刷新时“类型”选择“url”,需要刷新具体的资源 http://example.com/test/test1/1.jpg。 刷新时“类型”选择“目录”,目录路径为http://example.com/test/test1/时无法刷新到图片1.jpg,正确的路径应为http://example.com/test/。 刷新时未携带参数:请检查需刷新的资源是否携带参数,如果网站资源是带参数的url,且缓存规则设置的“URL参数”为“不忽略参数”或“保留指定参数”时,刷新时也需要携带该参数。 父主题: 刷新预热
  • 认识 KooMessage 控制台 用户开通KooMessage服务后,进入KooMessage控制台,默认进入“总览”页面。 总览页面会显示: 购买套餐包:单击“购买套餐包”,进入购买页面,具体可参见购买KooMessage套餐包。 流程指引:显示智能信息、智能信息基础版、智能信息服务号等流程指引,根据需要,按照指引操作。 查看套餐包详情:页面显示各服务购买的套餐详情,可以查看套餐余量、可使用的套餐包信息等。更多信息请参考套餐包。 图1 总览 如果当前用户有正在使用的解析标识,会在页面顶部显示解析标识的使用信息,示例如图2,单击“查看详情”会跳转至“解析任务管理”页面。 图2 总览(解析标识)
  • Lite Server高危操作一览表 ModelArts Lite Server在日常操作与维护过程中涉及的高危操作,需要严格按照操作指导进行,否则可能会影响业务的正常运行。 高危操作风险等级说明: 高:对于可能直接导致业务失败、数据丢失、系统不能维护、系统资源耗尽的高危操作。 中:对于可能导致安全风险及可靠性降低的高危操作。 低:高、中风险等级外的其他高危操作。 表1 高危操作一览表 操作对象 操作名称 风险描述 风险等级 应对措施 操作系统 升级/修改操作系统内核或者驱动。 如果升级/修改操作系统内核或者驱动,很可能导致驱动和内核版本不兼容,从而导致OS无法启动,或者基本功能不可用。相关高危命令如:apt-get upgrade。 高 如果需要升级/修改,请联系华为云技术支持。 切换或者重置操作系统。 服务器在进行过“切换或者重置操作系统”操作后,EVS系统盘ID发生变化,和下单时订单中的EVS ID已经不一致, 因此EVS系统盘将不支持扩容,并显示信息:“当前订单已到期,无法进行扩容操作,请续订”。 中 切换或者重置操作系统后,建议通过挂载数据盘EVS或挂载SFS盘等方式进行存储扩容。 父主题: Lite Server使用前必读
  • 入门概述 您可以使用独享型负载均衡或共享型负载均衡创建一个负载均衡实例,将访问请求分发到多台弹性云服务器上。 该快速入门以具体场景为例,指引您使用共享型负载均衡快速创建一个负载均衡实例,将访问请求分发到两台弹性云服务器上。 基础版:适用于业务有大量访问请求,需要通过ELB实例将访问流量分发到两台弹性云服务器进行处理,实现业务流量的负载分担。同时,通过配置健康检查,负载均衡实例可以监控弹性云服务器的运行状况,自动将访问流量分发到正常工作的弹性云服务器进行处理,消除单点故障,提升业务的可用性。 图1 基础版 方案延伸:可根据业务的实际访问量,将快速入门场景中的两台弹性云服务器扩展到多台。以满足实际业务流量下的负载分担需求。 进阶版:适用于只有一个域名,但是有多个业务需要通过该域名对外提供服务,根据不同的URL来决定需要访问的应用。通过配置基于URL的转发策略,将来自同一个域名不同URL的请求转发到不同的后端服务器组处理。基于域名和URL的转发策略功能,目前仅支持协议类型为HTTP、HTTPS的监听器。 图2 进阶版 方案延伸:可根据业务的实际访问量,将快速入门场景中两个后端服务器组中的弹性云服务器分别扩展到多台,实现后端服务器组内多台弹性云服务器的负载分担。并且负载均衡实例可以通过健康检查,监控弹性云服务器的运行状况,自动将访问流量分发到正常工作的弹性云服务器进行处理,消除单点故障,提升业务的可用性。
  • 前提条件 为了确保负载均衡器与后端服务器进行正常通信和健康检查正常,添加后端服务器后必须检查后端服务器所在的安全组规则和网络ACL规则。 流量经共享型ELB转到后端服务器以后,源IP会被转换为100.125.0.0/16的IP。 后端服务器的安全组规则必须配置放行100.125.0.0/16网段。 网络ACL规则为子网级别的可选安全层,若ELB的后端子网关联了网络ACL,网络ACL规则必须配置允许源地址为ELB后端子网所属网段。 若共享型ELB实例开启“获取客户端IP”功能,共享型ELB四层监听器转发的流量将不受安全组规则和网络ACL限制,安全组规则和网络ACL规则均无需额外放通。建议您使用监听器的访问控制功能对访问IP进行限制。
  • 验证负载均衡服务 负载均衡器配置完成后,可通过访问ELB实例对应的域名以及指定的URL,验证是否实现访问到不同的后端服务器。 修改本地PC的“C:\Windows\System32\drivers\etc\hosts”文件,将域名映射到创建的ELB实例的EIP上。 ELB实例的EIP请在负载均衡器的基本信息界面查看。 图10 本地PC的hosts文件 在本地PC的命令行窗口,执行以下命令测试域名映射ELB实例的EIP是否成功。 ping www.example.com 如有回复数据包,则说明域名映射成功。 使用浏览器访问“http://www.example.com/ELB01/”,显示如下页面,说明本次访问请求被ELB实例转发到弹性云服务器"ECS01","ECS01"正常处理请求并返回请求的页面。 图11 访问到ECS01 "ELB01/"表示访问的是名为“ELB01”的默认目录,"ELB01"表示访问的是名为“ELB01”的文件。所以,此处"ELB01"后面的“/”符号必须保留。 使用浏览器访问“http://www.example.com/ELB02/”,显示如下页面,说明本次访问请求被ELB实例转发到弹性云服务器"ECS02","ECS02"正常处理请求并返回请求的页面。 图12 访问到ECS02
  • 操作场景 假如您有两个Web应用,需要部署在两个弹性云服务器(简称ECS)上。对外提供同一个访问域名“www.example.com”,根据不同的URL(/ELB01/和/ELB02/)来决定需要访问的应用。 负载均衡可以配置基于域名和URL的转发策略,将来自不同域名或者不同URL的请求转发到不同的后端服务器组处理。此功能目前仅支持协议类型为HTTP、HTTPS的监听器。 本文以HTTP转发为例,通过配置ELB的转发策略,实现基于访问同一个域名下的不同的URL,ELB实例根据URL将访问请求转发到不同的后端服务器组进行处理。
  • 创建 IAM 用户 如果您需要多用户协同操作管理您账号下的资源,为了避免共享您的密码/访问密钥,您可以通过IAM创建用户,并授予用户对应权限。这些用户可以使用特别的登录链接和自己单独的用户账号访问华为云平台,帮助您高效的管理资源,您还可以设置账号安全策略确保这些账号的安全,从而降低您的企业信息安全风险。 如果您已注册华为云平台账号但尚未为自己创建一个IAM用户,则可以使用IAM控制台自行创建。 以创建ELB管理员为例,具体步骤如下: 使用账号和密码登录管理控制台。 单击右上方登录的用户名,在下拉列表中选择“ 统一身份认证 ”。 在左侧导航栏中单击“用户”,在“用户”界面,单击“创建用户”。 在“创建用户”界面填写“用户信息”。 用户名:设置一个用户名,如“elb_administrator”。 邮箱:IAM用户绑定的邮箱,仅“访问方式”选择“首次登录时设置”时必填,选择其他访问方式时选填。 手机号(选填):IAM用户绑定的手机号。 描述(选填):输入用户描述信息,如“ELB管理员”。 在“创建用户”界面选择“访问方式”为“华为云管理控制台访问”,设置控制台登录密码为“自定义”并输入密码,完成后单击“下一步”。 图1 选择访问方式 ELB管理员用于登录管理控制台管理用户。如果您为自己创建ELB管理员,建议使用自定义方式设置密码。如果您为他人创建ELB管理员,建议使用“首次登录时设置”的方式,由用户自己设置密码。 (可选)将用户加入到“admin”用户组,完成后单击“下一步”。 “admin”用户组拥有所有操作权限,如果您想为IAM用户精细授权,请参阅创建用户并授权使用ELB。 创建成功后,用户列表中显示新创建的IAM用户。IAM用户可以使用列表上方的IAM用户登录链接登录控制台。
  • 配置Redis目的端参数 表1 Redis作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 redis键前缀 对应关系数据库的表名。 TABLENAME 值存储类型 存储类型分STRING、hash、list、set和zset。 STRING 写入前将相同的键删除 写入前是否将相同的键删除。 否 高级属性 键分隔符 用来分隔关系数据库的表和列名。 _ 值分隔符 以STRING方式存储,列之间的分隔符。 存储类型为列表时字串分割成数组的字符。 ; key值有效期 设置统一的生存时间。单位:秒。 3600 父主题: 配置作业目的端参数
  • 配置HDFS目的端参数 表1 HDFS作为目的端时的作业参数 参数类型 参数名 说明 取值样例 基本参数 写入目录 写入数据到HDFS服务器的目录。 /user/cdm/output 文件格式 传输数据时使用的格式。其中CSV和JSON仅支持迁移到数据表场景,二进制格式适用于文件迁移场景。 CSV格式 换行符处理方式 指定在写入文本文件表的数据包含换行符,特指(\n|\r|\r\n)的情况下处理换行符的策略。 删除 不处理 替换为其他字符串 删除 换行符替换字符串 当换行符处理方式选择为替换时,指定替换的字符串。 - 高级属性 写入到临时文件 文件格式为二进制格式时显示该参数。 将二进制文件先写入到临时文件。临时文件以".tmp"作为后缀。 否 换行符 文件格式为CSV格式时显示该参数。 文件中的换行符,默认自动识别"\n"、"\r"或"\r\n"。手动配置特殊字符,如空格回车需使用URL编码后的值。或通过编辑作业json方式配置,无需URL编码。 \n 字段分隔符 文件格式为CSV格式时显示该参数。 文件中的字段分隔符。配置特殊字符需先url编码。 , 作业成功标识文件 标识文件名。 当作业成功时,在写入目录下生成标识文件。不输入文件名时不启用该功能。 finish.txt 使用包围符 文件格式为CSV格式时显示该参数。 使用包围符来括住字符串值。包围符内的字段分隔符被视为字符串值的一部分,目前只支持"作为包围符。: 否 自定义目录层次 支持用户自定义文件的目录层次。 例如:【表名】/【年】/【月】/【日】/【数据文件名】. csv 否 目录层次 自定义目录层次选择是时显示该参数。 指定文件的目录层次,支持时间宏(时间格式为yyyy/MM/dd)。源端为关系型数据库数据源时,目录层次为源端表名+自定义目录,其他场景下为自定义目录。 ${dateformat(yyyy/MM/dd, -1, DAY)} 文件名前缀 文件格式为CSV格式时显示该参数。 设置文件名前缀。 文件名格式:prefix-jobname-timestamp-index。 data 压缩格式 文件格式为CSV格式时显示该参数。 选择写入文件的压缩格式。 NONE DEFLATE GZIP BZIP2 SNAPPY SNAPPY 加密方式 文件格式为二进制格式时显示该参数。 对上传的数据进行加密。 无 AES-256-GCM 无 数据加密 密钥 文件格式为二进制格式且选择加密方式时显示该参数。 数据加密密钥(Data Encryption Key),AES-256-GCM密钥由长度64的十六进制数组成。 DD0AE00DFECD78BF051BCFDA25BD4E320DB0A7AC75A1F3FC3D3C56A457DCDC1B 初始化向量 文件格式为二进制格式且选择加密方式时显示该参数。 设置初始化向量,由长度32的十六进制数组成。 5C91687BA886EDCD12ACBC3FF19A3C3F 父主题: 配置作业目的端参数
  • 操作步骤 登录 CDM 管理控制台。单击左侧导航上的“集群管理”,进入集群管理界面。 图1 集群列表 “创建来源”列仅通过 DataArts Studio 服务进入数据集成界面可以看到。 单击集群名称后,选择“标签”页签。 图2 修改集群配置 单击“添加/编辑标签”,通过添加、修改标签为CDM集群设置资源标识。 图3 添加标签 一个集群最多可添加10个标签。 标签键(key)的最大长度为36个字符,标签值(value)的最大长度为43个字符。 (可选)在标签列表中,单击标签操作列“删除”,删除CDM集群标签。 通过以下两种方式筛选出所配置标签的资源。 在标签管理服务中,选择资源搜索条件,单击“搜索”即可筛选出所配置标签的资源。 在集群列表中,单击标签搜索,筛选出所配置标签的资源。
  • 指定文件名迁移 从FTP/SFTP/OBS导出文件时,CDM支持指定文件名迁移,用户可以单次迁移多个指定的文件(最多50个),导出的多个文件只能写到目的端的同一个目录。 在创建表/文件迁移作业时,如果源端数据源为FTP/SFTP/OBS,CDM源端的作业参数“源目录或文件”支持输入多个文件名(最多50个),文件名之间默认使用“|”分隔,您也可以自定义文件分隔符,从而实现文件列表迁移。 迁移文件或对象时支持文件级增量迁移(通过配置跳过重复文件实现),但不支持断点续传。 例如要迁移3个文件,第2个文件迁移到一半时由于网络原因失败,再次启动迁移任务时,会跳过第1个文件,从第2个文件开始重新传,但不能从第2个文件失败的位置重新传。 文件迁移时,单个任务支持千万数量的文件,如果待迁移目录下文件过多,建议拆分到不同目录并创建多个任务。 父主题: 关键操作指导
  • Django日志 日志样例: [08/Jan/2018 20:59:07 ] settings INFO Welcome to Hue 3.9.0 正则表达式为: ^\[(.*)\] (\w*) (\w*) (.*).* 解析结果如下: 表4 Django日志解析结果 列号 样值 1 08/Jan/2018 20:59:07 2 settings 3 INFO 4 Welcome to Hue 3.9.0
  • Apache server日志 日志样例: [Mon Jan 08 20:43:51.854334 2018] [mpm_event:notice] [pid 36465:tid 140557517657856] AH00489: Apache/2.4.12 (Unix) OpenSSL/1.0.1t configured -- resuming normal operations 正则表达式为: ^\[(.*)\] \[(.*)\] \[(.*)\] (.*).* 解析结果如下: 表5 Apache server日志解析结果 列号 样值 1 Mon Jan 08 20:43:51.854334 2018 2 mpm_event:notice 3 pid 36465:tid 140557517657856 4 AH00489: Apache/2.4.12 (Unix) OpenSSL/1.0.1t configured -- resuming normal operations
  • Log4J日志 日志样例: 2018-01-11 08:50:59,001 INFO [org.apache.sqoop.core.SqoopConfiguration.configureClassLoader(SqoopConfiguration.java:251)] Adding jars to current classloader from property: org.apache.sqoop.classpath.extra 正则表达式为: ^(\d.*\d) (\w*) \[(.*)\] (\w.*).* 解析出的结果如下: 表1 Log4J日志解析结果 列号 样值 1 2018-01-11 08:50:59,001 2 INFO 3 org.apache.sqoop.core.SqoopConfiguration.configureClassLoader(SqoopConfiguration.java:251) 4 Adding jars to current classloader from property: org.apache.sqoop.classpath.extra
  • Log4J审计日志 日志样例: 2018-01-11 08:51:06,156 INFO [org.apache.sqoop.audit.FileAuditLogger.logAuditEvent(FileAuditLogger.java:61)] user=sqoop.anonymous.user ip=189.xxx.xxx.75 op=show obj=version objId=x 正则表达式为: ^(\d.*\d) (\w*) \[(.*)\] user=(\w.*) ip=(\w.*) op=(\w.*) obj=(\w.*) objId=(.*).* 解析结果如下: 表2 Log4J审计日志解析结果 列号 样值 1 2018-01-11 08:51:06,156 2 INFO 3 org.apache.sqoop.audit.FileAuditLogger.logAuditEvent(FileAuditLogger.java:61) 4 sqoop.anonymous.user 5 189.xxx.xxx.75 6 show 7 version 8 x
  • Tomcat日志 日志样例: 11-Jan-2018 09:00:06.907 INFO [main] org.apache.catalina.startup.VersionLoggerListener.log OS Name: Linux 正则表达式为: ^(\d.*\d) (\w*) \[(.*)\] ([\w\.]*) (\w.*).* 解析结果如下: 表3 Tomcat日志解析结果 列号 样值 1 11-Jan-2018 09:00:06.907 2 INFO 3 main 4 org.apache.catalina.startup.VersionLoggerListener.log 5 OS Name:Linux
  • KMS加密 源端解密不支持KMS。 CDM目前只支持导入文件到OBS时,目的端使用KMS加密,表/文件迁移和整库迁移都支持。在“目的端作业配置”的“高级属性”中配置。 KMS密钥需要先在数据加密服务创建,具体操作请参见《数据加密服务 用户指南》。 当启用KMS加密功能后,用户上传对象时,数据会加密成密文存储在OBS。用户从OBS下载加密对象时,存储的密文会先在OBS服务端解密为明文,再提供给用户。 如果选择使用KMS加密,则无法使用MD5校验一致性。 如果这里使用其它项目的KMS ID,则需要修改“项目ID”参数为KMS ID所属的项目ID;如果KMS ID与CDM在同一个项目下,“项目ID”参数保持默认即可。 使用KMS加密后,OBS上对象的加密状态不可以修改。 使用中的KMS密钥不可以删除,如果删除将导致加密对象不能下载。
共100000条