检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
集群升级到新版本后,不支持回退到老版本。 普通版集群不支持升级。 版本发布周期/版本生命周期 表1 生命周期常用术语 术语 定义 停止销售(EOM) 指停止云服务版本的部署,现网中不再部署该云服务版本。 停止全面支持(EOFS) 指定云服务版本停止普通软件BUG修复工作,仅执行致命问题修复、安全类问题修复以及升级等操作。
%u 周(00 .. 53), 星期一是一周的第一天 %V 周(01 .. 53),星期天是一周的第一天,与%X配合使用 %v 星期(01 .. 53), 第一条为星期一,与%X配合使用 %W 周几(Sunday .. Saturday) %w 本周的第几天(0 .. 6),星期天是一周的第一天
更新用户(组)与IAM委托的映射关系 功能介绍 更新用户(组)与IAM委托之间的映射关系。 接口约束 无 调用方法 请参见如何调用API。 URI PUT /v2/{project_id}/clusters/{cluster_id}/agency-mapping 表1 路径参数 参数
Flink常见SQL语法说明 SELECT与WHERE语句 根据where子句对数据进行过滤。 语法: SELECT select_list FROM table_expression [ WHERE boolean_expression ] 示例: SELECT price +
若未同步,可在集群Manager页面观察到存在异常角色。 原因分析 需解决异常,等集群恢复正常后继续升级节点。 处理步骤 方式一: 进入集群组件管理页,查看服务健康状态与角色状态,若存在“未启动”的角色,进入服务。 勾选未开启的实例,单击“更多”,选择“启动实例”。 若异常角色较多,可在管理操作处选择启动所有组件。
集群出现ALM-14012 Journalnode数据不同步告警 问题背景与现象 MRS集群出现ALM-14012 Journalnode数据不同步告警。 原因分析 登录告警节点,查找日志路径“/var/log/Bigdata/hdfs/nn”下Journalnode实例的startDetail
Manager首页,选择“运维 > 告警 > 告警”页面,找到“ALM-29100 Kudu服务异常”告警。 查看告警的“定位信息”一栏,记录主机名与角色名。 选择“集群 > 服务 > Kudu > 实例”,单击2中对应主机名的角色名称,通过查看本实例的日志,修复这个实例,然后查看是否消除各个Kudu实例异常告警。
ALM-12080 omm密码即将过期 告警解释 系统每天零点开始,每8小时检测当前系统中omm密码是否即将过期,如果当前时间与密码过期时间剩余不足15天,则发送告警。 当系统中omm密码过期的期限重置,当前状态为正常,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 12080
as int ); select cast(186 as varchar); try_cast(value AS type) → type 与cast()相似,区别是转换失败返回null。 select try_cast(1860 as tinyint); _col0 -------
${CONTROLLER_HOME}/security/cert/conf/querycertvalidity.sh可以查看CA根证书的生效时间与失效时间。 是,执行7。 否,执行5。 查看当前系统时间是否在HA根证书的有效期内。 执行命令openssl x509 -noout -text
提交Spark任务时连接ResourceManager异常 问题背景与现象 连接ResourceManager异常,导致Spark任务提交失败。 原因分析 在Driver端打印异常如下,打印连接两个ResourceManager主备节点的26004端口均被拒绝: 15/08/19
FS,并在Distributed Cache中保存,在Map Task中从本地磁盘或者Distributed Cache中读取小表内容直接与大表join得到结果并输出。 使用Map Join时需要注意小表不能过大,如果小表将内存基本用尽,会使整个系统性能下降甚至出现内存溢出的异常。
告警是否清除。 是,处理完毕。 否,执行25。 检查HDFS临时目录权限。 登录客户端所在节点,执行以下命令进入HDFS客户端安装目录。 cd 客户端安装目录 source bigdata_env kinit 具有supergroup组权限的用户(普通集群跳过该步骤) 执行命令以
FS,并在distributed cache中保存,在Map Task中从本地磁盘或者distributed cache中读取小表内容直接与大表join得到结果并输出。 使用Map Join时需要注意小表不能过大,如果小表将内存基本用尽,会使整个系统性能下降甚至出现内存溢出的异常。
'(\d+)([a-z]+)',2);-- [a, b, m] regexp_extract(string, pattern) → varchar 描述:返回与字符串中的正则表达式模式匹配的第一个子字符串。 SELECT regexp_extract('1a 2b 14m','\d+');-- 1
entrytime STRING ) -- 指定行中各字段分隔符. -- "delimited fields terminated by"指定列与列之间的分隔符为',',"MAP KEYS TERMINATED BY"指定MAP中键值的分隔符为'&'. ROW FORMAT delimited
用户管理”,在用户名中选择hdfsuser,然后在右侧“操作”列中选择“更多 >下载认证凭据”下载,保存后解压得到用户的user.keytab文件与krb5.conf文件,用于在样例工程中进行安全认证,如图1所示。 图1 下载认证凭据 父主题: 准备HDFS应用开发环境
Content 服务器成功处理了部分GET请求。 300 Multiple Choices 多种选择。请求的资源可包括多个位置,相应可返回一个资源特征与地址的列表用于用户终端(例如:浏览器)选择。 301 Moved Permanently 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。
查看Flume客户端日志 安装Flume客户端。 进入Flume客户端日志目录,默认为“/var/log/Bigdata”。 执行如下命令查看日志文件列表。 ls -lR flume-client-* 日志文件示例如下: flume-client-1/flume: total 7672
在HDFS上建立一个文件夹“/tmp/input”,并上传input_data1.txt,input_data2.txt到此目录,命令如下: 登录HDFS客户端。 cd 客户端安装目录 source bigdata_env 在Linux系统HDFS客户端使用命令hdfs dfs -mkdir /tmp/input 在