检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
执行以下命令重新生成证书,等待1小时,观察此告警是否被清除。 sh geneJKS.sh -m 服务端的自定义MonitorServer证书密码 -n 客户端的自定义MonitorServer证书密码 是,执行9。 否,执行8。 服务端、客户端的自定义MonitorServer证书密码需满足以下复杂度要求:
ALM-24012 Flume证书文件已过期 本章节适用于MRS 3.2.0及以后版本。 告警解释 Flume每隔一个小时,检查当前系统中的证书文件是否已过期。如果服务端证书已过期,产生该告警。服务的证书文件恢复到有效期内,告警恢复。 告警属性 告警ID 告警级别 是否自动清除 24012
ALM-24015 Flume MonitorServer证书文件已过期 本章节适用于MRS 3.2.0及以后版本。 告警解释 MonitorServer每隔一个小时健康检查时,检查当前系统中的证书文件是否已过期。如果服务端证书已过期,产生该告警。服务端证书恢复的有效期内,告警恢复。 告警属性 告警ID
修改系统内部用户密码 修改默认数据库用户密码 证书更新 MRS集群的CA证书与HA证书均支持更换,如果用户需要将集群默认的证书更换成新的证书,可参考如下指导: CA证书用于组件客户端与服务端在通信过程中加密数据,实现安全通信。具体更换操作指导请参见更换CA证书。 HA证书用于主备进程与高可用进程在通
presto_trust -file <ca.crt_path> -keystore <keystore_path>/truststore.jks –keypass <password> 其中,<ca.crt_path>为拷贝的ca.crt文件路径,<keystore_path>为truststore
g4j_Patch/bin/abc.pem’,则执行命令为: nohup sh install.sh upgrade_resetpwdagent privatekey:/home/omm/MRS_Log4j_Patch/bin/abc.pem & 通过tail -f nohup.
option", "some-value") .getOrCreate(); // 通过隐式转换,将RDD转换成DataFrame JavaRDD<FemaleInfo> femaleInfoJavaRDD = spark.read()
option", "some-value") .getOrCreate(); // 通过隐式转换,将RDD转换成DataFrame JavaRDD<FemaleInfo> femaleInfoJavaRDD = spark.read()
下载客户端”,下载客户端压缩文件到本地机器。 使用客户端根目录中的“ca.crt”证书文件生成客户端的“truststore”。 执行命令如下: keytool -noprompt -import -alias myservercert -file ca.crt -keystore truststore.jks
"some-value") .getOrCreate() import spark.implicits._ //通过隐式转换,将RDD转换成DataFrame,然后注册表 spark.sparkContext.textFile(args(0)).map(_.split("
"some-value") .getOrCreate() import spark.implicits._ //通过隐式转换,将RDD转换成DataFrame,然后注册表 spark.sparkContext.textFile(args(0)).map(_.split("
"some-value") .getOrCreate() import spark.implicits._ //通过隐式转换,将RDD转换成DataFrame,然后注册表 spark.sparkContext.textFile(args(0)).map(_.split("
将日期字面量转换成日期类型的变量 select date('2020-07-25');-- 2020-07-25 from_iso8601_timestamp(string) → timestamp with time zone 将ISO 8601格式的时戳字面量转换成带时区的时戳变量
"some-value") .getOrCreate() import spark.implicits._ //通过隐式转换,将RDD转换成DataFrame,然后注册表 spark.sparkContext.textFile(args(0)).map(_.split("
option", "some-value") .getOrCreate(); // 通过隐式转换,将RDD转换成DataFrame JavaRDD<FemaleInfo> femaleInfoJavaRDD = spark.read()
sqlContext = new org.apache.spark.sql.SQLContext(jsc); // 通过隐式转换,将RDD转换成DataFrame JavaRDD<FemaleInfo> femaleInfoJavaRDD = jsc.textFile(args[0])
option", "some-value") .getOrCreate(); // 通过隐式转换,将RDD转换成DataFrame JavaRDD<FemaleInfo> femaleInfoJavaRDD = spark.read()
图3 客户端配置 使用客户端根目录中的“ca.crt”证书文件生成客户端的“truststore”。 执行命令如下: keytool -noprompt -import -alias myservercert -file ca.crt -keystore truststore.jks
vim ips.ini 执行脚本卸载补丁,需要保证私钥文件“/tmp/xxxx.pem”的权限是600: 密钥方式: sh install.sh -t uninstall -k /tmp/xxxx.pem 密码方式: sh install.sh -t uninstall -p 'password'
文件等输出到外部系统,这是Flink的核心概念。 Data Transformation 数据处理单元,会将一或多个DataStream转换成一个新的DataStream。 具体可以细分如下几类: 一对一的转换:如Map。 一对0、1或多个的转换:如FlatMap。 一对0或1的转换,如Filter。