检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
在告警列表中查看“ALM-25004 LdapServer数据同步异常”告警是否清除。 是,处理完毕。 否,执行4。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。 参考信息 无。 父主题: MRS集群告警处理参考
下载”。 在“服务”中勾选FlinkServer节点信息,单击“确定”。 在“主机”中勾选对应角色所在的主机,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除
实例”,重启该DataNode实例。 检查该告警是否恢复。 是,处理完毕。 否,执行7。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。 参考信息 无。 父主题: MRS集群告警处理参考
在告警列表中,查看“ALM-16004 Hive服务不可用”告警是否清除。 是,处理完毕。 否,执行7。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。 参考信息 无。 父主题: MRS集群告警处理参考
Occurrence num of 'COUNT(DISTINCT)'(6) reaches the hint threshold(2) 若SQL防御规则中设置的动作是“拦截”,系统回显信息如下: Error in query: static_0001 Occurrence num of 'COUNT(DISTINCT)'(6)
“端口号”:填写CIFS协议连接NAS服务器使用的端口号,默认值为“445”。 “用户名”:填写配置CIFS协议时设置的用户名。 “密码”:填写配置CIFS协议时设置的密码。 “源端路径”:填写备份文件在NAS服务器中保存的完整路径。例如,“备份路径/备份任务名_数据源_任务创建时间/”。
用户”,单击“添加用户”,进入添加用户页面。 “用户类型”选择“人机”,在“密码”和“确认密码”参数设置该用户对应的密码。 用户名:添加的用户名不能包含字符“-”,否则会导致认证失败。 密码:设置的密码不能携带“$”、“.”、“#”特殊字符,否则会导致认证失败。 在“角色”处单击“添加”,在弹框中选择1
于数据从集群导出去的场景来说,就是将数据写入到外部数据源。上述示例配置的是一个SFTP数据源连接器。配置SFTP和FTP的数据源连接器需要设置密码并进行加密。密码加密方法如下: 执行以下命令,进入到loader-tools-1.99.3目录。Loader客户端安装目录为“/opt
krb5ConfFile.getAbsolutePath() + ") is not a file."); } // 3.设置并检查krb5config setKrb5Config(krb5ConfFile.getAbsolutePath());
createDefault()) { HttpPost httpPost = new HttpPost(PUT_URL);//请求需要设置超时时间 addTimeout(httpPost); String weatherData = genWeatherData();
// 初始化用户自定义状态 public UDFState() { count = 0L; } // 设置用户自定义状态 public void setState(long count) { this.count = count;
语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M -f /tpch.sql
在告警列表中,查看“ALM-23001 Loader服务不可用”告警是否清除。 是,处理完毕。 否,执行7。 收集故障信息。 在MRS Manager界面,单击“系统设置 > 日志导出”。 请联系运维人员,并发送已收集的故障日志信息。 父主题: MRS集群告警处理参考
可以选择在一次“transform”方法调用中输出任意数量的数据点。需要注意的是,输出数据点的类型必须与在“beforeStart”方法中设置的一致,而输出数据点的时间戳必须是严格单调递增的。 下面是一个实现了“void transform(Row row, PointCollector
600秒,如果导入的源文件无法在规定时间内完成导入,可以在Stream Load请求中设置单独的超时时间,或调整“stream_load_default_timeout_second”参数值设置全局的默认超时时间。 streaming_load_max_mb 表示Stream L
Base表,授予权限后可以使用SparkSQL访问HBase表。以授予用户在SparkSQL中查询HBase表的权限为例,操作步骤如下: 设置“spark.yarn.security.credentials.hbase.enabled”为“true”。 在Manager角色界面创
语句,执行3。 使用spark-beeline运行SQL语句,执行4。 执行SQL语句时,需要添加参数“--driver-memory”,设置内存大小,例如: /spark-sql --master=local[4] --driver-memory=512M -f /tpch.sql
Base表,授予权限后可以使用SparkSQL访问HBase表。以授予用户在SparkSQL中查询HBase表的权限为例,操作步骤如下: 设置“spark.yarn.security.credentials.hbase.enabled”为“true”。 在Manager角色界面创
metrics.num-immutable-mem-table true 监测RocksDB中不可变Memtable的数量,该值如果一直增加,或大于设置的阈值,会影响写性能 state.backend.rocksdb.metrics.mem-table-flush-pending true
worker.gc.childopts > worker.gc.childopts > topology.worker.childopts。 如果设置了客户端参数topology.worker.childopts,则该参数会与服务端参数worker.gc.childopts共同配置,但是