正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
全部配置”搜索参数“dfs.datanode.failed.volumes.tolerated”。例如:如果该参数值为3,DataNode只有在4个或者更多个目录故障之后才会出现故障。该值会影响到DataNode的启动。 如果想要DataNode不出现故障,配置的“dfs.datanode.failed
全部配置”搜索参数“dfs.datanode.failed.volumes.tolerated”。例如:如果该参数值为3,DataNode只有在4个或者更多个目录故障之后才会出现故障。该值会影响到DataNode的启动。 如果想要DataNode不出现故障,配置的“dfs.datanode.failed
Table ------------- show_table1 show_table2 (2 rows) --同时满足多个条件,查询default中'show_'开头或者'in'开头的表 show tables in default like 'show$_%|in%'
hive.server2.authentication.ldap.userDNPattern LDAP userDNPattern 若该参数值有多个,使用“:”分隔。例如:cn=%s,ou=People1,dc=huawei,dc=com: cn=%s,ou=People2,dc=huawei
MRS 2.1.0版本集群对Storm日志的大小有什么限制? 如何修改现有集群的HDFS fs.defaultFS? MRS是否支持同时运行多个Flume任务? 如何修改FlumeClient的日志为标准输出日志? Hadoop组件jar包位置和环境变量的位置在哪里? 如何查看HBase日志?
/opt/hive_examples/conf/user.keytab hiveuser 在连接安全集群时需要在hive客户端的HCatalog的配置文件(例如:/opt/client/Hive/HCatalog/conf/hive-site.xml)中添加如下配置: <property> <name>hive
内容的丢失。状态信息需要让Active/Standby的ResourceManager都能访问。当前系统提供了三种共享状态信息的方法:通过文件系统共享(FileSystemRMStateStore)、通过LevelDB数据库共享(LeveldbRMStateStore)或通过Zo
升级为紧急,最终导致数据写入失败。 可能原因 HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢; HBase集群存在大量的WAL文件在进行split。 处理步骤 检查znode数量配额和使用量 在FusionInsight Manager首页,选择“运维 > 告警 >
解决管控面提交Flink作业打印敏感日志的问题。 解决Hudi到DWS任务unknown以及无法删除问题。 解决Hudi filegroup下只有一个4bytes文件时,Hudi读写报错的问题。 解决CDL定时线程增加异常保护,防止线程异常,告警不上报的问题。 解决CDL解密环境变量冲突,导致升级时hudi源任务运行失败的问题。
的HiveServer节点的HiveServerAudit日志,下载的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟。打开日志文件查找“Result=FAIL”关键字筛选执行错误语句的日志信息,再根据日志信息中的“UserName”查看执行错误语句的用户。 输入正确的
<table_name>","< list of segment ids >");” 说明: 不建议在carbon.properties文件中设置该属性,因为所有会话都包含段列表,除非发生会话级或线程级覆盖。 示例 添加(Add)或更新(Update): SET enable.unsafe
<table_name>","< list of segment ids >");” 说明: 不建议在carbon.properties文件中设置该属性,因为所有会话都包含段列表,除非发生会话级或线程级覆盖。 示例 添加(Add)或更新(Update): SET enable.unsafe
加标签,节点标签会占用标签配额,可以通过MapReduce服务节点管理页面查看该节点上拥有的标签。 默认标签:MapReduce集群中包含多个节点,节点下包括云服务器和云硬盘。启用默认标签后,系统会自动集群创建一个默认集群标签,并为每个节点创建一个默认节点标签,且默认标签会自动同步到对应的云服务器或云硬盘节点上。
newInstance(); 获取JDBC连接,执行HQL,输出查询的列名和结果到控制台,关闭JDBC连接。 连接字符串中的“zk.quorum”也可以使用配置文件中的配置项“spark.deploy.zookeeper.url”来代替。 在网络拥塞的情况下,您还可以设置客户端与JDBCServer连
SparkLauncher的方式依赖Spark客户端,即运行程序的节点必须已安装Spark客户端,且客户端可用。运行过程中依赖客户端已配置好的环境变量、运行依赖包和配置文件, 在Spark应用程序运行节点,执行如下命令使用SparkLauncher方式提交。 java -cp $SPARK_HOME/conf
anger中的权限策略,系统默认将拒绝访问。但是对于HDFS和Yarn,系统会将决策下放给组件自身的访问控制层继续进行判断。 例如要将一个文件夹FileA的读写权限授权给用户组groupA,但是该用户组内某个用户UserA除外,这时可以增加一个允许条件及一个例外条件即可实现。 父主题:
集群组件安装、集群扩容、集群缩容、升级Master节点规格功能不可用。 集群的运行状态、告警、事件无法监控。 集群详情页的节点管理、组件管理、告警管理、文件管理、作业管理、补丁管理、租户管理功能不可用。 Manager页面、各组件的Web站点无法访问。 再次开启通信安全授权,集群状态会恢复为“
产生告警的集群或系统名称。 服务名 产生告警的服务名称。 角色名 产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 系统本地最多只能保存50个转储文件,如果该故障持续存在于转储服务器,本地审计日志可能丢失。 可能原因 网络连接异常。 转储服务器的用户名、密码或转储目录不满足配置条件。 转储目录的磁盘空间不足。
导致HBase服务的写入请求失败。 可能原因 HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢。 HBase集群存在大量的WAL文件在进行split。 处理步骤 检查znode容量配置和使用量 在FusionInsight Manager首页,选择“运维 > 告警 >
导致HBase服务的写入请求失败。 可能原因 HBase配置了容灾并且容灾存在数据同步失败或者同步速度慢; HBase集群存在大量的WAL文件在进行split。 处理步骤 检查znode数量配置和使用量 在FusionInsight Manager首页,选择“运维 > 告警 >