正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
用户、主机、服务、实例或操作结果可修改排列方式。 支持在“安全级别”筛选相同级别的全部告警。结果包含已清除和未清除的告警。 导出的审计日志文件,包含以下信息列: “编号”:表示MRS Manager已生成的审计日志数量,每增加一条审计日志则编号自动加1。 “操作类型”:表示用户操
ger策略,通过之前Hive权限插件的方式,给角色添加权限,然后把角色赋予对应用户。如果HDFS Ranger策略可以匹配到Hive库表的文件或目录权限,则优先使用HDFS Ranger策略。 如果在Hive中创建的表,需要在Impala执行invalidate metadata
将ApplicationMaster的内存配置调大,在客户端“客户端安装路径/Yarn/config/mapred-site.xml”配置文件中优化如下参数: “yarn.app.mapreduce.am.resource.mb” “yarn.app.mapreduce.am.c
spark-shell 即可进入Scala交互式界面,从HDFS中获取数据,再操作RDD进行计算,输出并打印结果。 示例:一行代码可以实现统计一个文件中所有单词出现的频次。 scala> sc.textFile("hdfs://hacluster/tmp/wordcount_data.txt")
登录GaussDB(DWS)管理控制台,单击左侧的“连接管理”,下载JDBC驱动,如下图所示: 解压,获取“gsjdbc200.jar”文件,并上传到MRS集群主Master节点,例如上传到“/tmp”目录下。 使用root用户登录MRS集群主Master节点,执行如下命令: cd
请咨询系统管理员。 打开默认地址为“/var/log/Bigdata/flink/flinkserver/prestart.log”的日志文件,查看日志内是否有“Float ip x.x.x.x is invalid.”字样。 是,执行10。 否,执行12。 在FusionInsight
将ApplicationMaster的内存配置调大,在客户端“客户端安装路径/Yarn/config/mapred-site.xml”配置文件中优化如下参数: “yarn.app.mapreduce.am.resource.mb” “yarn.app.mapreduce.am.c
/** *从Kafka的一个或多个主题消息。 * <checkPointDir>是Spark Streaming检查点目录。 * <brokers>是用于自举,制作人只会使用它来获取元数据 * <topics>是要消费的一个或多个kafka主题的列表 * <batchTime>是Spark
检查LdapServer所在的节点网络是否故障。 登录MRS集群详情页面,选择“告警管理”。 记录该告警定位信息中的“HostName”的IP地址为IP1(若出现多个告警,则分别记录其中的IP地址为IP1、IP2、IP3等)。 联系运维人员,登录IP1节点,在这个节点上使用ping命令检查该节点与主oms节点的管理平面IP是否可达。
外置数据连接:可以为MRS集群选择关联与当前MRS集群同一虚拟私有云和子网的外置数据连接。元数据将存储于关联的数据库中,不会随当前集群的删除而删除,多个MRS集群可共享同一份元数据。 MRS集群支持的外置数据连接类型为: 安装了Hive组件的集群支持连接“RDS服务PostgreSQL数据
ATE RESOURCE命令创建一个Resource,之后可以在创建Catalog时使用这个Resource。 一个Resource可以被多个Catalog使用,以复用其中的配置。 父主题: 配置Doris支持多源数据
server的WAL分割,以避免数据不一致问题。一旦WAL分割完成,HMaster将进行用户region的分配。所以当在集群异常的场景下,WAL分割可能需要很长时间,这取决于多个因素,例如太多的WALs,较慢的I/O,region servers不稳定等。 为确保HMaster能够成功完成所有region server
在界面右侧的“搜索”框中输入“dfs.namenode.name.dir”搜索,在其值中增加“${BIGDATA_DATA_HOME}/namenode-nfs”路径,多个路径间使用“,”隔开,然后单击“保存”。 单击“确定”。在概览页面选择“更多 > 重启服务”,重启服务。 父主题: HDFS运维管理
在界面右侧的“搜索”框中输入“dfs.namenode.name.dir”搜索,在其值中增加“${BIGDATA_DATA_HOME}/namenode-nfs”路径,多个路径间使用“,”隔开,然后单击“保存”。 单击“确定”。在概览页面选择“更多 > 重启服务”,重启服务。 父主题: HDFS运维管理
单击待操作的RSGroup名称,跳转到修改RSGroup页面。 勾选欲分配的RegionServer实例,单击“下一步”。 一次分配操作仅允许勾选来自同一RSGroup的一个到多个RegionServer实例,且default组中的RegionServer的运行状态不为良好时不允许被勾选分配。若想要分配来自不同RSG
单击待操作的RSGroup名称,跳转到修改RSGroup页面。 勾选欲分配的RegionServer实例,单击“下一步”。 一次分配操作仅允许勾选来自同一RSGroup的一个到多个RegionServer实例,且default组中的RegionServer的运行状态不为良好时不允许被勾选分配。如果想要分配来自不同RS
每个taskmanager中netty客户端线程数,通过-yD添加。 20 选填 state.backend.rocksdb.files.open 最大打开文件数目,-1意味着没有限制,通过-yD添加。 -1 选填 state.backend.rocksdb.compaction.level.use-dynamic-size
channel被终止后认为driver失联,然后整个应用停止。 解决办法: 在Spark客户端的“spark-defaults.conf”文件中或通过set命令行进行设置。参数配置时要保证channel过期时间(spark.rpc.io.connectionTimeout)大于或等于RPC响应超时时间(spark
已创建计算实例并运行正常,可参考创建HetuEngine计算实例。 操作步骤 请自行准备并安装FineBI至本地。 参考1获取HetuEngine JDBC jar包文件。 将获取的jar包放在FineBI目录“%FineBI%\webapps\webroot\WEB-INF\lib”,重启FineBI。 打开FineBI,选择“管理系统
的HiveServer节点的HiveServerAudit日志,下载的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟。打开日志文件查找“Result=FAIL”关键字筛选执行错误语句的日志信息,再根据日志信息中的“UserName”查看执行错误语句的用户。 输入正确的HQL语句,观察命令是否正确执行。