检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/opt/client进入客户端安装目录,然后执行source bigdata_env。如果集群采用安全版本,要进行安全认证。执行kinit hdfs命令,按提示输入密码。向MRS集群管理员获取密码。 执行hdfs dfs -rm -r 文件或目录路径命令,确认删除无用的文件。 检查本告警是否恢复。
保存配置并重启Yarn服务: MRS 2.x及之前版本,单击“保存配置”,选择“重新启动受影响的服务或实例。”并单击“确定”,重启Yarn服务。 界面提示“操作成功。”,单击“完成”,Yarn服务重启成功。 MRS 3.x及之后版本,单击“保存”,并在确认对话框中单击“确定”。单击“概览”,选择“更多
件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 已安装客户端时编译并运行程序 进入样例工程本地根目录,在Windows命令提示符窗口中执行下面命令进行打包。 mvn -s "{maven_setting_path}" clean package “{maven_s
件包生成后根据浏览器提示下载客户端到本地并解压。 MRS 3.3.0及之后版本,登录FusionInsight Manager页面,在“主页”右上方单击“下载客户端”,“选择客户端类型”设置为“仅配置文件”,单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。
在弹出窗口选择文件夹“hive-jdbc-example”,单击“OK”。Windows下要求该文件夹的完整路径不包含空格。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”。 弹出“Settings”窗口。 在左边导航上选择“Editor
profit)和group by子句,因此UPDATE操作失败。 如果查询的表设置了carbon.input.segments属性,则UPDATE操作失败。要解决该问题,在查询前执行以下语句。 语法: SET carbon.input.segments. <database_name>. <table_name>=*;
节点上对应路径下找不到对应的kdc.conf文件,无法获取kerberos认证所需信息,导致ApplicationMaster启动失败。 解决办法 在客户端提交任务时,在命令行中配置自定义的spark.driver.extraJavaOptions参数这样任务运行时就不会自动加载
根据输出16进制TID,在线程堆栈中进行查找,发现在执行compaction操作。 对其它线程执行相同操作,发现均为compactions线程。 解决办法 属于正常现象。 发现消耗CPU较高线程均为HBase的compaction,其中部分线程调用Snappy压缩处理,部分线程调用HDF
若是MRS侧错误,继续下一步。 排查服务和进程运行状态等基本情况。 登录Manager界面确认是否有服务故障,如果有作业相关服务故障或者底层基础服务故障,需要解决故障。 查看是否有严重告警。 登录主Master节点。 执行如下命令查看OMS状态是否正常,主OMS节点executor和knox进程是否
profit)和group by子句,因此UPDATE操作失败。 如果查询的表设置了carbon.input.segments属性,则UPDATE操作失败。要解决该问题,在查询前执行以下语句。 语法: SET carbon.input.segments. <database_name>. <table_name>=*;
Manager,选择“集群 > 服务 > Doris > 配置”,搜索“query_port”获取。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”。 弹出“Settings”窗口。 在左边导航上选择“Editor
Hive开源增强特性:支持HBase删除功能 由于底层存储系统的原因,Hive并不能支持对单条表数据进行删除操作,但在Hive on HBase功能中,MRS解决方案中的Hive提供了对HBase表的单条数据的删除功能,通过特定的语法,Hive可以将自己在HBase表中符合条件的一条或者多条数据清除。
properties文件均无变更的前提下,客户端安装目录/Oozie/oozie-client-*/examples目录一经上传HDFS,后续可重复使用,无需多次提交。 解决Spark和Yarn关于jetty的jar冲突。 hdfs dfs -rm -f /user/oozie/share/lib/spark/jetty-all-9
name}”是操作系统用户名(即omm用户),客户端(kerberos用户,例如admin用户)不具备该目录的rwx权限。 上述问题可通过执行以下步骤解决: 在客户端将“hbase.fs.tmp.dir”参数设置为当前kerberos用户的目录(如“/user/admin/hbase-sta
配置NameNode内存参数 配置场景 在HDFS中,每个文件对象都需要在NameNode中注册相应的信息,并占用一定的存储空间。随着文件数的增加,当原有的内存空间无法存储相应的信息时,需要修改内存大小的设置。 配置描述 参数入口: 请参考修改集群服务配置参数,进入HDFS“全部配置”页面。
客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如,客户端文件压缩包为“FusionInsight_Cluster_1_Services_Client.tar
如果集群已启用Kerberos认证(安全模式),执行以下命令进行用户认证。集群未启用Kerberos认证(普通模式)请跳过该步骤。 kinit hdfs 按提示输入密码,用户密码可以向MRS集群管理员获取,首次认证需要修改密码。 执行以下命令退出HDFS安全模式。 hdfs dfsadmin -safemode
配置NameNode内存参数 配置场景 在HDFS中,每个文件对象都需要在NameNode中注册相应的信息,并占用一定的存储空间。随着文件数的增加,当原有的内存空间无法存储相应的信息时,需要修改内存大小的设置。 配置描述 参数入口: 请参考修改集群服务配置参数,进入HDFS“全部配置”页面。
--partitions=“新Partition数目” 新Partition数目建议配置为Kafka数据磁盘数量的倍数。 当前步骤修改可能不会很快解决当前告警,需要结合11中的数据保存时间逐渐均衡数据。 考虑是否需要扩容。 建议当前Kafka磁盘使用率超过80%时,则需要扩容。 是,执行20。
件中设置主机名和IP地址映射。主机名和IP地址请保持一一对应。 已安装客户端时编译并运行程序 进入样例工程本地根目录,在Windows命令提示符窗口中执行下面命令进行打包。 mvn -s "{maven_setting_path}" clean package “{maven_s