检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
清除之前运行生成的目标文件和可执行文件,运行如下命令。 make clean 执行结果如下: [root@10-120-85-2 hdfs-c-example]# make clean rm -f hdfs_test.o rm -f hdfs_test 编译生成新的目标和可执行文件,运行如下命令。
清除之前运行生成的目标文件和可执行文件,运行如下命令。 make clean 执行结果如下: [root@10-120-85-2 hdfs-c-example]# make clean rm -f hdfs_test.o rm -f hdfs_test 编译生成新的目标和可执行文件,运行如下命令。
Manager界面,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“Kafka”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后10分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。 告警清除 此告警修复后,系统会自动清除此告警,无需手工清除。
的时候会自动压缩,压缩后的日志文件名规则为:“<原有日志名>.log.[编号].gz”。默认最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置。 审计日志压缩后的日志文件名规则为:“audit.log.[yyyy-MM-dd].[编号].zip”。该文件永远都不会删除。
r2”的节点为Master2节点。 MRS Manager的主备管理节点默认安装在集群Master节点上。在主备模式下,由于Master1和Master2之间会切换,Master1节点不一定是MRS Manager的主管理节点,需要在Master1节点中执行命令,确认MRS Manager的主管理节点。命令请参考2
避免在跨地域有限带宽场景下因流量独占而影响其他业务的正常使用。 跨域功能使用指导 前提条件: 确保本端和远端集群的数据节点上分别部署至少一个HSFabric实例。 确保本端和远端集群的HSFabric实例所在节点的网络互通。 操作步骤: 开放本域数据源。通过创建Virtual
如果您是首次使用MRS的用户,建议您学习并了解如下信息: 基础知识了解 通过MRS组件介绍和产品功能章节的内容,了解MRS相关的基础知识,包含MRS各组件的基本原理和增强特性介绍,以及MRS服务的特有概念和功能的详细介绍。 入门使用 您可以参考《快速入门》学习并上手使用MRS。《快速入门
t_v2.1_20230322”补丁。 否,检查结束。 使用root用户卸载补丁。 禁止主备倒换。 卸载补丁过程会重启Controller和Tomcat,可能会引起HA主备倒换,安装前需要禁止主备倒换,主备倒换禁止有设置超时时间10分钟,超过该时间后会自动取消禁止主备倒换: su
是,执行完毕。 否,执行5。 查看服务器端保存路径权限是否正常。 选择“系统 > 对接 > 监控数据上传”,查看“FTP用户名”、“保存路径”和“转储模式”配置项。 是FTP模式,执行6。 是SFTP模式,执行7。 以FTP方式登录服务器,在默认目录下查看相对路径“保存路径”是否有“FTP用户名”的读写权限。
是,执行3。 否,执行5。 调整提交到background线程池的任务数(比如,取消一些后台性能低,耗时长的任务)。 “Background线程数”和“Background线程数使用率”是否下降。 是,执行7。 否,执行5。 检查HiveServer background线程池容量。 在FusionInsight
指定clustering的排序方式和排序列: 当前clustering支持linear、z-order、hilbert三种排序方式,可以通过option方式或者set方式来设置。 linear:普通排序,默认排序,适合排序一个字段, 或者多个低级字段。 z-order和hilbert:多维排序,需要指定“hoodie
统用户进行操作,要求该用户对客户端文件存放目录和安装目录具有操作权限,两个目录的权限为“755”。 本章节以使用操作系统用户“user_client”安装客户端进行举例,安装目录为“/opt/hadoopclient”。 使用omm和root以外的用户安装客户端时,若“/var/
在FusionInsight Manager首页,选择“运维 > 日志 > 下载”。 在“服务”中勾选待操作集群的“HDFS”和Manager下的NodeAgent。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后20分钟,单击“下载”。 请联系运维人员,并发送已收集的故障日志信息。
PROPERTIES属性。 PARTITIONED BY能够用于指定分区的列;CLUSTERED BY能够被用于指定分桶的列;SORT BY和SORTED BY能够用于给指定的分桶列进行排序;BUCKETS能够被用于指定分桶数;EXTERNAL可用于指定创建外部表;STORED A
配置参数 说明 示例 server.url Loader服务的浮动IP地址和端口(21351)。 为了兼容性,此处支持配置多个IP地址和端口,并以“,”进行分隔。其中第一个必须是Loader服务的浮动IP地址和端口(21351),其余的可根据业务需求配置。 10.0.0.1:21351
步骤4:创建迁移作业 方案架构 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高您数据迁移和集成的效率。 CDM服务迁移HDFS数据至MRS集群方案如图1所示。 图1 HDFS数据迁移示意
uster/hbase/autocorrupt”和“hdfs://hacluster/hbase/MasterData/autocorrupt”目录,当检测到目录下存在文件时产生该告警。 当“/hbase/autocorrupt”和“/hbase/MasterData/autoc
次event以及本session的开始和结束timestamp。 同时输出本批次被更新状态的session。 数据规划 在kafka中生成模拟数据(需要有Kafka权限用户)。 确保集群安装完成,包括安装HDFS、Yarn、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow
次event以及本session的开始和结束timestamp; 同时输出本批次被更新状态的session。 数据规划 在kafka中生成模拟数据(需要有Kafka权限用户)。 确保集群安装完成,包括安装HDFS、Yarn、Spark2x和Kafka服务。 将Kafka的Broker配置参数“allow
X,请执行搬迁前务必确认是否支持搬迁。 方案架构 CDM围绕大数据迁移上云和智能数据湖解决方案,提供了简单易用的迁移能力和多种数据源到数据湖的集成能力,降低了客户数据源迁移和集成的复杂性,有效的提高您数据迁移和集成的效率。 CDM服务迁移Hadoop数据至MRS集群方案如图1所示。 图1 Hadoop数据迁移示意