检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
调整“-XX:NewSize”大小的时候,建议把其设置为“-Xmx”大小的1/8。 RegionServer需要的内存一般比HMaster要大。在内存充足的情况下,堆内存可以相对设置大一些。 根据机器的内存大小设置“-Xmx”大小:机器内存>200G,“-Xmx”设置为32G;128G<机器内存<20
显示HiveServer实例列表。 单击“HiveServer”行的“主机名”。 弹出HiveServer主机状态页面。 记录“概要信息”下的IP地址。 通过6.e获取的IP地址登录HiveServer所在的主机。 执行ping命令,查看HiveServer所在主机与ZooKee
的配置是否汇聚到HDFS目录中,详情请参见Yarn常用配置参数。 日志归档规则: MapReduce的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过50MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
如果使用其他集群用户访问Manager,第一次访问时需要修改密码。新密码需要满足集群当前的用户密码复杂度策略。请咨询管理员。 默认情况下,在登录时输入5次错误密码将锁定用户,需等待5分钟自动解锁。 注销用户退出Manager时移动鼠标到右上角 ,然后单击“注销”。 父主题: 附录
的配置是否汇聚到HDFS目录中,详情请参见Yarn常用配置参数。 日志归档规则: MapReduce的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过50MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
“/var/log/Bigdata/audit/yarn/nm”(审计日志) 日志归档规则:Yarn的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过50MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
/src/main/resources/conf”目录下。 hbase-examples/hbase-example(多集群互信场景) 将互信场景下的同名用户其中一个集群的配置文件放入“../src/main/resources/hadoopDomain”目录下,将另一集群的配置文件放入“
要在beeline中显示如此数量级的数据。 如数量在一定范围内需要显示,请调整hive客户端的jvm参数, 在hive客户端目录/Hive下的component_env中添加export HIVE_OPTS=-Xmx1024M(具体数值请根据业务调整),并重新执行source 客
件夹可通过“目录过滤器”和“文件过滤器”参数设置符合规则的目录和文件进行迁移。 例如迁移匹配“/user/test*”文件夹下文件,该场景下“文件格式”固定为“二进制格式”。 图3 配置作业参数 请参见配置HDFS目的端参数配置目的端连接的作业参数。 单击“下一步”进入任务配置页面。
Map任务所产生的输出可以在写入磁盘之前被压缩,这样可以节约磁盘空间并得到更快的写盘速度,同时可以减少至Reducer的数据传输量。需要在客户端进行配置。 在这种情况下,磁盘的IO是主要瓶颈。所以可以选择一种压缩率非常高的压缩算法。 编解码器可配置为Snappy,Benchmark测试结果显示Snappy是非常平衡以及高效的编码器。
x版本,下载“hadoop-x.x.x.tar.gz”,解压后在“hadoop-x.x.x\share\hadoop\mapreduce”路径下获取“hadoop-mapreduce-examples-x.x.x.jar”,即为Hadoop的样例程序。“hadoop-mapreduce-examples-x
命令回显结果基于线程数排序,分析线程数最大的top5线程,结合业务分析是否异常使用。(其中“PID”列为对应进程ID) 是,在不影响业务的情况下,参考以下操作终止top5中异常使用进程的父进程。执行11。 执行以下命令查询对应进程的父进程。 ps -ef | grep "进程ID" 查询出的第三列即为父进程ID。
备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。 在“恢复对象”选择待操作的集群。 在“恢复配置”,勾选“业务数据”下的“IoTDB > IoTDB”。 在“IoTDB”的“路径类型”,选择一个备份目录的类型。 备份目录支持以下类型: “RemoteHDFS
er/policysync”(运行日志,MRS 3.3.0及之后版本)。 日志归档规则:Ranger的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过20MB的时,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log
在HDFS上建立一个文件夹“/tmp/input”,并上传input_data1.txt、input_data2.txt到此目录。 将生成的jar包上传至Spark2x运行环境下(Spark2x客户端),如“/opt/female”。 进入客户端目录,执行以下命令加载环境变量并登录。如果安装了Spark2x多实例或者
需要在客户端进行配置,配置文件路径:客户端安装目录/HDFS/hadoop/etc/hadoop/mapred-site.xml。 true Client 在这种情况下,磁盘的IO是主要瓶颈。所以可以选择一种压缩率非常高的压缩算法。 编解码器可配置为Snappy,Benchmark测试结果显示Snappy是非常平衡以及高效的编码器。
Archives归档任务实际上是执行一个MR应用程序,所以在每次执行日志归档任务后,会新增一条MR执行记录。 本功能归档的日志来源于日志收集功能,因此只有在日志收集功能开启状态下本功能才会生效。 父主题: MapReduce
在Map阶段,有一个可选过程,将同一个key值的中间结果合并,叫做Combiner。一般将reduce类设置为Combiner即可。通过Combiner,一般情况下可以显著减少Map输出的中间结果,从而减少shuffle过程的网络带宽占用。可通过如下接口为一个任务设置Combiner类。 表2 Combiner设置接口
KafkaUI:“/var/log/Bigdata/kafka/ui”(运行日志) 日志归档规则:Kafka的日志启动了自动压缩归档功能,默认情况下,当日志大小超过30MB的时候,会自动压缩,压缩后的日志文件名规则为:“<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号]
在HDFS上建立一个文件夹“/tmp/input”,并上传input_data1.txt、input_data2.txt到此目录。 将生成的jar包上传至Spark2x运行环境下(Spark2x客户端),如“/opt/female”。 进入客户端目录,执行以下命令加载环境变量并登录。若安装了Spark2x多实例或者同