检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
任务结束。 更改NodeManager单个实例的存储目录。 选择“集群 > 待操作集群的名称 > 服务 > Yarn > 实例”,勾选需要修改存储目录的NodeManager单个实例,选择“更多 > 停止实例”。 以root用户登录到这个NodeManager节点,执行如下操作。
90703/1/.*log.* 重启Flume实例进程。 登录FusionInsight Manager。 选择“集群 > 服务 > Flume > 实例”,勾选Flume实例,选择“更多 > 重启实例”输入密码,单击“确定”等待实例重启成功。 服务端flume-env.sh生效
进入Yarn服务实例页面: MRS 3.x之前版本,单击集群名称,登录集群详情页面,选择“组件管理 > Yarn > 实例”。 如果集群详情页面没有“组件管理”页签,请先完成IAM用户同步(在集群详情页的“概览”页签,单击“IAM用户同步”右侧的“同步”进行IAM用户同步)。 MRS
Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19014”的告警,查看“附加信息”中的阈值。 以root用户登录HBase客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行以下命令进入客户端安装目录: cd 客户端安装目录 然后执行以下命令设置环境变量: source
Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19016”的告警,查看“附加信息”中的阈值。 以root用户登录HBase客户端,用户密码为安装前用户自定义,请咨询系统管理员。执行以下命令进入客户端安装目录: cd 客户端安装目录 然后执行以下命令设置环境变量: source
告警 > 告警”,单击此告警所在行的,获取该告警的备Manager(即Peer Manager)IP地址。 以root用户登录主Manager服务器,用户密码为安装前用户自定义,请咨询系统管理员。 执行ping 备Manager IP地址命令检查备Manager服务器是否可达。 是,执行6。
集群中所有DataNode角色实例保存的Block总数为:HDFS Block * 3。集群中每个DataNode实例平均保存的Blocks= HDFS Block * 3/DataNode节点数。 表2 DataNode支持规格 项目 规格 单个DataNode实例支持最大Block数 5
MRS与外部数据源交换数据和文件时需要连接数据源。系统提供以下连接器,用于配置不同类型数据源的连接参数: generic-jdbc-connector:关系型数据库连接器。 ftp-connector:FTP数据源连接器。 hdfs-connector:HDFS数据源连接器。 oracle-co
Topic输入的字节流量”,统计出“Topic输入的字节流量”值最大的Topic。查看该Topic有哪些Partition以及这些Partition所在的主机信息。 登录到5查询到的主机,执行iostat -d -x命令查看每个磁盘的最后一个指标“%util”: 各个磁盘的“%util”指标都超出阈值(默认
该方案仅适用于MRS 2.x及之前版本集群。 登录MRS Manager页面,选择“服务管理 > Hue > 实例”,查询Hue实例所在的节点的IP。 使用root用户远程连接工具登录Hue实例所在节点的机器,并执行如下命令切换到omm用户。 su - omm 执行如下的命令,切换到如下的目录。
fsck 损坏的文件名称 -delete 更改DataNode单个实例的存储目录 选择“集群 > 服务 > HDFS > 实例”,勾选需要修改存储目录的DataNode单个实例,选择“更多 > 停止实例”。 以root用户登录到这个DataNode节点,执行如下操作。 创建目标目录。
conf”中配置的值。 如果用户需要对HBase进行操作,建议将该用户的句柄数设置为“10000”以上。如果用户需要对HDFS进行操作,建议根据业务量大小设置对应的句柄数,建议不要给太小的值。如果用户需要对HBase和HDFS操作,建议设置较大的值,例如“32768”。 使用如下命令查看某一用户的句柄数限制。
erguser,且该用户属于hadoop和hive用户组,主组为hadoop。 操作步骤 使用root登录客户端安装节点,执行如下命令: cd 客户端安装目录 执行以下命令环境变量并认证用户: source bigdata_env kinit 创建的业务用户(未开启Kerberos认证的用户请跳过该操作)
EXT_PLUGIN=1 mysql -u数据库登录用户 -p数据库登录用户密码 -P数据库连接端口 -hDoris FE实例IP地址 数据库连接端口为Doris FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。
录下。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Click
录下。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Click
http://wiki.apache.org/hadoop/ConnectionRefused 回答 在Spark中有个定期线程,通过连接RM监测AM的状态。由于连接RM超时,就会报上面的错误,且一直重试。RM中对重试次数有限制,默认是30次,每次间隔默认为30秒左右,每次重试时都会报上面
create 创建连接器和作业。 update 更新连接器和作业。 delete 删除连接器和作业。 clone 复制连接器和作业。 start 启动作业。 stop 停止作业。 status 查询作业状态。 命令参考 sqoop2-shell有两种获取登录认证信息的方式,第一
删除表。 开发思路 Doris兼容MySQL协议,使用SQL语言就可以进行常见的操作。 开发流程主要分为以下几部分: 建立连接:建立和Doris服务实例的连接。 创建库:创建Doris数据库。 创建表:创建Doris数据库下的表。 插入数据:插入数据到Doris表中。 查询数据:查询Doris表数据。
删除表。 开发思路 Doris兼容MySQL协议,使用SQL语言就可以进行常见的操作。 开发流程主要分为以下几部分: 建立连接:建立和Doris服务实例的连接。 创建库:创建Doris数据库。 创建表:创建Doris数据库下的表。 插入数据:插入数据到Doris表中。 查询数据:查询Doris表数据。