检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如果需要对某个Topic单独配置的话,可以使用Kafka客户端命令行,来单独配置该Topic。
进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source bigdata_env kinit 组件业务用户 kinit一次票据时效24小时。24小时后再次运行样例,需要重新kinit。
图1 创建Hive SQL防御规则 登录安装有Hive客户端的节点,执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令,配置环境变量。
以omm用户登录IP1节点。 执行以下命令,观察查询出来的内容是否提示有error错误信息。
查看作业状态 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 单击“作业管理”,即可查看当前MRS集群已创建的作业列表及状态。
登录FusionInsight Manager,选择“运维 > 告警 > 告警”,在当前告警详情查看“定位信息”中产生该告警的服务实例和主机。
图1 Datanode Information 以root用户登录集客户端所在节点的主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行命令cd /opt/client进入客户端安装目录,然后执行source bigdata_env。如果集群采用安全版本,要进行安全认证。
从AppMaster日志中可以看出,无法连接至Driver,所以任务失败。 解决办法 请检查Driver进程所在的IP是否可以ping通。 启动一个Spark PI任务,会有类似如下打印信息。
框架会对map的输出先进行排序,然后把结果输入给reduce任务,最后返回给客户端。通常作业的输入和输出都会被存储在文件系统中。整个框架负责任务的调度和监控,以及重新执行已经失败的任务。
框架会对map的输出先进行排序,然后把结果输入给reduce任务,最后返回给客户端。通常作业的输入和输出都会被存储在文件系统中。整个框架负责任务的调度和监控,以及重新执行已经失败的任务。
“端口号”:填写SFTP协议连接备份服务器使用的端口号,默认值为“22”。 “用户名”:填写使用SFTP协议连接服务器时的用户名。 “密码”:填写使用SFTP协议连接服务器时的密码。 “源端路径”:填写备份文件在备份服务器中保存的完整路径。
后台登录HDFS的实例节点,在crontab -e中添加每天0点清理.out日志的定时任务。
操作步骤 登录FusionInsight Manager页面,选择“集群 > 服务 > Hive > 配置 > 全部配置”。
框架会对map的输出先进行排序,然后把结果输入给reduce任务,最后返回给客户端。通常作业的输入和输出都会被存储在文件系统中。整个框架负责任务的调度和监控,以及重新执行已经失败的任务。
使用客户端验证,通过hbase shell进入hbase命令行后,执行list验证需要运行多久。 开启HDFS的debug日志,然后查看下层目录很多的路径(hadoop fs -ls /XXX/XXX),验证需要运行多久。
处理步骤 以root用户登录安装了Spark2x/Spark客户端的节点。 执行以下命令编辑文件。
表1 HBase适配HDFS多路读相关参数 参数名称 参数描述 默认值 取值范围 dfs.client.hedged.read.threshold.millis HDFS客户端决定是否启动多路读取之前等待第一个数据块的第一个字节的时间,单位:毫秒。
操作步骤 登录FusionInsight Manager。 选择“系统 > 权限 > 用户 > 添加用户”。 填写“用户名”,例如“cdl_admin”。 设置“用户类型”,选择“人机”。 填写“密码”和“确认密码”。 设置“用户组”和“主组”。
操作步骤 使用MRS集群管理员用户(例如admin)登录Manager页面。 选择“集群 > 服务 > HDFS > 配置 > 全部配置”进入HDFS全部配置页面。 搜索并修改“dfs.namenode.fgl.enable”参数,配置项详细说明如下表。
以omm用户登录主管理节点。 执行以下命令,切换到目录: cd ${BIGDATA_HOME}/om-server/om/ldapserver/ldapserver/local/script 执行以下命令,解锁LDAP用户或管理账户: .