检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
提供shell命令完成HDFS文件系统的基本操作。 HTTP REST API 提供除Shell、Java API和C API以外的其他接口,可通过此接口监控HDFS状态等信息。 WEB UI 提供Web可视化组件管理界面。 keytab文件 存放用户信息的密钥文件,应用程序采用此密钥文件在组件中进行API方式认证。
在客户端提交MapReduce任务,在Map/Reduce任务启动时会挂起并监测8000端口,等待远程调试。 在IDE上,选择MapReduce任务的实现类,通过配置远程调试信息,执行Debug。 设置断点,双击蓝框区域设置或取消断点。 配置远程调试信息,“右键->Debug As->Debug Configurations
首先判断条件是否成立。如果成立,更新字段的值;如果不成立,则不更新。 当更新字段为数值类型时,更新值需要为数值。 当更新字段为字符串类型时,更新操作不能为“-”。 样例 通过“CSV文件输入”算子,生成两个字段A和B。 源文件如下: 配置“更新域”算子,当发现值为test时,更新值,在test后面加上good。
dfs://hacluster/hbase/data/default/TestTable”,其中$rootDir是HBase的根目录,该值通过在“hbase-site.xml”中配置hbase.rootdir.perms得到,data目录是HBase的固定目录,$nameSpac
HDFS支持用户进行文件和目录默认权限的修改。HDFS默认用户创建文件和目录的权限的掩码为“022”,如果默认权限满足不了用户的需求,可以通过配置项进行默认权限的修改。 参数入口: 请参考修改集群服务配置参数,进入HDFS的“全部配置”页面,在搜索框中输入参数名称。 表1 参数说明
在客户端提交MapReduce任务,在Map/Reduce任务启动时会挂起并监测8000端口,等待远程调试。 在IDE上,选择MapReduce任务的实现类,通过配置远程调试信息,执行Debug。 设置断点,双击蓝框区域设置或取消断点。 配置远程调试信息,“右键->Debug As->Debug Configurations
在客户端提交MapReduce任务,在Map/Reduce任务启动时会挂起并监测8000端口,等待远程调试。 在IDE上,选择MapReduce任务的实现类,通过配置远程调试信息,执行Debug。 设置断点,双击蓝框区域设置或取消断点。 配置远程调试信息,“右键->Debug As->Debug Configurations
HDFS支持用户进行文件和目录默认权限的修改。HDFS默认用户创建文件和目录的权限的掩码为“022”,如果默认权限满足不了用户的需求,可以通过配置项进行默认权限的修改。 参数入口: 请参考修改集群服务配置参数,进入HDFS的“全部配置”页面,在搜索框中输入参数名称。 表1 参数说明
Manager 解决隔离节点问题 MRS大数据组件 解决Hive加载hook内存泄漏问题 MRS 1.9.3.2 修复问题列表: MRS大数据组件 解决通过sparksql和beeline进行insert overwrite操作时,旧文件无法进行trash问题 MRS 1.9.3.1 修复问题列表:
m-W”。登录Oozie管理页面,查看运行情况。 使用oozieuser用户,登录Oozie WebUI页面:https://oozie角色的ip地址:21003/oozie 。 Oozie的WebUI界面中,可在页面表格根据“job id”查看已提交的工作流信息。 父主题: 使用Oozie客户端提交作业
HBase数据。执行以下语句: create table test_1 (id int, name text, value text); 通过HBase输入步骤,生成三个字段A、B和C。 配置“表输出”算子,将A、B和C输出到test_1表中: 输出结果如下: 父主题: 输出算子
java.io.IOException: Cannot create any NameNode Connectors.. Exiting... 可通过以下方法避免上述问题: 方案1:等待硬租期超过1小时后,原有客户端释放租约,再执行第二次Balance操作。 方案2:执行第二次Balan
ockmgr-开头的本地临时目录,用于存放block data。此两个目录会在Spark应用运行结束时自动删除。 此两个目录的存放路径优先通过SPARK_LOCAL_DIRS环境变量指定,若不存在该环境变量,则设置为spark.local.dir的值,若此配置还不存在,则使用java
sh操作,将数据写入HDFS。 解决方法: 由于HBase连接机制,如果想减小HBase端口占用,则需控制StoreFile数量,具体可以通过触发HBase的compaction动作完成,即触发HBase文件合并,方法如下: 方法1:使用HBase shell客户端,在客户端手动执行major_compact操作。
从Hive中导出数据到关系数据库 从同一集群内HBase导出数据到HDFS/OBS Loader作业流程 用户通过Loader界面进行数据导入导出作业,操作流程如图1所示。 图1 导入流程示意 用户也可以通过shell脚本来更新与运行Loader作业,该方式需要对已安装的Loader客户端进行配置。
28443 |grep LISTEN查询tomcat的进程号。 执行kill -9 {pid},其中{pid}为上一步中查询到的进程号。 等待进程自动重启,可以执行netstat -anp |grep 28443 |grep LISTEN查看进程是否启动,如果可以查到结果说明进程启动成功。
处理Zookeeper异常 登录FusionInsight Manager,选择“运维 > 告警 > 告警”,进入ZooKeeper服务概览页面,查看ZooKeeper服务是否故障。 是,执行2。 否,执行4。 根据ZooKeeper出现的相关报错信息和告警信息,参考对应的ZooKeep
secure=true 在样例工程对应的“*.java”文件下单击右键,在弹出菜单单击“Run '*.main()' ”,等待运行成功(默认样例为查询Hive表)。 JDBCExampleZk样例程序运行结果如下所示: ... principal is hivetest@HADOOP.COM
jdbc.SimpleJDBCTopology jdbc-test 结果查看 当拓扑提交完成后,可以去数据库中查看对应表中是否有数据插入,具体过程如下: 执行SQL语句select * from goal; 查询“goal”表中的数据,如果goal表中有数据添加,则表明整个拓扑运行成功。
m-W”。登录Oozie管理页面,查看运行情况。 使用oozieuser用户,登录Oozie WebUI页面:https://oozie角色的ip地址:21003/oozie 。 Oozie的WebUI界面中,可在页面表格根据“job id”查看已提交的工作流信息。 父主题: 使用Oozie客户端提交作业