检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
/opt/client/HDFS/hadoop/bin ./hdfs dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro
version/hadoop (GET) 描述 获取服务器Hadoop的版本 URL http://www.myserver.com/templeton/v1/version/hadoop 参数 无 返回结果 参数 描述 module hadoop version Hadoop的版本 例子
/opt/client/HDFS/hadoop/bin ./hdfs dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro
普通模式下,用户不需要登录即可连接RestServer服务。所以请将“hbase-rest-example\src\main\java\com\huawei\hadoop\hbase\examples”包的“HBaseRestTest”类的main方法中与登录相关代码语句如下所示进行注释:
/opt/client/HDFS/hadoop/bin ./hdfs dfs -mkdir /tmp/input 执行如下命令查询HDFS命令的帮助。 ./hdfs --help HDFS命令行参考请参见官网: http://hadoop.apache.org/docs/r3.1.1/hadoop-pro
查询HBase全局二级索引信息 功能简介 通过调用“org.apache.hadoop.hbase.hindex.global.GlobalIndexAdmin”中的方法进行HBase全局二级索引的管理,该类中listIndices用于查询索引信息,可以获取当前用户表所有相关索引的定义及索引状态。
代码样例 获取集群版本信息 以下代码片段在“hbase-rest-example\src\main\java\com\huawei\hadoop\hbase\examples”包的“HBaseRestTest”类的getClusterVersion方法中。 private void
常启动。如,当修改MetaStore/HiveServer GC参数时,可通过查看对应进程的启动日志,如hiveserver.out(hadoop-omm-jar-192-168-1-18.out)文件排查。 如下异常: Error: Could not find or load
以root用户登录集群任一Master节点。 执行如下命令编辑HDFS用到的“hdfs-site.xml”文件。 vim 客户单安装目录/HDFS/hadoop/etc/hadoop/hdfs-site.xml 在hdfs-site.xml文件中增加如下内容。 <property> <name>dfs.client
在使用Hue WebUI访问HDFS文件时,报如下图所示无法访问的错误提示,该如何处理? 回答 查看登录Hue WebUI的用户是否具有“hadoop”用户组权限。 查看HDFS服务是否安装了HttpFS实例且运行正常。如果未安装HttpFS实例,需手动安装并重启Hue服务。 父主题:
Flink日志介绍 日志描述 日志存储路径: Flink作业运行日志:“${BIGDATA_DATA_HOME}/hadoop/data${i}/nm/containerlogs/application_${appid}/container_{$contid}”。 运行中的任务日
Manager服务暂时不可用。如果集群之前安装了1.9.2.3补丁,安装完MRS 1.9.2.5补丁后不需要重启服务,否则安装MRS 1.9.2.5补丁需要滚动重启Hadoop、Hive、Spark、Kafka、Ranger、Presto以及相关依赖服务。 安装MRS 1.9.2.3补丁期间会重启MRS Manager,重启期间会引起MRS
Spark Job对应的运行日志保存在哪里? 答: Spark Job没有完成的任务日志保存在Core节点的“/srv/BigData/hadoop/data1/nm/containerlogs/”目录内。 Spark Job完成的任务日志保存在HDFS的“/tmp/logs/用户名/logs”目录内。
bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建Hive表的权限,具体请参见创建角色配置拥有对应权限的角色,参考创建用户为用户绑定对应角色。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit MRS集群用户 例如,kinit
chema" 开启Kerberos认证的安全集群 在安全集群中执行curl命令时,请遵循以下步骤: 进行kerberos认证。例如, 人机用户:kinit MRS集群用户 例如:kinit hbaseuser 机机用户:kinit -kt 认证凭据路径 MRS集群用户 例如:kinit
py”中,修改“hadoop.hadoop.com”为“hadoop.实际域名”。实际域名可登录FusionInsight Manager,选择“系统 > 权限 > 域和互信 > 本端域” 查看。 先使用kinit命令获取kerberos认证的缓存。 使用准备集群认证用户信息中创建的开发用户执行以下命令运行客户端程序:
Hive列加密机制目前支持的加密算法有两种,在建表时指定: AES:对应加密类名称为“org.apache.hadoop.hive.serde2.AESRewriter”。 SMS4:对应加密类名称为“org.apache.hadoop.hive.serde2.SMS4Rewriter”。 将原始数据从普通Hi
通过HSFabric的KeyTab认证实现查询HetuEngine SQL任务 功能简介 通过KeyTab文件认证方式连接到HetuEngine,组装对应的SQL发送到HetuEngine执行,完成对Hive数据源的增删改查操作。 public class JDBCExampleZk
创建MRS集群后,您可以使用不同组件提交作业,开启您的MRS服务使用之旅。 新手学堂 快速使用MRS 创建容器应用基本流程 快速使用MRS 快速创建Hadoop离线集群 快速创建Kerberos认证集群 安装并使用集群客户端 配置MRS集群弹性伸缩 如果title超长,将自动截断(文字超长时,列表项样式改为:listitem_qFLwPs2_100)
创建HBase表Region 功能简介 一般通过org.apache.hadoop.hbase.client.HBaseAdmin进行多点分割。注意:分割操作只对空Region起作用。 本例使用multiSplit进行多点分割将HBase表按照“-∞~A”“A~D”、“D~F”、