检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
<planfile> 此命令中的planfile指第二条命令中生成的Json文件,请使用绝对路径。 hdfs diskbalancer -cancel <planfile> 取消正在运行的planfile,同样需要使用绝对路径。 在客户端执行此命令时,用户需要具备supergroup权限。可
X,请执行搬迁前务必确认是否支持搬迁。 方案架构 HBase会把数据存储在HDFS上,主要包括HFile文件和WAL文件,由配置项“hbase.rootdir”指定在HDFS上的路径,华为云MRS集群的默认存储位置是“/hbase”文件夹下。 HBase自带的一些机制和工具命令也可以实现数据搬迁,例如通过导出
指定表的存储格式为TEXTFILE. STORED AS TEXTFILE; 扩展应用 创建分区表 一个表可以拥有一个或者多个分区,每个分区以文件夹的形式单独存在表文件夹的目录下。对分区内数据进行查询,可缩小查询范围,加快数据的检索速度和可对数据按照一定的条件进行管理。 分区是在创建表的时候用PARTITIONED
下载认证凭据”下载认证凭据文件,保存后解压得到用户的“user.keytab”文件与“krb5.conf”文件。Keytab文件用于在样例工程中进行安全认证,具体使用请参考各服务的开发指南指导。 如果用户类型是人机,需要先修改初始密码后再下载认证凭据文件,否则在使用时会提示“Password
} } [1]userdir获取的是编译后资源目录的路径。将初始化需要的配置文件“core-site.xml”、“hdfs-site.xml”、“hbase-site.xml”和用于安全认证的用户凭证文件放置到“src/main/resources”的目录下。 “login”方法中的参数“java
动释放“/system/balancer.id”文件,可再次正常执行Balance。 但在上述场景中,由于第一次的Balance操作是被异常停止的,所以第二次进行Balance操作时,“/system/balancer.id”文件仍然存在,则会触发append /system/balancer
为什么在往HDFS写数据时报“java.net.SocketException: No buffer space available”异常? 这个问题发生在往HDFS写文件时。查看客户端和DataNode的错误日志。 客户端日志如下: 图1 客户端日志 DataNode日志如下: 2017-07-24 20:43:39
1及之后版本。 开启Succinct Trie后,HFile文件将不兼容开源版本,如果使用HFile进行数据迁移,且需要迁移到MRS 3.2.0及之前版本时,需要先关闭此特性,再对数据表执行major compaction生成新的HFile文件。 操作步骤 登录集群的FusionInsight
Web UI没有显示损坏数据的信息。 当此错误被修复后,HDFS Web UI没有及时移除损坏数据的相关信息。 回答 DataNode只有在执行文件操作发生错误时,才会去检查磁盘是否正常,若发现数据损坏,则将此错误上报至NameNode,此时NameNode才会在HDFS Web UI显示数据损坏信息。
无法为基于HDFS服务的HBase和MapReduce等上层部件提供服务。用户无法读写文件。 可能原因 ZooKeeper服务异常。 所有NameService服务异常。 业务请求量过大,HDFS健康检查读写文件异常。 HDFS FullGC导致健康检查失败。 处理步骤 检查ZooKeeper服务状态。
get("hostName"); // 修改hosts文件,使用主机名 final String keytab = paraTool.get("keytab"); // user.keytab路径 final String krb5 =
xample.properties路径。右键clickhouse-example.properties文件,单击“Copy Path/Reference > Absolute Path”。 事务样例工程无需执行此步骤。 图2 复制配置文件绝对路径 使用clickhouse-example
initializationmonitor.haltontimeout被启动,默认为false)。 在HMaster主备倒换或启动期间,如果WAL hlog文件存在,它会初始化WAL splitting任务。如果WAL hlog splitting任务完成,它将初始化表region分配任务。 HM
合理使用数据表的分区字段和索引字段。 MergeTree引擎,数据是以分区目录的形式进行组织存储的,在进行的数据查询时,使用分区可以有效跳过无用的数据文件,减少数据的读取。 MergeTree引擎会根据索引字段进行数据排序,并且根据index_granularity的配置生成稀疏索引。根据索
普通模式下配置为“HTTP_ONLY”。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,进入客户端安装路径。 cd /opt/client 执行以下命令编辑“yarn-site.xml”文件。 vi Yarn/config/yarn-site.xml 修改“yarn.http.policy”的参数值。
普通模式下配置为“HTTP_ONLY”。 以客户端安装用户,登录安装客户端的节点。 执行以下命令,进入客户端安装路径。 cd /opt/client 执行以下命令编辑“yarn-site.xml”文件。 vi Yarn/config/yarn-site.xml 修改“yarn.http.policy”的参数值。
将运行程序的依赖Jar包上传至需要运行此应用的节点中,例如“$SPARK_HOME/jars”路径。 用户需要将SparkLauncher类的运行依赖包和应用程序运行依赖包上传至客户端的jars路径。文档中提供的示例代码,其运行依赖包在客户端jars中已存在。 Spark Launch
conf”配置文件 表1 参数说明(1) 参数 描述 默认值 spark.sql.authorization.enabled 是否开启datasource语句的权限认证功能。建议将此参数修改为true,开启权限认证功能。 true “hive-site.xml”配置文件 表2 参数说明(2)
用户user需要使用bulkload功能还需要额外权限。 以下以用户user为例: 参见“批量导入数据”章节举例,以下是一些差异点。 将数据文件目录建在“/tmp”目录下,执行以下命令: hdfs dfs -mkdir /tmp/datadirImport hdfs dfs -put
的Kerberos用户,认证后执行分析任务示例在“hive-examples/python3-examples/pyCLI_sec.py”文件中。 导入hive类 from pyhive import hive 创建JDBC连接。 connection = hive.Connec