检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
CarbonData数据加载时,默认的组名为“ficommon”。可以根据需要修改默认的组名。 编辑“carbon.properties”文件。 根据需要修改关键字“carbon.dataload.group.name”的值。其默认值为“ficommon”。 父主题: CarbonData常见问题
Permission denied”异常? 回答 在执行HBase shell期间,JRuby会在“java.io.tmpdir”路径下创建一个临时文件,该路径的默认值为“/tmp”。如果为“/tmp”目录设置NOEXEC权限,然后HBase shell会启动失败并发生“java.lang
ImportTsv工具在“客户端安装路径/HBase/hbase/conf/hbase-site.xml”文件中“hbase.fs.tmp.dir”参数所配置的HBase临时目录中创建partition文件。因此客户端(kerberos用户)应该在指定的临时目录上具有rwx的权限来执行ImportTsv操作。“hbase
回答 修改sqoop源码SqoopHCatUtilities中的代码,将限制代码去掉。 修改hive客户端中的hive-site.xml文件,修改hive.metastore.integral.jdo.pushdown参数为true。 父主题: Sqoop常见问题
CarbonData数据加载时,默认的组名为“ficommon”。可以根据需要修改默认的组名。 编辑“carbon.properties”文件。 根据需要修改关键字“carbon.dataload.group.name”的值。其默认值为“ficommon”。 父主题: CarbonData常见问题
Kudu应用开发简介 Kudu简介 Kudu是专为Apache Hadoop平台开发的列式存储管理器,具有Hadoop生态系统应用程序的共同技术特性:在通用的商用硬件上运行,可水平扩展,提供高可用性。 Kudu的设计具有以下优点: 能够快速处理OLAP工作负载。 支持与MapRe
执行5。 查看删除存储组任务运行是否失败。 “Porcedure信息”的值是否以“DeleteStorageGroupProcedure”开头。 是,表示删除存储组失败,执行6。 否,执行7。 重新尝试在IoTDB客户端删除“Porcedure信息”中显示的存储组,删除成功该告警将自动清除,否则执行7。
Hue常见问题 使用Hive输入use database语句失效 使用Hue WebUI访问HDFS文件失败 在Hue页面上传大文件失败 Hue WebUI中Oozie编辑器的时区设置问题 访问Hue原生页面时间长,文件浏览器报错Read timed out 父主题: 使用Hue(MRS
-list-corruptfileblocks,检查返回结果。 如果结果为“...has 0 CORRUPT files”表示健康检查成功。 如果结果不是“...has 0 CORRUPT files”,并返回损坏的文件名称,请执行以下操作删除损坏的文件。 hdfs dfs -rm 损坏的文件名称
Create Group has finished. Put file is running... Put file has finished. Delete file is running... Delete file has finished. Delete Group is running
led to APPEND_FILE /system/balancer.id”,则需要执行如下命令强行删除“/system/balancer.id”,再次执行start-balancer.sh脚本即可。 hdfs dfs -rm -f /system/balancer.id 用户
HDFS相关样例工程 样例工程位置 描述 hdfs-example-security HDFS文件操作的Java示例程序。 本工程主要给出了创建HDFS文件夹、写文件、追加文件内容、读文件和删除文件/文件夹等相关接口操作示例。相关业务场景介绍请参见开发HDFS应用。 hdfs-c-example
查看HiveServer日志“/var/log/Bigdata/hive/hiveserver/hive.log”,发现目录名不符合分区格式。 处理步骤 方法一:删除错误的文件或目录。 方法二:执行set hive.msck.path.validation=skip;,跳过无效的目录。 父主题: 使用Hive
以root用户登录集群任一Master节点。 执行如下命令编辑HDFS用到的“hdfs-site.xml”文件。 vim 客户单安装目录/HDFS/hadoop/etc/hadoop/hdfs-site.xml 在hdfs-site.xml文件中增加如下内容。 <property> <name>dfs.client
MRS是否支持同时运行多个Flume任务? Flume客户端可以包含多个独立的数据流,即在一个配置文件properties.properties中配置多个Source、Channel、Sink。 这些组件可以链接以形成多个数据流。 例如在一个配置中配置两个数据流,示例如下: server
在Manager系统中,选择“集群 > 待操作集群的名称 > 服务 > Yarn > 配置”,选择“全部配置”,在NodeManager的配置文件“yarn-site.xml”中配置下面的参数来更改日志级别。 表1 参数描述 参数 描述 默认值 yarn.nodemanager.container-localizer
页面,因此需要控制页面显示的Lost Executor个数。 配置描述 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数说明 参数 说明 默认值 spark.ui.retainedDeadExecutors Spark UI页面显示的Lost
页面,因此需要控制页面显示的Lost Executor个数。 配置描述 在Spark客户端的“spark-defaults.conf”配置文件中进行设置。 表1 参数说明 参数 说明 默认值 spark.ui.retainedDeadExecutors Spark UI页面显示的Lost
否则会导致IoTDB启动失败。 查询场景调优举例:如果查询的范围比较大,单个序列10000个点以上,JVM分配内存的20% / 序列数 > 160K,即为默认配置下存储引擎对查询最友好的状态。 序列和内存大小举例:500万序列,对应内存配置为:-Xms128G -Xmx128G write_read_sc
000001 : |- PID PPID PGRPID SESSID CMD_NAME USER_MODE_TIME(MILLIS) SYSTEM_TIME(MILLIS) VMEM_USAGE(BYTES) RSSMEM_USAGE(PAGES) FULL_CMD_LINE |-