-
往HDFS写数据时报错“java.net.SocketException: No buffer space available” - MapReduce服务 MRS
SocketException: No buffer space available” 问题 为什么在往HDFS写数据时报"java.net.SocketException: No buffer space available"异常? 这个问题发生在往HDFS写文件时。查看客户端和DataNode的错误日志。
-
IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long - MapReduce服务 MRS
IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long 问题 IntelliJ IDEA中远程提交拓扑,执行Main方法时IntelliJ IDEA报如下错 : Command line is too long. Shorten
-
IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long - MapReduce服务 MRS
IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long 问题 IntelliJ IDEA中远程提交拓扑,执行Main方法时IntelliJ IDEA报如下错 : Command line is too long. Shorten
-
为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误 - MapReduce服务 MRS
为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误 问题 为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误? Beeline日志如下所示:
-
为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误 - MapReduce服务 MRS
为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误 问题 为什么spark-beeline运行失败报“Failed to create ThriftService instance”的错误? Beeline日志如下所示:
-
向动态分区表中插入数据时,在重试的task中出现"Failed to CREATE - MapReduce服务 MRS
向动态分区表中插入数据时,在重试的task中出现"Failed to CREATE_FILE"异常 问题 向动态分区表中插入数据时,shuffle过程中大面积shuffle文件损坏(磁盘掉线、节点故障等)后,为什么会在重试的task中出现"Failed to CREATE_FILE"异常?
-
向动态分区表中插入数据时,在重试的task中出现"Failed to CREATE - MapReduce服务 MRS
向动态分区表中插入数据时,在重试的task中出现"Failed to CREATE_FILE"异常 问题 向动态分区表中插入数据时,shuffle过程中大面积shuffle文件损坏(磁盘掉线、节点故障等)后,为什么会在重试的task中出现"Failed to CREATE_FILE"异常?
-
执行Kakfa Topic创建操作时发现无法创建提示“replication factor larger than available brokers” - MapReduce服务 MRS
factor larger than available brokers。 具体如下: Error while executing topic command : replication factor: 2 larger than available brokers: 0 [2017-09-17
-
运行样例时提示Topic鉴权失败“TOPIC - MapReduce服务 MRS
运行样例时提示Topic鉴权失败“TOPIC_AUTHORIZATION_FAILED” 问题现象 运行样例时提示Topic鉴权失败“example-metric1=TOPIC_AUTHORIZATION_FAILED”。 解决步骤 向管理员申请该Topic的访问权限。 如果拥有权限
-
MapReduce日志介绍 - MapReduce服务 MRS
apreduce/jobhistory”(审计日志) Container:“/srv/BigData/hadoop/data1/nm/containerlogs/application_${appid}/container_{$contid}” 运行中的任务日志存储在以上路径中,
-
MapReduce日志介绍 - MapReduce服务 MRS
apreduce/jobhistory”(审计日志) Container:“/srv/BigData/hadoop/data1/nm/containerlogs/application_${appid}/container_{$contid}” 运行中的任务日志存储在以上路径中,
-
在Windows中调测Impala JDBC应用 - MapReduce服务 MRS
在Windows中调测Impala JDBC应用 运行样例。 导入和修改样例后,即可在开发环境中,右击“ExampleMain.java”,选择“ExampleMain.main()”运行对应的应用程序工程。 使用Windows访问MRS集群来操作Impala,有如下两种方式。 方法一:
-
日志聚合下,如何查看Spark已完成应用日志 - MapReduce服务 MRS
日志聚合下,如何查看Spark已完成应用日志 问题 当YARN开启了日志聚合功能时,如何在页面看到聚合后的container日志? 回答 请参考配置WebUI上查看Container日志。 父主题: Spark Core
-
Kafka目前支持的访问协议类型有哪些? - MapReduce服务 MRS
Kafka目前支持的访问协议类型有哪些? 问:Kafka目前支持的访问协议类型有哪些? 答:当前支持4种协议类型的访问:PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL。 父主题: 大数据业务开发
-
日志聚合下,如何查看Spark已完成应用日志 - MapReduce服务 MRS
日志聚合下,如何查看Spark已完成应用日志 问题 当YARN开启了日志聚合功能时,如何在页面看到聚合后的container日志? 回答 请参考配置WebUI上查看Container日志。 父主题: Spark Core
-
Kafka支持的访问协议类型有哪些? - MapReduce服务 MRS
Kafka支持的访问协议类型有哪些? 问: Kafka支持的访问协议类型有哪些? 答: Kafka支持四种协议类型的访问,分别为:PLAINTEXT、SSL、SASL_PLAINTEXT、SASL_SSL。 父主题: 产品咨询类
-
Flink日志介绍 - MapReduce服务 MRS
Flink作业运行日志:“${BIGDATA_DATA_HOME}/hadoop/data${i}/nm/containerlogs/application_${appid}/container_{$contid}”。 运行中的任务日志存储在以上路径中,运行结束后会基于Yarn的配置确定是否汇聚到HDFS目录中。
-
dfs.datanode.data.dir中定义的磁盘数量等于dfs.datanode.failed.volumes.tolerated的值时,DataNode启动失败 - MapReduce服务 MRS
dir中定义的磁盘数量等于dfs.datanode.failed.volumes.tolerated的值时,DataNode启动失败 问题 当“dfs.datanode.data.dir”中定义的磁盘数量等于“dfs.datanode.failed.volumes.tolerated”的值时,DataNode启动失败。
-
dfs.datanode.data.dir中定义的磁盘数量等于dfs.datanode.failed.volumes.tolerated的值时,DataNode启动失败 - MapReduce服务 MRS
dir中定义的磁盘数量等于dfs.datanode.failed.volumes.tolerated的值时,DataNode启动失败 问题 当“dfs.datanode.data.dir”中定义的磁盘数量等于“dfs.datanode.failed.volumes.tolerated”的值时,DataNode启动失败。
-
Flink日志介绍 - MapReduce服务 MRS
Flink作业运行日志:“${BIGDATA_DATA_HOME}/hadoop/data${i}/nm/containerlogs/application_${appid}/container_{$contid}”。 运行中的任务日志存储在以上路径中,运行结束后会基于Yarn的配置确定是否汇聚到HDFS目录中。