检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
apache.spark.examples.streaming.KafkaWordCount)任务时,日志中报Kafka相关的类不存在的错误。KafkaWordCount样例为Spark开源社区提供的。 回答 Spark部署时,如下jar包存放在客户端的“${SPARK_HOM
offsets” 问题背景与现象 使用SparkStreaming来消费Kafka中指定Topic的消息时,发现无法从Kafka中获取到数据。 提示如下错误: Couldn't find leader offsets。 可能原因 Kafka服务异常。 网络异常。 Kafka Topic异常。 原因分析
FusionInsight版本中,在客户端采用yarn-client模式运行Spark应用,然后从Yarn的页面打开该应用的Web UI界面,出现下面的错误: 从YARN ResourceManager的日志看到: 2016-07-21 16:35:27,099 | INFO | Socket
lib目录但没有生效 问题 在HDFS的“/user/oozie/share/lib”目录上传了新的jar包,但执行任务时仍然报找不到类的错误。 回答 在客户端执行如下命令刷新目录: oozie admin -oozie https://xxx.xxx.xxx.xxx:21003/oozie
Flink任务开发规则 对有更新操作的数据流进行聚合计算时要注意数据准确性问题 在针对更新数据进行聚合需要选择合适的解决方案,否则聚合结果会是错误的。 例如: Create table t1( id int, partid int, value int );
234.231:2181/kafka --replication-factor 1 --partitions 2 --topic test 提示错误NoAuthException,KeeperErrorCode = NoAuth for /config/topics。 具体如下: Error
FusionInsight版本中,在客户端采用yarn-client模式运行Spark应用,然后从Yarn的页面打开该应用的Web UI界面,出现下面的错误: 从YARN ResourceManager的日志看到: 2016-07-21 16:35:27,099 | INFO | Socket
apache.spark.examples.streaming.KafkaWordCount)任务时,日志中报Kafka相关的类不存在的错误。KafkaWordCount样例为Spark开源社区提供的。 回答 Spark部署时,如下jar包存放在客户端的“${SPARK_HOM
apache.spark.examples.streaming.KafkaWordCount)任务时,日志中报Kafka相关的类不存在的错误。KafkaWordCount样例为Spark开源社区提供的。 回答 Spark部署时,如下jar包存放在客户端的“${SPARK_HOM
禁止通过Alter命令修改表关键属性信息:type/primaryKey/preCombineField/hoodie.index.type 错误示例,执行如下语句修改表关键属性: alter table dsrTable set tblproperties('type'='xx');
可以查看列的详细信息。 在SparkSql语句编辑区输入查询语句。 单击后的三角并选择“解释”,编辑器将分析输入的查询语句是否有语法错误以及执行计划,如果存在语法错误则显示“Error while compiling statement”。 单击开始执行SparkSql语句。 图2 执行语句
Shuffle会出现“java.lang.OutofMemoryError: Direct buffer Memory”的异常,该异常说明内存不足。错误日志如下: 2016-12-06 02:01:00,768 | WARN | shuffle-server-38 | Exception
WebUI界面 用户问题 在客户端采用yarn-client模式运行Spark应用,然后从Yarn的页面打开该应用的Web UI界面,出现下面的错误: 从Yarn ResourceManager的日志看到: 2021-07-21 16:35:27,099 | INFO | Socket
Loader作业导入大量数据至HDFS时报错 问题 大量数据写入HDFS时偶现“NotReplicatedYet Exception: Not replicated yet”错误。 图1 报错信息 回答 以下原因可能造成该报错: HDFS客户端向NameNode发送新Block申请,由于NameNode来不及处理导致超时。
apache.spark.examples.streaming.KafkaWordCount)任务时,日志中报Kafka相关的类不存在的错误。KafkaWordCount样例为Spark开源社区提供的。 回答 Spark部署时,如下jar包存放在客户端的“$SPARK_HOME
apache.spark.examples.streaming.KafkaWordCount)任务时,日志中报Kafka相关的类不存在的错误。KafkaWordCount样例为Spark开源社区提供的。 回答 Spark部署时,如下jar包存放在客户端的“${SPARK_HOM
执行SQL提交任务到指定队列时报错 问题现象 执行SQL提交任务到Yarn报如下错误: Failed to submit application_1475400939788_0033 to YARN : org.apache.hadoop.security.AccessControlException:
执行以下命令配置环境变量。 source bigdata_env 首次登录IoTDB客户端前需执行以下步骤生成SSL客户端证书: 执行以下命令生成客户端SSL证书: keytool -noprompt -import -alias myservercert -file ca.crt -keystore
delegation.token.renew-interval”小于60秒,提交Spark Streaming应用,超过token有效期,提示以下错误,应用失败。 token (HDFS_DELEGATION_TOKEN token 17410 for spark2x) is expired
metadata” 问题现象 使用SparkStreaming来消费Kafka中指定Topic的消息时,发现无法从Kafka中获取到数据。提示如下错误: Error getting partition metadata。 Exception in thread "main" org.apache