检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”。 搜索并查看“dfs.storage.policy.enabled”的参数值是否为“true”,如果不是,修改为“true”,并单击“保存”,重启HDFS。 查看代码。 如下是代码片段,详细代码请参考com.huawei.bigdata
可能原因 Kafka服务异常。 网络异常。 Kafka Topic异常。 原因分析 查看Kafka服务状态: MRS Manager界面操作:登录MRS Manager,依次选择“服务管理 > Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 FusionInsight
使用Manager提示进程故障告警,查看告警进程为Kafka Broker。 可能原因 Broker配置异常。 原因分析 在Manager页面,在告警页面得到主机信息。 通过SSH登录Kafka Broker,执行cd /var/log/Bigdata/kafka/broker命令进入日志目录。 查看server
<brokers>中的端口,Kafka 0-10 Write To Print样例请使用SASL_PLAINTEXT协议端口号,Write To Kafka 0-10样例请使用PLAINTEXT协议端口号。 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(
MapReduce应用程序运行完成后,可通过如下方式查看应用程序的运行情况。 在IntelliJ IDEA中查看应用程序运行情况。 通过MapReduce日志获取应用程序运行情况。 登录MapReduce WebUI查看应用程序运行情况。 登录Yarn WebUI查看应用程序运行情况。 在MapRe
登录MRS集群详情页面,选择“告警管理”。 查看该告警的详细信息,查看定位信息中对应的“HostName”字段值,获取该告警产生的主机名,查看定位信息中对应的“PathName”字段值,获取异常的文件路径或者名称。 登录告警节点。 在参考信息中查找该文件的检查标准,并对照检查标准对文件进行进一步的手动检查和修改。
创建集群 功能介绍 创建一个MRS集群。使用接口前,您需要先获取下的资源信息。 通过VPC创建或查询VPC、子网 通过ECS创建或查询密钥对 通过终端节点获取区域信息 参考MRS服务支持的组件获取MRS版本及对应版本支持的组件信息 接口约束 无 调用方法 请参见如何调用API。 URI
-import -alias myservercert -file ca.crt -keystore truststore.jks 命令执行结果查看: 运行参数。 “ssl.truststore.password”参数内容需要跟创建“truststore”时输入的密码保持一致,执行以下命令运行参数。
待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”。 搜索并查看“dfs.storage.policy.enabled”的参数值是否为“true”,如果不是,修改为“true”,并单击“保存”,重启HDFS。 查看代码。 如下是代码片段,详细代码请参考com.huawei.bigdata
待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”。 搜索并查看“dfs.storage.policy.enabled”的参数值是否为“true”,如果不是,修改为“true”,并单击“保存”,重启HDFS。 查看代码。 如下是代码片段,详细代码请参考com.huawei.bigdata
待操作集群的名称 > 服务 > HDFS > 配置 > 全部配置”。 搜索并查看“dfs.storage.policy.enabled”的参数值是否为“true”,如果不是,修改为“true”,并单击“保存”,重启HDFS。 查看代码。 如下是代码片段,详细代码请参考com.huawei.bigdata
问题 在使用Hue WebUI访问HDFS文件时,报如下图所示无法访问的错误提示,该如何处理? 回答 查看登录Hue WebUI的用户是否具有“hadoop”用户组权限。 查看HDFS服务是否安装了HttpFS实例且运行正常。如果未安装HttpFS实例,需手动安装并重启Hue服务。
例如使用HDFS客户端命令查看HDFS根目录文件: hdfs dfs -ls / 如果集群开启了Kerberos认证,执行kinit命令进行用户认证。 例如: kinit admin Password for xxx@HADOOP.COM: #输入admin用户登录密码 输入klist命令查询并确认权限内容。
WebHCat实例启动失败。 问题现象 在Manager页面上查看到WebHCat实例的健康状态为“故障”,并上报“ALM-12007 进程故障”告警,该告警的服务名称为“Hive”,实例名称为“WebHCat”。且重启Hive服务报错。 查看WebCat实例的日志“/var/log/Bigd
scala:68) 可能原因 __consumer_offsets无法创建。 原因分析 查看日志,发现大量__consumer_offset创建异常。 查看集群发现当前Broker数量为2。 查看__cosumer_offset topic要求副本为3,因此创建失败。 解决办法 可
topic相同 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'test_group', 'format' = 'json' ); create
topic相同 'properties.bootstrap.servers' = 'Kafka的Broker实例业务IP:Kafka端口号', 'properties.group.id' = 'test_group', 'format' = 'json' ); create
Isr: 可能原因 Kafka服务处于停止状态。 找不到用户组信息。 原因分析 查看Kafka服务状态: MRS Manager界面操作:登录MRS Manager,依次选择“服务管理 > Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 FusionInsight
超过100%,Doris租户将创建失败。 “并发数”:租户最大可运行查询任务的并发数,超过并发数的查询会进入等待队列。 “队列长度”:租户最大等待执行的查询任务数。 “队列等待时长(毫秒)”:租户等待执行的查询任务的最大等待时长,单位为毫秒。 “开启内存软隔离”:默认关闭内存软隔
Presto Presto是一个开源的用户交互式分析查询的SQL查询引擎,用于针对各种大小的数据源进行交互式分析查询。其主要应用于海量结构化数据/半结构化数据分析、海量多维数据聚合/报表、ETL、Ad-Hoc查询等场景。 Presto允许查询的数据源包括Hadoop分布式文件系统(HDF