检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Manager,具体请参见访问FusionInsight Manager(MRS 3.x及之后版本)。然后选择“集群 > 待操作的集群名称 > 服务 ”。 登录Storm WebUI: MRS 3.x之前版本:选择“Storm”,在“Storm 概述”的“Storm Web UI”,单
HDFS企业级能力增强 配置DataNode节点容量不一致时的副本放置策略 配置DataNode预留磁盘百分比 配置NameNode黑名单功能 配置Hadoop数据传输加密 父主题: 使用HDFS
ClickHouse用户权限管理 ClickHouse用户及权限管理 ClickHouse使用OpenLDAP认证 父主题: 使用ClickHouse
Presto常见问题 Presto配置多Hive连接 父主题: 使用Presto
Flume运维管理 Flume常用配置参数 Flume业务配置指南 Flume日志介绍 查看Flume客户端日志 查看Flume客户端监控信息 停止或卸载Flume客户端 父主题: 使用Flume
Hive数据存储及加密配置 使用HDFS Colocation存储Hive表 配置Hive分区元数据冷热存储 Hive支持ZSTD压缩格式 配置Hive列加密功能 父主题: 使用Hive
输出算子 Hive输出 Spark输出 表输出 文件输出 HBase输出 ClickHouse输出 父主题: 算子帮助
and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"] projectId = "{project_id}"
and CLOUD_SDK_SK in the local environment ak = os.environ["CLOUD_SDK_AK"] sk = os.environ["CLOUD_SDK_SK"] projectId = "{project_id}"
IoTDB开发指南(普通模式) IoTDB应用开发简介 IoTDB应用开发流程介绍 准备IoTDB应用开发环境 开发IoTDB应用 调测IoTDB应用 IoTDB Java API接口介绍
ClickHouse开发指南(普通模式) ClickHouse应用开发简介 ClickHouse应用开发流程介绍 准备ClickHouse应用开发环境 开发ClickHouse应用 调测ClickHouse应用
IoTDB开发指南(安全模式) IoTDB应用开发简介 IoTDB应用开发流程介绍 准备IoTDB应用开发环境 开发IoTDB应用 调测IoTDB应用 IoTDB Java API接口介绍
节点剩余内存不足导致HBase启动失败 问题现象 HBase的RegionServer服务一直是Restoring状态。 原因分析 查看RegionServer的日志(“/var/log/Bigdata/hbase/rs/hbase-omm-XXX.out”),发现显示以下打印信息:
ntpdate修改时间导致HDFS出现大量丢块 问题背景与现象 用ntpdate修改了集群时间,修改时未停止集群,修改后HDFS进入安全模式,无法启动。 退出安全模式后启动,hfck检查丢了大概1 TB数据。 原因分析 查看NameNode原生页面发现有大量的块丢失。 图1 块丢失
如何重置或修改Manager(admin)密码? 已知旧密码修改admin密码请参考修改admin密码 忘记旧密码重置admin密码请参考修改组件运行用户密码 父主题: 账号密码类
保存配置,如果有弹出窗口,不勾选“重新启动受影响的服务或实例”。 在业务空闲时重启配置过期的服务,重启服务会导致上层服务业务中断,影响集群的管理维护和业务,建议在空闲时执行。 登录Manager页面。 重启Mapreduce、Yarn服务。 父主题: 使用Yarn
$6}' | grep :${HTTP_PORT} | grep LISTEN | wc -l)”。 保存如上修改,再在Manager页面上选择“服务管理 > Presto > 实例”,重启Coordinator进程。 父主题: 使用Presto
Hive执行msck repair table命令时报错 现象描述 Hive执行msck repair table table_name命令报错: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive
db driver class。 图1 Sqoop迁移数据库数据报错 图2 源端为DWS时报错 问题分析 从上述两个报错分析,可能是驱动问题,服务端未正确加载JDBC驱动,或者是网络原因,由于Sqoop迁移数据过程,MapReduce任务是运行在分析core节点,因此需要保证正常加载
在VPC上创建一个弹性公网IP地址,并在VPC控制台上找到MRS集群的子网,然后找到Presto的浮动IP,并给该浮动IP绑定弹性公网IP。 在MRS服务集群的安全组中放通源地址到MRS服务Presto的端口访问,然后测试(以非安全集群为例,catalog为hive)。 父主题: 使用Presto