检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
使用Spark(MRS 3.x之前版本) 从零开始使用Spark 从零开始使用Spark SQL 使用Spark客户端 访问Spark Web UI界面 Spark对接OpenTSDB
ClickHouse常用SQL语法 CREATE DATABASE创建数据库 CREATE TABLE创建表 INSERT INTO插入表数据 SELECT查询表数据 ALTER TABLE修改表结构 ALTER TABLE修改表数据 DESC查询表结构 DROP删除表 SHOW显示数据库和表信息
ClickHouse常见问题 在System.disks表中查询到磁盘status是fault或者abnormal 如何迁移Hive/HDFS的数据到ClickHouse 使用辅助Zookeeper或者副本数据同步表数据时,日志报错 如何为ClickHouse用户赋予数据库级别的Select权限
ClickHouse性能调优 数据表报错Too many parts解决方法 加速Merge操作 加速TTL操作 父主题: 使用ClickHouse
HBase企业级能力增强 配置HBase本地二级索引提升查询效率 增强HBase BulkLoad工具数据迁移能力 配置RSGroup管理RegionServer资源 父主题: 使用HBase
Kafka企业级能力增强 配置Kafka高可用和高可靠 配置Kafka数据安全传输协议 配置Kafka数据均衡工具 父主题: 使用Kafka
Yarn企业级能力增强 配置Yarn权限控制开关 手动指定运行Yarn任务的用户 配置AM失败重试次数 配置AM自动调整分配内存 配置AM作业自动保留 配置Yarn数据访问通道协议 配置自定义调度器的WebUI 配置NodeManager角色实例使用的资源 配置ResourceM
2及之后版本) 进入KafkaUI界面。 使用具有KafkaUI页面访问权限的用户登录FusionInsight Manager,选择“集群 > 服务 > Kafka”。 如需在页面上进行相关操作,例如创建Topic,需同时授予用户相关权限,请参考Kafka用户权限说明。 在“KafkaManager
注意:使用“--enable-az-aware”选项的前提是服务端开启了跨AZ特性,即服务端启动参数“az.aware.enable”为“true”,否则会执行失败。 “--bootstrap-server”方式由服务端生成副本分配方案,后续版本,社区将只支持这种方式来进行Top
Flink开发指南(安全模式) Flink应用开发简介 Flink应用开发流程介绍 准备Flink应用开发环境 开发Flink应用 调测Flink应用 Flink应用开发常见问题
HetuEngine开发指南(安全模式) HetuEngine应用开发简介 HetuEngine应用开发流程介绍 准备HetuEngine应用开发环境 开发HetuEngine应用 调测HetuEngine应用
YARN开发指南(安全模式) YARN应用开发简介 YARN接口介绍
HBase开发指南 HBase应用开发概述 准备HBase应用开发环境 开发HBase应用 调测HBase应用 HBase应用开发常见问题
Hive开发指南 Hive应用开发概述 准备Hive应用开发环境 开发Hive应用 调测Hive应用 Hive应用开发常见问题
HDFS开发指南 HDFS应用开发概述 准备HDFS应用开发环境 开发HDFS应用 调测HDFS应用 HDFS应用开发常见问题
共仓库下载。 开发者能力要求 您已经对大数据各组件具备一定的认识。 您已经对Java语法具备一定的认识。 您已经对弹性云服务器的使用方式和MapReduce服务开发组件有一定的了解。 您已经对Maven构建方式具备一定的认识和使用方法有一定了解。 MRS应用开发流程说明 通常MR
OpenTSDB开发指南 OpenTSDB应用开发概述 准备OpenTSDB应用开发环境 开发OpenTSDB应用 调测OpenTSDB应用 OpenTSDB应用开发常见问题
Impala开发指南 Impala应用开发概述 准备Impala应用开发环境 开发Impala应用 调测Impala应用 Impala应用开发常见问题
调整HDFS SHDFShell客户端日志级别 临时调整,关闭该shell客户端窗口后,日志会还原为默认值。 执行export HADOOP_ROOT_LOGGER命令可以调整客户端日志级别。 执行export HADOOP_ROOT_LOGGER=日志级别,console,可以调整shell客户端的日志级别。
非HDFS数据残留导致数据分布不均衡 问题背景与现象 数据出现不均衡,某磁盘过满而其他磁盘未写满。 HDFS DataNode数据存储目录配置为“/export/data1/dfs--/export/data12/dfs”,看到的现象是大量数据都是存储到了“/export/data1/dfs”,其他盘的数据比较均衡。