检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
场景说明 HBase服务安装时可选部署RESTServer实例,可通过访问HBase REST服务的形式调用HBase相关操作,包括对Namespace、table的操作等。访问HBase REST服务同样需要进行Kerberos认证。 该场景下不需要进行初始化配置,仅需要用于Kerb
配置MapReduce应用安全认证 场景说明 在安全集群环境下,各个组件之间的相互通信不能够简单地互通,而需要在通信之前进行相互认证,以确保通信的安全性。 用户在提交MapReduce应用程序时,需要与Yarn、HDFS等之间进行通信。那么提交MapReduce的应用程序中需要写
通过JDBC方式实现查询HetuEngine SQL任务 功能简介 通过JDBC连接方式,组装对应的SQL发送到HetuServer执行,并能查询对应的SQL语句执行进度和状态。 import io.XXX.jdbc.XXXResultSet; import java.sql.Connection;
检查工程conf目录下“producer.properties”中配置的“bootstrap.servers”配置值中访问的IP和端口是否正确: 如果IP与Kafka集群部署的业务IP不一致,那么需要修改为当前集群正确的IP地址。 如果配置中的端口为21007(Kafka安全模式端口),那么修
配置Hive通过Guardian访问OBS Hive对接OBS MRS集群支持Hive服务基于Metastore方式对接OBS。 配置Hive基于MetaStore方式对接OBS: 已参考配置Guardian服务对接OBS完成存算分离配置。 登录FusionInsight Manager,选择“集群
检查工程conf目录下“producer.properties”中配置的“bootstrap.servers”配置值中访问的IP和端口是否正确: 如果IP与Kafka集群部署的业务IP不一致,那么需要修改为当前集群正确的IP地址。 如果配置中的端口为21007(Kafka安全模式端口),那么修
1版本单点问题修复补丁。 安装补丁的影响 请参考安装补丁的影响。 MRS 3.2.0-LTS.1.6补丁基本信息 表2 补丁基本信息 补丁号 MRS 3.2.0-LTS.1.6 发布时间 2024-02-04 安装前处理 如果MRS集群节点故障或者网络不通,需要先隔离该节点,否则补丁会安装失败。 新特性
安装Flink客户端 Flink使用Windows环境进行开发,运行环境则建议部署在Linux环境下,MRS客户端不支持安装在Windows环境。您可以执行如下操作完成客户端的配置。 操作步骤 安装Flink客户端。 确认服务端Flink组件已经安装。 下载Flink客户端程序。
单击“数据源”,在数据源列表中可以查看数据源名称、数据源描述、数据源类型和创建时间等信息,在“操作”列下也可以编辑和删除数据源。 HetuEngine服务在安装时已经将共部署的Hive数据源默认实现对接,数据源名称为“hive”,不可删除。 父主题: 使用HetuEngine
本章节主要介绍IoTDB数据操作时常用的配置参数。 操作步骤 登录集群Manager页面,选择“集群 > 服务 > IoTDB > 配置 > 全部配置”,进入IoTDB配置界面修改参数。 修改ConfigNode和IoTDBServer配置: 修改ConfigNode配置: 单击“ConfigN
提交到Yarn上执行。 Flink基于Yarn的集群部署如图1所示。 图1 Flink基于Yarn的集群部署 Flink Yarn Client首先会检验是否有足够的资源来启动Yarn集群,如果资源足够,会将Jar包、配置文件等上传到HDFS。 Flink Yarn Client首先与Yarn
可能原因 安装或扩容过程中,实例数或分配方式不能满足拓扑要求。 处理步骤 在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,找到本告警,根据告警中的“定位信息”和“附加信息”分析告警原因。 参考下表,根据告警附加信息说明和处理方式进行处理。 告警附加信息
tor。 Executor执行这些Task,将具体RDD的数据写入到步骤1创建的目录下。 Spark和YARN的关系 Spark的计算调度方式,可以通过YARN的模式实现。Spark共享YARN集群提供丰富的计算资源,将任务分布式的运行起来。Spark on YARN分两种模式:YARN
使用hive-table方式同步数据报错 问题 使用hive-table方式同步数据报错。 回答 修改hive-site.xml,加入如下值。 父主题: Sqoop常见问题
使用hcatalog方式同步hive parquet表报错 问题 同步hive parquet表,其分区字段为非string类型,无法正常使用hive import导入,只能考虑使用hcatalog方式,但是hcatalog方式报错如下: 回答 修改sqoop源码SqoopHCa
ithQJM.html#Automatic_Failover HDFS HA实现方案 图1 典型的HA部署方式 在一个典型的HA集群中(如图1),需要把两个NameNodes配置在两台独立的机器上。在任何一个时间点,只有一个NameNode处于Active状态,另一个处于Stan
> HBase > 配置 > 全部配置”,搜索并修改ThriftServer实例的配置参数“hbase.thrift.security.qop”。该参数值需与“hbase.rpc.protection”的值一一对应。保存配置,重启配置过期节点服务使更改的配置生效。 “hbase.rpc
安全模式下登录方式分为两种,票据登录和keytab文件登录,两种方式操作步骤基本一致。票据登录方式为开源提供的能力,存在票据过期问题,后期需要人工上传票据,并且可靠性和易用性较差,因此推荐使用keytab方式。 应用开发操作步骤 确认Storm和HBase组件已经安装,并正常运行。
界面。 选择“数据源”,单击“添加数据源”。在“添加数据源”页面填写参数。 配置“基本配置”,填写数据源名称,选择数据源类型“Hive”。 配置“Hive配置”,参数配置请参考表1。 表1 Hive配置 参数 描述 取值样例 驱动 默认为fi-hive-hadoop。 fi-hive-hadoop
MRS提供标准的云上弹性大数据集群,目前可安装部署包括Hadoop、Spark等大数据组件。当前标准的云上大数据集群不能满足所有用户需求,例如如下几种场景: 通用的操作系统配置不能满足实际数据处理需求,例如需调大系统最大连接数。 需要安装自身业务所需的软件工具或运行环境,例如需安装Gradle、业务需要依赖R语言包。