检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
切换用户与配置环境变量。 sudo su - omm source /opt/client/bigdata_env 启用Kerberos认证的集群,执行以下命令认证用户身份。未启用Kerberos认证集群无需执行。 kinit Spark组件用户名 用户需要加入用户组hadoop、hive,主组hadoop。
执行以下命令,配置环境变量。 source /opt/client/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinitKafka用户 创建一个Topic: sh kafka-topics
安装MRS 3.x及之后版本Flume客户端 操作场景 使用Flume搜集日志时,需要在日志主机上安装Flume客户端。用户可以创建一个新的ECS并安装Flume客户端。 本章节适用于MRS 3.x及之后版本。 前提条件 已创建包含Flume组件的集群。 日志主机需要与MRS集群在相同的VPC和子网。
在MRS管理控制台,单击集群名称,进入MRS集群详情页面失败。 原因分析 用户MRS集群选的是企业项目A(包含MRS FULLACCESS和ECS FULLACCESS权限)。 VPC选的是企业项目B。 安全组选的是企业项目A。 IAM这边加入的组没有任何权限设置。 经过分析用户的VPC企业项目B里缺少vpc
MrsObsCredentialsProvider:通过MRS云服务委托获取凭证。 com.obs.services.EcsObsCredentialsProvider:通过ECS云服务获取AK/SK信息。 com.obs.services.BasicObsCredentialsProvi
执行以下命令连接ZooKeeper命令行界面。 zkCli.sh -server ZooKeeper所在节点的IP:2181 获取ZooKeeper的IP地址,具体请参考如何获取ZooKeeper地址? 找到对应故障节点表数据对应的ZooKeeper路径。 ls zookeeper_path/replicas/replica_num
enableTable(final TableName tableName) 启用指定的表。如果表的region数量过多,该方法可能调用超时。 void enableTableAsync(final TableName tableName) 启用指定的表。该方法为异步调用,不会等待所有region上线后才返回。
x及以后版本。 修改集群节点机架信息对系统的影响 修改主机机架名称,将影响HDFS的副本存放策略、Yarn的任务分配及Kafka的Partition存储位置。修改后需重启HDFS、Yarn和Kafka,使配置信息生效。 不合理的机架配置会导致集群的节点之间的负载(包括CPU、内存、磁盘、网
行变慢、页面响应迟钝、接口响应超时等),甚至出现崩溃或错误。 系统故障:慢盘故障可能会导致系统故障,从而导致客户的业务受到影响。如果慢盘上存储的数据包含关键信息,可能会导致系统崩溃或数据丢失。 可能原因 磁盘老化或者磁盘坏道。 处理步骤 检查磁盘状态。 在FusionInsight
source监测的端口,此参数不能为空。须配置为未被使用的端口。 21154 ssl 是否启用SSL认证(基于安全要求,建议用户启用此功能)。 只有“Avro”类型的Source才有此配置项。 true表示启用。 false表示不启用。 true keystore 服务端证书。 ${BIGDATA_H
者多个节点执行。Fragments separation表示数据在两个节点之间进行交换。Fragment type表示一个fragment如何被执行以及数据在不同fragment之间怎样分布。 SINGLE Fragment会在单个节点上执行。 HASH Fragment会在固定
bigdata_env 如果当前集群未启用Kerberos认证,执行如下命令连接ClickHouse服务端: clickhouse client --host ClickHouse的实例IP --multiline --port 9000 --secure 如果当前集群已启用Kerberos认证,
购买一个包含有Hive组件的MRS集群,详情请参见购买自定义集群。 本文以购买的MRS 3.2.0-LTS.1版本的集群为例,组件包含Hadoop、Flink组件,集群开启Kerberos认证。 单击“立即购买”,等待MRS集群创建成功。 准备集群配置文件 集群创建成功后,登录FusionInsight Ma
使用安装客户端用户登录客户端安装节点。 配置环境变量。 source 客户端安装目录/bigdata_env 如果是安全集群,使用以下命令用户进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 用户名 在spark-beeline中访问OBS,例如在“obs://mrs-wor
使用PuTTY工具,以root用户登录告警所在节点。 执行cat /etc/resolv.conf命令,查看是否安装DNS客户端。 如果出现了类似如下内容,说明节点安装并启用了DNS客户端服务。 namesever 10.2.3.4 namesever 10.2.3.4 是,执行5。 否,执行7。 执行vi
ive实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强
request failed on channel 0. Connection closed”。 图1 SFTP服务报错 回答 该报错是由于未启用SFTP服务导致。 处理步骤 执行以下命令修改sshd_config配置,并保存退出。 cd /etc/ssh vi sshd_config
以客户端安装用户登录安装Hive客户端的节点: cd 客户端安装目录 source bigdata_env kinit 组件业务用户(未开启Kerberos认证的集群请跳过该操作) 执行以下命令登录Hive客户端命令行: beeline 执行以下命令创建表test: create
bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host 上报告警的ClickHouseServer实例IP --port 9440 --secure 集群未启用Kerberos认证(普通模式):
Doris”,勾选“Doris管理员权限”。 图1 创建具有Doris管理员权限的角色 单击“用户”,集群已启用Kerberos认证(安全模式)添加一个人机用户,集群未启用Kerberos认证(普通模式)添加一个机机用户,并绑定已创建的角色。 用户创建成功后,使用该用户登录Manager并修改初始密码。