检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
source监测的端口,此参数不能为空。须配置为未被使用的端口。 21154 ssl 是否启用SSL认证(基于安全要求,建议用户启用此功能)。 只有“Avro”类型的Source才有此配置项。 true表示启用。 false表示不启用。 true keystore 服务端证书。 ${BIGDATA_H
ive实例,选择“更多 > 重启实例”,输入当前用户密码,单击“确定”重启所有Hive实例。 是否需要在Spark/Spark2x客户端中启用此功能? 是,重新下载并安装Spark/Spark2x客户端。 否,操作结束。 父主题: Hive企业级能力增强
执行以下命令连接ZooKeeper命令行界面。 zkCli.sh -server ZooKeeper所在节点的IP:2181 获取ZooKeeper的IP地址,具体请参考如何获取ZooKeeper地址? 找到对应故障节点表数据对应的ZooKeeper路径。 ls zookeeper_path/replicas/replica_num
Shell的方法: 初始化环境变量。 source /opt/client/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。当前用户为准备HDFS应用开发用户时增加的开发用户。 人机用户:kinit
登录MRS云服务控制台,鼠标移到右上角登录用户名处,选择“我的凭证”。 单击“访问密钥”,检查密钥列表中对应的密钥的“状态”是否是“启用”。 是,执行4。 否,在该密钥所在行的“操作”列,单击“启用”。 单击改密钥所在行的“删除”,删除该密钥。再单击“新增访问密钥”,单击“确定”,创建并下载新的访问密钥,并获取AK和SK。
source bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host 上报告警的ClickHouseServer实例IP --port --secure 集群未启用Kerberos认证(普通模式): clickhouse
登录MRS云服务控制台,鼠标移到右上角登录用户名处,选择“我的凭证”。 单击“访问密钥”,检查密钥列表中对应的密钥的“状态”是否是“启用”。 是,执行4。 否,在该密钥所在行的“操作”列,单击“启用”。 单击改密钥所在行的“删除”,删除该密钥。再单击“新增访问密钥”,单击“确定”,创建并下载新的访问密钥,并获取AK和SK。
Provider dfs.client.failover.activeinfo.share.flag 启用缓存并将当前活动的NameNode的详细信息共享给其他客户端。若要启用缓存,需将其设置为“true”。 false dfs.client.failover.activeinfo
Provider dfs.client.failover.activeinfo.share.flag 启用缓存并将当前活动的NameNode的详细信息共享给其他客户端。若要启用缓存,需将其设置为“true”。 false dfs.client.failover.activeinfo
source监测的端口,此参数不能为空。须配置为未被使用的端口。 21154 ssl 是否启用SSL认证(基于安全要求,建议用户启用此功能)。 只有“Avro”类型的Source才有此配置项。 true表示启用。 false表示不启用。 true keystore 服务端证书。 ${BIGDATA_H
使用安装客户端用户登录客户端安装节点。 配置环境变量。 source 客户端安装目录/bigdata_env 如果是安全集群,使用以下命令用户进行用户认证,如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 用户名 在spark-beeline中访问OBS,例如在“obs://mrs-wor
者多个节点执行。Fragments separation表示数据在两个节点之间进行交换。Fragment type表示一个fragment如何被执行以及数据在不同fragment之间怎样分布。 SINGLE Fragment会在单个节点上执行。 HASH Fragment会在固定
实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连
bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host 上报告警的ClickHouseServer实例IP --port 9440 --secure 集群未启用Kerberos认证(普通模式):
使用PuTTY工具,以root用户登录告警所在节点。 执行cat /etc/resolv.conf命令,查看是否安装DNS客户端。 如果出现了类似如下内容,说明节点安装并启用了DNS客户端服务。 namesever 10.2.3.4 namesever 10.2.3.4 是,执行5。 否,执行7。 执行vi
MRTest-XXX.jar com.huawei.bigdata.mapreduce.examples.MultiComponentExample 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境配置文件中与准备放置编译出的ja
实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连
执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建HBase表的权限和HDFS的操作权限: kinit 组件业务用户 如果当前集群未启用Kerberos认证,则执行以下命令设置Hadoop用户名: export
进入HBase客户端任意目录。 初始化环境变量。 source /opt/client/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。当前用户为准备HBase应用开发用户时增加的开发用户。 人机用户:kinit
enable”表示是否启用自动执行Balance任务,默认值为“false”表示不启用,修改为“true”表示启用。 “dfs.balancer.auto.cron.expression”表示任务执行的时间,默认值“0 1 * * 6”表示在每周六的1点执行任务。仅在启用自动执行Balance功能时有效。