检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
闭ApplicationAttempt中管理的所有Container,其中包括当前在NM上运行的所有Container。RM会在另一计算节点上启动新的ApplicationAttempt。 对于不同类型的应用,希望以不同方式处理AM重启的事件。MapReduce类应用的目标是不丢
org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/WebServicesIntro.html 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source
概述”的“Storm WebUI”,单击任意一个UI链接,打开Storm的WebUI。 第一次访问Storm WebUI,需要在浏览器中添加站点信任以继续打开页面。 MRS 3.x及后续版本:选择“Storm > 概览”,在“基本信息”的“Storm WebUI”,单击任意一个UI链接,打开Storm的WebUI。
如何在Flume配置文件中使用环境变量 以root用户登录安装Flume客户端所在节点。 切换到以下目录。 cd Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf 在该目录下的“flume-env.sh”文件中添加环境变量。 格式:
ionId”是自动获取的。默认情况下,拓扑在启动后会先从ZooKeeper上的offset存放路径读取历史的offset,用作本次的消费起点,因此只需要正确的指定“zkRoot”和“id”,就可以继承历史记录的offset,不用从头开始消费。 场景2 没有像场景1中那样设置固定的
闭ApplicationAttempt中管理的所有Container,其中包括当前在NM上运行的所有Container。RM会在另一计算节点上启动新的ApplicationAttempt。 对于不同类型的应用,希望以不同方式处理AM重启的事件。MapReduce类应用的目标是不丢
value="ssl"></hadataprotocol>”,则已开启SSL。 操作步骤 以omm用户登录到需要还原的DBService节点。 执行以下命令恢复DBService的“hacom_local.xml”配置文件: cd $BIGDATA_HOME/FusionInsight_BASE_x
_DEFAULT”的默认配置到Spark2x的URI配置项,如果Spark2x仅需要连接两个MetaStore实例,则根据需要仅保留两个节点信息(具体以实际为准),单击“保存”。 选择“集群 > 服务 > Spark2x > 实例”,勾选配置过期的实例,选择“更多 > 重启实例”
org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/WebServicesIntro.html 准备运行环境 在节点上安装客户端,例如安装到“/opt/client”目录。 进入客户端安装目录“/opt/client”,执行下列命令初始化环境变量。 source
properties”中使用环境变量。 本章节适用于MRS 3.x及之后版本。 安装Flume客户端。 以root用户登录安装Flume客户端所在节点。 切换到以下目录。 cd Flume客户端安装目录/fusioninsight-flume-Flume组件版本号/conf 在该目录下的“flume-env
nt_user()”函数,那么,在安全模式与普通模式互转时,需要充分评估可能的风险。 操作示例 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit Hive业务用户
> Kafka”,查看当前Kafka状态,发现状态为良好,且监控指标内容显示正确。 查看Consumer客户端日志发现频繁连接Broker节点和断链打印信息,如下所示。 [root@10-10-144-2 client]# kafka-console-consumer.sh --topic
已在Manager界面添加人机用户,例如:iceberguser,且该用户属于hadoop和hive用户组,主组为hadoop。 操作步骤 使用root登录客户端安装节点,执行如下命令: cd 客户端安装目录 执行以下命令环境变量并认证用户: source bigdata_env kinit 创建的业务用户(
生成新索引。 创建HBase HIndex 安装HBase客户端,详情参见HBase客户端使用实践。 以客户端安装用户,登录安装客户端的节点。 进入客户端安装路径,例如“/opt/client” cd /opt/client 配置环境变量。 source bigdata_env
server.address: SpringBoot服务端启动时绑定的IP地址,默认值为“0.0.0.0”,需要修改为SpringBoot服务部署节点的IP地址。 is.security.mode: 客户端是否使用安全模式连接集群,默认值为“true”。 父主题: 开发Kafka应用
为了避免资源竞争带来的不确定性因素,建议为HetuEngine使用的租户创建独立资源池。 HetuEngine计算实例启动依赖Python3,需确保集群所有节点已安装Python3,并在“/usr/bin/”目录下添加Python软连接,可参考HetuEngine计算实例启动失败报错Python不存在。
user:group -R 客户端安装目录/HBase 使用HBase客户端 安装客户端,具体请参考安装客户端章节。 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env
mmary页面。 图1 集群Summary页面 单击“Brokers”进入Broker监控页面,该页面包括Broker列表和Broker节点的IO统计信息。 图2 Broker监控页面 查看Topic信息 登录KafkaManager的WebUI界面。 在集群列表页面单击对应集群名称进入集群Summary页面。
将客户端/opt/client/KrbClient/kerberos/var/krb5kdc/krb5.conf,copy覆盖集群内所有节点的/etc/krb5.conf,注意替换前需要备份。 父主题: Spark Core
建议删除普通Hive表上原始数据,因为保留一张未加密的表存在安全风险。 创建Hive列加密表 以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit H