检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装MRS 3.x及之后版本Flume客户端 操作场景 使用Flume搜集日志时,需要在日志主机上安装Flume客户端。用户可以创建一个新的ECS并安装Flume客户端。 本章节适用于MRS 3.x及之后版本。 前提条件 已创建包含Flume组件的集群。 日志主机需要与MRS集群在相同的VPC和子网。
在FusionInsight Manager首页,选择“运维 > 告警 > 告警”,选中“告警ID”为“19008”的告警,查看“定位信息”中的角色名并确定实例的IP地址。 告警上报的角色是HMaster,执行2。 告警上报的角色是RegionServer,执行3。 在FusionInsight Manager首页,选择“集群
ALM-45742 请求ECS metadata接口失败 本章节仅适用于MRS 3.1.5及之后版本。 告警解释 当Guardian调用IAM接口获取临时aksk时,需要先从ECS metadata接口获取相关元数据信息,如果调用该接口失败,则产生该告警。 告警属性 告警ID 告警级别
在IoTDBSessionPool对象的参数里,设置IoTDBServer所在的节点IP、端口、用户名和密码。 待连接的IoTDBServer所在的节点IP地址,可通过登录FusionInsight Manage界面,选择“集群 > 服务 > IoTDB > 实例”查看。 RPC端口可通过登录FusionInsight
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults
5。 等待几分钟,查看告警是否自动消除。 是,执行12。 否,重新执行2。 根据业务侧需求考虑是否需要将该用户添加到白名单中。 是,执行13。 否,执行15。 将用户添加到白名单,需要重启Kafka服务,这样会中断服务导致业务受影响,因此如果要采用这种方式,必须和业务侧确认后才能进行。
操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight Manager,选择“系统 > 用户 > 添加用户”,创建一个“人机”用户“hueuser”,并加入“hive”、“hadoop”、“supergroup”组和“System_admi
操作步骤 准备一个具有对应组件操作权限的用户。 例如:使用admin用户登录FusionInsight Manager,选择“系统 > 用户 > 添加用户”,创建一个“人机”用户“hueuser”,并加入“hive”、“hadoop”、“supergroup”组和“System_admi
例代码文件夹中的/opt/impala_examples/conf文件夹,并在client.properties中填入impalad的ip地址。 在cmd或Intellij中执行mvn package ,在工程target目录下获取jar包,比如“impala-examples-mrs-2
在业务应用层通过代码进行重试和负载均衡,当发现某个连接中断,就自动在其他FE上建立连接进行重试。应用层代码重试需要用户自行配置多个Doris FE节点地址,做侵入式修改。 SDK 服务通过MySQL协议与Doris建立连接,部分语言的SDK已经提供了高可用能力,例如MySQL JDBC可以使
ALM-45741 请求ECS securitykey接口失败 本章节仅适用于MRS 3.2.1及之后版本。 告警解释 Guardian 会缓存ECS委托的临时aksk,当缓存不存在或者快要过期时,Guardian会去调用ECS的securitykey接口刷新aksk,当调用接口失败时,会产生该告警。
若项目未通过maven导入,需要执行以下步骤: 右键选择单击样例代码项目中的pom文件,选择“Add as Maven Project”,添加Maven项目 图2 添加Maven项目 通过Maven生成Jar包。 在Maven工具窗口,选择clean生命周期,执行Maven构建过程。 图3 选
多租户功能支持层级式的租户模型,支持动态的添加和删除租户,实现资源的隔离,可以对租户的计算资源和存储资源进行动态配置和管理。 计算资源指租户Yarn任务队列资源,可以修改任务队列的配额,并查看任务队列的使用状态和使用统计。 存储资源目前支持HDFS存储,可以添加删除租户HDFS存储目录,设置目录的文件数量配额和存储空间配额。
若项目未通过maven导入,需要执行以下操作: 右键选择单击样例代码项目中的pom文件,选择“Add as Maven Project”,添加Maven项目。 图2 添加Maven项目 通过Maven生成Jar包。 在Maven工具窗口,选择clean生命周期,执行Maven构建过程。 图3
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults
登录FusionInsight Manager。 选择“系统 > 权限 > 用户 > 添加用户”。 填写“用户名”,例如“hetu_admin”。 设置“用户类型”,选择“人机”。 填写“密码”和“确认新密码”。 在“用户组”,单击“添加”,为该用户添加“hive”、“hetuadmin”、“hadoop”、
在对应用户所在行的“操作”列,单击“修改”。 单击角色后的“添加”,为用户添加System_administrator的权限。 单击“确定”完成修改。 方法二: 登录FusionInsight Manager页面,选择“系统 > 权限 > 角色”。 单击“添加角色”,并配置如下参数。 角色名称:配置角色名称,例如hive_admin。
交时的版本。一般情况下,应用程序(例如MapReduce、Hive、Tez等)需要进行完整的本地安装,将库安装至所有的集群机器(客户端及服务器端机器)中。当集群内开始进行滚动升级或降级时,本地安装的库的版本必然会在应用运行过程时发生改变。在滚动升级过程中,首先只会对少数NodeM