检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
JDBCServer2x进程的堆内存统计” ,单击“确定”,根据告警产生时间,查看对应时间段的“JDBCServer2x进程使用的堆内存”的值,获取最大值。 图2 JDBCServer2x进程堆内存统计 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x
JDBCServer2x直接内存” ,单击“确定”,根据告警产生时间,查看对应时间段的“JDBCServer2x进程使用的直接内存”的值,获取最大值。 图2 JDBCServer2x直接内存 在FusionInsight Manager首页,选择“集群 > 服务 > Spark2x
现有集群节点安装补丁 扩容节点安装补丁 前提条件 从OBS路径中下载的补丁工具“MRS_Log4j_Patch.tar.gz”,下载路径:https://mrs-container1-patch-cn-south-1.obs.cn-south-1.myhuaweicloud.com/
项目编号。获取方法,请参见获取项目ID。 约束限制: 不涉及 取值范围: 只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。
表示策略适用于除去当前输入内容之外的其他对象。 table 将适用该策略的Hive表名称。 如果需要添加基于UDF的策略,可切换为UDF,然后输入UDF的名称。 “Include”策略适用于当前输入的对象,“Exclude”表示策略适用于除去当前输入内容之外的其他对象。 Hive
fprintf(stderr, "hdfsUtime- SUCCESS!, Set time success for %s\n",file); 获取文件信息。 hdfsFileInfo *fileInfo = NULL; if((fileInfo = hdfsGetPathInfo(fs
fprintf(stderr, "hdfsUtime- SUCCESS!, Set time success for %s\n",file); 获取文件信息。 hdfsFileInfo *fileInfo = NULL; if((fileInfo = hdfsGetPathInfo(fs
public void setState(long count) { this.count = count; } // 获取用户自定义状态 public long geState() { return this.count; } }
ts”文件,建议检查“/etc/hosts”文件内是否包含集群内节点的主机名信息,如未包含,需要手动复制解压目录下的“hosts”文件中的内容到客户端所在节点的hosts文件中,确保本地机器能与集群各主机在网络上互通。 父主题: 准备Kudu应用开发环境
database='库名' and table='表名'; 如果查询出来的结果均为空,执行4。 如果查询出来的结果中有报错信息,请根据报错内容处理,若无法自行处理,执行6; 如果查询出来的结果中有执行中且不存在报错的信息,说明sql/mutation任务正在执行。 执行完成之后等
上的64个SQL语句为准)和标准SQL语法(以tpc-ds测试集上的99个SQL语句为准)。 Spark的架构和详细原理介绍,请参见:https://archive.apache.org/dist/spark/docs/3.1.1/。 Spark结构 Spark的结构如图1所示,各模块的说明如表
tsd_port:TSD端口,默认使用4242。 tsd_protocol:请求协议,默认使用https。 (可选)如果不使用样例工程,可在自己工程的pom.xml文件中添加依赖如下: guava <!-- https://mvnrepository.com/artifact/org.apache
UserIP=<用户IP> Time=<事件时间> Operation=<操作内容> Result=<操作结果> Detail=<具体信息> | xxx 2024-05-22 14:12:24,967 | INFO | https-jsse-nio-192.168.43.244-29860-exec-10
在任务完成,日志归集失败后定时清除日志前,重启YARN,本地日志不被删除。 回答 NodeManager有重启恢复机制,详情请参见: https://hadoop.apache.org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/NodeManager
2.0之前版本:https://hadoop.apache.org/docs/r3.1.1/hadoop-yarn/hadoop-yarn-site/NodeManager.html#NodeManager_Restart MRS 3.2.0及之后版本:https://hadoop
“单个map的最大带宽(MB/s)”:填写单个map最大带宽,默认值为“100”。 在“最大恢复点个数”填写备份任务在本集群中备份可保留的快照数量。 在“备份内容”中,选择一个或多个需要备份的Hive表。 支持两种方式选择备份数据: 添加备份数据文件 单击导航中某个数据库的名称,将展开显示此数据库中的所有表,勾选指定的表。
请根据实际安装目录修改。为使用Sqoop时简单方便,使用Sqoop时需要安装全量客户端。 如果集群已开启kerberos认证,需要先创建或获取具有相应权限的用户,用于执行Sqoop命令。创建的用户需要加入“hadoop”、“supergroup”、“hive”组。具体请参考创建用户。
Engine中管理用户操作数据库的权限系统,以保证不同用户之间操作数据库的独立性和安全性。如果一个用户想操作另一个用户的表、数据库等,需要获取相应的权限才能进行操作,否则会被拒绝。 HetuEngine权限管理部分集成了Hive权限管理的功能。使用HetuEngine权限管理功能
SparkSQL的权限管理是指SparkSQL中管理用户操作数据库的权限系统,以保证不同用户之间操作数据库的独立性和安全性。如果一个用户想操作另一个用户的表、数据库等,需要获取相应的权限才能进行操作,否则会被拒绝。 SparkSQL权限管理部分集成了Hive权限管理的功能。使用SparkSQL权限管理功能需要使用
P。扩容前,新增加的IP需要配置为受信任的IP。 前提条件 根据安装规划,收集集群内全部节点的管理平面IP、业务平面IP和所有浮动IP。 获取集群内节点的root用户和密码。 配置受信任IP地址访问LDAP 配置OMS LDAP信任的IP地址 登录FusionInsight Manager。