检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
Spark日志介绍 日志描述 日志存储路径: Executor运行日志:“${BIGDATA_DATA_HOME}/hadoop/data${i}/nm/containerlogs/application_${appid}/container_{$contid}” 运行中的任务日
过期时间,该channel就被终止了,AM端感知到channel被终止后认为driver失联,然后整个应用停止。 解决办法:在Spark客户端的“spark-defaults.conf”文件中或通过set命令行进行设置。参数配置时要保证channel过期时间(spark.rpc.io
Client连接消息,告警恢复。 告警属性 告警ID 告警级别 可自动清除 24003 严重 是 告警参数 参数名称 参数含义 ClientIP Flume客户端IP地址。 ServerIP Flume服务端IP地址。 ServerPort Flume服务端端口。 对系统的影响 产生告警的Flume
不支持aggregate运算,如:sum(a)+min(b)。 注意事项 外部数据源是Hive的场景,通过Spark建的外表无法进行查询。 数据源只支持MySQL和MPPDB。 父主题: Spark
需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase.hindex.mapreduce.TableIndexer -Dtablename
4]个字符。 默认取值: 不涉及 version_name 是 String 参数解释: 集群版本。例如“MRS 3.1.0”。如果请求客户端不支持自动转义,则需要将空格转义为%20,例如“MRS%203.1.0”。 约束限制: 不涉及 取值范围: 长度为[1-64]个字符。 默认取值:
x之前版本中,替换为“/opt/Bigdata/jdk”。 MRS 3.x版本集群若按照该指导执行后依然出现证书过期告警,请将${JAVA_HOME}替换为“客户端安装目录/JDK/jdk”,再次执行该指导。 删除OBS证书。 在主OMS节点中,执行以下命令删除1中查询到的OBS证书。 obs_url=$(keytool
如果有两个Master节点,请在Master2节点上同样执行3和4。 在Master1节点执行如下命令初始化环境变量。 source 客户端安装目录/bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。
resourceGroupAlarm”修改每个资源组的阈值。 收集故障信息。 根据故障信息中的HostName登录到集群节点,在presto客户端根据附加信息中的Reource Group查询排队数。 根据故障信息中的HostName登录到集群节点,查看/var/log/Bigdat
“Porcedure信息”的值是否以“DeleteStorageGroupProcedure”开头。 是,表示删除存储组失败,执行6。 否,执行7。 重新尝试在IoTDB客户端删除“Porcedure信息”中显示的存储组,删除成功该告警将自动清除,否则执行7。 收集故障信息。 选择“集群 > 服务 > IoTDB
存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark.driver.extraJavaOptions”中添加如下内容:
ClickHouse提供了基于Loadbalance部署架构,可以将用户访问流量自动分发到多台后端节点,扩展系统对外的服务能力,实现更高水平的应用容错。客户端应用请求集群时,使用基于Nginx的ClickHouseBalancer控制节点来进行流量分发,无论集群写入的负载、读的负载以及应用接入的高可用性都具备了有力的保障。
Manager_viewer Manager查看员,具有主页、集群、主机、告警与事件、租户资源(MRS 3.5.0及之后版本支持)、系统的查看权限和下载客户端权限。(下载客户端的权限仅MRS 3.2.0及之后版本支持) Manager_tenant Manager租户管理员。 可为当前用户所属于的非叶子租户创建子租户并管理。具有“运维
的并行操作。 关系模型与SQL查询 ClickHouse完全使用SQL作为查询语言,提供了标准协议的SQL查询接口,使得现有的第三方分析可视化系统可以轻松与它集成对接。 同时ClickHouse使用了关系模型,所以将构建在传统关系型数据库或数据仓库之上的系统迁移到ClickHouse的成本会变得更低。
Spark2x日志介绍 日志描述 日志存储路径: Executor运行日志:“${BIGDATA_DATA_HOME}/hadoop/data${i}/nm/containerlogs/application_${appid}/container_{$contid}” 运行中的任
修改完成后,单击“确定”,返回“资源”页面,展示修改后的资源详情。 修改ClickHouse租户资源配额后,需要重新登录ClickHouse客户端才能生效。 添加用户并绑定租户 新添加用户绑定租户:登录FusionInsight Manager,选择“系统 > 权限 > 用户”,单击
需要预先对字段name创建二级索引。 相关操作 基于二级索引表查询。 查询样例如下: 用户在hbase_sample_table的info列族的name列添加一个索引,在客户端执行, hbase org.apache.hadoop.hbase.hindex.mapreduce.TableIndexer -Dtablename
配置流式读取Spark Driver执行结果 配置场景 在执行查询语句时,返回结果有可能会很大(10万数量以上),此时很容易导致JDBCServer OOM(Out of Memory)。因此,提供数据汇聚功能特性,在基本不牺牲性能的情况下尽力避免OOM。 配置描述 提供两种不同
stdout跳转到日志页面。 原因分析 配置项“spark.httpdProxy.enable”未开启。 修改配置项查看日志处理步骤 在客户端修改spark-defaults.conf的配置项:spark.httpdProxy.enable = true,该配置项取值默认为false。
存放返回的数据,导致应用长时间挂起。 解决措施: 如果用户需要在OOM场景下强制将应用退出,那么可以在启动Spark Core应用时,在客户端配置文件“$SPARK_HOME/conf/spark-defaults.conf”中的配置项“spark.driver.extraJavaOptions”中添加如下内容: