检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
该节点NTP认证的key值与主OMS节点NTP服务的key值不一致。 该节点与主OMS节点NTP服务时间偏差太大。 处理步骤 检查该节点的NTP服务是否正常启动。 检查ntpd进程是否运行在告警节点上。登录告警节点,执行sudo su - root切换用户。执行以下命令,检查命令是否输出ntpd进程的信息。
Storm-HBase开发指引 Storm Flux开发指引 Storm对外接口介绍 如何使用IDEA远程调试业务 使用旧插件storm-kafka时如何正确设置offset IntelliJ IDEA中远程提交拓扑执行Main时报错:Command line is too long 父主题: Storm开发指南(普通模式)
方案二: 在FusionInsight Mnanager中Spark2x界面中修改上述三个参数然后重启Spark2x实例之后重新下载客户端,具体步骤如下: 登录FusionInsight Mnanager界面,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置 >
方案二: 在FusionInsight Mnanager中Spark2x界面中修改上述三个参数然后重启Spark2x实例之后重新下载客户端,具体步骤如下: 登录FusionInsight Mnanager界面,选择“集群 > 待操作集群的名称 > 服务 > Spark2x > 配置 >
打开了HDFS允许写入单副本数据开关,即HDFS的配置项“dfs.single.replication.enable”的值设置为“true”。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > HDFS > 配置 > 全部配置”。 在搜索框中搜索“dfs.single
调用创建集群接口:POST /v1.1/{project_id}/run-job-flow返回500。 原因分析 用户没有创建集群的权限。 处理步骤 检查是否拥有创建MRS集群的权限,可参考文档权限管理。 父主题: API使用类
一一对应。 处理步骤 登录集群Master1节点,执行ifconfig查看到切换后的VPC。 执行命令cat /etc/hosts,查看host文件中记录切换VPC之前的IP。 登录MRS管理控制台,在MRS集群概览页面查看“集群ID”和“虚拟私有云”名称。 登录ECS管理控制台
划的技术。通过配置开启CBO后,CBO优化器可以基于表和列的统计信息,进行一系列的估算,最终选择出合适的查询计划。 操作步骤 要使用CBO优化,可以按照以下步骤进行优化。 需要先执行特定的SQL语句来收集所需的表和列的统计信息。 SQL命令如下(根据具体情况选择需要执行的SQL命令):
MonitorServer进程停止日志。 function.log 外部函数调用日志。 /flume/flume-用户名-日期-pid-gc.log Flume进程的GC日志。 /flume/Flume-audit.log Flume客户端的审计日志。 /flume/startAgent.out Flume启动前的进程参数日志。
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上(
通过IDEA自带的Maven工具,打包项目,生成jar包。具体操作请参考在Linux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“$SPARK_HOME” )下。 将user.keytab、krb5.conf 两个文件上传客户端所在服务器上
为了运行MRS产品Hive组件的Python3接口样例代码,需要完成下面的操作。 该样例仅支持在Linux节点上运行。 操作步骤 客户端机器必须安装有Python3,其版本不低于3.6,最高不能超过3.8。 在客户端机器的命令行终端输入python3可查看Python版本号。如下显示Python版本为3.8.2。
为了运行MRS产品Hive组件的Python3接口样例代码,需要完成下面的操作。 该样例仅支持在Linux节点上运行。 操作步骤 客户端机器必须安装有Python3,其版本不低于3.6,最高不能超过3.8。 在客户端机器的命令行终端输入python3可查看Python版本号。如下显示Python版本为3.8.2。
并返回状态码“104”或“143”。下图为返回状态码“143”: 可能原因 抓取到Hudi中的一批数据量过大,导致任务内存不足。 处理步骤 登录FusionInsight Manager,选择“集群 > 服务 > CDL”,单击“CDLService UI”右侧的超链接进入CDLService
提供服务。 处理步骤 HBase服务端提供两个配置项来控制是否跳过损坏的StoreFile文件或WAL文件。登录FusionInsight Manager,选择“集群 > 服务 > HBase > 配置”,搜索并配置表1中的参数,参数支持动态生效,保存配置后登录hbase she
存来管理。AM默认分配的内存堆大小是1GB。 操作步骤 通过调大如下的参数来进行AM调优。 参数入口: 在Yarn客户端的“mapred-site.xml”配置文件中调整如下参数。“mapred-site.xml”配置文件在客户端安装路径的conf目录下,例如“/opt/client/Yarn/config”。
在HDFS中,通过调整属性的值,使得HDFS集群更适应自身的业务情况,从而提升HDFS的写性能。 本章节适用于MRS 3.x及后续版本。 操作步骤 参数入口: 在FusionInsight Manager系统中,选择“集群 > 服务 > HDFS > 配置”,选择“全部配置”。在搜索框中输入参数名称。
Spark客户端和服务端权限参数配置说明 SparkSQL权限管理功能相关的配置如下所示,客户端与服务端的配置相同。要使用表权限功能,需要在服务端和客户端添加如下配置。 “spark-defaults.conf”配置文件 表1 参数说明(1) 参数 描述 默认值 spark.sql
erver节点退出只读模式时,告警自动清除。 当ClickHouseServer节点处于只读模式时,若需要登录客户端清理数据,则可手动退出只读模式,退出只读模式方法: 登录FusionInsight Manager界面,选择“集群 > 服务 > ClickHouse > 配置 >
overwrite操作。 操作步骤 假设存在如下一张表: user_data(user_group int, user_name string, update_time timestamp); 其中user_group是分区列,需要根据已有数据,按更新时间进行排序,刷新用户组信息。操作步骤如下: 在Hive