检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
5倍速率调大。若告警次数比较频繁,可以按1倍速率调大。 重启所有的IndexServer2x实例。 重启实例期间实例不可用,当前实例节点的任务会执行失败。 等待10分钟,观察界面告警是否清除。 是,处理完毕。 否,执行6。 收集故障信息 在FusionInsight Manager界面,选择“运维
1倍速率调大。多业务量、高并发的情况可以考虑增加实例。 重启所有的IndexServer2x实例。 重启实例期间实例不可用,当前实例节点的任务会执行失败。 等待10分钟,观察界面告警是否清除。 是,处理完毕。 否,执行6。 收集故障信息 在FusionInsight Manager界面,选择“运维
Manager,选择“集群 > 概览 > 更多 > 下载客户端”,“选择客户端类型”设置为“仅配置文件”,根据待安装客户端节点的节点类型选择正确的平台类型后(x86选择x86_64,ARM选择aarch64)单击“确定”,等待客户端文件包生成后根据浏览器提示下载客户端到本地并解压。 例如
Topic需提前创建,用户可以输入指定的内容作为生产者产生的消息,输入完成后按回车发送消息。如果需要结束产生消息,使用“Ctrl + C”退出任务。 消费主题中的消息 重新打开一个客户端连接,执行以下命令消费主题中的消息。 cd /opt/client/Kafka/kafka/bin
在“配置资源权限”的表格中选择“待操作集群的名称 > ClickHouse > Clickhouse Scope”,勾选对应数据库的创建权限。单击对应的数据库名称,根据不同任务场景,勾选对应表的“读”、“写”权限,单击“确定”保存。 单击“系统 > 权限 > 用户组 > 添加用户组”,创建一个用户组,例如developgroup。
境中调测Spark应用。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt/female/” )下。 运行任务 进入Spark客户端目录,调用bin/spark-submit脚本运行代码,运行命令分别如下(类名与文件名等请与实际代码保持一致,此处仅为示例):
sql.adaptive.enabled 自适应执行特性的总开关。 注意:AQE特性与DPP(动态分区裁剪)特性同时开启时,SparkSQL任务执行中会优先执行DPP特性,从而使得AQE特性不生效。集群中DPP特性是默认开启的,因此开启AQE特性的同时,需要将DPP特性关闭。 false
ver数据同步异常等影响集群正常运行的告警,需要根据告警及时检查集群情况并恢复。 严重 指集群部分功能不可用的告警,包括进程故障、周期备份任务失败、关键文件权限异常等,需要根据告警及时检查报告告警的对象并恢复。 一般 指不影响当前集群主要功能的告警,包括证书文件即将过期、审计日志
信息会自动注册。 图1 客户端信息 如需手动添加已安装好的客户端信息,单击“添加”,根据界面提示手动添加客户端的IP地址、安装路径、用户、平台信息、注册信息等内容。 配置好客户端信息,单击“确定”,添加成功。 手动注册的客户端信息也可以手动进行修改或者删除。 在“客户端管理”界面
k”目录,然后执行vi keyfile命令,并搜索对应的异常文件名,可以看到该文件的正确权限。 除keyfile中所列出的文件和目录外,为保证主备OMS配置同步正常,“$OMS_RUN_PATH/workspace/ha/module/hasync/plugin/conf/filesync
交用户任务(流式作业)的能力。 TaskManager Flink系统的业务执行节点,执行具体的用户任务。TaskManager可以有多个,各个TaskManager都平等。 JobManager Flink系统的管理节点,管理所有的TaskManager,并决策用户任务在哪些T
k/flink”目录执行,例如“/opt/client/Flink/flink”。 在Flink任务运行过程中禁止重启HDFS服务或者重启所有DataNode实例,否则可能会导致任务失败,并可能导致应用部分临时数据无法清空。 请确保Jar包和配置文件的用户权限与Flink客户端一
当前“meta_dir”中的元数据,启动一个新的MASTER,然后再逐一添加其他FE。 操作步骤 结束所有FE进程,同时结束所有业务访问,保证在元数据恢复期间不受外部访问出现不可预期的问题。 查找FE所有实例节点上元数据,找到最新的一个节点FE,作为恢复的Master。 进入FE
inux环境中编包并运行Spark程序。 将打包生成的jar包上传到Spark客户端所在服务器的任意目录(例如“ /opt” )下。 运行任务 在运行样例程序时需要指定<checkpointDir> <brokers> <topic> <batchTime>,其中<checkPo
Hive > 实例”,勾选上报告警IP对应的实例,选择“更多 > 重启实例”。 正在重启的Hive实例无法对外提供服务,该实例上正在执行的SQL任务可能失败。 重启完成后,等待5分钟,查看告警是否消除。 是,处理完毕。 否,执行10。 收集故障信息。 在FusionInsight Manager首页,选择“运维
Condition 系统当前指标取值满足自定义的告警设置条件。 对系统的影响 Yarn NodeManager非堆内存使用率过高,会影响Yarn任务提交和运行的性能,甚至造成内存溢出导致Yarn服务不可用。 可能原因 该节点Yarn NodeManager实例非堆内存使用量过大,或分配的非堆内存不合理,导致使用量超过阈值。
oracle-connector:Oracle数据库专用连接器,使用row_id作为分区列,相对generic-jdbc-connector来说,Map任务分区更均匀,并且不依赖区分列是否有创建索引。 mysql-fastpath-connector:MySQL数据库专用连接器,使用MySQL
3 | 创建目的表t2:create table t2(col1 int,col2 int); 使用YARN客户端提交任务。 yarn --config $HADOOP_HOME/etc/hadoop jar $HCAT_CLIENT/hive-examples-1
} 避免对同一张表同时进行读写操作 目前的版本中,Hive不支持并发操作,需要避免对同一张表同时进行读写操作,否则会出现查询结果不准确,甚至任务失败的情况。 父主题: Impala开发规范
购买时,“防护主机数量”需跟MRS集群中的节点数量保持一致。 图3 防护主机数量 步骤二 安装Agent Linux版本 Windows版本 Agent是用于执行检测任务,全量扫描主机,实时监测主机的安全状态。 步骤三 开启主机防护 开启主机安全防护时,按照一台主机对应一个配额的关系进行绑定,只有绑定配额的主机才能正常防护。