检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
HDFS > 实例”,检查对应DataNode是否处于停止状态。 是,执行1.c。 否,执行2.a。 勾选对应的DataNode实例,单击“更多 > 重启实例”进行重启,等待5分钟后,然后查看本告警是否恢复。 是,处理完毕。 否,执行2.a。 查看NameNode和DataNode之间的网络情况。
不支持滚动重启。 - HetuEngine 直接重启 客户端无法访问,但正在运行的业务不受影响。 直接重启耗时约5分钟。 滚动重启 不影响业务。 滚动重启10个节点耗时约10分钟。 HetuEngine计算实例 直接重启 计算实例重启期间无法执行SQL任务。 直接重启耗时约5分钟。 滚动重启
Python开发环境的编辑器,用于编写Python程序。或者使用其他编写Python应用程序的IDE。 准备开发用户 参考准备MRS应用开发用户章节进行配置。 7-zip 用于解压“*.zip”和“*.rar”文件,支持7-Zip 16.04版本。 安装Python 版本要求不低于3.7。 准备运行环境
告警是否自动清除。 是,处理完毕。 否,查看该告警详细信息,记录上报告警的主机IP地址。执行2。 以root用户登录产生告警的主机,执行su - omm,切换到omm用户。 执行如下命令查看进程状态是否处于异常状态。 ps ww -eo stat,cmd| grep -w org
在FusionInsightManager首页,选择“集群 > Impala > 实例 > 告警上报的Impala实例 > 更多 > 重启实例”,查看告警是否清除。 是,操作结束。 否,执行5。 重启全部实例,服务不可用。重启单个实例,会导致当前实例节点正在执行的任务失败,服务可用。 收集故障信息 在主备集群的FusionInsight
告警是否自动清除。 是,处理完毕。 否,查看该告警详细信息,记录上报告警的主机IP地址。执行2。 以root用户登录产生告警的主机,执行su - omm,切换到omm用户。 执行如下命令查看进程状态。 ps ww -eo stat,cmd| grep -w org.apache.hadoop
RPC端口 运行该命令后,根据实际需求指定业务用户名: 指定业务用户名,则输入“yes”,并根据提示输入业务用户名和对应的业务用户密码: 不指定业务用户名,则输入“no”;此时,则使用进行安全认证的用户执行后续操作: 输入其它,则退出登录: 执行以下命令在导入数据前创建元数据: SET
备份Doris业务数据 操作场景 为了确保Doris日常用户的业务数据安全,或者集群用户需要对Doris进行重大操作(如升级或迁移等)时,需要对Doris数据进行备份,从而保证系统在出现异常或未达到预期结果时可以及时进行数据恢复,将对业务的影响降到最低。 集群用户可以通过FusionInsight
任务提交方式变更 问题 用户提交结构流任务时,通常需要通过--jars命令指定kafka相关jar包的路径,例如--jars /kafkadir/kafka-clients-x.x.x.jar,/kafkadir/kafka_2.11-x.x.x.jar。当前版本用户除了这一步外还需要额外的配置项,否则会报class
系统当前指标取值满足自定义的告警设置条件。 对系统的影响 影响任务执行和客户端连接FE。 可能原因 FE堆内存过小。 处理步骤 检查FE堆内存使用率。 登录FusionInsight Manager,选择“运维 > 告警 > 阈值设置 > 待操作集群的名称 > Doris > CPU和内存 > FE节点使用的内存比率
files”,说明该节点文件句柄不足,导致打开文件句柄失败,然后就会重试往其他DataNode节点写数据,最终表现为写文件很慢或者写文件失败。 解决办法 执行ulimit -a命令查看有问题节点文件句柄数最多设置是多少,如果很小,建议修改成640000。 图1 查看文件句柄数 执行vi
erver服务的一部分,是由spark用户启动的,因此其用户也是spark用户,且当前无法实现在运行时将Beeline端的用户透传到executor,因此使用非spark用户时需要对文件进行更改owner为Beeline端的用户,即实际用户。 如果查询的数据是大量的小文件将会产生
Phoenix命令行操作介绍 如何配置HBase双读功能 配置Windows通过EIP访问安全模式集群HBase 运行HBase应用开发程序产生ServerRpcControllerFactory异常 BulkLoad和Put应用场景有哪些 install编译构建HBase Jar包失败报错Could
如何配置HBase双读能力 配置Windows通过EIP访问普通模式集群HBase Phoenix命令行操作介绍 运行HBase应用开发程序产生ServerRpcControllerFactory异常如何处理 BulkLoad和Put应用场景有哪些 install编译构建HBase
执行Balance操作时会占用DataNode的网络带宽资源,请根据业务需求在维护期间执行任务。 默认使用带宽控制为20MB/s,如果重新设置带宽流量或加大数据量,Balance操作可能会对正在运行的业务产生影响。 前提条件 已安装HDFS客户端。 配置Balance任务 使用客户端安装用户登录客户端所在节点。执行
执行Balance操作时会占用DataNode的网络带宽资源,请根据业务需求在维护期间执行任务。 默认使用带宽控制为20MB/s,如果重新设置带宽流量或加大数据量,Balance操作可能会对正在运行的业务产生影响。 前提条件 已安装HDFS客户端。 配置Balance任务 使用客户端安装用户登录客户端所在节点。执行
告警是否自动清除。 是,处理完毕。 否,查看该告警详细信息,记录上报告警的主机IP地址。执行2。 以root用户登录产生告警的主机,执行su - omm,切换到omm用户。 执行如下命令查看进程状态。 ps ww -eo stat,cmd| grep -w org.apache.hadoop
告警是否自动清除。 是,处理完毕。 否,查看该告警详细信息,记录上报告警的主机IP地址。执行2。 以root用户登录产生告警的主机,执行su - omm,切换到omm用户。 执行如下命令查看进程状态。 ps ww -eo stat,cmd| grep -w org.apache.hadoop
在Major合并中,许多segment可以合并为一个大的segment。用户将指定合并尺寸,将对未达到该尺寸的segment进行合并。Major合并通常在非高峰时段进行。 Custom合并: 在Custom合并中,用户可以指定几个segment的id合并为一个大的segment。所有指
在Major合并中,许多segment可以合并为一个大的segment。用户将指定合并尺寸,将对未达到该尺寸的segment进行合并。Major合并通常在非高峰时段进行。 Custom合并: 在Custom合并中,用户可以指定几个segment的id合并为一个大的segment。所有指