检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
是,处理完毕。 否,执行4。 检查网口速率是否满足需求。 在实时告警列表中,单击此告警。在“告警详情”区域,获取告警所在主机地址及网口。 使用PuTTY工具,以root用户登录告警所在主机。 执行命令ethtool 网口名称,查看当前网口速率最大值Speed。 对于虚拟机环境,通过命令可能无法
"", "masterNodeSize" : "s3.2xlarge.2.linux.bigdata", "coreNodeSize" : "s1.xlarge.linux.bigdata", "componentList" : [ { "componentId"
ne中进行统一分析。 IoTDB时序数据库:时序数据分析的核心组件,提供海量时序数据的存储和计算能力。 离线加载:IoTDB提供的数据导入工具,可以将本地csv文件批量导入到IoTDB中。 数据访问:提供JDBC/Restful的访问接口供应用程序访问,也可以直接提供IoTDB的生态插件与Grafana对接。
查看图中upgradObservationPeriod isON值是否为true,如图1所示。 是,表示系统当前处于升级观察期,请使用UpdateTool工具提交该次升级,具体操作参考相应版本的升级指导书。 否,执行6。 图1 集群信息 等待第二天凌晨,查看告警是否清除。 是,操作结束。 否,执行6。
Windows本地hosts文件存放路径举例:“C:\WINDOWS\system32\drivers\etc\hosts”。 准备Linux环境运行程序所需配置文件。 在节点中安装客户端,例如客户端安装目录为“/opt/client”。 客户端机器的时间与集群的时间要保持一致,时间差小于5分钟。
创建一个满足要求的弹性云服务器,要求如下: 已准备一个Linux弹性云服务器,主机操作系统及版本建议参见表2。 表2 参考列表 CPU架构 操作系统 支持的版本号 x86计算 Euler EulerOS 2.5 SUSE SUSE Linux Enterprise Server 12 SP4(SUSE
EXPORT展示的作业的部分信息会丢失,无法查看。 Export作业只会导出Base表的数据,不会导出Rollup Index的数据。 Export作业会扫描数据,占用I/O资源,可能会影响系统的查询延迟。 语法介绍 导出Doris数据到HDFS 集群已启用Kerberos认证(安全模式) EXPORT
是否必选 参数类型 描述 node_size 是 String 参数解释: Task节点的实例规格,例如:{ECS_FLAVOR_NAME}.linux.bigdata,{ECS_FLAVOR_NAME}可以为c3.4xlare.2等在MRS购买页可见的云服务器规格。实例规格详细说明请参
登录MRS集群详情页面,选择“告警管理”。 查看该告警的详细信息,查看定位信息中对应的“HostName”字段值,获取该告警产生的主机名。 使用PuTTY工具,以root用户登录告警所在节点。 执行cat /etc/resolv.conf命令,查看是否安装DNS客户端。 如果出现了类似如下内容,说明节点安装并启用了DNS客户端服务。
文件放置在样例工程的“kafka-examples\src\main\resources”目录下。 安装IntelliJ IDEA和JDK工具后,需要在IntelliJ IDEA配置JDK。 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 打开IntelliJ
否,执行9。 检查与DBService连接的网络是否正常。 单击“组件管理 > Hue > 实例”,记录主Hue的IP地址。 使用PuTTY工具登录主Hue的IP地址。 执行ping命令,查看主Hue所在主机与DBService服务所在主机的网络连接是否正常。(获取DBService服务IP地址的方式和获取主Hue
数据与关系型数据库的强依赖,将Hive元数据导出到HDFS上,与表数据一同迁移后进行恢复。 参考步骤如下: 在源集群上下载并安装Sqoop工具。 请参见http://sqoop.apache.org/。 下载相应关系型数据库的JDBC驱动放置到“${Sqoop_Home}/lib”目录。
KafkaUI进程启动信息。 审计日志 audit.log KafkaUI服务审计日志。 鉴权日志 kafka-authorizer.log Kafka开源自带鉴权插件运行日志。 此日志统一归档在“/var/log/Bigdata/audit/kafka/kafkaui”目录下。 ranger-authorizer
在“服务”框中勾选待操作集群的“Flume”。 单击右上角的时间编辑按钮,设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后1小时,单击“下载”。 使用传输工具,收集Flume Client端“/var/log/Bigdata/flume-client”下的日志。 请联系运维人员,并发送已收集的故障日志信息。
目录的读、写与执行权限。然后执行4。 否,单击“确定”指定本地的保存位置,开始下载完整客户端,等待下载完成,然后执行4。 使用WinSCP工具,以客户端安装用户将压缩文件保存到客户端安装的目录,例如“/opt/hadoopclient”。 解压软件包。 例如下载的客户端文件为“F
保存时间。 是,执行13。 否,执行14。 根据2中上报告警的磁盘分区,找到数据量较大的Topic,手动调小保存周期,使用Kafka的linux客户端,执行如下操作命令: kafka-topics.sh --zookeeper ZooKeeper地址:24002/kafka --alter
将SparkLauncher程序和用户应用程序分别生成Jar包,并上传至运行此应用的Spark节点中。生成Jar包的操作步骤请参见在Linux环境中调测Spark应用章节。 SparkLauncher程序的编译依赖包为spark-launcher_2.12-3.1.1-hw-ei-311001-SNAPSHOT
文件放置在样例工程的“kafka-examples\src\main\resources”目录下。 安装IntelliJ IDEA和JDK工具后,需要在IntelliJ IDEA配置JDK。 不同的IDEA版本的操作步骤可能存在差异,以实际版本的界面操作为准。 打开IntelliJ
执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证(普通模式跳过此步骤)。 kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server ZooKeeper角色实例所在节点业务IP: clientPort 执行以下命令,查看当前拓扑。 get
/opt/client source bigdata_env 执行以下命令进行用户认证。(普通模式跳过此步骤) kinit 组件业务用户 执行以下命令登录客户端工具。 zkCli.sh -server <任一ZooKeeper实例所在节点业务IP>:<clientPort> 执行以下命令删除无用数据。