检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
产生告警的磁盘名。 对系统的影响 磁盘慢盘故障,导致业务性能下降,阻塞业务的处理能力,严重时可能会导致服务不可用。 可能原因 磁盘老化或者磁盘坏道。 处理步骤 检查磁盘状态。 打开MRS集群详情页面,在实时告警列表中,单击此告警。在“告警详情”区域,获取告警所在主机信息和故障磁盘信息。 确认上报告警的节点是否为虚拟化环境。
集群中已安装ClickHouse、HDFS、Yarn、Flink和Kafka等服务。 客户端已安装,例如安装路径为:/opt/client。 创建作业步骤 使用root用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source
nodelabel -setLabelExpression命令。 Java API设置方式通过NodeLabelFileSystem实例化对象调用setLabelExpression(String src, String labelExpression)方法。src为HDFS上的
用于同步用户及用户组的内部用户。 rangertagsync 系统随机生成 用于同步标签的内部用户。 rangerobs/hadoop.<系统域名> 系统随机生成 Guardian访问ranger系统管理员用户。 jobserver 系统随机生成 JobGateway的系统管理员,用户权限: HDFS文件操作权限:
com.huaweicloud.sdk.mrs.v2.model.*; public class ShowSqlResultWithJobSolution { public static void main(String[] args) { // The
policy”,然后勾选“HTTP_ONLY”,单击“保存”,单击“确定”,重启HDFS服务。 “HTTP_ONLY”默认是勾选的。 操作步骤 登录FusionInsight Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。
全部配置”,搜索“ssl.enabled”,值为“true”,表示启用SSL通信加密,值为“false”表示关闭SSL通信加密。 添加HBase数据源步骤 获取HBase数据源的“hbase-site.xml”、“hdfs-site.xml”和“core-site.xml”配置文件。 登录H
policy”,然后勾选“HTTP_ONLY”,单击“保存”,单击“确定”,重启HDFS服务。 “HTTP_ONLY”默认是勾选的。 操作步骤 登录FusionInsight Manager页面,单击“集群 > 待操作集群的名称 > 服务”,选择“HDFS”,单击进入HDFS服务状态页面。
系统故障:慢盘故障可能会导致系统故障,从而导致客户的业务受到影响。如果慢盘上存储的数据包含关键信息,可能会导致系统崩溃或数据丢失。 可能原因 磁盘老化或者磁盘坏道。 处理步骤 检查磁盘状态。 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”。 查看该告警的详细信息,查看定位信息
表中单击对应操作列的“查看帮助”。然后参考对应告警帮助文档处理步骤进行处理。 Manager页面:登录Manager页面,选择“运维 > 告警 > 告警”,单击对应操作列的“查看帮助”。然后参考对应告警帮助文档处理步骤进行处理。 监控指标参考 FusionInsight Mana
请求处理。也可作为Leader的储备,当Leader故障时从Follower当中选举出Leader,避免出现单点故障。 观察者 观察者(Observer)不参与选举和写请求的投票,只负责处理读请求、并向Leader转发写请求,避免系统处理能力浪费。 离散流 Spark Strea
keystore、truststore相关配置文件,该目录是由用户自定义创建。 配置客户端访问keystore或truststore文件路径。 相对路径(推荐) 请执行如下步骤配置“flink.keystore”和“flink.truststore”文件路径为相对路径,并确保Flink客户端执行命令的目录可以直接访问该相对路径。
将编译后的jar包上传到客户端节点,例如上传到“/opt/client/lib”目录下。 如果本地网络无法直接连接客户端节点上传文件,可先将jar文件或者源数据上传至OBS文件系统中,然后通过MRS管理控制台集群内的“文件管理”页面导入HDFS中,再通过HDFS客户端使用hdfs dfs -get命令下载到客户端节点本地。
"statement" : "show tables", "status" : "FINISHED", "result_location" : "obs://my_bucket/uuid_date/xxxx.csv", "content" : [ [ "t1", null ], [ null
右键单击“ClickHouseApplication”,选择“Run ClickHouseApplication”运行应用程序工程。 操作步骤 在IDEA界面复制clickhouse-example.properties路径。右键clickhouse-example.properties文件,单击“Copy
该节点与主OMS节点NTP服务不能正常同步时间。 该节点NTP认证的key值与主OMS节点NTP服务的key值不一致。 该节点与主OMS节点NTP服务时间偏差太大。 处理步骤 检查该节点的NTP服务模式。 以root用户登录主管理节点,执行su - omm切换到omm用户,执行以下命令查看主备节点的资源状态。 sh
传到“/opt/client/sparkdemo”目录下。 如果本地网络无法直接连接客户端节点上传文件,可先将jar文件或者源数据上传至OBS文件系统中,然后通过MRS管理控制台集群内的“文件管理”页面导入HDFS中,再通过HDFS客户端使用hdfs dfs -get命令下载到客户端节点本地。
totalZeroCopyBytesRead : 0 进入debug模式(可选)。 make gdb 执行该命令之前需要安装GDB,安装步骤可参考安装GDB。 执行结果如下。 [root@10-120-85-2 hdfs-c-example]# make gdb gdb hdfs_test
hadoop.com”),否则HetuEngine无法根据主机名称连接到非本集群节点。 已创建HetuEngine计算实例。 添加Hive数据源步骤 获取Hive数据源集群的“hdfs-site.xml”和“core-site.xml”配置文件。 登录Hive数据源所在集群的FusionInsight
右键单击“ClickHouseApplication”,选择“Run ClickHouseApplication”运行应用程序工程。 操作步骤 在IDEA界面复制clickhouse-example.properties路径。右键clickhouse-example.properties文件,单击“Copy