检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
选择集群所建的区域及使用的云资源规格,一键式购买适合企业业务的MRS集群。MRS服务会根据用户选择的集群类型、版本和节点规格,帮助客户自动完成华为云企业级大数据平台的安装部署和参数调优。 MRS服务为客户提供完全可控的大数据集群,客户在创建时可设置虚拟机的登录方式(密码或者密钥对
RocksDB的写压力较大。 处理步骤 在TaskManager日志检查是否RocksDB的写压力较大并收集日志 使用具有FlinkServer管理操作权限的用户登录FusionInsight Manager。 选择“运维 > 告警 > 告警 > ALM-45643 RocksD
大。 处理步骤 在TaskManager日志检查是否RocksDB的Compaction预估数据量过大并收集日志 使用具有FlinkServer管理操作权限的用户登录FusionInsight Manager。 选择“运维 > 告警 > 告警 > ALM-45647 RocksDB的Pending
是,执行17。 否,执行18。 磁盘不支持smart,通常是因为配置的RAID卡不支持,此时需要使用对应RAID卡厂商的检查工具进行处理,然后执行17。 例如LSI一般是MegaCLI工具。 在FusionInsight Manager界面,选择“运维 > 告警 > 告警”,单击该
HCatalog访问Hive样例程序 功能介绍 本章节介绍如何在MapReduce任务中使用HCatalog分析Hive表数据,读取输入表第一列int类型数据执行count(distinct XX)操作,将结果写入输出表。 样例代码 该样例程序在“hive-examples/hc
是,表示系统负载过高,执行3。 否,执行8。 以omm用户登录产生告警的主机节点。 执行top命令查看“%Cpu(s)”的us值是否大于80。 是:表示用户进程占用CPU过高,记录CPU占用高的进程PID,执行5。 否:执行6。 执行以下命令获取CPU使用高的进程名称,根据名称查询对应进程日志(日
HColumnDescriptor("info"), "age", ValueType.String); 相关操作 使用命令创建索引表。 您还可以通过TableIndexer工具在已有用户表中创建索引。 <table_name>用户表必须存在。 hbase org.apache.hadoop
HColumnDescriptor("info"), "age", ValueType.String); 相关操作 使用命令创建索引表。 您还可以通过TableIndexer工具在已有用户表中创建索引。 <table_name>用户表必须存在。 hbase org.apache.hadoop
查询HBase二级索引列表 功能介绍 您可以使用org.apache.hadoop.hbase.hindex.client.HIndexAdmin中提供的方法来管理HIndexes。 该类提供了列出表的现有索引的方法。 HIndexAdmin为给定表格列出索引提供以下API: listIndices():
HCatalog访问Hive样例程序 功能介绍 本章节介绍如何在MapReduce任务中使用HCatalog分析Hive表数据,读取输入表第一列int类型数据执行count(distinct XX)操作,将结果写入输出表。 样例代码 该样例程序在“hive-examples/hc
HCatalog访问Hive样例程序 功能介绍 本章节介绍如何在MapReduce任务中使用HCatalog分析Hive表数据,读取输入表第一列int类型数据执行count(distinct XX)操作,将结果写入输出表。 样例代码 该样例程序在“hive-examples/hc
HCatalog访问Hive样例程序 功能介绍 本章节介绍如何在MapReduce任务中使用HCatalog分析Hive表数据,读取输入表第一列int类型数据执行count(distinct XX)操作,将结果写入输出表。 样例代码 该样例程序在“hive-examples/hc
产生告警的角色名称。 主机名 产生告警的主机名。 对系统的影响 CDL服务异常,无法通过FusionInsight Manager对CDL进行集群操作,无法使用CDL服务功能。 可能原因 CDL服务的全部CDLService实例或CDLConnector实例状态异常,Kafka服务不可用。 处理步骤
read_write_kafka() 表1 使用Python提交普通作业参数说明 参数 说明 示例 bootstrap.servers Kafka的Broker实例业务IP和端口。 192.168.12.25:21005 specific_jars “客户端安装目录/Flink/flink/
告警”页面,查看该告警的“定位信息”和“附加信息”,获取该告警上报的故障磁盘位置信息。 以root用户登录上报告警的节点,用户密码为安装前用户自定义,请咨询系统管理员,进入故障磁盘所在目录,使用ll命令查看该故障磁盘的权限是否711,用户是否为omm。 是,执行7 否,执行6。 修改故障
可能原因 JAVA_HOME目录不存在或JAVA权限异常。 Flume Agent目录权限异常。 处理步骤 检查Flume Agent配置文件。 登录故障节点IP所在主机,执行以下命令切换root用户。 sudo su - root 执行cd Flume安装目录/fusioninsight-flume-1
将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下: DataStream<String> stream = env
将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下: DataStream<String> stream = env
由于kafka配置的限制,导致Spark Streaming应用运行失败 问题 使用运行的Spark Streaming任务回写kafka时,kafka上接收不到回写的数据,且kafka日志报错信息如下: 2016-03-02 17:46:19,017 | INFO | [kaf
将快照的元数据(meta-data)写入到一个额外的持久化文件系统中。 如果需要使用savepoints的功能,强烈推荐用户为每个算子通过uid(String)分配一个固定的ID,以便将来升级恢复使用,示例代码如下: DataStream<String> stream = env