检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
该服务中所有角色实例正常运行。 故障 至少一个角色实例运行状态为“故障”或被依赖的服务状态不正常。 服务的运行状态为“故障”,会触发告警,请根据告警信息处理。 未知 该服务中所有角色实例状态为“未知”。 正在恢复 后台系统正在尝试自动启动服务。 亚健康 该服务所依赖的服务状态不正常,异常服务的
cluster_name,这样建表语句在某一个ClickHouse实例上执行一次即可分发到集群中所有实例上执行。 分布式表通常以本地表加“_all”命名。它与本地表形成一对多的映射关系,之后可以通过分布式表代理操作多张本地表。 分布式表的表结构尽量和本地表的结构一致。如果不一致,在建表时不会报错,但在查询或者插入时可能会发生异常。
cluster_name,这样建表语句在某一个ClickHouse实例上执行一次即可分发到集群中所有实例上执行。 分布式表通常以本地表加“_all”命名。它与本地表形成一对多的映射关系,之后可以通过分布式表代理操作多张本地表。 分布式表的表结构尽量和本地表的结构一致。如果不一致,在建表时不会报错,但在查询或者插入时可能会发生异常。
HDFS文件系统中缺少副本块数量。 0 需要复制副本的块总数 NameNode需要复制副本的块总数。 1000 RPC 主NameNode RPC处理平均时间 NameNode RPC处理平均时间。 100ms 主NameNode RPC队列平均时间 NameNode RPC队列平均时间。 200ms 磁盘
/genPwFile.sh cat password.property 若产生以下错误提示,可执行命令export JAVA_HOME=JDK路径进行处理。 JAVA_HOME is null in current user,please install the JDK and set the
使用HBase客户端创建表操作案例可参考使用HBase客户端创建表,该视频以关闭Kerberos认证的MRS 3.1.0版本集群为例,介绍MRS集群创建成功后,如何使用HBase客户端创建表,往表中插入数据及修改表数据等操作。 因不同版本操作界面可能存在差异,相关视频供参考,具体以实际环境为准。 步骤一:创建MRS集群
登录Manager,选择“集群 > 服务 > Flink”,在“Flink WebUI”右侧,单击链接,访问Flink的WebUI。 参考如何创建FlinkServer作业,新建Flink SQL作业,作业类型选择“流作业”。在作业开发界面进行如下作业配置,并启动作业。需勾选“基
timestamp=2021-05-14T15:28:56.755, value=City7 ... 数据导入集群后,就可以继续基于大数据平台上层应用对数据进行分析处理了。 父主题: 数据迁移
角色创建完成后,可参考创建HetuEngine权限角色创建HetuEngine用户,并为其赋予相关角色权限。 SQL语句在HetuEngine中进行处理对应的权限要求如表5所示。 表5 使用HetuEngine表、列或数据 操作场景 用户需要的权限 DESCRIBE TABLE 查询(Select)
Flume > Flume管理”查看对应节点上客户端的名称。 如果产生以下错误提示,可执行命令export JAVA_HOME=JDK路径进行处理。可使用echo $JAVA_HOME查找JDK路径。 JAVA_HOME is null in current user,please install
用于注册sql解析器。 org.apache.spark.sql.hbase.HBaseSQLParser spark.shuffle.manager 处理数据的方式。有两种实现方式可用:sort和hash。sort shuffle对内存的使用率更高,是Spark 1.2及后续版本的默认选项。
Infinity (1 row) --删除表 DROP TABLE float_t1; 当小数部分为0时,可以通过cast()转为对应范围的整数处理,小数部分会四舍五入。 示例: select CAST(1000.0001 as INT); _col0 ------- 1000 (1 row)
用于注册sql解析器。 org.apache.spark.sql.hbase.HBaseSQLParser spark.shuffle.manager 处理数据的方式。有两种实现方式可用:sort和hash。sort shuffle对内存的使用率更高,是Spark 1.2及后续版本的默认选项。Spark2
DistCp完成操作。主备集群请选择安装相同版本的MRS软件版本并安装集群系统。 DistCp使用Mapreduce来影响数据的分布、异常处理及恢复和报告,此工具会把指定列表中包含的多个源文件和目录输入不同的Map任务,每个Map任务将复制列表中指定文件对应分区的数据。 使用Di
实例。 MRS 3.x及之后版本,配置跨集群互信后,各个集群都需要重新下载并安装客户端。 配置跨集群互信后,验证配置后是否可以正常工作,且如何使用本系统用户访问对端系统资源,请参见配置互信MRS集群的用户权限。 前提条件 系统管理员已明确业务需求,并规划好不同系统的域名。域名只能包含大写字母、数字、圆点(
brokers格式为brokerIp:9092。 <checkPointDir>指应用程序结果备份到HDFS的路径,<batchTime>指Streaming分批的处理间隔。 Spark Streaming Write To Kafka代码样例 bin/spark-submit --master yarn
本功能主要通过在TRSP中添加attach region的方式,利用一个TRSP将一个RegionServer所有的Region进行恢复处理,RegionServer也将进行Region的批量open/close并一次性全部上报给HMaster。 该特性只支持将Region恢复
file文件格式。 BINARY_FILE:以二进制流的方式导入文件,可以导入任何格式的文件。 文件分割方式 选择按FILE文件或SIZE大小分割源文件成多份,作为数据导出的MapReduce任务中各个map的输入文件。 Map数 配置数据操作的MapReduce任务中同时启动的map数量。不可
file文件格式。 BINARY_FILE:以二进制流的方式导入文件,可以导入任何格式的文件。 文件分割方式 选择按FILE文件或SIZE大小分割源文件成多份,作为数据导出的MapReduce任务中各个map的输入文件。 Map数 配置数据操作的MapReduce任务中同时启动的map数量。不可
支持人员征得您同意后会请您提供密码,登录MRS集群进行问题排查。 集群处于异常状态时,MRS仍然会收取集群费用。建议您及时联系技术支持人员处理集群异常。 MRS集群运行限制 表2 MRS集群运行约束说明 限制项 说明 节点管理 当MRS集群中某一个Master节点关闭后,如果仍然