检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
ake算子来实现底层的计算。 Take算子会以Partition为单位多次触发计算。 在该问题中,由于Shuffle操作,导致take算子默认有两个Partition,Spark首先计算第一个Partition,但由于没有数据输入,导致获取结果不足10个,从而触发第二次计算,因此
DL命令。为MapReduce提供读写接口,提供Hive命令行接口来进行数据定义和元数据查询。基于MRS的HCatalog功能,Hive、MapReduce开发人员能够共享元数据信息,避免中间转换和调整,能够提升数据处理的效率。 WebHCat WebHCat运行用户通过Rest
安装目标补丁。 安装补丁操作步骤和补丁实施的影响,具体请参考MRS集群补丁说明。 在弹窗口中勾选“我已经阅读《补丁说明》并了解此操作可能需要重启服务。”,单击“是”,等待补丁安装成功。 查看补丁状态,补丁安装完成后,按照补丁说明进行重启组件和安装客户端补丁等操作。 若集群中存在
Spark2x常见问题 Spark Core SQL和DataFrame Spark Streaming 访问Spark应用获取的restful接口信息有误 为什么从Yarn Web UI页面无法跳转到Spark Web UI界面 HistoryServer缓存的应用被回收,导致此类应用页面访问时出错
Ldap服务监听端口 21750 LDAP服务端口号。 重置LDAP账户密码 - LDAP用于数据管理、同步和状态检测的机机账户(cn=root,dc=hadoop,dc=com和cn=pg_search_dn,ou=Users,dc=hadoop,dc=com)。 如果被勾选,账户的密码会使用随机生成的新密码进行重置。
rd)的概念,这也是分布式存储的特点之一,即通过并行读写提高效率。 CPU架构为鲲鹏计算的ClickHouse集群表引擎不支持使用HDFS和Kafka。 查看ClickHouse服务cluster等环境参数信息 使用ClickHouse客户端连接到ClickHouse服务端,具体请参考使用ClickHouse客户端。
while (it.hasNext) { val c = it.next() // 判断cf和qualifile是否相同 if (columnFamily.equals(Bytes.toString(CellUtil
DL命令。为Mapreduce提供读写接口,提供Hive命令行接口来进行数据定义和元数据查询。基于MRS的HCatalog功能,Hive、Mapreduce开发人员能够共享元数据信息,避免中间转换和调整,能够提升数据处理的效率。 WebHCat WebHCat运行用户通过Rest
前提条件 已准备业务数据。 已创建分析集群。 操作步骤 将业务数据上传到用户的OBS文件系统。 获取用户的AK/SK信息,然后创建一个OBS连接和一个HDFS连接。 具体可参见Loader连接配置说明。 访问Loader页面。 如果是启用了Kerberos认证的分析集群,可参见访问Hue
while (it.hasNext()) { Cell c = it.next(); // 判断cf和qualifile是否相同 if (columnFamily.equals(Bytes.toString(CellUtil
job.setReducerClass(MultiComponentReducer.class); // 配置数据输入路径和输出路径 FileInputFormat.addInputPath(job, new Path(baseDir, INPUT_DIR_NAME
对接OBS场景中,spark-beeline登录后指定loaction到OBS建表失败 问题 对接OBS ECS/BMS集群,spark-beeline登录后,指定location到OBS建表报错失败。 图1 错误信息 回答 HDFS上ssl.jceks文件权限不足,导致建表失败。
job.setReducerClass(MultiComponentReducer.class); // 配置数据输入路径和输出路径 FileInputFormat.addInputPath(job, new Path(baseDir, INPUT_DIR_NAME
入“配置实例”页签。 增大计算实例中单个Worker的内存大小 增大单个计算实例配置中的“Worker容器资源配置”的“容器内存(MB)”和“JVM”的“-Xmx”的值。 控制单个查询在单个Worker的内存使用大小 在“自定义配置”中单击“增加”,添加2个同名参数“query.
DBC Server等部分。Streaming应用会多一个Streaming标签页。 History Server页面,用于展示已经完成的和未完成的Spark应用的运行情况。 页面包括了应用ID、应用名称、开始时间、结束时间、执行时间、所属用户等信息。 Spark UI 进入组件管理页面:
在FusionInsight Manager的“告警”页面,查看是否有“NodeAgent进程异常”告警产生。 是,执行3。 否,执行6。 查看告警信息里的主机名是否和1主机名一致。 是,执行4。 否,执行6。 参考ALM-12006 NodeAgent进程异常文档步骤处理该告警。 在告警列表中查看“Job
onData。 创建CarbonData Table 连接到CarbonData之后,需要创建CarbonData table用于加载数据和执行查询操作。 加载数据到CarbonData Table 创建CarbonData table之后,可以从CSV文件加载数据到所创建的table中。
可能原因 该告警产生原因可能是执行恢复任务前组件状态不满足要求或执行恢复任务中某个步骤出错,执行恢复任务中出错依赖于该任务的详细情况,可以获取日志和任务详情来处理该告警。 处理步骤 查看组件状态 在FusionInsight Manager管理界面,选择“集群 > 待操作集群的名称 >
载补丁过程中,服务的部分业务不中断。 MRS 3.x版本暂不支持在管理控制台执行本章节操作。 当前MRS集群中,服务和实例是否支持滚动重启如表1所示。 表1 服务和实例是否支持滚动重启 服务 实例 是否支持滚动重启 Alluxio AlluxioJobMaster 是 AlluxioMaster
实例”,查看所有IoTDBServer实例和ConfigNode实例所在的主机。 选择“运维 > 日志 > 下载”。 在“服务”中勾选操作集群的“IoTDB”,单击“确定”。 在“主机”勾选7查看到的主机,单击“确定”。 单击右上角的设置日志收集的“开始时间”和“结束时间”分别为告警产生时间的前后30分钟,单击“下载”。