检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
该配置指定了表上并发操作过程中所要求的锁的类型。 有以下几种类型锁实现方式: LOCALLOCK:基于本地文件系统的文件来创建的锁。该锁只适用于一台机器上只运行一个Spark Driver(或者JDBCServer)的情况。 HDFSLOCK:基于HDFS文件系统上的文件来创建的锁。该锁适用于集群
中存放多版本的Hadoop,并通过配置“mapred-site.xml”文件指定任务默认使用的版本。只需设置适当的配置属性,用户就可以运行不同版本的MapReduce,而无需使用部署在集群中的版本。 图1 具有多个版本NodeManagers及Applications的集群 在图
在Linux环境中编包并运行Spark程序 操作场景 在程序代码完成开发后,您可以上传至Linux客户端环境中运行应用。使用Scala或Java语言开发的应用程序在Spark客户端的运行步骤是一样的。 使用Python开发的Spark应用程序无需打包成jar,只需将样例工程复制到编译机器上即可。
针对MRS 3.x之前版本的集群,需要先确认当前MRS集群节点的CPU架构。针对MRS 3.x之前版本的集群,该弹性云服务器的CPU架构请和MRS集群节点保持一致,MRS 3.x及之后版本MRS客户端兼容两种CPU架构。 已准备一个弹性云服务器,主机操作系统及版本请参见表1。 表1 参考列表
修改MRS集群组件数据库用户密码 该任务指导用户定期修改组件数据库用户的密码,以提升系统运维安全性。 对系统的影响 修改密码需要重启服务,服务在重启时无法访问。 修改MRS集群组件数据库用户密码(MRS 3.1.0版本) 该操作仅适用于MRS 3.1.0版本,MRS 3.1.0之后版本请参考重置MRS集群组件数据库用户密码章节。
下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。 在“Project St
下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。 在“Project St
db_name 数据库名。若未指定,则选择当前数据库。 indextable_name 索引表名。 maintable_name 主表名。 注意事项 在执行此命令之前,使用REFRESH TABLE将主表和二级所索引表都注册到Hive元数据中。 示例 create database productdb;
本章节适用于MRS 3.5.0及以后版本。 使用场景 通过CompiledPlan提交的作业,算子的并行度、算子的TTL都以CompiledPlan中的值为准,而不是“flink-conf.yaml”中的值。FlinkSQL支持通过修改作业的CompiledPlan来设置算子并行度。
出数据的大小。 如果设置的作业需要使用指定YARN队列功能,该用户需要已授权有相关YARN队列的权限。 设置任务的用户需要获取该任务的执行权限,并获取该任务对应的连接的使用权限。 操作前需要进行如下配置: 获取关系型数据库对应的驱动jar包保存在Loader服务主备节点的lib路
如何处理非static的KafkaPartitioner类对象构造FlinkKafkaProducer010运行时报错 问题 Flink内核升级到1.3.0之后,当Kafka调用带有非static的KafkaPartitioner类对象为参数的FlinkKafkaProducer010去构造函数时,运行时会报错。
下页面,单击“+”,添加本地的依赖包。 图1 添加依赖包 单击“Apply”加载依赖包,然后单击“OK”完成配置。 由于运行环境不存在用户自定义的依赖包,您还需要在编包时添加此依赖包。以便生成的jar包已包含自定义的依赖包,确保Spark程序能正常运行。 在“Project St
(车牌号1,车牌号3),(通过的第1个收费站,通过的第2个收费站) 根据通过相同收费站的两辆车的车牌号聚合数据,如下: (车牌号1,车牌号2),[(通过的第1个收费站,通过的第5个收费站),(通过的第2个收费站,通过的第6个收费站),(通过的第1个收费站,通过的第7个收费站),(通过的第3个收费站,通过的第8个收费站)]
运行Spark任务发现大量shuffle结果丢失 问题现象 Spark任务运行失败,查看任务日志发现大量打印shuffle文件丢失。 原因分析 Spark运行的时候会将临时产生的shuffle文件放在executor的临时目录中,方便后面获取。 而当某个executor异常退出时
显示所有当前用户创建的连接,不支持显示其他用户创建的连接。 如果集群未启用Kerberos认证,则显示集群中全部的Loader连接。 在“Sqoop连接”中输入指定连接的名称,可以筛选该连接。 编辑连接 在Loader页面,单击“管理连接”。 单击指定连接的名称,进入编辑页面。 根据业务需要,修改连接配置参数。
中存放多版本的Hadoop,并通过配置“mapred-site.xml”文件指定任务默认使用的版本。只需设置适当的配置属性,用户就可以运行不同版本的MapReduce,而无需使用部署在集群中的版本。 图1 具有多个版本NodeManagers及Applications的集群 在图
JDK,请确保IntelliJ IDEA中的JDK配置为Open JDK。 不同的IntelliJ IDEA不要使用相同的workspace和相同路径下的示例工程。 安装Maven 开发环境基本配置,用于项目管理,贯穿软件开发生命周期。 安装JDK 开发和运行环境的基本配置。版本要求如下: 服务端和客
JDK,请确保IntelliJ IDEA中的JDK配置为Open JDK。 不同的IntelliJ IDEA不要使用相同的workspace和相同路径下的示例工程。 安装Maven 开发环境基本配置。用于项目管理,贯穿软件开发生命周期。 安装JDK 开发和运行环境的基本配置,版本要求如下: 服务端和客
WebUI】集群未安装Hive服务时Hue原生页面无法正常显示 用户问题 集群没有安装Hive服务时,Hue服务原生页面显示空白。 原因分析 MRS 3.x版本存在Hue依赖Hive组件。 处理步骤 如果出现此情况,首先需要检查当前集群是否安装了Hive组件,如果没有,需要安装Hive。 父主题: 访问MRS组件Web
CREATE DATABASE创建数据库 本章节主要介绍ClickHouse创建数据库的SQL基本语法和使用说明。 基本语法 CREATE DATABASE [IF NOT EXISTS] database_name [ON CLUSTER ClickHouse集群名] ON CLUSTER