检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
进入Linux客户端目录,运行如下命令导入公共环境变量。 cd /opt/client source bigdata_env 在该目录下用hdfs用户进行命令行认证。 kinit hdfs kinit一次票据时效24小时。24小时后再次运行样例,需要重新执行kinit命令。 进入“/opt/clien
例如,Spark2x客户端安装目录为“/opt/client”,执行source /opt/client/bigdata_env 执行以下命令认证用户。 kinit Spark2x业务用户 执行以下命令登录客户端工具。 spark-beeline 执行以下命令更新用户的管理员权限。 set
例如,Hive客户端安装目录为“/opt/hiveclient”,执行source /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新用户的管理员权限。 set role admin;
例如,Spark2x客户端安装目录为“/opt/client”,执行source /opt/client/bigdata_env 执行以下命令认证用户。 kinit Spark2x业务用户 执行以下命令登录客户端工具。 spark-beeline 执行以下命令更新用户的管理员权限。 set
例如,Hive客户端安装目录为“/opt/hiveclient”,执行source /opt/hiveclient/bigdata_env 执行以下命令认证用户。 kinit Hive业务用户 执行以下命令登录客户端工具。 beeline 执行以下命令更新用户的管理员权限。 set role admin;
3000 120000 否 max_server_memory_usage_to_ram_ratio ClickHosueServer默认可使用的系统最大内存比例,小数表示,如0.9表示系统内存的90%。配置不合理可能出现节点OOM导致业务受损。 0.8 4u16G:0.6 8u32G:0
taskmanager.network.netty.sendReceiveBufferSize: 0 # netty的传输方式,默认方式会根据运行的平台选择合适的方式 taskmanager.network.netty.transport:auto 内存总体调优 Flink内部对内存进行了
据,且历史数据需要同步到备集群? 是,存在表且需要同步数据,以HBase表用户登录安装主集群HBase客户端的节点,并执行kinit用户名认证身份。该用户需要拥有表的读写权限,以及“hbase:meta”表的执行权限。然后执行19。 否,不需要同步数据,任务结束。 配置HBase
当集群中某个节点的标签数量达到上限时,集群将不能再添加标签。 启用默认标签会为集群和每个节点添加默认标签,并自动占用2个标签配额(即系统默认可以添加20个标签,此时还可以添加18个标签)。 如您的组织已经设定MapReduce服务的相关标签策略,则需按照标签策略规则为集群/节点添
partitionpath.field分区字段保持一致。 hoodie.datasource.write.keygenerator.class 默认可以配置为org.apache.hudi.keygen.SimpleKeyGenerator 和org.apache.hudi.keygen
partitionpath.field分区字段保持一致。 hoodie.datasource.write.keygenerator.class 默认可以配置为org.apache.hudi.keygen.SimpleKeyGenerator和org.apache.hudi.keygen.
Stage 每个Job由多个Stage组成,每个Stage是一个Task集合,由DAG分割而成。 Task 承载业务逻辑的运算单元,是Spark平台上可执行的最小工作单元。一个应用根据执行计划以及计算量分为多个Task。 Spark应用运行原理 Spark的应用运行架构如图 Spark应用运行架构所示,运行流程如下所示:
of AvailableZoneV2 objects 参数解释: 可用区列表。 default_az_code String 参数解释: 默认可用区编码。 取值范围: 不涉及。 support_physical_az_group Boolean 参数解释: 支持的物理可用区分组。 取值范围:
举例。 进入客户端安装目录/opt/client,执行下列命令初始化环境变量。 source bigdata_env 执行下列命令进行用户认证,这里以hdfs为例,用户可根据实际用户名修改(普通集群请跳过此步操作)。 kinit hdfs kinit一次的时效24小时。24小时后再次运行样例,需要重新执行kinit。
请勿单独启停Kerberos/LDAP等基础组件,启停基础组件请勾选关联服务。 Kafka 删除Topic 该操作将会删除已有的主题和数据。 采用Kerberos认证,保证合法用户具有操作权限,并确保主题名称正确。 删除Kafka数据目录 该操作将会导致业务信息丢失。 请勿手动删除数据目录。 修改数据目录下内容(创建文件、文件夹)
参数解释: MRS集群运行模式。 约束限制: 不涉及 取值范围: 0:普通集群,表示Kerberos认证关闭,用户可使用集群提供的所有功能。 1:安全集群,表示Kerberos认证开启,普通用户无权限使用MRS集群的“文件管理”和“作业管理”功能,并且无法查看Hadoop、Spa
MRS集群运行模式。 约束限制: 不涉及 取值范围: SIMPLE:普通集群,表示Kerberos认证关闭,用户可使用集群提供的所有功能。 KERBEROS:安全集群,表示Kerberos认证开启,普通用户无权限使用MRS集群的“文件管理”和“作业管理”功能,并且无法查看Hadoop、