检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
连接Spark集群,创建RDD,累积量和广播量等。它的作用相当于一个容器。 SparkConf:Spark应用配置类,如设置应用名称,执行模式,executor内存等。 JavaRDD:用于在java应用中定义JavaRDD的类,功能类似于scala中的RDD(Resilient
配置Windows通过EIP访问普通模式集群Kafka 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Kafka文件的方法,方便用户可以在本地对样例文件进行编译。 操作步骤 为集群的每个节点申请弹性公网IP,并将本地Windows的hosts文件添加所有节点的公网IP对应
Spark应用名在使用yarn-cluster模式提交时不生效 问题 Spark应用名在使用yarn-cluster模式提交时不生效,在使用yarn-client模式提交时生效,如图1所示,第一个应用是使用yarn-client模式提交的,正确显示代码里设置的应用名Spark P
Spark应用名在使用yarn-cluster模式提交时不生效 问题 Spark应用名在使用yarn-cluster模式提交时不生效,在使用yarn-client模式提交时生效,如图1所示,第一个应用是使用yarn-client模式提交的,正确显示代码里设置的应用名Spark P
请用户根据实际情况修改。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 集群认证模式是否为安全模式。 是,执行以下命令进行用户认证,然后执行5。 kinit Hive业务用户 否,执行5。 执行以下命令登录Hive客户端。 beeline
配置Windows通过EIP访问普通模式集群Hive 操作场景 该章节通过指导用户配置集群绑定EIP,并配置Hive文件的方法,方便用户可以在本地对样例文件进行编译。 本章节以运行hive-jdbc-example样例为例进行说明。 操作步骤 为集群的每个节点申请弹性公网IP,并
ClickHouse开发指南(普通模式) ClickHouse应用开发简介 ClickHouse应用开发流程介绍 准备ClickHouse应用开发环境 开发ClickHouse应用 调测ClickHouse应用
IoTDB开发指南(普通模式) IoTDB应用开发简介 IoTDB应用开发流程介绍 准备IoTDB应用开发环境 开发IoTDB应用 调测IoTDB应用 IoTDB Java API接口介绍
IoTDB开发指南(安全模式) IoTDB应用开发简介 IoTDB应用开发流程介绍 准备IoTDB应用开发环境 开发IoTDB应用 调测IoTDB应用 IoTDB Java API接口介绍
配置Windows通过EIP访问普通模式集群HBase 操作场景 该章节通过指导用户配置集群绑定EIP,并配置HBase文件的方法,方便用户可以在本地对样例文件进行编译。 本章节以运行hbase-example中的样例为例进行说明。 操作步骤 为集群的每个节点申请弹性公网IP,并
ClickHouse开发指南(安全模式) ClickHouse应用开发简介 ClickHouse应用开发流程介绍 准备ClickHouse应用开发环境 开发ClickHouse应用 调测ClickHouse应用
开启MRS集群维护模式 登录FusionInsight Manager。 配置维护模式。 根据实际操作场景,确认需要配置维护模式的对象,参考表1进行操作。 表1 切换维护模式 场景 步骤 配置集群进入维护模式 在管理界面主页,选择“/更多 > 进入维护模式”。 在弹出的窗口中单击“确定”。
ClickHouse开发指南(普通模式) ClickHouse应用开发简介 准备ClickHouse应用开发环境 开发ClickHouse应用 调测ClickHouse应用
ClickHouse开发指南(安全模式) ClickHouse应用开发简介 准备ClickHouse应用开发环境 开发ClickHouse应用 调测ClickHouse应用
取密码)。 执行以下命令进入hbase shell,查看目前负载均衡功能是否打开: hbase shell balancer_enabled 是,执行6。 否,执行5。 在hbase shell,中执行命令打开负载均衡功能,并执行命令查看确认成功打开: balance_switch
配置多主实例与多租户模式切换 配置场景 在使用集群中,如果需要在多主实例模式与多租户模式之间切换,则还需要进行如下参数的设置。 多租户切换成多主实例模式 修改Spark2x服务的以下参数: spark.thriftserver.proxy.enabled=false spark.scheduler
未启用Kerberos认证(普通模式)请跳过该操作) 执行以下命令打开HBase负载均衡功能,并确认是否成功打开。 hbase shell balance_switch true balancer_enabled 执行结果为“true”表示负载均衡功能已打开。 执行balancer命令手动触发负载均衡。
认证(普通模式)请跳过该操作) 执行以下命令打开负载均衡功能,并查看是否成功打开。 hbase shell balance_switch true balancer_enabled 执行结果为“true”表示负载均衡功能已打开。 执行balancer命令手动触发负载均衡。 建议打
ntpdate修改时间导致HDFS出现大量丢块 问题背景与现象 用ntpdate修改了集群时间,修改时未停止集群,修改后HDFS进入安全模式,无法启动。 退出安全模式后启动,hfck检查丢了大概1 TB数据。 原因分析 查看NameNode原生页面发现有大量的块丢失。 图1 块丢失 查看原生页面Datanode
配置多主实例与多租户模式切换 配置场景 在使用集群中,如果需要在多主实例模式与多租户模式之间切换,则还需要进行如下参数的设置。 多租户切换成多主实例模式 修改Spark2x服务的以下参数: spark.thriftserver.proxy.enabled=false spark.scheduler