检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
JDK。 若使用IBM JDK,请确保Eclipse或者IntelliJ IDEA中的JDK配置为IBM JDK。 若使用Oracle JDK,请确保Eclipse或者IntelliJ IDEA中的JDK配置为Oracle JDK。 不同的Eclipse不要使用相同的workspace和相同路径下的示例工程。
当MapReduce shuffle服务启动时,它尝试基于localhost绑定IP。如果需要MapReduce shuffle服务连接特定IP,可以参考该章节进行配置。 配置描述 当需要MapReduce shuffle服务绑定特定IP时,需要在NodeManager实例所在节点的配置文件“mapred-site
connect=<ZooKeeper集群IP:2181/kafka > --add --allow-principal User:<用户名> --producer --topic <Topic名称> shkafka-acls.sh --bootstrap-server <Kafka集群IP:21007> --command-config
connect=<ZooKeeper集群IP:2181/kafka > --add --allow-principal User:<用户名> --producer --topic <Topic名称> shkafka-acls.sh --bootstrap-server <Kafka集群IP:21007> --command-config
/proc/sys/net/ipv4/ip_local_port_range命令查看随机端口范围。 发现随机端口范围过大,和MRS的服务端口范围存在冲突。 MRS的服务端口范围:20000~30000。 处理步骤 修改随机端口范围。 vi /proc/sys/net/ipv4/ip_local_port_range
/bin/spark-sql --conf spark.yarn.principal=MRSTest --conf spark.yarn.keytab=/opt/user.keytab -f /opt/script.sql spark.yarn.principal:提交作业的用户名。 spark.yarn.
connect=<ZooKeeper集群IP:2181/kafka > --add --allow-principal User:<用户名> --producer --topic <Topic名称> bin/kafka-acls.sh --bootstrap-server <Kafka集群IP:21007>
connect=<ZooKeeper集群IP:2181/kafka > --add --allow-principal User:<用户名> --producer --topic <Topic名称> bin/kafka-acls.sh --bootstrap-server <Kafka集群IP:21007>
HiveSql作业用于提交Hive SQL语句和SQL脚本文件查询和分析数据,包括SQL语句和Script脚本两种形式,如果SQL语句中涉及敏感信息,也可使用脚本文件方式提交。 用户可以在MRS管理控制台在线创建一个作业并提交运行,也可以通过MRS集群客户端来以命令行形式提交作业。 前提条件
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
MRS集群内节点支持更换网段。 在集群详情页“默认生效子网”右侧单击“切换子网”。 选择当前集群所在VPC下的其他子网,即可实现可用子网IP的扩充。 新增子网不会影响当前已有节点的IP地址和子网。 父主题: 产品咨询类
采用http(s)://<spark ip>:<spark port>的方式直接访问Spark JobHistory页面时,如果当前跳转的Spark JobHistory页面不是FusionInsight代理的页面(FusionInsight代理的URL地址类似于:https://<oms ip>:2002
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
--zookeeper quorumpeer实例IP地址:ZooKeeper客户端连接端口/kafka --replication-factor 1 --partitions 1 --topic Topic名称 quorumpeer实例IP地址可登录集群的FusionInsight Manager界面,在“集群
runlog:“/var/log/Bigdata/loader/runlog”(运行日志) scriptlog:“/var/log/Bigdata/loader/scriptlog/”(脚本的执行日志) catalina:“/var/log/Bigdata/loader/ca
采用http(s)://<spark ip>:<spark port>的方式直接访问Spark JobHistory页面时,如果当前跳转的Spark JobHistory页面不是FusionInsight代理的页面(FusionInsight代理的URL地址类似于:https://<oms ip>:2002
runlog:“/var/log/Bigdata/loader/runlog”(运行日志) scriptlog:“/var/log/Bigdata/loader/scriptlog/”(脚本的执行日志) catalina:“/var/log/Bigdata/loader/ca
为本机IP。 该问题容易出现在从其他节点直接复制客户端时,配置参数未修改。 需修改SPARK_LOCAL_HOSTNAME为本机IP。 注:如果集群使用EIP通信,则需要设置以下参数。 spark-default.conf中添加spark.driver.host = EIP(客户端节点弹性公网IP)
客户端机器的时间与Hadoop集群的时间要保持一致(手动修改客户端机器或者集群的时间),时间差小于5分钟。 MRS集群的时间可通过登录主管理节点(集群管理IP地址所在节点)运行date命令查询。 下载MapReduce客户端程序到客户端机器中。 登录MRS Manager系统。 选择“服务管理 >