检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
found”参数为“true”,重启Kafka服务。 采用具有权限用户登录。 例如: kinit test_user 或者赋予用户相关权限。 需要使用Kafka管理员用户(属于kafkaadmin组)操作。 例如: kafka-acls.sh --authorizer-properties
MultiComponentLocalRunner.main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce.admin
WARN表示当前事件处理存在异常信息。 INFO INFO表示记录系统及各事件正常运行状态信息。 DEBUG DEBUG表示记录系统及系统的调试信息。 如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Storm的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。
Connection connection = null; try { // 获取JDBC连接 // 第二个参数需要填写正确的用户名,否则会以匿名用户(anonymous)登录 connection = DriverManager.getConnection(url
DATABASE CREATE DATABASE dbname [LOCATION "hdfs_path"] 如果指定了HDFS路径hdfs_path,需要是路径hdfs_path的所有者和具有RWX权限。 DROP DATABASE dbname 拥有数据库dbname的所有权。 ALTER
found”参数为“true”,重启Kafka服务。 采用具有权限用户登录。 例如: kinit test_user 或者赋予用户相关权限。 需要使用Kafka管理员用户(属于kafkaadmin组)操作。 例如: kafka-acls.sh --authorizer-properties
表的分桶列为等值的Join条件时,很大概率会被规划为Bucket Shuffle Join。 左表的分桶列的类型与右表等值Join列的类型需要保持一致。 Bucket Shuffle Join功能只生效于等值Join的场景。 Bucket Shuffle Join功能只能在左表为单分区时生效。
MultiComponentLocalRunner.main()”运行应用工程。 如果集群开启了ZooKeeper SSL,则运行该样例前,需要检查配置文件mapred-site.xml(准备运行环境中样例工程的“conf”配置文件目录中获取)的配置项“mapreduce.admin
Executor退出时执行自定义代码 配置Spark动态脱敏 distinct聚合优化 配置Spark作业失败时清理残留文件 配置Spark加载第三方jar包,用于注册UDF或者扩展SparkSQL 父主题: 使用Spark/Spark2x
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
复制解压目录下的“hosts”文件中的内容到本地hosts文件中,确保本地机器能与解压目录下“hosts”文件中所列出的各主机在网络上互通。 在本实践中,需要确保本地环境与MRS集群所在网络平面互通,通常可以通过绑定EIP的方式访问MRS集群,具体操作请参考配置Windows通过EIP访问集群Hive。
application队列名称。 user String 提交application的用户名称。 resource_request object 当前所需要的资源,包括vcores、内存等。 resource_inuse object 当前所使用的资源,包括vcores、内存等。 resource_reserved
kafka_row_delimiter 每个消息体(记录)之间的分隔符。 kafka_handle_error_mode 设置为stream,会把每条消息处理的异常打印出来。需要创建视图,通过视图查询异常数据的具体处理异常。 创建视图语句,示例如下: CREATE MATERIALIZED VIEW default
且目标集群和源集群都开启了Kerberos认证,需配置跨集群互信。 如果使用Import/Export命令导入导出其他用户创建的表或分区,需要授予用户对应表的权限: 集群未启用Ranger鉴权,需登录FusionInsight Manager授予该用户所属角色对应表的“Selec
task异常导致Shuffle FetchFailed Executor进程Crash导致Stage重试 执行大数据量的shuffle过程时Executor注册shuffle service失败 在Spark应用执行过程中NodeManager出现OOM异常 父主题: Spark常见问题
ZooKeeper和HBase的关系所示。 图1 HBase和ZooKeeper的关系 HRegionServer以Ephemeral node的方式注册到ZooKeeper中。其中ZooKeeper存储HBase的如下信息:HBase元数据、HMaster地址。 HMaster通过ZooK
jar:$HIVE_HOME/lib/hive-exec-XXX.jar LIB_JARS和HADOOP_CLASSPATH中指定的jar包的版本号“XXX”需要根据实际环境的版本号进行修改。 使用Yarn客户端提交任务。 yarn --config $HADOOP_HOME/etc/hadoop jar
int(dataArr[2])))\ .collect() df = sqlCtx.createDataFrame(inputRDD) # 注册表 df.registerTempTable("FemaleInfoTable") # 执行SQL查询并显示结果
int(dataArr[2])))\ .collect() df = sqlCtx.createDataFrame(inputRDD) # 注册表 df.registerTempTable("FemaleInfoTable") # 执行SQL查询并显示结果
MapReduce任务提交Java示例程序。 本工程提供了一个MapReduce统计数据的应用开发示例,实现数据分析、处理,并输出满足用户需要的数据信息。 另外以MapReduce访问HDFS、HBase、Hive为例,介绍如何编写MapReduce作业访问多个服务组件。帮助用户理解认证、配置加载等关键使用方式。