检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
融入了MRS服务自研组件,提供长期的支持和演进。 普通版:主要依托开源组件的能力,融入了MRS服务自研、成熟稳定的特性和功能,带来性能及稳定性的提升。 LTS版 集群版本 MRS集群的版本,不同版本所包含的开源组件版本及功能特性可能不同,推荐选择最新版本。 版本详细包含的组件详细可参考MRS组件版本一览表。
12-3.1.1-hw-ei-311001-SNAPSHOT.jar 版本号中包含hw-ei的依赖包请从华为开源镜像站下载。 版本号中不包含hw-ei的依赖包都来自开源仓库,请从Maven中心仓获取。 运行任务 在运行样例程序时需要指定<checkpointDir> <brokers>
tion相关接口。 文件写入完毕后,后续对该文件的相关操作不限制使用Colocation接口,也可以使用开源接口进行操作。 DFSColocationClient类继承于开源的DistributedFileSystem类,包含其常用接口。建议使用DFSColocationClie
这两种连接器都支持按照Oracle的ROWID进行分区(oracle-partition-connector是自研,oracle-connector是社区开源版本),二者的性能较为接近。 oracle-connector需要的系统表权限较多,下面是各自需要的系统表,需要赋予读权限。 oracle
generation=ALWAYS)。 Flink用hms方式同步Hive,支持参数配置化。 解决ResourceManager内存泄漏,开源单YARN-11489。 解决Yarn精细化监控部分指标没有数据的问题。 解决3AZ环境DataNode 5个节点,健康度阈值是80%,构
queries中断机制,所以alter queries(如:lightweight delete)执行过程中被中断之后,即便开启隐式事务能力,也无法回滚,与开源保持一致。 分布式表事务性插入使用方法: 登录FusionInsight Manager页面,选择“集群 > 服务 > ClickHouse
看ZooKeeper。 有关Hue的详细信息,请参见:http://gethue.com/。 Hue结构 Hue是建立在Django Python(开放源代码的Web应用框架)的Web框架上的Web应用程序,采用了MTV(模型M-模板T-视图V)的软件设计模式。 Hue由“Supervisor
第三方jar包跨平台(x86、TaiShan)支持 在客户端安装节点的/tmp目录下残留了很多blockmgr-开头和spark-开头的目录 ARM环境python pipeline运行报139错误码规避方案 Structured Streaming 任务提交方式变更 常见jar包冲突处理方式 父主题:
第三方jar包跨平台(x86、TaiShan)支持 在客户端安装节点的/tmp目录下残留了很多blockmgr-开头和spark-开头的目录 ARM环境python pipeline运行报139错误码规避方案 Structured Streaming 任务提交方式变更 常见jar包冲突处理方式 父主题:
tainer日志聚合功能。 然而,开启container日志聚合功能之后,其日志聚合至HDFS目录中,只能通过获取HDFS文件来查看日志。开源Spark和Yarn服务不支持通过WebUI查看聚合后的日志。 因此,Spark在此基础上进行了功能增强。如图1所示,在HistorySe
bigdata.spark.examples.datasources.AvroSource SparkOnHbaseJavaExample.jar python版本(文件名等请与实际保持一致,此处仅为示例),假设对应的Java代码打包后包名为SparkOnHbaseJavaExample.jar,且放在当前提交目录。
sql.streaming.checkpointLocation”参数,且用户必须具有该参数指定的目录的读、写权限。 运行Python样例代码: 运行Python样例代码时需要将打包后的Java项目的jar包添加到streamingClient010/目录下。 bin/spark-submit
Spark2x的开源新特性请参考Spark2x开源新特性说明。 Spark的特点如下: 通过分布式内存计算和DAG(无回路有向图)执行引擎提升数据处理能力,比MapReduce性能高10倍到100倍。 提供多种语言开发接口(Scala/Java/Python),并且提供几十种高
bigdata.spark.examples.datasources.AvroSource SparkOnHbaseJavaExample.jar python版本(文件名等请与实际保持一致,此处仅为示例),假设对应的Java代码打包后包名为SparkOnHbaseJavaExample.jar,且放在当前提交目录。
这两种连接器都支持按照Oracle的ROWID进行分区(oracle-partition-connector是自研,oracle-connector是社区开源版本),二者的性能较为接近。 oracle-connector需要的系统表权限较多,下面是各自需要的系统表,需要赋予读权限。 oracle
MRS集群是否支持Hive on Spark? 如何修改DBService的IP地址? Kafka支持的访问协议类型有哪些? MRS集群中Spark任务支持哪些Python版本? MRS 2.1.0版本集群对Storm日志的大小有什么限制? 如何修改现有集群的HDFS fs.defaultFS? MRS是否支持同时运行多个Flume任务?
“TRACE”:跟踪日志级别,设置后日志打印输出“TRACE”、“DEBUG”、“INFO”、“WARN”、“ERROR”和“FATAL”信息。 由于开源中定义的不同,组件的日志级别定义略有差异。 验证日志级别设置已生效,请下载日志并查看。请参见下载MRS集群日志(MRS 3.x及之后版本)。
Phoenix实现了大部分java.sql接口,SQL紧跟ANSI SQL标准。 MRS 1.9.2之后的版本需要按HBase Phoenix API接口介绍中下载和配置开源的phoenix包。 父主题: HBase应用开发常见问题
如果遇到其他三方包冲突,可以通过查找依赖关系确认是否存在相同包不同版本的情况,尽量修改成集群自带的jar包版本。 可以参考MRS样例工程自带的pom.xml文件:通过开源镜像站获取样例工程。 打印依赖树方式: 在pom.xml文件同目录下执行命令:mvn dependency:tree 父主题: Spark应用开发常见问题
户进行认证。keytab文件也支持在kinit命令中使用。 普通模式(不启用Kerberos认证) 普通模式集群,MRS集群各组件使用原生开源的认证机制,一般为Simple认证方式。而Simple认证,在客户端连接服务端的过程中,默认以客户端执行用户(例如操作系统用户“root”