检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
安装JDK 开发和运行环境的基本配置,版本要求如下: 服务端和客户端仅支持集群自带的OpenJDK,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的: X86客户端: Oracle JDK:支持1.8版本; IBM JDK:支持1.8.0.7.20和1.8.0.6.15版本。
mrs</groupId> <artifactId>hadoop-plugins</artifactId> <version>部件包版本-302002</version> </dependency> 运行样例代码前,对SparkSession加入.master("local")
3.3.0及之后版本支持该参数) 单击右上角的设置日志的起始收集时间“开始时间”和“结束时间”。 单击“下载”完成日志下载。 下载的日志压缩包中会包括对应开始时间和结束时间的拓扑信息,方便查看与定位。 拓扑文件以“topo_<拓扑结构变化时间点>.txt”命名。文件内容包括节点IP
mrs</groupId> <artifactId>hadoop-plugins</artifactId> <version>部件包版本-302002</version> </dependency> 运行样例代码前,对SparkSession加入.master("local")
nodemanager.aux-services.spark_shuffle.class NodeManager中辅助服务对应的类。 添加依赖的jar包。 拷贝“${SPARK_HOME}/lib/spark-1.5.1-yarn-shuffle.jar”到“${HADOOP_HOME}/s
examples.StreamingExampleProducer {BrokerList} {Topic} JAR_PATH为程序jar包所在路径。 brokerlist格式为brokerIp:9092。 开发思路 统计日志文件中本周末网购停留总时间超过半个小时的女性网民信息。
API、HBase Shell或者Web UI访问服务端,对HBase的表进行读写操作。本文中的HBase客户端特指HBase client的安装包,可参考HBase对外接口介绍。 父主题: HBase开发指南(安全模式)
gz包上传到任意目录下(本示例路径为Master节点的/opt)。 登录部署Maxwell的服务器,并执行如下命令进入tar.gz包所在目录。 cd /opt 执行如下命令解压“maxwell-XXX.tar.gz”压缩包,并进入“maxwell-XXX”文件夹。 tar -zxvf maxwell-XXX.tar
99.3/server/webapps/loader/WEB-INF/ext-lib chown omm:wheel jar包文件名 chmod 600 jar包文件名 登录FusionInsight Manager系统,选择“集群 > 待操作集群的名称 > 服务 > Loader >
配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。 X86客户端:Oracle JDK:支持1.8版本;IBM JDK:支持1.8.5.11版本。 TaiShan客户端:OpenJDK:支持1
SQL查询偶现数组越界报错的问题。 解决IAM同步的用户加入supergroup用户组后,无法删除的问题。 补丁兼容关系 MRS 3.2.0-LTS.1.8补丁包中包含所有MRS 3.2.0-LTS.1版本单点问题修复补丁。 父主题: MRS 3.2.0-LTS.1.8补丁说明
下载客户端”,在“客户端类型”勾选“完整客户端”,“下载路径”选择“服务器端”,单击“确定”下载客户端到服务器端。 执行如下命令解压缩客户端安装包“MRS_Flink_Client.tar”。 tar -xvf /tmp/MRS-client/MRS_Flink_Client.tar tar
examples.StreamingExampleProducer {BrokerList} {Topic} JAR_PATH为程序jar包所在路径,BrokerList格式为brokerIp:9092。 需要修改程序SecurityKafkaWordCount类中kerberos
pala-shell客户端: 仅SUSE 13.2及之后版本支持安装impala-shell,低版本中没有cyrus-sasl-devel包和krb5-devel暂不支持。 python2执行如下命令: zypper install -y binutils binutils-devel
collect_set(col1)) from tbl。 Hive客户端常用命令 常用的Hive Beeline客户端命令如下表所示。 更多命令可参考https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients#Hive
0版本基础上,Hive新增如下特性: 基于Kerberos技术的安全认证机制。 数据文件加密机制。 完善的权限管理。 开源社区的Hive特性,请参见https://cwiki.apache.org/confluence/display/hive/designdocs。 常用概念 keytab文件
本地使用IDEA工具导入样例工程,等待Maven工程下载相关依赖包,具体操作可参考配置并导入样例工程。 图1 ClickHouse样例工程示例 本地配置好Maven及SDK相关参数后,样例工程会自动加载相关依赖包。 在本示例工程中,程序通过配置文件中的IP地址信息及用户信息与C
方式不同外其他使用方法相同。由于Spark JDBCServer是Hive中的HiveServer2的另外一个实现,其使用方法,请参见https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients。 Spark多租户HA方案实现
nsight Manager页面。 在“主页”右上方单击“下载客户端”,根据界面提示下载“完整客户端”文件到本地。 将下载的客户端文件压缩包解压,获取“FusionInsight_Cluster_1_Services_ClientConfig/HDFS/config”路径下的“core-site
通过ELB访问ClickHouse 当前ClickHouse不管是多分片还是多副本都是以集群方式部署,如果对外直接提供服务,将暴露多个节点服务,没有统一的访问入口。ClickHouse官方虽然提供了BalancedClickhouseDataSource的驱动方案,可以支持多节点