检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
如何关闭防火墙服务? 问: 如何关闭防火墙服务? 答: 以root用户登录集群的各个节点。 检查防火墙服务是否启动。 例如,EulerOS环境下执行systemctl status firewalld.service命令。 关闭防火墙服务。 例如,EulerOS环境下执行systemctl
/:partition 参数 参数 描述 :db 数据库名。 :table 表名。 group 创建新分区时使用的用户组。 permissions 创建新分区时用户的权限。 location 新分区的存放位置。 ifNotExists 如果设置为true, 当分区已经存在,系统报错。
WebUI登录界面,MRS 1.9.2版本集群默认用户名/密码为admin/admin@12345,MRS 1.9.3及之后版本集群默认用户名/密码为admin/ranger@A1!。 首次登录Ranger WebUI界面后请修改用户密码并妥善保存。 分别登录集群RangerAdmin实例所在的节点,删除临时文件。
开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。 对于客户应用需引用SDK类的Jar包运行在客户应用进程中的。 X86客户端:Oracle JDK:支持1.8版本;IBM JDK:支持1.8.5.11版本。 TaiShan客户端:OpenJDK:支持1
【Hue WebUI】集群未安装Hive服务时Hue原生页面无法正常显示 用户问题 集群没有安装Hive服务时,Hue服务原生页面显示空白。 原因分析 MRS 3.x版本存在Hue依赖Hive组件。 处理步骤 如果出现此情况,首先需要检查当前集群是否安装了Hive组件,如果没有,需要安装Hive。
客户端机器必须安装有setuptools,版本为47.3.1。 具体软件,请到对应的官方网站获取。 https://pypi.org/project/setuptools/#files 将下载的setuptools压缩文件复制到客户端机器上,解压后进入解压目录,在客户端机器的命令行终端执行python3
客户端机器必须安装有setuptools,版本为47.3.1。 具体软件,请到对应的官方网站获取。 https://pypi.org/project/setuptools/#files 将下载的setuptools压缩文件复制到客户端机器上,解压后进入解压目录,在客户端机器的命令行终端执行python3
com/2013/03/02/hbase-shell-commands/ Shell命令执行方法: 进入HBase客户端任意目录,执行以下命令。 hbase shell 进入HBase命令行运行模式(也称为CLI客户端连接),如下所示。 hbase(main):001:0> 您可以在命令行运行模式中运行h
statementSet.execute(); } } 需将当前样例需要的依赖包,即编译之后lib文件下面的jar包复制到客户端的lib文件夹内。 以对接普通模式Kafka提交SQL为例: create table kafka_sink ( uuid varchar(20)
Caused by: java.lang.NoSuchFieldError: SECURITY_SSL_ENCRYPT_ENABLED 解决方法 客户代码里面打包的第三方依赖包和集群包冲突,提交到MRS集群运行失败,需修改相关的依赖包,并将pom文件中的开源版本的Hadoop包和Flin
ClickHouse数据导入导出 使用ClickHouse客户端导入导出数据 本章节主要介绍使用ClickHouse客户端导入导出文件数据的基本语法和使用说明。 CSV格式数据导入 clickhouse client --host 主机名/ClickHouse实例IP地址 --database
PASSWORD,建议密文存放,使用时解密,确保安全。其中: DORIS_MY_USER为访问Doris的用户名。 DORIS_MY_PASSWORD为访问Doris的用户密码。 导入“doris-rest-client-example”样例工程之后,运行时需修改以下参数: 将代码中HOST
通用性:双读特性不支持双写,但不影响原有的实时写场景。 易用性:客户端封装处理,业务侧不感知。 HBase双读使用约束: HBase双读特性基于Replication实现,备集群读取的数据可能和主集群存在差异,因此只能实现最终一致性。 目前HBase双读功能仅用于查询。主集群故障时,最
设置一个超时时间,在此期间保持活动的客户端连接将在服务器端保持打开状态。零值禁用保持活动的客户端连接。单位:秒。 默认值:75 取值范围:[0,86400] large_client_header_buffers.size 设置用于读取大型客户端请求标头的缓冲区的最大数量(lar
kafkaParams); //用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); // 用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
kafkaParams); //用brokers and topics新建direct kafka stream //从Kafka接收数据并生成相应的DStream。 JavaInputDStream<ConsumerRecord<String, String>> messages
方法一:在指定的“database_name”数据库中创建一个名为“table_name ”的表。 如果建表语句中没有包含“database_name”,则默认使用客户端登录时选择的数据库作为数据库名称。 CREATE TABLE [IF NOT EXISTS] [database_name.]table_name
C(Garbage Collection),评估内存中RDD的大小来判断内存是否变成性能瓶颈,并根据情况优化。 监控节点进程的GC情况(在客户端的conf/spark-default.conf配置文件中,在spark.driver.extraJavaOptions和spark.executor