检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
source bigdata_env 认证或指定用户。 安全模式集群:执行以下命令认证用户 kinit HetuEngine组件操作用户 例如: kinit hetu_test 根据提示输入用户密码,首次登录需重置密码。
source bigdata_env 如果集群为安全模式,执行以下命令进行用户认证。普通模式集群无需执行用户认证。 kinit HetuEngine用户 根据回显提示输入密码。
认证代码实例讲解 package com.huawei.bigdata.hdfs.examples; import java.io.IOException; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileStatus
source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建ClickHouse表的权限,具体请参见ClickHouse用户及权限管理章节,为用户绑定对应角色。
kafkaProc.getValues(KERBEROS_DOMAIN_NAME, "hadoop.hadoop.com")); // 分区类名 props.put(PARTITIONER_NAME, kafkaProc.getValues(PARTITIONER_NAME, "com.huawei.bigdata.kafka.example.SimplePartitioner
通过SSH登录Kafka Broker: 通过cd /var/log/Bigdata/kafka/broker命令进入日志目录。 查看kafka-authorizer.log发现如下日志提示用户不属于kafka或者kafkaadmin组。
图1 通过弹性负载均衡访问ClickHouse ELB的部署架构对比BalancedClickhouseDataSource的优势可以参考表1说明。
在JDBCServer服务中配置:登录JDBCServer安装节点,在“{BIGDATA_HOME}/FusionInsight_Spark_*/*_JDBCServer/etc/spark-defaults.conf”文件中配置表6相关参数。
在JDBCServer服务中配置:登录JDBCServer安装节点,在“{BIGDATA_HOME}/FusionInsight_Spark_*/*_JDBCServer/etc/spark-defaults.conf”文件中配置表6相关参数。
source bigdata_env 执行以下命令认证用户身份,并输入用户密码(任意有权限的用户,这里以userA为例,普通模式不涉及)。 kinit userA 在ZooKeeper客户端执行以下命令,进入ZooKeeper命令行。
source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。 kinit 组件业务用户 执行以下命令,创建Kafka的Topic。
图1 通过弹性负载均衡访问ClickHouse ELB的部署架构对比BalancedClickhouseDataSource的优势可以参考表1说明。
可以用集群内节点上java jdk目录下的cacerts(例如:/opt/Bigdata/jdk1.8.0_232/jre/lib/security/cacerts)替换当前节点java jdk目录下的cacerts来解决。 父主题: Presto应用开发常见问题
cd /srv/pyflink-example virtualenv venv --python=python3.x source venv/bin/activate 执行以下命令将客户端安装目录下的“Flink/flink/opt/python/apache-flink-*.tar.gz
通过SSH登录Kafka Broker: 通过cd /var/log/Bigdata/kafka/broker命令进入日志目录。 查看kafka-authorizer.log发现如下日志提示用户不属于kafka或者kafkaadmin组。
${BIGDATA_HOME}/FusionInsight_CDL_X.X.X/install/FusionInsight-CDL-X.X.X/cdl/keytabs/cdl.keytab Principal 访问用户的域名用户。
source bigdata_env 如果集群开启了Kerberos认证,执行以下命令认证用户,否则跳过此步骤。 kinit Hive业务用户 执行以下命令登录源端集群的Hive客户端。 beeline 执行以下命令创建表“export_test”。
source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。
source bigdata_env 执行以下命令认证用户身份,并输入用户密码(任意有权限的用户,这里以userA为例,普通模式不涉及)。 kinit userA 在ZooKeeper客户端执行以下命令,进入ZooKeeper命令行。
source /opt/client/bigdata_env cd /opt/client/Loader/loader-tools-1.99.3/sqoop-shell ./sqoop2-shell 上述命令通过读取配置文件获取认证信息。