检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
xml”、“hbase-site.xml”和用于安全认证的用户凭证文件放置到“src/main/resources”的目录下。 “login”方法中的参数“java.security.auth.login.config”设置的jaas.conf文件用来设置访问ZooKeeper相关认证信息,样例代码中包含Cl
实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令
bigdata_env 集群已启用Kerberos认证(安全模式): kinit 组件业务用户 clickhouse client --host 上报告警的ClickHouseServer实例IP --port 9440 --secure 集群未启用Kerberos认证(普通模式): clickhouse
例如当前系统域名为“9427068F-6EFA-4833-B43E-60CB641E5B6C.COM”。 在集群内节点上以omm用户执行以下命令查询密码认证失败次数: ldapsearch -H ldaps://OMS浮动IP地址:OLdap端口 -LLL -x -D cn=root,dc=hadoop
为了解决Beeline两种场景下连接问题,增加了在Beeline连接中添加认证信息。在JDBC的URL中增添了user.keytab和user.principal这两个参数。当票据过期时,会自动读入客户端的登录信息,就可以重新获得连接。 用户不希望通过kinit命令进行票据认证,因为票据信息每隔24小时会过期。其中
开发思路 根据前述场景说明进行功能分解,以上传一个新员工的信息为例,对该员工的信息进行查询、追加、删除等,可分为以下七部分: 通过kerberos认证。 调用fileSystem中的mkdir接口创建目录。 调用HdfsWriter的dowrite接口写入信息。 调用fileSystem中的open接口读取文件。
实际域名。实际域名可登录FusionInsight Manager,选择“系统 > 权限 > 域和互信 > 本端域” 查看。 先使用kinit命令获取kerberos认证的缓存。 使用准备MRS应用开发用户章节中创建的开发用户执行以下命令运行客户端程序: kinit -kt keytab的存储路径 username
户名密码。 本章节适用于MRS 3.1.2版本。 “default”为ClickHouse默认系统用户,仅普通模式(未开启kerberos认证)下可使用的ClickHouse管理员用户。 配置ClickHouse默认用户密码 登录集群Manager页面,选择“集群 > 服务 > ClickHouse
hbase-site.xml 配置HBase详细参数。 hive-site.xml 配置Hive详细参数。 jaas-zk.conf java认证配置文件。 log4j-executor.properties executor日志配置文件。 mapred-site.xml Hadoop
目录修改。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 判断集群认证模式。 安全模式,执行以下命令进行用户认证。exampleUser为提交任务的用户名。 kinit exampleUser 普通模式,执行5。 配置Hue。 s
以Hive客户端安装用户登录安装客户端的节点。 执行以下命令,切换到客户端安装目录,配置环境变量并认证用户。 cd 客户端安装目录 source bigdata_env kinit Hive业务用户(如果集群未开启Kerberos认证,请跳过该操作) beeline启动断线重连功能。 示例: beeline
为了解决Beeline两种场景下连接问题,增加了在Beeline连接中添加认证信息。在JDBC的URL中增添了user.keytab和user.principal这两个参数。当票据过期时,会自动读入客户端的登录信息,就可以重新获得连接。 用户不希望通过kinit命令进行票据认证,因为票据信息每隔24小时会过期。其中
config("spark.driver.host", "localhost"),配置Spark为本地运行模式。并将样例代码中的PRNCIPAL_NAME改为安全认证的用户名。 父主题: 在本地Windows环境中调测Spark应用
实例”,在实例列表页面中查看并记录任意一个Broker实例业务IP地址。 Kafka连接端口:集群已启用Kerberos认证(安全模式)时Broker端口为“sasl.port”参数的值。集群未启用Kerberos认证(普通模式)时Broker端口为“port”的值。 重新打开一个客户端连接窗口,执行以下命令
目录修改。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 判断集群认证模式。 安全模式,执行以下命令进行用户认证。exampleUser为提交任务的用户名。 kinit exampleUser 普通模式,执行5。 配置Hue。 S
执行以下命令,切换到客户端安装目录。 cd 客户端安装目录 执行以下命令配置环境变量并认证用户。 source bigdata_env kinit 提交Oozie任务的用户( 如果集群未启用Kerberos认证(普通模式)请跳过该操作) 检查Share Lib,包括客户端和服务端两种方式。Spark
错误日志。 gsdb_check.log gaussDB检查日志。 kt_renewer.log Kerberos认证日志。 kt_renewer.out.log Kerberos认证日志的异常输出日志。 runcpserver.log 操作记录日志。 runcpserver.out.log
config("spark.driver.host", "localhost"),配置Spark为本地运行模式。并将样例代码中的PRNCIPAL_NAME改为安全认证的用户名。 父主题: 调测Spark应用
er/hdfs-examples/test.txt”文件的读写删除等操作为例,说明HDFS文件的基本操作流程,可分为以下八部分: 通过安全认证。 创建FileSystem对象:fSystem。 调用fSystem的mkdir接口创建目录。 调用fSystem的create接口创建
er/hdfs-examples/test.txt”文件的读写删除等操作为例,说明HDFS文件的基本操作流程,可分为以下八部分: 通过安全认证。 创建FileSystem对象:fSystem。 调用fSystem的mkdir接口创建目录。 调用fSystem的create接口创建