检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
opt/client/Kafka/kafka/bin”。 cd /opt/client/Kafka/kafka/bin 执行以下命令,配置环境变量。 source /opt/client/bigdata_env 执行以下命令,进行用户认证。 kinit 组件业务用户 使用“kafka-acl
Regions”列上Region的个数分布是否均衡。 是,执行20。 否,执行15。 以omm用户登录故障RegionServer节点。 进入客户端安装目录,设置环境变量。 cd 客户端安装目录 source bigdata_env kinit 归属于supergroup用户组或具备Global的Adm
保存并重启ClickHouse服务。 以客户端安装用户,登录客户端所在节点。 执行以下命令切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证当前用户(未启用Kerberos认证集群跳过此步骤)。 kinit clickhouseuser
sudo su - omm 执行以下命令,切换到客户端目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。
Manager页面,选择“系统 > 权限 > 用户”,添加人机用户sparkuser,用户组(hadoop、hive),主组(hadoop)。 进入客户端目录,加载环境变量并认证用户: cd /客户端安装目录 source ./bigdata_env source ./Spark2x/component_env
影响。 Flink作为大数据计算和分析平台,对客户输入的数据是否包含敏感信息无法感知,因此需要客户保证输入数据是脱敏的。 客户可以根据应用环境,权衡配置安全与否。 任何与安全有关的问题,请联系运维人员。 父主题: Flink用户权限管理
数据 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/hadoopclient 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有提交Yar
启动ZooKeeper客户端 以root用户登录安装了ZooKeeper客户端的服务器。 进入客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户身份,并输入用户密码(任意有权限的用户,这里以userA为例,普通模式不涉及)。
解决管控面提交Spark长稳业务中业务jar包和业务表在同一个OBS桶下偶现OBS 403认证过期的问题。 解决租户资源管理单击关联用户无响应的问题。 解决登录环境时偶现瞬间退出,需要清理浏览器缓存,才能正常登录的问题。 修改密码过期策略,页面新增提示修改完策略需要再次修改用户密码,策略才能生效。 解
影响。 Flink作为大数据计算和分析平台,对客户输入的数据是否包含敏感信息无法感知,因此需要客户保证输入数据是脱敏的。 客户可以根据应用环境,权衡配置安全与否。 任何与安全有关的问题,请联系运维人员。 父主题: Flink用户权限管理
user/hive_examples_jars”)。创建函数的用户与使用函数的用户都需要具有该文件的可读权限。 切换至客户端安装目录并配置环境变量: cd 客户端安装目录 source bigdata_env 认证用户。 集群已开启Kerberos认证(安全模式): kinit 业务用户
通过MRS集群客户端以kinit方式获取。 登录MRS集群客户端所在节点,进入客户端安装目录。 cd {客户端安装目录} 执行以下命令配置环境变量。 source bigdata_env 执行以下命令进行用户认证。 kinit MRS集群业务用户 ST 服务票据(Server T
以客户端安装用户,登录已安装Kafka客户端的节点。 切换到Kafka客户端安装目录,例如“/opt/client”。 cd /opt/client 执行以下命令,配置环境变量。 source bigdata_env 执行以下命令,进行用户认证(普通模式跳过此步骤)。 kinit 组件业务用户 执行以下命令,切换到Kafka客户端安装目录。
执行以下命令,切换到客户端安装目录,例如安装目录为“/opt/client”,请用户根据实际情况修改。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果集群开启了Kerberos认证,执行以下命令认证用户,否则跳过此步骤。 kinit Hive业务用户
更换过程中MRS系统需要重启,此时系统无法访问且无法提供服务。 更换证书以后,所有组件和Manager的模块使用的证书将自动更新。 更换证书以后,还未信任该证书的本地环境,需要重新安装证书。 前提条件 获取需要导入到MRS集群的CA证书文件(*.crt)、密钥文件(*.key)以及保存访问密钥文件密码的文件(password
本视频分别介绍了通过MRS管理控制台或FusionInsight Manager界面修改服务参数的操作过程。 因不同版本操作界面可能存在差异,相关视频供参考,具体以实际环境为准。 添加组件自定义参数前提条件 用户已充分了解需要新添加的参数意义、生效的配置文件以及对组件的影响。 如果通过MRS管理控制台操作,需
使用BulkLoad工具批量导入HBase数据 以客户端安装用户,登录安装客户端的节点。 执行以下命令切换到客户端目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户,当前用户需要具有创建HBase表的权限和HDFS的操作权限:
启动ZooKeeper客户端 以root用户登录安装了ZooKeeper客户端的服务器。 进入客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 执行以下命令认证用户身份,并输入用户密码(任意有权限的用户,这里以userA为例,普通模式不涉及)。
html#_rest。 由于当前默认使用 SSL protocols 为 TLSv1.1,TLSv1.2,所以在启用CURL调用 REST 时需判断当前环境支持的 SSL protocols。 使用curl命令 未开启Kerberos认证集群 在未开启Kerberos认证的集群中执行curl命令时增加以下参数。例如,
以Kafka客户端安装用户,登录Kafka安装客户端的节点。 执行以下命令,切换到客户端安装目录。 cd /opt/client 执行以下命令配置环境变量。 source bigdata_env 如果当前集群已启用Kerberos认证,执行以下命令认证当前用户。如果当前集群未启用Kerberos认证,则无需执行此命令。