检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
权限类型 权限名 java.security.SecurityPermission createAccessControlContext:允许创建一个存取控制器的上下文环境。 getPolicy:检索可以实现沙箱策略的类。 setPolicy:设置可以实现沙箱策略的类。高危操作,UDF拥有该权限后可以修改服务的Policy。
160:2181/kafka --partitions 5 --replication-factor 1 --topic topic1 安全认证。 安全认证的方式有三种:Kerberos认证、SSL加密认证和Kerberos+SSL模式认证,用户在使用的时候可任选其中一种方式进行认证。 Kerberos认证配置
TopicDeletionManager$DeleteTopicsThread (Logging.scala:68) 通过Manager查询Broker状态。 其中一个Broker处于停止或者故障状态。Topic进行删除必须保证该Topic的所有Partition所在的Broker必须处于正常状态。 解决方法参考3。
群Manager界面,详情请参考访问MRS集群Manager。 通过管理控制台查看节点状态 登录MRS管理控制台。 选择“现有集群”,选中一个运行中的集群并单击集群名称,进入集群信息页面。 在集群详情页,单击“节点管理”。 展开节点组名称,可查看节点基本信息、节点状态、CPU使用率、内存使用率、磁盘使用率等信息。
KerberosServer 提供认证票据分发的进程。 步骤原理说明: 应用客户端(Application Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 应用程序在提交任务或者作业前,需要向Kerberos服务申请TGT(Ticket-Granting
a和Flink服务。 包含Kafka服务的客户端已安装,例如安装路径为:/opt/client 参考创建FlinkServer权限角色创建一个具有FlinkServer管理员权限的用户用于访问Flink WebUI,如:flink_admin。 创建作业步骤 使用flink_admin登录Manager,选择“集群
KerberosServer 提供认证票据分发的进程。 应用客户端(Application Client)可以是集群内某个服务,也可以是客户二次开发的一个应用程序,应用程序可以向应用服务提交任务或者作业。 应用程序在提交任务或者作业前,需要向Kerberos服务申请TGT(Ticket-Granting
lock.type HDFSLOCK 该配置指定了表上并发操作过程中所要求的锁的类型。 有以下几种类型锁实现方式: LOCALLOCK:基于本地文件系统的文件来创建的锁。该锁只适用于一台机器上只运行一个Spark Driver(或者JDBCServer)的情况。 HDFSLOCK:基于
当HBase已经配置透明加密后,执行bulkload命令的HBase用户需要添加到对应集群的hadoop用户组(非FusionInsight Manager下第一个安装的集群,用户组为“c<集群ID>_hadoop”,例如“c2_hadoop”),且具有HBase根目录的加密key的读权限。 检查目录
当HBase已经配置透明加密后,执行bulkload命令的HBase用户需要添加到对应集群的hadoop用户组(非FusionInsight Manager下第一个安装的集群,用户组为“c<集群ID>_hadoop”,例如“c2_hadoop”),且具有HBase根目录的加密key的读权限=。 检查目
更换过程中Manager需要重启,此时系统无法访问且无法提供服务。 前提条件 获取需要更换的HA根证书文件“root-ca.crt”和密钥文件“root-ca.pem”。 准备一个访问密钥文件的密码password,例如“Userpwd@123”用于访问密钥文件。 密码复杂度要求如下,如果密码复杂度不满足如下要求,可能存在安全风险:
Yarn > 调度队列 > root”,勾选“default”的“提交”,单击“确定”保存。 选择“用户 > 添加用户”,在新增用户界面,创建一个机机用户,例如developuser。 “用户组”需加入“hadoop”用户组。 “角色”加入新增的角色,例如developrole。 使
projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如图2所示。 图2 hbase-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”,双击“clean”运行maven的clean命令。
-import -alias myservercert -file ca.crt -keystore truststore.jks 执行该命令后需输入一个自定义密码。 将生成的“truststore.jks”文件复制到“客户端安装目录/IoTDB/iotdb/conf”目录下: cp truststore
projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如图2所示。 图2 hbase-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”,双击“clean”运行maven的clean命令。
pt/client。 Flink支持1.12.2及以后版本,Hive支持3.1.0及以后版本。 参考创建FlinkServer权限角色创建一个具有FlinkServer管理员权限的用户用于访问Flink WebUI,如:flink_admin。 参考创建FlinkServer集群连接步骤中的“说明”获取访问Flink
费用。建议您及时联系技术支持人员处理集群异常。 MRS集群运行限制 表2 MRS集群运行约束说明 限制项 说明 节点管理 当MRS集群中某一个Master节点关闭后,如果仍然使用集群执行作业任务或修改组件配置,在操作后必须先启动被关闭的Master节点,然后才能执行其他节点的关闭
keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时间,取值为"true"或者"false" true 单击“导出”,将配置文件“properties
和多级分区类似,需要配置项: 配置项 说明 hoodie.datasource.write.partitionpath.field 配置为一个字段,例如:p hoodie.datasource.hive_sync.partition_fields 和hoodie.datasource
keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时间,取值为"true"或者"false" true 单击“导出”,将配置文件“properties