检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
che Doris能够较好的满足报表分析、即席查询、统一数仓构建、数据湖联邦查询加速等使用场景,用户可以在此之上构建用户行为分析、AB实验平台、日志检索分析、用户画像分析、订单分析等应用。 Doris采用MPP的模型,节点间和节点内都是并行执行,适用于多个大表的分布式Join。支持向量化的查询引擎、AQE(
损坏,也有可能是集群上的LdapServer数据损坏,此时数据损坏的LdapServer进程将无法对外提供服务,影响Manager和集群的认证功能。 可能原因 LdapServer进程所在的节点网络故障。 LdapServer进程异常。 OS重启导致的LdapServer数据损坏。
至少添加2个TokenSever(TS)实例。 例如,配置如下图所示,不同版本集群可能存在差异,具体界面显示以实际为准。 Kerberos认证 开启 委托 勾选“高级配置”后的“现在配置”,“委托”选择“现有委托”,并选择创建对接ECS/BMS云服务委托创建的委托。 例如,配置如
Ranger策略的权限,即如果已经对表的HDFS存储源设置了HDFS Ranger权限,则级联权限将不会生效。 CDL业务用户权限配置 集群已启用Kerberos认证(安全模式)若需在对接OBS成功后,使用CDL实现实时数据入湖选择存储到OBS时,则需参考以下操作为对应用户赋予相应OBS路径的“Read”和“Write”权限。
建任务自动或手动备份数据。 前提条件 目前IoTDB仅支持备份业务数据到远端HDFS中,且需满足以下条件: 准备一个用于备份数据的备集群,认证模式需要与主集群相同。 若IoTDB所在集群为普通模式,则不支持备份业务数据到安全模式集群的HDFS中。 如果主集群部署为安全模式,且主备
properties schedule-tool工具支持两种登录方式,两者只能选一。详细参数请参见schedule-tool工具使用指导。配置文件中包含认证密码信息可能存在安全风险,建议当前场景执行完毕后删除相关配置文件或加强安全管理。 以密码方式登录,配置信息示例如下: [server.url
全部配置”,在左侧窗口选择“ClickHouseServer(角色)”。 安全模式(开启Kerberos认证)查看参数“https_port”的值即为ClickHouseServer实例节点端口。 普通模式(关闭Kerberos认证)查看参数“http_port”的值即为ClickHouseServer实例节点端口。
3.3.0及之后版本支持)。 在“hbase-dual.xml”中新增主备集群配置 将在准备MRS应用开发用户时获取的主集群keytab认证文件“user.keytab”与“krb5.conf”放置到二次样例“src/main/resources/conf”目录下。 参考准备H
2x spark.random.port.min 设置随机端口的最小值。 22600 spark.authenticate 是否Spark认证其内部连接。如果不是运行在YARN上,请参见spark.authenticate.secret的相关内容。 true spark.random
2x spark.random.port.min 设置随机端口的最小值。 22600 spark.authenticate 是否Spark认证其内部连接。如果不是运行在YARN上,请参见spark.authenticate.secret的相关内容。 true spark.random
HA: Flink的HA模式依赖于ZooKeeper,所以必须配置ZooKeeper相关配置,配置项包括ZooKeeper地址,路径,安全认证等。 Environment: 对于JVM配置有特定要求的场景,可以通过配置项传递JVM参数到客户端,JobMananger,TaskManager等。
置项fs.defaultFS不能配置为viewfs://ClusterX。 初始化 使用Colocation前需要进行kerberos安全认证。 private static void init() throws IOException { conf.set(KEYTAB
在运行Colocation工程时,HDFS的配置项fs.defaultFS不能配置为viewfs://ClusterX。 设置系统的环境变量说明 Hadoop在安全认证的时候,需要获取客户端所在主机的域名(Default Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错:
置项fs.defaultFS不能配置为viewfs://ClusterX。 初始化 使用Colocation前需要进行kerberos安全认证。 private static void init() throws IOException { conf.set(KEYTAB
以root用户登录安装HDFS客户端的服务器,执行以下命令配置环境变量。 source HDFS客户端安装目录/bigdata_env 如果集群为安全模式,执行以下命令认证用户身份。 kinit hdfs 在HDFS客户端执行以下命令,检查HDFS根目录下全部目录和文件是否状态正常。 hdfs fsck / 检查fsck显示结果:
Manager访问地址形式为https://Manager浮动IP地址:28443/web。 访问启用Kerberos认证的集群时,需要输入MRS集群的用户名和密码,例如“admin”用户。未启用Kerberos认证的集群则不需要。 第一次访问时,请根据浏览器提示,添加站点信任以继续打开页面。 退出访问Manager时,请终止并关闭SSH隧道。
安全组。 为B集群的安全组添加入方向规则,源地址选择A集群(对端集群)的安全组。 未开启Kerberos认证的普通集群执行1~2即可完成跨集群互信配置,开启Kerberos认证的安全集群请继续执行后续步骤进行配置。 分别登录两个集群的MRS Manager界面,单击“服务管理”,
in current user,please install the JDK and set the JAVA_HOME 集群混搭时,安装跨平台客户端时,请进入/opt/client/FusionInsight_Cluster_1_Flume_ClientConfig/Flume/
以root用户登录安装HDFS客户端的服务器,执行以下命令配置环境变量。 source HDFS客户端安装目录/bigdata_env 如果集群为安全模式,执行以下命令认证用户身份。 kinit hdfs 在HDFS客户端执行以下命令,检查HDFS根目录下全部目录和文件是否状态正常。 hdfs fsck / 检查fsck显示结果:
权限 > 用户”,添加人机用户sparkuser,用户组(hadoop、hive),主组(hadoop)。 进入客户端目录,加载环境变量并认证用户: cd /客户端安装目录 source ./bigdata_env source ./Spark2x/component_env kinit