检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
以通过集群客户端修改相关用户密码。 对系统的影响 修改MRS集群用户密码后,如果以前下载过用户认证文件,则需要重新下载并获取keytab文件。 前提条件 已获取当前的密码策略,请参考配置MRS集群用户密码策略。 如需使用客户端重置密码,需在集群内的任一节点安装了集群客户端。 登录Manager界面修改密码
了解基本概念 在开始开发应用前,需要了解Storm的基本概念。 准备开发环境 推荐使用Eclipse工具,请根据指导完成不同语言的开发环境配置。 获取并导入样例工程 Storm提供了不同场景下的样例程序,您可以导入样例工程进行程序学习。 根据场景开发拓扑 通过典型场景,您可以快速学习和掌
TABLE_NAME VALUES(XXX); 关键字 参数 描述 TABLE_NAME 所关联的OpenTSDB表名。 SRC_TABLE 获取数据的表名,普通表即可。 注意事项 插入的数据不能为null;插入的数据相同,会覆盖原数据;插入的数据只有value值不同,也会覆盖原数据。
凭证来对请求进行认证,参数是可选的。如果没有指定凭据,将从配置文件中读取凭据。 structure:表结构。 ClickHouse从S3中获取数据创建表: CREATE TABLE test1_s3 (name String, value UInt32) ENGINE = S3(path
为BE的HTTP Server的服务端口,可在Manager的Doris配置界面搜索“webserver_port”查看。 执行以下命令,获取DetailCmd。 show tablet tabletId 执行DetailCmd,当异常节点的副本已经被移除时,再次进行业务查询正常即可。
P。扩容前,新增加的IP需要配置为受信任的IP。 前提条件 根据安装规划,收集集群内全部节点的管理平面IP、业务平面IP和所有浮动IP。 获取集群内节点的root用户和密码。 配置受信任IP地址访问LDAP 配置OMS LDAP信任的IP地址 登录FusionInsight Manager。
项目编号。获取方法,请参见获取项目ID。 约束限制: 不涉及 取值范围: 只能由英文字母和数字组成,且长度为[1-64]个字符。 默认取值: 不涉及 cluster_id 是 String 参数解释: 集群ID。如果指定集群ID,则获取该集群做过补丁更新的最新版本元数据。获取方法,请参见获取集群ID。
public void setState(long count) { this.count = count; } // 获取用户自定义状态 public long geState() { return this.count; } }
信息。当Active ResourceManager产生故障时,Standby ResourceManager会从Statestore目录获取Application相关信息,恢复数据。 Yarn和Tez的关系 Hive on Tez作业信息需要Yarn提供TimeLine Ser
主机所处的机架,NameNode才能绘出DataNode的网络拓扑图,并尽可能将DataNode的数据备份在不同机架中。同理,YARN需要获取机架信息,在可允许的范围内将任务分配给不同的NodeManager执行。 当集群网络拓扑发生变化时,需要使用FusionInsight M
请根据实际安装目录修改。为使用Sqoop时简单方便,使用Sqoop时需要安装全量客户端。 如果集群已开启kerberos认证,需要先创建或获取具有相应权限的用户,用于执行Sqoop命令。创建的用户需要加入“hadoop”、“supergroup”、“hive”组。具体请参考创建用户。
DEBUG表示记录系统及系统的调试信息。 如果您需要修改日志级别,请执行如下操作: 请参考修改集群服务配置参数,进入Flink的“全部配置”页面。 左边菜单栏中选择所需修改的角色所对应的日志菜单。 选择所需修改的日志级别。 保存配置,在弹出窗口中单击“确定”使配置生效。 配置完成后
创建单个集群标签 √ √ x √ 删除单个集群标签 √ √ x √ 按照标签查询资源列表 √ √ √ √ 查询集群标签 √ √ √ √ 访问Manager页面 √ √ x √ 查询补丁列表 √ √ √ √ 安装补丁 √ √ x √ 卸载补丁 √ √ x √ 运维通道授权 √ √ x √ 运维通道日志共享
实例”,获取ClickHouseBalancer实例对应的业务IP地址。 数据库端口: 已启用Kerberos认证集群具体的端口值可通过登录集群FusionInsight Manager,选择“集群 > 服务 > ClickHouse >逻辑集群”,查看对应逻辑集群,获取“HTTP
该任务以Derby数据库为例。Derby是一个小型的,java编写的,易于使用却适合大多数应用程序的开放源码数据库。 Derby数据库的获取。在官网下载最新版的Derby数据库(本示例使用10.14.1.0),通过WinScp等工具传入Linux客户端,并解压。 在Derby的
FE的查询连接端口,可以通过登录Manager,单击“集群 > 服务 > Doris > 配置”,查询Doris服务的“query_port”参数获取。 Doris FE实例IP地址可通过登录MRS集群的Manager界面,单击“集群 > 服务 > Doris > 实例”,查看任一FE实例的IP地址。
bigdata_env命令设置环境变量。 如果集群采用安全版本,要进行安全认证。 执行kinit hdfs命令,按提示输入密码。向MRS集群管理员获取密码。 执行hdfs dfs -ls 文件或目录路径命令,检查该目录下的文件或目录是否是可以删除的无用文件。 是,执行8。 否,执行9。 执行hdfs
Broker地址即可。 同时访问两个集群的HDFS: 无法同时获取两个相同nameservice的token,因此两个HDFS的nameservice必须不同,例如:一个为hacluster,一个为test 从cluster2的hdfs-site.xml中获取以下配置,添加到cluster1的spar
<windowTime>为统计数据的时间跨度,时间单位都是秒。 // <topics>为Kafka中订阅的主题,多以逗号分隔。 // <brokers>为获取元数据的kafka地址。 public class FemaleInfoCollectionPrint { public static
txt文件,并在文件内写入如下内容: 1,100 在HDFS中新建一个目录/tmp/input,并将log1.txt文件上传至此目录。 在HDFS客户端,执行如下命令获取安全认证。 cd/opt/hadoopclient kinit<用于认证的业务用户> 在Linux系统HDFS客户端使用命令hadoop fs