检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
集群部署为普通模式,则不需要配置互信。 主备集群上的时间必须一致,而且主备集群上的NTP服务必须使用同一个时间源。 检查备集群HDFS是否有充足的空间,备份文件保存的目录建议使用用户自定义的目录。 备份IoTDB业务数据 在FusionInsight Manager,选择“运维 >
查看弹性伸缩策略 功能介绍 查看指定集群的所有的弹性伸缩策略信息。 接口约束 无 调用方法 请参见如何调用API。 URI GET /v2/{project_id}/autoscaling-policy/{cluster_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id
projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如下图所示。 图2 doris-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”,双击“clean”运行maven的clean命令。
单击现有集群列表右上角的“标签搜索”,展开查询页。 输入待查询集群的标签。 标签键或标签值可以通过下拉列表中选择,当标签键或标签值全匹配时,系统可以自动查询到目标集群。当有多个标签条件时,会取各个标签的交集,进行集群查询。 单击“搜索”。 系统根据标签键或标签值搜索目标集群。 管理标签 在现有集群的标签页,执行标签的增、删、查操作。
keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时间,取值为"true"或者"false" true 单击“导出”,将配置文件“properties
keytab文件从下载用户flume_hdfs的kerberos证书文件中获取,另外,确保用于安装和运行Flume客户端的用户对user.keytab文件有读写权限。 hdfs.useLocalTimeStamp 是否使用本地时间,取值为"true"或者"false" true 单击“导出”,将配置文件“properties
projects 编译运行程序。 放置好配置文件,并修改代码匹配登录用户后,文件列表如下图所示。 图2 doris-example待编译目录列表 编译方式有以下两种: 方法一 选择“Maven > 样例工程名称 > Lifecycle > clean”,双击“clean”运行maven的clean命令。
每条规则可以关联1个SQL引擎,如需针对其他SQL引擎继续配置,可以继续添加规则。 服务:选择当前SQL防御规则所关联的SQL引擎。 SQL请求满足防御规则后,系统的处理操作有以下类型: 提示:配置系统对SQL请求满足防御规则后,是否进行日志记录和提示处理。开启按钮时,如果当前规则有变量参数,需同时配置阈值。 拦截
FS/config”路径下的“core-site.xml”和“hdfs-site.xml”。 查看“core-site.xml”文件中是否有“fs.trash.interval”配置项,若没有,则新增以下配置。 <property> <name>fs.trash.interval</name>
查看NTP告警的“附加信息”是否描述“与主OMS节点NTP服务无法同步时间”。 是,执行7。 否,执行17。 排查与主OMS节点chrony服务的同步是否有问题。 使用root用户登录告警节点,执行chronyc sources命令。 如果显示结果的主OMS节点chrony服务IP地址前有“*”号,表示同步正常,如下:
进而可能引起实例间的负载不均衡。 实例进入维护模式(即进入此模式后不再接受新的客户端连接)后,当达到退服超时时间,仍在此实例上运行的业务有可能会发生失败。 URL连接介绍 多主实例模式 多主实例模式的客户端读取ZooKeeper节点中的内容,连接对应的JDBCServer服务。连接字符串为:
缩容集群 功能介绍 对MRS集群进行缩容。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/clusters/{cluster_id}/shrink 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 参数解释:
Conditions),spark-submit与spark-sql不支持。 前提条件 已安装Ranger服务且服务运行正常。 已启用Hive服务的Ranger鉴权功能,并且需要先重启Hive服务,再重启Spark服务,再启用Spark服务的Ranger鉴权。启用Spark服务的Ranger鉴权后再重启Spark服务。
扩容集群 功能介绍 对MRS集群进行扩容。 调用方法 请参见如何调用API。 URI POST /v2/{project_id}/clusters/{cluster_id}/expand 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 参数解释:
及服务名称、角色名称的描述和操作请以实际版本为准。 前提条件 已安装Ranger服务且服务运行正常。 已启用Hive服务的Ranger鉴权功能,并且需要先重启Hive服务,再重启Spark服务,再启用Spark服务的Ranger鉴权。启用Spark服务的Ranger鉴权后再重启Spark服务。
联系运维人员,以root用户登录IP1节点,用户密码为安装前用户自定义,请咨询系统管理员,在该节点上执行ps -ef | grep nscd命令,查看是否有/usr/sbin/nscd进程启动。 root 6893 12764 0 20:20 pts/2 00:00:00 grep
test(id int,str1 string,str2 string); 在MySQL或Postgres的test数据库中执行以下命令查看是否有表test相关信息: select * from TBLS; 能查看到表test相关信息则说明外置Hive数据库成功,例如: 在MySQL中查看的结果为:
oup的进程不受cpu使用率限制。 “-l”(可选):日志路径,默认值为“/var/log/Bigdata”(“user”用户需要对此目录有写权限)。首次安装客户端会生成名为flume-client的子目录,之后安装会依次生成名为“flume-client-n”的子目录,n代表一
如下公共消息头需要添加到请求中。 Content-Type:消息体的类型(格式),必选,默认取值为“application/json”,有其他取值时会在具体接口中专门说明。 Authorization:签名认证信息,可选,当使用AK/SK方式认证时,使用SDK对请求进行签名的过
在本地Windows中调测HDFS程序 (可选)在开发环境中(例如IntelliJ IDEA中),运行此样例代码需要设置运行用户,设置运行用户有两种方式,添加环境变量HADOOP_USER_NAME或者修改代码。设置环境变量方法具体如下: 选中需要运行的样例程序HdfsExample