检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
根据6确认要扩大的分区, 参考扩容云硬盘分区和文件系统(Linux)中的“扩大已有分区”章节进行操作。 扩大已有分区操作完成后,重新执行ClickHouse业务。 父主题: ClickHouse集群管理
最多保留最近的100个压缩文件,压缩文件保留个数可以在Manager界面中配置。
“备份路径”表示备份文件保存的完整路径。 选择正确的项目,在“备份路径”手工选中备份文件的完整路径并复制。 在FusionInsight Manager,选择“运维 > 备份恢复 > 恢复管理”。 单击“创建”。 在“任务名称”填写恢复任务的名称。
磁盘吐出文件路径。 worker.config.properties/coordinator.config.properties max-spill-per-node 10GB Sum(每个节点可用空间) * 50%。 所有查询在单节点上磁盘吐出文件可用空间。
在“Files”的右侧单击 ,然后单击 指定该文件的存储目录。 可以单击 新增加一个文件资源。 在“Functions”的右侧单击 ,输入用户自定义的名称和函数的类名称。 可以单击 新增加一个自定义函数。
图4 选择package生命周期,执行Maven构建过程 在Run:中出现下面提示,则说明打包成功 图5 打包成功提示 您可以从项目目录下的target文件夹中获取到Jar包。
执行hdfs dfs -rm -r 文件或目录路径命令,确认删除无用的文件。 检查本告警是否恢复。 是,处理完毕。 否,执行9。 对系统进行扩容。 对磁盘进行扩容。 检查本告警是否恢复。 是,处理完毕。 否,执行11。 收集故障信息。
修改样例工程中“resources”目录下的“opentsdb.properties”文件,配置OpenTSDB相关属性。
将初始化需要的配置文件“core-site.xml”、“hdfs-site.xml”、“hbase-site.xml”放置到"src/main/resources"的目录下。
回答 停止应用,在Spark的配置文件“spark-defaults.conf”中将配置项“spark.event.listener.logEnable”配置为“true”。并把配置项“spark.eventQueue.size”配置为1000W。
显示“浏览文件夹”对话框。 选择样例工程文件夹,单击“Finish”。 父主题: 准备HBase应用开发环境
回答 停止应用,在Spark的配置文件“spark-defaults.conf”中将配置项“spark.event.listener.logEnable”配置为“true”。并把配置项“spark.eventQueue.size”配置为1000W。
若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn.security.credentials.hbase.enabled”设置为“true”(该参数值默认为“false”,改为“
若运行“Spark on HBase”样例程序,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn.security.credentials.hbase.enabled”设置为“true”(该参数值默认为“false”,改为“
选择“系统 > 权限 > 用户”,在用户名中选择ck_user1,单击操作列的“更多 > 下载认证凭据”下载认证凭据文件,保存后解压得到用户的“user.keytab”文件与“krb5.conf”文件。
参考配置华为开源镜像仓章节描述,增加开源镜像仓地址等配置信息到本地Maven的“setting.xml”配置文件。
tls_cert_file 证书文件。 tls_key_file 证书密钥文件。 tls_ca_cert_file CA证书文件。 tls_ca_cert_dir CA证书所在的目录。 tls_cipher_suite 允许加密套件。 父主题: ClickHouse用户权限管理
检查ClickHouse备份文件保存路径。 停止ClickHouse的上层应用。
表1 参数说明 参数名称 说明 <filePath> 指本地文件系统中文件路径,每个节点都需要放一份/opt/log1.txt和/opt/log2.txt。可以默认,也可以设置。 <windowTime> 指窗口时间大小,以分钟为单位。可以默认,也可以设置。
从6和7回显中获取分区的分布信息和节点信息,在当前目录下创建执行重新分配的json文件。 以迁移的是Broker_ID为6的节点的分区为例,迁移到“/srv/BigData/hadoop/data1/kafka-logs”,完成迁移所需的json配置文件,内容如下。