检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
指定一个Loader连接的名称。 OBS服务器 输入OBS endpoint地址,一般格式为OBS.Region.DomainName。 例如执行如下命令查看OBS endpoint地址: cat /opt/Bigdata/apache-tomcat-7.0.78/webapps/web/W
directories.”的信息。 是,执行9。 否,执行16。 单击“备份路径”下的“查看”,获取备份路径。 以root用户登录节点,执行以下命令查看节点挂载详情,用户密码为安装前用户自定义,请咨询系统管理员: df -h 在挂载详情中查看备份路径挂载点的剩余空间是否小于20GB。 是,执行12。
等待2分钟查看告警是否自动恢复。 是,处理完毕。 否,执行5。 检查磁盘是否有误写入的大文件 以omm用户登录DBService主管理节点。 执行以下命令,查看数据目录磁盘空间下超过500MB的文件,检查该目录下是否有误写入的大文件存在。 source $DBSERVER_HOME/.dbservice_profile
解决Hive和SparkSQL的时间函数执行结果不一致问题 解决Hive on Tez执行Map-Join结果不正确问题(HIVE-20187) 解决beeline -p命令执行报错问题 解决Hue格式化SQL失败问题 解决因Hue和Oozie时区不兼容导致Oozie作业无法提交问题 解决Hue界面执行含变量的Hive
parts_to_throw_insert clickhouse实例内存 / 32GB * 300 (保守估计值) 验证修改结果: 登录ClickHouse客户端,执行命令select * from system.merge_tree_settings where name = 'parts_to_throw_insert';
HiveDriver").newInstance(); 获取JDBC连接,执行HQL,输出查询的列名和结果到控制台,关闭JDBC连接。 在网络拥塞的情况下,您还可以设置客户端与JDBCServer连接的超时时间,可以避免客户端由于无限等待服务端的返回而挂起。使用方式如下: 在执行“DriverManager
policy增加如下配置: permission javax.management.MBeanTrustPermission "register"; 执行如下命令,进入Sqoop的conf目录并增加配置: cd /opt/Bigdata/client/sqoop-1.4.7.bin__hadoop-2
no.acl.found”或配置为“false”。 当ACL设置为false不允许采用Kafka非安全端口21005来进行访问。 通过客户端命令查看topic的ACL权限设置信息: [root@10-10-144-2 client]# kafka-acls.sh --authorizer-properties
重启实例”,输入当前用户密码并单击“确定”,重启FE实例使配置生效。 在MySQL客户端连接Doris后(详细操作请参见快速使用Doris),执行以下命令即可查看Doris已执行完成的SQL信息: select * from __internal_schema.doris_audit_log_tbl__
读文件时,Client会向NameNode请求所读Block所在的DataNode列表。NameNode会返回根据网络拓扑距离进行排序的DataNode列表。开启读取的HDFS Load Balance功能时,NameNode会在原先网络拓扑距离排序的基础上,根据每个节点的平均I/O负载情况进行顺序调整,把高I/O负载的节点顺序调整至后面。
的任务,RegionServer从头启动log splitting任务。 HMaster初始化工作完成情况会由于很多原因被延迟: 间歇性的网络故障。 磁盘瓶颈。 log split任务工作负荷较大,RegionServer运行缓慢。 RegionServer(region openning)响应缓慢。
的任务,RegionServer从头启动log splitting任务。 HMaster初始化工作完成情况会由于很多原因被延迟: 间歇性的网络故障。 磁盘瓶颈。 log split任务工作负荷较大,RegionServer运行缓慢。 RegionServer(region openning)响应缓慢。
如果查询等待时间超过该值,那么查询会被拒绝,时间单位为毫秒。 开启内存软隔离 开启 关闭 租户是否可以超量占用内存资源 如果关闭内存软隔离,系统检测到租户内存使用超出限制后将立即取消租户组内内存占用最大的若干个任务。 如果开启内存软隔离,若该系统有空闲内存资源则该租户在超出内存的限制后
开发环境:Windows系统,支持Windows7以上版本。 运行环境:Windows系统或Linux系统。 如需在本地调测程序,运行环境需要和集群业务平面网络互通。 安装JDK 开发和运行环境的基本配置。版本要求如下: 服务端和客户端仅支持自带的OpenJDK,版本为1.8.0_272,不允许替换。
'^]'类似打印则说明可以连通,如果出现connection refused则表示失败,无法连接到相关端口。 如果相关端口打开,但是从别的节点无法连通到该端口,则需要排查下相关网络配置。 23662这个端口每次都是随机的,所以要根据自己启动任务打开的端口来测试。 父主题: 使用Spark
参见快速使用HBase进行离线数据分析更新并登录HBase客户端,验证Ranger是否已经完成集成HBase。 以客户端安装用户登录客户端安装节点,执行如下命令,进入hbase shell。 source /opt/client/bigdata_env hbase shell 图7 进入hbase
parts_to_throw_insert clickhouse实例内存 / 32GB * 300 (保守估计值) 验证修改结果: 登录ClickHouse客户端,执行命令select * from system.merge_tree_settings where name = 'parts_to_throw_insert';
/var/log/Bigdata/clickhouse/clickhouseServer/checkDisk.log ClickHouse磁盘检测日志文件路径。 /var/log/Bigdata/clickhouse/clickhouseServer/backup.log Click
run(ThreadPoolExecutor.java:617) at java.lang.Thread.run(Thread.java:745) 使用客户端hdfs命令查看,如下文件不存在。 hdfs://hacluster/kylin/kylin_metadata/coprocessor/kylin-coprocessor-1
non-partitioned table for streaming read 解决Flink on hudi模块存在默认密码硬编码的问题 增加新的call命令,清除所有历史版本数据,仅保留所有最新的fileslice,同时清理timeline文件,仅保留一个最新的commit 单条数据大小估算时跳过包含delete操作的commit