检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
[10-20,30-40]。 说明: 如不指定,默认选择所有主机。 一次性输入最多10个表达式。 所有表达式一次性最多匹配2000个主机。 高级配置 最大数量:一次性显示的最大日志条数,如果检索到的日志数量超过设定值,时间较早的将被忽略。不配表示不限制。 检索超时:用于限制每个节点上的
Guardian TokenServer实例RPC处理平均时间超过阈值可能导致业务访问OBS变慢,严重时会导致无法正常访问OBS。 可能原因 告警阈值配置不合理。 Guardian TokenServer实例设置的内存太小,频繁Full GC造成JVM卡顿。 处理步骤 检查告警阈值设置是否合理。
服务 > DBService > 实例”,查看备DBServer实例的业务IP地址。 以root用户登录主DBService节点,用户密码为安装前用户自定义,请咨询系统管理员。 执行ping 备DBService心跳IP地址命令检查备DBService节点是否可达。 是,执行6。 否,执行4。
omm命令切换至omm用户,使用cd ${BIGDATA_HOME}/FusionInsight/dbservice/进入DBService服务的安装目录。 执行sh sbin/status-dbserver.sh命令查看DBService的主备HA进程状态,状态是否查询成功。 是,执行3
examples.FemaleInfoCollection类。 样例代码获取方式请参考获取MRS应用开发样例工程。 代码样例: //创建一个配置类SparkConf,然后创建一个SparkContext SparkConf conf = new SparkConf().se
执行如下命令挂载新磁盘。 mount 新磁盘 挂载点 例如:mount /dev/sdd1 /srv/BigData/data1 如果挂载不上,请执行如下命令重载配置后重新挂载。 systemctl daemon-reload 执行如下命令为新磁盘增加omm用户权限。 chown omm:wheel 挂载点
fault/gc_thresh* 512 2048 4096 还可以将以下参数添加到“/etc/sysctl.conf”中,即使主机重启,配置依然能生效。 net.ipv4.neigh.default.gc_thresh1 = 512 net.ipv4.neigh.default
--hive-partition-key 创建分区 --hive-partition-value 导入数据库指定分区 --hive-home 指定Hive安装目录 --hive-import 表示操作是从关系型数据库导入到Hive中 --hive-overwrite 覆盖Hive已有数据 --create-hive-table
打开FusionInsight Manager页面,在实时告警列表中,单击此告警所在行的,获取告警所在主机IP地址。 以root用户登录告警所在主机,用户密码为安装前用户自定义,请咨询系统管理员。 执行以下命令查看文件句柄占用较多的进程。 for proc in /proc/[0-9]*; do if
fault/gc_thresh* 512 2048 4096 还可以将以下参数添加到“/etc/sysctl.conf”中,即使主机重启,配置依然能生效。 net.ipv4.neigh.default.gc_thresh1 = 512 net.ipv4.neigh.default
val sparkConf = new SparkConf().setAppName("KafkaWriter") // 配置Kafka val kafkaParams = new Properties() kafkaParams.put("metadata
> 告警”,在告警列表中单击此告警“操作”栏中的“清除”,在弹出窗口中单击“确定”,处理完毕。 单击该JournalNode实例,查看其“配置状态”是否为“已同步”。 是,执行8。 否,执行6。 勾选该JournalNode实例,单击“启动实例”,等待启动完成。 等待5分钟后,查看告警是否清除。
--hive-partition-key 创建分区 --hive-partition-value 导入数据库指定分区 --hive-home 指定hive安装目录 --hive-import 表示操作是从关系型数据库导入到hive中 --hive-overwrite 覆盖hive已有数据 --create-hive-table
p主要由HDFS、MapReduce、HBase和Hive等组成。 角色 角色是服务的组成要素,每个服务由一个或多个角色组成。服务通过角色安装到主机(即服务器)上,保证服务正常运行。 集群 将多个服务器集中起来使它们能够像一台服务器一样提供服务的计算机技术。采用集群通常是为了提高
inner join、aggregate over union all等。为应对不同应用场景的特殊需求,对所有下推模块设计开关功能,用户可以自行配置是否应用上述查询下推的增强。 表1 跨源查询增加特性对比 模块 增强前 增强后 aggregate 不支持aggregate下推 支持的聚合函数为:sum
BUCKET_NUM计算的,BUCKET_NUM默认为1024,可以通过table.optimizer.distinct-agg.split.bucket-num选项进行配置。 第二次聚合是由原始group key进行shuffle,并使用SUM聚合来自不同buckets的COUNT DISTINCT值。由于相同的distinct
in_metadata/coprocessor/kylin-coprocessor-1.6.0-SNAPSHOT-0.jar HBase在配置协处理器时,一定要保证对应的jar包路径没有问题,否则HBase会无法启动。 解决办法 使用Kylin对接MRS,确保Kylin相关jar包存在。
/*+ OPTIONS('duplicate.left'='true','duplicate.right'='true')*/ 在SQL语句中配置 如同时为左表“user_info”和右表“user_score”设置去重。 CREATE TABLE user_info (`user_id`
inner join、aggregate over union all等。为应对不同应用场景的特殊需求,对所有下推模块设计开关功能,用户可以自行配置是否应用上述查询下推的增强。 表1 跨源查询增加特性对比 模块 增强前 增强后 aggregate 不支持aggregate下推 支持的聚合函数为:sum
切换为omm用户,进入拷贝目录下“/opt/example”,首先确保conf目录下和依赖库文件目录下的所有文件,对当前用户均具有可读权限;同时保证已安装jdk并已设置java相关环境变量,然后执行命令,如java -cp .:/opt/example/conf:/opt/example/kafka-examples-lib/*