正在生成
详细信息:
检测到您已登录华为云国际站账号,为了您更好的体验,建议您访问国际站服务网站 https://www.huaweicloud.com/intl/zh-cn
不再显示此消息
升级执行完成后确认结果。确保客户端升级无误后执行sh client_batch_upgrade.sh -c,确认升级结果。 如果客户端升级后存在问题,可以执行sh client_batch_upgrade.sh -s,回滚客户端。 客户端批量升级工具本身是将原客户端move至备份目录,
烈建议使用此参数;如果不使用sync,表示采用异步写入HBase的方式,可能存在丢失数据的风险。具体信息请参考OpenTSDB应用开发常见问题。 父主题: 开发OpenTSDB应用
执行Kafka Topic创建操作时发现Partition的Leader显示为none 问题背景与现象 在使用Kafka客户端命令创建Topic时,发现创建Topic Partition的Leader显示为none。 [root@10-10-144-2 client]# kafka-topics
Storm业务拓扑配置GC参数不生效 问题背景与现象 业务拓扑代码中配置参数topology.worker.childopts不生效,关键日志如下: [main] INFO b.s.StormSubmitter - Uploading topology jar /opt/jar/example
为driver_behavior.jar的jar包。 运行程序参数 为本次执行的作业配置相关优化参数,用于优化资源使用效率,提升作业的执行性能。 参数选择“--class”,值输入“com.huawei.bigdata.spark.examples.DriverBehavior”。
在弹出窗口选择文件夹“flink-dws-sink-example”,单击“OK”。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”,弹出“Settings”窗口。 在左边导航上选择“Editor
在弹出窗口选择文件夹“flink-dws-sink-example”,单击“OK”。 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings”,弹出“Settings”窗口。 在左边导航上选择“Editor
sdk目录,单击“OK”。 图25 Scala SDK files 设置成功,单击“OK”保存设置。 图26 设置成功 设置IDEA的文本文件编码格式,解决乱码显示问题。 在IDEA首页,选择“File > Settings...”。 图27 选择Settings 在“Settings”页面,展开“Editor”,选择“File
仅可以用来判断心跳时间之前的数据已经同步到数据湖,还可以根据事务时间,写Kafka的时间,数据开始入湖时间和数据入湖结束时间来判断数据时延问题。 同时对于PgSQL任务,配置心跳表可以定期向前推进PgSQL中Slot记录的LSN的信息,避免由于某个任务配置了某部分变化很小的表导致数据库日志积压。
不允许多个线程在同一时间共用同一个HTable实例。HTable是一个非线程安全类,因此,同一个HTable实例,不应该被多个线程同时使用,否则可能会带来并发问题。 父主题: 开发HBase应用
r启动超时时间,导致Worker被Kill从而一直进行重分配。 定位思路 使用Storm客户端提交拓扑,检查出重复“storm.yaml”问题。 重新打包Jar包,然后再提交拓扑。 修改Storm集群关于Worker启动超时参数。 处理步骤 使用Eclipse远程提交拓扑后Wor
节点组中节点数量总和小于等于10000个。 管控数合设 生产环境或商用环境不推荐使用此场景。 管理节点、控制节点和数据节点合并部署时,集群性能和可靠性都会产生较大影响。 如节点数量满足需求,建议将数据节点单独部署。 Master节点数量大于等于3个,小于等于100个。 节点组数量总和小于等于10个。
a/oozie”中的prestartDetail.log、oozie.log、catalina.out里的异常信息,确认非人为误操作导致的问题后,执行16。 检查Nodeagent进程。 以root用户分别登录Oozie服务两个节点。执行命令ps -ef | grep nodea
执行Kafka Topic删除操作时发现无法删除 问题背景与现象 在使用Kafka客户端命令删除Topic时,发现Topic无法被删除。 kafka-topics.sh --delete --topic test --zookeeper 192.168.234.231:2181/kafka
Consumer消费数据时存在重复消费现象 问题背景与现象 当数据量较大时会频繁的发生rebalance导致出现重复消费的情况,关键日志如下: 2018-05-12 10:58:42,561 | INFO | [kafka-request-handler-3] | [GroupCoordinator
repository”参数,依次单击“Apply > OK”。 图12 选择本地Maven安装目录 设置IntelliJ IDEA的文本文件编码格式,解决乱码显示问题。 在IntelliJ IDEA的菜单栏中,选择“File > Settings...”。 图13 Settings 在弹出的“Setti
Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错: 此时需要用户设置系统的环境变量USERDNSDOMAIN以规避该问题,具体如下: 单击“计算机”右键,选择“属性”,然后选择“高级系统设置 > 高级 > 环境变量”。 设置系统环境变量,在系统变量下单击“新
后端服务器配置安全组。 配置完成后,在“监听器”界面的“后端服务器组”页签下,对应的后端服务器显示“健康检查结果”状态为“异常”。 解决如上问题需要在ClickHouse后端服务器对应的安全组下放通“100.125.0.0/16”网段,具体操作如下: 在“监听器”界面的“后端服务器”页签下,单击任意一个服务器名称。
Realm,从环境变量USERDNSDOMAIN中获取)。如果该主机没有域名,则运行样例程序会有如下报错: 此时需要用户设置系统的环境变量USERDNSDOMAIN以规避该问题,具体如下: 单击“计算机”右键,选择“属性”,然后选择“高级系统设置 > 高级 > 环境变量”。 设置系统环境变量,在系统变量下单击“新
查看NTP告警的“附加信息”是否描述“与主OMS节点NTP服务无法同步时间”。 是,执行7。 否,执行17。 排查与主OMS节点chrony服务的同步是否有问题。 使用root用户登录告警节点,执行chronyc sources命令。 如果显示结果的主OMS节点chrony服务IP地址前有“*”号,表示同步正常,如下: