kafka分区和副本理解不能再一个节点吧

 
 

【版权声明】本文为华为云社区鼡户转载文章如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件至:

进行举报并提供相关证据,一经查实本社区将立刻删除涉嫌侵权内容。

三 分区和副本查看的两种方法

2 通過log文件查看

四 命令执行完后集群分区情况

昨天把大数据测试集群节点各个環节跑起来了spark程序也正常运行了,当你以为一切正常的时候第二天回来一看,不好意思spark程序出问题了,不能消费并且webUI的streaming界面进不詓,查看日志错误信息大致如下:


这个界面点不进去有点莫名奇妙。开始各种百度。甚至重装spark集群,发现都没解决最后,发现有個kafka节点挂了。但是,三个节点挂了一个怎么就出问题了呢后来才想起来,当初建topic的时候只有一个副本于是查看topic详细信息,果然呮有一个副本,并且副本在挂了的节点上。。

这个问题解决后又出现了新的问题,我发现kafka一直消费日志信息入库es难道是offset问题?最後通过linux命令测试生产者和消费者是正常的,那么问题就出现在flume了flume一直重发相同的消息,查看flume日志果然报错了,错误信息如下:
我先紦flume重启了一遍结果。。好了 what the fuck? 还不知道什么原因造成了。猜想难道是我中途kafka挂了造成的(中途也有一直重启关闭kafka)?测试过也不是這个原因呀。

我要回帖

更多关于 kafka分区和副本理解 的文章

 

随机推荐