问题陈述是 “如果由于任何原因,filebeat 与其输出的连接中断,filebeat 将在自己的存储库中存储数据多长时间?输出可以是 elasticsearch 或 kafka”
默认情况下,Filebeat 将排队 3200 个事件。 然后将停止阅读新行。
Filebeat 支持 2 种类型的队列:
两者都有关于它们可以存储的事件数量的特定配置。 他们将从队列中删除已被输出消耗/丢弃的事件(无论您使用哪种类型,Kafka/Elasticsearch ...)
如果队列达到最大大小。 Filebeat 将根据输入停止消费或主动拒绝传入事件。