Specifies how many records to attempt to batch together for insertion into the destination table, when possible.
Type: int
Default: 3000
Valid Values: [0,…]
Importance: medium
所以,这是来自Confluent网站。
重要性为中,默认值为3000。如果我要KAFKA,该怎么办即使有人说,每30秒更改一次,只有27条KAFKA消息为主题?什么是在计算机上进行处理的默认设置每个经过的时间?我们都知道这样做是可以解决的,因为我们可以运行许多示例,仅将1条记录从mySQL传递到SQLServer,但是我找不到用于基于时间的处理的参数值。我可以影响它吗?
https://github.com/confluentinc/kafka-connect-jdbc/issues/290也要注意这一点。那里有一些有趣的东西。
我认为您应该集中注意“在可能的情况下”
consumer.max.poll.records
将始终从Kafka抓取那么多记录。轮询完成后,JDBC接收器将根据需要构建任意数量的批处理,直到在consumer.max.poll.interval.ms