JDBC Sink配置选项batch.size

问题描述 投票:0回答:1

来自https://docs.confluent.io/3.1.1/connect/connect-jdbc/docs/sink_config_options.html#jdbc-sink-configuration-options

Specifies how many records to attempt to batch together for insertion into the destination table, when possible.

Type: int
Default: 3000
Valid Values: [0,…]
Importance: medium

所以,这是来自Confluent网站。

重要性为中,默认值为3000。如果我要KAFKA,该怎么办即使有人说,每30秒更改一次,只有27条KAFKA消息为主题?什么是在计算机上进行处理的默认设置每个经过的时间?我们都知道这样做是可以解决的,因为我们可以运行许多示例,仅将1条记录从mySQL传递到SQLServer,但是我找不到用于基于时间的处理的参数值。我可以影响它吗?

https://github.com/confluentinc/kafka-connect-jdbc/issues/290也要注意这一点。那里有一些有趣的东西。

jdbc apache-kafka apache-kafka-connect
1个回答
0
投票

我认为您应该集中注意“在可能的情况下”

consumer.max.poll.records将始终从Kafka抓取那么多记录。轮询完成后,JDBC接收器将根据需要构建任意数量的批处理,直到在consumer.max.poll.interval.ms

中调用下一个使用者轮询为止
© www.soinside.com 2019 - 2024. All rights reserved.