我目前正在尝试批量插入许多记录(~2000),而 Jooq 的 batchInsert 没有做我想做的。
我正在将 POJO 转换为 UpdatableRecords,然后执行 batchInsert,它为每条记录执行插入。所以 Jooq 为每个批量插入执行约 2000 次查询,这会降低数据库性能。
它正在执行这段代码(jooq 的批量插入):
for (int i = 0; i < records.length; i++) {
Configuration previous = ((AttachableInternal) records[i]).configuration();
try {
records[i].attach(local);
executeAction(i);
}
catch (QueryCollectorSignal e) {
Query query = e.getQuery();
String sql = e.getSQL();
// Aggregate executable queries by identical SQL
if (query.isExecutable()) {
List<Query> list = queries.get(sql);
if (list == null) {
list = new ArrayList<Query>();
queries.put(sql, list);
}
list.add(query);
}
}
finally {
records[i].attach(previous);
}
}
我可以这样做(因为 Jooq 在内部做同样的事情):
records.forEach(UpdatableRecord::insert);
代替:
jooq.batchInsert(records).execute();
如何告诉 Jooq 批量创建新记录?我应该将记录转换为绑定查询然后调用 batchInsert 吗?有任何想法吗? ;)
DSLContext.batchInsert()
为每组具有相同生成的 SQL 字符串的连续记录创建一个 JDBC 批处理语句(不幸的是,Javadoc 没有正式定义这个)。
当您的记录如下所示时,这可能会变成一个问题:
+------+--------+--------+
| COL1 | COL2 | COL3 |
+------+--------+--------+
| 1* | {null} | {null} |
| 2* | B* | {null} |
| 3* | {null} | C* |
| 4* | D* | D* |
+------+--------+--------+
.. 因为在那种情况下,生成的 SQL 字符串将如下所示:
INSERT INTO t (col1) VALUES (?);
INSERT INTO t (col1, col2) VALUES (?, ?);
INSERT INTO t (col1, col3) VALUES (?, ?);
INSERT INTO t (col1, col2, col3) VALUES (?, ?, ?);
此默认行为的原因是这是保证......
DEFAULT
行为的唯一方法。就像在 SQL DEFAULT
中一样。 我在这里给出了这种行为的基本原理.
考虑到这一点,并且由于每个连续的 SQL 字符串都不同,不幸的是,插入并没有像您预期的那样作为一个批次进行批处理。
true
强制所有
INSERT
语句相同的一种方法是将每个个体记录的所有更改标志设置为true
:
for (Record r : records)
r.changed(true);
现在,所有 SQL 字符串都将相同。
Loader
API您可以导入数据(并在那里指定批大小)而不是批处理。有关详细信息,请参阅手册中有关导入记录的部分:
https://www.jooq.org/doc/latest/manual/sql-execution/importing/importing-records
您对
batchInsert()
的使用在使用 TableRecords
时很方便。但是当然,您可以手动生成一个INSERT
语句并使用jOOQ的批处理语句API对各个绑定变量进行批处理:
https://www.jooq.org/doc/latest/manual/sql-execution/batch-execution
DSLContext.batchInsert()
和类似的 API 有几个未解决的问题。为每个单独记录生成 SQL 字符串的客户端算法效率低下,将来可能会更改,直接依赖 changed()
标志。一些相关问题: