logstash中的sql_last_value始终为351

问题描述 投票:0回答:1

我正在使用logstash插入索引到elasticsearch。我的conf看起来像这样:

input {
    jdbc {
        jdbc_connection_string => "jdbc:mysql://localhost:3306/sample"
        jdbc_user => "root"
        jdbc_password => ""
        jdbc_driver_library => "/usr/share/logstash/logstash-core/lib/jars/mysql-connector-java-5.1.48.jar"
        jdbc_driver_class => " com.mysql.jdbc.Driver"
        tracking_column => "time"
        use_column_value => true
        statement => "SELECT time, firstname, lastname, email FROM sample.sample where time > :sql_last_value;"
        schedule => " * * * * * *"
}
}
output {
    elasticsearch {
document_id=> "%{time}"
    document_type => "doc"
        "hosts" => ["myhost"]
        "index" => "sample" 
    }
stdout{
  codec => rubydebug
  }
}

当我使用logstash执行此文件时,出现查询:

SELECT time, firstname, lastname, email FROM sample.sample where time > 351

但是time列是我正在跟踪的MySQL数据库中的currenttimestamp,我认为sql_last_value包含此字段的值。我是否在做与sql_last_value相关的错误操作?

elasticsearch jdbc logstash logstash-jdbc
1个回答
0
投票

我做错了:如果tracking_column不是int类型,我们需要指定tracking_column_type。就我而言,tracking_column的类型为timestamp。因此,我需要添加:

tracking_column_type =>"timestamp"

这解决了我的问题。

© www.soinside.com 2019 - 2024. All rights reserved.