我需要集成 Logstash 数据摄取以包含存储在 Azure BLOB 存储容器中的 JSON 文件。这些 JSON 文件不断被附加,Logstash 预计会“尾随”这些文件并处理每个新添加到 Elasticsearch 的记录。由于这些文件是本地的,我们确实有一个有效的 Logstash 输入实现:
input {
file {
path => "/logs/json/*"
start_position => "beginning"
# remove this for not always starting from the beginning of the file
sincedb_path => "/dev/null"
codec => "json"
type => "json"
mode => "tail"
}
}
当文件存储在 Azure BLOB 存储容器中时,此输入显然不起作用。过去有一些开源 Logstash 输入插件,例如
input {
azure_blob_storage {
但这些不再受支持/普遍可用。
从 Azure BLOB 存储获取连续添加的记录并将其存入 Logstash 的最常见/支持的方法是什么?
您可以测试 Azure 事件中心插件
这是官方doc,您可以找到解释 Blob 存储连接的部分。