当我把一个文件放在本地目录下时(vagrant/flume/test.csv
),在HDFS中flume将其变成(/user/inputs/test.csv.1591560702234
),我想知道为什么HDFS会增加了以下内容 1591560702234
以及如何删除它!
这是我的flume.conf文件
# Flume agent config
a1.sources = r1
a1.sinks = k2
a1.channels = c1
a1.channels.c1.type = file
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.sources.r1.channels = c1
a1.sources.r1.type = spooldir
a1.sources.r1.basenameHeader = true
a1.sources.r1.spoolDir = /vagrant/flume
a1.sinks.k2.type = hdfs
a1.sinks.k2.channel = c1
a1.sinks.k2.hdfs.filePrefix = %{basename}
a1.sinks.k2.hdfs.writeFormat = Text
#a1.sinks.k2.hdfs.fileSuffix =
a1.sinks.k2.hdfs.fileType = DataStream
a1.sinks.k2.hdfs.path = /user/inputs/
a1.sinks.k2.rollInterval = 0
a1.sinks.k2.rollSize = 0
a1.sinks.k2.rollCount = 0
a1.sinks.k2.idleTimeout = 0
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k2.channel = c1
Flume是以毫秒为单位添加时间的,从你的例子来看。
select from_unixtime(ceil(1591560702234 / 1000));
+----------------------+--+
| time |
+----------------------+--+
| 2020-06-07 22:11:43 |
+----------------------+--+
我认为用flume配置是不可能删除时间戳的。
但你可以添加一个后缀为 hdfs.fileSuffix
.来自文档。
hdfs.fileSuffix – Suffix to append to file (eg .avro - NOTE: period is not automatically added)
你也可以把更多的事件放在一个文件里,用一些flume属性来实现
请检查
你也可以用HDFS命令合并目录。
getmerge
Usage: hadoop fs -getmerge [-nl] <src> <localdst>
输入一个源目录和一个目标文件,并将src中的文件合并到目标本地文件中。可以选择设置 -nl 来启用在每个文件的结尾添加换行符(LF)。-skip-empty-file 可以用来避免在空文件的情况下出现不必要的换行符。
示例:-nl
hadoop fs -getmerge -nl /src /opt/output.txt
hadoop fs -getmerge -nl /src/file1.txt /src/file2.txt /output.txt