我正在使用cnn_dailymail数据集,它是TensorFlow Datasets的一部分。我的目标是在对数据集应用一些文本预处理步骤后标记该数据集。
我按如下方式访问和预处理数据集:
!pip install tensorflow-gpu==2.0.0-alpha0
import tensorflow as tf
import tensorflow_datasets as tfds
data, info = tfds.load('cnn_dailymail', with_info=True)
train_data, test_data = data['train'], data['test']
def map_fn(x, start=tf.constant('<start>'), end=tf.constant('<end>')):
strings = [start, x['highlights'], end]
x['highlights'] = tf.strings.join(strings, separator=' ')
return x
train_data_preproc = train_data.map(map_fn)
elem, = train_data_preproc.take(1)
elem['highlights'].numpy()
# b'<start> mother announced as imedeen ambassador . ...
为了标记数据集,我遇到了tfds.features.text.Tokenizer函数(另请参见here)。但是,这并不符合我想要的方式:
tokenizer = tfds.features.text.Tokenizer(alphanum_only=False, reserved_tokens=['<start>', '<end>'])
tokenizer.tokenize(elem['highlights'].numpy())
# ['<start>', ' ', 'mother', ' ', 'announced', ' ', 'as', ' ', 'imedeen', ' ', 'ambassador', ' . ',...]
我希望令牌生成器仅在空白上分割,而不是将空白视为单独的令牌。有没有办法做到这一点?最好创建我自己的令牌生成器函数,然后使用dataset.map()
函数应用它吗?谢谢!
对于点击此链接的读者...
请在Tensorlfow中找到我的要点,这可能有助于令牌化。
有不同的可用选项:
Tensorflow Keras文本预处理:多合一的分词器
在我的试用版中,此单词突出显示为单词和字符级标记和编码/解码的简单易用