我正在尝试找到专门用于地理空间或位置实体的最佳预训练 Hugging Face Transformer 模型,以从文本中提取英文位置实体。它比 roberta-large 效果更好吗?
如果您想要最好的 NER 模型,那么您可以尝试 llama 3.1 8b 指令 4 位量化模型。我在各种不同类型的示例中尝试过它,几乎在每种情况下它都能够识别地理空间实体。 Llama 也是一个基于 Transformer 的模型。它比基于 Bert/Roberta 的模型要好得多。
拥抱脸部模型:https://huggingface.co/meta-llama/Llama-3.1-8B-Instruct
注意:最终输出可以根据您的需要通过后处理逻辑和提示来构建。