无法导入所有包的BERT模型

问题描述 投票:0回答:2

我正在尝试使用 BERT 学习 NLP。在尝试在colab中导入bert模型和分词器时。我面临以下错误。

ImportError: cannot import name '_LazyModule' from 'transformers.file_utils' (/usr/local/lib/python3.7/dist-packages/transformers/file_utils.py)

这是我的代码

!pip install transformers==4.11.3
from transformers import BertModel, BertTokenizer
import torch

为了修复错误。 我尝试升级变压器和火炬。

我已经尝试了以下链接的解决方案:这个

我仍然无法前进。 请帮忙。

deep-learning nlp pytorch huggingface-transformers bert-language-model
2个回答
0
投票

基于这些链接 12

这应该有帮助 -

pip install 'lightning-flash[text]' --upgrade

由于您提供的代码不是错误的原因,因为当我尝试时它在 Colab 上运行,因此这可能是您环境中的罪魁祸首


0
投票

为什么会出现这个错误
从 Transformer 导入 BertModel ImportError:无法从“transformers”导入名称“BertModel”(C:\Users\saivi naconda3 nv

© www.soinside.com 2019 - 2024. All rights reserved.