自然语言处理(NLP)是人工智能的子领域,涉及从自然语言数据转换或提取有用信息。方法包括机器学习和基于规则的方法。
我正在尝试对西班牙语文本进行 NLP 分析。因此,为了进行词形还原,我使用 Spacy,因为 NLTK 没有西班牙语版本的引理。 Spacy 的问题是我有限制...
PyTorch 和 TensorFlow >= 2.0 均未找到。模型将不可用,只能使用分词器、配置和文件/数据实用程序
我正在尝试使用 pip 安装变压器 点安装变压器 进口变压器后 这个错误显示 PyTorch 和 TensorFlow >= 2.0 均未找到。模型将不可用...
我正在玩 HuggingFace 和那里的一些模型。我正在努力实现 RAG 的目标。看起来像是一个非常清晰的指南,包含所有所需的成分和食谱。但是...
Spacy 自定义名称实体识别 (NER)“灾难性遗忘”问题
模型无法记住之前训练的标签 我知道这是“灾难性的遗忘”,但似乎没有例子或博客可以帮助解决这个问题。 最常见的反应是...
我在运行一个在无限循环中使用各种 NLP 模型处理文本的 Python 脚本时遇到了 CPU 内存泄漏。该脚本包括语言翻译、情感分析以及...
我从聊天中得到了以下输入: “设置早上 7:00 的闹钟并在 Spotify 上播放 Caparezza 的歌曲。” 输入可能包含要在后端执行的多个操作。 我想根据...来划分文本
我一直在使用azure ai搜索和评分配置文件来增强我的索引文档,这些文档来自“已审阅”源,这意味着我想发送到具有严格要求的顶级文档...
ROUGE 分数指标不适用于阿拉伯语评估,我该怎么办? !pip 安装 rouge_score 从数据集导入 load_metric 指标= load_metric(“胭脂”) pred_str =['?????????????????????????????????????????????????????????????????????????????????????????????
ROUGE 分数指标不适用于阿拉伯语评估,我该怎么办? !pip 安装 rouge_score 从数据集导入 load_metric 指标= load_metric(“胭脂”) pred_str =['?????????????????????????????????????????????????????????????????????????????????????????????
我已经在我的索引上配置了一个默认分数配置文件以用于我的所有搜索,我有一个测试索引,其中有一个名为“源”的字段,如果提交的是 == 到“reviwed”,我希望这些文档是移动...
我正在从事一个用于情感分析的 NLP 项目。我正在使用 SpaCy 来标记句子。当我阅读文档时,我了解了 NER。我读到它可以用来提取实体...
词例: 球 百科全书 画面 随机字符串的示例: 克克斯博格萨克 杰盖尼 rnfdwpm 当然,随机字符串可能实际上是某种语言中的单词,或者看起来像……
在我的 NLP 项目中,我构建了自己的模型来识别 PDF 文档中的句子。现在我想检查我提取的句子是否是完整的句子。在我的研究过程中,我已经发现...
400个职业如何匹配10000个职位空缺?我有两个文件:一个包含职业名称和所属部门,第二个文件是来自 hh.kz 的 10,000 个职位空缺,
我需要根据特定标准评估业务活动(项目)的资格。我们通过与利益相关者访谈来收集数据,捕获项目名称、描述等详细信息,
IndexError:当尝试使用 Hugginface 从微调模型进行预测时,列表索引超出范围
我正在尝试学习如何微调预训练模型并使用它。这是我的代码 从转换器导入 AutoModelForSequenceClassification、AutoTokenizer、TrainingArguments、Trainer 来自
我一直在使用langchain的色度向量数据库。它有两种使用分数运行相似性搜索的方法。 矢量db.similarity_search_with_score() 矢量数据库。
我正在研究文档布局分析,并一直在探索 CNN 和基于 Transformer 的网络来完成这项任务。通常,图像作为 3 通道 RGB 输入传递到这些网络。然而,我的
我正在尝试使用 spacy 为文章进行自定义 NER;但是当我开始训练模型时,我收到错误消息: “[E088] 长度为 1021312 的文本超出最大值 1000000....” 尝试过
使用合并的标题单元格识别 Pandas DataFrame 中实际数据的起始行
我原来的 df 看起来像这样 - df 注意数据框中: 标题一直存在到第 3 行,从第 4 行开始,这些标题的值开始。 行数和列数...