自然语言处理(NLP)是人工智能的子领域,涉及从自然语言数据转换或提取有用信息。方法包括机器学习和基于规则的方法。
由于版权原因,我需要从报纸文章中提取姓名、性别、职位和雇主/公司名称,并在本地硬件(不允许云)上运行该过程。 我玩过
我有两个张量名称:“wy”和“x”,它们的大小都是 8: wy= 张量([[ 74.2090, -92.9444, 45.2677, -38.4132, -39.8641, -6.9193, 67.4830, -80.1534]],grad_fn=) ...
我正在尝试使用 spacy 在 Python 中执行一些 nlp 操作。只是为了一些背景知识,我在带有 Intel UHD 显卡的 Windows PC 上运行(所以没有 cuda)。 我尝试安装 pytorc 的 cpu 形式...
我做了一个快速实验来检查苹果自然语言框架中词形还原的准确性,结果很差。 我想知道我是否做错了什么或者框架是否......
在 Transformer 模型中,可变长度的序列通常会填充到批次中的最大长度。但是,如果我的序列长度差异很大,则该批次可能包含大量...
我正在使用 SciSpaCy 的实体链接器和自定义知识库。当我更新应用程序的一些组件时(例如底层语言模型、句子标记化管道、知识......
我将 NLTK 升级到最新版本,在导入 nltk 时,出现以下错误 导入nltk 文件“C:\ProgramData\Anaconda2\lib\site-packages ltk ag\sequential.py”,第 210 行 print("[受过训练
我想从网站中提取所有信息,包括其内部链接,以便阻止该网站的聊天机器人。我该怎么做? 我已经废弃了 http 之类的主站点...
`mlflow.transformers.log_model()` 未完成
问题 我想使用 mlflow.transformers.log_model() 来记录微调的拥抱模型。 然而,当 mlflow.transformers.log_model 方法运行时,它根本没有完成 - 运行下去......
在从pdf文件中提取文本时,是否可以从pdf文件中排除页面页脚和页眉的内容。因为这些内容是最不重要的并且几乎是多余的。 注意:对于
我想使用 NLP 来填充文本中的掩码单词,但我不想从所有可能的单词中进行选择,而是想找到两个候选单词中更有可能出现的单词。例如,假设我有一个
我已经使用 GPT-2 针对我的数据集训练了我的模型。它已经过训练并给出正确的输出。现在,我想在更多数据上训练我的模型,同时保留之前训练的模型。我...
模式中具有可选后缀的 SpaCy Matcher 会报告同一文本的多个匹配项
使用以下匹配器规则: {'标签':'R-1', 'pattern': [{'TEXT': 'MyLabel'}, {'TEXT': ':', 'OP': '?'}], '贪婪':'最长',} 关于文本:“MyLabel:一些价值” 我得到两个匹配项:“MyLab...
我正在开始使用人工智能聊天机器人,但不知道从哪里开始。 我的想象是这样的: 什么都不知道的空聊天机器人 学习用户何时提出问题以及机器人是否有问题
我试图在 UCI 垃圾邮件消息数据集上运行一些 nltk 函数,但遇到了 word_tokenize 即使在下载依赖项后也无法工作的问题。 导入nltk nltk.download('punkt'...
我正在使用以下数据集并尝试在循环神经网络上进行二进制文本分类。当前的问题是,即使经过大约 15 个 epoch,该模型似乎也无法学习......
Fairseq 安装失败:构建 Pyhton 3.11 期间缺少 version.txt 错误如何修复?
我尝试在Conda环境中使用pip安装fairseq库,但安装失败并出现以下错误 错误:子进程退出并出现错误 × 获取构建需求...
尝试使用inputs_embeds将嵌入传递给我的模型时遇到问题: ValueError:您传递了inputs_embedsto.generate(),但模型类LlamaForCausalLM没有其
NLLB 微调错误:缺少 data_prefix 配置(英德翻译)
我正在尝试微调 NLLB 模型“facebook/nllb-200-distilled-600M”,以完成从英语 (eng_Latn) 到德语 (deu_Latn) 的科学翻译任务。我按照官方指导...
如何使用带有 openai Python 库的 Azure OpenAI 的结构化输出?
我想将结构化输出与 Azure OpenAI 结合使用。 我根据 https://openai.com/index/introducing-structed-outputs-in-the-api/ 中给出的代码尝试了以下代码: 来自 pydantic 进口