inference 相关问题

推理是从已知或假设为真实的前提中得出逻辑结论的行为或过程。得出的结论也称为惯用语。在逻辑领域研究有效推理的定律。

我的教授是不是在搞我,因为 SQL 代码没有运行他想要的功能

如果查询要求我执行以下操作: 从给定的数据集: 结果不应该是空白吗?因为只有 Sam 是四年级的学生,但 Sam 甚至没有入学。那么如何...

回答 1 投票 0

时间序列推理模型中这个错误的根源是什么

问题:我创建了编码器-解码器模型来预测时间序列。模型训练得很好,但我与推理模型中的错误作斗争,我不知道如何解决它: 警告:

回答 1 投票 0

无法确定多个用户的开源推理的硬件要求(云或本地)

我正在尝试预算建立一个基于 llm 的 RAG 应用程序,该应用程序将为用户提供动态大小(从 100 到 2000 的任何内容)。 我能够计算出托管某个 l 的 GPU 要求...

回答 1 投票 0

使用 Python 后端从 Triton 推理服务器流式传输响应

我正在使用带有Python后端的Triton推理服务器,目前我发送gRPC请求。有谁知道我们如何使用 Python 后端进行流处理(例如模型响应),因为我不知道

回答 1 投票 0

为什么 BF16 模型在 Mac M 系列芯片上的推理速度比 F16 模型慢?

我在https://github.com/huggingface/smollm/tree/main/smol_tools(镜像1)上读到: 所有模型均量化为 16 位浮点 (F16),以实现高效推理。训练是在 BF16 上完成的,但是在...

回答 1 投票 0

java中的前向链接和后向链接

在java中实现推理过程的前向链接和后向链接的最佳方法是什么? 我们已经获得了喇叭形式的知识库,其中有一组陈述。 我有...

回答 5 投票 0

Gen:如何将多个生成函数迹组合成一个高阶生成函数?

我正在阅读“Gen 建模简介”笔记本,网址为 https://github.com/probcomp/gen-quickstart 第 5 节(调用其他生成函数)要求“构建一个数据集...

回答 2 投票 0

NVIDIA GPU 上用于 CNN 模型推理的张量核心

我希望利用 GPU 上的张量核心来执行一些 CNN 模型推理。像 Pytorch 或 Tensorflow 或 MXNet 这样的框架或任何与此相关的框架,支持

回答 1 投票 0

使用 GPU 的 ONNX 运行时推理:未找到 libcublasLt.so.11

我尝试在我的服务器 GPU 上使用 ONNX 运行时运行推理。但是我收到这个错误: 2024-08-10 23:53:29.404983674 [E:onnxruntime:默认,provider_bridge_ort.cc:1745 TryGetProviderInfo_C...

回答 1 投票 0

保存微调Falcon HuggingFace LLM模型

我正在尝试保存我的模型,这样每次我想使用它时就不需要重新下载基本模型,但似乎没有什么对我有用,我希望得到你的帮助。 以下参数是...

回答 1 投票 0

ONNX 运行时在传递模式时不进行计算

我对 C++ 和 ONNX 相当陌生,我需要为 ONNX C++ 推理建立随机森林模型。 我按照 youtube 上的教程进行操作:https://www.youtube.com/watch?v=exsgNLf-MyY 并重现 c...

回答 3 投票 0

输入泛型推断类型数组

我正在尝试创建对象数组的类型。该对象的第一个和第二个键需要匹配。例如: [{ 键1:“嗨”, 键2:“世界” },{ 键1:1,

回答 2 投票 0

为什么推理站点在直接访问和由函数返回时有不同的效果

采用以下代码: 声明类 BaseClass { 值:T值; foo(值:TValue): void; } 类型 Wrapped = { 值:T } 声明类 ConcreteClasss 获取以下代码: declare class BaseClass<TValue = any> { value: TValue; foo(value: TValue): void; } type Wrapped<T> = { value: T } declare class ConcreteClasss<TValue> extends BaseClass<TValue> { constructor(value: Wrapped<TValue> | TValue); override foo(value: TValue | Wrapped<TValue>): void; } const valuesOf = <V>(base: BaseClass<V>): V => base.value; const base = new ConcreteClasss('Alma'); //^? const value = base.value; //^? string const value2 = valuesOf(base); //^? string | Wrapped<string> 游乐场 显然,foo方法用于推理站点(为什么不呢)。 但是为什么当通过辅助函数访问值时,值的类型会不同? 当您调用 valuesOf(base) 时,TypeScript 需要通过将 V 类型的值视为 ConcreteClass<string> 类型的值来推断 BaseClass<V>。它本质上与type V = ConcreteClass<string> extends BaseClass<infer V> ? V : never相同。 这是 string | Wrapped<string>,因为正如您所说,TypeScript 从 V 推断出 foo(可能是因为方法的参数是双变的?如果您将 foo 定义为函数属性而不是方法,那么推断几乎将当然是不变的,你会得到string,但我认为这超出了所问问题的范围)。 这些类型根本不再记得ConcreteClass<T>;这些信息已被丢弃。因此,即使 valuesOf 的实现写为 base.value,唯一可用的类型是 V,即 string | WrappedString<T>。 如果你想让valuesOf(base)返回base.value的实际类型,你需要将函数generic设为base的类型,例如: const valuesOf = <B extends BaseClass<any>>(base: B): B['value'] => base.value 我已经注释了函数的返回类型以使用索引访问类型B['value'],否则你可能会得到BaseClass<any>['value']或any,因为TS将特定索引扩展到通用对象到约束,请参阅 microsoft/TypeScript#33181。 现在你明白了 const value2 = valuesOf(base); // ^? const value2: string; 随心所欲。 Playground 代码链接

回答 1 投票 0

带有 Python 后端流的 Triton 推理服务器

我正在使用带有 python 后端的 Triton 推理服务器,目前发送单个 grpc 请求,有人知道我们如何使用带有流式传输的 python 后端吗,因为我没有找到任何示例或

回答 1 投票 0

Sagemaker 不认可训练作业来启动推理

我成功在 sagemaker 中启动了培训工作。但是,当我尝试使用该模型进行推理时,sagemaker 无法找到该模型。 进口圣人 从 sagemaker.transformer 导入

回答 1 投票 0

NVIDIA Triton 与 TorchServe 的 SageMaker Inference 对比

用于 SageMaker 推理的 NVIDIA Triton 与 TorchServe?什么时候推荐每个? 两者都是现代的生产级推理服务器。 TorchServe 是 PyTorch 模型的 DLC 默认推理服务器。 ...

回答 3 投票 0

如何保存keras模型仅用于推理?

我训练了一个 CNN 模型并将其保存为 .keras 文件。现在我希望其他人用它来进行预测。我计划使用 Flask 服务器来部署它,并将整个东西打包在一个 e...

回答 1 投票 0

ModelError:调用 InvokeEndpoint 时发生错误 (ModelError),从主服务器收到客户端错误 (400),并显示消息“{

我已经在aws sagemaker上训练了mistral 7B模型,模型权重存储在S3位置。我已经部署了端点,当我尝试调用端点时,出现以下错误

回答 1 投票 0

llama-cpp-python Ubuntu 上的日志打印

我使用 llama-cpp-python 在 Ubuntu 上本地运行 LLM。在生成响应时,它会打印其日志。 如何停止打印日志? 我找到了一种方法来停止 llama.cpp 的日志打印,但不是 llam...

回答 1 投票 0

与 pytorch 模型相比,ONNX 是否提高了推理效率?

所以我一直在使用Hugginface wave2vecCTC 进行语音识别。我想做尽可能多的优化。我在搜索过程中发现的一种方法是将模型转换为 ONNX。所以我写了...

回答 1 投票 0

© www.soinside.com 2019 - 2024. All rights reserved.