HFValidationError:存储库 ID 必须采用“repo_name”形式或 '命名空间/repo_name':'meta-llama/llama3.1/8b-instruct-fp16'。使用
如果需要的话可以争论。repo_type
tokenizer = AutoTokenizer.from_pretrained("meta-llama/llama3.1/8b-instruct-fp16")
model = AutoModelForCausalLM.from_pretrained("meta-llama/llama3.1/8b-instruct-fp16")
这是我的错误,代码似乎是问题所在,但我不知道如何修复它。
我尝试输入
meta-llama/llama3.1/8b-instruct-fp16
,我也尝试输入直接路径地址。我不确定我做错了什么。我也尝试过将代码提供给 ChatGPT,但这也不起作用。
试试这个吧
from transformers import AutoTokenizer, AutoModelForCausalLM
# Use the correct repo name
tokenizer = AutoTokenizer.from_pretrained("meta-llama/llama3.1:8b-instruct-fp16")
model = AutoModelForCausalLM.from_pretrained("meta-llama/llama3.1:8b-instruct-fp16")