Huggingface本身的模型其实就是基于PyTorch的,但是格式不算通用。
from transformers import AutoTokenizer
from transformers import AutoModel
import torch
from transformers import LlamaTokenizer, LlamaForCausalLM
# convert huggingface model to pytorch model
modelfromhuggingface=LlamaForCausalLM.from_pretrained(model_name_from_huggingface)
print("model from huggingface loaded, now eval")
modelfromhuggingface.eval()
print("eval finished,now convert")
torch.save(modelfromhuggingface, 'model_path_and_name.pt')
print("convert finished")
有一点要注意,转换之前要执行eval函数。
很好的知识总结啊
博主您好 想请问您一下 转为pt文件后如何用transformer调用呢 可以直接调用吗……
万分感谢
@yzzzz 转为pt文件后,用torch调用。