我是Transformers概念的新手,我正在阅读一些教程并编写自己的代码,以了解使用Transformer模型的Squad 2.0数据集的Question Answering。在拥抱面孔的网站上,我遇到了2个不同的链接
我想知道这两个网站之间的区别。一个链接是否只有一个预先训练的模型,而另一个链接就有一个预先训练的和经过微调的模型?
现在,如果我想使用阿尔伯特问题解答模型,并在其上使用我的Squad 2.0训练数据集进行训练并评估模型,我应该进一步扩展到哪个链接?
答案 0 :(得分:0)
我会这样写: 第二个链接基本上描述了“社区接受的模型”,即作为已实现的Huggingface类的基础的模型,例如BERT,RoBERTa等,以及一些具有较高接受度或已进行同行评审的相关模型。
此列表中的bin的时间更长,而第一个链接中的列表是最近才直接在Huggingface网站上引入的,社区基本上可以在该网站上载被视为与该库“兼容”的任意检查点。通常,这些是由从业人员或其他志愿者培训的附加模型,并且具有针对特定任务的微调。请注意,/pretrained_models.html
界面中还包含来自/models
的所有模型。
如果您的用例非常狭窄,则最好检查一下是否有针对您的特定任务已经过微调的模型。在最坏的情况下,无论如何您最终都会得到基本模型。