在scikit-learn中,TfidfVectorizer
使我们能够适应训练数据,并随后使用相同的矢量化器来转换我们的测试数据。
火车数据的转换输出是一个矩阵,代表给定文档中每个单词的tf-idf得分。
但是,拟合的矢量化器如何计算新输入的分数?我猜是这样的:
我尝试从scikit-learn的来源code推论出该操作,但还不太清楚。它是我前面提到的选项之一还是其他所有选项? 请协助。
答案 0 :(得分:1)
绝对是前者:每个单词的idf
(反文档频率)仅基于培训文档来计算。这是有道理的,因为这些值正是您在矢量化器上调用fit
时所计算的值。如果您描述的第二个选项是正确的,那么我们每次都会实质上重新设置矢量化程序,并且还会导致information leak
,因为在模型评估期间会使用测试集中的idf。
除了这些纯粹的概念性解释之外,您还可以运行以下代码来说服自己:
from sklearn.feature_extraction.text import TfidfVectorizer
vect = TfidfVectorizer()
x_train = ["We love apples", "We really love bananas"]
vect.fit(x_train)
print(vect.get_feature_names())
>>> ['apples', 'bananas', 'love', 'really', 'we']
x_test = ["We really love pears"]
vectorized = vect.transform(x_test)
print(vectorized.toarray())
>>> array([[0. , 0. , 0.50154891, 0.70490949, 0.50154891]])
遵循适合方法的原理,您可以自己重新计算这些tfidf值:
“苹果”和“香蕉”的tfidf分数显然为0,因为它们未出现在x_test
中。另一方面,{peas}在x_train
中不存在,因此甚至不会出现在矢量化中。因此,只有“爱”,“真的”和“我们”才会有tfidf得分。
Scikit-learn将tfidf实现为log((1 + n)/(1 + df)+ 1)* f,其中n是训练集中的文档数(对我们来说是2),df是训练集中的文档数其中单词仅在训练集中出现 ,而f在测试集中的出现频率计数。因此:
tfidf_love = (np.log((1+2)/(1+2))+1)*1
tfidf_really = (np.log((1+2)/(1+1))+1)*1
tfidf_we = (np.log((1+2)/(1+2))+1)*1
然后,您需要根据文档的L2距离缩放这些tfidf分数:
tfidf_non_scaled = np.array([tfidf_love,tfidf_really,tfidf_we])
tfidf_list = tfidf_non_scaled/sum(tfidf_non_scaled**2)**0.5
print(tfidf_list)
>>> [0.50154891 0.70490949 0.50154891]
您可以看到,确实,我们得到了相同的值,这证实了scikit-learn
实现此方法的方式。