我正在处理一个简单的逻辑回归问题。每个样本包含7423个功能。共有4000个训练样本和1000个测试样本。 Sklearn需要0.01秒来训练模型并达到97%的准确度,但是Keras(TensorFlow后端)需要10秒才能在50个epoches之后达到相同的准确度(即使一个纪元比sklearn慢20倍)。任何人都可以解释这个巨大的差距吗?
样品:
X_train: matrix of 4000*7423, 0.0 <= value <= 1.0
y_train: matrix of 4000*1, value = 0.0 or 1.0
X_test: matrix of 1000*7423, 0.0 <= value <= 1.0
y_test: matrix of 1000*1, value = 0.0 or 1.0
Sklearn代码:
from sklearn.linear_model.logistic import LogisticRegression
from sklearn.metrics import accuracy_score
classifier = LogisticRegression()
**# Finished in 0.01s**
classifier.fit(X_train, y_train)
predictions = classifier.predict(X_test)
print('test accuracy = %.2f' % accuracy_score(predictions, y_test))
*[output]: test accuracy = 0.97*
Keras代码:
# Using TensorFlow as backend
from keras.models import Sequential
from keras.layers import Dense, Activation
model = Sequential()
model.add(Dense(1, input_dim=X_train.shape[1], activation='sigmoid'))
model.compile(loss='binary_crossentropy',
optimizer='rmsprop',
metrics=['accuracy'])
**# Finished in 10s**
model.fit(X_train, y_train, batch_size=64, nb_epoch=50, verbose=0)
result = model.evaluate(X_test, y_test, verbose=0)
print('test accuracy = %.2f' % result[1])
*[output]: test accuracy = 0.97*
答案 0 :(得分:2)
可能是优化者或损失。您使用非线性。您也可以在sklearn中使用不同的批量大小。
但我看到它的方式是你有一个特定的任务,其中一个工具是量身定制的并且可以解决它,另一个是一个更复杂的结构可以解决它但是没有优化这样做,可能会这个问题不需要的很多事情会减慢一切。