花费这么长时间训练AI模型

时间:2020-05-01 03:51:50

标签: keras neural-network fast-ai

我正在解决一个多类分类问题。数据集如下所示:

|---------------------|------------------|----------------------|------------------|
|      feature 1      |     feature 3    |   feature 4          |     feature 2    |
|---------------------|------------------|------------------------------------------
|          1.302      |       102.987    |      1.298           |     99.8         |
|---------------------|------------------|----------------------|------------------|
|---------------------|------------------|----------------------|------------------|
|          1.318      |       102.587    |      1.998           |     199.8        |
|---------------------|------------------|----------------------|------------------|

这4个功能是浮点型,我的目标变量类是1,2或3。当我建立跟随模型并进行训练时,收敛需要很长时间(24小时且仍在运行)

我使用了如下的keras模型:

def create_model(optimizer='adam', init='uniform'):
    # create model
    if verbose: print("**Create model with optimizer: %s; init: %s" % (optimizer, init) )
    model = Sequential()
    model.add(Dense(16, input_dim=X.shape[1], kernel_initializer=init, activation='relu'))
    model.add(Dense(8, kernel_initializer=init, activation='relu'))
    model.add(Dense(4, kernel_initializer=init, activation='relu'))
    model.add(Dense(1, kernel_initializer=init, activation='sigmoid'))
    # Compile model
    model.compile(loss='binary_crossentropy', optimizer=optimizer, metrics=['accuracy'])
    return model

拟合模型

best_epochs = 200
best_batch_size = 5
best_init = 'glorot_uniform'
best_optimizer = 'rmsprop'
verbose=0
model_pred = KerasClassifier(build_fn=create_model, optimizer=best_optimizer, init=best_init, epochs=best_epochs, batch_size=best_batch_size, verbose=verbose)
model_pred.fit(X_train,y_train)

我在这里遵循了该教程:https://www.kaggle.com/stefanbergstein/keras-deep-learning-on-titanic-data

以及如下所示的快速AI模型:

cont_names = [ 'feature1', 'feature2', 'feature3', 'feature4']
procs = [FillMissing, Categorify, Normalize]
test = TabularList.from_df(test,cont_names=cont_names, procs=procs)
data = (TabularList.from_df(train, path='.', cont_names=cont_names, procs=procs)
                        .random_split_by_pct(valid_pct=0.2, seed=43)
                        .label_from_df(cols = dep_var)
                        .add_test(test, label=0)
                        .databunch())

learn = tabular_learner(data, layers=[1000, 200, 15], metrics=accuracy, emb_drop=0.1, callback_fns=ShowGraph)

我遵循了以下教程

https://medium.com/@nikkisharma536/applying-deep-learning-on-tabular-data-for-regression-and-classification-problems-1e5f80743259

print(X_train.shape,y_train.shape,X_test.shape,y_test.shape)
(138507, 4) (138507, 1) (34627, 4) (34627, 1)

不确定为什么两个模型都需要这么长时间才能运行。输入中是否有错误?任何帮助表示赞赏。

1 个答案:

答案 0 :(得分:2)

有200个纪元和超过138k的训练示例(以及将近35k的测试示例),您正在处理向网络显示的总共34626800(〜35M)个示例。那些数字很大。 假设您正在使用CPU进行培训,这可能需要几个小时,甚至几天,具体取决于您的硬件。 您可以做的一件事是减少时期数,以便更早地了解是否有可接受的模型。