如何在随机数据实验中减少损失并提高准确性?

时间:2020-09-29 19:53:03

标签: tensorflow deep-learning

我刚刚进入深度学习领域,并做了一些小实验来学习如何调整模型以减少损失并提高准确性, 无论我尝试了多少种方法(添加层,神经元等) 但仍达不到我的目标... 谁能给我一些提示和建议? 谢谢!

注意:因为我之前制作了一个非常大且丑陋的模型,并且数据无法拟合该模型(即精度没有增加),所以对学习如何调整模型进行了一些简单的测试, 顺便说一下,在这个模型中,我的数据非常类似于这个小的实验数据(股市数据,非常随机),因此请尝试使用此数据来了解更多...谢谢!

这是我的代码,非常简单:

import pandas as pd
from tensorflow.keras import layers
from sklearn.preprocessing import StandardScaler

x1 = pd.DataFrame(np.round(np.random.rand(100, 2)*100,0))
y1 = pd.DataFrame(np.round(np.random.rand(100, 1)*100,0))
scale = StandardScaler() #z-scaler物件
xx1 = pd.DataFrame(scale.fit_transform(x1), columns=x1.keys())
yy1 = pd.DataFrame(scale.fit_transform(y1), columns=y1.keys())
the_input =  keras.Input(shape=(2))
x = layers.Dense(500)(the_input)
for i in range(50):
    x = layers.Dense(500, activation='linear')(x)
    if i%5 ==0 : x = layers.LayerNormalization(axis=1)(x)

main_output_1 = layers.Dense(1, name='mo_1')(x)
model = keras.Model(inputs=the_input, outputs=main_output_1, name='DELS_model')
model.compile(loss="mean_squared_error", optimizer='RMSprop', metrics=['accuracy'])

0 个答案:

没有答案