如何将时间序列数据馈入自动编码器网络以进行特征提取?

时间:2019-04-30 12:28:32

标签: python arrays machine-learning artificial-intelligence autoencoder

我正在尝试从头开始为我的数据集创建一个自动编码器。它是用于特征提取的变体自动编码器。我是机器学习的新手,我想知道如何将输入数据输入自动编码器。

我的数据是时间序列数据。如下所示:

array([[[  10,   0,   10, ..., 10,   0,   0],
        ...,

        [  0,   12,   32, ...,  2,  2,  2]],

         [[ 0,  3,  7, ...,  7,  3,  0],
        .....
        [ 0,  2,  3, ...,  3,  4,  6]],

       [[1, 3, 1, ..., 0, 10, 2],
        ...,

        [2, 11, 12, ..., 1, 1, 8]]], dtype=int64)

它是一堆数组,形状是(3,1212,700)。 我该在哪里传递标签?

在线示例很简单,并且没有关于如何实际提供数据的详细描述。任何示例或解释都将非常有帮助。

1 个答案:

答案 0 :(得分:2)

这可以使用生成器解决。生成器将获取您的700个数据点的时间序列数据,每个数据点具有3个通道和1212个时间步长,并输出一批。 在我编写的示例中,批次分别处于同一时间段,例如,批次0是700个样本中每个样本的前10个时间步长,批次1是700个样本中每个样本的时间步1:11。如果要以某种方式将其混合,则应编辑生成器。每个批次都经过测试和培训后,纪元结束。对于神经网络来说,非常简单的编码器,解码器模型足以证明这一概念-但您可能希望将其替换为自己的模型。变量n用于确定自动编码器使用了多少时间步长。

import numpy as np
import pandas as pd
import keras
from keras.layers import Dense, Flatten
from tensorflow.python.client import device_lib
# check for my gpu 
print(device_lib.list_local_devices())


# make some fake data

# your data
data = np.random.random((3, 1212, 700))

# this is a generator
def image_generator(data, n):
    start = 0
    end = n
    while end < data.shape[1] -1:
        last_n_steps = data[:,start:end].T
        yield (last_n_steps, last_n_steps)
        start +=1
        end +=1
        # the generator MUST loop
        if end == data.shape[1] -1:
            start = 0
            end = n

n = 10
# basic model - replace with your own
encoder_input = Input(shape = (n,3), name = "encoder_input")
fc = Flatten()(encoder_input)
fc = Dense(100, activation='relu',name = "fc1")(fc)
encoder_output = Dense(5, activation='sigmoid',name = "encoder_output")(fc)

encoder = Model(encoder_input,encoder_output)

decoder_input = Input(shape = encoder.layers[-1].output_shape[1:], name = "decoder_input")
fc = Dense(100, activation='relu',name = "fc2")(decoder_input)
output = Dense(5, activation='sigmoid',name = "output")(fc)

decoder = Model(decoder_input,output)

combined_model_input = Input(shape = (n,3), name = "combined_model_input")
autoencoder = Model(combined_model_input, decoder(encoder(combined_model_input)))

model = Model(input_layer,output_layer)
model.compile(optimizer="adam", loss='mean_squared_error')
print(model.summary())

#and training

training_history = model.fit_generator(image_generator(data, n),
                    epochs =5,
                    initial_epoch = 0,
                    steps_per_epoch=data.shape[2]-n,
                    verbose=1
                   )