在数据科学任务中,我从仪器中获得了一些物理数据,需要预测连续时间值。数据被分成信号样本,在该目标时间之前出现一些峰值。为了创建新功能,我将不得不使用一些有关信号的统计信息-但不一定要用于整个信号样本。
我当时正在考虑将样本分成多个块,并使用从这些块中得出的统计数据作为单独的特征。 我可以将样本分为1000个大块。但是,这种划分可能没有多大意义。也许最好从样本的前10%获取统计信息,然后再从样本的20%等获取统计信息。或者至少根据其他样本使用其他值进行划分。也许将一些样本分成1000个块是好的,但对于另一些样本则应该是500或2000个等等。
我的想法是使用神经网络来推导该除法值(或者可能是一些值,例如块数及其大小)
这是否完全有意义,如果是的话,有什么想法可以做到吗?听起来像是使用神经网络进行参数优化之类的东西,但是谷歌搜索这类东西并没有给我所需的结果。 也许有人偶然发现了类似的问题?