Keras中用于3D“图像”的数据增强

时间:2020-06-18 18:56:25

标签: keras data-augmentation

我有一个用keras编码的DNN,它在粒子物理探测器中训练事件,事件看起来像这样:

event

我将这些坐标转换为“图像”,方法是先将特定的x-y平面转换为2D数组,然后将其展平。例如,如果我的事件只有3个坐标点:(1、1、1); (1、3、1)和(2、3、2)。我采用前两个坐标(具有相同的z值)并将其转换为数组:

[[0, 0, 0],
[0, 0, 0],
[1, 0, 1]]

,然后输入下一个坐标:

[[0, 1, 0],
[0, 0, 0],
[0, 0, 0]]

然后我将两者像这样组合成一维数组并将其馈入网络:

[0, 0, 0, 0, 0, 0, 1, 0, 1, 0, 1, 0, 0, 0, 0, 0, 0, 0]

然后我让网络尝试预测整个事件的重心。但是,我的模型并不能提供很好的准确性,我想可以通过使用数据增强来获得更多数据来改善它,但是据我所知,Keras对于3D数据没有像我所拥有的那样。关于如何解决该问题的任何建议?

0 个答案:

没有答案