我正在尝试使用Kaggle肺癌数据集构建肺癌检测系统。主要思想是使用非常深的神经网络,例如使用Inception模型。我正在考虑使用Inception模型,但似乎这不是一件容易的事。
在ImageNet上训练的初始和其他网络期望2D RGB图像作为输入。
因此我需要相应地调整我的数据。
这是我当前数据的形状
much_data = np.load('../../CT_SCAN_IMAGE_SET/muchdata-50-50-20.npy')
print ('Image 0',much_data[0][0].shape)
print ('Image 1',much_data[1][0].shape)
print ('Image 2',much_data[2][0].shape)
这是输出。
Image 0 (128, 512, 512)
Image 1 (133, 512, 512)
Image 2 (110, 512, 512)
举个例子, 图像0(128,512,512)
128是患者的肺切片数,512,512是每个切片的像素数。所以这是一个3D阵列。
但是我找到了一个为MNIST数据集生成Inception模型的代码,其输入图像形状就像(60000,28,28)用于60000张图像的28 * 28像素数据一样。
任何人都可以建议我如何使用现有数据用于初始模型。 我需要将它们转换为2D数组吗?
或我需要遵循的任何其他方法?
请帮忙
答案 0 :(得分:0)
您为什么要单独考虑患者?我的意思是,您可以为所有3位患者使用张量(371,512,512)将所有图像插入网络。因为必须对您的网络进行培训,才能分别从每个图像中查找结节。此外,您还可以在标签上附加标签或仅添加标签来跟踪与每个患者相关的图像。