为了从视频帧中提取特征(2个样本/秒),我在python中使用keras框架并加载VGG16,输入大小为(150,150,3),输出大小为(4,4,512)。在特征提取步骤之后,我想用Hierarchical K-Means聚类框架特征。
我的问题如下:
我将每个帧的特征保存在一个大小为8192的向量中。对于一个拥有8000帧的视频,如果只将每个帧大小减小到(150,150)并提取特征,那么我有一个大小为640的特征矩阵( 8192)。正如你所看到的,甚至一个视频的特征矩阵也是非常大的,除了“稀疏”之外。减小尺寸的最佳方法是什么?
两对框架特征之间的计算距离的最佳度量标准是什么?空间非常稀疏甚至特征值都很小,所以Euclidean Distance不是明智的选择!!