我正试图在Keras中复制它:
LRCN经过训练可以预测 影片在每个时间步骤的活动类别。产生一个 整个视频片段的标签预测,我们对标签进行平均 概率-网络softmax层的输出- 跨所有帧并选择最可能的标签。
但是我对LSTM还是很陌生,并且不确定使用哪种度量标准和损失函数来复制以上文本中应用的方法。 到目前为止,我有一个LSTM RNN,它返回序列并将其输出输入到3类的时间分布密集层中。
“帧”对应于RNN的时间步长,return_sequences=True
将使我能够返回每帧的预测。
能否请您告诉我我需要哪些指标和损失以及是否还需要自定义指标?
答案 0 :(得分:0)
能否请您告诉我我需要哪些指标和损失以及是否还需要自定义指标?
从document 的论文中,您可以看到作品很陈旧:2016年5月。
请考虑一些最近的工作,并提供更多细节。
除了可使用的可变数量的单位外,本文没有提供有关LSTM细节的任何线索,因此您可以尝试查找具有解释性指标的模型。