我一直在运行notebook,这会产生一个性能良好的模型。这是关于可以找到更多细节的Kaggle比赛here。
当我在AWS p2实例上运行相同的笔记本时,我总是得到最差的结果。当我在我的macbook上运行它时,我得到了可怕的结果。原始模型得分为0.922,我在ec2实例上大致得到0.91,在我的macbook上得到0.7-0.8。我想知道不同的设置会导致什么。我想到了:
鉴于我在macbook上看到的巨大差异(即使0.012差异实际上非常大),我的猜测还有比不同播种更多的内容,甚至是稍微不同版本的软件包(我完全可以我的软件包上的日期)我期待CPU / GPU架构除了速度之外没有任何影响,但我可能错了。
当proba高于0.2时,模型会产生转换为标签的预测概率,并且模型会根据预测的平均值F2 score进行评分。
该模型是一个非常简单的CNN:https://github.com/EKami/planet-amazon-deforestation/blob/master/src/keras_helper.py#L32,笔记本中的相关代码是:
classifier = AmazonKerasClassifier()
classifier.add_conv_layer(img_resize)
classifier.add_flatten_layer()
classifier.add_ann_layer(len(y_map))