分布式再培训(TF和Google Coral)

时间:2019-09-27 07:55:44

标签: tensorflow artificial-intelligence transfer-learning google-coral

假设我有数十台Google Coral设备进行对象检测(使用相同的训练模型),每隔一段时间我们将为新对象重新训练一台设备(转移学习),假设该设备为Coral1,现在我想知道如何我将学习的知识转移到了Coral1身上的所有设备上(无需对这些设备进行再培训)?

确保设备可以是Google Coral或任何其他设备

2 个答案:

答案 0 :(得分:1)

由于我们假设的是,所有设备在开始时都将基于同一模型进行推断,

无论任何设备进行新的学习,都应将更新的训练模型推入所有其他设备,以帮助他们开始识别新对象。

如果我们可以保持设备之间的同步,则不需要对每个设备进行单独训练。

有关更多信息,请遍历此link

答案 1 :(得分:0)

您不应该“训练设备”,而应该训练模型。查看有关如何重新训练模型的本指南: https://coral.withgoogle.com/docs/edgetpu/retrain-detection/

完成模型重新训练后,您可以将其剪接到另一块板上并重新加载。