标签: python scikit-learn pytorch gpu gpu-programming
我已经在Scikit学习中开发了一个估算器,但是由于性能问题(速度和内存使用),我正在考虑使估算器使用GPU来运行。
我想到的一种方法是在PyTorch中编写估算器(这样我就可以使用GPU处理),然后使用Google Colab来利用他们的云GPU和内存容量。
编写在PyTorch中已经scikit-learn兼容的估算器的最佳方法是什么?
任何指向正确方向的指针或提示将不胜感激。预先非常感谢。