有没有办法在多GPU上运行Rapids时间序列模块(ARIMA,ESM)?

时间:2020-07-06 16:33:51

标签: gpu rapids

我有一个节点,上面有2个Tesla P100 gpu。

当我运行Rapids.tsa.ARIMA(或ESM)时,它将仅使用GPU之一。 有没有办法利用多GPU训练模型?就像在Rapids-dask-xgboost中一样?

2 个答案:

答案 0 :(得分:2)

不符合documentation。对于多节点多GPU,请检查表格中的注释列。

答案 1 :(得分:1)

时间序列模型Arima和Holtwinters的多节点多gpu实现不存在。我建议在cuML的github存储库(https://github.com/rapidsai/cuml)上创建功能请求。