我有一个节点,上面有2个Tesla P100 gpu。
当我运行Rapids.tsa.ARIMA(或ESM)时,它将仅使用GPU之一。 有没有办法利用多GPU训练模型?就像在Rapids-dask-xgboost中一样?
答案 0 :(得分:2)
不符合documentation。对于多节点多GPU,请检查表格中的注释列。
答案 1 :(得分:1)
时间序列模型Arima和Holtwinters的多节点多gpu实现不存在。我建议在cuML的github存储库(https://github.com/rapidsai/cuml)上创建功能请求。