我正在尝试使用Kaggle数据集学习ML。在其中一个问题(使用Logistic回归)中,输入和参数矩阵的大小分别为(1110001,8)和(2122640,8)。
在python中执行操作时出现内存错误。我猜任何语言都一样,因为它太大了。我的问题是,它们如何在现实生活中的ML实现中将矩阵相乘(因为它通常会很大)?
困扰我的事情
在我的输入矩阵中,许多行的某些列具有相似的值。我可以利用我的优势来节省空间吗? (如矩阵中零的稀疏矩阵)
任何人都可以向我指出此类案例的任何实际示例实现。谢谢!
答案 0 :(得分:0)
我尝试了很多事情。如果将来有人需要,我会在这里提及这些:
theta.T dot X
)实现了梯度下降。现在一切正常。