Python梯度下降多元回归 - 成本增加到无穷大

时间:2018-04-04 00:10:55

标签: python pandas numpy machine-learning gradient-descent

为我的最后一年项目编写此算法。使用梯度下降来找到最小值,而是将成本提高到无穷大。

我检查了 gradientDescent 功能。我相信这是对的。

我正在导入的csv及其格式化导致一些错误。 CSV中的数据格式如下。

每个四核之前' |'是一排。

前3列是独立变量x。 第4列依赖于y。

600 20 0.5 0.63 | 600 20 1 1.5 | 800 20 0.5 0.9

import numpy as np
import random
import pandas as pd

def gradientDescent(x, y, theta, alpha, m, numIterations):
    xTrans = x.transpose()
    for i in range(0, numIterations):
        hypothesis = np.dot(x, theta)
        loss = hypothesis - y
        # avg cost per example (the 2 in 2*m doesn't really matter here.
        # But to be consistent with the gradient, I include it)
        cost = np.sum(loss ** 2) / (2 * m)
        print("Iteration %d | Cost: %f" % (i, cost))
        # avg gradient per example
        gradient = np.dot(xTrans, loss) / m
        # update
        theta = theta - alpha * gradient
    return theta

df = pd.read_csv(r'C:\Users\WELCOME\Desktop\FinalYearPaper\ConferencePaper\NewTrain.csv', 'rU', delimiter=",",header=None)

x = df.loc[:,'0':'2'].as_matrix()
y = df[3].as_matrix()

print(x)
print(y)

m, n = np.shape(x)
numIterations= 100
alpha = 0.001
theta = np.ones(n)
theta = gradientDescent(x, y, theta, alpha, m, numIterations)
print(theta)

1 个答案:

答案 0 :(得分:0)

正如评论中提到的那样,问题在于您阅读csv的行。您正在设置delimiter=",",这意味着python希望数据中的每一列都用逗号分隔。但是,在您的数据中,列显然是由空格分隔的。

只需用

代替该行
df = pd.read_csv(r'C:\Users\WELCOME\Desktop\FinalYearPaper\ConferencePaper\NewTrain.csv', 'rU', delimiter=" ",header=None)