简单线性回归中在何处使用成本函数

时间:2019-05-07 03:04:20

标签: python machine-learning

我是机器学习的新手,并且我研究了成本函数背后的数学原理。我想知道在哪里实现线性回归的成本函数,即J(B1,B2)= 1 /2nΣ(y-y_pred)^ 2吗?

在下面的代码中没有使用成本函数,因为我们在预测值之后计算成本函数。查看代码时,没有看到任何错误。最小化步骤。 该代码可用selenium

from lib2to3.refactor import RefactoringTool, get_fixers_from_package

refactoring_tool = RefactoringTool(fixer_names=get_fixers_from_package('lib2to3.fixes'))

def convert_data_2to3(pickled_data):
    # Add new-line: refactoring tool requires lines of code.
    data = pickled_data + '\n'
    node = refactoring_tool.refactor_string(data, 'convert_data_2to3')
    return str(node).rstrip()  # Strip the newline added earlier

1 个答案:

答案 0 :(得分:2)

需要解决的最小化是关于b0和b1,即我们需要找到两者的最优值。解决该最小化问题时,您将到达b_1 = SS_Xy / SS_XXb_0 = m_y - b_1*m_X。他们没有解决代码的最小化问题,而是直接使用结果来获取最佳值。在文章中已经提到了这一点:

  

我们的任务是找到J(b_0,b_1)最小的b_0和b_1的值!

     

在不涉及数学细节的情况下,我们在此处显示结果: