我是机器学习的新手,并且我研究了成本函数背后的数学原理。我想知道在哪里实现线性回归的成本函数,即J(B1,B2)= 1 /2nΣ(y-y_pred)^ 2吗?
在下面的代码中没有使用成本函数,因为我们在预测值之后计算成本函数。查看代码时,没有看到任何错误。最小化步骤。 该代码可用selenium
from lib2to3.refactor import RefactoringTool, get_fixers_from_package
refactoring_tool = RefactoringTool(fixer_names=get_fixers_from_package('lib2to3.fixes'))
def convert_data_2to3(pickled_data):
# Add new-line: refactoring tool requires lines of code.
data = pickled_data + '\n'
node = refactoring_tool.refactor_string(data, 'convert_data_2to3')
return str(node).rstrip() # Strip the newline added earlier
答案 0 :(得分:2)
需要解决的最小化是关于b0和b1,即我们需要找到两者的最优值。解决该最小化问题时,您将到达b_1 = SS_Xy / SS_XX
和b_0 = m_y - b_1*m_X
。他们没有解决代码的最小化问题,而是直接使用结果来获取最佳值。在文章中已经提到了这一点:
我们的任务是找到J(b_0,b_1)最小的b_0和b_1的值!
在不涉及数学细节的情况下,我们在此处显示结果: