线性回归和特征缩放

时间:2019-05-01 13:00:56

标签: linear-regression feature-scaling

以下是一些我无法找出错误之处的问题,因为我提交的这些答案的问题是错误的。我添加了图像的屏幕截图以及我了解的每个选项的说明。问题纯粹基于讨论,简短。

我发布了这个问题,以深入了解这些主题及其工作原理。

请帮帮我。


A。我们需要预测作者的性别,它可以是男性或女性。我认为这是分类问题,因此是监督学习。

B。我们给了一组垃圾邮件,需要预测是否有子类型是垃圾邮件。我认为这是分类问题,因此是监督学习。

C。我们需要根据身高和年龄来预测数据。这是一个线性回归问题,因为我们创建图的高度与年龄的关系将找出测试用例。这是有监督的学习。

D。数据分组是一个集群问题,因此它是无监督学习。

  

enter image description here


在下面的问题中,我检查了C和D选项,因为特征缩放可在相同范围内创建数据集,这有助于以更少的迭代次数预测最佳theta,并且轮廓图将更加清晰和对称。参考:https://medium.com/greyatom/why-how-and-when-to-scale-your-features-4b30ab09db5e

  

enter image description here


0 个答案:

没有答案