使用TensorFlow进行多元线性回归时,为什么会得到不同的权重?

时间:2016-09-13 17:11:53

标签: python numpy machine-learning tensorflow regression

我有两个多线性回归的实现,一个使用tensorflow,另一个仅使用numpy。我生成了一组虚拟数据,我尝试恢复我使用的权重,但是虽然numpy一个返回初始权重,但tensorflow总是返回不同的权重(这也是一种工作)< / p>

numpy实施是here,这是TF实施:

import numpy as np
import tensorflow as tf

x = np.array([[i, i + 10] for i in range(100)]).astype(np.float32)
y = np.array([i * 0.4 + j * 0.9 + 1 for i, j in x]).astype(np.float32)

# Add bias
x = np.hstack((x, np.ones((x.shape[0], 1)))).astype(np.float32)

# Create variable for weights
n_features = x.shape[1]
np.random.rand(n_features)
w = tf.Variable(tf.random_normal([n_features, 1]))
w = tf.Print(w, [w])

# Loss function
y_hat = tf.matmul(x, w)
loss = tf.reduce_mean(tf.square(tf.sub(y, y_hat)))

operation = tf.train.GradientDescentOptimizer(learning_rate=0.000001).minimize(loss)

with tf.Session() as session:
    session.run(tf.initialize_all_variables())
    for iteration in range(5000):
        session.run(operation)
    weights = w.eval()
    print(weights)

运行脚本可以获得[-0.481, 1.403, 0.701]左右的权重,而运行numpy版本可以获得[0.392, 0.907, 0.9288]附近的权重,这些权重更接近我用于生成数据的权重:{{ 1}}

两个学习率/纪元参数都是相同的,并且都是随机初始化权重。我没有对任何一个实现的数据进行规范化,并且我已多次运行它们。

为什么结果不同?我还尝试使用[0.4, 0.9, 1]初始化TF版本中的权重,但这也没有解决它。 TF实施有问题吗?

1 个答案:

答案 0 :(得分:1)

问题似乎与广播有关。上面y_hat的形状为(100,1),而y(100,)。因此,当您执行tf.sub(y, y_hat)时,最终得到的(100,100)矩阵就是两个向量之间所有可能的减法组合。我不知道,但我想你已经设法在numpy代码中避免这种情况。

修复代码的两种方法:

y = np.array([[i * 0.4 + j * 0.9 + 1 for i, j in x]]).astype(np.float32).T

y_hat = tf.squeeze(tf.matmul(x, w))

虽然如此,当我说这个时,它仍然没有实际收敛到你想要的答案,但至少它实际上能够最小化损失函数。