我一直在研究Francois Chollet的书,《使用python进行深度学习》,并且他在某些功能中总是不断重复这种操作。
x = x.copy()
书上说做到了,“避免覆盖输入张量” 。
我将在此处使用此语句的地方张贴示例代码。
def naive_add(x, y):
assert len(x.shape) == 2
assert x.shape == y.shape
x = x.copy() #Avoid overwriting the input tensor.
for i in range(x.shape[0]):
for j in range(x.shape[1]):
x[i, j] += y[i, j]
return x
这是一个简单的代码,用于在元素上明智地添加两个2D张量。我了解了代码,但是我想了解此功能中第x=x.copy
行的重要性。