我想拥有一个NumPy数组的规范。更具体地说,我正在寻找此功能的等效版本
def normalize(v):
norm = np.linalg.norm(v)
if norm == 0:
return v
return v / norm
skearn
或numpy
中有类似内容吗?
此函数适用于v
为0向量的情况。
答案 0 :(得分:111)
如果您正在使用scikit-learn,则可以使用sklearn.preprocessing.normalize
:
import numpy as np
from sklearn.preprocessing import normalize
x = np.random.rand(1000)*10
norm1 = x / np.linalg.norm(x)
norm2 = normalize(x[:,np.newaxis], axis=0).ravel()
print np.all(norm1 == norm2)
# True
答案 1 :(得分:35)
我同意如果这样的功能是附带电池的一部分,那就太好了。但据我所知,事实并非如此。这是任意轴的版本,并提供最佳性能。
import numpy as np
def normalized(a, axis=-1, order=2):
l2 = np.atleast_1d(np.linalg.norm(a, order, axis))
l2[l2==0] = 1
return a / np.expand_dims(l2, axis)
A = np.random.randn(3,3,3)
print(normalized(A,0))
print(normalized(A,1))
print(normalized(A,2))
print(normalized(np.arange(3)[:,None]))
print(normalized(np.arange(3)))
答案 2 :(得分:16)
您可以指定ord获取L1规范。 为了避免零分割,我使用eps,但这可能不是很好。
def normalize(v):
norm=np.linalg.norm(v, ord=1)
if norm==0:
norm=np.finfo(v.dtype).eps
return v/norm
答案 3 :(得分:6)
如果您有多维数据并希望每个轴都标准化为自身:
def normalize(d):
# d is a (n x dimension) np array
d -= np.min(d, axis=0)
d /= np.ptp(d, axis=0)
return d
使用numpys peak to peak函数。
答案 4 :(得分:5)
这也可能对您有用
import numpy as np
normalized_v = v / np.sqrt(np.sum(v**2))
但在v
的长度为0时失败。
答案 5 :(得分:2)
在Christoph Gohlke的流行transformations模块中,还有函数unit_vector()
来规范化向量:
import transformations as trafo
import numpy as np
data = np.array([[1.0, 1.0, 0.0],
[1.0, 1.0, 1.0],
[1.0, 2.0, 3.0]])
print(trafo.unit_vector(data, axis=1))
答案 6 :(得分:1)
如果要标准化存储在3D张量中的n维特征向量,则还可以使用PyTorch:
import numpy as np
from torch import FloatTensor
from torch.nn.functional import normalize
vecs = np.random.rand(3, 16, 16, 16)
norm_vecs = normalize(FloatTensor(vecs), dim=0, eps=1e-16).numpy()
答案 7 :(得分:1)
如果您正在使用3D矢量工作,你可以做到这一点简洁使用工具区vg。它是numpy之上的一个轻层,它支持单个值和堆叠的向量。
import numpy as np
import vg
x = np.random.rand(1000)*10
norm1 = x / np.linalg.norm(x)
norm2 = vg.normalize(x)
print np.all(norm1 == norm2)
# True
我创建库在我上次启动,它是由使用的动机是这样的:简单的想法这实在是太冗长在与NumPy
答案 8 :(得分:1)
如果您使用多维数组,则可以快速解决问题。
假设我们有2D数组,我们希望通过最后一个轴对其进行归一化,而有些行的范数为零。
import numpy as np
arr = np.array([
[1, 2, 3],
[0, 0, 0],
[5, 6, 7]
], dtype=np.float)
lengths = np.linalg.norm(arr, axis=-1)
print(lengths) # [ 3.74165739 0. 10.48808848]
arr[lengths > 0] = arr[lengths > 0] / lengths[lengths > 0][:, np.newaxis]
print(arr)
# [[0.26726124 0.53452248 0.80178373]
# [0. 0. 0. ]
# [0.47673129 0.57207755 0.66742381]]
答案 9 :(得分:0)
您提到了sci-kit学习,所以我想分享另一个解决方案。
MinMaxScaler
在sci-kit学习中,有一个名为MinMaxScaler
的API,可以根据需要自定义值范围。
它还为我们处理NaN问题。
NaN被视为缺失值:忽略适合并保持 在转换中。 ...请参阅参考文献[1]
代码很简单,只需键入
# Let's say X_train is your input dataframe
from sklearn.preprocessing import MinMaxScaler
# call MinMaxScaler object
min_max_scaler = MinMaxScaler()
# feed in a numpy array
X_train_norm = min_max_scaler.fit_transform(X_train.values)
# wrap it up if you need a dataframe
df = pd.DataFrame(X_train_norm)
参考
答案 10 :(得分:0)
如果您不需要极高的精度,则可以将函数简化为:
v_norm = v / (np.linalg.norm(v) + 1e-16)
答案 11 :(得分:0)
不使用sklearn
,而仅使用numpy
。
只需定义一个函数即可:
假设行是变量,列是样本(axis= 1
):
import numpy as np
# Example array
X = np.array([[1,2,3],[4,5,6]])
def stdmtx(X):
means = X.mean(axis =1)
stds = X.std(axis= 1, ddof=1)
X= X - means[:, np.newaxis]
X= X / stds[:, np.newaxis]
return np.nan_to_num(X)
输出:
X
array([[1, 2, 3],
[4, 5, 6]])
stdmtx(X)
array([[-1., 0., 1.],
[-1., 0., 1.]])