使用Python在3D空间中定义矢量并找到角度?

时间:2019-01-20 18:12:42

标签: python-3.x numpy vector computational-geometry

我在3D空间中有一组点,并且已经定义了从一个点到另一个点的矢量。我想参考定义为参考的向量找到每个向量的角度。

定义为参考的向量在这两个点之间,

head = [0.5806  0.50239 0.54057]
tail = [0.5806  0.50239 0.     ]

参考向量定义为

v_reference = head - tail 

我定义了一个点到另一个点的向量的点集如下,

            x           y           z
0   0.722950    0.611143    0.154976
1   0.722887    0.611518    0.152955
2   0.722880    0.612001    0.150593
3   0.722910    0.612509    0.148238
4   0.723049    0.613053    0.146069
5   0.723113    0.613583    0.143714
6   0.722763    0.613838    0.141321
7   0.721956    0.613876    0.138467
8   0.721638    0.614167    0.136008
9   0.720665    0.614093    0.133143
10  0.719612    0.613956    0.130317
11  0.718672    0.613882    0.127562
12  0.717771    0.613870    0.124638
13  0.716533    0.613668    0.121512

我已经定义了从一个点到另一个点的向量,用于定义这些向量的点如上表所示。

为了定义矢量,我使用了以下方法

vector[i] = data[i+1] - data[i]

我想找到每个向量相对于参考向量(v_reference)的角度。

我使用以下方法进行角度计算,

def dotproduct(v1, v2):
    """This function computes dot product of two vectors."""
    return sum((a*b) for a, b in zip(v1, v2))

def mag(v):
    """This function computes magnitude of two vectors."""
    return math.sqrt(dotproduct(v, v))

def angle(v1, v2):
    """This function computes angle between two vectors."""
    return (np.arccos(dotproduct(v1, v2) / (mag(v1) * mag(v2))))*(180/math.pi)

角度应不断增加,但会波动。

1 个答案:

答案 0 :(得分:2)

我认为您的问题可能是您如何定义向量。如果我所做的一切都完全按照您在问题中所描述的那样进行,那么我还会得到一系列波动的角度:

import pandas as pd
import numpy as np

def ang(u, v):
    # see https://stackoverflow.com/a/2827466/425458
    c = np.dot(u/np.linalg.norm(u), v/np.linalg.norm(v))
    return np.rad2deg(np.arccos(np.clip(c, -1, 1)))

d = '''            x           y           z
0   0.722950    0.611143    0.154976
1   0.722887    0.611518    0.152955
2   0.722880    0.612001    0.150593
3   0.722910    0.612509    0.148238
4   0.723049    0.613053    0.146069
5   0.723113    0.613583    0.143714
6   0.722763    0.613838    0.141321
7   0.721956    0.613876    0.138467
8   0.721638    0.614167    0.136008
9   0.720665    0.614093    0.133143
10  0.719612    0.613956    0.130317
11  0.718672    0.613882    0.127562
12  0.717771    0.613870    0.124638
13  0.716533    0.613668    0.121512'''

df = pd.read_csv(pd.compat.StringIO(d), sep='\s+')
xyz = df.values
u = np.diff(xyz, axis=0)

head = np.array([0.5806,  0.50239, 0.54057])
tail = np.array([0.5806,  0.50239, 0.     ])
v = head - tail

ang(u, v)
# output:
#     array([101.96059029, 104.01677172, 103.97438663, 102.85092705,
#            103.97438663, 104.20457158, 107.01708978, 104.604926  ,
#            107.08468905, 106.84512875, 106.40978005, 107.44768844,
#            108.69610224])

但是,如果将xyz个点的列表视为向量(即,向量从原点开始并到达每个点),则您会发现参考向量和参考点之间的夹角不断增加向量序列,如您所料:

ang(xyz, v)
# output:
#     array([87.51931013, 87.55167997, 87.58951053, 87.62722792, 87.66196546,
#            87.69968089, 87.73800388, 87.78370828, 87.82308596, 87.8689639 ,
#            87.91421599, 87.95832992, 88.0051486 , 88.05520021])

这可能是解释/分析数据的真正正确方法吗?