Tensorflow中张量和多维矩阵有什么区别?

时间:2018-02-03 15:11:16

标签: arrays math tensorflow machine-learning deep-learning

我正在关注张量流CNN教程,并提出了一个问题:编程是什么?张量'和Tensorflow中的多维矩阵以及一般情况。

我试着自己研究张量是什么,我发现的是: 它可以是n阶,其中每个元素都包含n维信息。 例如。如果我们有一个张量A和一个坐标为(3,2,5,4)的数据点,那么我们讨论的是一个带有一个元素的4-D张量A.这是对的吗?

我发现的其他articales说张量与数组相同,不同的是张量元素可以变换。我再也看不到张量和普通多维数组之间的差异。我们总是可以在数组上应用函数并转换元素。

您能否尝试澄清定义/属性和差异?

1 个答案:

答案 0 :(得分:4)

本演示文稿的幻灯片7可以很好地显示各种张量。

https://www.slideshare.net/yokotatsuya/principal-component-analysis-for-tensor-analysis-and-eeg-classification

我一开始也想知道同样的事情。答案很平常。

A"张量"是赋予N维值集的通用词。我们有低阶张量的数学名称:标量,向量,矩阵。

在张量流中,张量的等级是它的维数。以下是一些例子:

---------------------------------------------------------------
| Rank of  | Math     | Example                               |
| tensor   | entity   |                                       |
---------------------------------------------------------------
|    0     | Scalar   | x = 42                                |
|    1     | Vector   | z = [10, 15 20]                       |
|    2     | Matrix   | a = [[1 0 2 3],                       |
|          |          |      [2 1 0 4],                       |
|          |          |      [0 2 1 1]]                       |
|    3     | 3-Tensor | A single image of shape:              |
|          |          | [height, width, color_channels]       |
|          |          | ex: [1080, 1920, 3]                   |
|    4     | 4-Tensor | A batch of images with shape:         |
|          |          | [batch_size, height, width, channels] |
|          |          | ex: [10, 1080, 1920, 3]               |
|    N     | n-dim    | You get the idea...                   |
|          | Tensor   |                                       |
---------------------------------------------------------------