`Dataset.from_tensors`和`Dataset.from_tensor_slices`之间的区别?

时间:2018-03-30 18:40:59

标签: python tensorflow tensorflow-datasets

我有一个数据集,表示为形状(num_features, num_examples)的NumPy矩阵,我希望将其转换为TensorFlow类型tf.Dataset

我正在努力了解这两种方法之间的区别:Dataset.from_tensorsDataset.from_tensor_slices。什么是正确的,为什么?

TensorFlow文档(link)表示两种方法都接受张量的张量结构,尽管在使用from_tensor_slices时,张量在第0维应该具有相同的大小。

5 个答案:

答案 0 :(得分:32)

from_tensors组合输入并返回一个数据集与单个元素:

t = tf.constant([[1, 2], [3, 4]])
ds = tf.data.Dataset.from_tensors(t)   # [[1, 2], [3, 4]]

from_tensor_slices为输入张量的每一行创建一个带有单独元素的数据集:

t = tf.constant([[1, 2], [3, 4]])
ds = tf.data.Dataset.from_tensor_slices(t)   # [1, 2], [3, 4]

答案 1 :(得分:5)

1)两者之间的主要区别在于from_tensor_slices中的嵌套元素必须在第0位具有相同的维度:

# exception: ValueError: Dimensions 10 and 9 are not compatible
dataset1 = tf.data.Dataset.from_tensor_slices(
    (tf.random_uniform([10, 4]), tf.random_uniform([9])))
# OK
dataset2 = tf.data.Dataset.from_tensors(
    (tf.random_uniform([10, 4]), tf.random_uniform([9])))

2)第二个区别(解释为here)是当tf.Dataset的输入是列表时。例如:

dataset1 = tf.data.Dataset.from_tensor_slices(
    [tf.random_uniform([2, 3]), tf.random_uniform([2, 3])])

dataset2 = tf.data.Dataset.from_tensors(
    [tf.random_uniform([2, 3]), tf.random_uniform([2, 3])])

print(dataset1) # shapes: (2, 3)
print(dataset2) # shapes: (2, 2, 3)

在上面,from_tensors创建3D张量,而from_tensor_slices合并输入张量。如果您具有不同图像通道的不同来源,并希望将它们串联为一个RGB图像张量,则这会很方便。

3)在上一个答案中提到的from_tensors将输入张量转换为一个大张量:

import tensorflow as tf

tf.enable_eager_execution()

dataset1 = tf.data.Dataset.from_tensor_slices(
    (tf.random_uniform([4, 2]), tf.random_uniform([4])))

dataset2 = tf.data.Dataset.from_tensors(
    (tf.random_uniform([4, 2]), tf.random_uniform([4])))

for i, item in enumerate(dataset1):
    print('element: ' + str(i + 1), item[0], item[1])

print(30*'-')

for i, item in enumerate(dataset2):
    print('element: ' + str(i + 1), item[0], item[1])

输出:

element: 1 tf.Tensor(... shapes: ((2,), ()))
element: 2 tf.Tensor(... shapes: ((2,), ()))
element: 3 tf.Tensor(... shapes: ((2,), ()))
element: 4 tf.Tensor(... shapes: ((2,), ()))
-------------------------
element: 1 tf.Tensor(... shapes: ((4, 2), (4,)))

答案 2 :(得分:3)

尝试一下:

import tensorflow as tf  # 1.13.1
tf.enable_eager_execution()

t1 = tf.constant([[11, 22], [33, 44], [55, 66]])

print("\n=========     from_tensors     ===========")
ds = tf.data.Dataset.from_tensors(t1)
print(ds.output_types, end=' : ')
print(ds.output_shapes)
for e in ds:
    print (e)

print("\n=========   from_tensor_slices    ===========")
ds = tf.data.Dataset.from_tensor_slices(t1)
print(ds.output_types, end=' : ')
print(ds.output_shapes)
for e in ds:
    print (e)

输出:

=========      from_tensors    ===========
<dtype: 'int32'> : (3, 2)
tf.Tensor(
[[11 22]
 [33 44]
 [55 66]], shape=(3, 2), dtype=int32)

=========   from_tensor_slices      ===========
<dtype: 'int32'> : (2,)
tf.Tensor([11 22], shape=(2,), dtype=int32)
tf.Tensor([33 44], shape=(2,), dtype=int32)
tf.Tensor([55 66], shape=(2,), dtype=int32)

输出几乎是不言自明的,但是如您所见,from_tensor_slices()在其第一维上对from_tensors()的输出(将作为输出)进行切片。您也可以尝试:

t1 = tf.constant([[[11, 22], [33, 44], [55, 66]],
                  [[110, 220], [330, 440], [550, 660]]])

答案 3 :(得分:0)

我认为@MatthewScarpino清楚地解释了这两种方法之间的区别。

在这里,我尝试描述这两种方法的典型用法:

  • $("#projectplan-plan_file").on('filebatchselected', function(event) { $(this).fileinput('upload'); }); 可用于从几个小型数据集构建较大的数据集,即,数据集的大小(长度)变大;

  • from_tensors可用于将不同的元素组合到一个数据集中,例如,将要素和标签组合到一个数据集中(这也是张量的第一维应该相同的原因)。也就是说,数据集变得“更宽”。

答案 4 :(得分:0)

简单来说:

<块引用>

from_tensors()

返回:单个元素,
类型:TensorDataset

<块引用>

from_tensor_slices()

返回:输入长度的多个元素
类型:TensorSliceDataset

说明:

from_tensors()

<块引用>

带一维输入

import tensorflow as tf
dataset_ft = tf.data.Dataset.from_tensors([1, 2, 3])
type(dataset_ft)

>>> tensorflow.python.data.ops.dataset_ops.TensorDataset

现在,如果我们遍历这个数据集,我们只会得到一个对象:

for _ in dataset_ft:
    print(_)  

>>> tf.Tensor([1 2 3], shape=(3,), dtype=int32)

如果我们提供二维或多维输入怎么办?

<块引用>

带二维输入

import tensorflow as tf
dataset_ft = tf.data.Dataset.from_tensors([[1, 2, 3], [4, 5, 6]])
type(dataset_ft)

>>> tensorflow.python.data.ops.dataset_ops.TensorDataset

现在,如果我们遍历这个数据集,我们仍然只会得到一个对象:

for _ in dataset_ft:
    print(_)

>>> tf.Tensor(
>>> [[1 2 3]
>>> [4 5 6]], shape=(2, 3), dtype=int32)

如您所见,形状或生成的张量与输入相同。形状没有变化。

from_tensor_slices()

它删除了第一个维度并将其用作数据集维度。

<块引用>

带一维输入

import tensorflow as tf
dataset_fts = tf.data.Dataset.from_tensor_slices([1, 2, 3])
type(dataset_fts)

>>> tensorflow.python.data.ops.dataset_ops.TensorSliceDataset

现在,如果我们遍历这个数据集,我们将有多个对象:

for _ in dataset_fts:
    print(_)

>>> tf.Tensor(1, shape=(), dtype=int32)
>>> tf.Tensor(2, shape=(), dtype=int32)
>>> tf.Tensor(3, shape=(), dtype=int32)

如果我们提供二维或多维输入怎么办?

<块引用>

带二维输入

import tensorflow as tf
dataset_fts = tf.data.Dataset.from_tensor_slices([[1, 2, 3], [4, 5, 6]])
type(dataset_fts)

>>> tensorflow.python.data.ops.dataset_ops.TensorSliceDataset

如果我们遍历这个二维数据集,我们将有两个一维元素:

for _ in dataset_fts:
    print(_)

>>> tf.Tensor([1 2 3], shape=(3,), dtype=int32)
>>> tf.Tensor([4 5 6], shape=(3,), dtype=int32)

这是我能解释的最简单的了。为了更好地理解,我建议您使用不同的输入运行这两个函数并查看返回元素的形状。