如何使用TensorFlow加载稀疏数据?

时间:2016-04-28 14:34:25

标签: python tensorflow

有一个关于加载稀疏数据的小片段,但我不知道如何使用它。

  

SparseTensors不能很好地排队。如果使用SparseTensors,则必须在批处理后使用tf.parse_example解码字符串记录(而不是在批处理之前使用tf.parse_single_example)。

Source

我想我真的不知道如何加载数据。

我要加载的数据是SVM Light格式

我想到的方法是将训练集转换为TFRecords文件格式,然后使用tensorflow加载此转换后的数据。问题是我不知道我应该如何格式化我的数据,以便tensorflow将其解析为sparseTensors。

以下是从one GitHub上提供的示例中提取的代码段:

def convert_to(images, labels, name):
  num_examples = labels.shape[0]
  if images.shape[0] != num_examples:
    raise ValueError("Images size %d does not match label size %d." %
                     (images.shape[0], num_examples))
  rows = images.shape[1]
  cols = images.shape[2]
  depth = images.shape[3]

  filename = os.path.join(FLAGS.directory, name + '.tfrecords')
  print('Writing', filename)
  writer = tf.python_io.TFRecordWriter(filename)
  for index in range(num_examples):
    image_raw = images[index].tostring()
    example = tf.train.Example(features=tf.train.Features(feature={
        'height': _int64_feature(rows),
        'width': _int64_feature(cols),
        'depth': _int64_feature(depth),
        'label': _int64_feature(int(labels[index])),
        'image_raw': _bytes_feature(image_raw)}))
    writer.write(example.SerializeToString())
  writer.close()

它将图像数据编码为一个大blob。与我的数据的不同之处在于并非每个功能都已填充。我可以用同样的方式保存我的数据,但我不确定这是使用这些功能的方法。

这可能无关紧要,因为另一方面我会解码一些东西,但对稀疏数据有更好的方法吗?

至于阅读,here是读取密集张量数据的一个例子。

我知道我假设将tf.parse_single_exampletf.parse_example交换并在批处理后进行。

但是,如何告诉tensorflow我的数据稀疏?如何将我的特征索引与张量中的特征值相关联?如何在加载数据之前进行批处理?

编辑1:

以下是我尝试的内容,我收到ValueError: Shape () must have rank 1错误:

from tqdm import *

def convert_to_tensor_file(path, out_file_name):

    feature_set = set()

    filename = os.path.join(FLAGS.directory, out_file_name + '.tfrecords')
    writer = tf.python_io.TFRecordWriter(filename)

    with open(path, 'r') as f:
        for line in tqdm(f):
            data = line.strip().split(' ')
            features = {
                "label": _int64_feature(int(data[0]))
            }
            for feature in data[1:]:
                index, value = feature.split(':')

                feature_set.add(index)

                features[index] = _int64_feature(int(value))

            example = tf.train.Example(features=tf.train.Features(feature=features))
            writer.write(example.SerializeToString())
        writer.close()

    return feature_set

feature_set = convert_to_tensor_file(TRAIN, 'train')

def load_tensor_file(name):
    filename = os.path.join(FLAGS.directory, name + '.tfrecords')

    features = {
        'label': tf.FixedLenFeature([], tf.int64),
    }

    for feature in feature_set:
        features[feature] = tf.VarLenFeature(tf.int64)

    with tf.name_scope('input'):
        filename_queue = tf.train.string_input_producer([filename])

        reader = tf.TFRecordReader()
        _, serialized_example = reader.read(filename_queue)
        features = tf.parse_example(serialized_example, features=features)

load_tensor_file('train')

谢谢,

5 个答案:

答案 0 :(得分:16)

首先,解释一下该文档的含义:

  1. 对于密集数据,您通常会这样做:

    序列化示例(来自读者) - > parse_single_example - > batch queue - >使用它。

  2. 对于您目前需要执行的稀疏数据:

    序列化示例(来自读者) - > batch queue - > parse_example - >使用它。

  3. 这方面的一个例子是:

    reader  = tf.TFRecordReader()
    _, serialized_example = reader.read(filename_queue)
    batch_serialized_examples = tf.shuffle_batch([serialized_example], batch_size)
    feature_to_type = {
      'label': tf.FixedLenFeature([1], dtype=tf.int64),
      'sparse_feature': tf.VarLenFeature(dtype=tf.int64)
    }
    features = tf.parse_example(batch_serialized_examples, feature_to_type)
    

    注意,shuffle_batch采用一系列字符串并返回一批字符串。 label应该从你的例子中修正等级== 1。

答案 1 :(得分:5)

在TFRecords示例中存储索引和值,并使用SparseFeature进行解析。例如,存储和加载稀疏表示:

[[0, 0, 0, 0, 0, 7],
 [0, 5, 0, 0, 0, 0],
 [0, 0, 0, 0, 9, 0],
 [0, 0, 0, 0, 0, 0]]

这会创建一个TFRecords示例:

my_example = tf.train.Example(features=tf.train.Features(feature={
    'index_0': tf.train.Feature(int64_list=tf.train.Int64List(value=[0, 1, 2])),
    'index_1': tf.train.Feature(int64_list=tf.train.Int64List(value=[5, 1, 4])),
    'values': tf.train.Feature(int64_list=tf.train.Int64List(value=[7, 5, 9]))
}))
my_example_str = my_example.SerializeToString()

然后用SparseFeature解析它:

my_example_features = {'sparse': tf.SparseFeature(index_key=['index_0', 'index_1'],
                                                  value_key='values',
                                                  dtype=tf.int64,
                                                  size=[4, 6])}
serialized = tf.placeholder(tf.string)
parsed = tf.parse_single_example(serialized, features=my_example_features)
session.run(parsed, feed_dict={serialized: my_example_str})

## {'sparse': SparseTensorValue(indices=array([[0, 5], [1, 1], [2, 4]]),
##                              values=array([7, 5, 9]),
##                              dense_shape=array([4, 6]))}

更多博览会:Sparse Tensors and TFRecords

答案 2 :(得分:3)

对于libsvm格式,如果你想要稀疏张量结果(而不是使用填充策略的密集张量结果),你可以像下面那样编写和解析

    #---write
    _float_feature = lambda v: tf.train.Feature(float_list=tf.train.FloatList(value=v))
    _int_feature = lambda v: tf.train.Feature(int64_list=tf.train.Int64List(value=v))

    indexes = []
    values = []

    for item in l[start:]:
      index,value = item.split(':')
      indexes.append(int(index))
      values.append(float(value))

    example = tf.train.Example(features=tf.train.Features(feature={
      'label': _int_feature([label]),
      'num_features': _int_feature([num_features]),
      'index': _int_feature(indexes),
      'value': _float_feature(values)
      }))

    writer.write(example.SerializeToString())

    #---read
    def decode(batch_serialized_examples):
        features = tf.parse_example(
            batch_serialized_examples,
            features={
                'label' : tf.FixedLenFeature([], tf.int64),
                'index' : tf.VarLenFeature(tf.int64),
                'value' : tf.VarLenFeature(tf.float32),
            })

        label = features['label']
        index = features['index']
        value = features['value']

        return label, index, value

因此,通过这种方式,您将获得标签作为密集张量,索引和值作为两个稀疏张量,您可以看到一个自包含的示例,将libsvm格式写入TFRecord并从

读取它的mlp分类

https://github.com/chenghuige/tensorflow-example/tree/master/examples/tf-record/sparse https://github.com/chenghuige/tensorflow-example/tree/master/examples/text-classification

答案 3 :(得分:1)

例如,您可以使用weighted_categorical_column来解析indexvalue

categorical_column = tf.feature_column.categorical_column_with_identity(
            key='index', num_buckets=your_feature_dim)
sparse_columns = tf.feature_column.weighted_categorical_column(
    categorical_column=categorical_column, weight_feature_key='value')

然后将sparse_columns馈入线性模型估计器,在馈入DNN之前,请使用嵌入,例如。

dense_columns = tf.feature_column.embedding_column(sparse_columns, your_embedding_dim)

然后将dense_columns馈入DNN估算器

答案 4 :(得分:0)

如果要将稀疏值作为输入传递,则需要使用tf.sparse_placeholder创建稀疏占位符。

然后,您应该使用tf.sparse_to_dense将稀疏张量转换为密集张量。

为此,您需要在feed_dict中提供数据时显式传递稀疏矩阵的值,形状和索引,然后在图表中使用tf.sparse_to_dense

在图表中:

dense = tf.sparse_to_dense(
    sparse_indices=sparse_placeholder.indices,
    output_shape=sparse_placeholder.shape,
    sparse_values=sparse_placeholder.values,
validate_indices=False)

在feed_dict中:

sparse_placeholder:tf.SparseTensorValue(indices=indices,values=sparse_values,dense_shape=sparse_shape)