我正在尝试为段落进行嵌入过程,该过程被称为Google的“通用句子编码”。这需要进行深度学习分类过程。这给了我以下错误:
module_url = "https://tfhub.dev/google/universal-sentence-encoder/2"
embed = hub.Module(module_url)
with tf.Session() as session:
session.run([tf.global_variables_initializer(), tf.tables_initializer()])
message_embeddings = session.run(embed(train_clean_sentences))
错误:
〜\ AppData \ Local \ Continuum \ anaconda3 \ lib \ site-
包\ tensorflow_hub \ tensor_info.py in_convert_to_compatible_tensor(值,目标,错误前缀)
117张量= tf.convert_to_tensor_or_indexed_slices(值,target.dtype)
118,除了TypeError如e:
-> 119提高TypeError(“%s:%s”%(error_prefix,e))
120如果_is_sparse(张量)!= _is_sparse(目标):
121如果_is_sparse(tensor):
TypeError:无法转换'text':数据类型无法理解
我不确定错误是什么,对此有任何帮助!
答案 0 :(得分:0)
在上面的代码(有问题)中,“ train_clean_sentences”输入是pandas.series数据类型,因为它是pandas数据框列。一旦我将pandas.series数据类型转换为list,嵌入代码就会起作用。
train_clean_sentences = df['Cleansed_X'].tolist()