标签: list stringtokenizer train-test-split
在机器学习的文本数据准备中需要帮助。在tokenizer.to_sequence之后-我有: '''trainWordIndexes = tokenizer.texts_to_sequences(文本) 打印(len(trainWordIndexes)) 21''' 每行长度不同-共21行。 自动条板箱x_train(80%)数据集фтвx_test(20%)数据集是否可能 对于此类数据。 提前谢谢