标签: scala apache-spark tokenize stop-words
我在这些链接后面的spark-shell(使用Scala)中使用Tokenizer和StopWordsRemover:
https://spark.apache.org/docs/latest/ml-features.html#tokenizer
https://spark.apache.org/docs/latest/ml-features.html#stopwordsremover
我想添加一个计算每个算法的响应时间的命令。 我怎么能在任何级别做到这一点?请问。