我正在使用Spark结构化流从本地目录中读取。在此示例中,我们将说流式directory = "C:\\Users\\streamingfiles".
我们也说我有文件A和B。
现在,我将复制文件A并将其重命名为C
我以前也遇到过这个问题,但是最终文件C可以被读取,没有任何更改。有谁知道这是怎么回事?
文件是否以某种方式损坏?我试过清理我的项目,构建它,然后退出Eclipse。
val spark: SparkSession = SparkSession.builder
.appName("PAPC_Long_CDR_Enricher")
.config("spark.master", "local")
.getOrCreate()
val myschema: StructType = new StructType() // final
.add("f0", StringType)
.add("f1", StringType);
var myDF: DataFrame = spark.readStream
.schema(myschema)
.csv("C:\\Users\\streamingfiles");
val query: StreamingQuery = myDF.writeStream
.queryName("testQ")
.outputMode("append")
.format("console")
.option("numRows", "1000")
.option("truncate", false)
.start();