PredictionIO的TextClassification将不会受到训练。无论

时间:2016-12-30 11:08:18

标签: postgresql text-classification predictionio

使用PredictionIO的文本分类引擎。

  1. 更改了" appName"在engine.json。
  2. 更改了DataSource.scala中的代码(对于"事件"&" EntityType.Label& Text属性与JSON文件中的每个事件的格式相同)
  3. 更改了Evaluation.scala(适用于" appName")
  4. 使用PostgreSQL。不得不在Spark Lib文件夹中保留Driver jar。 " pio import"之后才开始工作。可以在表pio_event_1中查看数据。 http://localhost:7070/events.json?accessKey=返回记录。
  5. 引擎已经建成。
  6. 然后它失败了#p; pio train --verbose"
  7. 继续观察下面的例外,

      

    线程中的异常" main" java.lang.IllegalStateException:还没看到任何文件。       at org.apache.spark.mllib.feature.IDF $ DocumentFrequencyAggregator.idf(IDF.scala:136)       在org.apache.spark.mllib.feature.IDF.fit(IDF.scala:59)       在com.accenture.predictionio.Preparator.prepare(Preparator.scala:33)       在com.accenture.predictionio.Preparator.prepare(Preparator.scala:24)       在org.apache.predictionio.controller.PPreparator.prepareBase(PPreparator.scala:37)       在org.apache.predictionio.controller.Engine $ .train(Engine.scala:671)       在org.apache.predictionio.controller.Engine.train(Engine.scala:177)       在org.apache.predictionio.workflow.CoreWorkflow $ .runTrain(CoreWorkflow.scala:67)       在org.apache.predictionio.workflow.CreateWorkflow $ .main(CreateWorkflow.scala:250)       在org.apache.predictionio.workflow.CreateWorkflow.main(CreateWorkflow.scala)       at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)       at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)       at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)       at java.lang.reflect.Method.invoke(Method.java:498)       在org.apache.spark.deploy.SparkSubmit $ .org $ apache $ spark $ deploy $ SparkSubmit $$ runMain(SparkSubmit.scala:672)       在org.apache.spark.deploy.SparkSubmit $ .doRunMain $ 1(SparkSubmit.scala:180)       在org.apache.spark.deploy.SparkSubmit $ .submit(SparkSubmit.scala:205)       在org.apache.spark.deploy.SparkSubmit $ .main(SparkSubmit.scala:120)       在org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)

0 个答案:

没有答案