Spark Dataframes创建Tableau Extract的错误

时间:2018-01-16 12:56:27

标签: apache-spark-sql tableau tableau-server tableau-online tableau-public

根据Git中心项目:werneckpaiva/spark-to-tableau

我在本地系统的Windows操作系统中设置了Tableau-SDK。当我尝试为第11个表创建一个提取时,我能够从Spark Dataframe创建最多10个表的Tableau Extracts,我总是低于指定的错误。如果我使用下一组10个表重新执行它,它可以正常工作,但总是最多可以创建10个提取。

是否可以创建最多10个提取(.tde)并且我们是否需要设置任何属性来解决此问题?

配置详细信息:

  • Spark:1.6.2
  • Scala:2.10.6
  • werneckpaiva.spark到tableau.0-1-0.jar
  • JNA-3.5.1.jar
  • 画面的提取物-9.1.0.jar
  • 画面 - 服务器 - 9.1.0.jar
  • 画面-共9.1.0.jar

错误详细信息:

com.tableausoftware.TableauException: Unknown error 
at com.tableausoftware.extract.ExtractAPI.initialize(Unknown Source)
at tableau.TableauDataFrameImplicity.tableau$TableauDataFrameImplicity$$createTableauTable(TableauDataFrame.scala:65)
at tableau.TableauDataFrameImplicity$$anonfun$saveToTableau$1.apply(TableauDataFrame.scala:24)
at tableau.TableauDataFrameImplicity$$anonfun$saveToTableau$1.apply(TableauDataFrame.scala:22)
at org.apache.spark.rdd.RDD$$anonfun$foreachPartition$1$$anonfun$apply$33.apply(RDD.scala:920)
at org.apache.spark.rdd.RDD$$anonfun$foreachPartition$1$$anonfun$apply$33.apply(RDD.scala:920)
at org.apache.spark.SparkContext$$anonfun$runJob$5.apply(SparkContext.scala:1858)
at org.apache.spark.SparkContext$$anonfun$runJob$5.apply(SparkContext.scala:1858)
at org.apache.spark.scheduler.ResultTask.runTask(ResultTask.scala:66)
at org.apache.spark.scheduler.Task.run(Task.scala:89)
at org.apache.spark.executor.Executor$TaskRunner.run(Executor.scala:227)
at java.util.concurrent.ThreadPoolExecutor.runWorker(Unknown Source)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(Unknown Source)
at java.lang.Thread.run(Unknown Source)

我们需要为30多个表格创建摘录,非常感谢这方面的任何帮助。

0 个答案:

没有答案