Spark JDBC无法找到临时表

时间:2015-12-07 19:25:06

标签: jdbc apache-spark apache-spark-sql

我们通过spark创建了一个临时表(在内存中)。

当我们sftp到服务器并使用beeline时,我们可以在这个临时表上查询“select * from Table1”而没有问题。

但是,当我们在本地机器上使用GUI工具和相应的驱动程序(连接字符串是“jdbc:spark:// servername:port / default”)时,我们遇到了麻烦。我们可以通过使用“show tables;”来查看临时表Table1在GUI工具中。但是,当我们尝试在工具中使用“select * from Table1”时,它显示错误“[Simba] JSQLEngine无法找到表”Table1“。,SQL状态:HY000,查询:从表1中选择*。[ SQL State = HY000,DB Errorcode = 500051]“。请注意,我们正在使用Simba JDBC驱动程序的试用版进行测试。

另外,我使用连接字符串“jdbc:hive2:// servername:port / default”从cloudra尝试了hive-jdbc驱动程序。这是同一个问题。请帮忙。非常感谢。

1 个答案:

答案 0 :(得分:0)

事实证明,某些驱动程序在select之后需要一个“limit”子句。一旦我添加它,它就会检索数据。