标签: hive connection-pooling apache-spark-sql
我有一个从jdbc(postgreSQL)和Cassandra计算一组Dataframe的spark ob。 然后,最终RRD在Hive上下文中注册为TempTable,以供嵌入式thrift服务器稍后使用/提供。 从现在开始,RRD将通过外部应用程序通过jdbc:hive
似乎已关闭/重新打开与DB的连接。 有没有办法建立连接池? 有人能指出一个很好的例子吗?
谢谢!