我如何检查变量是否为某个pyspark.sql.SparkSession函数?

时间:2018-10-09 21:46:13

标签: python python-3.x pyspark pytest

pyspark 2.3.1,python 3.5.6,osx high sierra。

我需要可变的pyspark加载方法,因此我正在将函数传递给函数。例如,在编写单元测试时,是否可以测试var==pyspark.read.json

顺便说一句,我已经尝试过:

>> spark = pyspark.sql.SparkSession
>> foo = spark.read.json
>> foo == spark.read.json
False

0 个答案:

没有答案