client =使用pyspark的MongoClient()语法错误

时间:2016-09-07 07:15:20

标签: python mongodb apache-spark pymongo

我试图通过Spark使用Pyspark实现分析。一旦分析,该事件应该在Mongo数据库中发送。 python代码在myFile.py文件中 但是,运行此命令时:

spark-2.0.0/bin/spark-submit myFile.py

我有以下错误:

client=MongoClient('localhost' , 27017)
     ^
SyntaxError: invalid syntax

这就是说,我试过围绕" ="但它并没有改变一件事,我检查了行前不需要的空格或错误的缩进,但一切看起来都很好。此外,pymongo是在文件的开头导入的

我在网上找到了这个配置,查看了教程并查看了pymongo文档。

有人可以帮忙解决这个问题吗? 我为我的英语中的任何错误道歉,这不是我的母语。

修改 这是周围的代码:

if "User dn cn" in part2:
   usrDnCnMsg = part2.split(",")
   usrDnCnElements = list()
   for element in usrDnCnMsg:
      usrDnCnElements.append(element.split("=")[1].lstrop().rstrip()
   # sending event to DB
   client=MongoClient('localhost' , 27017)
   db = client.TEST
   found = db.user.findOne({"usrName":usrDnCnElements[0]})
   if found == None:
      result = db.user.insertOne({"usrName":usrDnCnElements[0],"usrGrp":"null"})
      result = db.usrDnCn.insertOne({"timestamp":timestamp,"usrID":db.user.findOne({"usrName":usrDnCnElements[0]})["_id"],"country":usrDnCnElements[1],"ou":usrDnCnElements[2],"dn":usrDnCnElements[3],"dn1":usrDnCnElements[4]})
   # close connection
   client.close()

此代码本身位于另一个if。

1 个答案:

答案 0 :(得分:0)

所以我回答了我自己的问题。

我的代码中出现了一些输入错误,导致错误消息没有明确指出那些输入错误。另外,我的pymongo安装没有正确完成。 我纠正了我的代码中的输入错误并重新安装了pymongo,它现在似乎正常工作。