我正在尝试使用pyspark中的elasticsearch hadoop包进行更新操作。它在文档中说如果没有找到数据,则抛出异常。在pyspark中忽略此异常的最佳方法是什么?或者是否可以通过python elasticsearch API传递一些类似raise_on_exception = False,raise_on_error = False的内容?谢谢!
答案 0 :(得分:0)
"发生错误时无法抑制错误。如果执行更新时缺少某个值,则连接器无法执行任何操作,但任务失败。"