无法通过Livy将Python依赖关系发送到EMR上的Spark

时间:2019-05-19 01:12:11

标签: apache-spark amazon-emr livy

我在网上搜索并查看了一些文章,最后在以下位置找到了可能的解决方案:

I can't seem to get --py-files on Spark to work

在该链接中,我关注的是投票最多的答案,但它对我不起作用。这个话题已经3岁了,我想我应该提出一个新问题。

所以我所做的就像那个答案:

  1. 将我的python依赖项构建为.zip:
pip install -t dependencies -r requirements.txt
cd dependencies
zip -r ../dependencies.zip .

然后将其与其他python文件一起上传到我的s3存储桶中。

  1. my_job.py中,添加以下行以将我的pythondependency.zip添加到PYTHONPATH中:
sc.addPyFile("dependencies.zip")

请注意,此行是在我的python代码的开头添加的。

  1. 提交我的Spark作业。好吧,在链接中它使用了spark-submit,在我的情况下,我是在ssh之后通过Apache Livy使用curl到我的AWS EMR主设备的:
curl -X POST --data '{"file": "s3://my-bucket/src/my_job.py", "pyFiles": ["s3://my-bucket/src/global_settings.py", "s3://my-bucket/src/sys_init.py", "s3://my-bucket/src/dependencies.zip"]}' -H "Content-Type: application/json" http://ec2-1-23-456-789.compute-1.amazonaws.com:8998/batches

现在,从Livy的日志中,我得到了一个Java异常:

java.io.FileNotFoundException: File file:/dependencies.zip does not exist

完整的错误跟踪如下:

Traceback (most recent call last):
  File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/my_job.py", line 1, in <module>
    from global_settings import *
  File "/mnt/tmp/spark-bfbaa559-69b8-48cb-9287-c30f73ab6d4a/global_settings.py", line 28, in <module>
    sc.addFile('dependencies.zip')
  File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/context.py", line 898, in addFile
  File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py", line 1257, in __call__
  File "/usr/lib/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py", line 328, in get_return_value
py4j.protocol.Py4JJavaError: An error occurred while calling o53.addFile.
: java.io.FileNotFoundException: File file:/dependencies.zip does not exist
    at org.apache.hadoop.fs.RawLocalFileSystem.deprecatedGetFileStatus(RawLocalFileSystem.java:640)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileLinkStatusInternal(RawLocalFileSystem.java:866)
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:630)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:452)
    at org.apache.spark.SparkContext.addFile(SparkContext.scala:1544)
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
    at java.lang.reflect.Method.invoke(Method.java:498)
    at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:244)
    at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:357)
    at py4j.Gateway.invoke(Gateway.java:282)
    at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:132)
    at py4j.commands.CallCommand.execute(CallCommand.java:79)
    at py4j.GatewayConnection.run(GatewayConnection.java:238)
    at java.lang.Thread.run(Thread.java:748)

完全不知道为何spark无法找到dependencies.zip却能找到另外两个python文件global_settings.pysys_init.py

还要注意,dependencies.zip是48 MB。文件大小重要吗?我认为AWS EMR从AWS S3读取48 MB文件不是问题。它们在同一地区,并且在同一VPC下。

还有我的requirements.txt:

pandas
sqlalchemy
boto3

请帮助。谢谢。

1 个答案:

答案 0 :(得分:0)

在curl调用中作为[Error] Line 204, Column 160: there is no attribute "data-cfemail" ...on" class="__cf_email__" data-cfemail="4f3c3a3f3f203d3b0f2a373b3c61243d">[emai... [Error] Line 206, Column 176: there is no attribute "data-cfemail" ...pan class="__cf_email__" data-cfemail="97e4e2e7e7f8e5e3d7f2efe3e4b9fce5">[emai... [Error] Line 236, Column 30: there is no attribute "data-cfasync" ...script data-cfasync="false" src="/cdn-cgi/scripts/5c5dd728/cloudflare-... [Error] Line 236, Column 107: required attribute "type" not specified ...cloudflare-static/email-decode.min.js"></script><script src="assets/js/jquery-... 的一部分提及的文件,拉链,鸡蛋将设置火花配置pyFiles。 Spark负责下载文件,并将添加的文件/ zip添加到spark.submit.pyFiles
使用不需要添加文件,使用PYTHONPATH再次添加文件。(上面的代码试图在默认FS中查找文件名依赖性,在您的情况下,默认FS是file://,而Spark无法找到)。
我们可以删除sc. addPyFile(<>)调用,然后尝试在指定的zip文件中导入一个类,以确认其是否属于addPyFile的一部分。