您好我已经能够在AWS EC2上成功安装Spark Cluster 2个月,但最近我开始在创建脚本中收到以下错误。它基本上没有设置Scala包而没有解析源S3端点:
--2017-02-28 17:51:30-- (try: 6) http://s3.amazonaws.com/spark-related-packages/scala-2.10.3.tgz
Connecting to s3.amazonaws.com (s3.amazonaws.com)|52.216.0.83|:80... failed: Connection timed out.
Retrying.
这是我在Github的源代码Spark版本
https://github.com/amplab/spark-ec2/archive/branch-2.0.zip
上面的Scala错误来自
中的init.shspark-ec2/scala/init.sh
有人可以修复Github目录中的S3端点,还是不再支持开源Spark社区?