标签: docker amazon-ec2 scrapy web-crawler scrapy-splash
我正在使用Scrapy使用Scrapinghub / splash docker容器对Splash进行一些爬行,但是容器会在退出代码139后退出一段时间,我在AWS EC2实例上运行刮刀,分配了1GB交换
我还尝试在后台运行它并稍后查看日志,但没有任何内容表示它只是退出。
根据我的理解139是UNIX中的分段错误错误,无论如何都要检查或记录正在访问的内存部分或正在执行的代码来调试它?
或者我可以增加容器内存或交换大小以避免这种情况吗?