我正在使用SQS
将我的视频上传到后台的S3 bucket
。该队列对于小视频(~40 MBs
)非常适用。但是,当我尝试上传更大的视频(say 70 MBs and more
)时,队列操作就会被杀死。
这是我的队列操作的输出:
vagrant@homestead:~/Laravel/video (master)*$ php artisan queue:work --tries=3
[2017-08-25 17:48:42] Processing: Laravel\Scout\Jobs\MakeSearchable
[2017-08-25 17:48:45] Processed: Laravel\Scout\Jobs\MakeSearchable
[2017-08-25 17:48:51] Processing: App\Jobs\VideoUploadJob
Killed
vagrant@homestead:~/Laravel/youtube (master)*$ php artisan queue:work --tries=3
[2017-08-25 17:50:33] Processing: App\Jobs\VideoUploadJob
Killed
vagrant@homestead:~/Laravel/video (master)*$
我需要在哪里更改设置? Laravel方面还是SQS上的东西? 任何人都可以帮助我吗?
答案 0 :(得分:1)
有两种选择。内存不足或超出执行时间。
尝试$ dmesg | grep php
这会向您显示更多详情
在php.ini文件中增加max_execution_time
和/或memory_limit
。