使用CURL和Linux下载图像,最大限度地提高性能?

时间:2017-01-08 08:46:56

标签: c++ linux multithreading parallel-processing

我正在从各个域下载大量图像(.jpg),我需要在最快的时间内完成此操作。为了执行此操作,我使用CURL以及来自我的linux服务器(2个CPU,40GB SSD)的std::async的concurreny线程

但是,我知道,即使使用线程,我的下载速度和性能也受到我的服务器CPU处理和内存容量的限制。

我的问题似乎相对简单:

  1. Linux服务器是否会自动调用两个CPU来满足高需求流程?我想,通过创建多个长时间运行的线程,两个CPU都会被使用?或者我需要走并行处理的路线?

  2. 就a)语言特性和b)服务器配置而言,是否有其他方法(并发和并行性除外)可以使这些下载操作执行得更快?

0 个答案:

没有答案