我有多个用于文件托管的低端专用服务器,每个服务器都有一个单独的100Mbps连接。目前,当新文件上传时,我将其放在未使用带宽平均最高的服务器上。
我当时在想,如果我要分割文件并将每个文件的大块放入每个服务器,我的峰值带宽会更大,因为如果用户的互联网速度可以让我的用户同时从所有服务器下载文件可以处理它(逻辑上与RAID 0相同)。
我可以创建一个自定义下载页面,该页面将使用AJAX从所有服务器中获取一个块,然后使用js在客户端浏览器中将它们缝合在一起,然后移交文件(mega.nz正在做什么,除了我没有知道他们这样做的目的。
但是我认为这可能会使某些人感到困惑,而在js中使用这么多的内存对我来说是一个尚未探索的领域,所以我想知道是否存在任何允许这种事情的现有技术? HTTP或FTP或其他协议中内置的某些内容?