我有一个网络应用程序,我想提供上传和下载大文件(超过2千兆)的可能性
有可能吗?是否存在一些可以帮助我的开源项目?
非常感谢
答案 0 :(得分:2)
是的,亚马逊S3很棒,我每天都在使用它。 但是,如果您想要自托管数据,我建议使用BITS - 后台智能传输服务 -
http://en.wikipedia.org/wiki/Background_Intelligent_Transfer_Service http://www.codeplex.com/sharpbits
答案 1 :(得分:2)
正如OP在评论中所述,这个问题与J2EE和Flex有关。它与PHP或任何声明的Web服务器无关。
是的,你想做的事情是可能的。
大多数人遇到的问题是PHP设置的限制。最值得注意的是upload_max_filesize
和post_max_size
。您可能需要的下一件事是增加max_execution_time
,以便您的脚本不会超时。但超时很棘手,因为它与客户端上传速度有关。
这些设置最好在“按需”的基础上设置(如果可能),而不是在核心配置中(php.ini,apache config,...)。
除了这些(服务器端强加的)限制之外,没有什么限制您上传大文件。也许网络服务器本身也有一些限制。例如,Apache有LimitRequestBody
,lighttpd有server.max-request-size
。
另一种解决方案是编写自定义CGI脚本。但是你仍然有网络服务器强加的限制!
了解您在哪个语言中撰写您的网站会有所帮助...;)
答案 2 :(得分:1)
我建议看看亚马逊的S3。它可能是您正在寻找的解决方案,但如果没有,它可以为您提供如何使用HTTP REST请求或SOAP + DIME Web服务进行大文件传输的示例。