我在heroku上运行了一个rails 3.1 app。 我需要为用户提供下载csv数据的能力。 我正在尝试流式传输数据,但它都是一次性发送的。 哪个更大的请求会超时。
在heroku网站上有很多关于流媒体和分块的讨论 但据我所知,thin收集所有数据并一次性发送。 我如何让它工作?
我是否需要添加一些中间件?例如独角兽 代码流与mongrel一起很好地运行。
答案 0 :(得分:0)
我很确定你只需要添加
stream
到控制器的顶部。
有关HTTP流的更多信息可以在RailsCasts上找到:http://railscasts.com/episodes/266-http-streaming
答案 1 :(得分:0)
这个问题真的很老了,但由于 Heroku 响应中的 30'' 限制,这个问题仍然很常见,所以我将添加一些关于我如何实现它的代码。在带有 Puma 服务器的 Heroku 上与 Rails 5.2 和 6.1 配合使用。
我正在使用 #send_stream 方法(仅存在于边轨,未来的轨 7)所以我只是复制它+手动设置 Last-Modified 标头。在 rails 问题中添加了所有内容以重用它。
module Streameable
extend ActiveSupport::Concern
include ActionController::Live
def send_stream(filename:, disposition: 'attachment', type: nil)
response.headers['Content-Type'] =
(type.is_a?(Symbol) ? Mime[type].to_s : type) ||
Mime::Type.lookup_by_extension(File.extname(filename).downcase.delete('.')) ||
'application/octet-stream'
response.headers['Content-Disposition'] =
ActionDispatch::Http::ContentDisposition.format(disposition: disposition, filename: filename) # for Rails 5, use content_disposition gem
# extra: needed for streaming correctly
response.headers['Last-Modified'] = Time.now.httpdate
yield response.stream
ensure
response.stream.close
end
end
class ExporterController < ApplicationController
include Streameable
def index
respond_to do |format|
format.html # index.html
format.js # index.js
format.csv do
send_stream(attachment_opts) do |stream|
stream.write "email_address,updated_at\n"
50.times.each do |i|
line = "user_#{i}@acme.com,#{Time.zone.now}\n"
stream.write line
puts line
sleep 1 # force slow response for testing respose > 30''
end
end
end
end
end
private
def attachment_opts
{
filename: "data_#{Time.zone.now.to_i}.csv",
disposition: 'attachment',
type: 'text/csv'
}
end
end
然后,如果您使用 curl 之类的东西,您将看到每秒生成的输出。
$ curl -i http://localhost:3000/exporter.csv
一个重要的事情是使用 Enumerable 模块编写代码以使用 #each 迭代数据。哦,ActiveRecord 的一个提示,使用 #find_each 以便分批获取数据库。