将数据库中的大量数据写入CSV文件

时间:2018-11-30 00:18:24

标签: performance rest opencsv

我目前正在尝试创建一个REST端点,以允许用户下载CSV文件。

我正在使用CSVWriter从数据库写入数据。鉴于数据库中的记录量很小(例如20行),因此可以正常工作。但是,我要处理的实际情况是50,000条以上的记录。

所以我对性能的问题是:如何处理这种情况以提高性能?

  1. 在处理大数据时,我们通常会设置大小限制吗?对于 例如,假设最大结果为20,000。
  2. 我们需要超时吗?例如2分钟,当处理时间更长时 会引发兴奋吗?

0 个答案:

没有答案