标签: database amazon-s3 amazon-rds amazon-rds-aurora aws-aurora
我当前正在使用athena来处理和执行ETL-从中获取包含要加载到aurora rds表中的整个数据集的csv文件。我发现从S3加载数据是加载数据的一种选择。由于这些文件非常大,大约10 GB,包含4-5百万行数据。 aurora可以处理来自同一个文件的如此大量的数据,还是在此过程中会超时?如有必要,如何使这些过程更有效率?