在Google Colab上有效地存储大型数据集

时间:2020-07-17 11:10:22

标签: google-colaboratory

我知道在媒介和数据科学上有很多与数据集相关的查询都可以解决存储数据的问题 其中一些是:在github上上传数据;使用Google驱动器 但是,假设我要试验48GB的数据集,那么我有什么选择。 根据我的理解github开始向您提供远程挂断消息,Google驱动器的存储容量为40 Gb 任何想法我都应该尝试类似Amazon SE3存储桶的方法 colab专业版帐户有帮助吗?

1 个答案:

答案 0 :(得分:1)

Colab Pro中的磁盘空间是免费版本中可用磁盘空间的两倍。