我一直在将Google Colab与GPU后端配合使用。当我在12月使用它时,GPU后端的磁盘大小超过300 GB。现在在虚拟机上运行df -h
会显示以下内容:
Filesystem Size Used Avail Use% Mounted on
overlay 69G 33G 33G 50% /
tmpfs 64M 0 64M 0% /dev
tmpfs 6.4G 0 6.4G 0% /sys/fs/cgroup
/dev/sda1 75G 37G 39G 49% /opt/bin
tmpfs 6.4G 12K 6.4G 1% /var/colab
shm 5.9G 4.0K 5.9G 1% /dev/shm
tmpfs 6.4G 0 6.4G 0% /proc/acpi
tmpfs 6.4G 0 6.4G 0% /proc/scsi
tmpfs 6.4G 0 6.4G 0% /sys/firmware
您知道情况是否有所变化?我在网上搜索了有关此消息的消息,但找不到任何消息。以前,覆盖文件系统为359 GB。
预先感谢您提供任何线索。
最好
B。
答案 0 :(得分:0)
看来这是一个新问题。我在Github上找到了这个:https://github.com/googlecolab/colabtools/issues/919。
具有讽刺意味的是,一个建议的解决方案是安装Google云端硬盘。因此,我购买了200 GB的Google云端硬盘。但是,磁盘大小仍然是一个问题。显然,安装Google云端硬盘后,它开始在/root/.config/Google/DriveFS/[uniqueid]/content_cache中缓存文件。缓存无法控制其大小,它不删除或替换任何东西,它只是累积,并占用所有磁盘,使代码崩溃。 :(