当前,我正在通过命令行使用Git,将数据文件(.csv)从我的Google Cloud VM实例(正在运行linux)传输到本地计算机。但是,Github上每个文件的大小上限为25MB。文件最大为1 GB。
还有其他简单的方法可以做到这一点吗?也许我可以在代码中添加几行,然后将csv推送到数据库。我还没有找到一种简单的方法。
答案 0 :(得分:0)
还有其他简单的方法可以做到这一点吗?
是的,对于Linux,您有很多选择,但是scp
可能是最简单的。
如果您可以直接通过ssh实例化,例如说ssh user@host
或(使用密钥)ssh -i key user@host
,那么您也可以使用很多类似的命令来保护副本:
scp -i key user@host:source_path/remote_file .
将远程文件source_path/remote_file
复制到当前文件夹,反之亦然scp -i key local_file user@host:destination_path
将从当前本地文件夹中复制一些local_file
到远程destination_path
请记住,在两种情况下,user
必须具有适当的特权才能访问远程路径/文件。预先存档文件也可以提供帮助,尤其是对于.csv文件(例如tar cvzf my_archive.tar.gz my_csv_file.csv
)。
注意:如果您的网络连接不佳,在如此大的传输过程中中断,或者一堆文件没有更改,但仍然是复制过程的一部分,那么rsync
可能是更好的选择,当然有还有更多选项,取决于实际需求。