我一直在使用数据库已经有一段时间了,我发现我的最佳位置是在shell脚本本身中存储shell脚本收集的数据。有时候,它会成为单行日志,用于跟踪快速项目中的数据,但有时会写入JSON对象(我发现加载比未打开的.json文件更快)。
以下是Python
的示例# ====================================================
# Don't write below this line, live database below.
# ====================================================
# "scores":{"Adam":2,"John":6,"Steve":1,"Tim":35}
# "teams":{"shockwave":{"wins":5,"losses":2},"jellyfish":{"wins":3,"losses":4}}
通过这种方法,我发现只需保留一个文件即可获得安全性,性能,易用性,易于运输和备份,数据库冲突的可能性极小以及整体简单性。我也知道这是sqllite用来保持开发人员易于实现的架构。
然而,我确实关心编写好的代码,并且想知道这种方法的任何缺陷。当数据库变大时,即使在正在处理其他数据的时间没有查看时,评论中的大量数据会对程序造成压力吗?
文件在变得不稳定之前可以获得的大小是否有限制?
为什么这种方法不经常使用?
有没有我可以学习更好地实现这个目标的来源?
我有什么想法吗?
在你回答之前,我知道有一个10TB文件是一个不切实际的工作,让一个进程处理。我喜欢制作可以一起和单独工作的集群和神经元,并且通常使用这种方法来实现这样的小型实现。所以请在回答时记住这一点,因为我知道有更好的大规模行业解决方案。