我有大约10GB的数据,我想导入Parse。数据目前采用JSON格式,非常适合使用parse importer导入数据。
但是我没有这些对象的唯一标识符。当然它们具有独特的性质,例如一个url,指向特定对象的id需要是常量。
在服务器上编辑大量数据的最佳方法是什么,而不会遇到请求问题(因为我目前使用的是免费定价模式)并且没有花太多时间来更改数据
导入数据一次,然后使用新分配的objectIds导出JSON数据。然后在本地编辑它们以匹配url,然后用新编辑的数据替换该类。任何新版本都将通过Parse接收新的objectId。
导入和导出之间会有多少停机时间,因为我需要删除该类并重新创建它?这种方法还有其他问题吗?
查询URL或URL数组,然后编辑数据然后重新保存。这意味着数据将无限期地存在,但由于编辑将包含数十万个对象,这很可能会超出请求限制吗?
我错过了更好的选择吗?
答案 0 :(得分:1)
最好的选择是上传到Parse,然后通过正常渠道进行编辑。使用各种黑客可以保持低于30pings /秒作为免费套餐的一部分提供。您可以使用background jobs(用Javascript编写)迭代数据 - 您可能需要放慢处理速度,以免达到限制。超级hacky方式是从表下载到客户端(iOS / Android)应用程序,然后推回到Parse。如果您批量执行此操作(不同步for循环,顺便说一句),那么仅延迟将使您保持在30ping / sec限制之下。
我不确定你为什么担心停机时间。如果数据尚未上传到Parse,您是否无法将其上传,请将其下载并进行编辑,然后重新上传 - 只要您愿意这样做?在与您在制作中使用的任何单独的表格中进行此操作,您应该没问题。