这是此问题的后续操作-postgresql - Appending data from JSON file to a table。
我有一个像JSON对象这样的文件中的记录列表
[{"sepal_width":3.5,"sepal_length":5.1},{"sepal_width":3.0,"sepal_length":4.9}, ...]
列表中可能有数百万条记录。
现在,我正在使用copy raw_json from './data.json';
将数据导入postgresql。但是它将整个文件内容插入单个单元格中。前一种方法对于数百万条记录仍然有效吗?
是否可以在将copy from './data.json';
的内容传递到jsonb_array_elements
表之前将其发送到raw_json
?
现在我已经考虑使用
\set content `cat ./data.json`
什么是处理如此大的JSON文件的有效方法?