我有一个大约17 mb的txt文件,我必须对其进行解析,将其逐行拆分,然后使用事务将其添加到数据库中。 如果文件太大,我尝试打开它,则应用程序将用尽内存,因此我尝试逐段读取它,然后将每个片断导入数据库。由于交易,在数据库中输入的数据不正确。 有一部分使用的代码:
await file_reader.resolveLocalFilesystemUrl(path + file).then(async (file_entry: any) => {
await file_entry.file(async (file) => {
let reader = new FileReader();
reader.onprogress = async (reader_result: any) => {
let loaded = _.cloneDeep(reader_result.loaded);
let total = _.cloneDeep(reader_result.total);
let is_last_element: boolean = _.cloneDeep(loaded == total);
let i: number = 0;
let document_length = this.sync_parser.getReaderLength();
let event_type: number = this.sync_parser.getEventType();
content = iconv.encode(reader.result, encoding).toString();
await this.db.db.transaction(async (database: any) => {
while (document_length >= i) {
if (event_type == SyncParserIo.START_TAG) {
this.table = await this.newHeader(this.sync_parser.getName());
} else if (event_type == SyncParserIo.END_TAG) {
// this.file_content = null;
} else if (event_type == SyncParserIo.ROW) {
// here I execute basic_update_insert function
}
event_type = this.sync_parser.next(i);
i++;
}
}).then(()=>{
this.logger.info(this.TAG, "End document from transaction");
}).catch((e)=>{
//log
});
if (is_last_element) {
resolve(true);
}
};
await reader.readAsBinaryString(file);
});
}).catch((e) => {
this.logger.error("FileSystem Error", e.message);
return reject(e);
});
protected basic_update_insert(table, rows_map, where, where_bindings, database?) {
let db_query = database != null ? database : this.database;
let update_query_util: any = DbUtil.update(table, rows_map, where, where_bindings);
let insert_query_util: any = DbUtil.insert(table, rows_map);
this.import_result = null;
db_query.executeSql(update_query_util.query, update_query_util.bindings, (tx, res) => {
if (res.rowsAffected === 0) {
tx.executeSql(insert_query_util.query, insert_query_util.bindings, (tx2, insert_result) => {
if (insert_result.insertId != null) {
this.import_result = ImporterIo.RESULT_OK;
}
}, (e) => {
this.import_result = ImporterIo.ERROR_INSERT_ROW;
});
} else if (res.rowsAffected === 1) {
this.import_result = ImporterIo.RESULT_OK;
} else if (res.rowsAffected > 1) {
this.import_result = ImporterIo.RESULT_OK;
}
}, (e) => {
this.logger.error(this.TAG, `error from ${table} update`, e);
this.import_result = ImporterIo.ERROR_UPDATE_ROW;
});
}
答案 0 :(得分:3)
您可能会发现cordova-sqlite-porter是有用的(有Ionic Native Typescript wrapper)。 它包装了SQLite DB API,使您可以向其传递格式为SQL语句或JSON格式的数据转储。
拥有如此大量的数据,将数据转换为插件支持的JSON结构可能符合您的利益,因为它将JSON转换为batched inserts,在插件示例项目中,它导致数据导入速度提高了100倍,性能明显提高。
或者,您可能希望手动重做SQL INSERT语句,以将UNION SELECT优化用作outlined in this answer。