我有一个包含大约900万条记录和2.5 GB大小的dbf文件。 80个大小的字符字段占用了大量空间,用于存储大约10个不同字符串中的1个。 为了节省文件大小,我希望用整数字段替换字符字段,并在稍后阶段使用关系数据库来获取完整的字符字段(如果需要)。
目前我有以下Python脚本使用dbf库(http://pythonhosted.org/dbf/)。该脚本似乎正在运行(在较小的dbf文件上测试),但是当我尝试使用完整的dbf文件运行它时,它运行了几个小时。
import dbf
tabel = dbf.Db3Table('dataset.dbf')
tabel.open()
with tabel:
tabel.add_fields('newfield N(2, 0)')
for record in tabel:
if record.oldfield == 'string_a ':
dbf.write(record, newfield=1)
elif record.oldfield == 'string_b ':
dbf.write(record, newfield=2)
elif record.oldfield == 'string_c ':
dbf.write(record, newfield=3)
elif record.oldfield == 'string_d ':
dbf.write(record, newfield=4)
elif record.oldfield == 'string_e ':
dbf.write(record, newfield=5)
elif record.oldfield == 'string_f ':
dbf.write(record, newfield=6)
elif record.oldfield == 'string_g ':
dbf.write(record, newfield=7)
elif record.oldfield == 'string_h ':
dbf.write(record, newfield=8)
elif record.oldfield == 'string_i ':
dbf.write(record, newfield=9)
elif record.oldfield == 'string_j ':
dbf.write(record, newfield=10)
else:
dbf.write(record, newfield=0)
dbf.delete_fields('dataset.dbf', 'oldfield')
正如您可以从代码中看到的那样,我是Python和dbf库的新手。这个脚本可以更高效地运行吗?
答案 0 :(得分:1)
添加和删除字段都将首先制作2.5GB文件的备份副本。
最好的办法是创建一个与原始结构相同的新dbf,但这两个字段除外;然后在复制每条记录时进行更改。类似的东西:
# lightly untested
old_table = dbf.Table('old_table.dbf')
structure = old_table.structure()
old_field_index = structure.index('oldfield')
structure = structure[:old_field_index] + structure[old_field_index+1:]
structure.append('newfield N(2,0)')
new_table = dbf.Table('new_name_here.dbf', structure)
with dbf.Tables(old_table, new_table):
for rec in old_table:
rec = list(rec)
old_value = rec.pop(old_field_index)
rec.append(<transform old_value into new_value>)
new_table.append(tuple(rec))