批量SQL插入故障排除

时间:2012-09-19 18:26:35

标签: c# error-handling bulkinsert sqlexception

我正在编写一个数据转换代码,它将一系列日期从一个数据库移动到另一个数据库。当我这样做时,我收到一个SQLTypeException,表示值超出范围。我知道这意味着我输入的数据不正确。

我的问题是:由于大约有5,000个条目,代码中是否有一种简单的方法可以找到错误值的位置?我已经打开了DataSet Visualizer,但是有没有办法对它进行排序或更轻松地筛选数据?

3 个答案:

答案 0 :(得分:1)

您可以尝试使用ERRORFILE ='file_name'

指定用于收集具有格式错误且无法转换为OLE DB行集的行的文件。这些行将“按原样”从数据文件复制到此错误文件中。

语法(在查询结尾处找到ERRORFILE)

BULK INSERT 
   [ database_name . [ schema_name ] . | schema_name . ] [ table_name | view_name ] 
      FROM 'data_file' 
     [ WITH 
    ( 
   [ [ , ] BATCHSIZE = batch_size ] 
   [ [ , ] CHECK_CONSTRAINTS ] 
   [ [ , ] CODEPAGE = { 'ACP' | 'OEM' | 'RAW' | 'code_page' } ] 
   [ [ , ] DATAFILETYPE = 
      { 'char' | 'native'| 'widechar' | 'widenative' } ] 
   [ [ , ] FIELDTERMINATOR = 'field_terminator' ] 
   [ [ , ] FIRSTROW = first_row ] 
   [ [ , ] FIRE_TRIGGERS ] 
   [ [ , ] FORMATFILE = 'format_file_path' ] 
   [ [ , ] KEEPIDENTITY ] 
   [ [ , ] KEEPNULLS ] 
   [ [ , ] KILOBYTES_PER_BATCH = kilobytes_per_batch ] 
   [ [ , ] LASTROW = last_row ] 
   [ [ , ] MAXERRORS = max_errors ] 
   [ [ , ] ORDER ( { column [ ASC | DESC ] } [ ,...n ] ) ] 
   [ [ , ] ROWS_PER_BATCH = rows_per_batch ] 
   [ [ , ] ROWTERMINATOR = 'row_terminator' ] 
   [ [ , ] TABLOCK ] 
   [ [ , ] ERRORFILE = 'file_name' ] 
    )] 

答案 1 :(得分:0)

5000个条目并不是一个接一个地做的。这样您就可以轻松发现有问题的条目。

答案 2 :(得分:0)

您也可以使用BATCHSIZE = 100来缩小已提交的批量大小:)

BATCHSIZE = batch_size 指定批处理中的行数。每个批次都作为一个事务复制到服务器。如果失败,SQL Server将为每个批处理提交或回滚事务。默认情况下,指定数据文件中的所有数据都是一个批处理。有关性能注意事项的信息,请参阅"备注,"在本主题后面。