我们已经有一个运行系统来处理所有连接字符串( db2 , oracle , MSServer )。
目前,我们正在使用ExecuteNonQuery()
进行一些插入。
我们希望使用SqlBulkCopy()
代替ExecuteNonQuery()
来提高效果。我们有一些客户拥有超过5000万条记录。
我们不想使用 SSIS ,因为我们的系统支持多个数据库。
我创建了一个示例项目来测试SqlBulkCopy()
的性能。我为 MSServer
这是小功能:
public void insertIntoSQLServer()
{
using (SqlConnection SourceConnection = new SqlConnection(_sourceConnectionString))
{
//Open the connection to get the data from the source table
SourceConnection.Open();
using (SqlCommand command = new SqlCommand("select * from " + _sourceSchemaName + "." + _sourceTableName + ";", SourceConnection))
{
//Read from the source table
command.CommandTimeout = 2400;
SqlDataReader reader = command.ExecuteReader();
using (SqlConnection DestinationConnection = new SqlConnection(_destinationConnectionString))
{
DestinationConnection.Open();
//Clean the destination table
new SqlCommand("delete from " + _destinationSchemaName + "." + _destinationTableName + ";", DestinationConnection).ExecuteNonQuery();
using (SqlBulkCopy bc = new SqlBulkCopy(DestinationConnection))
{
bc.DestinationTableName = string.Format("[{0}].[{1}]", _destinationSchemaName, _destinationTableName);
bc.NotifyAfter = 10000;
//bc.SqlRowsCopied += bc_SqlRowsCopied;
bc.WriteToServer(reader);
}
}
}
}
}
当我在dummyTable中少于20万时,批量复制工作正常。但是,当它超过20万条记录时,我有以下错误:
OR
我增加了读者的CommandTimeout。它似乎已经解决了与IDataReader相关的超时问题。
我在代码中做错了吗?
答案 0 :(得分:14)
您可以在调用WriteToServer之前尝试添加以下内容......
bc.BatchSize = 10000;
bc.BulkCopyTimeout = 0;
我不知道默认批量大小或超时是什么,但我怀疑这可能是您的问题。 希望有所帮助
此外,您可以尝试使用不同的批量大小来获得最佳性能。
答案 1 :(得分:2)
你可以试试这个
bc.BatchSize = 100,000; // How many Rows you want to insert at a time
bc.BulkCopyTimeout = 60; // Time in Seconds. If you want infinite waiting Time then assign 0.