有一个问题。我每天都要更新和下载大量数据。大约140 mb。这些数据来自文件。这些装载很长的9000条记录加载10分钟。尽管我使用自定义sql server时数据加载的速度更快。
以下是加载数据的代码:
var InBase = FrmMain.allRecords.ToList();
var allcats = FrmMain.allCats;
int curCategory = 0;
for (int jrCnt = rCnt; jrCnt <= arrayTable.GetUpperBound(0); jrCnt++)
{
while (operations.Count(x => x.IsAlive) >= 100) ;
var prcI = new Price();
if (arrayTable[jrCnt, nametov] != null)
prcI.name = arrayTable[jrCnt, nametov].ToString();
if (productsInBase.FirstOrDefault(x => x.name == prcI.name) != null)
{
var finded = productsInBase.FirstOrDefault(x => x.name == prcI.name && x.company==company);
prcI.ID = finded.ID;
}
if (arrayTable[jrCnt, pricetov] != null)
{
decimal parsdec;
if (decimal.TryParse(arrayTable[jrCnt, pricetov].ToString(), out parsdec))
prcI.prc = parsdec;
}
prcI.category = curCategory;
if (!string.IsNullOrEmpty(prcI.name) && prcI.prc == 0)
{
var cat =
allcats.FirstOrDefault(
x =>
x.findname != "NaN" &&
x.findname.ToUpper().Split(';').Any(prcI.name.ToUpper().Contains));
curCategory = cat == null ? 0 : cat.id;
}
if ((string.IsNullOrEmpty(prcI.name)) || (prcI.prc == 0)) continue;
Products.Add(prcI);
if (count == 0 || count % 200 != 0 && jrCnt != arrayTable.GetUpperBound(0)) continue;
int start = count >= prodInTh ? count % prodInTh != 0 ? (count - count % prodInTh) : (count - prodInTh) : 0;
int end = count % prodInTh != 0 ? (count % prodInTh) : prodInTh;
var productsForThreadUpd = Products.GetRange(start, end).Where(x => x.ID != 0).ToList();
var addprod = Products.GetRange(start, end).Where(x => x.ID == 0).ToList();
if (productsForThreadUpd.Count > 0)
{
var newTh = new Thread(() => _mainClass.AddProductsUpdateProduct(productsForThreadUpd))
{
Name = company + start + " - " + (start + end) + " UPDATE"
};
newTh.Start();
operations.Add(newTh);
}
if (addprod.Count > 0)
{
var newTh = new Thread(() => _mainClass.AddProductsUpdateProduct(addprod))
{
Name = company + start + " - " + (start + end) + " ADD"
};
newTh.Start();
operations.Add(newTh);
}
}
我分开了线程上的负载。在obnom stream我的200个条目。 启动代码数据:
public void AddProductsUpdateProduct(List<Price> price)
{
using (var dcupdateoradd = new PriceDataContext())
{
if (price.Any(x => x.ID != 0))
{
var upds = price.Where(x => x.ID != 0).ToList();
dcupdateoradd.Price.AttachAll(upds);
dcupdateoradd.Refresh(RefreshMode.KeepCurrentValues, upds);
}
dcupdateoradd.Price.InsertAllOnSubmit(price.Where(x => x.ID == 0));
dcupdateoradd.SubmitChanges();
}
}
我还不知道程序连接到数据库的次数是多少次,但在你提出之前没有别的。
内存上的负载:
谢谢!
答案 0 :(得分:2)
有几种不同的方法可以将大量数据插入SQL数据库,我最喜欢的是SqlBulkCopy。此方法需要DataTable并将绕过Entity Framework。它允许您以非常有效的方式将记录流式传输到SQL数据库。我使用它每天将超过7000万行插入到Windows Azure上的数据库中。
您可以在以下博客中找到详细信息
另一种方法是使用存储过程并使用表值参数来使用INSERT INTO语句。在此方案中,您可以将DataTable作为参数传递给存储过程。确保DataTable与存储过程使用的用户定义类型匹配100%。
您可以在以下博客中找到有关使用此技术的详细信息
如果您正在寻找将超过9000条记录插入数据库的方法,请务必使用SqlBulkCopy。存储过程方法实际上适用于小数据集。