快速加载大数据Azure SQL

时间:2013-03-23 05:46:55

标签: c# sql-server azure-sql-database

有一个问题。我每天都要更新和下载大量数据。大约140 mb。这些数据来自文件。这些装载很长的9000条记录加载10分钟。尽管我使用自定义sql server时数据加载的速度更快。

以下是加载数据的代码:

var InBase = FrmMain.allRecords.ToList(); 
var allcats = FrmMain.allCats;
int curCategory = 0;
            for (int jrCnt = rCnt; jrCnt <= arrayTable.GetUpperBound(0); jrCnt++)
            {
                while (operations.Count(x => x.IsAlive) >= 100) ;

                var prcI = new Price();

                if (arrayTable[jrCnt, nametov] != null)
                    prcI.name = arrayTable[jrCnt, nametov].ToString();

                if (productsInBase.FirstOrDefault(x => x.name == prcI.name) != null) 
                {
                    var finded = productsInBase.FirstOrDefault(x => x.name == prcI.name && x.company==company);
                    prcI.ID = finded.ID;
                }

                if (arrayTable[jrCnt, pricetov] != null)
                {
                    decimal parsdec;
                    if (decimal.TryParse(arrayTable[jrCnt, pricetov].ToString(), out parsdec))
                        prcI.prc = parsdec;
                }

                prcI.category = curCategory;

                if (!string.IsNullOrEmpty(prcI.name) && prcI.prc == 0)
                {
                    var cat =
                        allcats.FirstOrDefault(
                            x =>
                            x.findname != "NaN" &&
                            x.findname.ToUpper().Split(';').Any(prcI.name.ToUpper().Contains));
                    curCategory = cat == null ? 0 : cat.id;
                }

                if ((string.IsNullOrEmpty(prcI.name)) || (prcI.prc == 0)) continue;

                Products.Add(prcI);

                if (count == 0 || count % 200 != 0 && jrCnt != arrayTable.GetUpperBound(0)) continue;

                int start = count >= prodInTh ? count % prodInTh != 0 ? (count - count % prodInTh) : (count - prodInTh) : 0;
                int end = count % prodInTh != 0 ? (count % prodInTh) : prodInTh;

                var productsForThreadUpd = Products.GetRange(start, end).Where(x => x.ID != 0).ToList();

                var addprod = Products.GetRange(start, end).Where(x => x.ID == 0).ToList();

                if (productsForThreadUpd.Count > 0) 
                {
                    var newTh = new Thread(() => _mainClass.AddProductsUpdateProduct(productsForThreadUpd))
                        {
                            Name = company + start + " - " + (start + end) + " UPDATE"
                        };

                    newTh.Start();
                    operations.Add(newTh);
                }
                if (addprod.Count > 0)
                {
                    var newTh = new Thread(() => _mainClass.AddProductsUpdateProduct(addprod))
                        {
                            Name = company + start + " - " + (start + end) + " ADD"
                        };

                    newTh.Start();
                    operations.Add(newTh);
                }

            }

我分开了线程上的负载。在obnom stream我的200个条目。 启动代码数据:

public void AddProductsUpdateProduct(List<Price> price)
        {
            using (var dcupdateoradd = new PriceDataContext())
            {
                if (price.Any(x => x.ID != 0))
                {
                    var upds = price.Where(x => x.ID != 0).ToList();
                    dcupdateoradd.Price.AttachAll(upds);
                    dcupdateoradd.Refresh(RefreshMode.KeepCurrentValues, upds);
                }

                dcupdateoradd.Price.InsertAllOnSubmit(price.Where(x => x.ID == 0));

                dcupdateoradd.SubmitChanges();
            }
        }

我还不知道程序连接到数据库的次数是多少次,但在你提出之前没有别的。

Connections

内存上的负载:

load memory

谢谢!

1 个答案:

答案 0 :(得分:2)

有几种不同的方法可以将大量数据插入SQL数据库,我最喜欢的是SqlBulkCopy。此方法需要DataTable并将绕过Entity Framework。它允许您以非常有效的方式将记录流式传输到SQL数据库。我使用它每天将超过7000万行插入到Windows Azure上的数据库中。

您可以在以下博客中找到详细信息

另一种方法是使用存储过程并使用表值参数来使用INSERT INTO语句。在此方案中,您可以将DataTable作为参数传递给存储过程。确保DataTable与存储过程使用的用户定义类型匹配100%。

您可以在以下博客中找到有关使用此技术的详细信息

如果您正在寻找将超过9000条记录插入数据库的方法,请务必使用SqlBulkCopy。存储过程方法实际上适用于小数据集。