假设我有一个示例,其中500万个数据对象在SQL Server中存储为行。如果我需要在数据上运行一些统计数据,那么为每个样本或一个巨型表创建一个表会更好吗,我会按样本ID选择然后运行统计数据吗?
最终可能会有数百甚至数千个样本 - 这似乎是一张巨大的表格。
但我不是SQL Server专家,所以我不能说一个人会比另一个更快......
或者更好的方法来处理如此庞大的数据集?我希望在C#中使用SQL CLR来完成我的繁重工作......
答案 0 :(得分:1)
如果你需要处理这么大的数据集,我的直觉就是告诉我T-SQL和集合工作明显更快比你在SQL-CLR和RBAR中做的任何事情都要快()一排一排的数据,总结和选择,这就是T-SQL总是被创造出来的,以及它擅长什么。
500万行并不是真正的大量数据 - 它是一个不错的大小数据集。但是,如果你有适当的指数,例如在JOIN
条件,WHERE
条款和ORDER BY
条款中使用的列上,您应该没问题。
如果您需要更多更详细的建议 - 尝试发布您的表格结构,请说明您将如何查询该表格(您对WHERE
和ORDER BY
使用的标准),我们应该能够提供更多反馈。