在对不同的Collections进行测试之后,我想看看哪个性能最好。 我测试了一个数组,seq,list和一系列1,000,000个点,这些点在0.0到1.0之间均匀地随机选择。然后,将它们各自的.map函数应用到sigmoid函数上:
let sigmoid x = 1. / (1. + exp(-x))
然后,我使用BenchmarkDotNet计算平均执行时间,我得到了Deedle.Series认为“丑陋”的东西。在我看来,Deedle确实不是“地图”友好的。我做得对吗?
// * Summary *
BenchmarkDotNet=v0.11.5, OS=Windows 7 SP1 (6.1.7601.0)
Intel Xeon CPU E5-1620 v3 3.50GHz, 1 CPU, 8 logical and 4 physical cores
Frequency=3410126 Hz, Resolution=293.2443 ns, Timer=TSC
.NET Core SDK=3.0.100-preview5-011568
[Host] : .NET Core 3.0.0-preview5-27626-15 (CoreCLR 4.6.27622.75, CoreFX 4.700.19.22408), 64bit RyuJIT DEBUG [AttachedDebugger]
DefaultJob : .NET Core 3.0.0-preview5-27626-15 (CoreCLR 4.6.27622.75, CoreFX 4.700.19.22408), 64bit RyuJIT
| Method | Mean | Error | StdDev | Gen 0 | Gen 1 | Gen 2 | Allocated |
|------------------- |------------:|-----------:|-----------:|-----------:|----------:|----------:|----------:|
| Array | 21.29 ms | 0.4217 ms | 0.9255 ms | 406.2500 | 406.2500 | 406.2500 | 15.26 MB |
| List | 173.52 ms | 2.9243 ms | 2.7354 ms | 11250.0000 | 4500.0000 | 1500.0000 | 61.04 MB |
| Seq | 127.90 ms | 2.5884 ms | 7.4267 ms | 36600.0000 | - | - | 183.11 MB |
| Series | 1,751.04 ms | 37.6797 ms | 59.7640 ms | 99000.0000 | 6000.0000 | 6000.0000 | 603.31 MB |
答案 0 :(得分:1)
我认为您的测量很可能是正确的。 Deedle系列肯定在数组上增加了显着的开销-这是因为Deedle系列还为处理缺失值以及与该系列为键值映射这一事实相关的所有功能添加了许多额外的功能。
如果您要进行不涉及杂乱数据或带索引的数据的纯数值计算,则可能应该使用矩阵操作库或原始数组。
我使用#time
进行的简单测量如下:
#time
let rnd = System.Random()
let s = series [ for i in 0 .. 1000000 -> i, rnd.NextDouble() ]
let a = [| for i in 0 .. 1000000 -> rnd.NextDouble() |]
// ~950ms
let r = 1. / (1. + exp(-s))
// ~290ms
s |> Series.map (fun _ v -> 1. / (1. + exp(-v)))
// ~25ms
a |> Array.map (fun v -> 1. / (1. + exp(-v)))
值得注意的是,Series.map
比直接执行一系列二进制运算符要快得多,因为它只需要创建一个新的序列实例。