我正在创建一个创建随机bson.M文档的程序,并将它们插入数据库中。 主goroutine生成文档,并将它们推送到缓冲通道。同时,两个goroutine从通道中获取文档并将它们插入数据库中。
这个过程需要大量内存并对垃圾收集器施加太大压力,所以我试图实现一个内存池来限制分配数量
这是我到目前为止所做的:
package main
import (
"fmt"
"math/rand"
"sync"
"time"
"gopkg.in/mgo.v2/bson"
)
type List struct {
L []bson.M
}
func main() {
var rndSrc = rand.NewSource(time.Now().UnixNano())
pool := sync.Pool{
New: func() interface{} {
l := make([]bson.M, 1000)
for i, _ := range l {
m := bson.M{}
l[i] = m
}
return &List{L: l}
},
}
// buffered channel to store generated bson.M docs
var record = make(chan List, 3)
// start worker to insert docs in database
for i := 0; i < 2; i++ {
go func() {
for r := range record {
fmt.Printf("first: %v\n", r.L[0])
// do the insert ect
}
}()
}
// feed the channel
for i := 0; i < 100; i++ {
// get an object from the pool instead of creating a new one
list := pool.Get().(*List)
// re generate the documents
for j, _ := range list.L {
list.L[j]["key1"] = rndSrc.Int63()
}
// push the docs to the channel, and return them to the pool
record <- *list
pool.Put(list)
}
}
但看起来在重新生成之前使用了一次List
:
> go run test.go
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:943279487605002381 key2:4444061964749643436]
first: map[key1:8767993090152084935 key2:8807650676784718781]
...
为什么每次都没有重新生成列表?我怎样才能解决这个问题 ?
答案 0 :(得分:3)
问题是您已使用var record = make(chan List, 3)
创建了缓冲频道。因此这段代码:
record <- *list
pool.Put(list)
可能会立即返回,并且该条目将在消耗之前被放回池中。因此,在您的消费者有机会消费它之前,可能会在另一个循环迭代中修改底层切片。虽然您要将List
作为值对象发送,但请记住[]bson.M
是指向已分配数组的指针,并且在发送新List
值时仍将指向同一内存。因此,为什么你看到重复的输出。
要修复,修改您的频道以发送列表指针make(chan *List, 3)
并更改您的消费者,以便在完成后将该条目放回池中,例如:
for r := range record {
fmt.Printf("first: %v\n", r.L[0])
// do the insert etc
pool.Put(r) // Even if error occurs
}
然后你的制作人应该发送删除了pool.Put
的指针,即
record <- list