给出以下代码:
package main
import (
"fmt"
"math/rand"
"time"
)
func main() {
for i := 0; i < 3; i++ {
go f(i)
}
// prevent main from exiting immediately
var input string
fmt.Scanln(&input)
}
func f(n int) {
for i := 0; i < 10; i++ {
dowork(n, i)
amt := time.Duration(rand.Intn(250))
time.Sleep(time.Millisecond * amt)
}
}
func dowork(goroutine, loopindex int) {
// simulate work
time.Sleep(time.Second * time.Duration(5))
fmt.Printf("gr[%d]: i=%d\n", goroutine, loopindex)
}
我可以假设&#39; dowork&#39;功能将并行执行?
这是实现并行性的正确方法,还是更好地使用渠道和分离&#39; dowork&#39;每个goroutine的工人?
答案 0 :(得分:16)
您的代码将同时运行,但不能并行运行。您可以通过设置GOMAXPROCS
使其并行运行;请参阅文章https://www.ardanlabs.com/blog/2014/01/concurrency-goroutines-and-gomaxprocs.html以获得一个好的摘要。
目前还不清楚你在这里想要完成什么,但它看起来像是一种实现并发性的完全有效的方法。
答案 1 :(得分:6)
关于GOMAXPROCS
,您可以在Go 1.5发布文档中找到:
默认情况下,Go程序在GOMAXPROCS设置为可用核心数的情况下运行;在之前的版本中,它默认为1。
关于阻止main
功能立即退出,您可以利用WaitGroup
的{{1}}功能。
我编写了这个实用程序函数来帮助并行化一组函数:
Wait
所以在你的情况下,我们可以做到这一点
import "sync"
// Parallelize parallelizes the function calls
func Parallelize(functions ...func()) {
var waitGroup sync.WaitGroup
waitGroup.Add(len(functions))
defer waitGroup.Wait()
for _, function := range functions {
go func(copy func()) {
defer waitGroup.Done()
copy()
}(function)
}
}
如果您想使用Parallelize功能,可以在https://github.com/shomali11/util
找到它答案 2 :(得分:0)
f()
将同时执行,但许多dowork()
将在每个f()
内按顺序执行。等待stdin也不是确保你的例程完成执行的正确方法。当f()
完成时,您必须启动每个true
推送f()
的频道。
在main()
结束时,您必须在频道上等待n个true
个。 n是你旋转的f()
的数量。
答案 3 :(得分:0)
这对我起步很有帮助。
CreateLightCmd
“传统的基于集群的系统(例如超级计算机)在使用MPI的处理器之间采用并行执行。MPI是在不同处理器上的操作系统实例中执行的进程之间的通信接口;它不支持其他进程操作,例如调度(由于MPI进程是由操作系统执行的,因此有使事情进一步复杂化的风险,单个处理器可以运行多个MPI进程和/或单个MPI进程也可以执行多个线程!)”
答案 4 :(得分:0)
您可以在最后添加一个循环,以阻塞直到作业完成:
package main
import "time"
func f(n int, b chan bool) {
println(n)
time.Sleep(time.Second)
b <- true
}
func main() {
b := make(chan bool, 9)
for n := cap(b); n > 0; n-- {
go f(n, b)
}
for <-b {
if len(b) == 0 { break }
}
}