意图:
我正在寻找一种并行运行os级shell命令的方法,但是要小心不要破坏CPU,并且想知道缓冲通道是否适合这种用例。
实现:
使用模拟的运行时间创建一系列taskkill /pid {pid} /f
s。将这些作业发送到一个队列,该队列将Job
通过dispatch
限制的缓冲频道run
发送到EXEC_THROTTLE
。
观察:
这个'工作' (在编译和运行的范围内),但我想知道缓冲区是否按指定工作(参见:' Intent')来限制并行运行的进程数。
声明:
现在,我知道新手倾向于过度使用频道,但我觉得这种洞察力的要求是诚实的,因为我至少已经克制了使用sync.WaitGroup
的限制。请原谅这个有点玩具的例子,但所有见解都会受到赞赏。
package main
import (
// "os/exec"
"log"
"math/rand"
"strconv"
"sync"
"time"
)
const (
EXEC_THROTTLE = 2
)
type JobsManifest []Job
type Job struct {
cmd string
result string
runtime int // Simulate long-running task
}
func (j JobsManifest) queueJobs(logChan chan<- string, runChan chan Job, wg *sync.WaitGroup) {
go dispatch(logChan, runChan)
for _, job := range j {
wg.Add(1)
runChan <- job
}
}
func dispatch(logChan chan<- string, runChan chan Job) {
for j := range runChan {
go run(j, logChan)
}
}
func run(j Job, logChan chan<- string) {
time.Sleep(time.Second * time.Duration(j.runtime))
j.result = strconv.Itoa(rand.Intn(10)) // j.result = os.Exec("/bin/bash", "-c", j.cmd).Output()
logChan <- j.result
log.Printf(" ran: %s\n", j.cmd)
}
func logger(logChan <-chan string, wg *sync.WaitGroup) {
for {
res := <-logChan
log.Printf("logged: %s\n", res)
wg.Done()
}
}
func main() {
jobs := []Job{
Job{
cmd: "ps -p $(pgrep vim) | tail -n 1 | awk '{print $3}'",
runtime: 1,
},
Job{
cmd: "wc -l /var/log/foo.log | awk '{print $1}'",
runtime: 2,
},
Job{
cmd: "ls -l ~/go/src/github.com/ | wc -l | awk '{print $1}'",
runtime: 3,
},
Job{
cmd: "find /var/log/ -regextype posix-extended -regex '.*[0-9]{10}'",
runtime: 4,
},
}
var wg sync.WaitGroup
logChan := make(chan string)
runChan := make(chan Job, EXEC_THROTTLE)
go logger(logChan, &wg)
start := time.Now()
JobsManifest(jobs).queueJobs(logChan, runChan, &wg)
wg.Wait()
log.Printf("finish: %s\n", time.Since(start))
}
答案 0 :(得分:1)
如果我理解正确,您的意思是建立一种机制,以确保在任何时候最多可以运行许多EXEC_THROTTLE
个工作。如果这是你的意图,那么代码就不起作用了。
这是因为当您开始作业时,您已经消耗了该频道 - 允许启动另一个作业,但尚未完成任务。您可以通过添加计数器来调试它(您需要原子添加或互斥)。
您可以通过简单地启动一组带有无缓冲通道的goroutine并在执行作业时阻止来完成工作:
func Run(j Job) r Result {
//Run your job here
}
func Dispatch(ch chan Job) {
for j:=range ch {
wg.Add(1)
Run(j)
wg.Done()
}
}
func main() {
ch := make(chan Job)
for i:=0; i<EXEC_THROTTLE; i++ {
go Dispatch(ch)
}
//call dispatch according to the queue here.
}
它的工作原理是因为正如一个goroutine正在消耗通道一样,这意味着至少有一个goroutine没有运行,并且最多有EXEC_THROTTLE-1
个作业正在运行,因此最好再执行一个并且它会这样做。
答案 1 :(得分:1)
您还可以限制缓冲通道的并发性:
concurrencyLimit := 2 // Number of simultaneous jobs.
limiter := make(chan struct{}, concurrencyLimit)
for job := range jobs {
job := job // Pin loop variable.
limiter <- true // Reserve limiter slot.
go func() {
defer func() {
<-limiter // Free limiter slot.
}()
do(job) // Do the job.
}()
}
// Wait for goroutines to finish by filling full channel.
for i := 0; i < cap(limiter); i++ {
limiter <- struct{}{}
}
答案 2 :(得分:1)
用需要执行的作业替换processItem函数。
以下将按正确的顺序执行作业。最多将同时执行EXEC_CONCURRENT个项目。
package main
import (
"fmt"
"sync"
"time"
)
func processItem(i int, done chan int, wg *sync.WaitGroup) {
fmt.Printf("Async Start: %d\n", i)
time.Sleep(100 * time.Millisecond * time.Duration(i))
fmt.Printf("Async Complete: %d\n", i)
done <- 1
wg.Done()
}
func popItemFromBufferChannelWhenItemDoneExecuting(items chan int, done chan int) {
_ = <- done
_ = <-items
}
func main() {
EXEC_CONCURRENT := 3
items := make(chan int, EXEC_CONCURRENT)
done := make(chan int)
var wg sync.WaitGroup
for i:= 1; i < 11; i++ {
items <- i
wg.Add(1)
go processItem(i, done, &wg)
go popItemFromBufferChannelWhenItemDoneExecuting(items, done)
}
wg.Wait()
}
以下将按随机顺序执行作业。最多将同时执行EXEC_CONCURRENT个项目。
package main
import (
"fmt"
"sync"
"time"
)
func processItem(i int, items chan int, wg *sync.WaitGroup) {
items <- i
fmt.Printf("Async Start: %d\n", i)
time.Sleep(100 * time.Millisecond * time.Duration(i))
fmt.Printf("Async Complete: %d\n", i)
_ = <- items
wg.Done()
}
func main() {
EXEC_CONCURRENT := 3
items := make(chan int, EXEC_CONCURRENT)
var wg sync.WaitGroup
for i:= 1; i < 11; i++ {
wg.Add(1)
go processItem(i, items, &wg)
}
wg.Wait()
}
您可以根据需要选择。
答案 3 :(得分:0)
我经常使用它。 https://github.com/dustinevan/go-utils
package async
import (
"context"
"github.com/pkg/errors"
)
type Semaphore struct {
buf chan struct{}
ctx context.Context
cancel context.CancelFunc
}
func NewSemaphore(max int, parentCtx context.Context) *Semaphore {
s := &Semaphore{
buf: make(chan struct{}, max),
ctx: parentCtx,
}
go func() {
<-s.ctx.Done()
close(s.buf)
drainStruct(s.buf)
}()
return s
}
var CLOSED = errors.New("the semaphore has been closed")
func (s *Semaphore) Acquire() error {
select {
case <-s.ctx.Done():
return CLOSED
case s.buf <- struct{}{}:
return nil
}
}
func (s *Semaphore) Release() {
<-s.buf
}
你可以这样使用它:
func main() {
sem := async.NewSemaphore(10, context.Background())
...
var wg sync.Waitgroup
for _, job := range jobs {
go func() {
wg.Add(1)
err := sem.Acquire()
if err != nil {
// handle err,
}
defer sem.Release()
defer wg.Done()
job()
}
wg.Wait()
}