如题,近两天遇到此类错误,发现goroutine以及channel的基础仍需巩固。由该错误牵引出go相关并发操作的问题,下面做一些简单的tips操作和记录。
func hello() {fmt.Println("Hello Goroutine!")
}
func main() {go hello() // 启动另外一个goroutine去执行hello函数fmt.Println("main goroutine done!")
}
1、在程序启动时,Go程序就会为main()函数创建一个默认的goroutine。当main()函数返回的时候该goroutine就结束了,所有在main()函数中启动的goroutine会一同结束!
所以引出sync.WaitGroup的使用。通过它,可以实现goroutine的同步。
var wg sync.WaitGroupfunc hello(i int) {defer wg.Done() // goroutine结束就登记-1fmt.Println("Hello Goroutine!", i)
}
func main() {for i := 0; i < 10; i++ {wg.Add(1) // 启动一个goroutine就登记+1go hello(i)}wg.Wait() // 等待所有登记的goroutine都结束
}
2、单纯地将函数并发执行是没有意义的。函数与函数间需要交换数据才能体现并发执行函数的意义。如果说goroutine是Go程序并发的执行体,channel就是它们之间的连接。channel是可以让一个goroutine发送特定值到另一个goroutine的通信机制。Go 语言中的通道(channel)是一种特殊的类型。通道像一个传送带或者队列,总是遵循先入先出(First In First Out)的规则,保证收发数据的顺序。每一个通道都是一个具体类型的导管,也就是声明channel的时候需要为其指定元素类型。
通道有发送(send)、接收(receive)和关闭(close)三种操作。
发送和接收都使用<-符号。我们通过调用内置的close函数来关闭通道。
关闭后的通道有以下特点:
- 对一个关闭的通道再发送值就会导致panic。
- 对一个关闭的通道进行接收会一直获取值直到通道为空。
- 对一个关闭的并且没有值的通道执行接收操作会得到对应类型的零值。
- 关闭一个已经关闭的通道会导致panic。
无缓冲的通道又称为阻塞的通道:
func main() {ch := make(chan int)ch <- 10fmt.Println("发送成功")
}
上面这段代码能够通过编译,但是执行的时候会出现以下错误:
fatal error: all goroutines are asleep - deadlock!goroutine 1 [chan send]: main.main()
们使用ch := make(chan int)创建的是无缓冲的通道,无缓冲的通道只有在有人接收值的时候才能发送值。
上面的代码会阻塞在ch <- 10这一行代码形成死锁,那如何解决这个问题呢?
一种方法是启用一个goroutine去接收值,并一种方式是使用带缓冲的通道,例如:
package main// 方式1
func recv(c chan int) {ret := <-cfmt.Println("接收成功", ret)
}
func main() {ch := make(chan int)go recv(ch) // 启用goroutine从通道接收值ch <- 10fmt.Println("发送成功")
}// 方式2
func main() {ch := make(chan int,1)ch<-1println(<-ch)
}
但是注意:channel 通道增加缓存区后,可将数据暂存到缓冲区,而不需要接收端同时接收 (缓冲区如果超出大小同样会造成死锁)

channel常见的异常总结,如下图:

如图,总结,可以看出,产生阻塞的方式,主要容易踩坑的有两种:空的通道一直接收会阻塞;满的通道一直发送也会阻塞!
3、那么,如何解决阻塞死锁问题呢?
1)、如果是上面的无缓冲通道,使用再起一个协程的方式,可使得接收端和发送端并行执行。
2)、可以初始化时就给channel增加缓冲区,也就是使用有缓冲的通道
3)、易踩坑点,针对有缓冲的通道,产生阻塞,如何解决?
如下面例子,开启多个goroutine并发执行任务,并将数据存入管道channel,后续读取数据:
package mainimport ("fmt""sync""time"
)func request(index int,ch chan<- string) {time.Sleep(time.Duration(index)*time.Second)s := fmt.Sprintf("编号%d完成",index)ch <- s
}func main() {ch := make(chan string, 10)fmt.Println(ch,len(ch))for i := 0; i < 4; i++ {go request(i, ch)}for ret := range ch{fmt.Println(len(ch))fmt.Println(ret)}
}
错误如下:

不可靠的解决方式如下:
for {i, ok := <-ch // 通道关闭后再取值ok=false;通道为空去接收,会发生阻塞死锁if !ok {break}println(i)}
for ret := range ch{fmt.Println(len(ch))fmt.Println(ret) //通道为空去接收,会发生阻塞死锁}
以上两种从通道获取方式,都有小坑! 一旦获取的通道没有主动close(ch)关闭,而且通道为空时,无论通过for还是foreach方式去取值获取,都会产生阻塞死锁deadlock chan receive错误!
可靠的解决方式1 如下:
package mainimport ("fmt""sync""time"
)var wg sync.WaitGroupfunc request(index int,ch chan<- string) {time.Sleep(time.Duration(index)*time.Second)s := fmt.Sprintf("编号%d完成",index)ch <- sdefer wg.Done()
}func main() {ch := make(chan string, 10)go func() {wg.Wait()close(ch)}()for i := 0; i < 4; i++ {wg.Add(1)go request(i, ch)}for ret := range ch{fmt.Println(len(ch))fmt.Println(ret)}
}
解决方式: 即我们在生成完4个goroutine后对data channel进行关闭,这样通过for range从通道循环取出全部值,通道关闭就会退出for range循环。
具体实现:可以利用sync.WaitGroup解决,在所有的 data channel 的输入处理之前,wg.Wait()这个goroutine会处于等待状态(wg.Wait()源码就是for循环)。当执行方法处理完后(wg.Done),wg.Wait()就会放开执行,执行后面的close(ch)。
可靠的解决方式2 如下:
package mainimport ("fmt""time"
)func request(index int,ch chan<- string) {time.Sleep(time.Duration(index)*time.Second)s := fmt.Sprintf("编号%d完成",index)ch <- s
}func main() {ch := make(chan string, 10)for i := 0; i < 4; i++ {go request(i, ch)}for {select {case i := <-ch: // select会一直等待,直到某个case的通信操作完成时,就会执行case分支对应的语句println(i)default:time.Sleep(time.Second)fmt.Println("无数据")}}
}
上面这种方式获取,通过select case + default的方式也可以完美避免阻塞死锁报错!但是适用于通道不关闭,需要时刻循环执行数据并且处理的情境下。
4、由此,引入了select多路复用的使用
在某些场景下我们需要同时从多个通道接收数据。通道在接收数据时,如果没有数据可以接收将会发生阻塞。select的使用类似于switch语句,它有一系列case分支和一个默认的分支。每个case会对应一个通道的通信(接收或发送)过程。select会一直等待,直到某个case的通信操作完成时,就会执行case分支对应的语句。具体格式如下:
select{case <-ch1:...case data := <-ch2:...case ch3<-data:...default:默认操作
}
一定留意,default的作用很大! 是避免阻塞的核心。
使用select语句能提高代码的可读性。
- 可处理一个或多个channel的发送/接收操作。
- 如果多个
case同时满足,select会随机选择一个。 - 对于没有
case的select{}会一直等待,可用于阻塞main函数。
5、实际项目中goroutine+channel+select的使用
如下,使用于 项目监听终端中断信号操作:
srv := http.Server{Addr: setting.AppConf.Http.Addr,Handler: routers.SetupRouter(setting.AppConf),}go func() {// 开启一个goroutine启动服务if err := srv.ListenAndServe(); err != nil {zap.S().Errorf("listen finish err: %s addr: %s", err, setting.AppConf.Http.Addr)}}()// 等待中断信号来优雅地关闭服务器,为关闭服务器操作设置一个5秒的超时sig := make(chan os.Signal, 1)signal.Notify(sig, syscall.SIGINT, syscall.SIGTERM, syscall.SIGQUIT)for {select {case s := <-sig:zap.S().Infof("recv exit signal: %s", s.String())ctx, cancel := context.WithTimeout(context.Background(), 5*time.Second)defer cancel()// 5秒内优雅关闭服务(将未处理完的请求处理完再关闭服务),超过5秒就超时退出if err := srv.Shutdown(ctx); err != nil {zap.S().Fatal("Server Shutdown err: ", err)}zap.S().Info("Server Shutdown Success")return}}
如下,使用于 项目通过通道来进行数据处理、数据发送接收等操作:
package taillog// 专门从日志文件,收集日志
import ("context""fmt""github.com/hpcloud/tail""logagent/kafka"
)
//var (
// tailObj *tail.Tail
//)//TailTask 一个日志收集的任务
type TailTask struct {path stringtopic stringinstance *tail.Tail//为了能实现退出t.runctx context.ContextcancelFunc context.CancelFunc
}func NewTailTask(path,topic string) (tailObj *TailTask) {ctx,cancel := context.WithCancel(context.Background())tailObj = &TailTask{path:path,topic:topic,ctx:ctx,cancelFunc:cancel,}tailObj.init() //根据路径去打开对应的日志return
}func (t *TailTask)init() {config := tail.Config{ReOpen: true, //重新打开Follow: true, //是否跟随Location: &tail.SeekInfo{Offset:0,Whence:2}, //从文件哪个地方开始读MustExist: false, //文件不存在不报错Poll: true,}var err errort.instance, err = tail.TailFile(t.path, config)if err != nil {fmt.Println("tail file failed,err:",err)}// 当goroutine执行的函数退出的时候,goroutine结束go t.run() //直接去采集日志,发送到kafka
}func (t *TailTask)run() {for{select {case <- t.ctx.Done():fmt.Printf("tail task:%s_%s 结束了\n",t.path,t.topic)returncase line := <- t.instance.Lines: //从tailObj一行行读取数据//发往kafka//kafka.SendToKafka(t.topic,line.Text) //函数调用函数// 优化,先把日志数据发送到一个通道中// kafka包中有单独的goroutine去取日志发送到kafkakafka.SendToChan(t.topic,line.Text)}}
}
package kafka//专门从kafka写日志
import ("fmt""github.com/Shopify/sarama""time"
)type logData struct {topic stringdata string
}var (client sarama.SyncProducer //声明一个全局连接kafka的生产者clientlogDataChan chan *logData
)// 初始化client
func Init(address []string, maxSize int)(err error) {config := sarama.NewConfig()config.Producer.RequiredAcks = sarama.WaitForAll //发送完数据需要leader和follow都确认config.Producer.Partitioner = sarama.NewRandomPartitioner //新选出一个partitionconfig.Producer.Return.Successes = true //成功交付的消息将在success channel 返回//连接kafkaclient,err = sarama.NewSyncProducer(address,config)if err != nil {fmt.Println("producer closed,err:",err)return}// 初始化logDataChanlogDataChan = make(chan *logData,maxSize)// 开启后台的goroutine从通道取数据,发送kafkago sendToKafka()return
}// 给外部暴漏一个函数,该函数只把日志数据发送到一个内部chan中
func SendToChan(topic,data string) {msg := &logData{topic: topic,data: data,}logDataChan <- msg
}//真正往kafka发送日志的函数
func sendToKafka() {for{select {case ld := <- logDataChan:// 构造一个消息msg := &sarama.ProducerMessage{}msg.Topic = ld.topicmsg.Value = sarama.StringEncoder(ld.data)// 发送到kafkapid,offset,err := client.SendMessage(msg)if err != nil {fmt.Println("send msg failed,err:",err)return}fmt.Printf("pid:%v,offset:%v\n",pid,offset)default:time.Sleep(time.Microsecond*50)}}
}
整理比较随性,有点混乱,后续如果再碰到坑继续整理,继续踩坑优化~

















