Go 请求处理频率控制
频率控制是控制资源利用和保证服务高质量的重要机制。Go可以使用goroutine,channel和ticker来以优雅的方式支持频率控制。
package main
import "time"
import "fmt"
func main() {
// 首先我们看下基本的频率限制。假设我们得控制请求频率,
// 我们使用一个通道来处理所有的这些请求,这里向requests
// 发送5个数据,然后关闭requests通道
requests := make(chan int, 5)
for i := 1; i <= 5; i++ {
requests <- i
}
close(requests)
// 这个limiter的Ticker每隔200毫秒结束通道阻塞
// 这个limiter就是我们频率控制处理器
limiter := time.Tick(time.Millisecond * 200)
// 通过阻塞从limiter通道接受数据,我们将请求处理控制在每隔200毫秒
// 处理一个请求,注意`<-limiter`的阻塞作用。
for req := range requests {
<-limiter
fmt.Println("request", req, time.Now())
}
// 我们可以保持正常的请求频率限制,但也允许请求短时间内爆发
// 我们可以通过通道缓存来实现,比如下面的这个burstyLimiter
// 就允许同时处理3个事件。
burstyLimiter := make(chan time.Time, 3)
// 填充burstyLimiter,先发送3个数据
for i := 0; i < 3; i++ {
burstyLimiter <- time.Now()
}
// 然后每隔200毫秒再向burstyLimiter发送一个数据,这里是不断地
// 每隔200毫秒向burstyLimiter发送数据
go func() {
for t := range time.Tick(time.Millisecond * 200) {
burstyLimiter <- t
}
}()
// 这里模拟5个请求,burstyRequests的前面3个请求会连续被处理,
// 因为burstyLimiter被先连续发送3个数据的的缘故,而后面两个
// 则每隔200毫秒处理一次
burstyRequests := make(chan int, 5)
for i := 1; i <= 5; i++ {
burstyRequests <- i
}
close(burstyRequests)
for req := range burstyRequests {
<-burstyLimiter
fmt.Println("request", req, time.Now())
}
}
运行结果
request 1 2014-02-21 14:20:05.2696437 +0800 CST
request 2 2014-02-21 14:20:05.4696637 +0800 CST
request 3 2014-02-21 14:20:05.6696837 +0800 CST
request 4 2014-02-21 14:20:05.8697037 +0800 CST
request 5 2014-02-21 14:20:06.0697237 +0800 CST
request 1 2014-02-21 14:20:06.0697237 +0800 CST
request 2 2014-02-21 14:20:06.0697237 +0800 CST
request 3 2014-02-21 14:20:06.0707238 +0800 CST
request 4 2014-02-21 14:20:06.2707438 +0800 CST
request 5 2014-02-21 14:20:06.4707638 +0800 CST
我们从输出的结果上可以看出最后的5个输出结果中,前三个的时间是连续的,而后两个的时间是隔了200毫秒。