当前位置:首页 > 文章列表 > Golang > Go教程 > Golang 实现Thrift客户端连接池方式

Golang 实现Thrift客户端连接池方式

来源:脚本之家 2022-12-31 18:19:00 0浏览 收藏

本篇文章给大家分享《Golang 实现Thrift客户端连接池方式》,覆盖了Golang的常见基础知识,其实一个语言的全部知识点一篇文章是不可能说完的,但希望通过这些问题,让读者对自己的掌握程度有一定的认识(B 数),从而弥补自己的不足,更好的掌握它。

1 前言

阅读文章之前,请先了解一下thrift相关知识。thrift官方并没有提供客户端连接池的实现方案,而我们在实际使用时,thrift客户端必须复用,来保证较为可观的吞吐量,并避免在高QPS调用情况下,不断的创建、释放客户端所带来的机器端口耗尽问题。

本文会详细讲解如何实现一个简单可靠的thrift客户端连接池,并通过对照实验来说明thrift客户端连接池所带来的好处。

由于篇幅的原因,本文只粘出关键代码,源代码请查看Thrift Client Pool Demo

1.1 运行环境

Golang版本: go1.14.3 darwin/amd64

Thrift Golang库版本: 0.13.0

Thrift IDL编辑器版本: 0.13.0

1.2 .thrift文件

namespace java com.czl.api.thrift.model
namespace cpp com.czl.api
namespace php com.czl.api
namespace py com.czl.api
namespace js com.czl.apixianz
namespace go com.czl.api
struct ApiRequest {
 1: required i16 id;
}
struct ApiResponse{
 1:required string name;
}
// service1
service ApiService1{
 ApiResponse query(1:ApiRequest request)
}
// service2
service ApiService2{
 ApiResponse query(1:ApiRequest request)
}

注:请通过安装Thrift IDL编译器,并生成客户端、服务端代码。

1.3 对照实验说明

通过脚本开启100个协程并发调用rpc服务10分钟,统计这段时间内,未使用thrift客户端连接池与使用客户端连接池服务的平均吞吐量、Thrift API调用平均延迟、机器端口消耗等数据进行性能对比。

实验一: 未使用thrift客户端连接池

实验二: 使用thrift客户端连接池

2 Thrift客户端连接池实现

2.1 连接池的功能

首先,我们要明确一下连接池的职责,这里我简单的总结一下,连接池主要功能是维护连接的创建、释放,通过缓存连接来复用连接,减少创建连接所带来的开销,提高系统的吞吐量,一般连接池还会有连接断开的重连机制、超时机制等。这里我们可以先定义出大部分连接池都会有的功能,只是定义,可以先不管每个功能的具体实现。每一个空闲Thrift客户端其实底层都维护着一条空闲TCP连接,空闲Thrift客户端与空闲连接在这里其实是同一个概念。

......
// Thrift客户端创建方法,留给业务去实现
type ThriftDial func(addr string, connTimeout time.Duration) (*IdleClient, error)
// 关闭Thrift客户端,留给业务实现
type ThriftClientClose func(c *IdleClient) error
// Thrift客户端连接池
type ThriftPool struct {
 // Thrift客户端创建逻辑,业务自己实现
 Dial ThriftDial
 // Thrift客户端关闭逻辑,业务自己实现
 Close ThriftClientClose
 // 空闲客户端,用双端队列存储
 idle list.List
 // 同步锁,确保count、status、idle等公共数据并发操作安全
 lock *sync.Mutex
 // 记录当前已经创建的Thrift客户端,确保MaxConn配置
 count int32
 // Thrift客户端连接池状态,目前就open和stop两种
 status uint32
 // Thrift客户端连接池相关配置
 config *ThriftPoolConfig
}
// 连接池配置
type ThriftPoolConfig struct {
 // Thrfit Server端地址
 Addr string
 // 最大连接数
 MaxConn int32
 // 创建连接超时时间
 ConnTimeout time.Duration
 // 空闲客户端超时时间,超时主动释放连接,关闭客户端
 IdleTimeout time.Duration
 // 获取Thrift客户端超时时间
 Timeout time.Duration
 // 获取Thrift客户端失败重试间隔
 interval time.Duration
}
// Thrift客户端
type IdleClient struct {
 // Thrift传输层,封装了底层连接建立、维护、关闭、数据读写等细节
 Transport thrift.TTransport
 // 真正的Thrift客户端,业务创建传入
 RawClient interface{}
}
// 封装了Thrift客户端
type idleConn struct {
 // 空闲Thrift客户端
 c *IdleClient
 // 最近一次放入空闲队列的时间
 t time.Time
}
// 获取Thrift空闲客户端
func (p *ThriftPool) Get() (*IdleClient, error) {
 // 1. 从空闲池中获取空闲客户端,获取到更新数据,返回,否则执行第2步
 // 2. 创建新到Thrift客户端,更新数据,返回Thrift客户端
 ......
}
// 归还Thrift客户端
func (p *ThriftPool) Put(client *IdleCLient) error {
 // 1. 如果客户端已经断开,更新数据,返回,否则执行第2步
 // 2. 将Thrift客户端丢进空闲连接池,更新数据,返回
 ......
}
// 超时管理,定期释放空闲太久的连接
func (p *ThriftPool) CheckTimeout() {
 // 扫描空闲连接池,将空闲太久的连接主动释放掉,并更新数据
 ......
}
// 异常连接重连
func (p *ThriftPool) Reconnect(client *IdleClient) (newClient *IdleClient, err error) {
 // 1. 关闭旧客户端
 // 2. 创建新的客户端,并返回
 ......
}
// 其他方法
......

这里有两个关键的数据结构,ThriftPool和IdleClient,ThriftPool负责实现整个连接池的功能,IdleClient封装了真正的Thrift客户端。

先看一下ThriftPool的定义:

// Thrift客户端创建方法,留给业务去实现
type ThriftDial func(addr string, connTimeout time.Duration) (*IdleClient, error)
// 关闭Thrift客户端,留给业务实现
type ThriftClientClose func(c *IdleClient) error
// Thrift客户端连接池
type ThriftPool struct {
 // Thrift客户端创建逻辑,业务自己实现
 Dial ThriftDial
 // Thrift客户端关闭逻辑,业务自己实现
 Close ThriftClientClose
 // 空闲客户端,用双端队列存储
 idle list.List
 // 同步锁,确保count、status、idle等公共数据并发操作安全
 lock *sync.Mutex
 // 记录当前已经创建的Thrift客户端,确保MaxConn配置
 count int32
 // Thrift客户端连接池状态,目前就open和stop两种
 status uint32
 // Thrift客户端连接池相关配置
 config *ThriftPoolConfig
}
// 连接池配置
type ThriftPoolConfig struct {
 // Thrfit Server端地址
 Addr string
 // 最大连接数
 MaxConn int32
 // 创建连接超时时间
 ConnTimeout time.Duration
 // 空闲客户端超时时间,超时主动释放连接,关闭客户端
 IdleTimeout time.Duration
 // 获取Thrift客户端超时时间
 Timeout time.Duration
 // 获取Thrift客户端失败重试间隔
 interval time.Duration
}

Thrift客户端创建与关闭,涉及到业务细节,这里抽离成Dial方法和Close方法。

连接池需要维护空闲客户端,这里用双端队列来存储。

一般的连接池,都应该支持最大连接数配置,MaxConn可以配置连接池最大连接数,同时我们用count来记录连接池当前已经创建的连接。

为了实现连接池的超时管理,当然也得有相关超时配置。

连接池的状态、当前连接数等这些属性,是多协程并发操作的,这里用同步锁lock来确保并发操作安全。

在看一下IdleClient实现:

// Thrift客户端
type IdleClient struct {
 // Thrift传输层,封装了底层连接建立、维护、关闭、数据读写等细节
 Transport thrift.TTransport
 // 真正的Thrift客户端,业务创建传入
 RawClient interface{}
}
// 封装了Thrift客户端
type idleConn struct {
 // 空闲Thrift客户端
 c *IdleClient
 // 最近一次放入空闲队列的时间
 t time.Time
}

RawClient是真正的Thrift客户端,与实际逻辑相关。

Transport Thrift传输层,Thrift传输层,封装了底层连接建立、维护、关闭、数据读写等细节。

idleConn封装了IdleClient,用来实现空闲连接超时管理,idleConn记录一个时间,这个时间是Thrift客户端最近一次被放入空闲队列的时间。

2.2 获取连接

......
var nowFunc = time.Now
......
// 获取Thrift空闲客户端
func (p *ThriftPool) Get() (*IdleClient, error) {
 return p.get(nowFunc().Add(p.config.Timeout))
}
// 获取连接的逻辑实现
// expire设定了一个超时时间点,当没有可用连接时,程序会休眠一小段时间后重试
// 如果一直获取不到连接,一旦到达超时时间点,则报ErrOverMax错误
func (p *ThriftPool) get(expire time.Time) (*IdleClient, error) {
 if atomic.LoadUint32(&p.status) == poolStop {
 return nil, ErrPoolClosed
 }
 // 判断是否超额
 p.lock.Lock()
 if p.idle.Len() == 0 && atomic.LoadInt32(&p.count) >= p.config.MaxConn {
 p.lock.Unlock()
 // 不采用递归的方式来实现重试机制,防止栈溢出,这里改用循环方式来实现重试
 for {
 // 休眠一段时间再重试
 time.Sleep(p.config.interval)
 // 超时退出
 if nowFunc().After(expire) {
 return nil, ErrOverMax
 }
 p.lock.Lock()
 if p.idle.Len() == 0 && atomic.LoadInt32(&p.count) >= p.config.MaxConn {
 p.lock.Unlock()
 } else { // 有可用链接,退出for循环
 break
 }
 }
 }
 if p.idle.Len() == 0 {
 // 先加1,防止首次创建连接时,TCP握手太久,导致p.count未能及时+1,而新的请求已经到来
 // 从而导致短暂性实际连接数大于p.count(大部分链接由于无法进入空闲链接队列,而被关闭,处于TIME_WATI状态)
 atomic.AddInt32(&p.count, 1)
 p.lock.Unlock()
 client, err := p.Dial(p.config.Addr, p.config.ConnTimeout)
 if err != nil {
 atomic.AddInt32(&p.count, -1)
 return nil, err
 }
 // 检查连接是否有效
 if !client.Check() {
 atomic.AddInt32(&p.count, -1)
 return nil, ErrSocketDisconnect
 }
 return client, nil
 }
 // 从队头中获取空闲连接
 ele := p.idle.Front()
 idlec := ele.Value.(*idleConn)
 p.idle.Remove(ele)
 p.lock.Unlock()
 // 连接从空闲队列获取,可能已经关闭了,这里再重新检查一遍
 if !idlec.c.Check() {
 atomic.AddInt32(&p.count, -1)
 return nil, ErrSocketDisconnect
 }
 return idlec.c, nil
}

p.Get()的逻辑比较清晰:如果空闲队列没有连接,且当前连接已经到达p.config.MaxConn,就休眠等待重试;当满足获取连接条件时p.idle.Len() != 0 || atomic.LoadInt32(&p.count)

这里有两个关键的地方需要注意:

等待重试的逻辑,不要用递归的方式来实现,防止运行栈溢出。

// 递归的方法实现等待重试逻辑
func (p *ThriftPool) get(expire time.Time) (*IdleClient, error) {
 // 超时退出
 if nowFunc().After(expire) {
 return nil, ErrOverMax
 }
 if atomic.LoadUint32(&p.status) == poolStop {
 return nil, ErrPoolClosed
 }
 // 判断是否超额
 p.lock.Lock()
 if p.idle.Len() == 0 && atomic.LoadInt32(&p.count) >= p.config.MaxConn {
 p.lock.Unlock()
 // 休眠递归重试
 time.Sleep(p.config.interval)
 p.get(expire)
 }
 .......
}

注意p.lock.Lock()的和p.lock.UnLock()调用时机,确保公共数据并发操作安全。

2.3 释放连接

// 归还Thrift客户端
func (p *ThriftPool) Put(client *IdleClient) error {
 if client == nil {
 return nil
 }
 if atomic.LoadUint32(&p.status) == poolStop {
 err := p.Close(client)
 client = nil
 return err
 }
 if atomic.LoadInt32(&p.count) > p.config.MaxConn || !client.Check() {
 atomic.AddInt32(&p.count, -1)
 err := p.Close(client)
 client = nil
 return err
 }
 p.lock.Lock()
 p.idle.PushFront(&idleConn{
 c: client,
 t: nowFunc(),
 })
 p.lock.Unlock()
 return nil
}

p.Put()逻辑也比较简单,如果连接已经失效,p.count需要-1,并进行连接关闭操作。否则丢到空闲队列里,这里还是丢到队头,没错,还是丢到队头,p.Get()和p.Put()都是从队头操作,有点像堆操作,为啥这么处理,等下面说到空闲连接超时管理就清楚了,这里先记住丢回空闲队列的时候,会更新空闲连接的时间。

2.4 超时管理

获取连接超时管理p.Get()方法已经讲过了,创建连接超时管理由p.Dial()去实现,下面说的是空闲连接的超时管理,空闲队列的连接,如果一直没有使用,超过一定时间,需要主动关闭掉,服务端的资源有限,不需要用的连接就主动关掉,而且连接放太久,服务端也会主动关掉。

// 超时管理,定期释放空闲太久的连接
func (p *ThriftPool) CheckTimeout() {
 p.lock.Lock()
 for p.idle.Len() != 0 {
 ele := p.idle.Back()
 if ele == nil {
 break
 }
 v := ele.Value.(*idleConn)
 if v.t.Add(p.config.IdleTimeout).After(nowFunc()) {
 break
 }
 //timeout && clear
 p.idle.Remove(ele)
 p.lock.Unlock()
 p.Close(v.c) //close client connection
 atomic.AddInt32(&p.count, -1)
 p.lock.Lock()
 }
 p.lock.Unlock()
 return
}

清理超时空闲连接的时候,是从队尾开始清理掉超时或者无效的连接,直到找到第一个可用的连接或者队列为空。p.Get()和p.Put()都从队头操作队列,保证了活跃的连接都在队头,如果一开始创建的连接太多,后面业务操作变少,不需要那么多连接的时候,那多余的连接就会沉到队尾,被超时管理所清理掉。另外,这样设计也可以优化操作的时间复杂度

2.5 重连机制

事实上,thrift的transport层并没有提供一个检查连接是否有效的方法,一开始实现连接池的时候,检测方法是调用thrift.TTransport.IsOpen()来判断

// 检测连接是否有效
func (c *IdleClient) Check() bool {
 if c.Transport == nil || c.RawClient == nil {
 return false
 }
 return c.Transport.IsOpen()
}

可在测试阶段发现当底层当TCP连接被异常断开的时候(服务端重启、服务端宕机等),c.Transport.IsOpen()并不能如期的返回false,如果我们查看thrift的源码,可以发现,其实c.Transport.IsOpen()只和我们是否调用了c.Transport.Open()方法有关。为了能实现断开重连机制,我们只能在使用阶段发现异常连接时,重连连接。

这里我在ThriftPool上封装了一层代理ThriftPoolAgent,来实现断开重连逻辑,具体请参考代码实现。

package pool
import (
 "fmt"
 "github.com/apache/thrift/lib/go/thrift"
 "log"
 "net"
)
type ThriftPoolAgent struct {
 pool *ThriftPool
}
func NewThriftPoolAgent() *ThriftPoolAgent {
 return &ThriftPoolAgent{}
}
func (a *ThriftPoolAgent) Init(pool *ThriftPool) {
 a.pool = pool
}
// 真正的业务逻辑放到do方法做,ThriftPoolAgent只要保证获取到可用的Thrift客户端,然后传给do方法就行了
func (a *ThriftPoolAgent) Do(do func(rawClient interface{}) error) error {
 var (
 client *IdleClient
 err error
 )
 defer func() {
 if client != nil {
 if err == nil {
 if rErr := a.releaseClient(client); rErr != nil {
 log.Println(fmt.Sprintf("releaseClient error: %v", rErr))
 }
 } else if _, ok := err.(net.Error); ok {
 a.closeClient(client)
 } else if _, ok = err.(thrift.TTransportException); ok {
 a.closeClient(client)
 } else {
 if rErr := a.releaseClient(client); rErr != nil {
 log.Println(fmt.Sprintf("releaseClient error: %v", rErr))
 }
 }
 }
 }()
 // 从连接池里获取链接
 client, err = a.getClient()
 if err != nil {
 return err
 }
 if err = do(client.RawClient); err != nil {
 if _, ok := err.(net.Error); ok {
 log.Println(fmt.Sprintf("err: retry tcp, %T, %s", err, err.Error()))
 // 网络错误,重建连接
 client, err = a.reconnect(client)
 if err != nil {
 return err
 }
 return do(client.RawClient)
 }
 if _, ok := err.(thrift.TTransportException); ok {
 log.Println(fmt.Sprintf("err: retry tcp, %T, %s", err, err.Error()))
 // thrift传输层错误,也重建连接
 client, err = a.reconnect(client)
 if err != nil {
 return err
 }
 return do(client.RawClient)
 }
 return err
 }
 return nil
}
// 获取连接
func (a *ThriftPoolAgent) getClient() (*IdleClient, error) {
 return a.pool.Get()
}
// 释放连接
func (a *ThriftPoolAgent) releaseClient(client *IdleClient) error {
 return a.pool.Put(client)
}
// 关闭有问题的连接,并重新创建一个新的连接
func (a *ThriftPoolAgent) reconnect(client *IdleClient) (newClient *IdleClient, err error) {
 return a.pool.Reconnect(client)
}
// 关闭连接
func (a *ThriftPoolAgent) closeClient(client *IdleClient) {
 a.pool.CloseConn(client)
}
// 释放连接池
func (a *ThriftPoolAgent) Release() {
 a.pool.Release()
}
func (a *ThriftPoolAgent) GetIdleCount() uint32 {
 return a.pool.GetIdleCount()
}
func (a *ThriftPoolAgent) GetConnCount() int32 {
 return a.pool.GetConnCount()
}

3 对照实验

启用100个协程,不断调用Thrift服务端API 10分钟,对比服务平均吞吐量、Thrift API调用平均延迟、机器端口消耗。

平均吞吐量(r/s) = 总成功数 / 600

API调用平均延迟(ms/r) = 总成功数 / API成功请求总耗时(微秒) / 1000

机器端口消耗计算:netstat -nt | grep 9444 -c

3.1 实验一:未使用连接池

机器端口消耗

平均吞吐量、平均延迟

从结果看,API的平均延迟在77ms左右,但是服务的平均吞吐量才到360,比理论值1000 / 77 * 1000 = 1299少了很多,而且有96409次错误,报错的主要原因是:connect can't assign request address,100个协程并发调用就已经消耗了1.6w个端口,如果并发数更高的场景,端口消耗的情况会更加严重,实际上,这1.6w条TCP连接,几乎都是TIME_WAIT状态,Thrfit客户端用完就close掉,根据TCP三次握手可知主动断开连接的一方最终将会处于TIME_WAIT状态,并等待2MSL时间。

3.2 实验二:使用连接池

机器端口消耗

平均吞吐量、平均延迟

可以看出,用了连接池后,平均吞吐量可达到1.8w,API调用平均延迟才0.5ms,你可能会问,理论吞吐量不是可以达到1000 / 0.5 * 100 = 20w?理论归理论,如果按照1.8w吞吐量算,一次处理过程总时间消耗是1000 / (18000 / 100) = 5.6ms,所以这里影响吞吐量的因素已经不是API调用的耗时了,1.8w的吞吐量其实已经挺不错了。

另外,消耗的端口数也才194/2 = 97(除余2是因为server端也在本地跑),而且都是ESTABLISH状态,连接一直保持着,不断的在被复用。连接被复用,少了创建TCP连接的三次握手环节,这里也可以解释为啥API调用的平均延迟可以从77ms降到0.5ms,不过0.5ms确实有点低,线上环境Server一般不会和Client在同一台机器,而且业务逻辑也会比这里复杂,API调用的平均延迟会相对高一点。

4 总结

调用Thrift API必须使用Thrift客户端连接池,否则在高并发的情况下,会有大量的TCP连接处于TIME_WAIT状态,机器端口被大量消耗,可能会导致部分请求失败甚至服务不可用。每次请求都重新创建TCP连接,进行TCP三次握手环节,API调用的延迟会比较高,服务的吞吐量也不会很高。

使用Thrift客户端连接池,可以提高系统的吞吐量,同时可以避免机器端口被耗尽的危险,提高服务的可靠性。

以上为个人经验,希望能给大家一个参考,也希望大家多多支持golang学习网。如有错误或未考虑完全的地方,望不吝赐教。

今天带大家了解了客户端、连接池、Thrift的相关知识,希望对你有所帮助;关于Golang的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

版本声明
本文转载于:脚本之家 如有侵犯,请联系study_golang@163.com删除
goland设置控制台折叠效果goland设置控制台折叠效果
上一篇
goland设置控制台折叠效果
golang 通过ssh代理连接mysql的操作
下一篇
golang 通过ssh代理连接mysql的操作
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    508次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    497次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 笔灵AI生成答辩PPT:高效制作学术与职场PPT的利器
    笔灵AI生成答辩PPT
    探索笔灵AI生成答辩PPT的强大功能,快速制作高质量答辩PPT。精准内容提取、多样模板匹配、数据可视化、配套自述稿生成,让您的学术和职场展示更加专业与高效。
    10次使用
  • 知网AIGC检测服务系统:精准识别学术文本中的AI生成内容
    知网AIGC检测服务系统
    知网AIGC检测服务系统,专注于检测学术文本中的疑似AI生成内容。依托知网海量高质量文献资源,结合先进的“知识增强AIGC检测技术”,系统能够从语言模式和语义逻辑两方面精准识别AI生成内容,适用于学术研究、教育和企业领域,确保文本的真实性和原创性。
    22次使用
  • AIGC检测服务:AIbiye助力确保论文原创性
    AIGC检测-Aibiye
    AIbiye官网推出的AIGC检测服务,专注于检测ChatGPT、Gemini、Claude等AIGC工具生成的文本,帮助用户确保论文的原创性和学术规范。支持txt和doc(x)格式,检测范围为论文正文,提供高准确性和便捷的用户体验。
    30次使用
  • 易笔AI论文平台:快速生成高质量学术论文的利器
    易笔AI论文
    易笔AI论文平台提供自动写作、格式校对、查重检测等功能,支持多种学术领域的论文生成。价格优惠,界面友好,操作简便,适用于学术研究者、学生及论文辅导机构。
    38次使用
  • 笔启AI论文写作平台:多类型论文生成与多语言支持
    笔启AI论文写作平台
    笔启AI论文写作平台提供多类型论文生成服务,支持多语言写作,满足学术研究者、学生和职场人士的需求。平台采用AI 4.0版本,确保论文质量和原创性,并提供查重保障和隐私保护。
    35次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码