从Curator实现分布式锁的源码再到羊群效应

一、实现式锁前言

Curator是分布一款由Java编写的,操作Zookeeper的源到羊客户端工具,在其内部封装了分布式锁、码再选举等高级功能。群效

今天主要是实现式锁分析其实现分布式锁的主要原理,有关分布式锁的分布一些介绍或其他实现,有兴趣的源到羊同学可以翻阅以下文章:

我用了上万字,走了一遍Redis实现分布式锁的码再坎坷之路,从单机到主从再到多实例,群效原来会发生这么多的实现式锁问题_阳阳的博客-CSDN博客

Redisson可重入与锁续期源码分析_阳阳的博客-CSDN博客

在使用Curator获取分布式锁时,Curator会在指定的分布path下创建一个有序的临时节点,如果该节点是源到羊最小的,则代表获取锁成功。码再

接下来,群效在准备工作中,我们可以观察是否会创建出一个临时节点出来。

二、站群服务器准备工作

首先我们需要搭建一个zookeeper集群,当然你使用单机也行。

在这篇文章面试官:能给我画个Zookeeper选举的图吗?,介绍了一种使用docker-compose方式快速搭建zk集群的方式。

在pom中引入依赖:

<dependency>          <groupId>org.apache.curator</groupId>          <artifactId>curator-recipes</artifactId>          <version>2.12.0</version>      </dependency> 

 Curator客户端的配置项:

/**  * @author qcy  * @create 2022/01/01 22:59:34  */ @Configuration public class CuratorFrameworkConfig {      //zk各节点地址     private static final String CONNECT_STRING = "localhost:2181,localhost:2182,localhost:2183";     //连接超时时间(单位:毫秒)     private static final int CONNECTION_TIME_OUT_MS = 10 * 1000;     //会话超时时间(单位:毫秒)     private static final int SESSION_TIME_OUT_MS = 30 * 1000;     //重试的初始等待时间(单位:毫秒)     private static final int BASE_SLEEP_TIME_MS = 2 * 1000;     //最大重试次数     private static final int MAX_RETRIES = 3;     @Bean     public CuratorFramework getCuratorFramework() {          CuratorFramework curatorFramework = CuratorFrameworkFactory.builder()                 .connectString(CONNECT_STRING)                 .connectionTimeoutMs(CONNECTION_TIME_OUT_MS)                 .sessionTimeoutMs(SESSION_TIME_OUT_MS)                 .retryPolicy(new ExponentialBackoffRetry(BASE_SLEEP_TIME_MS, MAX_RETRIES))                 .build();         curatorFramework.start();         return curatorFramework;     } } 

 SESSION_TIME_OUT_MS参数则会保证,在某个客户端获取到锁之后突然宕机,zk能在该时间内删除当前客户端创建的临时有序节点。

测试代码如下:

//临时节点路径,qcy是博主名字缩写哈    private static final String LOCK_PATH = "/lockqcy";    @Resource    CuratorFramework curatorFramework;    public void testCurator() throws Exception {         InterProcessMutex interProcessMutex = new InterProcessMutex(curatorFramework, LOCK_PATH);        interProcessMutex.acquire();        try {             //模拟业务耗时            Thread.sleep(30 * 1000);        } catch (Exception e) {             e.printStackTrace();        } finally {             interProcessMutex.release();        }    } 

 当使用接口调用该方法时,在Thread.sleep处打上断点,进入到zk容器中观察创建出来的节点。

使用 docker exec -it zk容器名 /bin/bash 以交互模式进入容器,接着使用 ./bin/zkCli.sh 连接到zk的server端。

然后使用 ls path 查看节点

这三个节点都是持久节点,可以使用 get path 查看节点的数据结构信息

若一个节点的ephemeralOwner值为0,即该节点的临时拥有者的会话id为0,则代表该节点为持久节点。

当走到断点Thread.sleep时,确实发现在lockqcy下创建出来一个临时节点

​到这里吗,准备工作已经做完了,接下来分析interProcessMutex.acquire与release的香港云服务器流程

三、源码分析

Curator支持多种类型的锁,例如

InterProcessMutex,可重入锁排它锁 InterProcessReadWriteLock,读写锁 InterProcessSemaphoreMutex,不可重入排它锁

今天主要是分析InterProcessMutex的加解锁过程,先看加锁过程

加锁

public void acquire() throws Exception {        if (!internalLock(-1, null)) {            throw new IOException("Lost connection while trying to acquire lock: " + basePath);       }   } 

 这里是阻塞式获取锁,获取不到锁,就一直进行阻塞。所以对于internalLock方法,超时时间设置为-1,时间单位设置成null。

private boolean internalLock(long time, TimeUnit unit) throws Exception {         Thread currentThread = Thread.currentThread();        //通过能否在map中取到该线程的LockData信息,来判断该线程是否已经持有锁        LockData lockData = threadData.get(currentThread);        if (lockData != null) {             //进行可重入,直接返回加锁成功            lockData.lockCount.incrementAndGet();            return true;        }        //进行加锁        String lockPath = internals.attemptLock(time, unit, getLockNodeBytes());        if (lockPath != null) {             //加锁成功,保存到map中            LockData newLockData = new LockData(currentThread, lockPath);            threadData.put(currentThread, newLockData);            return true;        }        return false;    } 

其中threadData是一个map,key线程对象,value为该线程绑定的锁数据。

LockData中保存了加锁线程owningThread,重入计数lockCount与加锁路径lockPath,例如

/lockqcy/_c_c46513c3-ace0-405f-aa1e-a531ce28fb47-lock-0000000005  private final ConcurrentMap<Thread, LockData> threadData = Maps.newConcurrentMap();     private static class LockData {          final Thread owningThread;         final String lockPath;         final AtomicInteger lockCount = new AtomicInteger(1);         private LockData(Thread owningThread, String lockPath) {              this.owningThread = owningThread;             this.lockPath = lockPath;         }     } 

 进入到internals.attemptLock方法中

String attemptLock(long time, TimeUnit unit, byte[] lockNodeBytes) throws Exception {        //开始时间       final long startMillis = System.currentTimeMillis();       //将超时时间统一转化为毫秒单位       final Long millisToWait = (unit != null) ? unit.toMillis(time) : null;       //节点数据,这里为null       final byte[] localLockNodeBytes = (revocable.get() != null) ? new byte[0] : lockNodeBytes;       //重试次数       int retryCount = 0;       //锁路径       String ourPath = null;       //是否获取到锁       boolean hasTheLock = false;       //是否完成       boolean isDone = false;       while (!isDone) {            isDone = true;           try {                //创建一个临时有序节点,并返回节点路径               //内部调用client.create().creatingParentContainersIfNeeded().withProtection().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath(path);               ourPath = driver.createsTheLock(client, path, localLockNodeBytes);               //依据返回的节点路径,判断是否抢到了锁               hasTheLock = internalLockLoop(startMillis, millisToWait, ourPath);           } catch (KeeperException.NoNodeException e) {                //在会话过期时,可能导致driver找不到临时有序节点,从而抛出NoNodeException               //这里就进行重试               if (client.getZookeeperClient().getRetryPolicy().allowRetry(retryCount++, System.currentTimeMillis() - startMillis, RetryLoop.getDefaultRetrySleeper())) {                    isDone = false;               } else {                    throw e;               }           }       }       //获取到锁,则返回节点路径,供调用方记录到map中       if (hasTheLock) {            return ourPath;       }       return null;   } 

 接下来,将会在internalLockLoop中利用刚才创建出来的临时有序节点,云服务器判断是否获取到了锁。

private boolean internalLockLoop(long startMillis, Long millisToWait, String ourPath) throws Exception {         //是否获取到锁        boolean haveTheLock = false;        boolean doDelete = false;        try {             if (revocable.get() != null) {                 //当前不会进入这里                client.getData().usingWatcher(revocableWatcher).forPath(ourPath);            }            //一直尝试获取锁            while ((client.getState() == CuratorFrameworkState.STARTED) && !haveTheLock) {                 //返回basePath(这里是lockqcy)下所有的临时有序节点,并且按照后缀从小到大排列                List<String> children = getSortedChildren();                //取出当前线程创建出来的临时有序节点的名称,这里就是/_c_c46513c3-ace0-405f-aa1e-a531ce28fb47-lock-0000000005                String sequenceNodeName = ourPath.substring(basePath.length() + 1);                //判断当前节点是否处于排序后的首位,如果处于首位,则代表获取到了锁                PredicateResults predicateResults = driver.getsTheLock(client, children, sequenceNodeName, maxLeases);                if (predicateResults.getsTheLock()) {                     //获取到锁之后,则终止循环                    haveTheLock = true;                } else {                     //这里代表没有获取到锁                    //获取比当前节点索引小的前一个节点                    String previousSequencePath = basePath + "/" + predicateResults.getPathToWatch();                    synchronized (this) {                         try {                             //如果前一个节点不存在,则直接抛出NoNodeException,catch中不进行处理,在下一轮中继续获取锁                            //如果前一个节点存在,则给它设置一个监听器,监听它的释放事件                            client.getData().usingWatcher(watcher).forPath(previousSequencePath);                            if (millisToWait != null) {                                 millisToWait -= (System.currentTimeMillis() - startMillis);                                startMillis = System.currentTimeMillis();                                //判断是否超时                                if (millisToWait <= 0) {                                     //获取锁超时,删除刚才创建的临时有序节点                                    doDelete = true;                                    break;                                }                                //没超时的话,在millisToWait内进行等待                                wait(millisToWait);                            } else {                                 //无限期阻塞等待,监听到前一个节点被删除时,才会触发唤醒操作                                wait();                            }                        } catch (KeeperException.NoNodeException e) {                             //如果前一个节点不存在,则直接抛出NoNodeException,catch中不进行处理,在下一轮中继续获取锁                        }                    }                }            }        } catch (Exception e) {             ThreadUtils.checkInterrupted(e);            doDelete = true;            throw e;        } finally {             if (doDelete) {                 //删除刚才创建出来的临时有序节点                deleteOurPath(ourPath);            }        }        return haveTheLock;    } 

 判断是否获取到锁的核心逻辑位于getsTheLock中

public PredicateResults getsTheLock(CuratorFramework client, List<String> children, String sequenceNodeName, int maxLeases) throws Exception {       //获取当前节点在所有子节点排序后的索引位置      int ourIndex = children.indexOf(sequenceNodeName);      //判断当前节点是否处于子节点中      validateOurIndex(sequenceNodeName, ourIndex);      //InterProcessMutex的构造方法,会将maxLeases初始化为1      //ourIndex必须为0,才能使得getsTheLock为true,也就是说,当前节点必须是basePath下的最小节点,才能代表获取到了锁      boolean getsTheLock = ourIndex < maxLeases;      //如果获取不到锁,则返回上一个节点的名称,用作对其设置监听      String pathToWatch = getsTheLock ? null : children.get(ourIndex - maxLeases);      return new PredicateResults(pathToWatch, getsTheLock);  }  static void validateOurIndex(String sequenceNodeName, int ourIndex) throws KeeperException {       if (ourIndex < 0) {           //可能会由于连接丢失导致临时节点被删除,因此这里属于保险措施          throw new KeeperException.NoNodeException("Sequential path not found: " + sequenceNodeName);      }  } 

 那什么时候,在internalLockLoop处于wait的线程能被唤醒呢?

在internalLockLoop方法中,已经使用

client.getData().usingWatcher(watcher).forPath(previousSequencePath); 

给前一个节点设置了监听器,当该节点被删除时,将会触发watcher中的回调

private final Watcher watcher = new Watcher() {          //回调方法         @Override         public void process(WatchedEvent event) {              notifyFromWatcher();         }     };     private synchronized void notifyFromWatcher() {          //唤醒所以在LockInternals实例上等待的线程         notifyAll();     } 

 到这里,基本上已经分析完加锁的过程了,在这里总结下:

首先创建一个临时有序节点

如果该节点是basePath下最小节点,则代表获取到了锁,存入map中,下次直接进行重入。

如果该节点不是最小节点,则对前一个节点设置监听,接着进行wait等待。当前一个节点被删除时,将会通知notify该线程。

解锁

解锁的逻辑,就比较简单了,直接进入release方法中

public void release() throws Exception {        Thread currentThread = Thread.currentThread();       LockData lockData = threadData.get(currentThread);       if (lockData == null) {            throw new IllegalMonitorStateException("You do not own the lock: " + basePath);       }       int newLockCount = lockData.lockCount.decrementAndGet();       //直接减少一次重入次数       if (newLockCount > 0) {            return;       }       if (newLockCount < 0) {            throw new IllegalMonitorStateException("Lock count has gone negative for lock: " + basePath);       }       //到这里代表重入次数为0       try {            //释放锁           internals.releaseLock(lockData.lockPath);       } finally {            //从map中移除           threadData.remove(currentThread);       }   }   void releaseLock(String lockPath) throws Exception {        revocable.set(null);       //内部使用guaranteed,会在后台不断尝试删除节点       deleteOurPath(lockPath);   } 

 重入次数大于0,就减少重入次数。当减为0时,调用zk去删除节点,这一点和Redisson可重入锁释放时一致。

四、羊群效应

在这里谈谈使用Zookeeper实现分布式锁场景中的羊群效应

什么是羊群效应

首先,羊群是一种很散乱的组织,漫无目的,缺少管理,一般需要牧羊犬来帮助主人控制羊群。

某个时候,当其中一只羊发现前面有更加美味的草而动起来,就会导致其余的羊一哄而上,根本不管周围的情况。

所以羊群效应,指的是一个人在进行理性的行为后,导致其余人直接盲从,产生非理性的从众行为。

而Zookeeper中的羊群效应,则是指一个znode被改变后,触发了大量本可以被避免的watch通知,造成集群资源的浪费。

获取不到锁时的等待演化

sleep一段时间

如果某个线程在获取锁失败后,完全可以sleep一段时间,再尝试获取锁。

但这样的方式,效率极低。

sleep时间短的话,会频繁地进行轮询,浪费资源。

sleep时间长的话,会出现锁被释放但仍然获取不到锁的尴尬情况。

所以,这里的优化点,在于如何变主动轮询为异步通知。

watch被锁住的节点

所有的客户端要获取锁时,只去创建一个同名的node。

当znode存在时,这些客户端对其设置监听。当znode被删除后,通知所有等待锁的客户端,接着这些客户端再次尝试获取锁。

虽然这里使用watch机制来异步通知,可是当客户端的数量特别多时,会存在性能低点。

当znode被删除后,在这一瞬间,需要给大量的客户端发送通知。在此期间,其余提交给zk的正常请求可能会被延迟或者阻塞。

这就产生了羊群效应,一个点的变化(znode被删除),造成了全面的影响(通知大量的客户端)。

所以,这里的优化点,在于如何减少对一个znode的监听数量,最好的情况是只有一个。

watch前一个有序节点

如果先指定一个basePath,想要获取锁的客户端,直接在该路径下创建临时有序节点。

当创建的节点是最小节点时,代表获取到了锁。如果不是最小的节点,则只对前一个节点设置监听器,只监听前一个节点的删除行为。

这样前一个节点被删除时,只会给下一个节点代表的客户端发送通知,不会给所有客户端发送通知,从而避免了羊群效应。

​在避免羊群效应的同时,使得当前锁成为公平锁。即按照申请锁的先后顺序获得锁,避免存在饥饿过度的线程。

五、后语

本文从源码角度讲解了使用Curator获取分布式锁的流程,接着从等待锁的演化过程角度出发,分析了Zookeeper在分布式锁场景下避免羊群效应的解决方案。

这是Zookeeper系列的第二篇,关于其watch原理分析、zab协议等文章也在安排的路上了。

域名
上一篇:如何用 Serveless 三分钟做好邀请函?
下一篇:Jedis 参数异常引发服务雪崩案例分析