从Curator实现分布式锁的源码再到羊群效应
一、实现式锁前言
Curator是分布一款由Java编写的,操作Zookeeper的源到羊客户端工具,在其内部封装了分布式锁、码再选举等高级功能。群效
今天主要是实现式锁分析其实现分布式锁的主要原理,有关分布式锁的分布一些介绍或其他实现,有兴趣的源到羊同学可以翻阅以下文章:
我用了上万字,走了一遍Redis实现分布式锁的码再坎坷之路,从单机到主从再到多实例,群效原来会发生这么多的实现式锁问题_阳阳的博客-CSDN博客
Redisson可重入与锁续期源码分析_阳阳的博客-CSDN博客
在使用Curator获取分布式锁时,Curator会在指定的分布path下创建一个有序的临时节点,如果该节点是源到羊最小的,则代表获取锁成功。码再
接下来,群效在准备工作中,我们可以观察是否会创建出一个临时节点出来。
二、站群服务器准备工作
首先我们需要搭建一个zookeeper集群,当然你使用单机也行。
在这篇文章面试官:能给我画个Zookeeper选举的图吗?,介绍了一种使用docker-compose方式快速搭建zk集群的方式。
在pom中引入依赖:
<dependency> <groupId>org.apache.curator</groupId> <artifactId>curator-recipes</artifactId> <version>2.12.0</version> </dependency>Curator客户端的配置项:
/** * @author qcy * @create 2022/01/01 22:59:34 */ @Configuration public class CuratorFrameworkConfig { //zk各节点地址 private static final String CONNECT_STRING = "localhost:2181,localhost:2182,localhost:2183"; //连接超时时间(单位:毫秒) private static final int CONNECTION_TIME_OUT_MS = 10 * 1000; //会话超时时间(单位:毫秒) private static final int SESSION_TIME_OUT_MS = 30 * 1000; //重试的初始等待时间(单位:毫秒) private static final int BASE_SLEEP_TIME_MS = 2 * 1000; //最大重试次数 private static final int MAX_RETRIES = 3; @Bean public CuratorFramework getCuratorFramework() { CuratorFramework curatorFramework = CuratorFrameworkFactory.builder() .connectString(CONNECT_STRING) .connectionTimeoutMs(CONNECTION_TIME_OUT_MS) .sessionTimeoutMs(SESSION_TIME_OUT_MS) .retryPolicy(new ExponentialBackoffRetry(BASE_SLEEP_TIME_MS, MAX_RETRIES)) .build(); curatorFramework.start(); return curatorFramework; } }SESSION_TIME_OUT_MS参数则会保证,在某个客户端获取到锁之后突然宕机,zk能在该时间内删除当前客户端创建的临时有序节点。
测试代码如下:
//临时节点路径,qcy是博主名字缩写哈 private static final String LOCK_PATH = "/lockqcy"; @Resource CuratorFramework curatorFramework; public void testCurator() throws Exception { InterProcessMutex interProcessMutex = new InterProcessMutex(curatorFramework, LOCK_PATH); interProcessMutex.acquire(); try { //模拟业务耗时 Thread.sleep(30 * 1000); } catch (Exception e) { e.printStackTrace(); } finally { interProcessMutex.release(); } }当使用接口调用该方法时,在Thread.sleep处打上断点,进入到zk容器中观察创建出来的节点。
使用 docker exec -it zk容器名 /bin/bash 以交互模式进入容器,接着使用 ./bin/zkCli.sh 连接到zk的server端。
然后使用 ls path 查看节点
这三个节点都是持久节点,可以使用 get path 查看节点的数据结构信息
若一个节点的ephemeralOwner值为0,即该节点的临时拥有者的会话id为0,则代表该节点为持久节点。
当走到断点Thread.sleep时,确实发现在lockqcy下创建出来一个临时节点
到这里吗,准备工作已经做完了,接下来分析interProcessMutex.acquire与release的香港云服务器流程
三、源码分析
Curator支持多种类型的锁,例如
InterProcessMutex,可重入锁排它锁 InterProcessReadWriteLock,读写锁 InterProcessSemaphoreMutex,不可重入排它锁今天主要是分析InterProcessMutex的加解锁过程,先看加锁过程
加锁
public void acquire() throws Exception { if (!internalLock(-1, null)) { throw new IOException("Lost connection while trying to acquire lock: " + basePath); } }这里是阻塞式获取锁,获取不到锁,就一直进行阻塞。所以对于internalLock方法,超时时间设置为-1,时间单位设置成null。
private boolean internalLock(long time, TimeUnit unit) throws Exception { Thread currentThread = Thread.currentThread(); //通过能否在map中取到该线程的LockData信息,来判断该线程是否已经持有锁 LockData lockData = threadData.get(currentThread); if (lockData != null) { //进行可重入,直接返回加锁成功 lockData.lockCount.incrementAndGet(); return true; } //进行加锁 String lockPath = internals.attemptLock(time, unit, getLockNodeBytes()); if (lockPath != null) { //加锁成功,保存到map中 LockData newLockData = new LockData(currentThread, lockPath); threadData.put(currentThread, newLockData); return true; } return false; }其中threadData是一个map,key线程对象,value为该线程绑定的锁数据。
LockData中保存了加锁线程owningThread,重入计数lockCount与加锁路径lockPath,例如
/lockqcy/_c_c46513c3-ace0-405f-aa1e-a531ce28fb47-lock-0000000005 private final ConcurrentMap<Thread, LockData> threadData = Maps.newConcurrentMap(); private static class LockData { final Thread owningThread; final String lockPath; final AtomicInteger lockCount = new AtomicInteger(1); private LockData(Thread owningThread, String lockPath) { this.owningThread = owningThread; this.lockPath = lockPath; } }进入到internals.attemptLock方法中
String attemptLock(long time, TimeUnit unit, byte[] lockNodeBytes) throws Exception { //开始时间 final long startMillis = System.currentTimeMillis(); //将超时时间统一转化为毫秒单位 final Long millisToWait = (unit != null) ? unit.toMillis(time) : null; //节点数据,这里为null final byte[] localLockNodeBytes = (revocable.get() != null) ? new byte[0] : lockNodeBytes; //重试次数 int retryCount = 0; //锁路径 String ourPath = null; //是否获取到锁 boolean hasTheLock = false; //是否完成 boolean isDone = false; while (!isDone) { isDone = true; try { //创建一个临时有序节点,并返回节点路径 //内部调用client.create().creatingParentContainersIfNeeded().withProtection().withMode(CreateMode.EPHEMERAL_SEQUENTIAL).forPath(path); ourPath = driver.createsTheLock(client, path, localLockNodeBytes); //依据返回的节点路径,判断是否抢到了锁 hasTheLock = internalLockLoop(startMillis, millisToWait, ourPath); } catch (KeeperException.NoNodeException e) { //在会话过期时,可能导致driver找不到临时有序节点,从而抛出NoNodeException //这里就进行重试 if (client.getZookeeperClient().getRetryPolicy().allowRetry(retryCount++, System.currentTimeMillis() - startMillis, RetryLoop.getDefaultRetrySleeper())) { isDone = false; } else { throw e; } } } //获取到锁,则返回节点路径,供调用方记录到map中 if (hasTheLock) { return ourPath; } return null; }接下来,将会在internalLockLoop中利用刚才创建出来的临时有序节点,云服务器判断是否获取到了锁。
private boolean internalLockLoop(long startMillis, Long millisToWait, String ourPath) throws Exception { //是否获取到锁 boolean haveTheLock = false; boolean doDelete = false; try { if (revocable.get() != null) { //当前不会进入这里 client.getData().usingWatcher(revocableWatcher).forPath(ourPath); } //一直尝试获取锁 while ((client.getState() == CuratorFrameworkState.STARTED) && !haveTheLock) { //返回basePath(这里是lockqcy)下所有的临时有序节点,并且按照后缀从小到大排列 List<String> children = getSortedChildren(); //取出当前线程创建出来的临时有序节点的名称,这里就是/_c_c46513c3-ace0-405f-aa1e-a531ce28fb47-lock-0000000005 String sequenceNodeName = ourPath.substring(basePath.length() + 1); //判断当前节点是否处于排序后的首位,如果处于首位,则代表获取到了锁 PredicateResults predicateResults = driver.getsTheLock(client, children, sequenceNodeName, maxLeases); if (predicateResults.getsTheLock()) { //获取到锁之后,则终止循环 haveTheLock = true; } else { //这里代表没有获取到锁 //获取比当前节点索引小的前一个节点 String previousSequencePath = basePath + "/" + predicateResults.getPathToWatch(); synchronized (this) { try { //如果前一个节点不存在,则直接抛出NoNodeException,catch中不进行处理,在下一轮中继续获取锁 //如果前一个节点存在,则给它设置一个监听器,监听它的释放事件 client.getData().usingWatcher(watcher).forPath(previousSequencePath); if (millisToWait != null) { millisToWait -= (System.currentTimeMillis() - startMillis); startMillis = System.currentTimeMillis(); //判断是否超时 if (millisToWait <= 0) { //获取锁超时,删除刚才创建的临时有序节点 doDelete = true; break; } //没超时的话,在millisToWait内进行等待 wait(millisToWait); } else { //无限期阻塞等待,监听到前一个节点被删除时,才会触发唤醒操作 wait(); } } catch (KeeperException.NoNodeException e) { //如果前一个节点不存在,则直接抛出NoNodeException,catch中不进行处理,在下一轮中继续获取锁 } } } } } catch (Exception e) { ThreadUtils.checkInterrupted(e); doDelete = true; throw e; } finally { if (doDelete) { //删除刚才创建出来的临时有序节点 deleteOurPath(ourPath); } } return haveTheLock; }判断是否获取到锁的核心逻辑位于getsTheLock中
public PredicateResults getsTheLock(CuratorFramework client, List<String> children, String sequenceNodeName, int maxLeases) throws Exception { //获取当前节点在所有子节点排序后的索引位置 int ourIndex = children.indexOf(sequenceNodeName); //判断当前节点是否处于子节点中 validateOurIndex(sequenceNodeName, ourIndex); //InterProcessMutex的构造方法,会将maxLeases初始化为1 //ourIndex必须为0,才能使得getsTheLock为true,也就是说,当前节点必须是basePath下的最小节点,才能代表获取到了锁 boolean getsTheLock = ourIndex < maxLeases; //如果获取不到锁,则返回上一个节点的名称,用作对其设置监听 String pathToWatch = getsTheLock ? null : children.get(ourIndex - maxLeases); return new PredicateResults(pathToWatch, getsTheLock); } static void validateOurIndex(String sequenceNodeName, int ourIndex) throws KeeperException { if (ourIndex < 0) { //可能会由于连接丢失导致临时节点被删除,因此这里属于保险措施 throw new KeeperException.NoNodeException("Sequential path not found: " + sequenceNodeName); } }那什么时候,在internalLockLoop处于wait的线程能被唤醒呢?
在internalLockLoop方法中,已经使用
client.getData().usingWatcher(watcher).forPath(previousSequencePath);给前一个节点设置了监听器,当该节点被删除时,将会触发watcher中的回调
private final Watcher watcher = new Watcher() { //回调方法 @Override public void process(WatchedEvent event) { notifyFromWatcher(); } }; private synchronized void notifyFromWatcher() { //唤醒所以在LockInternals实例上等待的线程 notifyAll(); }到这里,基本上已经分析完加锁的过程了,在这里总结下:
首先创建一个临时有序节点
如果该节点是basePath下最小节点,则代表获取到了锁,存入map中,下次直接进行重入。
如果该节点不是最小节点,则对前一个节点设置监听,接着进行wait等待。当前一个节点被删除时,将会通知notify该线程。
解锁
解锁的逻辑,就比较简单了,直接进入release方法中
public void release() throws Exception { Thread currentThread = Thread.currentThread(); LockData lockData = threadData.get(currentThread); if (lockData == null) { throw new IllegalMonitorStateException("You do not own the lock: " + basePath); } int newLockCount = lockData.lockCount.decrementAndGet(); //直接减少一次重入次数 if (newLockCount > 0) { return; } if (newLockCount < 0) { throw new IllegalMonitorStateException("Lock count has gone negative for lock: " + basePath); } //到这里代表重入次数为0 try { //释放锁 internals.releaseLock(lockData.lockPath); } finally { //从map中移除 threadData.remove(currentThread); } } void releaseLock(String lockPath) throws Exception { revocable.set(null); //内部使用guaranteed,会在后台不断尝试删除节点 deleteOurPath(lockPath); }重入次数大于0,就减少重入次数。当减为0时,调用zk去删除节点,这一点和Redisson可重入锁释放时一致。
四、羊群效应
在这里谈谈使用Zookeeper实现分布式锁场景中的羊群效应
什么是羊群效应
首先,羊群是一种很散乱的组织,漫无目的,缺少管理,一般需要牧羊犬来帮助主人控制羊群。
某个时候,当其中一只羊发现前面有更加美味的草而动起来,就会导致其余的羊一哄而上,根本不管周围的情况。
所以羊群效应,指的是一个人在进行理性的行为后,导致其余人直接盲从,产生非理性的从众行为。
而Zookeeper中的羊群效应,则是指一个znode被改变后,触发了大量本可以被避免的watch通知,造成集群资源的浪费。
获取不到锁时的等待演化
sleep一段时间
如果某个线程在获取锁失败后,完全可以sleep一段时间,再尝试获取锁。
但这样的方式,效率极低。
sleep时间短的话,会频繁地进行轮询,浪费资源。
sleep时间长的话,会出现锁被释放但仍然获取不到锁的尴尬情况。
所以,这里的优化点,在于如何变主动轮询为异步通知。
watch被锁住的节点
所有的客户端要获取锁时,只去创建一个同名的node。
当znode存在时,这些客户端对其设置监听。当znode被删除后,通知所有等待锁的客户端,接着这些客户端再次尝试获取锁。
虽然这里使用watch机制来异步通知,可是当客户端的数量特别多时,会存在性能低点。
当znode被删除后,在这一瞬间,需要给大量的客户端发送通知。在此期间,其余提交给zk的正常请求可能会被延迟或者阻塞。
这就产生了羊群效应,一个点的变化(znode被删除),造成了全面的影响(通知大量的客户端)。
所以,这里的优化点,在于如何减少对一个znode的监听数量,最好的情况是只有一个。
watch前一个有序节点
如果先指定一个basePath,想要获取锁的客户端,直接在该路径下创建临时有序节点。
当创建的节点是最小节点时,代表获取到了锁。如果不是最小的节点,则只对前一个节点设置监听器,只监听前一个节点的删除行为。
这样前一个节点被删除时,只会给下一个节点代表的客户端发送通知,不会给所有客户端发送通知,从而避免了羊群效应。
在避免羊群效应的同时,使得当前锁成为公平锁。即按照申请锁的先后顺序获得锁,避免存在饥饿过度的线程。
五、后语
本文从源码角度讲解了使用Curator获取分布式锁的流程,接着从等待锁的演化过程角度出发,分析了Zookeeper在分布式锁场景下避免羊群效应的解决方案。
这是Zookeeper系列的第二篇,关于其watch原理分析、zab协议等文章也在安排的路上了。