在单线程中不会出现线程安全问题,而在多线程编程中,有可能会出现同时访问同一个 共享、可变资源 的情况,这种资源可以是: 一个变量、一个对象、一个文件等 。特别注意两点:
简单的说, 如果你的代码在单线程下执行和在多线程下执行永远都能获得一样的结果,那么你的代码就是线程安全的 。那么,当进行多线程编程时,我们又会面临哪些线程安全的要求呢?又是要如何去解决的呢?
跟数据库事务的原子性概念差不多, 即一个操作(有可能包含有多个子操作)要么全部执行(生效),要么全部都不执行(都不生效) 。
关于原子性,一个非常经典的例子就是银行转账问题:
比如:A和B同时向C转账10万元。如果转账操作不具有原子性,A在向C转账时,读取了C的余额为20万,然后加上转账的10万,计算出此时应该有30万,但还未来及将30万写回C的账户,此时B的转账请求过来了,B发现C的余额为20万,然后将其加10万并写回。然后A的转账操作继续——将30万写回C的余额。这种情况下C的最终余额为30万,而非预期的40万。
可见性是指, 当多个线程并发访问共享变量时,一个线程对共享变量的修改,其它线程能够立即看到 。可见性问题是好多人忽略或者理解错误的一点。
CPU从主内存中读数据的效率相对来说不高,现在主流的计算机中,都有几级缓存。 每个线程读取共享变量时,都会将该变量加载进其对应CPU的高速缓存里,修改该变量后,CPU会立即更新该缓存,但并不一定会立即将其写回主内存(实际上写回主内存的时间不可预期) 。此时其它线程(尤其是不在同一个CPU上执行的线程)访问该变量时,从主内存中读到的就是旧的数据,而非第一个线程更新后的数据。
这一点是操作系统或者说是硬件层面的机制 ,所以很多应用开发人员经常会忽略。
有序性指的是, 程序执行的顺序按照代码的先后顺序执行 。以下面这段代码为例:
boolean started = false; // 语句1 long counter = 0L; // 语句2 counter = 1; // 语句3 started = true; // 语句4 复制代码复制代码
从代码顺序上看,上面四条语句应该依次执行,但实际上JVM真正在执行这段代码时,并不保证它们一定完全按照此顺序执行。
处理器为了提高程序整体的执行效率,可能会对代码进行优化,其中的一项优化方式就是调整代码顺序,按照更高效的顺序执行代码 。
讲到这里,有人要着急了——什么,CPU不按照我的代码顺序执行代码,那怎么保证得到我们想要的效果呢?实际上,大家大可放心, CPU虽然并不保证完全按照代码顺序执行,但它会保证程序最终的执行结果和代码顺序执行时的结果一致 。
线程之间共享堆空间,在编程的时候就要格外注意避免竞态条件。危险在于多个线程同时访问相同的资源并进行读写操作。 当其中一个线程需要根据某个变量的状态来相应执行某个操作的之前,该变量很可能已经被其它线程修改 。
也就是说,当两个线程竞争同一资源时,如果对资源的访问顺序敏感,就称存在 竞态条件 。导致竟态条件发生的代码称作 临界区 。
/** * 以下这段代码就存在竞态条件,其中return ++count就是临界区。 */ public class Obj { private int count; public int incr() { return ++count; } } 复制代码复制代码
死锁: 指两个或两个以上的进程(或线程)在执行过程中,因争夺资源而造成的一种互相等待的现象,若无外力作用,它们都将无法推进下去 。此时称系统处于死锁状态或系统产生了死锁,这些永远在互相等待的进程称为死锁进程。
关于死锁发生的条件:
{p0,p1,p2,...pn}
,进程p0(或线程)等待p1占用的资源,p1等待p2占用的资源,pn等待p0占用的资源。 (最直观的理解是,p0等待p1占用的资源,而p1而在等待p0占用的资源,于是两个进程就相互等待)
。 活锁:是指线程1可以使用资源,但它很礼貌,让其他线程先使用资源,线程2也可以使用资源,但它很绅士,也让其他线程先使用资源。 这样你让我,我让你,最后两个线程都无法使用资源 。
关于“死锁与活锁”的比喻 :
死锁 :迎面开来的汽车A和汽车B过马路,汽车A得到了半条路的资源(满足死锁发生条件1:资源访问是排他性的,我占了路你就不能上来,除非你爬我头上去),汽车B占了汽车A的另外半条路的资源,A想过去必须请求另一半被B占用的道路(死锁发生条件2:必须整条车身的空间才能开过去,我已经占了一半,尼玛另一半的路被B占用了),B若想过去也必须等待A让路,A是辆兰博基尼,B是开奇瑞QQ的屌丝,A素质比较低开窗对B狂骂:快给老子让开,B很生气,你妈逼的,老子就不让(死锁发生条件3:在未使用完资源前,不能被其他线程剥夺),于是两者相互僵持一个都走不了(死锁发生条件4:环路等待条件),而且导致整条道上的后续车辆也走不了。
活锁 :马路中间有条小桥,只能容纳一辆车经过,桥两头开来两辆车A和B,A比较礼貌,示意B先过,B也比较礼貌,示意A先过,结果两人一直谦让谁也过不去。
饥饿:是指如果线程T1占用了资源R,线程T2又请求封锁R,于是T2等待。T3也请求资源R,当T1释放了R上的封锁后,系统首先批准了T3的请求,T2仍然等待。然后T4又请求封锁R,当T3释放了R上的封锁之后,系统又批准了T4的请求......, T2可能永远等待 。
也就是,如果一个线程因为CPU时间全部被其他线程抢走而得不到CPU运行时间, 这种状态被称之为“饥饿”。而该线程被“饥饿致死”正是因为它得不到CPU运行时间的机会 。
关于“饥饿”的比喻 :
在“首堵”北京的某一天,天气阴沉,空气中充斥着雾霾和地沟油的味道,某个苦逼的临时工交警正在处理塞车,有两条道A和B上都堵满了车辆,其中A道堵的时间最长,B相对堵的时间较短,这时,前面道路已疏通,交警按照最佳分配原则,示意B道上车辆先过,B道路上过了一辆又一辆,A道上排队时间最长的却没法通过,只能等B道上没有车辆通过的时候再等交警发指令让A道依次通过, 这也就是ReentrantLock显示锁里提供的不公平锁机制 (当然了,ReentrantLock也提供了公平锁的机制,由用户根据具体的使用场景而决定到底使用哪种锁策略), 不公平锁能够提高吞吐量但不可避免的会造成某些线程的饥饿 。
在Java中,下面三个常见的原因会导致线程饥饿,如下:
高优先级线程吞噬所有的低优先级线程的CPU时间
你能为每个线程设置独自的线程优先级,优先级越高的线程获得的CPU时间越多,线程优先级值设置在1到10之间,而这些优先级值所表示行为的准确解释则依赖于你的应用运行平台。 对大多数应用来说,你最好是不要改变其优先级值 。
线程被永久堵塞在一个等待进入同步块的状态,因为其他线程总是能在它之前持续地对该同步块进行访问
Java的同步代码区也是一个导致饥饿的因素 。Java的同步代码区对哪个线程允许进入的次序没有任何保障。 这就意味着理论上存在一个试图进入该同步区的线程处于被永久堵塞的风险 ,因为其他线程总是能持续地先于它获得访问,这即是“饥饿”问题, 而一个线程被“饥饿致死”正是因为它得不到CPU运行时间的机会 。
线程在等待一个本身(在其上调用wait())也处于永久等待完成的对象,因为其他线程总是被持续地获得唤醒
如果多个线程处在wait()方法执行上, 而对其调用notify()不会保证哪一个线程会获得唤醒,任何线程都有可能处于继续等待的状态 。因此存在这样一个风险: 一个等待线程从来得不到唤醒,因为其他等待线程总是能被获得唤醒 。
解决饥饿的方案被称之为“公平性” – 即所有线程均能公平地获得运行机会 。在Java中实现公平性方案,需要:
在Java中实现公平性,虽Java不可能实现100%的公平性, 依然可以通过同步结构在线程间实现公平性的提高 。
首先来学习一段简单的同步态代码:
public class Synchronizer{ public synchronized void doSynchronized () { // do a lot of work which takes a long time } } 复制代码复制代码
如果有多个线程调用doSynchronized()方法,在第一个获得访问的线程未完成前,其他线程将一直处于阻塞状态,而且在这种多线程被阻塞的场景下, 接下来将是哪个线程获得访问是没有保障的 。
改为 使用锁方式替代同步块 ,为了提高等待线程的公平性,我们使用锁方式来替代同步块:
public class Synchronizer{ Lock lock = new Lock(); public void doSynchronized() throws InterruptedException{ this.lock.lock(); //critical section, do a lot of work which takes a long time this.lock.unlock(); } } 复制代码复制代码
注意到doSynchronized()不再声明为synchronized, 而是用lock.lock()和lock.unlock()来替代 。下面是用Lock类做的一个实现:
public class Lock{ private boolean isLocked = false; private Thread lockingThread = null; public synchronized void lock() throws InterruptedException{ while(isLocked){ wait(); } isLocked = true; lockingThread = Thread.currentThread(); } public synchronized void unlock(){ if(this.lockingThread != Thread.currentThread()){ throw new IllegalMonitorStateException("Calling thread has not locked this lock"); } isLocked = false; lockingThread = null; notify(); } } 复制代码复制代码
注意到上面对Lock的实现, 如果存在多线程并发访问lock(),这些线程将阻塞在对lock()方法的访问上 。另外,如果锁已经锁上(校对注:这里指的是isLocked等于true时), 这些线程将阻塞在while(isLocked)循环的wait()调用里面 。要记住的是, 当线程正在等待进入lock() 时,可以调用wait()释放其锁实例对应的同步锁,使得其他多个线程可以进入lock()方法,并调用wait()方法 。
这回看下doSynchronized(),你会注意到在lock()和unlock()之间的注释:在这两个调用之间的代码将运行很长一段时间。进一步设想,这段代码将长时间运行,和进入lock()并调用wait()来比较的话。 这意味着大部分时间用在等待进入锁和进入临界区的过程是用在wait()的等待中,而不是被阻塞在试图进入lock()方法中 。
在早些时候提到过,同步块不会对等待进入的多个线程谁能获得访问做任何保障, 同样当调用notify()时,wait()也不会做保障一定能唤醒线程 。因此这个版本的Lock类和doSynchronized()那个版本就保障公平性而言,没有任何区别。
但我们能够改变这种情况,如下:
当前的Lock类版本调用自己的wait()方法,如果每个线程在不同的对象上调用wait(),那么只有一个线程会在该对象上调用wait(),Lock类可以决定哪个对象能对其调用notify(),因此能做到有效的选择唤醒哪个线程 。
下面将上面Lock类转变为公平锁FairLock 。你会注意到新的实现和之前的Lock类中的同步和wait()/notify()稍有不同。重点是, 每一个调用lock()的线程都会进入一个队列,当解锁时,只有队列里的第一个线程被允许锁住FairLock实例,所有其它的线程都将处于等待状态,直到他们处于队列头部 。如下:
public class FairLock { private boolean isLocked = false; private Thread lockingThread = null; private List<QueueObject> waitingThreads = new ArrayList<QueueObject>(); public void lock() throws InterruptedException{ // 当前线程创建“令牌” QueueObject queueObject = new QueueObject(); boolean isLockedForThisThread = true; synchronized(this){ // 所有线程的queueObject令牌,入队 waitingThreads.add(queueObject); } while(isLockedForThisThread){ synchronized(this){ // 1. 判断是否已被锁住:是否已有线程获得锁,正在执行同步代码块 // 2. 判断头部令牌与当前线程令牌是否一致:也就是只锁住头部令牌对应的线程; isLockedForThisThread = isLocked || waitingThreads.get(0) != queueObject; if(!isLockedForThisThread){ isLocked = true; // 移除头部令牌 waitingThreads.remove(queueObject); lockingThread = Thread.currentThread(); return; } } try{ // 其他线程执行doWait(),进行等待 queueObject.doWait(); }catch(InterruptedException e){ synchronized(this) { waitingThreads.remove(queueObject); } throw e; } } } public synchronized void unlock(){ if(this.lockingThread != Thread.currentThread()){ throw new IllegalMonitorStateException("Calling thread has not locked this lock"); } isLocked = false; lockingThread = null; if(waitingThreads.size() > 0) { // 唤醒头部令牌对应的线程,可以执行 waitingThreads.get(0).doNotify(); } } } public class QueueObject { private boolean isNotified = false; public synchronized void doWait() throws InterruptedException { while(!isNotified){ this.wait(); } this.isNotified = false; } public synchronized void doNotify() { this.isNotified = true; this.notify(); } public boolean equals(Object o) { return this == o; } } 复制代码复制代码
首先注意到lock()方法不在声明为synchronized, 取而代之的是对必需同步的代码,在synchronized中进行嵌套 。
FairLock新创建了一个QueueObject的实例,并对每个调用lock()的线程进行入队操作。调用unlock()的线程将从队列头部获取QueueObject,并对其调用doNotify(),以唤醒在该对象上等待的线程。 通过这种方式,在同一时间仅有一个等待线程获得唤醒,而不是所有的等待线程 。这也是实现FairLock公平性的核心所在。
还需注意到,QueueObject实际是一个semaphore。doWait()和doNotify()方法在QueueObject中保存着信号。 这样做以避免一个线程在调用queueObject.doWait()之前被另一个线程调用unlock()并随之调用queueObject.doNotify()的线程重入,从而导致信号丢失 。queueObject.doWait()调用放置在synchronized(this)块之外,以避免被monitor嵌套锁死,所以另外的线程可以解锁,只要当没有线程在lock方法的synchronized(this)块中执行即可。
最后,注意到queueObject.doWait()在try – catch块中是怎样调用的。 在InterruptedException抛出的情况下,线程得以离开lock(),并需让它从队列中移除 。
常用的保证Java操作原子性的工具是 锁和同步方法(或者同步代码块) 。使用锁,可以保证同一时间只有一个线程能拿到锁,也就保证了同一时间只有一个线程能执行申请锁和释放锁之间的代码。
public void testLock () { lock.lock(); try{ int j = i; i = j + 1; } finally { lock.unlock(); } } 复制代码复制代码
与锁类似的是同步方法或者同步代码块。 使用非静态同步方法时,锁住的是当前实例;使用静态同步方法时,锁住的是该类的Class对象;使用静态代码块时,锁住的是synchronized关键字后面括号内的对象 。下面是同步代码块示例:
public void testLock () { synchronized (anyObject){ int j = i; i = j + 1; } } 复制代码复制代码
无论使用锁还是synchronized,本质都是一样, 通过锁或同步来实现资源的排它性,从而实际目标代码段同一时间只会被一个线程执行 ,进而保证了目标代码段的原子性。 这是一种以牺牲性能为代价的方法 。
基础类型变量自增(i++)是一种常被新手误以为是原子操作而实际不是的操作 。Java中提供了对应的原子操作类来实现该操作,并保证原子性, 其本质是利用了CPU级别的CAS指令 。由于是CPU级别的指令,其开销比需要操作系统参与的锁的开销小。AtomicInteger使用方法如下:
AtomicInteger atomicInteger = new AtomicInteger(); for(int b = 0; b < numThreads; b++) { new Thread(() -> { for(int a = 0; a < iteration; a++) { atomicInteger.incrementAndGet(); } }).start(); } 复制代码复制代码
Java提供了volatile关键字来保证可见性。 当使用volatile修饰某个变量时,它会保证对该变量的修改会立即被更新到内存中,并且将其它线程缓存中对该变量的缓存设置成无效 ,因此其它线程需要读取该值时必须从主内存中读取,从而得到最新的值。
volatile适用场景:volatile适用于不需要保证原子性,但却需要保证可见性的场景 。一种典型的使用场景是用它修饰用于停止线程的状态标记。如下所示:
boolean isRunning = false; public void start () { new Thread( () -> { while(isRunning) { someOperation(); } }).start(); } public void stop () { isRunning = false; } 复制代码复制代码
在这种实现方式下,即使其它线程通过调用stop()方法将isRunning设置为false,循环也不一定会立即结束。 可以通过volatile关键字,保证while循环及时得到isRunning最新的状态从而及时停止循环,结束线程 。
上文讲过编译器和处理器对指令进行重新排序时,会保证重新排序后的执行结果和代码顺序执行的结果一致, 所以重新排序过程并不会影响单线程程序的执行,却可能影响多线程程序并发执行的正确性 。
Java中可通过volatile在一定程序上保证顺序性,另外还可以通过synchronized和锁来保证顺序性。 synchronized和锁保证顺序性的原理和保证原子性一样,都是通过保证同一时间只会有一个线程执行目标代码段来实现的。
除了从应用层面保证目标代码段执行的顺序性外, JVM还通过被称为happens-before原则隐式地保证顺序性 。两个操作的执行顺序只要可以通过happens-before推导出来,则JVM会保证其顺序性,反之JVM对其顺序性不作任何保证,可对其进行任意必要的重新排序以获取高效率。
happens-before原则(先行发生原则),如下:
平时项目中使用锁和synchronized比较多,而很少使用volatile,难道就没有保证可见性?
锁和synchronized即可以保证原子性,也可以保证可见性 。都是通过保证同一时间只有一个线程执行目标代码段来实现的。
锁和synchronized为何能保证可见性?
根据 JDK 7的Java doc
中对 concurrent
包的说明, 一个线程的写结果保证对另外线程的读操作可见
,只要该写操作可以由 happen-before
原则推断出在读操作之前发生。
既然锁和synchronized即可保证原子性也可保证可见性,为何还需要volatile?
synchronized和锁需要通过操作系统来仲裁谁获得锁,开销比较高,而volatile开销小很多 。因此在只需要保证可见性的条件下,使用volatile的性能要比使用锁和synchronized高得多。
既然锁和synchronized可以保证原子性,为什么还需要AtomicInteger这种的类来保证原子操作?
锁和synchronized需要通过操作系统来仲裁谁获得锁,开销比较高, 而AtomicInteger是通过CPU级的CAS操作来保证原子性,开销比较小 。所以使用AtomicInteger的目的还是为了提高性能。
还有没有别的办法保证线程安全?
有。 尽可能避免引起非线程安全的条件——共享变量 。如果能从设计上避免共享变量的使用,即可避免非线程安全的发生, 也就无须通过锁或者synchronized以及volatile解决原子性、可见性和顺序性的问题 。
synchronized即可修饰非静态方式,也可修饰静态方法,还可修饰代码块,有何区别?
synchronized修饰非静态同步方法时, 锁住的是当前实例 ;synchronized修饰静态同步方法时, 锁住的是该类的Class对象 ;synchronized修饰静态代码块时, 锁住的是synchronized关键字后面括号内的对象 。