LruCache 用来实现基于内存的缓存,LRU 就是 最近最少使用 的意思,LruCache 基于 LinkedHashMap 实现。LinkedHashMap 是在 HashMap 的基础之上进行了封装,除了具有哈希功能,还将数据插入到双向链表中维护。每次读取的数据会被移动到链表的尾部,当达到了缓存的最大的容量的时候就将链表的首部移出。使用 LruCache 的时候需要注意的是单位的问题,因为该 API 并不清楚要存储的数据是如何计算大小的,所以它提供了方法供我们实现大小的计算方式。( 《Android 内存缓存框架 LruCache 的源码分析》 )
DiskLruCache 与 LruCache 类似,也是用来实现缓存的,并且也是基于 LinkedHashMap 实现的。不同的是,它是基于磁盘缓存的,LruCache 是基于内存缓存的。所以,LinkedHashMap 能够存储的空间更大,但是读写的速率也更慢。使用 DiskLruCache 的时候需要到 Github 上面去下载。OkHttp 和 Glide 的磁盘缓存都是基于 DiskLruCache 开发的。DiskLruCahce 内部维护了一个日志文件,记录了读写的记录的信息。其他的基本都是基础的磁盘 IO 操作。
如果想线程安全地使用这列表类(可以参考下面的问题)
我们有几种方式可以线程间安全地操作 List. 具体使用哪种方式,可以根据具体的业务逻辑进行选择。通常有以下几种方式:
sychronized
进行控制。我们可以在我们自己的业务方法上面进行加锁来保证线程安全。 Collections.synchronizedList()
进行包装。这个方法内部使用了 私有锁 来实现线程安全,就是通过对一个全局变量进行加锁。调用我们的 List 的方法之前需要先获取该私有锁。私有锁可以降低锁粒度。 CopyOnWriteArrayList
代替 ArrayList,使用 ConcurrentLinkedQueue
代替 LinkedList. 并发容器中的 CopyOnWriteArrayList
在读的时候不加锁,写的时候使用 Lock 加锁。 ConcurrentLinkedQueue
则是基于 CAS 的思想,在增删数据之前会先进行比较。 SparseArray 主要用来替换 Java 中的 HashMap,因为 HashMap 将整数类型的键默认装箱成 Integer (效率比较低). 而 SparseArray 通过内部维护两个数组来进行映射 ,并且使用 二分查找 寻找指定的键,所以 它的键对应的数组无需是包装类型 。SparseArray 用于当 HashMap 的键是 Integer 的情况,它会在内部维护一个 int 类型的数组来存储键。同理,还有 LongSparseArray, BooleanSparseArray 等,都是用来通过减少装箱操作来节省内存空间的。但是,因为它内部使用二分查找寻找键,所以其效率不如 HashMap 高,所以当要存储的键值对的数量比较大的时候,考虑使用 HashMap.
HashMap (下称 HM) 是哈希表,ConcurrentHashMap (下称 CHM) 也是哈希表,它们之间的区别是 HM 不是线程安全的,CHM 线程安全,并且对锁进行了优化。对应 HM 的还有 HashTable (下称 HT),它通过对内部的每个方法加锁来实现线程安全,效率较低。
HashMap 的实现原理:HashMap 使用拉链法来解决哈希冲突,即当两个元素的哈希值相等的时候,它们会被方进一个桶当中。当一个桶中的数据量比较多的时候,此时 HashMap 会采取两个措施,要么扩容,要么将桶中元素的数据结构从链表转换成红黑树。因此存在几个常量会决定 HashMap 的表现。在默认的情况下,当 HashMap 中的已经被占用的桶的数量达到了 3/4 的时候,会对 HashMap 进行扩容。当一个桶中的元素的数量达到了 8 个的时候,如果桶的数量达到了 64 个,那么会将该桶中的元素的数据结构从链表转换成红黑树。如果桶的数量还没有达到 64 个,那么此时会对 HashMap 进行扩容,而不是转换数据结构。
从数据结构上,HashMap 中的桶中的元素的数据结构从链表转换成红黑树的时候,仍然可以保留其链表关系。因为 HashMap 中的 TreeNode 继承了 LinkedHashMap 中的 Entry,因此它存在两种数据结构。
HashMap 在实现的时候对性能进行了很多的优化,比如使用截取后面几位而不是取余的方式计算元素在数组中的索引。使用哈希值的高 16 位与低 16 进行异或运算来提升哈希值的随机性。
因为每个桶的元素的数据结构有两种可能,因此,当对 HashMap 进行增删该查的时候都会根据结点的类型分成两种情况来进行处理。当数据结构是链表的时候处理起来都非常容易,使用一个循环对链表进行遍历即可。当数据结构是红黑树的时候处理起来比较复杂。红黑树的查找可以沿用二叉树的查找的逻辑。
下面是 HashMap 的插入的逻辑,所有的插入操作最终都会调用到内部的 putVal()
方法来最终完成。
public V put(K key, V value) { return putVal(hash(key), key, value, false, true); } private V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) { Node<K,V>[] tab; Node<K,V> p; int n, i; if ((tab = table) == null || (n = tab.length) == 0) { // 原来的数组不存在 n = (tab = resize()).length; } i = (n - 1) & hash; // 取哈希码的后 n-1 位,以得到桶的索引 p = tab[i]; // 找到桶 if (p == null) { // 如果指定的桶不存在就创建一个新的,直接new 出一个 Node 来完成 tab[i] = newNode(hash, key, value, null); } else { // 指定的桶已经存在 Node<K,V> e; K k; if (p.hash == hash // 哈希码相同 && ((k = p.key) == key || (key != null && key.equals(k))) // 键的值相同 ) { // 第一个结点与我们要插入的键值对的键相等 e = p; } else if (p instanceof TreeNode) { // 桶的数据结构是红黑树,调用红黑树的方法继续插入 e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value); } else { // 桶的数据结构是链表,使用链表的处理方式继续插入 for (int binCount = 0; ; ++binCount) { if ((e = p.next) == null) { // 已经遍历到了链表的结尾,还没有找到,需要新建一个结点 p.next = newNode(hash, key, value, null); // 插入新结点之后,如果某个链表的长度 >= 8,则要把链表转成红黑树 if (binCount >= TREEIFY_THRESHOLD - 1) { treeifyBin(tab, hash); } break; } if (e.hash == hash // 哈希码相同 && ((k = e.key) == key || (key != null && key.equals(k))) // 键的值相同 ) { // 说明要插入的键值对的键是存在的,需要更新之前的结点的数据 break; } p = e; } } if (e != null) { // 说明指定的键是存在的,需要更新结点的值 V oldValue = e.value; if (!onlyIfAbsent || oldValue == null) { e.value = value; } return oldValue; } } ++modCount; // 如果插入了新的结点之后,哈希表的容量大于 threshold 就进行扩容 if (++size > threshold) { resize(); // 扩容 } return null; } 复制代码
上面是 HashMap 的插入的逻辑,可以看出,它也是根据头结点的类型,分成红黑树和链表两种方式来进行处理的。对于链表,上面已经给出了具体的插入逻辑。在链表的情形中,除了基础的插入,当链表的长度达到了 8 的时候还要将桶的数据结构从链表转型成为红黑树。对于红黑树类型的数据结构,它调用 TreeNode 的 putTreeVal()
方法来完成往红黑树中插入结点的逻辑。(代码贴出来,慢慢领会吧:))
final TreeNode<K,V> putTreeVal(HashMap<K,V> map, Node<K,V>[] tab, int h, K k, V v) { Class<?> kc = null; boolean searched = false; // 查找根节点, 索引位置的头节点并不一定为红黑树的根结点 TreeNode<K,V> root = (parent != null) ? root() : this; for (TreeNode<K,V> p = root;;) { // 将根节点赋值给 p, 开始遍历 int dir, ph; K pk; if ((ph = p.hash) > h) // 如果传入的 hash 值小于 p 节点的 hash 值,则将 dir 赋值为 -1, 代表向 p 的左边查找树 dir = -1; else if (ph < h) // 如果传入的 hash 值大于 p 节点的 hash 值,则将 dir 赋值为 1, 代表向 p 的右边查找树 dir = 1; // 如果传入的 hash 值和 key 值等于 p 节点的 hash 值和 key 值, 则 p 节点即为目标节点, 返回 p 节点 else if ((pk = p.key) == k || (k != null && k.equals(pk))) return p; // 如果 k 所属的类没有实现 Comparable 接口 或者 k 和 p 节点的 key 相等 else if ((kc == null && (kc = comparableClassFor(k)) == null) || (dir = compareComparables(kc, k, pk)) == 0) { if (!searched) { // 第一次符合条件, 该方法只有第一次才执行 TreeNode<K,V> q, ch; searched = true; // 从 p 节点的左节点和右节点分别调用 find 方法进行查找, 如果查找到目标节点则返回 if (((ch = p.left) != null && (q = ch.find(h, k, kc)) != null) || ((ch = p.right) != null && (q = ch.find(h, k, kc)) != null)) return q; } // 使用定义的一套规则来比较 k 和 p 节点的 key 的大小, 用来决定向左还是向右查找 dir = tieBreakOrder(k, pk); // dir<0 则代表 k<pk,则向 p 左边查找;反之亦然 } TreeNode<K,V> xp = p; // xp 赋值为 x 的父节点,中间变量,用于下面给x的父节点赋值 // dir<=0 则向 p 左边查找,否则向 p 右边查找,如果为 null,则代表该位置即为 x 的目标位置 if ((p = (dir <= 0) ? p.left : p.right) == null) { // 走进来代表已经找到 x 的位置,只需将 x 放到该位置即可 Node<K,V> xpn = xp.next; // xp 的 next 节点 // 创建新的节点, 其中 x 的 next 节点为 xpn, 即将 x 节点插入 xp 与 xpn 之间 TreeNode<K,V> x = map.newTreeNode(h, k, v, xpn); if (dir <= 0) // 如果时 dir <= 0, 则代表 x 节点为 xp 的左节点 xp.left = x; else // 如果时 dir> 0, 则代表 x 节点为 xp 的右节点 xp.right = x; xp.next = x; // 将 xp 的n ext 节点设置为 x x.parent = x.prev = xp; // 将 x 的 parent 和 prev 节点设置为xp // 如果 xpn 不为空,则将 xpn 的 prev 节点设置为 x 节点,与上文的 x 节点的 next 节点对应 if (xpn != null) ((TreeNode<K,V>)xpn).prev = x; moveRootToFront(tab, balanceInsertion(root, x)); // 进行红黑树的插入平衡调整 return null; } } } 复制代码
HashSet 内部通过 HashMap 实现,HashMap 解决哈希冲突使用的是拉链法,碰撞的元素会放进链表中,链表长度超过 8,并且已经使用的桶的数量大于 64 的时候,会将桶的数据结构从链表转换成红黑树。HashMap 在求得每个结点在数组中的索引的时候,会使用对象的哈希码的高八位和低八位求异或,来增加哈希码的随机性。
HashSet 内部使用 HashMap 实现,当我们通过 put()
方法将一个键值对添加到哈希表当中的时候,会根据哈希值和键是否相等两个条件进行判断,只有当两者完全相等的时候才认为元素发生了重复。
HashSet 不允许列表中存在重复的元素,HashSet 内部使用的是 HashMap 实现的。在我们向 HashSet 中添加一个元素的时候,会将该元素作为键,一个默认的对象作为值,构成一个键值对插入到内部的 HashMap 中。(HashMap 的实现见上文。)
TreeMap 是基于红黑树实现的(后续完善)
Java 注解在 Android 中比较常见的使用方式有 3 种:
bind()
的时候直接反射调用生成的方法。Room 也是在编译期间为使用注解的方法生成数据库方法的。在开发这种第三方库的时候还可能使用到 Javapoet 来帮助我们生成 Java 文件。 @IntDef({/*各种枚举值*/})
来指定整型的取值范围。然后使用注解修饰我们要方法的参数即可。这样 IDE 会给出一个提示信息,提示我们只能使用指定范围的值。( 《Java 注解及其在 Android 中的应用》 ) 关联:ButterKnife, ARouter
这两个方法 都具有决定一个对象身份功能,所以两者的行为必须一致,覆写这两个方法需要遵循一定的原则 。可以从业务的角度考虑使用对象的唯一特征,比如 ID 等,或者使用它的全部字段来进行计算得到一个整数的哈希值。一般,我不会直接覆写该方法,除非业务特征非常明显。因为一旦修改之后,它的作用范围将是全局的。我们还可以通过 IDEA 的 generate 直接生成该方法。
wait() & notify()
, 用来对线程进行控制,以让当前线程等待,直到其他线程调用了 notify()/notifyAll()
方法。 wait()
发生等待的前提是当前线程获取了对象的锁(监视器)。调用该方法之后当前线程会释放获取到的锁,然后让出 CPU,进入等待状态。 notify/notifyAll()
的执行只是唤醒沉睡的线程,而不会立即释放锁,锁的释放要看代码块的具体执行情况。 clone()
与对象克隆相关的方法(深拷贝&浅拷贝?) finilize()
toString()
equal() & hashCode()
,见上 前者是线程安全的,每个方法上面都使用 synchronized 关键字进行了加锁,后者是非线程安全的。一般情况下使用 StringBuilder 即可,因为非多线程环境进行加锁是一种没有必要的开销。
intern()
UTF-8 编码把一个 Unicode 字符根据不同的数字大小编码成 1-6 个字节,常用的英文字母被编码成 1 个字节,汉字通常是 3 个字节,只有很生僻的字符才会被编码成 4-6 个字节。
参考文章,了解字符串编码的渊源: 字符编码 ASCII UNICODE UTF-8
如何开启线程,线程池参数;注意的问题:线程数量,内存泄漏
// 方式 1:Thread 覆写 run() 方法; private class MyThread extends Thread { @Override public void run() { // 业务逻辑 } } // 方式 2:Thread + Runnable new Thread(new Runnable() { public void run() { // 业务逻辑 } }).start(); // 方式 3:ExectorService + Callable ExecutorService executor = Executors.newFixedThreadPool(5); List<Future<Integer>> results = new ArrayList<Future<Integer>>(); for (int i=0; i<5; i++) { results.add(executor.submit(new CallableTask(i, i))); } 复制代码
Android 中并没有明确规定可以创建的线程的数量,但是每个进程的资源是有限的,线程本身会占有一定的资源,所以受内存大小的限制,会有数量的上限。通常,我们在使用线程或者线程池的时候,不会创建太多的线程。线程池的大小经验值应该这样设置:(其中 N 为 CPU 的核数)
N + 1 2N + 1
下面是 Android 中的 AysncTask 中创建线程池的代码(创建线程池的核心参数的说明已经家在了注释中),
// CPU 的数量 private static final int CPU_COUNT = Runtime.getRuntime().availableProcessors(); // 核心线程的数量:只有提交任务的时候才会创建线程,当当前线程数量小于核心线程数量,新添加任务的时候,会创建新线程来执行任务 private static final int CORE_POOL_SIZE = Math.max(2, Math.min(CPU_COUNT - 1, 4)); // 线程池允许创建的最大线程数量:当任务队列满了,并且当前线程数量小于最大线程数量,则会创建新线程来执行任务 private static final int MAXIMUM_POOL_SIZE = CPU_COUNT * 2 + 1; // 非核心线程的闲置的超市时间:超过这个时间,线程将被回收,如果任务多且执行时间短,应设置一个较大的值 private static final int KEEP_ALIVE_SECONDS = 30; // 线程工厂:自定义创建线程的策略,比如定义一个名字 private static final ThreadFactory sThreadFactory = new ThreadFactory() { private final AtomicInteger mCount = new AtomicInteger(1); public Thread newThread(Runnable r) { return new Thread(r, "AsyncTask #" + mCount.getAndIncrement()); } }; // 任务队列:如果当前线程的数量大于核心线程数量,就将任务添加到这个队列中 private static final BlockingQueue<Runnable> sPoolWorkQueue = new LinkedBlockingQueue<Runnable>(128); public static final Executor THREAD_POOL_EXECUTOR; static { ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor( /*corePoolSize=*/ CORE_POOL_SIZE, /*maximumPoolSize=*/ MAXIMUM_POOL_SIZE, /*keepAliveTime=*/ KEEP_ALIVE_SECONDS, TimeUnit.SECONDS, /*workQueue=*/ sPoolWorkQueue, /*threadFactory=*/ sThreadFactory /*handler*/ defaultHandler); // 饱和策略:AysncTask 没有这个参数 threadPoolExecutor.allowCoreThreadTimeOut(true); THREAD_POOL_EXECUTOR = threadPoolExecutor; } 复制代码
饱和策略:任务队列和线程池都满了的时候执行的逻辑,Java 提供了 4 种实现;
其他:
prestartAllcoreThread() allowCoreThreadTimeOut()
run()
和 start()
方法区别 : start()
会调用 native 的 start()
方法,然后 run()
方法会被回调,此时 run()
异步执行;如果直接调用 run()
,它会使用默认的实现(除非覆写了),并且会在当前线程中执行,此时 Thread 如同一个普通的类。
private Runnable target; public void run() { if (target != null) target.run(); } 复制代码
线程关闭,有两种方式可以选择,一种是使用中断标志位进行判断。当需要停止线程的时候,调用线程的 interupt()
方法即可。这种情况下需要注意的地方是,当线程处于阻塞状态的时候调用了中断方法,此时会抛出一个异常,并将中断标志位复位。此时,我们是无法退出线程的。所以,我们需要同时考虑一般情况和线程处于阻塞时中断两种情况。
另一个方案是使用一个 volatile 类型的布尔变量,使用该变量来判断是否应该结束线程。
// 方式 1:使用中断标志位 @Override public void run() { try { while (!isInterrupted()) { // do something } } catch (InterruptedException ie) { // 线程因为阻塞时被中断而结束了循环 } } private static class MyRunnable2 implements Runnable { // 注意使用 volatile 修饰 private volatile boolean canceled = false; @Override public void run() { while (!canceled) { // do something } } public void cancel() { canceled = true; } } 复制代码
onDestroy()
wait()/notify():
wait()、notify() 和 notifyAll()
方法是 Object 的本地 final 方法,无法被重写。 wait()
使当前线程阻塞,直到 接到通知或被中断 为止。前提是必须先获得锁,一般配合 synchronized 关键字使用,在 synchronized 同步代码块里使用 wait()、notify() 和 notifyAll()
方法。如果调用 wait()
或者 notify()
方法时,线程并未获取到锁的话,则会抛出 IllegalMonitorStateException 异常。再次获取到锁,当前线程才能从 wait()
方法处成功返回。 wait()、notify() 和 notifyAll()
在 synchronized 代码块执行,说明当前线程一定是获取了锁的。当线程执行 wait()
方法时候, 会释放当前的锁,然后让出 CPU,进入等待状态 。只有当 notify()/notifyAll()
被执行时候,才会唤醒一个或多个正处于等待状态的线程,然后继续往下执行,直到执行完 synchronized 代码块或是中途遇到 wait()
, 再次释放锁 。 notify()/notifyAll()
的执行只是唤醒沉睡的线程,而不会立即释放锁,锁的释放要看代码块的具体执行情况。所以在编程中,尽量在使用了 notify()/notifyAll()
后立即退出临界区,以唤醒其他线程。 wait()
需要被 try catch
包围,中断也可以使 wait
等待的线程唤醒。 notify()
和 wait()
的顺序不能错,如果 A 线程先执行 notify()
方法,B 线程再执行 wait()
方法,那么 B 线程是无法被唤醒的。 notify()
和 notifyAll()
的区别: notify()
方法只唤醒一个等待(对象的)线程并使该线程开始执行。所以如果有多个线程等待一个对象,这个方法只会唤醒其中一个线程,选择哪个线程取决于操作系统对多线程管理的实现。 notifyAll()
会唤醒所有等待 (对象的) 线程,尽管哪一个线程将会第一个处理取决于操作系统的实现。如果当前情况下有多个线程需要被唤醒,推荐使用 notifyAll()
方法。比如在生产者-消费者里面的使用,每次都需要唤醒所有的消费者或是生产者,以判断程序是否可以继续往下执行。 对于 sleep()
和 wait()
方法之间的区别,总结如下,
sleep()
方法是 Thread 的静态方法,而 wait()
是 Object 实例方法。 wait()
方法必须要在 同步方法或者同步块 中调用,也就是必须已经获得对象锁。而 sleep()
方法没有这个限制可以在任何地方种使用。 wait()
方法会释放占有的对象锁,使得该线程进入等待池中,等待下一次获取资源。而 sleep()
方法只是会让出 CPU 并不会释放掉对象锁; sleep()
方法在休眠时间达到后如果再次获得 CPU 时间片就会继续执行,而 wait()
方法必须等待 Object.notift()/Object.notifyAll()
通知后,才会离开等待池,并且再次获得 CPU 时间片才会继续执行。 start()
方法。该状态的线程位于可运行线程池中,等待被线程调度选中,获取 CPU 的使用权 。 o.wait()
方法,JVM 会把该线程放入等待队列 (waitting queue) 中。 Thread.sleep(long)
或 t.join()
方法,或者发出了 I/O 请求时,JVM 会把该线程置为阻塞状态。当 sleep()
状态超时、 join()
等待线程终止或者超时、或者 I/O 处理完毕时,线程重新转入 RUNNABLE 状态。 run()
、 main()
方法执行结束,或者因异常退出了 run()
方法,则该线程结束生命周期。死亡的线程不可再次复生。 当两个线程彼此占有对方需要的资源,同时彼此又无法释放自己占有的资源的时候就发生了死锁。发生死锁需要满足下面四个条件,
产生死锁需要四个条件,那么,只要这四个条件中至少有一个条件得不到满足,就不可能发生死锁了。由于互斥条件是非共享资源所必须的,不仅不能改变,还应加以保证,所以,主要是破坏产生死锁的其他三个条件。
破坏占有且等待的问题:允许进程只获得运行初期需要的资源,便开始运行,在运行过程中逐步释放掉分配到的已经使用完毕的资源,然后再去请求新的资源。
破坏不可抢占条件:当一个已经持有了一些资源的进程在提出新的资源请求没有得到满足时,它必须释放已经保持的所有资源,待以后需要使用的时候再重新申请。释放已经保持的资源很有可能会导致进程之前的工作实效等,反复的申请和释放资源会导致进程的执行被无限的推迟,这不仅会延长进程的周转周期,还会影响系统的吞吐量。
破坏循环等待条件:可以通过定义资源类型的线性顺序来预防,可将每个资源编号,当一个进程占有编号为i的资源时,那么它下一次申请资源只能申请编号大于 i 的资源。
《死锁的四个必要条件和解决办法》
sychronized 原理(表面的):
Java 虚拟机中的同步 (Synchronization) 基于进入和退出管程 (Monitor) 对象实现,无论是显式同步 (有明确的 monitorenter 和 monitorexit 指令,即同步代码块),还是隐式同步都是如此。进入 monitorenter 时 monitor 中的计数器 count 加 1,释放当前持有的 monitor,count 自减 1. 反编译代码之后经常看到两个 monitorexit 指令对应一个 monitorenter,这是用来防止程序执行过程中出现异常的。虚拟机需要保证即使程序允许中途出了异常,锁也一样可以被释放(执行第二个 monitorexit)。
对同步方法,JVM 可以从方法常量池中的方法表结构(method_info Structure) 中的 ACC_SYNCHRONIZED 访问标志区分一个方法是否同步方法。当调用方法时,调用指令将会检查方法的 ACC_SYNCHRONIZED 访问标志是否被设置,如果设置了,执行线程将先持有 monitor,然后再执行方法,最后再方法完成 (无论是正常完成还是非正常完成) 时释放monitor. 在方法执行期间,其他任何线程都无法再获得同一个 monitor. 如果一个同步方法执行期间抛出了异常,并且在方法内部无法处理此异常,那这个同步方法所持有的 monitor 将在异常抛到同步方法之外时自动释放。
sychronized 原理(底层的):
在 Java 对象的对象头中,有一块区域叫做 MarkWord,其中存储了重量级锁 sychronized 的标志位,其指针指向的是 monitor 对象。每个对象都存在着一个 monitor 与之关联。在 monitor 的数据结构中定义了两个队列,_WaitSet 和 _EntryList. 当多个线程同时访问一段同步代码时,首先会进入 _EntryList 集合,当线程获取到对象的monitor 后进入 _Owner 区域并把 monitor 中的 owner 变量设置为当前线程同时 monitor 中的计数器 count 加 1,若线程调用 wait() 方法,将释放当前持有的 monitor,owner 变量恢复为 null,count 自减 1,同时该线程进入 _WaitSet 集合中等待被唤醒。若当前线程执行完毕也将释放 monitor (锁)并复位变量的值,以便其他线程进入获取 monitor (锁)。
由此看来,monitor 对象存在于每个 Java 对象的对象头中(存储的指针的指向),synchronized 锁便是通过这种方式获取锁的,也是为什么 Java 中任意对象可以作为锁的原因,同时也是 notify()/notifyAll()/wait()
等方法存在于顶级对象 Object 中的原因。
当然,从 MarkWord 的结构中也可以看出 Java 对 sychronized 的优化:Java 6 之后,为了减少获得锁和释放锁所带来的性能消耗,引入了轻量级锁和偏向锁,锁效率也得到了优化。
(关于 sychronized 的底层实现原理可以参考笔者的文章: 并发编程专题 3:synchronized )
sychronized 与 lock 的区别体现在下面四个方面:
ReentrantLock 的实现是基于 AQS(同步器),同步器设计的思想是 CAS. 同步器中维护了一个链表,借助 CAS 的思想向链表中增删数据。其底层使用的是 sun.misc.Unsafe
类中的方法来完成 CAS 操作的。在 ReentrantLock 中实现两个 AQS 的子类,分别是 NonfairSync
和 FairSync
. 也就是用来实现公平锁和非公平锁的关键。当我们使用构造方法获取 ReentrantLock 实例的时候,可以通过一个布尔类型的参数指定使用公平锁还是非公平锁。在实现上, NonfairSync
和 FairSync
的区别仅仅是,在当前线程获取到锁之前,是否会从上述队列中判断是否存在比自己更早申请锁的线程。对于公平锁,当存在这么一个线程的话,那么当前线程获取锁失败。当当前线程获取到锁的时候,也会使用一个 CAS 操作将锁获取次数 +1. 当线程再次获取锁的时候,会根据线程来进行判断,如果当前持有锁的线程是申请锁的线程,那么允许它再次获取锁,以此来实现锁的可重入。
所谓 CAS 就是 Compare-And-Swape,类似于乐观加锁。但与我们熟知的乐观锁不同的是,它在判断的时候会涉及到 3 个值:“新值”、“旧值” 和 “内存中的值”,在实现的时候会使用一个无限循环,每次拿 “旧值” 与 “内存中的值” 进行比较,如果两个值一样就说明 “内存中的值” 没有被其他线程修改过;否则就被修改过,需要重新读取内存中的值为 “旧值”,再拿 “旧值” 与 “内存中的值” 进行判断。直到 “旧值” 与 “内存中的值” 一样,就把 “新值” 更新到内存当中。
这里要注意上面的 CAS 操作是分 3 个步骤的,但是这 3 个步骤必须一次性完成,因为不然的话,当判断 “内存中的值” 与 “旧值” 相等之后,向内存写入 “新值” 之间被其他线程修改就可能会得到错误的结果。JDK 中的 sun.misc.Unsafe
中的 compareAndSwapInt 等一系列方法 Native 就是用来完成这种操作的。另外还要注意,上面的 CAS 操作存在一些问题:
AtomicReference
voliate 关键字的两个作用
volatile 是通过 内存屏障(Memory Barrier)
来实现其在 JMM 中的语义的。内存屏障,又称内存栅栏,是一个 CPU 指令,它的作用有两个,一是保证特定操作的执行顺序,二是保证某些变量的内存可见性。如果在指令间插入一条内存屏障则会告诉编译器和 CPU,不管什么指令都不能和这条 Memory Barrier 指令重排序。Memory Barrier 的另外一个作用是强制刷出各种 CPU 的缓存数据,因此任何 CPU 上的线程都能读取到这些数据的最新版本。
参考 《并发编程专题-5:生产者和消费者模式》 中的三种写法。
ThreadLocal 通过将每个线程自己的局部变量存在自己的内部来实现线程安全。使用它的时候会定义它的静态变量,每个线程看似是从 TL 中获取数据,而实际上 TL 只起到了键值对的键的作用,实际的数据会以哈希表的形式存储在 Thread 实例的 Map 类型局部变量中。当调用 TL 的 get()
方法的时候会使用 Thread.currentThread()
获取当前 Thread 实例,然后从该实例的 Map 局部变量中,使用 TL 作为键来获取存储的值。Thread 内部的 Map 使用线性数组解决哈希冲突。( 《ThreadLocal的使用及其源码实现》 )
poll()
和 add()
等方法借助 CAS 思想实现。锁比较轻量。 NIO
多线程断点续传原理
断点续传和断点下载都是用的用的都是 RandomAccessFile,它可以从指定的位置开始读取数据。断点续传是由服务器给客户端一个已经上传的位置标记position,然后客户端再将文件指针移动到相应的 position,通过输入流将文件剩余部分读出来传输给服务器。
如果要使用多线程来实现断点续传,那么可以给每个线程分配固定的字节的文件,分别去读,然后分别上传到服务器。
协程实际上就是极大程度的复用线程,通过让线程满载运行,达到最大程度的利用 CPU,进而提升应用性能。相比于线程,协程不需要进行线程切换,和多线程比,线程数量越多,协程的性能优势就越明显。第二大优势就是不需要多线程的锁机制,因为只有一个线程,也不存在同时写变量冲突,在协程中控制共享资源不加锁,只需要判断状态就好了,所以执行效率比多线程高很多。
协程和线程,都能用来实现异步调用,但是这两者之间是有本质区别的:
编译器
级别的,线程是系统级别的。协程的切换是 由程序来控制
的,线程的切换是由操作系统来控制的。 协作式
的,线程是 抢占式
的。协程是由程序来控制什么时候进行切换的,而线程是有操作系统来决定线程之间的切换的。 一个线程
中执行。4. 协程适合 IO 密集型
的程序,多线程适合 计算密集型
的程序(适用于多核 CPU 的情况)。当你的程序大部分是文件读写操作或者网络请求操作的时候,这时你应该首选协程而不是多线程,首先这些操作大部分不是利用 CPU 进行计算而是等待数据的读写,其次因为协程执行效率较高,子程序切换不是线程切换,是由程序自身控制,因此,没有线程切换的开销,和多线程比,线程数量越多,协程的性能优势就越明显。 顺序调用
异步代码, 避免回调地狱
。 参考: 是继续Rxjava,还是应该试试Kotlin的协程 - Android架构的文章 - 知乎
Kotlin 是一门基于 JVM 的语言,它提供了非常多便利的语法特性。如果说 Kotlin 为什么那么优秀的话,那只能说是因为它站在了 Java 的肩膀上。学习了一段时间之后,你会发现它的许多语法的设计非常符合我们实际开发中的使用习惯。
比如,对于一个类,通常我们不会去覆写它。尤其是 Java Web 方向,很多的类用来作为 Java Bean,它们没有特别多的继承关系。而 Kotlin 中的类默认就是不允许继承的,想允许自己的类被继承,你还必须显式地使用 open 关键字指定。
对于 Java Bean,作为一个业务对象,它会有许多的字段。按照 Java 中的处理方式,我们要为它们声明一系列的 setter 和 getter 方法。然后,获取属性的时候必须使用 setter 和 getter 方法。导致我们的代码中出现非常多的括号。而使用 Kotlin 则可以直接对属性进行赋值,显得优雅地多。
再比如 Java 中使用 switch 的时候,我们通常会在每个 case 后面加上 break,而 kotlin 默认帮助我们 break,这样就节省了很多的代码量。
另外 Kotlin 非常优秀的地方在于对 NPE 的控制。在 Android 开发中,我们可以使用 @NoneNull 和 @Nullable 注解来标明某个字段是否可能为空。在 Java 中默认字段是空的,并且没有任何提示。你一个不留神可能就导致了 NPE,但 Kotlin 中就默认变量是非空的,你想让它为空必须单独声明。这样,对于可能为空的变量就给了我们提示的作用,我们知道它可能为空,就会去特意对其进行处理。对于可能为空的类,Kotlin 定义了如下的规则,使得我们处理起来 NPE 也变得非常简单:
?
在类型的后面则说明这个变量是可空的; ?.
,以 a?.method()
为例,当 a 不为 null 则整个表达式的结果是 a.method()
否则是 null; ?:
,以 a ?: "A"
为例,当 a 不为 null 则整个表达式的结果是 a,否则是 “A”; as?
,以 foo as? Typ
e 为例,当 foo 是 Type 类型则将 foo 转换成 Type 类型的实例,否则返回 null; !!
,用在某个变量后面表示断言其非空,如 a!!
; val b = "AA".let { it + "A" }
返回 “AAA”; 诸如此类,很多时候,我觉得 Java 设计的一些规则对人们产生了误导,实际开发中并不符合我们的使用习惯。而 Kotlin 则是根据多年来人们使用 Java 的经验,简化了许多的调用,更加符合我们使用习惯。所以说,Kotlin 之所以强大是因为站在 Java 的肩膀上。
观察者设计模式类似于我们经常使用的接口回调,下面的代码中在观察者的构造方法中订阅了主题,其实这个倒不怎么重要,什么时候订阅都可以。核心的地方就是主题中维护的这个队列,需要通知的时候调一下通知的方法即可。另外,如果在多线程环境中还要考虑如何进行线程安全控制,比如使用线程安全的集合等等。下面只是一个非常基础的示例程序,了解设计思想,用的时候可以灵活一些,不必循规蹈矩。
public class ConcreteSubject implements Subject { private List<Observer> observers = new LinkedList<>(); // 维护观察者列表 @Override public void registerObserver(Observer o) { // 注册一个观察者 observers.add(o); } @Override public void removeObserver(Observer o) { // 移除一个观察者 int i = observers.indexOf(o); if (i >= 0) { observers.remove(o); } } @Override public void notifyObservers() { // 通知所有观察者主题的更新 for (Observer o : observers) { o.method(); } } } public class ConcreteObserver implements Observer { private Subject subject; // 该观察者订阅的主题 public ConcreteObserver(Subject subject) { this.subject = subject; subject.registerObserver(this); // 将当前观察者添加到主题订阅列表中 } // 当主题发生变化的时候,主题会遍历观察者列表并通过调用该方法来通知观察者 @Override public void method() { // ... } } 复制代码
(了解更多关于观察者设计模式的内容,请参考文章: 设计模式解析:观察者模式 )
// 饱汉:就是在调用单例方法的时候,实例已经初始化过了 public class Singleton { private static Singleton singleton = new Singleton(); private Singleton() {} public static Singleton getInstance() { return singleton; } } // 懒汉:在调用方法的时候才进行初始化 public class Singleton { private volatile static Singleton singleton; private Singleton() {} public static Singleton getInstance() { if (singleton == null) { sychronized(Singleton.class) { if (singleton == null) { singleton = new Singleton(); } } } return singleton; } } 复制代码
另外,单例需要注意的问题是:1.如果用户使用反射进行初始化怎么办?可以在创建第二个实例的时候抛出异常;2.如果用户使用 Java 的序列化机制反复创建单例呢?将所有的实例域设置成 transient 的,然后覆写 readResolve()
方法并返回单例。
另外,单实例太多的时候可以想办法使用一个 Map 将它们存储起来,然后通过一种规则从哈希表中取出,这样就没必要声明一大堆的单例变量了。
(了解更多关于单例设计模式的内容,请参考文章:设计模式-4:单例模式)
四个设计模式相同的地方是,它们都需要你传入一个类,然后内部使用你传入的这个类来完成业务逻辑。
我们以字母 A,B,C 来表示 3 种不同的类(某种东西)。
外观模式要隐藏内部的差异,提供一个一致的对外的接口 X,那么让定义 3 个类 AX, BX, CX 并且都实现 X 接口,其中分别引用 A, B, C 按照各自的方式实现 X 接口的方法即可。以相机开发为例,Camera1 和 Camera2 各有自己的实现方式,定义一个统一的接口和两个实现类。
假如现在有一个类 X,其中引用到了接口 A 的实现 AX. AX 的逻辑存在点问题,我们想把它完善一下。我们提供了 3 种方案,分别是 A1, A2 和 A3. 那么此时,我们让 A1, A2 和 A3 都实现 A 接口,然后其中引用 AX 完成业务,在实现的 A 接口的方法中分别使用各自的方案进行优化即可。这种方式,我们对 AX 进行了修饰,使其 A1, A2 和 A3 可以直接应用到 X 中。
对于适配器模式,假如现在有一个类 X,其中引用到了接口 A. 现在我们不得不使用 B 来完成 A 的逻辑。因为 A 和 B 属于两个不同的类,所以此时我们需要一个适配器模式,让 A 的实现 AX 引用 B 的实现 BX 完成 A 接口的各个方法。
外观模式的目的是隐藏各类间的差异性,提供一致的对外接口。装饰者模式对外的接口是一致的,但是内部引用的实例是同一个,其目的是对该实例进行拓展,使其具有多种功能。所以,前者是多对一,后者是一对多的关系。而适配器模式适用的是两个不同的类,它使用一种类来实现另一个类的功能,是一对一的。相比之下,代理模式也是用一类来完成某种功能,并且一对一,但它是在同类之间,目的是为了增强类的功能,而适配器是在不同的类之间。装饰者和代理都用来增强类的功能,但是装饰者装饰之后仍然是同类,可以无缝替换之前的类的功能。而代理类被修饰之后已经是代理类了,是另一个类,无法替换原始类的位置。
本系列以及其他系列的文章均维护在 Github 上面: Github / Android-notes ,欢迎 Star & Fork. 如果你喜欢这篇文章,愿意支持作者的工作,请为这篇文章点个赞:+1:!