并发编程的艺术 | 学习笔记(一)

第一章 并发编程的挑战

并发编程的目的是为了让程序运行得更快,而不是让程序最大限度的并发运行。

从上述描述中可以得知:快是终极目标,而并发只是一种达成目的的手段,因此如果一味的追求极限并发,那么会遇到很多挑战:上下文切换的问题、死锁的问题,以及受限于硬件和软件的资源限制问题。

一、上下文切换

时间片

即使是单核处理器也支持多线程执行代码,CPU 通过给每个线程分配 CPU 时间片来实现这个机制。时间片是 CPU分配给各个线程的时间,因为时间片非常短,所以CPU通过不停地切换线程执行,让我们感觉多个线程是同时执行的,时间片一般是几十毫秒(ms)。

上下文切换

CPU通过时间片分配算法来循环执行任务,当前任务执行一个时间片后会切换到下一个任务。但是,在切换前会保存上一个任务的状态,以便下次切换回这个任务时,可以再加载这个任务的状态。所以任务从保存到再加载的过程就是一次上下文切换。

时间片分配算法中的时间片轮转调度算法是一种最古老,最简单,最公平且使用最广的算法。

基本原理:

在早期的时间片轮转法中,系统将所有的就绪进程按先来先服务的原则,排成一个队列,每次调度时,把 CPU 分配给队首进程,并令其执行一个时间片。时间片的大小从几 ms 到几百 ms。当执行的时间片用完时,由一个计时器发出时钟中断请求,调度程序便据此信号来停止该进程的执行,并将它送往就绪队列的末尾。然后再把处理机分配给就绪队列中新的队首进程,同时也让它执行一个时间片。这样就可以保证就绪队列中的所有进程,在一给定的时间内,均能获得一时间片的处理机执行时间。

从上述描述中可以得 CPU 给线程频繁分配时间片的过程中,会频繁的记录任务状态再加载任务状态,简称为上下文切换,会存在隐形的性能开销问题。

1.1 测试上下文切换次数和时长

测试工具:

  • 使用Lmbench3可以测量上下文切换的时长。
    下载地址:http://www.bitmover.com/lmbench/get_lmbench.html
  • 使用vmstat可以测量上下文切换的次数。
    vmstat(Virtual Meomory Statistics,虚拟内存统计)是 Linux 系统中监控内存的常用工具,可对操作系统的虚拟内存、进程、CPU等的整体情况进行监视。
1.2 如何减少上下文切换

减少上下文切换的方法有:无锁并发编程、CAS 算法、使用最少线程和使用协程。

无锁并发编程

多线程竞争锁时,会引起上下文切换,所以多线程处理数据时,可以用一些办法来避免使用锁,如将数据的ID按照Hash算法取模分段,不同的线程处理不同段的数据。

CAS 算法

Java 的 Atomic 包使用 CAS 算法来更新数据,而不需要加锁。

使用最少线程

避免创建不需要的线程,比如任务很少,但是创建了很多线程来处理,这样会造成大量线程都处于等待状态。

协程

在单线程里实现多任务的调度,并在单线程里维持多个任务间的切换。

1.3 减少上下文切换实战

如果发现有大量线程处于 WAITING 状态,那么可以使用 Java 自带的jstack命令dump 出所有线程状态的统计信息,通过统计信息可以找出相应的 WAITING 线程,并将这个 WAITING 线程池的线程数减少一些,因为 WAITING 的原因正是由于上下文切换占用了 CPU 的大量资源。

二、死锁

死锁模拟:

死锁模拟
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
public class DeadLockDemo {
privat static String A = "A";
private static String B = "B";
public static void main(String[] args) {
new DeadLockDemo().deadLock();
}
private void deadLock() {
Thread t1 = new Thread(new Runnable() {
@Override
publicvoid run() {
synchronized (A) {
try { Thread.currentThread().sleep(2000);
} catch (InterruptedException e) {
e.printStackTrace();
}
synchronized (B) {
System.out.println("1");
}
}
}
});
Thread t2 = new Thread(new Runnable() {
@Override
publicvoid run() {
synchronized (B) {
synchronized (A) {
System.out.println("2");
}
}
}
});
t1.start();
t2.start();
}
}

线程 t1 在抓 A 锁的同时还要 B 锁,线程 tA 在抓 B 锁的同时还要 A 锁,当出现两者都抓着其中一把,等着对方把另一把锁释放时,死锁就出现了。

在一些复杂的场景中,可能会遇到上述这样类似的问题,比如 t1 拿到锁之后,因为一些异常情况没有释放锁(死循环)。又或者是 t1 拿到一个数据库锁,释放锁的时候抛出了异常,没释放掉。

一旦出现死锁,业务是可感知的,因为不能继续提供服务了,那么只能通过 dump 线程查看到底是哪个线程出现了问题。

避免死锁的几个常见方法

  • 避免一个线程同时获取多个锁。
  • 避免一个线程在锁内同时占用多个资源,尽量保证每个锁只占用一个资源。
  • 尝试使用定时锁,使用lock.tryLock(timeout)来替代使用内部锁机制。
  • 对于数据库锁,加锁和解锁必须在一个数据库连接里,否则会出现解锁失败的情况。
三、资源限制
1.1 什么是资源限制

资源限制是指在进行并发编程时,程序的执行速度受限于计算机硬件资源或软件资源。

  • 硬件资源限制有带宽的上传/下载速度、硬盘读写速度和CPU的处理速度。
  • 软件资源限制有数据库的连接数和 socket 连接数等。

使用并发编程并不会改变这些硬件资源物理限制,数据库连接数限制虽然属于软件资源,但是对于调用者来说,也是不可逾越的屏障。

1.2 资源限制带来的问题

因为受到资源限制问题,导致并发编程的程序得不到充分的施展,因为当某段代码本来可以串行执行,结果改成了并发执行,由于资源限制,它们仍然在串行执行,这时候程序不仅不会加快执行,反而会更慢,因为增加了上下文切换和资源调度的时间。

1.3 如何解决资源限制的问题

对于硬件资源限制可以考虑使用集群并行执行程序。

既然单机的资源有限制,那么就让程序在多机上运行。比如使用 ODPS、Hadoop 或者自己搭建服务器集群,不同的机器处理不同的数据。

可以通过”数据 ID% 机器数”,计算得到一个机器编号,然后由对应编号的机器处理这笔数据。

对于软件资源限制可以考虑使用资源池将资源复用。

比如使用连接池将数据库和 Socket 连接复用,或者在调用对方 webservice 接口获取数据时,只建立一个连接。

1.4 在资源限制情况下进行并发编程

如何在资源限制的情况下,让程序执行得更快呢?方法就是,根据不同的资源限制调整程序的并发度。

比如下载文件程序依赖于两个资源:带宽和硬盘读写速度。有数据库操作时,涉及数据库连接数,如果 SQL 语句执行非常快,而线程的数量比数据库连接数大很多,则某些线程会被阻塞,等待数据库连接。

updated updated 2020-03-01 2020-03-01
本文结束感谢阅读

本文标题:并发编程的艺术 | 学习笔记(一)

本文作者:木鲸鱼

微信公号:木鲸鱼 | woodwhales

原始链接:https://woodwhales.cn/2018/12/18/003/

许可协议: 署名-非商业性使用-禁止演绎 4.0 国际 转载请保留原文链接及作者。

0%