pull/181/head
sunface 3 years ago
parent 5995b27e7a
commit 8aa6d74468

@ -77,8 +77,8 @@
- [并发和并行](advance/concurrency-with-threads/concurrency-parallelism.md)
- [使用多线程](advance/concurrency-with-threads/thread.md)
- [线程间的消息传递](advance/concurrency-with-threads/message-passing.md)
- [线程同步:并发原语和共享内存(上)](advance/concurrency-with-threads/primitives.md)
- [线程同步:并发原语和共享内存(下)](advance/concurrency-with-threads/primitives1.md)
- [线程同步:锁、Condvar和信号量](advance/concurrency-with-threads/primitives.md)
- [线程同步:Atomic原子操作与内存顺序](advance/concurrency-with-threads/primitives1.md)
- [Send、Sync todo](advance/multi-threads/send-sync.md)
- [一个综合例子 todo](advance/multi-threads/example.md)
- [async/await并发编程 todo](advance/async/intro.md)

@ -1,7 +1,7 @@
# 并发原语和共享内存(上)
# 线程同步锁、Condvar和信号量
在多线程编程中,同步性极其的重要,当你需要同时访问一个资源、控制不同线程的执行次序时,都需要使用到同步性。
在Rust中有多种方式可以实现同步性。在上一节中讲到的消息传递就是同步性的一种实现方式我们可以通过消息传递来控制不同线程间的执行次序。还可以使用共享内存来实现同步性例如通过锁和原子操作等并发原语来实现多个线程同时且安全地去访问一个资源。
在Rust中有多种方式可以实现同步性。在上一节中讲到的消息传递就是同步性的一种实现方式例如我们可以通过消息传递来控制不同线程间的执行次序。还可以使用共享内存来实现同步性,例如通过锁和原子操作等并发原语来实现多个线程同时且安全地去访问一个资源。
## 该如何选择
共享内存可以说是同步的灵魂,因为消息传递的底层实际上也是通过共享内存来实现,两者的区别如下:
@ -16,17 +16,17 @@
- 需要模拟现实世界,例如用消息去通知某个目标执行相应的操作时
- 需要一个任务处理流水线(管道)时,等等
而使用共享内存(并发原语)的场景往往就比较简单粗暴:需要极致简洁的实现以及极致的性能时。
而使用共享内存(并发原语)的场景往往就比较简单粗暴:需要简洁的实现以及更高的性能时。
总之,消息传递类似一个单所有权的系统:一个值同时只能有一个所有,如果另一个线程需要该值的所有权,需要将所有权通过消息传递进行转移。而共享内存类似于一个多所有权的系统:多个线程可以同时访问同一个值。
总之,消息传递类似一个单所有权的系统:一个值同时只能有一个所有,如果另一个线程需要该值的所有权,需要将所有权通过消息传递进行转移。而共享内存类似于一个多所有权的系统:多个线程可以同时访问同一个值。
## 互斥锁Mutex
既然是共享内存,那并发原语自然是重中之重,先来一起看看互斥锁`Mutex`(mutual exclusion的缩写)。
既然是共享内存,那并发原语自然是重中之重,先来一起看看皇冠上的明珠: 互斥锁`Mutex`(mutual exclusion的缩写)。
`Mutex`让多个线程同时访问同一个值变成了排队访问:同一时间,只允许一个线程`A`访问该值,其它线程需要等待`A`访问完成后才能继续。如果要访问`Mutex`中的数据,线程需要先获取`mutex`中的锁,以通知`mutex`它需要访问目标资源。
`Mutex`让多个线程并发的访问同一个值变成了排队访问:同一时间,只允许一个线程`A`访问该值,其它线程需要等待`A`访问完成后才能继续。
#### 单线程中使用Mutex
先来看看单线程中`Mutex`该如何使用:
先来看看单线程中`Mutex`该如何使用:
```rust
use std::sync::Mutex;
@ -46,16 +46,16 @@ fn main() {
}
```
在注释中,已经大致描述了代码的功能,不过有一点需要注意:和`Box`类似,数据被`Mutex`所拥有,要访问内部的数据,需要使用方法`m.lock()`向`m`申请一个锁, 该方法会**阻塞当前线程,直到获取到锁**,因此当多个线程同时访问该数据时,只有一个线程获取到锁,其它线程只能阻塞等待,这样就保证了数据能被安全的修改!
在注释中,已经大致描述了代码的功能,不过有一点需要注意:和`Box`类似,数据被`Mutex`所拥有,要访问内部的数据,需要使用方法`m.lock()`向`m`申请一个锁, 该方法会**阻塞当前线程,直到获取到锁**,因此当多个线程同时访问该数据时,只有一个线程获取到锁,其它线程只能阻塞等待,这样就保证了数据能被安全的修改!
**`m.lock()`方法也有可能报错**,例如当前正在持有锁的线程`panic`了。在这种情况下,其它线程不可能再获得锁,因此它们会获取一个错误。
**`m.lock()`方法也有可能报错**,例如当前正在持有锁的线程`panic`了。在这种情况下,其它线程不可能再获得锁,因此`lock`方法会返回一个错误。
这里你可能奇怪,`m.lock`明明返回一个锁,怎么就变成我们的`num`数值了?聪明的读者可能会想到智能指针,没错,因为`Mutex<T>`是一个智能指针,准确的说是`m.lock()`返回一个智能指针`MutexGuard`:
这里你可能奇怪,`m.lock`明明返回一个锁,怎么就变成我们的`num`数值了?聪明的读者可能会想到智能指针,没错,因为`Mutex<T>`是一个智能指针,准确的说是`m.lock()`返回一个智能指针`MutexGuard<T>`:
- 它实现了`Deref`特征,会被自动解引用后获得一个引用类型,该引用指向`Mutex`内部的数据
- 它还实现了`Drop`特征,在超出作用域后,自动释放锁,以便其它线程能继续获取锁
正因为智能指针的使用,使得我们无需操作如何获取数据,如果释放锁,你需要做的仅仅是做好锁的作用域管理,例如上述代码的内部花括号使用,建议读者尝试下去掉内部的花括号,然后再次尝试获取第二个锁`num1`,看看会发生什么,友情提示:不会报错,但是主线程会永远阻塞。
正因为智能指针的使用,使得我们无需任何操作就能获取其中的数据。 如果释放锁,你需要做的仅仅是做好锁的作用域管理,例如上述代码的内部花括号使用,建议读者尝试下去掉内部的花括号,然后再次尝试获取第二个锁`num1`,看看会发生什么,友情提示:不会报错,但是主线程会永远阻塞,因为不幸发生了死锁
#### 多线程中使用Mutex
单线程中使用锁,说实话纯粹是为了演示功能,毕竟多线程才是锁的舞台。 现在,我们再来看看,如何在多线程下使用`Mutex`来访问同一个资源.
@ -92,13 +92,13 @@ fn main() {
}
```
由于子线程需要通过`move`拿走锁的所有权,因此我们需要使用多所有权来实现每个线程都拿到数据的独立所有权,恰好智能指针[`Rc<T>`](../smart-pointer/rc-arc.md)可以做到(**上面代码会报错**!具体往下看,别跳过-, -)。
由于子线程需要通过`move`拿走锁的所有权,因此我们需要使用多所有权来保证每个线程都拿到数据的独立所有权,恰好智能指针[`Rc<T>`](../smart-pointer/rc-arc.md)可以做到(**上面代码会报错**!具体往下看,别跳过-, -)。
以上代码实现了在多线程中计数的功能,由于多个线程都需要去修改该计数器,因此我们需要使用锁来保证同一时间只有一个线程可以修改计数器,否则会导致脏数据:想一下A线程和B线程同时拿到计数器获取了当前值`1`, 并且同时对其进行了修改,最后值变成`2`正确的值是`3`因为两个线程各自加1。
以上代码实现了在多线程中计数的功能,由于多个线程都需要去修改该计数器,因此我们需要使用锁来保证同一时间只有一个线程可以修改计数器,否则会导致脏数据:想一下A线程和B线程同时拿到计数器获取了当前值`1`, 并且同时对其进行了修改,最后值变成`2`你会不会在风中凌乱?毕竟正确的值是`3`因为两个线程各自加1。
可能有人会说,有那么巧的事情吗?事实上,对于人类来说,因为行为速度较慢,因为没有那么多巧合,所以人总会存在巧合心理。但是对于计算机而言,每秒可以轻松运行上亿次,在这种频次下,一切巧合几乎都将必然发生,因此千万不要有侥幸心理。
可能有人会说,有那么巧的事情吗?事实上,对于人类来说,因为干啥啥慢,并没有那么多巧合,所以人总会存在巧合心理。但是对于计算机而言,每秒可以轻松运行上亿次,在这种频次下,一切巧合几乎都将必然发生,因此千万不要有任何侥幸心理。
> 如果事情有变坏的可能,不管这种可能性有多小,它都会发生! - 极其适用于计算机领域的墨菲定律
> 如果事情有变坏的可能,不管这种可能性有多小,它都会发生! - 在计算机领域歪打正着的墨菲定律
事实上,上面的代码会报错:
```console
@ -121,10 +121,10 @@ error[E0277]: `Rc<Mutex<i32>>` cannot be sent between threads safely
= note: required because it appears within the type `[closure@src/main.rs:11:36: 15:10]`
```
上面提到了一个关键点:`Rc<T>`无法在线程中传输,因为它没有实现`Send`特征(在下一节将详细介绍),而该特征可以确保数据在线程中安全的传输。
错误中提到了一个关键点:`Rc<T>`无法在线程中传输,因为它没有实现`Send`特征(在下一节将详细介绍),而该特征可以确保数据在线程中安全的传输。
##### 多线程安全的Arc<T>
好在,我们有`Arc<T>`因为它的[内部计数器](../smart-pointer/rc-arc.md#多线程无力的rc)是多线程安全的,因此可以在多线程环境中使用:
好在,我们有`Arc<T>`得益于它的[内部计数器](../smart-pointer/rc-arc.md#多线程无力的rc)是多线程安全的,因此可以在多线程环境中使用:
```rust
use std::sync::{Arc, Mutex};
use std::thread;
@ -159,22 +159,22 @@ Result: 10
#### 内部可变性
在之前章节,我们提到过[内部可变性](../smart-pointer/cell-refcell.md#内部可变性),其中`Rc<T>`和`RefCell<T>`的结合,可以实现单线程的内部可变性。
现在我们又有了新的武器,由于`Mutex<T>`可以支持修改内部数据,因此结合`Arc<T>`一起使用,可以实现多线程的内部可变性。
现在我们又有了新的武器,由于`Mutex<T>`可以支持修改内部数据,结合`Arc<T>`一起使用,可以实现多线程的内部可变性。
简单总结下:`Rc<T>/RefCell<T>`用于单线程可变性, `Arc<T>/Mutext<T>`用于多线程可变性。
简单总结下:`Rc<T>/RefCell<T>`用于单线程内部可变性, `Arc<T>/Mutext<T>`用于多线程内部可变性。
#### 需要小心的Mutex<T>
如果有其它语言的编程经验,就知道互斥锁这家伙不好对付,如果要正确使用,你得牢记在心:
#### 需要小心使用的Mutex
如果有其它语言的编程经验,就知道互斥锁这家伙不好对付,要正确使用,你得牢记在心:
- 在使用数据前必须先获取锁
- 在数据使用完成后,必须**及时**的释放锁,比如文章开头的例子,使用内部语句块的目的就是为了及时的释放锁
这两点看起来不起眼,但是如果要正确的使用其实是相当不简单的对于其它语言忘记释放锁是经常发生的虽然Rust通过智能指针的`drop`机制帮助我们避免了这一点,但是由于不及时释放锁导致的性能问题也是常见的。
这两点看起来不起眼但要正确的使用其实是相当不简单的对于其它语言忘记释放锁是经常发生的虽然Rust通过智能指针的`drop`机制帮助我们避免了这一点,但是由于不及时释放锁导致的性能问题也是常见的。
正因为这种困难性导致很多用户都热衷于使用消息传递的方式来实现同步例如Go语言直接把`channel`内置在语言特性中,甚至还有无锁的语言,例如`erlang`,完全使用`Actor`模型,依赖消息传递来完成共享和同步。好Rust的类型系统、所有权机制、智能指针等可以很好的帮助我们减轻使用锁时的负担。
正因为这种困难性导致很多用户都热衷于使用消息传递的方式来实现同步例如Go语言直接把`channel`内置在语言特性中,甚至还有无锁的语言,例如`erlang`,完全使用`Actor`模型,依赖消息传递来完成共享和同步。好Rust的类型系统、所有权机制、智能指针等可以很好的帮助我们减轻使用锁时的负担。
另一个值的注意的是在使用`Mutex<T>`时Rust无法保证我们避免所有的逻辑错误,例如在之前章节,我们提到过使用`Rc<T>`可能会导致[循环引用的问题](../circle-self-ref/circle-reference.md)。类似的,`Mutex<T>`也存在使用上的风险,例如创建死锁(deadlock):当一个操作试图锁住两个资源,然后两个线程各自获取其中一个锁,并试图获取另一个锁时,就会造成死锁。
另一个值的注意的是在使用`Mutex<T>`时Rust无法我们避免所有的逻辑错误,例如在之前章节,我们提到过使用`Rc<T>`可能会导致[循环引用的问题](../circle-self-ref/circle-reference.md)。类似的,`Mutex<T>`也存在使用上的风险,例如创建死锁(deadlock):当一个操作试图锁住两个资源,然后两个线程各自获取其中一个锁,并试图获取另一个锁时,就会造成死锁。
## 死锁
在Rust中有多种方式可以创建死锁了解这些方式有助于你提前规避可能的风险一起来看看。
@ -187,14 +187,14 @@ use std::sync::Mutex;
fn main() {
let data = Mutex::new(0);
let d1 = data.lock();
let d2 = data.lock(); // cannot lock, since d1 is still active
}
let d2 = data.lock();
} // d1锁在此处释放
```
非常简单,只要你在另一个锁还未被释放时去申请新的锁,就会触发,当代码复杂后,这种情况可能就没有那么显眼。
#### 多线程死锁
有两个锁,然后两个线程各自使用了其中一个锁,并且试图去访问另一个锁时,就可能发生死锁:
我们拥有两个锁,且两个线程各自使用了其中一个锁,然后试图去访问另一个锁时,就可能发生死锁:
```rust
use std::{sync::{Mutex, MutexGuard}, thread};
use std::thread::sleep;
@ -246,14 +246,14 @@ fn main() {
}
```
在上面的描述中,我们用了可能发生死锁,是因为死锁在这段代码中不是必然发生的,总有一次运行你能看到最后一行打印输出。这是由于子线程的初始化顺序和执行速度并不确定,我们无法确定哪个线程的锁先被执行,因此也无法确定两个线程对锁的具体使用顺序。
在上面的描述中,我们用了"可能"二字,原因在于死锁在这段代码中不是必然发生的,总有一次运行你能看到最后一行打印输出。这是由于子线程的初始化顺序和执行速度并不确定,我们无法确定哪个线程的锁先被执行,因此也无法确定两个线程对锁的具体使用顺序。
但是可以简单的说明下死锁发生的必然条件线程1锁住了`mutex1`并且线程`2`锁住了`mutex2`然后线程1试图去访问`mutex2`,同时线程`2`试图去访问`mutex1`,就会锁住。 因为线程2需要等待线程1释放`mutex1`后,才会释放`mutex2`而与此同时线程1需要等待线程2释放`mutex2`后才能释放`mutex1`,这种情况造成了两个线程都无法释放对方需要的锁,最终锁死。
为何某些时候,死锁不会发生?原因很简单线程2在线程1锁`mutex1`之前就已经全部执行完了随之线程2的`mutex2`和`mutex1`被全部释放线程1对锁的获取将不再有竞争者。 同理线程1若全部被执行完那线程2也不会被锁因此我们在线程1中间加一个睡眠增加死锁发生的概率。如果你在线程2中同样的位置也增加一个睡眠那死锁将必然发生!
那么为何某些时候死锁不会发生原因很简单线程2在线程1锁`mutex1`之前就已经全部执行完了随之线程2的`mutex2`和`mutex1`被全部释放线程1对锁的获取将不再有竞争者。 同理线程1若全部被执行完那线程2也不会被锁因此我们在线程1中间加一个睡眠增加死锁发生的概率。如果你在线程2中同样的位置也增加一个睡眠那死锁将必然发生!
#### try_lock
与`lock`方法不同,`try_lock`会尝试去获取一次锁,**如果无法获取会返回一个错误,因此不会发生阻塞**:
与`lock`方法不同,`try_lock`会**尝试**去获取一次锁,如果无法获取会返回一个错误,因此**不会发生阻塞**:
```rust
use std::{sync::{Mutex, MutexGuard}, thread};
use std::thread::sleep;
@ -307,7 +307,7 @@ fn main() {
}
```
为了演示`try_lock`的作用,我们特定使用了之前必定会死锁的代码,然后将`lock`替换程`try_lock`,而此时,这段代码将不会再有死锁发生:
为了演示`try_lock`的作用,我们特定使用了之前必定会死锁的代码,并且将`lock`替换程`try_lock`,与之前的结果不同,这段代码将不会再有死锁发生:
```console
线程 0 锁住了mutex1接着准备去锁mutex2 !
线程 1 锁住了mutex2, 准备去锁mutex1
@ -316,13 +316,12 @@ fn main() {
死锁没有发生
```
如上所示,当`try_lock`失败时,会报出一个错误:`Err("WouldBlock")`然后线程其余代码会继续执行,不再被阻塞。
如上所示,当`try_lock`失败时,会报出一个错误:`Err("WouldBlock")`接着线程中的剩余代码会继续执行,不会被阻塞。
> 一个有趣的命名规则在Rust标准库中使用`try_xxx`都会尝试进行一次操作,如果无法完成,就立即返回,不会发生阻塞。例如消息传递章节中的`try_recv`以及本章节中的`try_lock`
## 读写锁RwLock
`Mutex`有一个问题,无论是读还是写都会同时只有一个线程能访问,因此读写都会被锁住。在某些时候,我们需要大量的并发读,此时就可以使用`RwLock`:
`Mutex`会对每次读写都进行加锁,但某些时候,我们需要大量的并发读,`Mutex`就无法满足需求了,此时就可以使用`RwLock`:
```rust
use std::sync::RwLock;
@ -351,7 +350,7 @@ fn main() {
}
```
`RwLock`在使用上和`Mutex`区别不大,就是还额外提供了一个`read`方法,需要注意的是,当读写同时发生时,程序会直接`panic`(本例是单线程,实际上多个线程中也是如此),因为会发生死锁:
`RwLock`在使用上和`Mutex`区别不大,需要注意的是,当读写同时发生时,程序会直接`panic`(本例是单线程,实际上多个线程中也是如此),因为会发生死锁:
```console
thread 'main' panicked at 'rwlock read lock would result in deadlock', /rustc/efec545293b9263be9edfb283a7aa66350b3acbf/library/std/src/sys/unix/rwlock.rs:49:13
note: run with `RUST_BACKTRACE=1` environment variable to display a backtrace
@ -373,19 +372,19 @@ Err("WouldBlock")
- 读和写不能同时发生,如果使用`try_xxx`解决,就必须做大量的错误处理和失败重试机制
- 当读多写少时,写操作可能会因为一直无法获得锁导致连续多次失败([writer starvation](https://stackoverflow.com/questions/2190090/how-to-prevent-writer-starvation-in-a-read-write-lock-in-pthreads))
- RwLock其实是操作系统提供的实现原理要比`Mutex`复杂的多,锁的自身性能而言,比不上原生实现的`Mutex`
- RwLock其实是操作系统提供的实现原理要比`Mutex`复杂的多,因此单就锁的性能而言,比不上原生实现的`Mutex`
因此我们可以简单总结下两者的使用场景:
再来简单总结下两者的使用场景:
- 追求高并发读取时,使用`RwLock`,因为`Mutex`一次只允许一个线程去读取
- 如果要保证写操作的成功性,使用`Mutex`
- 不知道哪个合,统一使用`Mutex`
- 不知道哪个合,统一使用`Mutex`
需要注意的是,`RwLock`虽然看上去好像提供了高并发读取的能力,但这个不能说明它的性能比`Mutex`高,事实上`Mutex`性能要好不少,后者**唯一的问题也仅仅在于不能并发读取**。
需要注意的是,`RwLock`虽然看上去貌似提供了高并发读取的能力,但这个不能说明它的性能比`Mutex`高,事实上`Mutex`性能要好不少,后者**唯一的问题也仅仅在于不能并发读取**。
一个常见的错误使用`RwLock`的场景就是使用`HashMap`进行简单读写,因为`HashMap`的读和写都非常快,`RwLock`的复杂实现和相对低的性能反而会导致整体性能的降低,因此一般来说更适合使用`Mutex`。
一个常见的错误使用`RwLock`的场景就是使用`HashMap`进行简单读写,因为`HashMap`的读和写都非常快,`RwLock`的复杂实现和相对低的性能反而会导致整体性能的降低,因此一般来说更适合使用`Mutex`。
总之,如果你要使用`RwLock`要确保满足以下两个条件:并发读,且需要对读到的资源进行"长时间"的操作,`HashMap`也许满足了并发读的需求,但是往往并不能满足后者:"长时间"的操作。
总之,如果你要使用`RwLock`要确保满足以下两个条件:**并发读,且需要对读到的资源进行"长时间"的操作**`HashMap`也许满足了并发读的需求,但是往往并不能满足后者:"长时间"的操作。
> benchmark永远是你在迷茫时最好的朋友
@ -394,4 +393,109 @@ Err("WouldBlock")
- [parking_lot](https://crates.io/crates/parking_lot), 功能更完善、稳定社区较为活跃star较多更新较为活跃
- [spin](https://crates.io/crates/spin), 在多数场景中性能比`parking_lot`高一点,最近没怎么更新
如果不是追求特别极致的性能,建议选择前者。
如果不是追求特别极致的性能,建议选择前者。
## 用条件(Condvar)控制线程的同步
`Mutex`用于解决资源安全访问的问题但是我们还需要一个手段来解决资源访问顺序的问题。而Rust考虑到了这一点为我们提供了条件变量(Condition Variables),它经常和`Mutex`一起使用,可以让线程挂起,直到某个条件发生后再继续执行,其实`Condvar`我们在之前的多线程章节就已经见到过,现在再来看一个不同的例子:
```rust
use std::sync::{Arc,Mutex,Condvar};
use std::thread::{spawn,sleep};
use std::time::Duration;
fn main() {
let flag = Arc::new(Mutex::new(false));
let cond = Arc::new(Condvar::new());
let cflag = flag.clone();
let ccond = cond.clone();
let hdl = spawn(move || {
let mut m = { *cflag.lock().unwrap() };
let mut counter = 0;
while counter < 3 {
while !m {
m = *ccond.wait(cflag.lock().unwrap()).unwrap();
}
{
m = false;
*cflag.lock().unwrap() = false;
}
counter += 1;
println!("inner counter: {}", counter);
}
});
let mut counter = 0;
loop {
sleep(Duration::from_millis(1000));
*flag.lock().unwrap() = true;
counter += 1;
if counter > 3 {
break;
}
println!("outside counter: {}", counter);
cond.notify_one();
}
hdl.join().unwrap();
println!("{:?}", flag);
}
```
例子中通过主线程来触发子线程实现交替打印输出:
```console
outside counter: 1
inner counter: 1
outside counter: 2
inner counter: 2
outside counter: 3
inner counter: 3
Mutex { data: true, poisoned: false, .. }
```
## 信号量Semaphore
在多线程中,另一个重要的概念就是信号量,使用它可以让我们精准的控制当前正在运行的任务最大数量。想象一下,当一个新游戏刚开服时(有些较火的老游戏也会,比如`wow`),往往会控制游戏内玩家的同时在线数,一旦超过某个临界值,就开始进行排队进服。而在实际使用中,也有很多时候,我们需要通过信号量来控制最大并发数,防止服务器资源被撑爆。
本来Rust在标准库中有提供一个[信号量实现](https://doc.rust-lang.org/1.8.0/std/sync/struct.Semaphore.html), 但是由于各种原因这个库现在已经不再推荐使用了,因此我们推荐使用`tokio`中提供的`Semaphone`实现: [`tokio::sync::Semaphore`](https://github.com/tokio-rs/tokio/blob/master/tokio/src/sync/semaphore.rs)。
```rust
use std::sync::Arc;
use tokio::sync::Semaphore;
#[tokio::main]
async fn main() {
let semaphore = Arc::new(Semaphore::new(3));
let mut join_handles = Vec::new();
for _ in 0..5 {
let permit = semaphore.clone().acquire_owned().await.unwrap();
join_handles.push(tokio::spawn(async move {
//
// 在这里执行任务...
//
drop(permit);
}));
}
for handle in join_handles {
handle.await.unwrap();
}
}
```
上面代码创建了一个容量为3的信号量当正在执行的任务超过3时剩下的任务需要等待正在执行任务完成并减少信号量后到3以内时才能继续执行。
这里的关键其实说白了就在于:信号量的申请和归还,使用前需要申请信号量,如果容量满了,就需要等待;使用后需要释放信号量,以便其它等待者可以继续。
## 总结
在很多时候,消息传递都是非常好用的手段,它可以让我们的数据在任务流水线上不断流转,实现起来非常优雅。
但是它并不能优雅的解决所有问题,因为我们面临的真实世界是非常复杂的,无法用某一种银弹统一解决。当面临消息传递不太适用的场景时,或者需要更好的性能和简洁性时,我们往往需要用锁来解决这些问题,因为锁允许多个线程同时访问同一个资源,简单粗暴。
除了锁之外其实还有一种并发原语可以帮助我们解决并发访问数据的问题那就是原子类型Atomic在下一章节中我们会对其进行深入讲解。

@ -86,41 +86,3 @@ fn main() {
- `std::sync::atomic`包中仅提供了数值类型的原子操作:`AtomicBool`, `AtomicIsize`, `AtomicUsize`, `AtomicI8`, `AtomicU16`等,而锁可以应用于各种类型
- 在有些情况下,必须使用锁来配合,例如下面的`Condvar`
## 用条件(Condvar)控制线程的同步
条件变量(Condition Variables)经常和`Mutex`一起使用,可以让线程挂起,直到某个条件发生后再继续执行,其实`Condvar`我们在之前的多线程章节就已经见到过,现在再来看一个不同的例子:
```rust
use std::sync::{Arc, Mutex, Condvar};
use std::thread;
fn main() {
let pair = Arc::new((Mutex::new(false), Condvar::new()));
let pair2 = pair.clone();
// 创建一个新线程
thread::spawn(move|| {
let &(ref lock, ref cvar) = &*pair2;
let mut started = lock.lock().unwrap();
*started = true;
cvar.notify_one();
println!("notify main thread");
});
// 等待新线程先运行
let &(ref lock, ref cvar) = &*pair;
let mut started = lock.lock().unwrap();
while !*started {
println!("before wait");
started = cvar.wait(started).unwrap();
println!("after wait");
}
}
```
上述代码流程如下:
1. `main`线程首先进入`while`循环,并释放了锁`started`,然后开始挂起等待子线程的通知
2. 子线程获取到锁并将其修改为true, 然后调用条件的方法来通知主线程继续执行:`cvar.notify_one`

Loading…
Cancel
Save