本文从操作系统原理出发结合代码实践讲解了以下内容:
什么是进程,线程和协程? 它们之间的关系是什么? 为什么说Python中的多线程是伪多线程? 不同的应用场景该如何选择技术方案? ...
进程直接特定的机制和遇到I/O中断的情况下,进行上下文切换,轮流使用CPU资源
每一个进程独占一个CPU核心资源,在处理I/O请求的时候,CPU处于阻塞状态
由于进程拥有自己独占的虚拟地址空间,CPU通过地址翻译将虚拟地址转换成真实的物理地址,每个进程只能访问自己的地址空间。因此,在没有其他机制(进程间通信)的辅助下,进程之间是无法共享数据的
import multiprocessing
import threading
import time
n = 0
def count(num):
global n
for i in range(100000):
n += i
print("Process {0}:n={1},id(n)={2}".format(num, n, id(n)))
if __name__ == '__main__':
start_time = time.time()
process = list()
for i in range(5):
p = multiprocessing.Process(target=count, args=(i,)) # 测试多进程使用
# p = threading.Thread(target=count, args=(i,)) # 测试多线程使用
process.append(p)
for p in process:
p.start()
for p in process:
p.join()
print("Main:n={0},id(n)={1}".format(n, id(n)))
end_time = time.time()
print("Total time:{0}".format(end_time - start_time))
Process 1:n=4999950000,id(n)=139854202072440Process 0:n=4999950000,id(n)=139854329146064Process 2:n=4999950000,id(n)=139854202072400Process 4:n=4999950000,id(n)=139854201618960Process 3:n=4999950000,id(n)=139854202069320Main:n=0,id(n)=9462720Total time:0.03138256072998047
变量n在进程p{0,1,2,3,4}和主进程(main)中均拥有唯一的地址空间
进程和线程之间有许多相似的地方,那它们之间到底有什么区别呢?
总之,多进程程序安全性高,进程切换开销大,效率低;多线程程序维护成本高,线程切换开销小,效率高。(Python的多线程是伪多线程,下文中将详细介绍)
下面,将针对在不同的应用场景中如何选择使用Python中的进程,线程,协程进行分析。
那为什么认为Python中的多线程是“伪”多线程呢?
为了减少代码冗余和文章篇幅,命名和打印不规则问题请忽略
Process 0:n=5756690257,id(n)=140103573185600
Process 2:n=10819616173,id(n)=140103573185600
Process 1:n=11829507727,id(n)=140103573185600
Process 4:n=17812587459,id(n)=140103573072912
Process 3:n=14424763612,id(n)=140103573185600
Main:n=17812587459,id(n)=140103573072912
Total time:0.1056210994720459
但是,为什么多线程运行时间比多进程还要长?这与我们上面所说(线程的开销<<进程的开销)的严重不相符啊。这就是轮到Cpython(python默认的解释器)中GIL(Global Interpreter Lock,全局解释锁)登场了。
一个进程中含有两个线程,分别为线程0和线程1,两个线程全都引用对象a。当两个线程同时对a发生引用(并未修改,不需要使用同步性原语),就会发生同时修改对象a的引用计数器,造成计数器引用少于实质性的引用,当进行垃圾回收时,造成错误异常。因此,需要一把全局锁(即为GIL)来保证对象引用计数的正确性和安全性。
那是不是在Python中遇到并发的需求就使用多进程就万事大吉了呢?其实不然,软件工程中有一句名言:没有银弹!
CPU密集型的情况可以对比以上multiprocessing和threading的例子,多进程的性能 > 多线程的性能。
与进程的执行模式相似,弥补了GIL带来的不足,又由于线程的开销远远小于进程的开销,因此,在IO密集型场景中,多线程的性能更高
import multiprocessing
import threading
import time
def count(num):
time.sleep(1) ## 模拟IO操作
print("Process {0} End".format(num))
if __name__ == '__main__':
start_time = time.time()
process = list()
for i in range(5):
p = multiprocessing.Process(target=count, args=(i,))
# p = threading.Thread(target=count, args=(i,))
process.append(p)
for p in process:
p.start()
for p in process:
p.join()
end_time = time.time()
print("Total time:{0}".format(end_time - start_time))
## 多进程Process 0 EndProcess 3 EndProcess 4 EndProcess 2 EndProcess 1 EndTotal time:1.383193016052246## 多线程Process 0 EndProcess 4 EndProcess 3 EndProcess 1 EndProcess 2 EndTotal time:1.003425121307373
是不是认为这就结束了?远还没有呢。针对I/O密集型的程序,协程的执行效率更高,因为它是程序自身所控制的,这样将节省线程创建和切换所带来的开销。
import time
import asyncio
async def coroutine():
await asyncio.sleep(1) ## 模拟IO操作
if __name__ == "__main__":
start_time = time.time()
loop = asyncio.get_event_loop()
tasks = []
for i in range(5):
task = loop.create_task(coroutine())
tasks.append(task)
loop.run_until_complete(asyncio.wait(tasks))
loop.close()
end_time = time.time()
print("total time:", end_time - start_time)
total time: 1.001854419708252
CPU密集型:多进程
IO密集型:多线程(协程维护成本较高,而且在读写文件方面效率没有显著提升)
CPU密集和IO密集:多进程+协程
更多精彩推荐
☞ 糟糕!原来你的电脑就是这样被木马远控了 ☞监控系统选型,这篇不可不读 ☞ 封杀TikTok 无用,互联网百年老店生存法则 ☞ AI 医生正式上岗了?AI 医疗结合迎爆发点! ☞ 开源项目如何挣钱?Spark 商业化公司创始人曝光心路历程 ☞ 图解一致性哈希算法,看这文就够了! 点分享 点点赞 点在看