ホームページ > バックエンド開発 > Python チュートリアル > Pythonのスレッド、プロセス、コルーチンの詳細な説明

Pythonのスレッド、プロセス、コルーチンの詳細な説明

WBOY
リリース: 2016-08-04 08:55:39
オリジナル
1209 人が閲覧しました

引用

インタプリタ環境:python3.5.1

ソケットとソケットサーバーが Python ネットワーク プログラミングで学習する必要があるモジュールであることは誰もが知っています。ソケットサーバーは、IO 多重化、マルチスレッド、マルチプロセスをサポートするモジュールです。通常、socketserver サーバー コードに次の文を書きます:

リーリー

ThreadingTCPServerこのクラスは、マルチスレッドと TCP プロトコルをサポートするソケットサーバーです。その継承関係は次のとおりです。 クラス ThreadingTCPServer(ThreadingMixIn, TCPServer): pass

右側の TCPServer は実際にその主要な機能親クラスですが、左側の ThreadingMixIn はマルチスレッドを実装するクラスであり、それ自体にはコードがありません。

MixIn は Python のクラス命名で非常に一般的で、一般に「ミックスイン」または冗談めかして「ミックスイン」と呼ばれ、いくつかの重要な関数のサブクラスに継承されます。

リーリー
ThreadingMixIn クラスには、実際には 1 つの属性と 2 つのメソッドが定義されています。 process_request メソッドで実際に呼び出されるのは、Python の組み込みマルチスレッド モジュールのスレッド処理です。このモジュールは Python のすべてのマルチスレッドの基礎であり、socketserver は基本的にこのモジュールを利用します。

1. スレッド

リーリー
上の段落を読む必要はありません。例えば、メーカーがある製品を生産したい場合、生産拠点に多くの工場を建設し、各工場には複数の生産ラインが存在します。すべての工場が協力して製品全体を生産し、ある工場のすべての組立ラインはその工場が担当する製品の一部を生産します。各工場には独自の材料ライブラリがあり、工場内の生産ラインはこれらの材料を共有します。生産を実現するには、すべてのメーカーが少なくとも 1 つの工場建物と 1 つの生産ラインを持たなければなりません。このメーカーはアプリケーションであり、各工場はプロセスであり、各生産ラインはスレッドです。

1.1 通常のマルチスレッド

Python では、スレッド モジュールはスレッド機能を提供します。これにより、プロセス内で複数のスレッドを簡単に作成できます。以下に例を示します:

リーリー
上記のコードは 10 個の「フォアグラウンド」スレッドを作成し、その後コントローラーが CPU に渡され、CPU は指定されたアルゴリズムに従ってスケジュールを設定し、命令をスライスで実行します。


Thread クラスの主なメソッドは次のとおりです:

開始スレッドの準備が整い、CPU スケジューリングを待機しています

setName はスレッドの名前を設定します
getName スレッド名を取得します
setDaemon はバックグラウンド スレッドまたはフォアグラウンド スレッド (デフォルト) に設定します
バックグラウンド スレッドの場合、メイン スレッドの実行中にバックグラウンド スレッドも実行され、メイン スレッドの実行が完了すると、成功または失敗に関係なくバックグラウンド スレッドが停止します。フォアグラウンド スレッドの場合、メイン スレッドの実行中、フォアグラウンド スレッドも実行中です。メイン スレッドの実行が完了すると、プログラムはフォアグラウンド スレッドの実行が完了するのを待って停止します。
join は各スレッドを 1 つずつ実行し、完了後に実行を継続します。このメソッドではマルチスレッドが意味を持ちません。
実行スレッドは、CPU によってスケジュールされた後、スレッド オブジェクトの run メソッドを自動的に実行します。

1.2 カスタムスレッドクラス

スレッドモジュールの Thread クラスの場合、基本的にその run メソッドが実行されます。したがって、スレッド クラスをカスタマイズし、Thread クラスを継承させて、run メソッドをオーバーライドできます。

リーリー

1.3 スレッドロック

CPU がタスクを実行するとき、タスクはスレッド間でランダムにスケジュールされ、各スレッドは n 個のコードのみを実行し、その後別のスレッドの実行に切り替わります。リソースとデータはプロセス内の複数のスレッド間で共有されるため、リソースの取得やダーティ データが容易に発生する可能性があるため、特定の時点で 1 つのスレッドのみが指定されたデータにアクセスすることを制限するロックの概念があります。

1.3.1 ロックは使用されません


リーリー
上記のコードを実行すると、結果は次のようになります:

リーリー
スレッドが同時にデータにアクセスするため、誤った結果が生成されることがわかります。この問題を解決するために、Python はスレッド モジュールでいくつかのスレッド ロック クラスを定義します。

ロック 通常のロック(ネスト不可)
  1. RLock 一般的に使用される共通ロック (ネスト可能)
  2. セマフォ、セマフォ
  3. イベントイベント
  4. 状態コンディション

1.3.2 通常のロックとRLock


クラス名: Lock または RLock


通常のロック (ミューテックス ロックとも呼ばれます) は排他的であり、同時に解放されるスレッドは 1 つだけです。

リーリー

上記は、ネストされたロックをサポートしていないスレッド モジュールの Lock クラスです。 RLcok クラスの使用法は Lock とまったく同じですが、ネストがサポートされているため、通常は RLcok クラスを直接使用します。

1.3.3 セマフォ


クラス名: BoundedSemaphore


この種のロックでは、一定数のスレッドが同時にデータを変更できますが、ミューテックス ロックではありません。例えば、地下鉄の保安検査場では、多くの人が列をなしていますが、係員は一定の人数だけ保安検査場への入場を許可し、それ以外の人は列に並び続けます。

リーリー

1.3.4 事件(Event)

类名:Event

事件主要提供了三个方法 set、wait、clear。

事件机制:全局定义了一个“Flag”,如果“Flag”的值为False,那么当程序执行wait方法时就会阻塞,如果“Flag”值为True,那么wait方法时便不再阻塞。这种锁,类似交通红绿灯(默认是红灯),它属于在红灯的时候一次性阻挡所有线程,在绿灯的时候,一次性放行所有的排队中的线程。
clear:将“Flag”设置为False
set:将“Flag”设置为True

import threading

def func(e,i):
  print(i)
  e.wait() # 检测当前event是什么状态,如果是红灯,则阻塞,如果是绿灯则继续往下执行。默认是红灯。
  print(i+100)

event = threading.Event()
for i in range(10):
  t = threading.Thread(target=func, args=(event, i))
  t.start()

event.clear() # 主动将状态设置为红灯
inp = input(">>>")
if inp == "1":
  event.set() # 主动将状态设置为绿灯

ログイン後にコピー

1.3.5 条件(condition)

类名:Condition

该机制会使得线程等待,只有满足某条件时,才释放n个线程。

import threading

def condition():
  ret = False
  r = input(">>>")
  if r == "yes":
    ret = True
  return ret

def func(conn, i):
  print(i)
  conn.acquire()
  conn.wait_for(condition) # 这个方法接受一个函数的返回值
  print(i+100)
  conn.release()

c = threading.Condition()
for i in range(10):
  t = threading.Thread(target=func, args=(c, i,))
  t.start()

ログイン後にコピー

上面的例子,每输入一次“yes”放行了一个线程。下面这个,可以选择一次放行几个线程。

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import threading

def run(n):
  con.acquire()
  con.wait()
  print("run the thread: %s" %n)
  con.release()

if __name__ == '__main__':

  con = threading.Condition()
  for i in range(10):
    t = threading.Thread(target=run, args=(i,))
    t.start()

  while True:
    inp = input('>>>')
    if inp == "q":
      break
    # 下面这三行是固定语法
    con.acquire()
    con.notify(int(inp)) # 这个方法接收一个整数,表示让多少个线程通过
    con.release()

ログイン後にコピー

1.3 全局解释器锁(GIL)

既然介绍了多线程和线程锁,那就不得不提及python的GIL,也就是全局解释器锁。在编程语言的世界,python因为GIL的问题广受诟病,因为它在解释器的层面限制了程序在同一时间只有一个线程被CPU实际执行,而不管你的程序里实际开了多少条线程。所以我们经常能发现,python中的多线程编程有时候效率还不如单线程,就是因为这个原因。那么,对于这个GIL,一些普遍的问题如下:

每种编程语言都有GIL吗?

以python官方Cpython解释器为代表....其他语言好像未见。

为什么要有GIL?

作为解释型语言,Python的解释器必须做到既安全又高效。我们都知道多线程编程会遇到的问题。解释器要留意的是避免在不同的线程操作内部共享的数据。同时它还要保证在管理用户线程时总是有最大化的计算资源。那么,不同线程同时访问时,数据的保护机制是怎样的呢?答案是解释器全局锁GIL。GIL对诸如当前线程状态和为垃圾回收而用的堆分配对象这样的东西的访问提供着保护。

为什么不能去掉GIL?

首先,在早期的python解释器依赖较多的全局状态,传承下来,使得想要移除当今的GIL变得更加困难。其次,对于程序员而言,仅仅是想要理解它的实现就需要对操作系统设计、多线程编程、C语言、解释器设计和CPython解释器的实现有着非常彻底的理解。

在1999年,针对Python1.5,一个“freethreading”补丁已经尝试移除GIL,用细粒度的锁来代替。然而,GIL的移除给单线程程序的执行速度带来了一定的负面影响。当用单线程执行时,速度大约降低了40%。虽然使用两个线程时在速度上得到了提高,但这个提高并没有随着核数的增加而线性增长。因此这个补丁没有被采纳。

另外,在python的不同解释器实现中,如PyPy就移除了GIL,其执行速度更快(不单单是去除GIL的原因)。然而,我们通常使用的CPython占有着统治地位的使用量,所以,你懂的。

在Python 3.2中实现了一个新的GIL,并且带着一些积极的结果。这是自1992年以来,GIL的一次最主要改变。旧的GIL通过对Python指令进行计数来确定何时放弃GIL。在新的GIL实现中,用一个固定的超时时间来指示当前的线程以放弃这个锁。在当前线程保持这个锁,且当第二个线程请求这个锁的时候,当前线程就会在5ms后被强制释放掉这个锁(这就是说,当前线程每5ms就要检查其是否需要释放这个锁)。当任务是可行的时候,这会使得线程间的切换更加可预测。

GIL对我们有什么影响?

最大的影响是我们不能随意使用多线程。要区分任务场景。

在单核cpu情况下对性能的影响可以忽略不计,多线程多进程都差不多。在多核CPU时,多线程效率较低。GIL对单进程和多进程没有影响。

在实际使用中有什么好的建议?

建议在IO密集型任务中使用多线程,在计算密集型任务中使用多进程。深入研究python的协程机制,你会有惊喜的。

更多的详细介绍和说明请参考下面的文献:

原文:Python's Hardest Problem
译文:Python 最难的问题

1.4 定时器(Timer)

定时器,指定n秒后执行某操作。很简单但很使用的东西。

from threading import Timer
def hello():
  print("hello, world")
t = Timer(1, hello) # 表示1秒后执行hello函数
t.start() 
ログイン後にコピー

1.5 队列

通常而言,队列是一种先进先出的数据结构,与之对应的是堆栈这种后进先出的结构。但是在python中,它内置了一个queue模块,它不但提供普通的队列,还提供一些特殊的队列。具体如下:

  1. queue.Queue :先进先出队列
  2. queue.LifoQueue :后进先出队列
  3. queue.PriorityQueue :优先级队列
  4. queue.deque :双向队列

1.5.1 Queue:先进先出队列

这是最常用也是最普遍的队列,先看一个例子。

import queue
q = queue.Queue(5)
q.put(11)
q.put(22)
q.put(33)

print(q.get())
print(q.get())
print(q.get())

ログイン後にコピー

Queue类的参数和方法:

maxsize 队列的最大元素个数,也就是queue.Queue(5)中的5。当队列内的元素达到这个值时,后来的元素默认会阻塞,等待队列腾出位置。

def __init__(self, maxsize=0):
self.maxsize = maxsize
self._init(maxsize)
ログイン後にコピー

qsize() 获取当前队列中元素的个数,也就是队列的大小
empty() 判断当前队列是否为空,返回True或者False
full() 判断当前队列是否已满,返回True或者False
put(self, block=True, timeout=None)

往队列里放一个元素,默认是阻塞和无时间限制的。如果,block设置为False,则不阻塞,这时,如果队列是满的,放不进去,就会弹出异常。如果timeout设置为n秒,则会等待这个秒数后才put,如果put不进去则弹出异常。

get(self, block=True, timeout=None)

从队列里获取一个元素。参数和put是一样的意思。

join() 阻塞进程,直到所有任务完成,需要配合另一个方法task_done。

def join(self):
  with self.all_tasks_done:
    while self.unfinished_tasks:
      self.all_tasks_done.wait()
ログイン後にコピー

task_done() 表示某个任务完成。每一条get语句后需要一条task_done。

import queue
q = queue.Queue(5)
q.put(11)
q.put(22)
print(q.get())
q.task_done()
print(q.get())
q.task_done()
q.join()
ログイン後にコピー

1.5.2 LifoQueue:后进先出队列

类似于“堆栈”,后进先出。也较常用。

import queue
q = queue.LifoQueue()
q.put(123)
q.put(456)
print(q.get())
ログイン後にコピー

上述代码运行结果是:456

1.5.3 PriorityQueue:优先级队列

带有权重的队列,每个元素都是一个元组,前面的数字表示它的优先级,数字越小优先级越高,同样的优先级先进先出

q = queue.PriorityQueue()
q.put((1,"alex1"))
q.put((1,"alex2"))
q.put((1,"alex3"))
q.put((3,"alex3"))
print(q.get())
ログイン後にコピー

1.5.4 deque:双向队列

Queue和LifoQueue的“综合体”,双向进出。方法较多,使用复杂,慎用!

q = queue.deque()
q.append(123)
q.append(333)
q.appendleft(456)
q.pop()
q.popleft()
ログイン後にコピー

1.6 生产者消费者模型

利用多线程和队列可以搭建一个生产者消费者模型,用于处理大并发的服务。

在并发编程中使用生产者和消费者模式能够解决绝大多数并发问题。该模式通过平衡生产线程和消费线程的工作能力来提高程序的整体处理数据的速度。

为什么要使用生产者和消费者模式

在线程世界里,生产者就是生产数据的线程,消费者就是消费数据的线程。在多线程开发当中,如果生产者处理速度很快,而消费者处理速度很慢,那么生产者就必须等待消费者处理完,才能继续生产数据。同样的道理,如果消费者的处理能力大于生产者,那么消费者就必须等待生产者。为了解决这个问题于是引入了生产者和消费者模式。

什么是生产者消费者模式

生产者消费者模式是通过一个容器来解决生产者和消费者的强耦合问题。生产者和消费者彼此之间不直接通讯,而通过阻塞队列来进行通讯,所以生产者生产完数据之后不用等待消费者处理,直接扔给阻塞队列,消费者不找生产者要数据,而是直接从阻塞队列里取,阻塞队列就相当于一个缓冲区,平衡了生产者和消费者的处理能力。

这个阻塞队列就是用来给生产者和消费者解耦的。纵观大多数设计模式,都会找一个第三者出来进行解耦,如工厂模式的第三者是工厂类,模板模式的第三者是模板类。在学习一些设计模式的过程中,如果先找到这个模式的第三者,能帮助我们快速熟悉一个设计模式。

以上摘自方腾飞的《聊聊并发——生产者消费者模式》

下面是一个简单的厨师做包子,顾客吃包子的例子。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:Liu Jiang
import time
import queue
import threading

q = queue.Queue(10)
def productor(i):
  while True:
    q.put("厨师 %s 做的包子!"%i)
    time.sleep(2)

def consumer(k):
  while True:
    print("顾客 %s 吃了一个 %s"%(k,q.get()))
    time.sleep(1)

for i in range(3):
  t = threading.Thread(target=productor,args=(i,))
  t.start()

for k in range(10):
  v = threading.Thread(target=consumer,args=(k,))
  v.start()

ログイン後にコピー

1.7 线程池

在使用多线程处理任务时也不是线程越多越好,由于在切换线程的时候,需要切换上下文环境,依然会造成cpu的大量开销。为解决这个问题,线程池的概念被提出来了。预先创建好一个较为优化的数量的线程,让过来的任务立刻能够使用,就形成了线程池。在python中,没有内置的较好的线程池模块,需要自己实现或使用第三方模块。下面是一个简单的线程池:

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:Liu Jiang

import queue
import time
import threading

class MyThreadPool:
  def __init__(self, maxsize=5):
    self.maxsize = maxsize
    self._q = queue.Queue(maxsize)
    for i in range(maxsize):
      self._q.put(threading.Thread)
      
  def get_thread(self):
    return self._q.get()
    
  def add_thread(self):
    self._q.put(threading.Thread)

def task(i, pool):
  print(i)
  time.sleep(1)
  pool.add_thread()

pool = MyThreadPool(5)
for i in range(100):
  t = pool.get_thread()
  obj = t(target=task, args=(i,pool))
  obj.start()

ログイン後にコピー

上面的例子是把线程类当做元素添加到队列内。实现方法比较糙,每个线程使用后就被抛弃,一开始就将线程开到满,因此性能较差。下面是一个相对好一点的例子:

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import queue
import threading
import contextlib
import time

StopEvent = object() # 创建空对象

class ThreadPool(object):

  def __init__(self, max_num, max_task_num = None):
    if max_task_num:
      self.q = queue.Queue(max_task_num)
    else:
      self.q = queue.Queue()
    self.max_num = max_num
    self.cancel = False
    self.terminal = False
    self.generate_list = []
    self.free_list = []

  def run(self, func, args, callback=None):
    """
    线程池执行一个任务
    :param func: 任务函数
    :param args: 任务函数所需参数
    :param callback: 任务执行失败或成功后执行的回调函数,回调函数有两个参数1、任务函数执行状态;2、任务函数返回值(默认为None,即:不执行回调函数)
    :return: 如果线程池已经终止,则返回True否则None
    """
    if self.cancel:
      return
    if len(self.free_list) == 0 and len(self.generate_list) < self.max_num:
      self.generate_thread()
    w = (func, args, callback,)
    self.q.put(w)

  def generate_thread(self):
    """
    创建一个线程
    """
    t = threading.Thread(target=self.call)
    t.start()

  def call(self):
    """
    循环去获取任务函数并执行任务函数
    """
    current_thread = threading.currentThread
    self.generate_list.append(current_thread)

    event = self.q.get()
    while event != StopEvent:

      func, arguments, callback = event
      try:
        result = func(*arguments)
        success = True
      except Exception as e:
        success = False
        result = None

      if callback is not None:
        try:
          callback(success, result)
        except Exception as e:
          pass

      with self.worker_state(self.free_list, current_thread):
        if self.terminal:
          event = StopEvent
        else:
          event = self.q.get()
    else:

      self.generate_list.remove(current_thread)

  def close(self):
    """
    执行完所有的任务后,所有线程停止
    """
    self.cancel = True
    full_size = len(self.generate_list)
    while full_size:
      self.q.put(StopEvent)
      full_size -= 1

  def terminate(self):
    """
    无论是否还有任务,终止线程
    """
    self.terminal = True

    while self.generate_list:
      self.q.put(StopEvent)

    self.q.empty()

  @contextlib.contextmanager
  def worker_state(self, state_list, worker_thread):
    """
    用于记录线程中正在等待的线程数
    """
    state_list.append(worker_thread)
    try:
      yield
    finally:
      state_list.remove(worker_thread)

# How to use
pool = ThreadPool(5)

def callback(status, result):
  # status, execute action status
  # result, execute action return value
  pass

def action(i):
  print(i)

for i in range(30):
  ret = pool.run(action, (i,), callback)

time.sleep(5)
print(len(pool.generate_list), len(pool.free_list))
print(len(pool.generate_list), len(pool.free_list))
# pool.close()
# pool.terminate()

ログイン後にコピー

二、进程

在python中multiprocess模块提供了Process类,实现进程相关的功能。但是,由于它是基于fork机制的,因此不被windows平台支持。想要在windows中运行,必须使用if __name__ == '__main__:的方式,显然这只能用于调试和学习,不能用于实际环境。

(PS:在这里我必须吐槽一下python的包、模块和类的组织结构。在multiprocess中你既可以import大写的Process,也可以import小写的process,这两者是完全不同的东西。这种情况在python中很多,新手容易傻傻分不清。)

下面是一个简单的多进程例子,你会发现Process的用法和Thread的用法几乎一模一样。

from multiprocessing import Process

def foo(i):
  print("This is Process ", i)

if __name__ == '__main__':
  for i in range(5):
    p = Process(target=foo, args=(i,))
    p.start()

ログイン後にコピー

2.1 进程的数据共享

每个进程都有自己独立的数据空间,不同进程之间通常是不能共享数据,创建一个进程需要非常大的开销。

from multiprocessing import Process
list_1 = []
def foo(i):
  list_1.append(i)
  print("This is Process ", i," and list_1 is ", list_1)

if __name__ == '__main__':
  for i in range(5):
    p = Process(target=foo, args=(i,))
    p.start()

  print("The end of list_1:", list_1)

ログイン後にコピー

运行上面的代码,你会发现列表list_1在各个进程中只有自己的数据,完全无法共享。想要进程之间进行资源共享可以使用queues/Array/Manager这三个multiprocess模块提供的类。

2.1.1 使用Array共享数据

from multiprocessing import Process
from multiprocessing import Array

def Foo(i,temp):
  temp[0] += 100
  for item in temp:
    print(i,'----->',item)

if __name__ == '__main__':
  temp = Array('i', [11, 22, 33, 44])
  for i in range(2):
    p = Process(target=Foo, args=(i,temp))
    p.start()

ログイン後にコピー

对于Array数组类,括号内的“i”表示它内部的元素全部是int类型,而不是指字符i,列表内的元素可以预先指定,也可以指定列表长度。概括的来说就是Array类在实例化的时候就必须指定数组的数据类型和数组的大小,类似temp = Array('i', 5)。对于数据类型有下面的表格对应:

'c': ctypes.c_char, 'u': ctypes.c_wchar,
'b': ctypes.c_byte, 'B': ctypes.c_ubyte,
'h': ctypes.c_short, 'H': ctypes.c_ushort,
'i': ctypes.c_int, 'I': ctypes.c_uint,
'l': ctypes.c_long, 'L': ctypes.c_ulong,
'f': ctypes.c_float, 'd': ctypes.c_double

2.1.2 使用Manager共享数据

from multiprocessing import Process,Manager

def Foo(i,dic):
  dic[i] = 100+i
  print(dic.values())

if __name__ == '__main__':
  manage = Manager()
  dic = manage.dict()
  for i in range(10):
    p = Process(target=Foo, args=(i,dic))
    p.start()
    p.join()

ログイン後にコピー

Manager比Array要好用一点,因为它可以同时保存多种类型的数据格式。

2.1.3 使用queues的Queue类共享数据

import multiprocessing
from multiprocessing import Process
from multiprocessing import queues

def foo(i,arg):
  arg.put(i)
  print('The Process is ', i, "and the queue's size is ", arg.qsize())

if __name__ == "__main__":
  li = queues.Queue(20, ctx=multiprocessing)
  for i in range(10):
    p = Process(target=foo, args=(i,li,))
    p.start()

ログイン後にコピー

这里就有点类似上面的队列了。从运行结果里,你还能发现数据共享中存在的脏数据问题。另外,比较悲催的是multiprocessing里还有一个Queue,一样能实现这个功能。

2.2 进程锁

为了防止和多线程一样的出现数据抢夺和脏数据的问题,同样需要设置进程锁。与threading类似,在multiprocessing里也有同名的锁类RLock, Lock, Event, Condition, Semaphore,连用法都是一样样的!(这个我喜欢)

from multiprocessing import Process
from multiprocessing import queues
from multiprocessing import Array
from multiprocessing import RLock, Lock, Event, Condition, Semaphore
import multiprocessing
import time

def foo(i,lis,lc):
  lc.acquire()
  lis[0] = lis[0] - 1
  time.sleep(1)
  print('say hi',lis[0])
  lc.release()

if __name__ == "__main__":
  # li = []
  li = Array('i', 1)
  li[0] = 10
  lock = RLock()
  for i in range(10):
    p = Process(target=foo,args=(i,li,lock))
    p.start()

ログイン後にコピー

2.3 进程池

既然有线程池,那必然也有进程池。但是,python给我们内置了一个进程池,不需要像线程池那样需要自定义,你只需要简单的from multiprocessing import Pool。

#!/usr/bin/env python
# -*- coding:utf-8 -*-
from multiprocessing import Pool
import time

def f1(args):
  time.sleep(1)
  print(args)

if __name__ == '__main__':
  p = Pool(5)
  for i in range(30):
    p.apply_async(func=f1, args= (i,))
  p.close()      # 等子进程执行完毕后关闭线程池
  # time.sleep(2)
  # p.terminate()   # 立刻关闭线程池
  p.join()

ログイン後にコピー

进程池内部维护一个进程序列,当使用时,去进程池中获取一个进程,如果进程池序列中没有可供使用的进程,那么程序就会等待,直到进程池中有可用进程为止。

进程池中有以下几个主要方法:

  1. apply:从进程池里取一个进程并执行
  2. apply_async:apply的异步版本
  3. terminate:立刻关闭线程池
  4. join:主进程等待所有子进程执行完毕,必须在close或terminate之后
  5. close:等待所有进程结束后,才关闭线程池

三、协程

线程和进程的操作是由程序触发系统接口,最后的执行者是系统,它本质上是操作系统提供的功能。而协程的操作则是程序员指定的,在python中通过yield,人为的实现并发处理。

协程存在的意义:对于多线程应用,CPU通过切片的方式来切换线程间的执行,线程切换时需要耗时。协程,则只使用一个线程,分解一个线程成为多个“微线程”,在一个线程中规定某个代码块的执行顺序。

协程的适用场景:当程序中存在大量不需要CPU的操作时(IO)。

在不需要自己“造轮子”的年代,同样有第三方模块为我们提供了高效的协程,这里介绍一下greenlet和gevent。本质上,gevent是对greenlet的高级封装,因此一般用它就行,这是一个相当高效的模块。

在使用它们之前,需要先安装,可以通过源码,也可以通过pip。

3.1 greenlet

from greenlet import greenlet

def test1():
  print(12)
  gr2.switch()
  print(34)
  gr2.switch()

def test2():
  print(56)
  gr1.switch()
  print(78)

gr1 = greenlet(test1)
gr2 = greenlet(test2)
gr1.switch()

ログイン後にコピー

实际上,greenlet就是通过switch方法在不同的任务之间进行切换。

3.2 gevent

from gevent import monkey; monkey.patch_all()
import gevent
import requests

def f(url):
  print('GET: %s' % url)
  resp = requests.get(url)
  data = resp.text
  print('%d bytes received from %s.' % (len(data), url))

gevent.joinall([
    gevent.spawn(f, 'https://www.python.org/'),
    gevent.spawn(f, 'https://www.yahoo.com/'),
    gevent.spawn(f, 'https://github.com/'),
])

ログイン後にコピー

通过joinall将任务f和它的参数进行统一调度,实现单线程中的协程。代码封装层次很高,实际使用只需要了解它的几个主要方法即可。

ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート