队列集
asyncio 队列被设计成与 queue 模块类似。尽管 asyncio队列不是线程安全的,但是他们是被设计专用于 async/await 代码。
注意asyncio 的队列没有 timeout 形参;请使用 asyncio.wait_for() 函数为队列添加超时操作。
参见下面的 Examples 部分。
Queue
class asyncio.Queue(maxsize=0)
先进,先出(FIFO)队列
如果 maxsize 小于等于零,则队列尺寸是无限的。如果是大于 0
的整数,则当队列达到 maxsize 时, await put()
将阻塞至某个元素被 get() 取出。
不像标准库中的并发型 queue ,队列的尺寸一直是已知的,可以通过调用 qsize() 方法返回。
在 3.10 版更改: 移除了 loop 形参。
这个类不是线程安全的(not thread safe)。
maxsize
队列中可存放的元素数量。
empty()
如果队列为空返回
True
,否则返回False
。full()
如果有 maxsize 个条目在队列中,则返回
True
。如果队列用
maxsize=0
(默认)初始化,则 full() 永远不会返回True
。coroutine get()
从队列中删除并返回一个元素。如果队列为空,则等待,直到队列中有元素。
get_nowait()
立即返回一个队列中的元素,如果队列内有值,否则引发异常 QueueEmpty 。
coroutine join()
阻塞至队列中所有的元素都被接收和处理完毕。
当条目添加到队列的时候,未完成任务的计数就会增加。每当消费协程调用 task_done() 表示这个条目已经被回收,该条目所有工作已经完成,未完成计数就会减少。当未完成计数降到零的时候, join() 阻塞被解除。
coroutine put(item)
添加一个元素进队列。如果队列满了,在添加元素之前,会一直等待空闲插槽可用。
put_nowait(item)
不阻塞的放一个元素入队列。
如果没有立即可用的空闲槽,引发 QueueFull 异常。
qsize()
返回队列用的元素数量。
task_done()
表明前面排队的任务已经完成,即get出来的元素相关操作已经完成。
由队列使用者控制。每个 get() 用于获取一个任务,任务最后调用 task_done() 告诉队列,这个任务已经完成。
如果 join() 当前正在阻塞,在所有条目都被处理后,将解除阻塞(意味着每个 put() 进队列的条目的 task_done() 都被收到)。
如果被调用的次数多于放入队列中的项目数量,将引发 ValueError 。
优先级队列
class asyncio.PriorityQueue
Queue 的变体;按优先级顺序取出条目 (最小的先取出)。
条目通常是 (priority_number, data)
形式的元组。
后进先出队列
class asyncio.LifoQueue
Queue 的变体,先取出最近添加的条目(后进,先出)。
异常
exception asyncio.QueueEmpty
当队列为空的时候,调用 get_nowait() 方法而引发这个异常。
exception asyncio.QueueFull
当队列中条目数量已经达到它的 maxsize 的时候,调用 put_nowait() 方法而引发的异常。
例子
队列能被用于多个的并发任务的工作量分配:
import asyncio
import random
import time
async def worker(name, queue):
while True:
# Get a "work item" out of the queue.
sleep_for = await queue.get()
# Sleep for the "sleep_for" seconds.
await asyncio.sleep(sleep_for)
# Notify the queue that the "work item" has been processed.
queue.task_done()
print(f'{name} has slept for {sleep_for:.2f} seconds')
async def main():
# Create a queue that we will use to store our "workload".
queue = asyncio.Queue()
# Generate random timings and put them into the queue.
total_sleep_time = 0
for _ in range(20):
sleep_for = random.uniform(0.05, 1.0)
total_sleep_time += sleep_for
queue.put_nowait(sleep_for)
# Create three worker tasks to process the queue concurrently.
tasks = []
for i in range(3):
task = asyncio.create_task(worker(f'worker-{i}', queue))
tasks.append(task)
# Wait until the queue is fully processed.
started_at = time.monotonic()
await queue.join()
total_slept_for = time.monotonic() - started_at
# Cancel our worker tasks.
for task in tasks:
task.cancel()
# Wait until all worker tasks are cancelled.
await asyncio.gather(*tasks, return_exceptions=True)
print('====')
print(f'3 workers slept in parallel for {total_slept_for:.2f} seconds')
print(f'total expected sleep time: {total_sleep_time:.2f} seconds')
asyncio.run(main())