速度
CPython作为最流行的Python环境,对于CPU密集型任务(CPU bound tasks)较慢,而 PyPy 则较快。
使用稍作改动的 David Beazley的 CPU密集测试代码(增加了循环进行多轮测试),您可以看到CPython与PyPy之间的执行差距。
- # PyPy
- $ ./pypy -V
- Python 2.7.1 (7773f8fc4223, Nov 18 2011, 18:47:10)
- [PyPy 1.7.0 with GCC 4.4.3]
- $ ./pypy measure2.py
- 0.0683999061584
- 0.0483210086823
- 0.0388588905334
- 0.0440690517426
- 0.0695300102234
- # CPython
- $ ./python -V
- Python 2.7.1
- $ ./python measure2.py
- 1.06774401665
- 1.45412397385
- 1.51485204697
- 1.54693889618
- 1.60109114647
Context
The GIL
GIL (全局解释器锁)是Python支持多线程并行操作的方式。Python的内存管理不是线程安全的,所以GIL被创造出来避免多线程同时运行同一个Python代码。
David Beazley 有一个关于GIL如何工作的 指导 。他也讨论了 Python3.2中的 新GIL他的结论是为了最大化一个Python程序的性能,应该对GIL工作方式有一个深刻的理解 ———它如何影响您的特定程序,您拥有多少核,以及您程序瓶颈在哪。
C 扩展
GIL
当写一个C扩展时必须 特别关注 在解释器中注册您的线程。
C 扩展
Cython
Cython 是Python语言的一个超集,对其您可以为Python写C或C++模块。Cython也使得您可以从已编译的C库中调用函数。使用Cython让您得以发挥Python的变量与操作的强类型优势。
这是一个Cython中的强类型例子。
- def primes(int kmax):
- """有一些Cython附加关键字的素数计算 """
- cdef int n, k, i
- cdef int p[1000]
- result = []
- if kmax > 1000:
- kmax = 1000
- k = 0
- n = 2
- while k < kmax:
- i = 0
- while i < k and n % p[i] != 0:
- i = i + 1
- if i == k:
- p[k] = n
- k = k + 1
- result.append(n)
- n = n + 1
- return result
将这个有一些附加关键字的寻找素数算法实现与下面这个纯Python实现比较:
- def primes(kmax):
- """标准Python语法下的素数计算"""
- p = range(1000)
- result = []
- if kmax > 1000:
- kmax = 1000
- k = 0
- n = 2
- while k < kmax:
- i = 0
- while i < k and n % p[i] != 0:
- i = i + 1
- if i == k:
- p[k] = n
- k = k + 1
- result.append(n)
- n = n + 1
- return result
注意,在Cython版本,在创建一个Python列表时,您声明了会被编译为C类型的整型和整型数组。
- def primes(int kmax):
- """有一些Cython附加关键字的素数计算 """
- cdef int n, k, i
- cdef int p[1000]
- result = []
- def primes(kmax):
- """标准Python语法下的素数计算"""
- p = range(1000)
- result = []
有什么差别呢?在上面的Cython版本中,您可以看到变量类型与整型数组像标准C一样被声明。作为例子,第三行的 cdef int n,k,i 这个附加类型声明(整型)使得Cython编译器得以产生比第二个版本更有效率的C代码。标准Python代码以 *.py 格式保存,而 Cython 以 *.pyx 格式保存。
速度上有什么差异呢?看看这个!
- import time
- #启动pyx编译器
- import pyximport
- pyximport.install()
- #Cython的素数算法实现
- import primesCy
- #Python的素数算法实现
- import primes
- print "Cython:"
- t1= time.time()
- print primesCy.primes(500)
- t2= time.time()
- print "Cython time: %s" %(t2-t1)
- print ""
- print "Python"
- t1= time.time()
- print primes.primes(500)
- t2= time.time()
- print "Python time: %s" %(t2-t1)
这两行代码需要一些说明:
- import pyximport
- pyximport.install()
pyximport 使得您可以导入 *.pyx 文件,(像 primesCy.pyx 这样的)。pyximport.install() 命令使Python解释器可以打开Cython编译器直接编译出 *.so 格式的C库。Cython之后可以导入这个库到您的Python代码中,简便而有效。使用 time.time() 函数您可以比较两个不同的在查找500个素数的调用长的时间消耗差异。在一个标准笔记本中(双核AMD E-450 1.6GHz),测量值是这样的:
- Cython time: 0.0054 seconds
- Python time: 0.0566 seconds
而这个是嵌入的 ARM beaglebone 机的输出结果:
- Cython time: 0.0196 seconds
- Python time: 0.3302 seconds
Pyrex
Shedskin?
Concurrency
Concurrent.futures
concurrent.futures 模块是标准库中的一个模块,它提供了一个“用于异步调用的高级接口”。它抽象了许多关于使用多个线程或进程并发的更复杂的细节,并允许用户专注于完成手头的任务。
concurrent.futures 模块提供了两个主要的类,即 ThreadPoolExecutor 和 ProcessPoolExecutor 。ThreadPoolExecutor将创建一个用户可以提交作业的工作线程池。当下一个工作线程可用时,这些作业将在另一个线程中执行。
ProcessPoolExecutor以相同的方式工作,它使用多进程而不是多线程作为工作池。这就可以避开GIL的问题,但是由于传递参数给工作进程的工作原理,只有可序列化的对象可以执行并返回。
由于GIL的工作原理,一个很好的经验法则是当执行涉及很多阻塞(如通过网络发出请求)的任务时使用ThreadPoolExecutor,而对高计算开销的任务使用ProcessPoolExecutor执行器。
使用两个执行器并行执行有两个主要方法。一个是使用 map(func, iterables) 方法。这个函数除了能并行执行一切,它几乎和内置的 map() 函数一模一样 :
- from concurrent.futures import ThreadPoolExecutor
- import requests
- def get_webpage(url):
- page = requests.get(url)
- return page
- pool = ThreadPoolExecutor(max_workers=5)
- my_urls = ['http://google.com/']*10 # Create a list of urls
- for page in pool.map(get_webpage, my_urls):
- # 处理结果
- print(page.text)
为了进一步的控制,submit(func, args, *kwargs) 方法将调度一个可执行的调用(如 func(args, *kwargs) ),并返回一个代表可调用的执行的 Future 对象。
Future对象提供了可用于检查计划可调用进程的各种方法。这些包括:
cancel() 尝试取消调用。cancelled() 如果调用被成功取消,返回True。running() 如果当前正在执行调用而且没被取消,则返回Truedone() 如果调用被成功取消或完成运行,返回True。result() 返回调用返回的值。请注意,此调用将阻塞到默认情况下调度的可调用对象的返回。exception() 返回调用抛出的异常。如果没有抛出异常,将返回 None 。请注意,这和 result() 一样会阻塞。adddone_callback(fn) 添加回调函数函数,在所调用的可调用对象执行返回时执行(如 _fn(future) )。 预定可回拨。
- from concurrent.futures import ProcessPoolExecutor, as_completed
- def is_prime(n):
- if n % 2 == 0:
- return n, False
- sqrt_n = int(n**0.5)
- for i in range(3, sqrt_n + 1, 2):
- if n % i == 0:
- return n, False
- return n, True
- PRIMES = [
- 112272535095293,
- 112582705942171,
- 112272535095293,
- 115280095190773,
- 115797848077099,
- 1099726899285419]
- futures = []
- with ProcessPoolExecutor(max_workers=4) as pool:
- # Schedule the ProcessPoolExecutor to check if a number is prime
- # and add the returned Future to our list of futures
- for p in PRIMES:
- fut = pool.submit(is_prime, p)
- futures.append(fut)
- # As the jobs are completed, print out the results
- for number, result in as_completed(futures):
- if result:
- print("{} is prime".format(number))
- else:
- print("{} is not prime".format(number))
concurrent.futures 模块包含两个帮助函数来处理Futures。as_completed(futures) 函数返回futures列表的的迭代器,在futures结束时yield。
而 wait(futures) 函数则简单地阻塞,直到列表中所有的futures完成。
有关使用 concurrent.futures 模块的更多信息,请参阅官方文档。
Threading
标准库带有一个 threading 模块,允许用户手动处理多个线程。
在另一个线程中运行一个函数就如传递一个可调用对象以及它的参数到 Thread 的构造函数中,然后调用 start() 一样简单:
- from threading import Thread
- import requests
- def get_webpage(url):
- page = requests.get(url)
- return page
- some_thread = Thread(get_webpage, 'http://google.com/')
- some_thread.start()
调用 join() 来等待线程终止:
- some_thread.join()
调用 join() 后,检查线程是否仍然存在(因为join调用超时)总是一个好主意:
- if some_thread.is_alive():
- print("join() must have timed out.")
- else:
- print("Our thread has terminated.")
由于多个线程可以访问相同的内存部分,有时可能会出现两个或多个线程尝试同时写入同一资源的情况,或者输出取决于某些事件的顺序或时序。 这被称为 数据竞争 或竞争条件。当这种情况发生时,输出将会出现乱码,或者可能会遇到难以调试的问题。 stackoverflow post 是个很好的例子。
可以避免的方法是每个线程在写入共享资源之前获取 Lock 。 锁可以通过环境上下文协议( with 语句)或直接使用 acquire() 和 release() 来获取和释放。以下是一个(颇有争议的)例子:
- from threading import Lock, Thread
- file_lock = Lock()
- def log(msg):
- with file_lock:
- open('website_changes.log', 'w') as f:
- f.write(changes)
- def monitor_website(some_website):
- """
- Monitor a website and then if there are any changes,
- log them to disk.
- """
- while True:
- changes = check_for_changes(some_website)
- if changes:
- log(changes)
- websites = ['http://google.com/', ... ]
- for website in websites:
- t = Thread(monitor_website, website)
- t.start()
在这里,我们有一堆线程检查站点列表中的更改,每当有任何更改时,它们尝试通过调用log(changes) 将这些更改写入文件。 当调用 log() 时,它在 with file_lock:处等待获取锁。 这样可以确保在任何时候只有一个线程正在写入文件。
Spawning Processes
Multiprocessing
原文: http://pythonguidecn.readthedocs.io/zh/latest/scenarios/speed.html