举例详解Python中yield生成器的用法
|
yield是生成的意思,但是在python中则是作为生成器理解,生成器的用处主要可以迭代,这样简化了很多运算模型(还不是很了解是如何简化的)。 >>> def mygenerator(): ... print 'start...' ... yield 5 ... >>> mygenerator() //在此处调用,并没有打印出start...说明存在yield的函数没有被运行,即暂停 <generator object mygenerator at 0xb762502c> >>> mygenerator().next() //调用next()即可让函数运行. start... 5 >>> 如一个函数中出现多个yield则next()会停止在下一个yield前,见例2: >>> def mygenerator(): ... print 'start...' ... yield 5 ... >>> mygenerator() //在此处调用,即暂停 <generator object mygenerator at 0xb762502c> >>> mygenerator().next() //调用next()即可让函数运行. start... 5 >>> 为什么yield 5会输出5,yield 23会输出23?
>>> def fun():
... print 'start...'
... m = yield 5
... print m
... print 'middle...'
... d = yield 12
... print d
... print 'end...'
...
>>> m = fun() //创建一个对象
>>> m.next() //会使函数执行到下一个yield前
start...
5
>>> m.send('message') //利用send()传递值
message //send()传递进来的
middle...
12
>>> m.next()
None //可见next()返回值为空
end...
Traceback (most recent call last):
File "<stdin>",line 1,in <module>
StopIteration
在multiprocess中的使用
但同时如我们所知,generoter看似只能被单进程消费,这样效率很低。 看一下pool.py的源码。
for i,task in enumerate(taskseq):
...
try:
put(task)
except IOError:
debug('could not put task on queue')
break
实际是先将generator全部消费掉放到queue中。然后通过map来并行。这样是解决了使用map来并行。 但是依然没有解决占用内存的问题。这里有两步占用内存。
解决第一个问题,通过部分消费generator来达到。 示例代码如下:
import multiprocessing as mp
import itertools
import time
def g():
for el in xrange(50):
print el
yield el
import os
def f(x):
time.sleep(1)
print str(os.getpid()) +" "+ str(x)
return x * x
if __name__ == '__main__':
pool = mp.Pool(processes=4) # start 4 worker processes
go = g()
result = []
N = 11
while True:
g2 = pool.imap(f,itertools.islice(go,N))
if g2:
for i in g2:
result.append(i)
time.sleep(1)
else:
break
print(result)
ps: 使用注意事项。在produce数据的时候,尽量少做操作,应为即使是map也是单线程的来消费数据。所以尽量把操作放到map中作。这样才能更好的利用多进程提高效率。 (编辑:安卓应用网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
