举例详解Python中yield生成器的用法
yield是生成的意思,但是在python中则是作为生成器理解,生成器的用处主要可以迭代,这样简化了很多运算模型(还不是很了解是如何简化的)。 >>> def mygenerator(): ... print 'start...' ... yield 5 ... >>> mygenerator() //在此处调用,并没有打印出start...说明存在yield的函数没有被运行,即暂停 <generator object mygenerator at 0xb762502c> >>> mygenerator().next() //调用next()即可让函数运行. start... 5 >>> 如一个函数中出现多个yield则next()会停止在下一个yield前,见例2: >>> def mygenerator(): ... print 'start...' ... yield 5 ... >>> mygenerator() //在此处调用,即暂停 <generator object mygenerator at 0xb762502c> >>> mygenerator().next() //调用next()即可让函数运行. start... 5 >>> 为什么yield 5会输出5,yield 23会输出23? >>> def fun(): ... print 'start...' ... m = yield 5 ... print m ... print 'middle...' ... d = yield 12 ... print d ... print 'end...' ... >>> m = fun() //创建一个对象 >>> m.next() //会使函数执行到下一个yield前 start... 5 >>> m.send('message') //利用send()传递值 message //send()传递进来的 middle... 12 >>> m.next() None //可见next()返回值为空 end... Traceback (most recent call last): File "<stdin>",line 1,in <module> StopIteration 在multiprocess中的使用
但同时如我们所知,generoter看似只能被单进程消费,这样效率很低。 看一下pool.py的源码。 for i,task in enumerate(taskseq): ... try: put(task) except IOError: debug('could not put task on queue') break 实际是先将generator全部消费掉放到queue中。然后通过map来并行。这样是解决了使用map来并行。 但是依然没有解决占用内存的问题。这里有两步占用内存。
解决第一个问题,通过部分消费generator来达到。 示例代码如下: import multiprocessing as mp import itertools import time def g(): for el in xrange(50): print el yield el import os def f(x): time.sleep(1) print str(os.getpid()) +" "+ str(x) return x * x if __name__ == '__main__': pool = mp.Pool(processes=4) # start 4 worker processes go = g() result = [] N = 11 while True: g2 = pool.imap(f,itertools.islice(go,N)) if g2: for i in g2: result.append(i) time.sleep(1) else: break print(result) ps: 使用注意事项。在produce数据的时候,尽量少做操作,应为即使是map也是单线程的来消费数据。所以尽量把操作放到map中作。这样才能更好的利用多进程提高效率。 (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |