首先我们构造一个耗时足够久的服务器:
import tornado.gen import tornado.ioloop import tornado.web class MainHandler(tornado.web.RequestHandler): @tornado.gen.coroutine def get(self): yield tornado.gen.sleep(1) self.write("Hello, world/n") if __name__ == "__main__": application = tornado.web.Application([ (r"/", MainHandler), ]) application.listen(8888) tornado.ioloop.IOLoop.current().start()
每次请求都耗时一秒钟:
root@arch tests: nohup python test.py > /dev/null & [1] 15597 nohup: ignoring input and redirecting stderr to stdout root@arch tests: root@arch tests: ls sama test.py root@arch tests: root@arch tests: time curl localhost:8888 Hello, world real 0m1.018s user 0m0.000s sys 0m0.007s root@arch tests: time curl localhost:8888 Hello, world real 0m1.016s user 0m0.003s sys 0m0.003s
我们先来看代码:
import socket import time PORT = 8888 CHUNK_SIZE = 4096 def request(): sock = socket.socket() sock.connect(("", PORT)) sock.send(b"GET / HTTP/1.1/r/n/r/n") data = sock.recv(CHUNK_SIZE) print(data.decode()) start = time.time() request() request() end = time.time() print("use time: %.2f second(s)" % (end - start))
这样子的话,请求一次就需要花费一秒,请求是一个接着一个来的,在这中间的时间 进程被投入睡眠。
这个时候我们的老前辈们就有新办法了,好,我们翻开《UNIX环境高级编程》,里面有 专门讲select的,看完这个之后,我们来看看 Python 3
提供的 selectors 模块
我们把上面的代码改改:
import selectors import socket import time PORT = 8888 CHUNK_SIZE = 4096 COUNT = 0 selector = selectors.DefaultSelector() def request(selector): global COUNT sock = socket.socket() sock.connect(("", PORT)) selector.register(sock.fileno(), selectors.EVENT_WRITE, data=lambda: writable(selector, sock)) COUNT += 1 def writable(selector, sock): selector.unregister(sock.fileno()) sock.send(b"GET / HTTP/1.1/r/n/r/n") selector.register(sock.fileno(), selectors.EVENT_READ, data=lambda: readable(selector, sock)) def readable(selector, sock): global COUNT selector.unregister(sock.fileno()) COUNT -= 1 data = sock.recv(CHUNK_SIZE) print(data.decode()) start = time.time() request(selector) request(selector) while COUNT: for key, _ in selector.select(): callback = key.data callback() end = time.time() print("use time: %.1f second(s)" % (end - start))
root@arch tests: python client.py HTTP/1.1 200 OK Content-Type: text/html; charset=UTF-8 Etag: "7b4758d4baa20873585b9597c7cb9ace2d690ab8" Server: TornadoServer/4.4.2 Content-Length: 13 Date: Sun, 27 Nov 2016 14:02:38 GMT Hello, world HTTP/1.1 200 OK Content-Type: text/html; charset=UTF-8 Etag: "7b4758d4baa20873585b9597c7cb9ace2d690ab8" Server: TornadoServer/4.4.2 Content-Length: 13 Date: Sun, 27 Nov 2016 14:02:38 GMT Hello, world use time: 1.0 second(s)
再运行一下发现两次请求也只花一秒钟时间。这就是I/O多路复用模型的作用~ 但是呢,大把大把的callback把函数拆的四分五散,很不利于阅读。所以接下来我们 就要介绍主角出场: coroutine
In [6]: def use_yield(): ...: print("enter the func") ...: value = yield "hello" ...: print("got: ", value) ...: return value ...: In [7]: gen = use_yield() In [8]: gen.send(None) enter the func Out[8]: 'hello' In [9]: gen.send("world") got: world --------------------------------------------------------------------------- StopIteration Traceback (most recent call last) <ipython-input-9-ffdc45971c0a> in <module>() ----> 1 gen.send("world") StopIteration: world In [10]: type(gen) Out[10]: generator
说好的coroutine呢?怎么最后输出的是generator?别着急,且听我慢慢说来。
首先我们先下个定义,包含了yield关键字的函数就叫generator。来我们先 默念三遍,包含了yield关键字的函数就叫generator; 包含了yield关键字的函数就叫generator; 包含了yield关键字的函数就叫generator。
什么叫generator呢?就是这个函数可以执行到中间某句话的时候,把控制权转让给别人。 并且在未来,别人可以让这个函数从那句话处继续执行。我们通过next让generator执行 到下一个yield处,如果之后没有了yield就会执行到函数结尾,然后抛一个 StopIteration
异常。而且我们还可以通过 .send
给generator发送数据,恢复它的执行。
个人的理解就是,在python的世界里,coroutine是建立在generator的语法基础上的产物。 并没有具体的形式,coroutine就是用户来控制程序切换。具体在python里就是用户通过 yield把控制权丢出去,通过 .send
或者 next
来切回那个函数里继续执行。
注:接下来所有说用 next
的地方,实际代码上我都是用的 .send
我想在等待I/O的时候,把cpu控制权丢出去,让别人继续执行,等到I/O准备完成的时候, 再来执行我。这句话有点熟悉,就跟我们站在第一人称描述I/O多路复用的时候一样: 我想在等待I/O的时候把我挂起,让别人执行,我给你一个回调函数,等到I/O准备完成的 时候,你去执行这个回调函数。
那如果我们想通过yield来抹平回调函数把原本一个函数切分成两个函数的缝隙呢? 函数执行的一个缺点就是执行完之后,函数中的变量状态就丢失了。
> 注:我们简单说一下Python的VM,Python是有自己的指令的,就跟x86的cpu有 自己的指令一样。我们来简单看一下: In [17]: def foo(): ...: bar() ...: In [18]: def bar(): ...: pass ...: In [19]: import dis In [20]: dis.dis(foo) 2 0 LOAD_GLOBAL 0 (bar) 3 CALL_FUNCTION 0 (0 positional, 0 keyword pair) 6 POP_TOP 7 LOAD_CONST 0 (None) 10 RETURN_VALUE In [21]: dis.dis(bar) 2 0 LOAD_CONST 0 (None) 3 RETURN_VALUE 首先执行foo函数的时候,会由其它函数把环境准备好,把回退指针准备好,然后 调用。 - `LOAD_GLOBAL` 首先从global()里加载bar函数 - `CALL_FUNCTION` 会调用该函数 - `POP_TOP` 会把该函数的栈清掉 - `LOAD_CONST` 把None加载到栈顶,因为这是foo函数的默认返回值 - `RETURN_VALUE` 把None返回
其实我们可以直接把一系列的函数存到 selector.register
的data里,但是我们 把它抽出来,就跟ES6里的 Promise
一样,我们管它叫 Future
。就是一个 普通的类,用来保存回调函数和执行结果的。
class Future: def __init__(self): self._reuslt = None self._callbacks = [] def set_result(self, result): self._result = result for callback in self._callbacks: callback() def add_done_callback(self, callback): self._callbacks.append(callback)
所以我们把 register
改成:
selector.register(sock.fileno(), selectors.EVENT_READ, data=fut)
然后在下面的 select
处改成:
for key, _ in selector.select(): fut = key.data fut.set_result(None)
因为在这里,key.data 已经不是回调函数,而是我们的Future了。
但是我们希望的结果是能够切回我们的函数继续执行,这时候就靠 next
了,那我们 要想个办法,让future执行完之后调用 next(coro)
。首先我们要找个地方保存住 对coro的引用,所以和Future一样,我们用一个类或者函数来保存都行。为了以后更方便 理解asyncio和tornado,我们用一个类,名字叫 Task
:
class Task: def __init__(self, coro): self.coro = coro def step(self): try: fut = self.coro.send(None) except StopIteration: return fut.add_done_callback(self.step)
这样我们调用的时候就是 task = Task(request())
然后 task.step()
了, 首先 task = Task(request())
会执行 Task.__init__
会把request()这个 generator保存下来,为啥参数里叫做coro呢?因为我们把它用作coroutine,好以后 我们统称coroutine吧。
接下来通过 task.step()
启动coroutine,然后增加一个回调函数,一直执行 到 selctor.register
,然后yield。接着执行第二个 Task(request(selector)).step()
同样yield。接着执行 while COUNT
循环,然后执行 selctor.select
并且阻塞 于此,当socket可读时,就会执行 fut.set_result(None)
然后就会执行里面的 callback函数,其中有一个callback就是执行上面的 step
,借此执行了 self.coro.send(None)
从而恢复了coroutine的执行。
如果使用函数的形式,可以通过闭包达到这一点。
def task(coro): try: fut = coro.send(None) except StopIteration: return fut.add_done_callback(lambda: task(coro))
结合上面所说,代码应该是这样的:
import selectors import socket import time PORT = 8888 CHUNK_SIZE = 4096 COUNT = 0 selector = selectors.DefaultSelector() class Future: def __init__(self): self._result = None self._callbacks = [] def set_result(self, result): self._result = result for callback in self._callbacks: callback() def add_done_callback(self, callback): self._callbacks.append(callback) class Task(): def __init__(self, coro): self.coro = coro def step(self): try: fut = self.coro.send(None) except StopIteration: return fut.add_done_callback(self.step) def request(selector): global COUNT fut = Future() sock = socket.socket() sock.connect(("", PORT)) selector.register(sock.fileno(), selectors.EVENT_WRITE, data=fut) COUNT += 1 yield fut selector.unregister(sock.fileno()) sock.send(b"GET / HTTP/1.1/r/n/r/n") fut = Future() # 原来的fut已经用完了,我们要来个新的 selector.register(sock.fileno(), selectors.EVENT_READ, data=fut) yield fut selector.unregister(sock.fileno()) COUNT -= 1 data = sock.recv(CHUNK_SIZE) print(data.decode()) start = time.time() Task(request(selector)).step() Task(request(selector)).step() while COUNT: for key, _ in selector.select(): fut = key.data fut.set_result(None) end = time.time() print("use time: %.1f second(s)" % (end - start))
另外, sock.connect
是阻塞的,这个时候我们需要把socket设置 成非阻塞的。 socket.setblocking(False)
可以把它设置成非阻塞的。
import selectors import socket import time PORT = 8888 CHUNK_SIZE = 4096 COUNT = 0 selector = selectors.DefaultSelector() class Future: def __init__(self): self._result = None self._callbacks = [] def set_result(self, result): self._result = result for callback in self._callbacks: callback() def add_done_callback(self, callback): self._callbacks.append(callback) class Task(): def __init__(self, coro): self.coro = coro def step(self): try: fut = self.coro.send(None) except StopIteration: return fut.add_done_callback(self.step) def request(selector): global COUNT COUNT += 1 fut = Future() sock = socket.socket() sock.setblocking(False) try: sock.connect(("", PORT)) except BlockingIOError: pass selector.register(sock.fileno(), selectors.EVENT_WRITE, data=fut) yield fut selector.unregister(sock.fileno()) sock.send(b"GET / HTTP/1.1/r/n/r/n") fut = Future() # 原来的fut已经用完了,我们要来个新的 selector.register(sock.fileno(), selectors.EVENT_READ, data=fut) yield fut selector.unregister(sock.fileno()) data = sock.recv(CHUNK_SIZE) print(data.decode()) COUNT -= 1 start = time.time() Task(request(selector)).step() Task(request(selector)).step() while COUNT: for key, _ in selector.select(): fut = key.data fut.set_result(None) end = time.time() print("use time: %.1f second(s)" % (end - start))
这份代码对比起一开始的阻塞型代码,结构上就很类似了,不会因为回调而把一个 函数拆的四分五裂。好了,今天就写到这里吧,下一篇我准备讲讲 yield
yield from
await
async
-------- yield
的前世今生。