2025年5月25日 12:21:04 星期日

python:优雅的退出程序或重启服务

在微服务中,使用任务队列有助于松耦合的设计,但有时,我们需要重启服务,但不能打断队列中正在进行的任务。
正确的做法是handle sigterm信号,具体代码如下:

  1. import sys
  2. import argparse
  3. import logging
  4. import signal
  5. import asyncio
  6. class GracefulKiller:
  7. kill_now = False
  8. def __init__(self):
  9. signal.signal(signal.SIGINT, self.exit_gracefully)
  10. signal.signal(signal.SIGTERM, self.exit_gracefully)
  11. def exit_gracefully(self,signum, frame):
  12. self.kill_now = True
  13. async def loop_task():
  14. killer = GracefulKiller()
  15. while 1:
  16. print("ha") # 任务主体
  17. if killer.kill_now:
  18. break
  19. await asyncio.sleep(2)
  20. loop = asyncio.get_event_loop()
  21. try:
  22. loop.run_until_complete(loop_task())
  23. finally:
  24. loop.run_until_complete(loop.shutdown_asyncgens()) # see: https://docs.python.org/3/library/asyncio-eventloop.html#asyncio.AbstractEventLoop.shutdown_asyncgens
  25. loop.close()

利用异步

python3.5 之后,有了比较完善的asyncio库和协程机制。对IO密集型任务,可以使用异步调用在单线程中实现“并发”。极大的增加任务吞吐。

想要让IO 任务并发,只需要使用支持asyncio的库(比如aiohttp),简单的loop.create_task就行。有时,需要限制后台任务的数量,在重启服务的时候,需要等待所有后台并发任务的完成。

此时消费者可以使用信号量进行控制。

  1. import argparse
  2. import logging
  3. import signal
  4. import asyncio
  5. class GracefulKiller:
  6. kill_now = False
  7. def __init__(self):
  8. signal.signal(signal.SIGINT, self.exit_gracefully)
  9. signal.signal(signal.SIGTERM, self.exit_gracefully)
  10. def exit_gracefully(self,signum, frame):
  11. self.kill_now = True
  12. def pop_queue(task_queue):
  13. try:
  14. task_args = task_queue.pop(0)
  15. print("dequeue args {}".format(task_args))
  16. except:
  17. task_args = None
  18. return task_args
  19. async def wait_tasks_done(semaphore, value):
  20. while semaphore._value != value:
  21. print("wait all task done!")
  22. await asyncio.sleep(1)
  23. # 处理单个异步任务
  24. async def run_task(task_args, semaphore):
  25. print("run_task {}".format(task_args))
  26. await asyncio.sleep(3) # 模拟耗时
  27. print("run_task {} done".format(task_args))
  28. semaphore.release()
  29. async def loop_task():
  30. killer = GracefulKiller()
  31. loop = asyncio.get_event_loop()
  32. task_queue = [x for x in range(0, 10)] # 模拟一个任务队列
  33. task_limit = 2 # 同时允许任务数量
  34. semaphore = asyncio.Semaphore(value=task_limit, loop=loop)
  35. while 1:
  36. task_args = pop_queue(task_queue)
  37. if task_args != None:
  38. await semaphore.acquire()
  39. loop.create_task(run_task(task_args, semaphore))
  40. if killer.kill_now:
  41. await wait_tasks_done(semaphore, task_limit)
  42. break
  43. loop = asyncio.get_event_loop()
  44. try:
  45. loop.run_until_complete(loop_task())
  46. finally:
  47. loop.run_until_complete(loop.shutdown_asyncgens())
  48. loop.close()

输出:

  1. dequeue args 0
  2. dequeue args 1
  3. dequeue args 2
  4. run_task 0
  5. run_task 1
  6. run_task 0 done
  7. run_task 1 done
  8. wait all task done!
  9. run_task 2
  10. wait all task done!
  11. wait all task done!
  12. run_task 2 done

上面的程序,无论何时重启,都将等待所有后台的任务完成。妈妈再也不用担心我重启服务被用户投诉了。

来自 大脸猫 写于 2017-11-18 00:47 -- 更新于2020-10-19 13:06 -- 2 条评论

2条评论

字体
字号


评论:

● 来自 YXYXYX 写于 2017-12-02 08:38 回复

● 来自 superpig 写于 2017-12-03 16:00 回复

@YXYXYX 大宝,是你吗。你真可爱。哈哈。