我正在编写应用程序,它每秒扫描一次目录,检查新文件,如果它们出现 - 通过 POST 请求发送它们并执行归档。假设可以出现在目录中的文件数量可以从 10 到 100 - 我决定使用 asyncio 和 aiohttp 来同时发送请求。
代码:
import os
import aiohttp
from aiohttp.client import ClientSession
BASE_DIR = '/path/to'
ARCHIVE_DIR = '/path/to/archive'
async def scan():
while True:
await asyncio.sleep(1)
for file in os.listdir(BASE_DIR):
if os.path.join(BASE_DIR, file).endswith('jpg'):
asyncio.ensure_future(publish_file(file))
async def publish_file(file):
async with ClientSession(loop=loop) as session:
async with session.post(url=url, data={'photo': open(os.path.join(BASE_DIR, file), 'rb')}) as response:
if response.status == 200:
await move_to_archive(file)
async def move_to_archive(file):
os.rename(os.path.join(BASE_DIR, file), os.path.join(ARCHIVE_DIR, file))
loop = asyncio.get_event_loop()
coros = [
asyncio.ensure_future(scan())
]
loop.run_until_complete(asyncio.wait(coros))
所以问题是:如果我想并发发送请求,将协程添加到这样的循环中是否是一个好习惯:asyncio.ensure_future(publish_file(file))
?