6

我正在编写应用程序,它每秒扫描一次目录,检查新文件,如果它们出现 - 通过 POST 请求发送它们并执行归档。假设可以出现在目录中的文件数量可以从 10 到 100 - 我决定使用 asyncio 和 aiohttp 来同时发送请求。

代码:

import os
import aiohttp
from aiohttp.client import ClientSession

BASE_DIR = '/path/to'
ARCHIVE_DIR = '/path/to/archive'

async def scan():
    while True:
        await asyncio.sleep(1)
        for file in os.listdir(BASE_DIR):
            if os.path.join(BASE_DIR, file).endswith('jpg'):
                asyncio.ensure_future(publish_file(file))


async def publish_file(file):
    async with ClientSession(loop=loop) as session:
        async with session.post(url=url, data={'photo': open(os.path.join(BASE_DIR, file), 'rb')}) as response:
            if response.status == 200:
                await move_to_archive(file)

async def move_to_archive(file):
    os.rename(os.path.join(BASE_DIR, file), os.path.join(ARCHIVE_DIR, file))

loop = asyncio.get_event_loop()

coros = [
    asyncio.ensure_future(scan())
]
loop.run_until_complete(asyncio.wait(coros))

所以问题是:如果我想并发发送请求,将协程添加到这样的循环中是否是一个好习惯:asyncio.ensure_future(publish_file(file))

4

1 回答 1

5

是的,这是正确的。

PS 最好共享同一个会话(可能并行连接数量有限),而不是在每个发布请求上重新创建一个连接池:

session = aiohttp.ClientSession(connector=aiohttp.TCPConnector(limit=10))
于 2016-07-19T22:15:40.237 回答