У меня есть сервер web.py, который отвечает на различные пользовательские запросы. Одна из этих запросов включает загрузку и анализ серии веб-страниц.
Есть ли простой способ настроить механизм загрузки URL-адресов на основе async/callback в web.py? Низкое использование ресурсов особенно важно, поскольку каждый инициированный пользователем запрос может привести к загрузке нескольких страниц.
Поток будет выглядеть так:
Пользовательский запрос → web.py → Загрузка 10 страниц параллельно или асинхронно → Анализ содержимого, возврат результатов
Я понимаю, что Twisted будет хорошим способом сделать это, но я уже в web.py, поэтому меня особенно интересует то, что может поместиться в web.py.