// let say there is a list of 1000+ URLs
string[] urls = { "http://google.com", "http://yahoo.com", ... };
// now let send HTTP requests to each of these URLs in parallel
urls.AsParallel().ForAll(async (url) => {
var client = new HttpClient();
var html = await client.GetStringAsync(url);
});
Вот проблема: он запускает 1000+ одновременных веб-запросов. Есть ли простой способ ограничить одновременную сумму этих асинхронных HTTP-запросов? Так что в любой момент времени загружается не более 20 веб-страниц. Как это сделать наиболее эффективным образом?