Итак, согласно автору haproxy, кто-то знает кое-что о http:
Keep-alive был изобретен для снижения производительности процессора использование на серверах, когда процессоры составляли 100 раза медленнее. Но то, что не сказано, что постоянные соединения потребляют много памяти, хотя они не используются кем угодно, кроме клиента, который открыли их. Сегодня в 2009 году процессоры очень дешево и память по-прежнему ограничена до нескольких гигабайт по архитектуре или цена. Если требуется сайт сохранить жизнь, есть реальная проблема. Часто загружаемые сайты часто отключаются поддерживать максимальный уровень поддержки количество одновременных клиентов. реальный недостаток в том, чтобы не жить немного увеличена латентность до выбор объектов. Браузеры удваивают количество параллельных соединений на сайты, не связанные с хранением, для компенсации это.
Это соответствует опыту других народов? т.е. без сохранения жизни - это результат, который сейчас едва заметен? (его, вероятно, стоит отметить, что с помощью websockets и т.д. соединение поддерживается "открытым", независимо от статуса keep-alive, для приложений с очень отзывчивыми требованиями). Является ли эффект более значительным для людей, удаленных от сервера, или если есть много артефактов для загрузки с одного и того же хоста при загрузке страницы? (Я бы подумал, что такие вещи, как CSS, образы и JS, все чаще поступают из CDN с поддержкой кэширования).
Мысли?
(не уверен, что это вещь serverfault.com, но я не буду переходить по почте, пока кто-то не предложит мне переместить ее там).