Я работаю над проектом по созданию облачной архитектуры, использующей докер-рой. Я знаю, что с помощью рой я мог развернуть реплики службы, что означает, что для обслуживания запросов будут выполняться несколько контейнеров этого изображения.
Я также читал, что у докера есть внутренний балансировщик нагрузки, который управляет этим распределением запросов.
Однако мне нужна помощь в понимании следующего:
Скажем, у меня есть контейнер, который предоставляет сервис как REST API или скажет его веб-приложение. И если у меня есть несколько контейнеров (реплик), развернутых в рое, и у меня есть другие контейнеры (некоторые приложения), которые общаются с этой службой HTTP/REST.
Затем, когда я пишу те приложения, которые используют IP: PORT. Это какой-либо из рабочих node IP, выполняющих эти службы? Будет ли это делать так, чтобы распределять нагрузку надлежащим образом даже среди других рабочих/менеджеров, работающих с одной и той же услугой?
Или мне нужно позвонить менеджеру, который, в свою очередь, позаботится о маршрутизации (даже если менеджер node не имеет контейнера, на котором запущена эта конкретная служба)?
Спасибо.