Мы пытаемся оценить Kafka и заменить Rabbit Mq в нашем программном обеспечении.
Мы знаем преимущества Kafka с точки зрения RabbitMq над автономным потреблением, огромной настойчивостью, превосходной производительностью, низкой латентностью и высокой пропускной способностью.
Но нам нужна возможность того, как RabbitMq имеет раздел гранулированной маршрутизации для гетерогенного потребления.
В какой-то мере мы можем достичь этого, имея больше количества разделов на брокера в Кафке. Но у него есть собственные ограничения, такие как накладные расходы на метаданные темы в znode, увеличение латентности.
Наш прецедент - это фильтрация данных в разделе. Предположим, что вы получаете 100 данных датчика аналогичного типа в одном разделе. Может ли потребитель иметь возможность выбирать только некоторые данные датчика и игнорировать остальные.
Мы можем выполнять фильтрацию/маршрутизацию со стороны приложения (потребителя), но, похоже, не должны использоваться повторно и дополнительные накладные расходы на каждой стороне потребителя.
Каким образом Kafka может обеспечить богатую маршрутизацию, имея оптимальное количество разделов?
Спасибо, Ashish