Возможности Python для списков, наборов и словарей полностью скалываются. Есть ли способ продолжить использование собственной возможности, когда данные становятся действительно большими? Проблема, над которой я работаю, связана с сопоставлением (пересечением) очень больших списков. Я еще не подтолкнул ограничения - на самом деле я не знаю, каковы ограничения, и не хочу удивляться большой повторной реализации после того, как данные будут расти, как ожидалось.
Разумно ли развертывать на чем-то вроде Google App Engine, который не рекламирует практические ограничения по масштабу и продолжает использовать собственные возможности как есть навсегда и не думает об этом?
Есть ли какая-то магия Python, которая может скрыть, находится ли список, набор или словарь в управляемой Python памяти или в БД, - так физическое развертывание данных может отличаться от того, что я делаю в коде?
Как вы, г-н или г-жа Python Super Expert, имеете дело со списками, наборами и dicts по мере роста объема данных?