Насколько полезно использовать Python/PHP
Nonpersistent array для хранения 6 ГБ + данных с 800+ миллионами строк в ОЗУ, вместо использования MySQL/MongoDB/Cassandra/База данных BigTable/BigData (база данных Persistence), когда дело доходит до скорости/задержки при простом выполнении запроса?
Например, поиск одного имени в 800+ миллионах строк за 1 секунду: возможно ли это? Кто-нибудь имеет опыт работы с набором данных более 1-2 миллиардов строк и получением результата в течение 1 секунды для простого поискового запроса?
Есть ли лучшая, проверенная методология для работы с миллиардами строк?