У меня есть действительно большой файл csv, который я открыл в pandas следующим образом....
import pandas
df = pandas.read_csv('large_txt_file.txt')
Как только я это сделаю, использование памяти увеличивается на 2 ГБ, что ожидается, потому что этот файл содержит миллионы строк. Моя проблема возникает, когда мне нужно освободить эту память. Я побежал....
del df
Однако использование памяти не уменьшилось. Это неправильный подход к выпуску памяти, используемой фреймом данных pandas? Если да, то каков правильный путь?