Я использую python для анализа некоторых больших файлов, и у меня возникают проблемы с памятью, поэтому я использовал sys.getsizeof(), чтобы попытаться отслеживать использование, но поведение с массивами numpy является причудливым, Вот пример, включающий карту альбедо, которую мне нужно открыть:
>>> import numpy as np
>>> import struct
>>> from sys import getsizeof
>>> f = open('Albedo_map.assoc', 'rb')
>>> getsizeof(f)
144
>>> albedo = struct.unpack('%df' % (7200*3600), f.read(7200*3600*4))
>>> getsizeof(albedo)
207360056
>>> albedo = np.array(albedo).reshape(3600,7200)
>>> getsizeof(albedo)
80
Ну, данные все еще есть, но размер объекта - карта с разрешением 3600x7200 пикселей - от ~ 200 Мбайт до 80 байт. Хотелось бы надеяться, что проблемы с памятью закончились и просто преобразуют все в массивы numpy, но я чувствую, что это поведение, если оно истинно, каким-то образом нарушит какой-либо закон теории информации или термодинамики или что-то еще, поэтому я склонный полагать, что getizeof() не работает с массивами numpy. Любые идеи?