Протокол Google буферов огромен в python

Я начал использовать библиотеку буфера протокола, но заметил, что он использует огромные объемы памяти. pympler.asizeof показывает, что один из моих объектов составляет около 76k! В основном, он содержит несколько строк, некоторые числа и некоторые перечисления, а также некоторые дополнительные списки. Если бы я писал то же самое, что и C-struct, я бы ожидал, что он будет находиться в нескольких сотнях байт, и действительно, метод ByteSize возвращает 121 (размер сериализованной строки).

Вы ожидаете от библиотеки? Я слышал, что это было медленно, но это непригодно и заставляет меня больше склоняться к тому, что я злоупотребляю им.

Edit

Вот пример, который я построил. Это файл pb, похожий, но более простой, чем тот, который я использовал

    package pb;

message A {
    required double a       = 1;
}

message B {
    required double b       = 1;
}

message C {
    required double c       = 1;
    optional string s       = 2;
}

message D {
    required string d       = 1;
    optional string e       = 2;
    required A a            = 3;
    optional B b            = 4;
    repeated C c            = 5;
}

И здесь я использую его

>>> import pb_pb2
>>> a = pb_pb2.D()
>>> a.d = "a"
>>> a.e = "e"
>>> a.a.a = 1
>>> a.b.b = 2
>>> c = a.c.add()
>>> c.c = 5
>>> c.s = "s"
>>> import pympler.asizeof
>>> pympler.asizeof.asizeof(a)
21440
>>> a.ByteSize()
42

У меня есть версия 2.2.0 protobuf (на данный момент немного старая) и python 2.6.4.

Ответ 1

Объектные экземпляры имеют больше памяти в питоне, чем на скомпилированных языках. Например, следующий код, который создает очень простые классы, имитирующие ваши прото-дисплеи 1440:

class A:
  def __init__(self):
    self.a = 0.0

class B:
  def __init__(self):
    self.b = 0.0

class C:
  def __init__(self):
    self.c = 0.0
    self.s = ""

class D:
  def __init__(self):
    self.d = ""
    self.e = ""
    self.e_isset = 1
    self.a = A()
    self.b = B()
    self.b_isset = 1
    self.c = [C()]

d = D()
print asizeof(d)

Я не удивлен, что протобуф сгенерировал классы в 20 раз больше памяти, так как они добавляют много плиты котла.

Версия С++, конечно же, не страдает от этого.

Ответ 2

Изменить: это вряд ли актуально здесь, но мы только что столкнулись с сообщением protobuf на 45 Мбайт, использующим 4 ГБ оперативной памяти при декодировании. Это выглядит так: https://github.com/google/protobuf/issues/156

о котором было известно в протобуфе 2.6, и исправление было слито только на мастер-марш 7 в этом году: https://github.com/google/protobuf/commit/f6d8c833845b90f61b95234cd090ec6e70058d06