Использование Python Iterparse для больших файлов XML

Мне нужно написать парсер в Python, который может обрабатывать некоторые чрезвычайно большие файлы ( > 2 ГБ) на компьютере без большой памяти (всего 2 ГБ). Я хотел использовать iterparse в lxml, чтобы сделать это.

Мой файл имеет формат:

<item>
  <title>Item 1</title>
  <desc>Description 1</desc>
</item>
<item>
  <title>Item 2</title>
  <desc>Description 2</desc>
</item>

и до сих пор мое решение:

from lxml import etree

context = etree.iterparse( MYFILE, tag='item' )

for event, elem in context :
      print elem.xpath( 'description/text( )' )

del context

К сожалению, хотя это решение все еще питается большой памятью. Я думаю, проблема заключается в том, что после работы с каждым "ITEM" мне нужно что-то сделать для очистки пустых детей. Может ли кто-нибудь предложить некоторые предложения о том, что я могу сделать после обработки моих данных для правильной очистки?

Ответ 1

Попробуйте Лиза Дейли fast_iter. После обработки элемента elem он вызывает elem.clear() для удаления потомков, а также удаляет предыдущие братья и сестры.

def fast_iter(context, func, *args, **kwargs):
    """
    http://lxml.de/parsing.html#modifying-the-tree
    Based on Liza Daly fast_iter
    http://www.ibm.com/developerworks/xml/library/x-hiperfparse/
    See also http://effbot.org/zone/element-iterparse.htm
    """
    for event, elem in context:
        func(elem, *args, **kwargs)
        # It safe to call clear() here because no descendants will be
        # accessed
        elem.clear()
        # Also eliminate now-empty references from the root node to elem
        for ancestor in elem.xpath('ancestor-or-self::*'):
            while ancestor.getprevious() is not None:
                del ancestor.getparent()[0]
    del context


def process_element(elem):
    print elem.xpath( 'description/text( )' )

context = etree.iterparse( MYFILE, tag='item' )
fast_iter(context,process_element)

Статья Дали - отличное чтение, особенно если вы обрабатываете большие XML файлы.


Изменить: fast_iter, опубликованный выше, является модифицированной версией Daly fast_iter. После обработки элемента он более агрессивен при удалении других элементов, которые больше не нужны.

Ниже приведено описание script. Обратите внимание, в частности, что orig_fast_iter не удаляет элемент A1, а mod_fast_iter удаляет его, тем самым сохраняя больше памяти.

import lxml.etree as ET
import textwrap
import io

def setup_ABC():
    content = textwrap.dedent('''\
      <root>
        <A1>
          <B1></B1>
          <C>1<D1></D1></C>
          <E1></E1>
        </A1>
        <A2>
          <B2></B2>
          <C>2<D></D></C>
          <E2></E2>
        </A2>
      </root>
        ''')
    return content


def study_fast_iter():
    def orig_fast_iter(context, func, *args, **kwargs):
        for event, elem in context:
            print('Processing {e}'.format(e=ET.tostring(elem)))
            func(elem, *args, **kwargs)
            print('Clearing {e}'.format(e=ET.tostring(elem)))
            elem.clear()
            while elem.getprevious() is not None:
                print('Deleting {p}'.format(
                    p=(elem.getparent()[0]).tag))
                del elem.getparent()[0]
        del context

    def mod_fast_iter(context, func, *args, **kwargs):
        """
        http://www.ibm.com/developerworks/xml/library/x-hiperfparse/
        Author: Liza Daly
        See also http://effbot.org/zone/element-iterparse.htm
        """
        for event, elem in context:
            print('Processing {e}'.format(e=ET.tostring(elem)))
            func(elem, *args, **kwargs)
            # It safe to call clear() here because no descendants will be
            # accessed
            print('Clearing {e}'.format(e=ET.tostring(elem)))
            elem.clear()
            # Also eliminate now-empty references from the root node to elem
            for ancestor in elem.xpath('ancestor-or-self::*'):
                print('Checking ancestor: {a}'.format(a=ancestor.tag))
                while ancestor.getprevious() is not None:
                    print(
                        'Deleting {p}'.format(p=(ancestor.getparent()[0]).tag))
                    del ancestor.getparent()[0]
        del context

    content = setup_ABC()
    context = ET.iterparse(io.BytesIO(content), events=('end', ), tag='C')
    orig_fast_iter(context, lambda elem: None)
    # Processing <C>1<D1/></C>
    # Clearing <C>1<D1/></C>
    # Deleting B1
    # Processing <C>2<D/></C>
    # Clearing <C>2<D/></C>
    # Deleting B2

    print('-' * 80)
    """
    The improved fast_iter deletes A1. The original fast_iter does not.
    """
    content = setup_ABC()
    context = ET.iterparse(io.BytesIO(content), events=('end', ), tag='C')
    mod_fast_iter(context, lambda elem: None)
    # Processing <C>1<D1/></C>
    # Clearing <C>1<D1/></C>
    # Checking ancestor: root
    # Checking ancestor: A1
    # Checking ancestor: C
    # Deleting B1
    # Processing <C>2<D/></C>
    # Clearing <C>2<D/></C>
    # Checking ancestor: root
    # Checking ancestor: A2
    # Deleting A1
    # Checking ancestor: C
    # Deleting B2

study_fast_iter()

Ответ 2

iterparse() позволяет создавать материал при создании дерева, это означает, что, если вы не удалите то, что вам больше не нужно, в конце концов вы все равно получите все дерево.

Для получения дополнительной информации: прочитайте this автором оригинальной реализации ElementTree (но она также применима к lxml)

Ответ 3

Почему вы не используете подход "обратного вызова" sax?

Ответ 4

Обратите внимание, что iterparse по-прежнему строит дерево, как и синтаксический анализ, но вы можете безопасно изменить или удалить части дерева при разборе. Например, чтобы анализировать большие файлы, вы можете избавиться от элементов, как только вы их обработали:

for event, elem in iterparse(source): if elem.tag == "record": ... process record elements ... elem.clear() Вышеупомянутый шаблон имеет один недостаток; он не очищает корневой элемент, поэтому вы получите один элемент с множеством пустых дочерних элементов. Если ваши файлы огромны, а не просто большие, это может быть проблемой. Чтобы обойти это, вам нужно взять верх над корневым элементом. Самый простой способ сделать это - включить запуск событий и сохранить ссылку на первый элемент в переменной:

получить итерируемый

context = iterparse(source, events=("start", "end"))

превратить его в итератор

context = iter(context)

получить корневой элемент

event, root = context.next()

for event, elem in context:
    if event == "end" and elem.tag == "record":
        ... process record elements ...
        root.clear()

Итак, это вопрос инкрементного анализа, Эта ссылка может дать вам подробный ответ для обобщенного ответа. Вы можете сослаться на приведенный выше

Ответ 5

Единственная проблема с методом root.clear() заключается в возврате NoneTypes. Это означает, что вы не можете, например, редактировать данные, которые вы разбираете с помощью строковых методов, таких как replace() или title(). Тем не менее, это оптимальный метод для использования, если вы просто разбираете данные как есть.