Сейчас я работаю над сторонним проектом, который включает кодирование всех ссылок между страницами Википедии. Я очистил эту информацию на диск, но использование памяти, необходимое для кодирования структуры этого графика, довольно смешно - там миллионы узлов и десятки миллионов ссылок. Хотя эта структура действительно вписывается в память, я не уверен, что бы я сделал, если бы было, скажем, миллиард ссылок или миллиард страниц.
Мой вопрос: есть ли способ без потерь сжать слишком большой граф, чтобы он поместился в память, чтобы он соответствовал памяти? Если нет, есть ли хороший алгоритм потери, который для некоторого определения "структуры" не теряет слишком много структуры из исходного графика?