Python, gevent, urllib2.urlopen.read(), ускоритель загрузки

Я пытаюсь создать ускоритель загрузки для Linux. В моей программе используются gevent, os и urllib2. Моя программа получает URL-адрес и пытается загрузить файл одновременно. Весь мой код действителен. Моя единственная проблема заключается в том, что urllib2.urlopen.read() блокирует меня одновременным запуском функции .read().

Это исключение, которое меня бросило.

Traceback (most recent call last):
File "/usr/lib/pymodules/python2.7/gevent/greenlet.py", line 405, in run
result = self._run(*self.args, **self.kwargs)
File "gevent_concurrent_downloader.py", line 94, in childTasklet
_tempRead = handle.read(divisor) # Read/Download part
File "/usr/lib/python2.7/socket.py", line 380, in read
data = self._sock.recv(left)
File "/usr/lib/python2.7/httplib.py", line 561, in read
s = self.fp.read(amt)
File "/usr/lib/python2.7/socket.py", line 380, in read
data = self._sock.recv(left)
File "/usr/lib/pymodules/python2.7/gevent/socket.py", line 407, in recv
wait_read(sock.fileno(), timeout=self.timeout, event=self._read_event)
File "/usr/lib/pymodules/python2.7/gevent/socket.py", line 153, in wait_read
assert event.arg is None, 'This event is already used by another greenlet: %r' % (event.arg, )
AssertionError: This event is already used by another greenlet: (<Greenlet at 0x2304958: childTasklet(<__main__.NewFile object at 0x22c4390>, 4595517, <addinfourl at 37154616 whose fp = <socket._fileob, 459551, 1)>, timeout('timed out',))
<Greenlet at 0x2304ea8: childTasklet(<__main__.NewFile object at 0x22c4390>,4595517, <addinfourl at 37154616 whose fp = <socket._fileob, 7, -1)failed with AssertionError

Моя программа работает, получая размер байта файла из URL, вызывая:

urllib2.urlopen(URL).info().get("Content-Length") 

и деление размера файла на делитель и, таким образом, разбиение процесса загрузки на части. В этом примере я разбиваю загрузку на 10 частей.

Каждая зелень запускает команду в этом застое:

urllib2.urlopen(URL).read(offset)

Здесь ссылка на мой код, размещенный на pastie: http://pastie.org/3253705

Спасибо за помощь!

FYI: Я запускаю Ubuntu 11.10.

Ответ 1

Вы пытаетесь прочитать ответ на один запрос из разных зеленых.

Если вы хотите загрузить один и тот же файл, используя несколько параллельных соединений, вы можете использовать Range http header, если сервер поддерживает его (вы получаете 206 статус вместо 200 для запроса с заголовком Range). См. HTTPRangeHandler.

Ответ 2

аргумент read - это количество байтов, а не смещение.

Кажется, gevent позволит вам вызывать urllib асинхронно, но не позволять вам обращаться к одному и тому же ресурсу из нескольких зеленых.

Кроме того, поскольку он использует wait_read, эффект по-прежнему будет синхронным, последовательным чтением из файла (полная противоположность тому, что вы хотели достичь).

Я бы предположил, что вам может потребоваться пойти ниже или использовать другую библиотеку из urllib2.