Я загружаю довольно большой файл с urllib2 на серверную script через POST. Я хочу отобразить индикатор прогресса, который показывает текущий ход загрузки. Есть ли крючок или обратный вызов, предоставляемый urllib2, который позволяет мне отслеживать ход загрузки? Я знаю, что вы можете это сделать с помощью последовательных вызовов метода read(), но я не вижу метода write(), вы просто добавляете данные в запрос.
Мониторинг прогресса по протоколу urllib2
Ответ 1
Возможно, но вам нужно сделать несколько вещей:
- Подключите подсистему urllib2 к передаче дескриптора файла до httplib, добавив атрибут
__len__
, который возвращаетlen(data)
правильный размер, используемый для заполнения заголовка Content-Length. - Переопределите метод
read()
в дескрипторе файла: в качестве вызовов httplibread()
будет вызываться обратный вызов, позволяющий рассчитать процент и обновить индикатор выполнения.
Это может работать с любым файлоподобным объектом, но я обернул file
, чтобы показать, как он может работать с действительно большим файлом, потоковым с диска:
import os, urllib2
from cStringIO import StringIO
class Progress(object):
def __init__(self):
self._seen = 0.0
def update(self, total, size, name):
self._seen += size
pct = (self._seen / total) * 100.0
print '%s progress: %.2f' % (name, pct)
class file_with_callback(file):
def __init__(self, path, mode, callback, *args):
file.__init__(self, path, mode)
self.seek(0, os.SEEK_END)
self._total = self.tell()
self.seek(0)
self._callback = callback
self._args = args
def __len__(self):
return self._total
def read(self, size):
data = file.read(self, size)
self._callback(self._total, len(data), *self._args)
return data
path = 'large_file.txt'
progress = Progress()
stream = file_with_callback(path, 'rb', progress.update, path)
req = urllib2.Request(url, stream)
res = urllib2.urlopen(req)
Вывод:
large_file.txt progress: 0.68
large_file.txt progress: 1.36
large_file.txt progress: 2.04
large_file.txt progress: 2.72
large_file.txt progress: 3.40
...
large_file.txt progress: 99.20
large_file.txt progress: 99.87
large_file.txt progress: 100.00
Ответ 2
запросы 2.0.0 имеют потоковые загрузки. Это означает, что вы можете использовать генератор для получения крошечных кусков и печатать ход между кусками.
Ответ 3
Я не думаю, что это возможно, но pycurl действительно имеет загрузочные/загружаемые обратные вызовы, которые вы можете использовать.
Ответ 4
poster поддерживает этот
import json
import os
import sys
import urllib2
from poster.encode import multipart_encode
from poster.streaminghttp import register_openers
def _upload_progress(param, current, total):
sys.stdout.write(
"\r{} - {:.0f}% "
.format(param.name,
(float(current) / float(total)) * 100.0))
sys.stdout.flush()
def upload(request_resource, large_file_path):
register_openers()
with open(large_file_path, 'r') as large_file:
request_data, request_headers = multipart_encode(
[('file', largs_file)],
cb=_upload_progress)
request_headers.update({
'X-HockeyAppToken': 'we use this for hockeyapp upload'
})
upload_request = urllib2.Request(request_resource,
request_data,
request_headers)
upload_connection = urllib2.urlopen(upload_request)
upload_response = json.load(upload_connection)
print "Done"