Я пытаюсь получить некоторые данные с веб-сайта. Однако он возвращает меня incomplete read
. Данные, которые я пытаюсь получить, - это огромный набор вложенных ссылок. Я провел некоторое исследование в Интернете и обнаружил, что это может быть связано с ошибкой сервера
достигая ожидаемого размера). Я также нашел обходное решение для выше на этой ссылке
Однако я не уверен, как использовать это для моего дела. Ниже приведен код, над которым я работаю
br = mechanize.Browser()
br.addheaders = [('User-agent', 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1;Trident/5.0)')]
urls = "http://shop.o2.co.uk/mobile_phones/Pay_Monthly/smartphone/all_brands"
page = urllib2.urlopen(urls).read()
soup = BeautifulSoup(page)
links = soup.findAll('img',url=True)
for tag in links:
name = tag['alt']
tag['url'] = urlparse.urljoin(urls, tag['url'])
r = br.open(tag['url'])
page_child = br.response().read()
soup_child = BeautifulSoup(page_child)
contracts = [tag_c['value']for tag_c in soup_child.findAll('input', {"name": "tariff-duration"})]
data_usage = [tag_c['value']for tag_c in soup_child.findAll('input', {"name": "allowance"})]
print contracts
print data_usage
Пожалуйста, помогите мне с этим. Спасибо