2016-10-17 2 views
-1
import requests 
from bs4 import BeautifulSoup 
My_Url = "http://questions.consumercomplaints.in/page/2" 
Data = requests.get(My_Url) 
Soup = BeautifulSoup(Data.content) 
head_id = Soup.find_all({"div":"href"}) 
len(head_id) 
for i in head_id: 
    print i.text 

Из приведенного выше кода я слом (отзывы/жалобы) от веб-страницы 2. Как я зоб данные автоматически все страницы (http://questions.consumercomplaints.in/page/3)Я хочу автоматически сканировать данные с 1 до 10 страниц с сайта. Как я могу это сделать?

ответ

0

Почему не окружать вашу функцию в варьировались для цикла?

import requests 
from bs4 import BeautifulSoup 
for i in range(3,11): 
    My_Url = "http://questions.consumercomplaints.in/page/" + str(i) 
    Data = requests.get(My_Url) 
    Soup = BeautifulSoup(Data.content) 
    head_id = Soup.find_all({"div":"href"}) 
    len(head_id) 
    for i in head_id: 
     print i.text 

Есть посмотрим, как функция работает диапазон here.

+0

Am get error "can not concatenate 'str' и 'int' objects" –

+0

Просто нужно было ввести тип i в строку. Я обновил ответ. –

+0

спасибо за ответ. Он работает :) –