Я использую Python 3.5 и пытается наскрести список ссылок (с того же сайта), код следующим образом:Зачистка список адресов
import urllib.request
from bs4 import BeautifulSoup
url_list = ['URL1',
'URL2','URL3]
def soup():
for url in url_list:
sauce = urllib.request.urlopen(url)
for things in sauce:
soup_maker = BeautifulSoup(things, 'html.parser')
return soup_maker
# Scraping
def getPropNames():
for propName in soup.findAll('div', class_="property-cta"):
for h1 in propName.findAll('h1'):
print(h1.text)
def getPrice():
for price in soup.findAll('p', class_="room-price"):
print(price.text)
def getRoom():
for theRoom in soup.findAll('div', class_="featured-item-inner"):
for h5 in theRoom.findAll('h5'):
print(h5.text)
for soups in soup():
getPropNames()
getPrice()
getRoom()
До сих пор, если я печатаю суп, получить propNames, getPrice или getRoom они, похоже, работают. Но я не могу заставить его пройти через каждый URL-адрес и распечатать getPropNames, getPrice и getRoom.
Только учу Python несколько месяцев, поэтому очень признателен за помощь в этом, пожалуйста!
Спасибо за то, что Себастьян Опалчиньски, я возьму это на борту, постараюсь обнять его и сообщить об итогах! – Maverick