Я пытаюсь очистить данные с помощью scrapy. Но возникли проблемы с редактированием кода. Вот что я сделал в качестве эксперимента:Использование Scrapy для очистки данных
import scrapy
class BlogSpider(scrapy.Spider):
name = 'blogspider'
start_urls = ['http://anon.example.com/']
def parse(self, response):
for title in response.css('h2'):
yield {'Agent-name': title.css('a ::text').extract_first()}
next_page = response.css('li.col-md-3 ln-t > div.cs-team team-grid > figure > a ::attr(href)').extract_first()
if next_page:
yield scrapy.Request(response.urljoin(next_page), callback=self.parse)
Я использовал этот пример с сайта scrapy.org и попытался его модифицировать. Что делает этот код, так это извлечение имен всех агентов с данной страницы.
Но я хочу, чтобы эта лучевая терапия проходила внутри страницы агента и извлекала из нее информацию.
Скажет, например:
Name: name of the agent
Phone: Phone Number
Email: email address
website: URL of website .. etc
Надеется, что это проясняет мою проблему. Я хотел бы иметь решение этой проблемы.
можно ли записать его в файл csv? –
@Jaffer Wilson измените печать на 'yield info' и используйте командную строку' scrapy crawl spider_name -o out.csv'. '-o' означает выходной файл. пожалуйста, прочитайте документ для лечения. –
Благодарим вас за ответ. Но не могли бы вы рассказать мне, как вы определяете глубину выскабливания? Как я вижу, есть URL-адреса страниц веб-сайта, и программа только прокручивает URL-адрес и не собирается на веб-сайт. Это хорошо . Вы можете объяснить мне, пожалуйста? –