Я пытаюсь сделать WebCrawler, который находит ссылки с домашней страницы и снова и снова посещает найденные ссылки .. Теперь я написал код w9 с парсером, который показывает мне найденные ссылки и печатает там статистику некоторых тегов этой страницы но я не понимаю, как посещать новые ссылки в цикле и печатать там статистику тоже.Ruby - WebCrawler, как посетить ссылки найденных ссылок?
*
@visit = {}
@src = Net::HTTP.start(@url.host, @url.port) do |http|
http.get(@url.path)
@content = @src.body
*
def govisit
if @content =~ @commentTag
end
cnt = @content.scan(@aTag)
cnt.each do |link|
@visit[link] = []
end
puts "Links on this site: "
@visit.each do |links|
puts links
end
if @visit.size >= 500
exit 0
end
printStatistics
end