使用 Ruby Mechanize 抓取所有连续页面

问题描述 投票:0回答:1

我正在寻求有关循环浏览网站上连续页面的最佳方法的帮助,同时从每个页面上删除相关数据。

例如,我想访问一个特定的网站(下例中的 craigslist),从第一页抓取数据,转到下一页,抓取所有相关数据等,直到最后一页。

在我的脚本中,我使用了

while
循环,因为它对我来说似乎最有意义。 然而,它似乎工作不正常,只是从第一页抓取数据。

熟悉 Ruby/Mechanize 的人可以为我指出完成此任务的最佳方法的正确方向吗? 我花了无数的时间试图解决这个问题,但感觉我错过了一些非常基本的东西。

预先感谢您的帮助。

require 'mechanize'
require 'pry'

# initialze
agent = Mechanize.new { |agent| agent.user_agent_alias = 'Mac Safari'}
url = "http://charlotte.craigslist.org/search/rea"
page = agent.get(url)

# Create an empty array to dump contents into
property_results = []

# Scrape all successive pages from craigslist
while page.link_with(:dom_class => "button next") != nil
    next_link = page.link_with(:dom_class => "button next")  
    page.css('ul.rows').map do |d|  
        property_hash = { title: d.at_css('a.result-title.hdrlnk').text }    
        property_results.push(property_hash)    
    end  
    page = next_link.click
end 

更新: 我找到了这个,但仍然没有骰子:

Ruby Mechanize:点击链接

@pguardiario

require 'mechanize'
require 'httparty'
require 'pry'

# initialze
agent = Mechanize.new 
url = "http://charlotte.craigslist.org/search/rea"
page = agent.get(url)

#create Empty Array
property_results = []

# Scrape all successive pages from craigslist
while link = page.at('[rel=next]')
  page.css('ul.rows').map do |d|  
    property_hash = { title: d.at_css('a.result-title.hdrlnk').text }    
    property_results.push(property_hash)
  end
    link = page.at('[rel=next]')
    page = agent.get link[:href]
 end
pry(binding)
ruby web-scraping mechanize
1个回答
1
投票

每当您看到

[rel=next]
时,这就是您想要关注的内容:

page = agent.get url
do_something_with page
while link = page.at('[rel=next]')
  page = agent.get link[:href]
  do_something_with page
end
© www.soinside.com 2019 - 2024. All rights reserved.