我想创建一个跟踪站点的每个链接的爬虫,并检查URL以查看它是否有效。现在我的代码使用url.openStream()
打开URL。
那么创建爬虫的最佳方法是什么?
使用像Jsoup这样的HTML解析器。
Set<String> validLinks = new HashSet<String>();
Set<String> invalidLinks = new HashSet<String>();
Document document = Jsoup.connect("http://example.com").get();
Elements links = document.select("a");
for (Element link : links) {
String url = link.absUrl("href");
if (!validLinks.contains(url) && !invalidLinks.contains(url)) {
try {
int statusCode = Jsoup.connect(url).execute().statusCode();
if (200 <= statusCode && statusCode < 400) {
validLinks.add(url);
} else {
invalidLinks.add(url);
}
} catch (Exception e) {
invalidLinks.add(url);
}
}
}
您可能希望在该循环中发送HEAD以使其更有效,但是您将不得不使用URLConnection
而因为Jsoup设计不支持它(HEAD不返回任何内容)。
使用内部链接分析器工具分析搜索引擎蜘蛛可以在您网站的特定页面上检测到的链接。搜索...最佳实践内部链接。链接数量:早在2008年,Matt Cutts(谷歌网络垃圾邮件团队负责人)建议将链接数限制为每页最多100个链接。