今天来学习alsotang的爬虫教程,跟着把cnode简单地爬一遍。
建立项目craelr-demo
我们首先建立一个express项目,然后将app.js的文件内容全部删除,因为我们暂时不需要在web端展示内容。当然我们也可以在空文件夹下直接 npm install express来使用我们需要的express功能。
目标网站分析
如图,这是cnode首页一部分div标签,我们就是通过这一系列的id、class来定位我们需要的信息。
使用superagent获取源数据
superagent就是ajax api来使用的http库,它的使用方法与jquery差不多,我们通过它发起get请求,在回调函数中输出结果。
复制代码 代码如下:
var express = require('express');
var url = require('url'); //解析操作url
var superagent = require('superagent'); //这三个外部依赖不要忘记npm install
var cheerio = require('cheerio');
var eventproxy = require('eventproxy');
var targeturl = 'https://cnodejs.org/';
superagent.get(targeturl)
.end(function (err, res) {
console.log(res);
});
它的res结果为一个包含目标url信息的对象,网站内容主要在其text(string)里。
使用cheerio解析
cheerio充当服务器端的jquery功能,我们先使用它的.load()来载入html,再通过css selector来筛选元素。
复制代码 代码如下:
var $ = cheerio.load(res.text);
//通过css selector来筛选数据
$('#topic_list .topic_title').each(function (idx, element) {
console.log(element);
});
其结果为一个个对象,调用 .each(function(index, element))函数来遍历每一个对象,返回的是html dom elements。
输出 console.log($element.attr('title'));的结果为 广州 2014年12月06日 nodeparty 之 uc 场
之类的标题,输出 console.log($element.attr('href'));的结果为 /topic/545c395becbcb78265856eb2之类的url。再用nodejs1的url.resolve()函数来补全完整的url。
复制代码 代码如下:
superagent.get(turl)
.end(function (err, res) {
if (err) {
return console.error(err);
}
var topicurls = [];
var $ = cheerio.load(res.text);
// 获取首页所有的链接
$('#topic_list .topic_title').each(function (idx, element) {
var $element = $(element);
var href = url.resolve(turl, $element.attr('href'));
console.log(href);
//topicurls.push(href);
});
});
使用eventproxy来并发抓取每个主题的内容
教程上展示了深度嵌套(串行)方法和计数器方法的例子,eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。
复制代码 代码如下:
//第一步:得到一个 eventproxy 的实例
var ep = new eventproxy();
//第二步:定义监听事件的回调函数。
//after方法为重复监听
//params: eventname(string) 事件名,times(number) 监听次数, callback 回调函数
ep.after('topic_html', topicurls.length, function(topics){
// topics 是个数组,包含了 40 次 ep.emit('topic_html', pair) 中的那 40 个 pair
//.map
topics = topics.map(function(topicpair){
//use cheerio
var topicurl = topicpair[0];
var topichtml = topicpair[1];
var $ = cheerio.load(topichtml);
return ({
title: $('.topic_full_title').text().trim(),
href: topicurl,
comment1: $('.reply_content').eq(0).text().trim()
});
});
//outcome
console.log('outcome:');
console.log(topics);
});
//第三步:确定放出事件消息的
topicurls.foreach(function (topicurl) {
superagent.get(topicurl)
.end(function (err, res) {
console.log('fetch ' + topicurl + ' successful');
ep.emit('topic_html', [topicurl, res.text]);
});
});
结果如下
扩展练习(挑战)
获取留言用户名和积分
在文章页面的源码找到评论的用户class名,classname为reply_author。console.log第一个元素 $('.reply_author').get(0)可以看到,我们需要获取东西都在这里头。
首先,我们先对一篇文章进行抓取,一次性把需要的都得到即可。
复制代码 代码如下:
var userhref = url.resolve(turl, $('.reply_author').get(0).attribs.href);
console.log(userhref);
console.log($('.reply_author').get(0).children[0].data);
我们可以通过https://cnodejs.org/user/username抓取积分信息
复制代码 代码如下:
$('.reply_author').each(function (idx, element) {
var $element = $(element);
console.log($element.attr('href'));
});
在用户信息页面 $('.big').text().trim()即为积分信息。
使用cheerio的函数.get(0)为获取第一个元素。
复制代码 代码如下:
var userhref = url.resolve(turl, $('.reply_author').get(0).attribs.href);
console.log(userhref);
这只是对于单个文章的抓取,对于40个还有需要修改的地方。