上次的网页爬虫写完后,又打算做一个爬图的工具。前两天已经写好了代码。思路如下:
分析页面还是采用cheerio,对<div>中的img进行分析抽取,拿到图片的url。然后用childprocess调用系统的curl工具来下载这些远程url的图片。最后将这些写入到系统的硬盘中。
功能代码如下(只是下载图片的功能代码):
var url=require('url'); var fs=require('fs'); var cp=require('child_process'); var DOWNLOAD_DIR='./'; var file_url='http://htmljs.b0.upaiyun.com/uploads/1396874069658-nodejs_1280x1024.png'; function downloads(file_url){ var filename=url.parse(file_url).pathname.split('/').pop(); var file=fs.createWriteStream(DOWNLOAD_DIR+filename); var curl=cp.spawn('curl',[file_url]); //use spawn curl.stdout.on('data',function(data){ file.write(data); }); curl.stdout.on('end',function(data){ file.end(); console.log(filename+'downloaded to'+DOWNLOAD_DIR); }); curl.on('exit',function(code){ if(code!=0){ console.log('Failed:'+code); } }); }; downloads(file_url);
但是发现了一个问题。就是下载的图的数量比较少的时候,一切都还好。当循环页面下载的时候,一旦并行任务过多,立刻就不行了。因为并发量太大。
后来尝试用http的get方法来读图片,结果性能更不行,还不如系统的curl。
去cnode请教了一下,有前辈说需要限制一下并发量,用aysnc。
也是在下班后等零碎的时间,去aysnc的github(https://github.com/caolan/async)上看了一下,运行了几个实例。发现async的确不错。
先说下js异步回调的问题,按照传统的回调来,处理回调中的数据,发现只能一层套一层的。刚开始感觉这种方式不错,后来套的多了,才发现这种方式,太死了。
async是解决这个问题的。
为了解决我遇到的问题,所以着重看了一下它的控制流方面的东西。
async.series 和parallel.
这两个,一个是顺序的一个是并行的。
api里面有讲他的用法,他们都有(tasks, [callback])的参数。第一个参数是任务,第二个是得到前面任务数据的callback。
其中多个task,可以用数组,也可以用对象。本人倾向用对象。
async.series({ one: function(callback){ callback(null, 'one'); }, two: function(callback){ callback(null, 'two'); } }, function(err, results) { // results is now equal to: {one: 'one', two: 'two'} });
同样,可以打印results中的某些属性,results.one什么的。
parallel和series是一样的用法。
所以,采用这种并行的方式,把之前写的工具改造一下,我们就不需要再往下套函数处理了:
var cheerio=require('cheerio'); var request=require('request'); var fs=require('fs'); var async=require('async'); var url='http://www.cnblogs.com/juepei/'; var result=new Array(); async.parallel({ one:function(cb){ request(url,function(error,res,body){ if(!error && res.statusCode==200){ var $=cheerio.load(body); $('div').filter(function(i,ele){ if($(this).attr('class')==='postTitle'){ result.push($(this).text().trim()); } }); //console.log(result); cb(result); } }); } },function(err,results){ if(err){ console.log(err); }else{ console.log(results.one); } });
关于最后一个回调函数,必须要处理err,不然的话,会报results为undefined。这是不是async规定的,目前还不知道,如果有前辈知道为何,请赐教。
从而,再下载大量图片的时候,我们就可以采用parallelLimit(tasks, limit, [callback])这个函数,对并行任务的数量进行限制一下,就可解决问题了。晚上回去试试,看是不是已经ok了。
在此附上本人的github地址:https://github.com/ThinkCats ,大家可以相互交流,共同进步。