node-crawler:遵循robots.txt约定的20000行node.js爬虫。可以存储测试文件

节点爬虫遵循robots.txt约定的20000行node.js爬虫。可以存储用于测试的文件。用法实例化var nodecrawler = require ( 'node-crawler' ) ; var crawler = new nodecrawler . Crawler ( { loadstatic : false , loadstaticDirectory : "/tmp" , checkrobotsTXT : true , "callback" : function ( error , result , ignore ) { if ( result && result . body . length > 0 ) { } } } ) ;
zip
node-crawler-master.zip 预估大小:6个文件
folder
node-crawler-master 文件夹
file
package.json 1KB
folder
test 文件夹
folder
spec 文件夹
file
cacheSpec.js 6KB
file
LICENSE 1KB
folder
lib 文件夹
file
crawler.js 8KB
file
request.js 1KB
file
README.md 850B
zip 文件大小:6.74KB