node-crawler:遵循robots.txt约定的20000行node.js爬虫。可以存储测试文件
节点爬虫遵循robots.txt约定的20000行node.js爬虫。可以存储用于测试的文件。用法实例化var nodecrawler = require ( 'node-crawler' ) ; var crawler = new nodecrawler . Crawler ( { loadstatic : false , loadstaticDirectory : "/tmp" , checkrobotsTXT : true , "callback" : function ( error , result , ignore ) { if ( result && result . body . length > 0 ) { } } } ) ;
node-crawler-master.zip
预估大小:6个文件
node-crawler-master
文件夹
package.json
1KB
test
文件夹
spec
文件夹
cacheSpec.js
6KB
LICENSE
1KB
lib
文件夹
crawler.js
8KB
request.js
1KB
README.md
850B
6.74KB
文件大小:
评论区