Scrapy笔记12- 抓取动态网站
前面我们介绍的都是去抓取静态的网站页面,也就是说我们打开某个链接,它的内容全部呈现出来。 但是如今的互联网大部分的web页面都是动态的,经常逛的网站例如京东、淘宝等,商品列表都是js,并有Ajax渲染, 下载某个链接得到的页面里面含有异步加载的内容,这样再使用之前的方式我们根本获取不到异步加载的这些网页内容。
使用Javascript渲染和处理网页是种非常常见的做法,如何处理一个大量使用Javascript的页面是Scrapy爬虫开发中一个常见的问题, 这篇文章将说明如何在Scrapy爬虫中使用scrapy-splash来处理页面中得Javascript。
scrapy-splash简介
scrapy-splash利用Splash将javascript和Scrapy集成起来,使得Scrapy可以抓取动态网页。
Splash是一个javascript渲染服务,是实现了HTTP API的轻量级浏览器,底层基于Twisted和QT框架,Python语言编写。所以首先你得安装Splash实例
安装docker
官网建议使用docker容器安装方式Splash。那么首先你得先安装docker
参考官方安装文档,这里我选择Ubuntu 12.04 LTS版本安装
升级内核版本,docker需要3.13内核
1 | $ sudo apt-get update |
安装CA
认证
1 | $ sudo apt-get install apt-transport-https ca-certificates |
增加新的GPG
key
1 | $ sudo apt-key adv --keyserver hkp://p80.pool.sks-keyservers.net:80 --recv-keys 58118E89F3A912897C070ADBF76221572C52609D |
打开/etc/apt/sources.list.d/docker.list
,如果没有就创建一个,然后删除任何已存在的内容,再增加下面一句
1 | deb https://apt.dockerproject.org/repo ubuntu-precise main |
更新APT
1 | $ sudo apt-get update |
安装
1 | $ sudo apt-get install docker-engine |
启动docker服务
1 | $ sudo service docker start |
验证是否启动成功
1 | $ sudo docker run hello-world |
上面这条命令会下载一个测试镜像并在容器中运行它,它会打印一个消息,然后退出。
安装Splash
拉取镜像下来
1 | $ sudo docker pull scrapinghub/splash |
启动容器
1 | $ sudo docker run -p 5023:5023 -p 8050:8050 -p 8051:8051 scrapinghub/splash |
现在可以通过0.0.0.0:8050(http),8051(https),5023 (telnet)来访问Splash了。
安装scrapy-splash
使用pip安装
1 | $ pip install scrapy-splash |
配置scrapy-splash
在你的scrapy工程的配置文件settings.py
中添加
1 | SPLASH_URL = 'http://192.168.203.92:8050' |
添加Splash中间件,还是在settings.py
中通过DOWNLOADER_MIDDLEWARES
指定,并且修改HttpCompressionMiddleware
的优先级
1 | DOWNLOADER_MIDDLEWARES = { |
默认情况下,HttpProxyMiddleware的优先级是750,要把它放在Splash中间件后面
设置Splash自己的去重过滤器
1 | DUPEFILTER_CLASS = 'scrapy_splash.SplashAwareDupeFilter' |
如果你使用Splash的Http缓存,那么还要指定一个自定义的缓存后台存储介质,scrapy-splash提供了一个scrapy.contrib.httpcache.FilesystemCacheStorage
的子类
1 | HTTPCACHE_STORAGE = 'scrapy_splash.SplashAwareFSCacheStorage' |
如果你要使用其他的缓存存储,那么需要继承这个类并且将所有的scrapy.util.request.request_fingerprint
调用替换成scrapy_splash.splash_request_fingerprint
使用scrapy-splash
SplashRequest
最简单的渲染请求的方式是使用scrapy_splash.SplashRequest
,通常你应该选择使用这个
1 | yield SplashRequest(url, self.parse_result, |
另外,你还可以在普通的scrapy请求中传递splash
请求meta关键字达到同样的效果
1 | yield scrapy.Request(url, self.parse_result, meta={ |
Splash API说明,使用SplashRequest
是一个非常便利的工具来填充request.meta['splash']
里的数据
- meta[‘splash’][‘args’] 包含了发往Splash的参数。
- meta[‘splash’][‘endpoint’] 指定了Splash所使用的endpoint,默认是render.html
- meta[‘splash’][‘splash_url’] 覆盖了
settings.py
文件中配置的Splash URL - meta[‘splash’][‘splash_headers’] 运行你增加或修改发往Splash服务器的HTTP头部信息,注意这个不是修改发往远程web站点的HTTP头部
- meta[‘splash’][‘dont_send_headers’] 如果你不想传递headers给Splash,将它设置成True
- meta[‘splash’][‘slot_policy’] 让你自定义Splash请求的同步设置
- meta[‘splash’][‘dont_process_response’] 当你设置成True后,
SplashMiddleware
不会修改默认的scrapy.Response
请求。默认是会返回SplashResponse
子类响应比如SplashTextResponse
- meta[‘splash’][‘magic_response’] 默认为True,Splash会自动设置Response的一些属性,比如
response.headers
,response.body
等
如果你想通过Splash来提交Form请求,可以使用scrapy_splash.SplashFormRequest
,它跟SplashRequest
使用是一样的。
Responses
对于不同的Splash请求,scrapy-splash返回不同的Response子类
- SplashResponse 二进制响应,比如对/render.png的响应
- SplashTextResponse 文本响应,比如对/render.html的响应
- SplashJsonResponse JSON响应,比如对/render.json或使用Lua脚本的/execute的响应
如果你只想使用标准的Response对象,就设置meta['splash']['dont_process_response']=True
所有这些Response会把response.url
设置成原始请求URL(也就是你要渲染的页面URL),而不是Splash
endpoint的URL地址。实际地址通过response.real_url
得到
Session的处理
Splash本身是无状态的,那么为了支持scrapy-splash的session必须编写Lua脚本,使用/execute
1 | function main(splash) |
而标准的scrapy session参数可以使用SplashRequest
将cookie添加到当前Splash cookiejar中
使用实例
接下来我通过一个实际的例子来演示怎样使用,我选择爬取京东网首页的异步加载内容。
京东网打开首页的时候只会将导航菜单加载出来,其他具体首页内容都是异步加载的,下面有个”猜你喜欢”这个内容也是异步加载的, 我现在就通过爬取这个”猜你喜欢”这四个字来说明下普通的Scrapy爬取和通过使用了Splash加载异步内容的区别。
首先我们写个简单的测试Spider,不使用splash:
1 | class TestSpider(scrapy.Spider): |
然后运行结果:
1 | 2016-04-18 14:42:44 test_spider.py[line:20] INFO ---------我这个是简单的直接获取京东网首页测试--------- |
我找不到那个”猜你喜欢”这四个字
接下来我使用splash来爬取
1 | import scrapy |
运行结果:
1 | 2016-04-18 14:42:51 js_spider.py[line:36] INFO ----------使用splash爬取京东网首页异步加载内容----------- |
可以看出结果里面已经找到了这个”猜你喜欢”,说明异步加载内容爬取成功!