python爬虫的最佳实践(八)--初探Scrapy

程序员可以让步,却不可以退缩,可以羞涩,却不可以软弱,总之,程序员必须是勇敢的

本节目标

  1. 配置scrapy环境,创建第一个scrapy项目
  2. 了解scrapy项目结构。
  3. 使用scrapy成功编写一个爬虫。

小插曲

有人说,virtualenvpip是pythonner的两大神器。pip我们在之前的项目中用过很多次了,今天来告诉大家virtualenv怎么使用。

所谓virtualenv,你可以简单的理解为创建一个虚拟的python环境,这个python环境是和本机的其他python环境互不干扰的,所以随你怎么玩~玩坏了删除了重新创建就好了。

首先,打开pycharm。选择file->Default Setting,如图:

1.png

单击左上角setting标准,选择Create VirtualEnv,如图:


2.png

给你的virtyalEnv起个名字,然后选择基础的python环境,记得勾选下面的Inhert global site-packages选项,这回复制你安装的第三方库到你的虚拟环境中,就不用再安装一次了。

这样,一个虚拟环境便创建好了,你到指定的位置可以看到一个虚拟环境的文件夹,进入可以看到一个完整的python环境,python的第三方库都在Scripts文件夹下可以找到,如果要给虚拟环境安装第三方库,可以从pycharm安装,也可以直接运行 虚拟环境根目录\Scripts\pip.exe install packageName。好了这样我们的虚拟环境变创建好了。

安装scrapy

建议用python2.x的版本安装。
打开pycharm,选择 file->Default Setting,选中刚刚创建的虚拟环境,点击+,在搜索框中输入scrapy。如图:

3.png

点击安装等待安装完毕即可。

创建项目

首先把刚刚创建的虚拟环境的Scripts文件夹加入到环境变量中,然后运行scrapy startproject tutorial,执行完毕后可以看到tutorial项目已经被创建在根目录下,目录结构如下:

4.png

下面来简单介绍一下各个文件的作用:

  • scrapy.cfg:项目的配置文件
  • items.py:项目的items文件,用来定义数据结构
  • pipelines.py:项目的pipelines文件,用来处理数据
  • settings.py:项目的设置文件
  • spiders/:存储爬虫的目录

接下来我们创建第一个scrapy爬虫

第一个scrapy爬虫

在spiders目录下创建一个新的python文件命名为test.py,然后代码如下:

#coding:utf-8
import scrapy
from scrapy.spiders import BaseSpider
from bs4 import BeautifulSoup

class testSpider(scrapy.Spider):
    name = 'test'
    start_urls = ['https://s.2.taobao.com/list/list.htm?spm=2007.1000337.0.0.RrSiSG&catid=50100398&st_trust=1&page=1&ist=0']

    def parse(self, response):
        for title in response.xpath('//*[contains(concat( " ", @class, " " ), concat( " ", "item-title", " " ))]//a'):
            yield scrapy.Request('http:'+title.xpath('@href').extract()[0], self.detail)

    def detail(self, response):
        data = BeautifulSoup(response.body, 'lxml')
        area = data.select('#J_Property > h1')
        print area[0].get_text()

首先引入库scrapy,紧接着引入库beautifulsoup,没错,scrapy可以和beautifulsoup结合起来使用

name = 'test'定义了这个爬虫的名称,这个名称必须是唯一的,以便用来区分其他爬虫。
start_urls = ['https://s.2.taobao.com/list/list.htm?spm=2007.1000337.0.0.RrSiSG&catid=50100398&st_trust=1&page=1&ist=0']
定义了开始的url,这个和pyspider类似,可以填入多个url。

def parse(self, response):
        for title in response.xpath('//*[contains(concat( " ", @class, " " ), concat( " ", "item-title", " " ))]//a'):
            yield scrapy.Request('http:'+title.xpath('@href').extract()[0], self.detail)

parse这个函数是我们继承的scrapy.Spiderclass里面内置的函数,我们对它进行重写,当我们的spider开始运行的时候会首先请求start_urls里面的链接并调用parse函数,给其返回一个response对象。

response.xpath('//*[contains(concat( " ", @class, " " ), concat( " ", "item-title", " " ))]//a')

上面这句是使用xpath定位标签,scrapy支持xpath,还记得上节介绍的infolite么,刚好可以结合起来使用。如图得到了我们要的title的xpath:

5.png

我们选择咸鱼网的列表的title,然后创建一个yield迭代器去遍历每个title里面的url,代码如下:

yield scrapy.Request('http:'+title.xpath('@href').extract()[0], self.detail)

scrapy.Request函数第一个参数传入url,第二个参数传入callback。对于我们已经取出来的title的a标签,我们依然可以通过xpath取出里面的属性title.xpath('@href'),如果要取出文字,则使用title.xpath('text()')

接下来我们进入到detail函数:

def detail(self, response):
        data = BeautifulSoup(response.body, 'lxml')
        area = data.select('#J_Property > h1')
        print area[0].get_text()

一如我们之前讲解的,在这里,我们用beautifulsoup解析response.body,然后通过csspath取出我们想要的信息。

至此,我们第一个scrapy爬虫就写完了,是不是比想象中的简单呢?

写在最后

今天,我们简单介绍了scrapy并实现了一个scrapy爬虫,下一节是scrapy的进阶篇,我们将介绍scrapy中items 与pipelines的用法。小伙伴们可以用scrapy把我们之前写过的爬虫再重新试试,看看效率如何~

有兴趣的同学可以加群498945822一起交流学习哦~~
发现问题的同学欢迎指正,直接说就行,不用留面子,博主脸皮厚!

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,373评论 4 361
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,732评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 107,163评论 0 238
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,700评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 52,036评论 3 286
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,425评论 1 211
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,737评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,421评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,141评论 1 239
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,398评论 2 243
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,908评论 1 257
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,276评论 2 251
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,907评论 3 233
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,018评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,772评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,448评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,325评论 2 261

推荐阅读更多精彩内容