从零开始开发一个App(1)- Scrapy爬虫

前言

最近我体验了一次全栈(伪)开发App的经历,获益良多,我想把过程记录一下,一是回顾与巩固,二是抛砖引玉,如有谬误以求大神指点。

首先,我们需要明确我们最终的目标是什么。
比如现在我要做一个简单的游戏评测资讯的App。
那么我首先需要【数据来源】然后需要一个提供数据接口的【服务端】,我将先完成这二者,然后才开始App的开发。

因此我将分为三步[Python爬虫]->[Ruby服务端]->[iOS客户端]来完成这个App。

而爬虫技术,将作为先遣部队,为我们攻下第一个数据堡垒。

开始

许多语言都有成熟的爬虫框架,我选择的是使用Python语言的Scrapy框架,这是一个非常完善而且功能强大的爬虫框架,我们只需要用到最基础的功能。Scrapy拥有非常棒的中文文档 安装和入门教程文档一应俱全,我就不赘述了。

安装好之后,我们打开终端,开始创建令人激动的爬虫

scrapy startproject yxReview

cd yxReview 

scrapy genspider yx_review www.ali213.net/news/pingce

完成后结构大致如图


k

就这样,基础的框架和代码已经被生成了,接着我们用编辑器打开yxReview目录,首先在items.py文件下新建一个item。
我们可以先打开网页游侠评测分析一下

游侠评测

简单起见,我们目前只抓取4个属性,创建代码:

class ArticleItem(scrapy.Item):
    title = scrapy.Field()
    cover_image = scrapy.Field()
    summary = scrapy.Field()
    score = scrapy.Field()

然后我们进入目录下的spiders文件夹,打开yx_review.py
如下编辑

# -*- coding: utf-8 -*-
import scrapy

from yxReview.items import ArticleItem

class YxReviewSpider(scrapy.Spider):
    name = "yx_review"
    allowed_domains = ["www.ali213.net"]
    start_urls = (
        'http://www.ali213.net/news/pingce/',
    )

    def parse(self, response):
        items = []
        for sel in response.xpath('//div[@class="t3_l_one_l"]'):
            item = ArticleItem()
            item["cover_image"] = sel.xpath("div[@class='one_l_pic']/a/img/@src").extract()
            item["title"] =   sel.xpath("div[@class='one_l_con']/div[@class='one_l_con_tit']/a/text()").extract()
            item["summary"] = sel.xpath("div[@class='one_l_con']/div[@class='one_l_con_con']/text()").extract()
            items.append(item)

        index = 0
        for scoreSel in response.xpath('//div[@class = "t3_l_one_r"]'):
            item = items[index]
            item["score"] = scoreSel.xpath("div/span/text()").extract()
            index = index + 1
            yield item

        print items

这里主要是parse方法,返回请求到的HTML然后解析出我们需要的数据装进ArticleItem里,然后将items传输到pipeline中。

传输管道

在爬虫scrapy中,pipeline是一个重要的概念,它相当于一个“加工器”,可以连接多个自定义的pipeline,完成数据的后续处理工作,比如进行筛选分类,或者持久化到本地等等,按优先级串连。

在本例中,为了简便,我将创建一个管道将数据简单处理并保存到本地文件中。

打开pipelines.py,编辑如下

# -*- coding: utf-8 -*-

from scrapy import signals
from scrapy.contrib.exporter import JsonItemExporter

class YxreviewPipeline(object):

    @classmethod
    def from_crawler(cls, crawler):
         pipeline = cls()
         crawler.signals.connect(pipeline.spider_opened, signals.spider_opened)
         crawler.signals.connect(pipeline.spider_closed, signals.spider_closed)
         return pipeline

    def spider_opened(self, spider):
        self.file = open('items.json', 'wb')
        self.exporter = JsonItemExporter(self.file)
        self.exporter.start_exporting()

    def spider_closed(self, spider):
        self.exporter.finish_exporting()
        self.file.close()

    def process_item(self, item, spider):
        self.checkData(item, "title")
        self.checkData(item, "summary")
        self.checkData(item, "cover_image")
        self.checkData(item, "score")

        self.exporter.export_item(item)

        return item

    def checkData(self ,item, field):
        if len(item[field]) > 0:
            newText = item[field][0].encode("utf-8")
            item[field] = newText.strip()
        else:
            item[field] = ""

前面三个方法,相当于给当前的pipeline提供了一个JsonItemExporter的插件,用于将所有爬取的item导出为JSON格式的文件之中。

另外需要说明的是,这里自定义了一个checkData方法,作为一个简单的数据类型验证,以及将之前解析的内容转换成字符串并且进行了utf-8编码的转码,保障中文内容的正确显示。

完成后,打开工程目录下的items.json文件,可以看到数据已经以JSON格式保存了下来。

items.json

告一段落

至此,爬虫的任务可以告一段落,当然,在实际应用中还需要解决更多的问题,比如分页爬取,反爬虫的应对等等,迫于文章篇幅暂且不表,算作扩展阅读吧 :)

下一篇,我们将使用ruby on rails编写服务端,提供移动端的REST API接口。


系列链接
从零开始开发一个App(1)- Scrapy爬虫
从零开始开发一个App(2)- 简易REST API服务端
从零开始开发一个App(3)- iOS客户端

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 157,012评论 4 359
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 66,589评论 1 290
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 106,819评论 0 237
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 43,652评论 0 202
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 51,954评论 3 285
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 40,381评论 1 210
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 31,687评论 2 310
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 30,404评论 0 194
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 34,082评论 1 238
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 30,355评论 2 241
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 31,880评论 1 255
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 28,249评论 2 250
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 32,864评论 3 232
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 26,007评论 0 8
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 26,760评论 0 192
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 35,394评论 2 269
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 35,281评论 2 259

推荐阅读更多精彩内容