美文网首页
Scrapy——入门基础

Scrapy——入门基础

作者: 哈喽小生 | 来源:发表于2018-01-17 11:54 被阅读0次
  • 没有金刚钻别揽瓷器活,当我们在深度爬取时和海量数据采集时,就需要一把利器帮助我们来完成,这时的scrapy就闪亮登场了!!!
  • 开始接触一个新的东西我们一般会从who? what?where?how?来解析它——废话有点多啊,还是开始吧!

一:scrapy概述

  • 用python开发的主要进行数据采集的一个应用程序框架,底层使用了twisted异步模块,实现了快速,高层次采集数据

二:安装

  • windows环境下安装(需要两步完成)
    首先安装scrapy
    pip install scrapy
    easy_install scrapy
    然后安装win32
    pip install pypiwin32
    ps:为什么要安装win32?
    因为安装了scrapy之后,在Windows可以正常的项目开发,但是运行项目会出现报错类似于winerror这样的问题,安装了pypiwin32模块,可以是scrapy模块调用win底层C库进行函数操作

三:scrapy项目开发

1.创建项目:通过命令来完成

scrapy startproject +项目名称

如:创建一个myspider项目,创建成功后会出现如下的项目结构


image.png
|--myspider/ 项目根目录
    |--scrapy.cfg项目配置文件
    |--myspider/ 爬虫程序开发模块
        |--spiders/爬虫程序所在的目录
            |---demo
        |--items.py采集的数据,定义封装模型类
        |--pipelines.py采集完成后对数据进行验证和存储模块
        |--middlewares.py中间件定义模块
        |--setting.py项目设置模块

2.在spiders文件下开始爬虫程序的开发

1.分析要爬取的url地址

'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=6',
'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=7',
'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=8',

ps:采集网站上的三页数据,分析自己想要采集的数据,并自定义字段名称
职位:job
公司:company
薪水:salary

2.将自定义的字段封装在items.py模块中,创建item类

import scrapy 

#定义一个类
class ZhaopinItem(scrapy.Item)

    #定义属性字段
    job = scrapy.Field()
    company = scrapy.Field()
    salary = scrapy.Field()

3.在spiders文件下创建爬虫程序

import scrapy
from .. import items

class ZhiLian(scrapy.Spider):

    #定义爬虫的名称,用于在命令中调用
    name = 'zl'

    #定义域名限制,只能爬取xxx域名下的数据
    allowed_domains = ['zhaopin.com']
  
    #定义url地址
    start_urls =(
 
        'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=6',
        'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=7',
        'http://sou.zhaopin.com/jobs/searchresult.ashx?jl=%E5%8C%97%E4%BA%AC&kw=%E7%88%AC%E8%99%AB&sm=0&p=8',
    )

    def parse(self, response):

        '''
        采集到数据后,自动执行的函数,主要进行如下功能
                数据筛选——》封装Item对象——》传递数据给Pipelines
                    采集到的数据封装在response
        '''
        #将数据保存到文件中
        filename = response.url.split('&')[-1] + '.html'
        with open(filename, 'w') as f:
            #爬虫采集到的数据,会封装在response.body属性中,可以直接获取
            f.write(response.body)

4.数据处理
在pipelines.py模块中定义处理Item数据的pipelines,将数据存储到数据库中(后续操作)

3.运行项目程序

在命令行里切换到项目根目录文件路径下,然后在命令行里运行:
scrapy crawl + name 定义爬虫的名称
如:scrapy crawl zl 这样项目就启动了

看到这里应该对scrapy框架的应用有了初步的了解,欲知后事且看下回分解.....

相关文章

  • scrapy笔记

    1 scrapy的运行原理 参考:Learning Scrapy笔记(三)- Scrapy基础Scrapy爬虫入门...

  • 10分钟从入门到进阶python爬虫

    本文目录 基础入门 基本模块 方法实例 爬虫框架(scrapy) 常用工具(神器) 分布式爬虫 一、基础入门 1....

  • scrapy基础入门

    写在前面的话,我这个人虚荣心强 1.scrapy 的安装 1.scrapy 依赖的包太多,所以我建议使用anaco...

  • Scrapy——入门基础

    没有金刚钻别揽瓷器活,当我们在深度爬取时和海量数据采集时,就需要一把利器帮助我们来完成,这时的scrapy就闪亮登...

  • Scrapy -入门基础

    https://www.runoob.com/w3cnote/scrapy-detail.html[https:/...

  • Scrapy入门案例

    Scrapy入门案例 Scrapy教程: 官方 《Scrapy 1.5 documentation》 中文 《S...

  • scrapy小记

    scrapy入门学习地图 scrapy 框架:http://doc.scrapy.org/en/latest/to...

  • Scrapy爬虫入门基础

    制作Scrapy爬虫 1、新建项目(命令行中输入:scrapy startproject xxx):新建一个爬虫项...

  • Scrapy基础入门(一)

    俏咪咪的给自己放了个小长假之后,我白汉三又回来啦。这次要开始慢慢系统学习scrapy了,这个框架真的很厉害,我只是...

  • 28.scrapy的入门使用

    scrapy的入门使用 学习目标: 掌握 scrapy的安装 应用 创建scrapy的项目 应用 创建scrapy...

网友评论

      本文标题:Scrapy——入门基础

      本文链接:https://www.haomeiwen.com/subject/hypyoxtx.html