美文网首页python网络技术Python专辑
【图文详解】python爬虫实战——5分钟做个图片自动下载器

【图文详解】python爬虫实战——5分钟做个图片自动下载器

作者: voidsky_很有趣儿 | 来源:发表于2016-05-13 20:19 被阅读35036次
我想要(下)的,我现在就要

python爬虫实战——图片自动下载器

之前介绍了那么多基本知识【Python爬虫】入门知识(没看的赶紧去看)大家也估计手痒了。想要实际做个小东西来看看,毕竟:

talk is cheap show me the code!

这个小工程的代码都在github上,感兴趣的自己去下载:
https://github.com/hk029/Pickup

制作爬虫的基本步骤

顺便通过这个小例子,可以掌握一些有关制作爬虫的基本的步骤。

一般来说,制作一个爬虫需要分以下几个步骤:

  1. 分析需求(对,需求分析非常重要,不要告诉我你老师没教你)
  2. 分析网页源代码,配合F12(没有F12那么乱的网页源代码,你想看死我?)
  3. 编写正则表达式或者XPath表达式(就是前面说的那个神器)
  4. 正式编写python爬虫代码

效果

运行:

恩,让我输入关键词,让我想想,输入什么好呢?好像有点暴露爱好了。

回车

好像开始下载了!好赞!,我看看下载的图片,哇瞬间我感觉我又补充了好多表情包....

好了,差不多就是这么个东西。

需求分析

"我想要图片,我又不想上网搜“
"最好还能自动下载"
……

这就是需求,好了,我们开始分析需求,至少要实现两个功能,一是搜索图片,二是自动下载。

首先,搜索图片,最容易想到的就是爬百度图片的结果,好,那我们就上百度图片看看

基本就是这样,还挺漂亮的。

我们试着搜一个东西,我打一个暴字,出来一系列搜索结果,这说明什么....

随便找一个回车

好了,我们已经看到了很多图片了,如果我们能把这里面的图片都爬下来就好了。我们看见网址里有关键词信息


我们试着在网址直接换下关键词,跳转了有没有!

这样,可以通过这个网址查找特定的关键词的图片,所以理论上,我们可以不用打开网页就能搜索特定的图片了。下个问题就是如何实现自动下载,其实利用之前的知识,我们知道可以用request,获取图片的网址,然后把它爬下来,保存成.jpg就行了。

所以这个项目就应该可以完成了。

分析网页

好了,我们开始做下一步,分析网页源代码。这里 我先切换回传统页面,为什么这样做,因为目前百度图片采用的是瀑布流模式,动态加载图片,处理起来很麻烦,传统的翻页界面就好很多了。

这里还一个技巧,就是:能爬手机版就不要爬电脑版,因为手机版的代码很清晰,很容易获取需要的内容。

好了,切换回传统版本了,还是有页码的看的舒服。

我们点击右键,查看源代码

这都是什么鬼,怎么可能看清!!

这个时候,就要用F12了,开发者工具!我们回到上一页面,按F12,出来下面这个工具栏,我们需要用的就是左上角那个东西,一个是鼠标跟随,一个是切换手机版本,都对我们很有用。我们这里用第一个


然后选择你想看源代码的地方,就可以发现,下面的代码区自动定位到了这个位置,是不是很NB!

我们复制这个地址

然后到刚才的乱七八糟的源代码里搜索一下,发现它的位置了!(小样!我还找不到你!)但是这里我们又疑惑了,这个图片怎么有这么多地址,到底用哪个呢?我们可以看到有thumbURL,middleURL,hoverURL,objURL

通过分析可以知道,前面两个是缩小的版本,hover是鼠标移动过后显示的版本,objURL应该是我们需要的,不信可以打开这几个网址看看,发现obj那个最大最清晰。

好了,找到了图片位置,我们就开始分析它的代码。我看看是不是所有的objURL全是图片

貌似都是以.jpg格式结尾的,那应该跑不了了,我们可以看到搜索出61条,说明应该有61个图片

编写正则表达式

通过前面的学习,写出如下的一条正则表达式不难把?

pic_url = re.findall('"objURL":"(.*?)",',html,re.S)

编写爬虫代码

好了,正式开始编写爬虫代码了。这里我们就用了2个包,一个是正则,一个是requests包,之前也介绍过了,没看的回去看!

#-*- coding:utf-8 -*-
import re
import requests

然后我们把刚才的网址粘过来,传入requests,然后把正则表达式写好

url = 'http://image.baidu.com/search/flip?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1460997499750_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&word=%E5%B0%8F%E9%BB%84%E4%BA%BA'



html = requests.get(url).text
pic_url = re.findall('"objURL":"(.*?)",',html,re.S)

理论有很多图片,所以要循环,我们打印出结果来看看,然后用request获取网址,这里由于有些图片可能存在网址打不开的情况,加个5秒超时控制。

pic_url = re.findall('"objURL":"(.*?)",',html,re.S)
i = 0
for each in pic_url:
    print each
    try:
        pic= requests.get(each, timeout=10)
    except requests.exceptions.ConnectionError:
        print '【错误】当前图片无法下载'
        continue

好了,再就是把网址保存下来,我们在事先在当前目录建立一个picture目录,把图片都放进去,命名的时候,用数字命名把

    string = 'pictures\\'+str(i) + '.jpg'
    fp = open(string,'wb')
    fp.write(pic.content)
    fp.close()
    i += 1

整个代码就是这样:

#-*- coding:utf-8 -*-
import re
import requests

url = 'http://image.baidu.com/search/flip?tn=baiduimage&ipn=r&ct=201326592&cl=2&lm=-1&st=-1&fm=result&fr=&sf=1&fmq=1460997499750_R&pv=&ic=0&nc=1&z=&se=1&showtab=0&fb=0&width=&height=&face=0&istype=2&ie=utf-8&word=%E5%B0%8F%E9%BB%84%E4%BA%BA'


html = requests.get(url).text
pic_url = re.findall('"objURL":"(.*?)",',html,re.S)
i = 0
for each in pic_url:
    print each
    try:
        pic= requests.get(each, timeout=10)
    except requests.exceptions.ConnectionError:
        print '【错误】当前图片无法下载'
        continue
    string = 'pictures\\'+str(i) + '.jpg'
    fp = open(string,'wb')
    fp.write(pic.content)
    fp.close()
    i += 1

我们运行一下,看效果(什么你说这是什么IDE感觉很炫!?赶紧去装Pycharm,Pycharm的配置和使用看这个文章!)!

好了我们下载了58个图片,咦刚才不是应该是61个吗?


我们看,运行中出现了有一些图片下载不了


我们还看到有图片没显示出来,打开网址看,发现确实没了。

所以,百度有些图片它缓存到了自己的机器上,所以你还能看见,但是实际连接已经失效

好了,现在自动下载问题解决了,那根据关键词搜索图片呢?只要改url就行了,我这里把代码写下来了

    word = raw_input("Input key word: ")
    url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word='+word+'&ct=201326592&v=flip'
    result = requests.get(url)

好了,享受你第一个图片下载爬虫吧!!当然不只能下载百度的图片拉,依葫芦画瓢,你现在应该做很多事情了,比如爬取头像,爬淘宝展示图,或是...美女图片,捂脸。一切都凭客官你的想象了,当然,作为爬虫的第一个实例,虽然纯用request已经能解决很多问题了,但是效率还是不够高,如果想要高效爬取大量数据,还是用scrapy吧,我下面会讲有关scrapy的一个实例:【图文详解】scrapy安装与真的快速上手——爬取豆瓣9分榜单

这个小工程的代码都在github上,感兴趣的自己去下载:
https://github.com/hk029/Pickup

相关文章

网友评论

  • 張無忌:不错,学习了!
  • 6434a5e4326e:为什么我报这个错
    File "D:/PytonText/Python.py", line 19, in <module>
    fp = open(string,'wb')
    FileNotFoundError: [Errno 2] No such file or directory: 'pictures\\0.jpg'
    b18aebc11a93:把pictures后面的\\修改
  • 77edb48f8875:大哥求问中文关键词为什么不行
  • ee52922aa58b:为什么输入中文会报错
  • 53bfd7eacd32:hi,我用python3.4运行不了,有解决方法吗?
    c1d1ece28e19:import re
    import requests



    def dowmloadPic(html,keyword):


    pic_url = re.findall('"objURL":"(.*?)",',html,re.S)
    i = 0
    print('找到关键词:'+keyword+'的图片,现在开始下载图片...')
    for each in pic_url:
    print('正在下载第'+str(i+1)+'张图片,图片地址:'+str(each))
    try:
    pic= requests.get(each, timeout=10)
    except requests.exceptions.ConnectionError:
    print('【错误】当前图片无法下载')
    continue
    string = 'pictures\\'+keyword+'_'+str(i) + '.jpg'
    #resolve the problem of encode, make sure that chinese name could be store
    fp = open(string.encode('cp936'),'wb')
    fp.write(pic.content)
    fp.close()
    i += 1



    if __name__ == '__main__':
    word = input("Input key word: ")
    url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word='+word+'&ct=201326592&v=flip'
    result = requests.get(url)
    dowmloadPic(result.text,word)
    c1d1ece28e19:有一点点区别而已,print不一样,还有raw_input不一样,还有windows上不需要decode,修改一点点能用
  • 9c2770b35531:怎么最多只能下载60张图片?
  • 9df7ea9d098c:楼主 发现这个语句"except requests.exceptions.ConnectionError" ,当下载不下来图片时程序会报错停下来,换成这个语句好了 " except Exception as e:"
  • Wakingup88688:楼主厉害!不过我用您的代码下载,发现每次最多只能下60张,然后又与网页上一比对,果然是前三页的内容,所以我估计源码当中是只加载了前三页图片的链接。
  • bdd22a0d6097:很好的入门教程
  • 53783e84c3f1:求问为什么下载到三十几张的时候就不行了
    9e92768e1384:@邋了个邋遢 我给加了个循环 可以下300多张
    import re
    import requests
    url='https://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word=%E5%B0%8F%E9%BB%84%E4%BA%BA&pn='
    t=0
    i=1
    while t<300:
    urll=url+str(t)+'&gsm=8c'
    html = requests.get(urll).text
    pic_url = re.findall('"objURL":"(.*?)",', html, re.S)
    for each in pic_url:
    print(each)
    try:
    pic = requests.get(each)
    except requests.exceptions.ConnectionError:
    print('error!')
    continue
    string = 'pictures\\' + str(i) + '.jpg'
    fp = open(string, 'wb')
    fp.write(pic.content)
    fp.close()
    i += 1
    t+=20
    邋了个邋遢:我是到27张的时候就没了
  • 钱塘:厉害!
  • 00d7279812b5:写得很好,我所在的团队搭了一个爬虫框架,直接输入样本网址就可以快速采集已有的各个列表下的网站内容,可以提一些建议。http://www.gooseeker.com/res/datadiy.html
  • 程序猿联盟:我用的Python3,为什么提示“ 'str' object has no attribute 'content'”,应该是没有content这个属性吧?求解
  • 01ab19ac665f:亲, 你的这个代码我试了一下,感觉棒棒哒,可就是有的网页的图片为什么下载不了呢??求解
  • 4072c4245b2f:正在下载第1张图片,图片地址:http://img.sootuu.com/vector/2006-4/200642011256169.jpg
    Traceback (most recent call last):
    File "D:/Pickup-master/Pickup2/PicDownloader.py", line 31, in <module>
    dowmloadpic(result.text, word)
    File "D:/Pickup-master/Pickup2/PicDownloader.py", line 20, in dowmloadpic
    fp = open(string.decode('utf-8').encode('cp936'), 'wb')
    AttributeError: 'str' object has no attribute 'decode'
    :sob: 求解答
  • Lixiancao:#coding:utf-8

    import requests,re

    word = raw_input("Input key word:")
    url = 'http://image.baidu.com/search/flip?tn=baiduimage&ie=utf-8&word='+word+'&ct=201326592&v=flip'
    result = requests.get(url)
    这是按照你的代码写上去的 但在shell界面输入‘暴漫表情’却出现的是UnicodeDecodeError: 'utf8' codec can't decode byte 0xb1 in position 64: invalid start byte,请大师帮忙
  • 4588e4274830:学习python
  • 8dc73e94815d:图片爬虫 python
    voidsky_很有趣儿:@Starfine 恩哼?
  • Lyrus:爬虫还是用bs4 requests scrapy方便一些
    voidsky_很有趣儿:@Lyrus 客官,已经上了哦~ :joy:
    Lyrus:@voidsky 期待后续的文章
    voidsky_很有趣儿:@Lyrus 恩 这是第一个小例子就用request就好了,对于大规模数据爬取还是scrapy方便,我后面的例子都是scrapy框架的
  • 向日葵的笑:pycharm上用下载第三方库吗
    voidsky_很有趣儿:@抹茶与橙汁 对的,你看看python目录在PATH路径下吗,没有就到python目录下运行pip命令
    向日葵的笑:@抹茶与橙汁 嗯嗯直接在cmd里面下载吗。
    Lyrus:@抹茶与橙汁 pycharm只带了些常用的插件 没有第三方模块 requests scrapy肯定是没有的 用pip安装吧
  • 2756c08759d6:学习了
  • b43631066edc:下载了如何使用
    voidsky_很有趣儿:@京城 你是说代码吗??
  • 森游:Nice
    voidsky_很有趣儿:@森游 谢谢~~ :relaxed:

本文标题:【图文详解】python爬虫实战——5分钟做个图片自动下载器

本文链接:https://www.haomeiwen.com/subject/qrdmrttx.html