美文网首页
只用看此篇系列——scrapy批量运行爬虫怎么搞?

只用看此篇系列——scrapy批量运行爬虫怎么搞?

作者: 安森老叔叔 | 来源:发表于2020-03-01 10:14 被阅读0次

开干

1、在spiders同级创建任意目录,如:commands
2、在其中创建 crawlall.py 文件 (此处文件名就是自定义的命令)


image.png

3.crawlall.py

from scrapy.commands import ScrapyCommand
from scrapy.utils.project import get_project_settings
 
 
class Command(ScrapyCommand):

    requires_project = True
 
    def syntax(self):
        return '[options]'
 
    def short_desc(self):
        return 'Runs all of the spiders'
 
    def run(self, args, opts):
        spider_list = self.crawler_process.spiders.list()
        for name in spider_list:
            self.crawler_process.crawl(name, **opts.__dict__)
        self.crawler_process.start()

4.settings.py文件中添加👇👇👇

# COMMANDS_MODULE = ‘项目名称.目录名称’ 
COMMANDS_MODULE = 'article.commands'

5.terminal中执行

scrapy crawlall

到此为止!

相关文章

网友评论

      本文标题:只用看此篇系列——scrapy批量运行爬虫怎么搞?

      本文链接:https://www.haomeiwen.com/subject/ejztkhtx.html