美文网首页
Selenium+Beautiful爬取京东商品

Selenium+Beautiful爬取京东商品

作者: Yuanshuo | 来源:发表于2020-01-31 21:30 被阅读0次

流程框架

  • 搜索关键字,利用selenium驱动浏览器搜索关键字
  • 分析页码并翻页,得到商品页码数,模拟翻页,得到后续页码的商品列表
  • 分析提取商品内容,利用PyQuery分析源码,解析得到商品列表
  • 存储至MongoDB,将商品列表信息存储到数据库
from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException
from bs4 import BeautifulSoup
import json
broswer = webdriver.Chrome()
wait = WebDriverWait(broswer, 10)
def search():
    try:
        broswer.get('https://www.jd.com')
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#key'))
        )
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, '#search > div > div.form > button')) 
        )
        input.send_keys('口罩')
        submit.click()
        total = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > em:nth-child(1) > b'))
        ) 
        get_products()
        return total.text
    except TimeoutException:
        return search()
def next_page(pager_number):
    try:
        input = wait.until(
                EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > input'))
            )
        submit = wait.until(
                EC.element_to_be_clickable((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > a')) 
            )
        input.clear()
        input.send_keys(pager_number)
        submit.click()
        wait.until(EC.text_to_be_present_in_element(
            (By.CSS_SELECTOR,'#J_bottomPage > span.p-num > a.curr'), str(pager_number))
                  )
        get_products()
    except TimeoutException:
        return next_page(pager_number)   
def get_products():
    wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, '#J_bottomPage > span.p-skip > em:nth-child(1) > b'))
        ) 
    html = broswer.page_source
    soup = BeautifulSoup(html, 'lxml')
    titles = soup.select('.gl-item .p-name.p-name-type-2 a em')
    urls = soup.select('.gl-item .p-img a')
    
    for title, url in zip(titles, urls):
        product = {
            'title':title.get_text(),
            'url':url['href']
        }
        write_to_file(product)
        print(product)
def write_to_file(product):
    with open('JD_product.txt', 'a', encoding='utf-8') as f:
        f.write(json.dumps(product, ensure_ascii=False) + '\n')
        f.close
def main():
    total = int(search())
    for i in range(2, total+1):
        next_page(i)
    broswer.close()
if __name__ == '__main__':
    main()

相关文章

  • Selenium+Beautiful爬取京东商品

    流程框架 搜索关键字,利用selenium驱动浏览器搜索关键字 分析页码并翻页,得到商品页码数,模拟翻页,得到后续...

  • 京东商品爬取

    这次的练习主要是对京东的ipad商品页面进行爬取,主页如下: items.py 对名字、商铺、价格和营销方式进行抓...

  • 案例集锦

    案例一: 京东商品页面的爬取 案例二:亚马逊商品页面的爬取 由于amazon禁止python访问,要把header...

  • 网络爬虫实战(5个案例)

    案例1:京东商品页面的爬取 商品链接 案例2:亚马逊商品页面的爬取 商品链接 案例3:百度360关键词提交 搜索引...

  • 爬取京东商品实例

  • requests库网络爬取实战

    @[toc] 实例1:京东商品页面的爬取 实例2:亚马逊商品页面的爬取 需要伪造请求头 实例3:百度/360搜索关...

  • 入门级爬虫(2)

    requests库入门实操我的个人博客 京东商品页面爬取 亚马逊商品页面的爬取 百度/360搜索关键字提交 IP地...

  • 1.python爬虫实例

    1.京东商品页面的爬取 2.亚马逊商品页面的爬取 用headers字段,让代码模拟浏览器向亚马逊服务器提供请求。 ...

  • 爬取京东商品评论

    爬取京东商品评论 #--*--coding:utf-8--*-- import requests import j...

  • 爬取京东商品信息

    功能 从京东商城的商品列表页面解析出商品详情页链接,进而解析出商品名称,编号,店铺,品类等信息 代码片段及说明 模...

网友评论

      本文标题:Selenium+Beautiful爬取京东商品

      本文链接:https://www.haomeiwen.com/subject/pvdnthtx.html