美文网首页
python爬虫数据写入mongodb数据库

python爬虫数据写入mongodb数据库

作者: 迷迭香_d0e9 | 来源:发表于2018-06-05 15:20 被阅读0次

前置条件:

首先在windows下安装MongoDB

安装pymongo:

pip install pymongo

使用python爬到了想要的数据,如: 使用python爬虫抓取新浪网的新闻信息

脚本如下:

import requests

from bs4import BeautifulSoup

import pymongo

url ='http://news.sina.com.cn/china/'

res = requests.get(url)# 使用get方法请求url

res.encoding ='utf-8'      # 将编码格式设置为utf-8

soup = BeautifulSoup(res.text, 'html.parser')

client = pymongo.MongoClient('localhost', 27017)# 创建连接,因为用的本机的mongodb数据库,所以直接写localhost即可,也可以写成127.0.0.1,27017为端口

db = client['mydb']# 连接的数据库

collection = db['my_collection']# 连接的表

for newsin soup.select('.news-item'):#查找出class内容含news-item的,并使用循环遍历每一个

    if len(news.select('h2')) >0 :# 判断标题是否为空,不为空时做详细处理

        h2 = news.select('h2')[0].text# 获取新闻的标题,并赋值给变量h2

        time = news.select('.time')[0].text# 获取标题的时间,并赋值给time

        url = news.select('a')[0]['href']# 获取标题的url,并赋值给url

        data = {'title': h2, 'time': time, 'url':url}# 将数据存入到字典变量data中

        collection.insert(data)# 将data中的输入插入到mongodb数据库

执行后查看mongodb数据库内容是否有更新

insert成功


pymongo的基本使用

创建连接

import pymongo  

client = pymongo.MongoClient('localhost', 27017)  

连接数据库

db = client['mydb']  

连接聚集

collection = db['my_collection']  

插入记录

collection.insert({"key1":"value1","key2","value2"}) 

删除记录

collection.remove() 

按条件删除

collection.remove({"key1":"value1"})  

更新记录

collection.update({"key1": "value1"}, {"$set": {"key2": "value2", "key3": "value3"}}) 

查询一条记录:find_one()不带任何参数返回第一条记录.带参数则按条件查找返回

collection.find_one()  

collection.find_one({"key1":"value1"}) 

查询结果排序

单列排序

collection.find().sort("key1") # 默认为升序  

collection.find().sort("key1", pymongo.ASCENDING) # 升序  

collection.find().sort("key1", pymongo.DESCENDING) # 降序  

多列排序

collection.find().sort([("key1", pymongo.ASCENDING), ("key2", pymongo.DESCENDING)]) 

相关文章

  • python爬虫数据写入mongodb数据库

    前置条件: 首先在windows下安装MongoDB 安装pymongo: pip install pymongo...

  • python自动化爬取地名的gps信息 !

    知识点: 1、python 2、scrapy爬虫框架+mongodb数据库 3、http://www.gpsspg...

  • python写入csv空行,写入中文乱码

    当编写python 爬虫demo 写入数据到CSV中或 在公司业务数据中对数据进行拆分、清洗后存储CSV导入数据库...

  • Mongodb命令

    Python操作MongoDB一 安装 pymongo 二 链接MongoDB数据库 三 选择数据库三 选择数据库...

  • Database MongoDB

    开启MongoDB之路 因为python 爬虫和网站的需要,数据库必不可少。但是,mysql真的让我非常的困惑,尤...

  • python数据库操作MySQL-MongoDB-Redis之二

    python数据库操作MySQL-MongoDB-Redis之二 MongoDB 一 MongoDB 在...

  • mongodb CPU占用过高

    问题描述 机器配置:2核2G 环境配置:python3.7 asyncio爬虫使用morto读取写入数据库 问题字...

  • python爬虫入门2

      有了上次爬虫的基础,本次教程主要把爬到的数据存入MongoDB数据库中。  MongoDB是一个介于关系数据库...

  • 一.开始使用数据库MongoDB

    开始使用数据库MongoDB 给数据库命名: 在文件下创建表单: 往数据库中写入数据: 展示数据库中的数据: 数据...

  • 数据库 MongoDB

    MongoDB 数据库:主要运用于爬虫。 MongoDB是一个基于分布式,文件数据存储的NoSQL 数据库。是由c...

网友评论

      本文标题:python爬虫数据写入mongodb数据库

      本文链接:https://www.haomeiwen.com/subject/dbwpsftx.html