美文网首页
Python 微博爬虫 根据关键词搜索博主信息

Python 微博爬虫 根据关键词搜索博主信息

作者: 拉灯的小手 | 来源:发表于2020-03-19 22:35 被阅读0次

环境:

win10
python3.6.1
pycharm2017
retrying=1.3.3
requests=2.22.0

==socks代理 :pip install -U 'requests[socks]'==

抓包获取微博数据接口:

  • 搜索接口
https://**********?containerid=100103type%3D{chanenl}%26q%3D{quote(self.words)}&page_type=searchall&page={page}
  • 个人信息接口
https://**********?title=%E5%9F%BA%E6%9C%AC%E8%B5%84%E6%96%99&value={userid}'

==接口关键参数隐藏一下,避免不必要的麻烦==


1.代理配置

==使用socks代理需安装 :pip install -U 'requests[socks]'==

    def _proxy(self):
        """
        调用IP代理
        :return:
        """
        # 判断代理IP是否过期
        new_time = datetime.datetime.now()
        if self.expire_time and new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):
            # # 当前时间小于代理到期时间证明代理可用
            # if new_time < datetime.datetime.strptime(self.expire_time, "%Y-%m-%d %H:%M:%S"):
            print(f'当前使用代理IP:{self.proxies} 过期时间:{self.expire_time}')
            return
        proxy = Proxy()
        ip_port, expire_time = proxy.main()
        self.headers = proxy.headers
        self.proxies = {
            'http': 'socks5://{}'.format(ip_port),
            'https': 'socks5://{}'.format(ip_port)
        }
        self.expire_time = expire_time

2.根据关键词获取userid

    def _get_userid(self, response):
        """
        提取userid 拼接个人信息接口
        :param content:
        :return:
        """
        userid = []
        content = json.loads(response)
        cards = content['data']['cards']  # 数据列表
        for card in cards:
            if card['card_type'] != 11:  # 状态=11返回的是用户数据列表
                continue
            for card_group in card['card_group']:
                userid.append(card_group['user']['id'])  # 用户id

        return userid

3.根据userid获取个人信息

    def _parse_json(self, res):
        """
        解析个人信息
        :param content:
        :return:
        """
        content = json.loads(res)

        data = {}
        data['用户id'] = content['data']['userInfo']['id']  # userid
        data['用户名'] = content['data']['userInfo']['screen_name']  # 用户名
        # 性别
        sex = content['data']['userInfo']['gender']
        data['性别'] = '女' if sex == 'f' else '男'
        data['微博认证名称'] = content['data']['userInfo']['verified_reason']  # 微博认证名称
        data['简介'] = content['data']['userInfo']['description']  # 简介
        data['粉丝数量'] = content['data']['userInfo']['followers_count']  # 粉丝数量
        data['发布微博量'] = content['data']['userInfo']['statuses_count']  # 发布微博量
        data['关注量'] = content['data']['userInfo']['follow_count']  # 关注量
        data['用户头像'] = content['data']['userInfo']['profile_image_url']  # 用户头像
        data['移动端地址'] = content['data']['userInfo']['profile_url']  # 移动端地址
        data['关键词'] = self.words

        return data

4.数据保存

    def _save_xls(self, data):
        """
        保存数据
        data : 字典格式 必须和表头长度一样
        :return:
        """
        # 判断文件是否存在 如果存在则读取然后插入新数据,不存在则创建一个新DataFrame并添加表头
        file = f'{PATH}/数据/关键词-{self.words}.xlsx'
        Header = ['用户id', '用户名', '性别', '微博认证名称', '简介', '粉丝数量', '发布微博量', '关注量', '用户头像', '移动端地址', '关键词']
        if not os.path.exists(f'{PATH}/数据'):
            os.mkdir(f'{PATH}/数据')
        if not os.path.exists(file):
            # 创建一个新的文件 并写入表头
            df = pd.DataFrame(columns=Header)
        else:
            # 读取现有文件
            df_read = pd.read_excel(file)
            df = pd.DataFrame(df_read)
        # 定义一行新数据 data为一个字典
        new_data = pd.DataFrame(data, index=[1])  # 自定义索引为:1 ,这里也可以不设置index
        # 把定义的新数据添加到原数据最后一行 ignore_index=True,表示不按原来的索引,从0开始自动递增
        df = df.append(new_data, ignore_index=True)
        # 保存数据 sheet_name工作表名 index是否添加索引 header表头
        df.to_excel(file, sheet_name=self.words, index=False, header=True)

数据:

在这里插入图片描述

2020.3.24更新

  • 添加GUI界面
  • 增加IP代理控制
  • 主程序增加多线程启动


    在这里插入图片描述

本文仅供学习交流使用,如侵立删!
企鹅 、WX: 1033383881


相关文章

网友评论

      本文标题:Python 微博爬虫 根据关键词搜索博主信息

      本文链接:https://www.haomeiwen.com/subject/rriryhtx.html