50行Python代码,教你获取公众号全部文章

论坛 期权论坛 期权     
Python爱好者社区   2019-7-21 15:33   3910   0

爬取公众号的方式常见的有两种
通过搜狗搜索去获取,缺点是只能获取最新的十条推送文章
通过微信公众号的素材管理,获取公众号文章。缺点是需要申请自己的公众号。




今天介绍一种通过抓包PC端微信的方式去获取公众号文章的方法。相比其他的方法非常方便。







如上图,通过抓包工具获取微信的网络信息请求,我们发现每次下拉刷新文章的时候都会请求 mp.weixin.qq.com/mp/xxx (公众号不让添加主页链接,xxx表示profile_ext) 这个接口。

经过多次测试分析,用到了以下几个参数
  • __biz : 用户和公众号之间的唯一id,
  • uin :用户的私密id
  • key :请求的秘钥,一段时候只会就会失效。
  • offset :偏移量
  • count :每次请求的条数
数据如下
  1. { "ret": 0, "errmsg": "ok", # 请求状态 "msg_count": 10,  # 信息条数 "can_msg_continue": 1, # 是否还可以继续获取,1代表可以。0代表不可以,也就是最后一页 "general_msg_list": "{"list":[]}", # 公众号文本信息 "next_offset": 20,   "video_count": 1, "use_video_tab": 1, "real_type": 0, "home_page_list": []}
复制代码
部分代码如下
  1.    params = {        '__biz': biz,        'uin': uin,        'key': key,        'offset': offset,        'count': count,        'action': 'getmsg',        'f': 'json'    }    headers = {        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'    }    response = requests.get(url=url, params=params, headers=headers)    resp_json = response.json()    if resp_json.get('errmsg') == 'ok':        resp_json = response.json()        # 是否还有分页数据, 用于判断return的值        can_msg_continue = resp_json['can_msg_continue']        # 当前分页文章数        msg_count = resp_json['msg_count']        general_msg_list = json.loads(resp_json['general_msg_list'])        list = general_msg_list.get('list')        print(list, "**************")
复制代码
最后打印的list就是公众号的文章信息详情。包括标题(titile)、摘要(digest)、文章地址(content_url)、阅读原文地址(source_url)、封面图(cover)、作者(author)等等...

输出结果如下:
  1. [{    "comm_msg_info": {        "id": 1000000038,        "type": 49,        "datetime": 1560474000,        "fakeid": "3881067844",        "status": 2,        "content": ""    },    "app_msg_ext_info": {        "title": "入门爬虫,这一篇就够了!!!",        "digest": "入门爬虫,这一篇就够了!!!",        "content": "",        "fileid": 0,        "content_url": "http:XXXXXX",        "source_url": "",        "cover": "I5kME6BVXeLibZDUhsiaEYiaX7zOoibxa9sb4stIwrfuqID5ttmiaoVAFyxKF6IjOCyl22vg8n2NPv98ibow\/0?wx_fmt=jpeg",        "subtype": 9,        "is_multi": 0,        "multi_app_msg_item_list": [],        "author": "Python3X",        "copyright_stat": 11,        "duration": 0,        "del_flag": 1,        "item_show_type": 0,        "audio_fileid": 0,        "play_url": "",        "malicious_title_reason_id": 0,        "malicious_content_type": 0    }},{...},{...},{...},{...},{...},{...},{...},{...},{...}]
复制代码
获取数据之后,可以保存到数据库中,也可以将文章保存在PDF中。

1、保存在Mongo中
  1. # Mongo配置conn = MongoClient('127.0.0.1', 27017)db = conn.wx  #连接wx数据库,没有则自动创建mongo_wx = db.article  #使用article集合,没有则自动创建for i in list:    app_msg_ext_info = i['app_msg_ext_info']    # 标题    title = app_msg_ext_info['title']    # 文章地址    content_url = app_msg_ext_info['content_url']    # 封面图    cover = app_msg_ext_info['cover']    # 发布时间    datetime = i['comm_msg_info']['datetime']    datetime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(datetime))    mongo_wx.insert({        'title': title,        'content_url': content_url,        'cover': cover,        'datetime': datetime    })
复制代码
结果如下



2、导入到PDF文件中

Python3中常用的操作PDF的库有python-pdf和pdfkit。我用了pdfkit这个模块导出pdf文件。
pdfkit是工具包Wkhtmltopdf的封装类,因此需要安装Wkhtmltopdf才能使用。
可以访问 https://wkhtmltopdf.org/downloads.html 下载和操作系统匹配的工具包。




实现代码也比较简单,只需要传入导入文件的url即可。

安装pdfkit库
  1. pip3 install pdfkit -i http://pypi.douban.com/simple --trusted-host pypi.douban.com
复制代码
  1. import pdfkitpdfkit.from_url('公众号文章地址', 'out.pdf')
复制代码
运行之后成功导出pdf文件。




完整代码
  1. import requestsimport jsonimport timefrom pymongo import MongoClienturl = 'http://mp.weixin.qq.com/mp/xxx'(公众号不让添加主页链接,xxx表示profile_ext)# Mongo配置conn = MongoClient('127.0.0.1', 27017)db = conn.wx  #连接wx数据库,没有则自动创建mongo_wx = db.article  #使用article集合,没有则自动创建def get_wx_article(biz, uin, key, index=0, count=10):    offset = (index + 1) * count    params = {        '__biz': biz,        'uin': uin,        'key': key,        'offset': offset,        'count': count,        'action': 'getmsg',        'f': 'json'    }    headers = {        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'    }    response = requests.get(url=url, params=params, headers=headers)    resp_json = response.json()    if resp_json.get('errmsg') == 'ok':        resp_json = response.json()        # 是否还有分页数据, 用于判断return的值        can_msg_continue = resp_json['can_msg_continue']        # 当前分页文章数        msg_count = resp_json['msg_count']        general_msg_list = json.loads(resp_json['general_msg_list'])        list = general_msg_list.get('list')        print(list, "**************")        for i in list:            app_msg_ext_info = i['app_msg_ext_info']            # 标题            title = app_msg_ext_info['title']            # 文章地址            content_url = app_msg_ext_info['content_url']            # 封面图            cover = app_msg_ext_info['cover']            # 发布时间            datetime = i['comm_msg_info']['datetime']            datetime = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(datetime))            mongo_wx.insert({                'title': title,                'content_url': content_url,                'cover': cover,                'datetime': datetime            })        if can_msg_continue == 1:            return True        return False    else:        print('获取文章异常...')        return Falseif __name__ == '__main__':    biz = 'Mzg4MTA2Nzg0NA=='    uin = 'NDIyMTI5NDM1'    key = '20a680e825f03f1e7f38f326772e54e7dc0fd02ffba17e92730ba3f0a0329c5ed310b0bd55b3c0b1f122e5896c6261df2eaea4036ab5a5d32dbdbcb0a638f5f3605cf1821decf486bb6eb4d92d36c620'    index = 0    while 1:        print(f'开始抓取公众号第{index + 1} 页文章.')        flag = get_wx_article(biz, uin, key, index=index)        # 防止和谐,暂停8秒        time.sleep(8)        index += 1        if not flag:            print('公众号文章已全部抓取完毕,退出程序.')            break        print(f'..........准备抓取公众号第{index + 1} 页文章.')
复制代码

感谢阅读
推荐阅读:
1:年轻貌美的小姐姐加我微信后竟要求我帮她做这种事...
2:所有的不可描述都要从“我姐姐让我加你“的好友请求开始说起...
3:【小编心得】互联网公司实习一年,我被迫知道了这些内幕...
4:2018年Python爱好者社区历史文章合集(作者篇)
5:2018年终精心整理|Python爱好者社区历史文章合集(类型篇)



分享到 :
0 人收藏
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:155
帖子:32
精华:0
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP