查看原文
其他

Python爬虫-MongoDB

法纳斯特 法纳斯特 2019-04-01
有态度地学习



上一份的推送是关于QQ音乐所有评论的获取,这一次讲讲QQ音乐精彩评论的获取。翻了一下QQ音乐热歌排行榜上的歌,发现QQ音乐热评多的歌不多,所有评论和网易云音乐比起来也挺寒碜的,只能说网易云不愧是文艺小青年的聚集地。不过不能因为评论少就不爬了,见面就是,不虚。


通过本次爬取,学习了非关系型数据库,文档型数据库MongoDB。另外公众号的排版也变的更加美观了,尤其是底部多了推荐阅读和扫码关注。在借鉴其他公众号的排版之后,用自己半吊子的PPT水平做了底部的照片,喜欢的可以点个赞呀!


就目前的了解,MongoDB的优点:无需设置固定结构(嵌套),也不必考虑数据类型匹不匹配,对数据的可操作性也更大。这回也是一样在Mac上操作,在Mac上安装了MongoDB以及MongoDB的可视化工具Robo 3T,Robo 3T作为一款免费轻量级GUI,简单且易上手。


创建数据库,表格及插入数据。

import pymongo

client = pymongo.MongoClient(host='localhost', port=27017)
db = client.QQ_Music
collection = db.comments

comments = {
    "nike": "꧁༺詩光༻꧂",
    "comment": "释迦摩尼说 :无论你遇见谁, 他都是你生命中该出现的人 ,绝非偶然。",
    "praisenum": "7817",
    "comment_id": "song_7072290_1772758010_1486708168",
    "time": "2017-02-10 14:29:28"
}

result = collection.insert(comments)
print(result)


针对QQ音乐中平凡之路的网页进行分析,通过不断点击加载更多,发现了请求网址的变化参数:pagenum、jsoncallback。通过上期的爬取,我们知道jsoncallback对于请求是没有影响的,所以这回更简单,只需改变页码即可。而lasthotcommentid则是第一页精彩评论的最后一个ID,短时间内基本不变。


平凡之路精彩评论一共有624条。每一个请求页10条数据,第一页例外,有15个,但是最后却只获取了595条,这是因为评论中有追评的,没有原创评论,所以直接剔除,当然还有评论已经删除的,直接就没有评论信息了。


爬取代码如下:

import re
import json
import time
import pymongo
import requests

client = pymongo.MongoClient(host='localhost', port=27017)
db = client.QQ_Music
collection = db.comments


def get_html(url, headers):
    try:
        response = requests.get(url=url, headers=headers)
        response.raise_for_status()
        response.encoding = 'utf-8'
    except requests.HTTPError:
        print("connect failed")
    return response


def parse_html(html):
    data = {}
    content = json.loads(html[30:-3])
    for item in content['comment']['commentlist']:
        if item.get("rootcommentcontent"):
            data["nike"] = item.get("nick")
            data["comment"] = re.sub(r"\\n", " ", item.get("rootcommentcontent"))
            data["_id"] = (re.sub(r"\n", " ", data["comment"]))
            data["comment"] = (re.sub(r"\n", " ", data["comment"]))
            data["praisenum"] = item.get("praisenum")
            data["commentid"] = item.get("commentid")
            data["time"] = time.strftime("%Y-%m-%d %H:%M:%S", time.localtime(int(item.get("time"))))
            yield data


def to_mongodb(data):
    try:
        collection.insert(data)
        print("Insert the data successfully", data)
    except:
        pass


def main():
    for i in range(63):
        url = 'https://c.y.qq.com/base/fcgi-bin/fcg_global_comment_h5.fcg?g_tk=5381&jsonpCallback=jsoncallback05763744516059277&loginUin=0&hostUin=0&format=jsonp&inCharset=utf8&outCharset=GB2312&notice=0&platform=yqq&needNewCode=0&cid=205360772&reqtype=2&biztype=1&topid=7072290&cmd=6&needmusiccrit=0&pagenum=%s&pagesize=10&lasthotcommentid=song_7072290_2856798698_1489491834&callback=jsoncallback05763744516059277&domain=qq.com&ct=24&cv=101010' %i
        headers = {'user-agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_3) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/69.0.3497.100 Safari/537.36'}
        time.sleep(2)
        response = get_html(url, headers)
        for item in parse_html(response.text):
            to_mongodb(item)


if __name__ == '__main__':
    main()
    print("Finish The Work")


最后成功获取评论信息


读取MongoDB中评论数据,生成词云

from wordcloud import WordCloud, STOPWORDS, ImageColorGenerator
import matplotlib.pyplot as plt
import pandas as pd
import pymongo
import jieba
import re

client = pymongo.MongoClient('localhost', 27017)
db = client.QQ_Music
table = db.comments
data = pd.DataFrame(list(table.find()))
data = data[['comment']]

text = ''
for line in data['comment']:
    r = '[a-zA-Z0-9’!"#$%&\'()*+,-./:;<=>?@,。?★、…【】《》?“”‘’![\\]^_`{|}~]+'
    line = re.sub(r, '', line)
    text += ' '.join(jieba.cut(line, cut_all=False))
backgroud_Image = plt.imread('luck.jpg')
wc = WordCloud(
    background_color='white',
    mask=backgroud_Image,
    font_path='msyh.ttf',
    max_words=2000,
    stopwords=STOPWORDS,
    max_font_size=130,
    random_state=30
)
wc.generate_from_text(text)
img_colors = ImageColorGenerator(backgroud_Image)
wc.recolor(color_func=img_colors)
plt.imshow(wc)
plt.axis('off')
wc.to_file("幸运.jpg")
print("生成词云成功")


幸运.jpg



推荐阅读




···  END  ···


    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存