麻豆黑色丝袜jk制服福利网站-麻豆精品传媒视频观看-麻豆精品传媒一二三区在线视频-麻豆精选传媒4区2021-在线视频99-在线视频a

千鋒教育-做有情懷、有良心、有品質(zhì)的職業(yè)教育機(jī)構(gòu)

手機(jī)站
千鋒教育

千鋒學(xué)習(xí)站 | 隨時隨地免費學(xué)

千鋒教育

掃一掃進(jìn)入千鋒手機(jī)站

領(lǐng)取全套視頻
千鋒教育

關(guān)注千鋒學(xué)習(xí)站小程序
隨時隨地免費學(xué)習(xí)課程

當(dāng)前位置:首頁  >  技術(shù)干貨  > Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單

來源:千鋒教育
發(fā)布人:wjy
時間: 2022-06-07 09:51:00 1654566660

  Scrapy框架與Selenium我們前面都介紹過,本次給大家分享的是兩者如何配合使用。

  本次我們獲取千瓜的數(shù)據(jù):http://www.qian-gua.com/rank/category/

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單111

 

  不好意思!接下來這個頁面你會很郁悶!

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單133

 

  我們想獲取更多的日榜達(dá)人的數(shù)據(jù)怎么操作?借助selenium哦!為了獲取更多我們結(jié)合Scrapy完成此次的爬蟲任務(wù)。

  任務(wù)要求:

  Python3環(huán)境

  Scrapy框架

  Selenium 可以參照https://selenium-python-zh.readthedocs.io/en/latest/

  谷歌瀏覽器+ChromeDriver

  ChromeDriver的下載地址:https://chromedriver.storage.googleapis.com/index.html

  首先我們創(chuàng)建項目:scrapy startproject qiangua_spider

  然后進(jìn)入qiangua_spider目錄下,執(zhí)行:scrapy genspider qiangua qian-gua.com

  在Pycharm中打開創(chuàng)建的項目,目錄結(jié)構(gòu)如下:

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單510

 

  修改settings.py文件ROBOTSTXT_OBEY 為 False

  編寫items.py文件內(nèi)容如下:

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單569

 

  代碼如下:

import scrapy

class QianguaSpiderItem(scrapy.Item):
    # define the fields for your item here like:
    name = scrapy.Field()
    level = scrapy.Field()
    fans = scrapy.Field()
    likeCollect = scrapy.Field()

  編寫spider.py爬蟲文件,如果不登陸我們是無法看的更多的小紅書達(dá)人們的賬號排行、漲粉等信息。如果想看的更多則需要登陸才可以。

  流程與思路:

  先進(jìn)入http://www.qian-gua.com/rank/category/

  點擊右上角的登陸(此過程需要有千瓜的賬號才可以)

  有兩種登陸方式,我們可以選擇微信掃碼登陸,或者手機(jī)登陸(本案例采用手機(jī)登陸)

  獲取登陸的Cookies

  保存Cookies并訪問

  http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=頁碼數(shù)&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=時間戳

  得到j(luò)son數(shù)據(jù)并解析數(shù)據(jù)

  在上述的流程中1-4,我們都是結(jié)合selenium完成的。

  代碼如下

import json
import time
import scrapy
from selenium import webdriver
from qiangua_spider.items import QianguaSpiderItem


class QianguaSpider(scrapy.Spider):
    name = 'qiangua'
    allowed_domains = ['www.qian-gua.com']
    # start_urls = ['http://www.qian-gua.com/rank/category/']

    headers = {
        'Origin': 'http://app.qian-gua.com',
        'Host': 'api.qian-gua.com',
        'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.1.2 Safari/605.1.15'
    }

    def start_requests(self):
        driver = webdriver.Chrome()
        url = 'http://www.qian-gua.com/rank/category/'
        driver.get(url)
        driver.implicitly_wait(5)
        driver.find_element_by_xpath('//div[@class="loggin"]/a').click()
        time.sleep(2)
        driver.find_element_by_xpath('//div[@class="login-tab"]/span[2]').click()
        driver.find_element_by_xpath('//input[@class="js-tel"]').send_keys('15010185644')
        driver.find_element_by_xpath('//input[@class="js-pwd"]').send_keys('qiqining123')
        driver.find_element_by_xpath('//button[@class="btn-primary js-login-tel-pwd"]').click()
        time.sleep(2)
        cookies = driver.get_cookies()
        driver.close()

        jsonCookies = json.dumps(cookies)  # 通過jsoncookies寫入文件
        with open('qianguaCookies.json', 'w') as f:
            f.write(jsonCookies)
        print(cookies)
        with open('qianguaCookies.json', 'r', encoding='utf-8') as f:
            listcookies = json.loads(f.read())  # 獲取cookies

        cookies_dict = dict()
        for cookie in listcookies:
            # 在保存成dict時,我們其實只要cookies中的namevalue,而domain等其他都可以不要
            cookies_dict[cookie['name']] = cookie['value']
# 更多的數(shù)據(jù)需要開通會員才可以,我們當(dāng)前獲取了top30的數(shù)據(jù)
        for page in range(1, 2):
            t = time.time()
            timestamp = str(t).replace(".", '')[:13]
            data_url = "http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=" + str(
                page) + "&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=" + timestamp

            yield scrapy.Request(url=data_url, cookies=cookies_dict, callback=self.parse, headers=self.headers)

    def parse(self, response):
        rs = json.loads(response.text)
        if rs.get('Msg')=='ok':
            blogger_list = rs.get('Data').get("ItemList")
            for blogger in blogger_list:
                name = blogger.get('BloggerName')
                level = blogger.get('LevelName','')
                fans = blogger.get('Fans')
                likeCollect = blogger.get('LikeCollectCount')
                item = QianguaSpiderItem()
                item['name'] = name
                item['level'] = level
                item['fans'] = fans
                item['likeCollect'] = likeCollect
                yield item

  最后我們添加pipelines.py保存解析的數(shù)據(jù),我們是將數(shù)據(jù)保存到csv文件中

  代碼如下:

import csv
from itemadapter import ItemAdapter


class QianguaSpiderPipeline:
    def __init__(self):
        self.stream = open('blogger.csv', 'w', newline='', encoding='utf-8')
        self.f = csv.writer(self.stream)

    def open_spider(self, spider):
        print("爬蟲開始...")

    def process_item(self, item, spider):
        data = [item.get('name'), item.get('level'), item.get('fans'), item.get('likeCollect')]
        self.f.writerow(data)

    def close_spider(self, spider):
        self.stream.close()
        print('爬蟲結(jié)束!')

  務(wù)必記得將settings.py中pipelines部分的代碼注釋取消掉

ITEM_PIPELINES = {
   'qiangua_spider.pipelines.QianguaSpiderPipeline': 300,
}

  執(zhí)行爬蟲

  scrapy crawl qiangua

  結(jié)果很令我們滿意

Scrapy與Selenium完美結(jié)合獲取小紅書漲粉榜單4773

 

更多關(guān)于python培訓(xùn)的問題,歡迎咨詢千鋒教育在線名師。千鋒教育擁有多年IT培訓(xùn)服務(wù)經(jīng)驗,采用全程面授高品質(zhì)、高體驗培養(yǎng)模式,擁有國內(nèi)一體化教學(xué)管理及學(xué)員服務(wù),助力更多學(xué)員實現(xiàn)高薪夢想。

tags:
聲明:本站稿件版權(quán)均屬千鋒教育所有,未經(jīng)許可不得擅自轉(zhuǎn)載。
10年以上業(yè)內(nèi)強(qiáng)師集結(jié),手把手帶你蛻變精英
請您保持通訊暢通,專屬學(xué)習(xí)老師24小時內(nèi)將與您1V1溝通
免費領(lǐng)取
今日已有369人領(lǐng)取成功
劉同學(xué) 138****2860 剛剛成功領(lǐng)取
王同學(xué) 131****2015 剛剛成功領(lǐng)取
張同學(xué) 133****4652 剛剛成功領(lǐng)取
李同學(xué) 135****8607 剛剛成功領(lǐng)取
楊同學(xué) 132****5667 剛剛成功領(lǐng)取
岳同學(xué) 134****6652 剛剛成功領(lǐng)取
梁同學(xué) 157****2950 剛剛成功領(lǐng)取
劉同學(xué) 189****1015 剛剛成功領(lǐng)取
張同學(xué) 155****4678 剛剛成功領(lǐng)取
鄒同學(xué) 139****2907 剛剛成功領(lǐng)取
董同學(xué) 138****2867 剛剛成功領(lǐng)取
周同學(xué) 136****3602 剛剛成功領(lǐng)取
相關(guān)推薦HOT
抖音小店照片要求尺寸多大

在抖音平臺開設(shè)小店已經(jīng)成為了越來越多人的選擇,相信大家已經(jīng)在各大社交平臺上看到有不少小店的推廣。在抖音上,照片是展示產(chǎn)品的重要手段,因...詳情>>

2023-10-08 16:14:25
抖音招商團(tuán)長托管服務(wù)費怎么退回來

抖音招商團(tuán)長托管服務(wù)是抖音為有意愿創(chuàng)作內(nèi)容并帶動其他創(chuàng)作者成為團(tuán)隊成員的用戶提供的一種服務(wù)。通過該服務(wù),招商團(tuán)長可以自主組建團(tuán)隊并得到...詳情>>

2023-10-08 16:08:53
抖音小店怎么做代銷

抖音已經(jīng)成為了一個非常受歡迎的短視頻應(yīng)用程序,在其中許多用戶都精心打造了自己的小店,用于銷售各種各樣的商品,獲取額外的收入。然而,要想...詳情>>

2023-10-08 15:28:41
怎樣開抖音小店帶貨賺錢

隨著直播帶貨的火熱,越來越多的人開始嘗試通過抖音小店來開展帶貨業(yè)務(wù)。抖音小店是抖音直播帶貨的配套,可以讓用戶在購買直播中產(chǎn)品時就實現(xiàn)購...詳情>>

2023-10-08 15:06:36
能不能幫我打開抖音小店店鋪呢怎么弄

抖音小店是近年來非常火爆的一個網(wǎng)絡(luò)業(yè)務(wù),也是提供了很多商業(yè)機(jī)會的平臺。對于一個創(chuàng)業(yè)者而言,開設(shè)抖音小店是一個不錯的選擇。但是,許多小店...詳情>>

2023-10-08 15:01:21
主站蜘蛛池模板: 国产刺激视频| 欧美一区二区三区久久综合| 有人有看片的资源吗www在线观看| 欧美黑人巨大videos极品| 冬月枫亚洲高清在线观看| 亚洲有码转帖| 香港三级电影免费看| 麻豆三级视频| 美国式禁忌在完整有限中字| 亚洲精品99久久久久中文字幕| 久久青草国产精品一区| 亚洲黄色在线看| 91精品全国免费观看含羞草| 在线日韩欧美| 久久国产精品一国产精品| 亚洲人成网亚洲欧洲无码| 含羞草实验室入口免费网站直接| 久久免费动漫品精老司机| 欧美成a人免费观看| 一本久久a久久精品亚洲| 嗯嗯啊在线观看网址| 国产无遮挡又黄又爽高清视| 三级一级片| 中文字幕精品在线视频| 人人超人人97超人人女| 欧美日韩无线码在线观看| 爽天天天天天天天| 久久成人a毛片免费观看网站| 亚洲大香人伊一本线| 欧美八十老太另类| 爱搞搞视频| 亚洲成人福利在线观看| 色噜噜狠狠色综合免费视频| 亚洲国产婷婷综合在线精品| 乱色| 成人韩免费网站| 日本一道本| 久久电影网午夜鲁丝片免费| 麻豆伦理| 我要看a级毛片| 波多野结衣作品在线观看|