麻豆黑色丝袜jk制服福利网站-麻豆精品传媒视频观看-麻豆精品传媒一二三区在线视频-麻豆精选传媒4区2021-在线视频99-在线视频a

千鋒教育-做有情懷、有良心、有品質的職業教育機構

手機站
千鋒教育

千鋒學習站 | 隨時隨地免費學

千鋒教育

掃一掃進入千鋒手機站

領取全套視頻
千鋒教育

關注千鋒學習站小程序
隨時隨地免費學習課程

當前位置:首頁  >  技術干貨  > Scrapy與Selenium完美結合獲取小紅書漲粉榜單

Scrapy與Selenium完美結合獲取小紅書漲粉榜單

來源:千鋒教育
發布人:qyf
時間: 2022-09-20 16:36:20 1663662980

  Scrapy框架與Selenium我們前面都介紹過,本次給大家分享的是兩者如何配合使用。如果喜歡不要忘記分享、點贊哦!

  本次我們獲取千瓜的數據:http://www.qian-gua.com/rank/category/

Picture

  不好意思!接下來這個頁面你會很郁悶!

Picture(1)

  我們想獲取更多的日榜達人的數據怎么操作?借助selenium哦!為了獲取更多我們結合Scrapy完成此次的爬蟲任務。

  任務要求:

  Python3環境

  Scrapy框架

  Selenium 可以參照https://selenium-python-zh.readthedocs.io/en/latest/

  谷歌瀏覽器+ChromeDriver

  ChromeDriver的下載地址:https://chromedriver.storage.googleapis.com/index.html

  首先我們創建項目:scrapy startproject qiangua_spider

  然后進入qiangua_spider目錄下,執行:scrapy genspider qiangua qian-gua.com

  在Pycharm中打開創建的項目,目錄結構如下:

Picture(2)

  修改settings.py文件ROBOTSTXT_OBEY 為 False

  編寫items.py文件內容如下:

Picture(3)

 

  代碼如下:

  import scrapy

  class QianguaSpiderItem(scrapy.Item):

  # define the fields for your item here like:

  name = scrapy.Field()

  level = scrapy.Field()

  fans = scrapy.Field()

  likeCollect = scrapy.Field()

  編寫spider.py爬蟲文件,如果不登陸我們是無法看的更多的小紅書達人們的賬號排行、漲粉等信息。如果想看的更多則需要登陸才可以。

  流程與思路:

  先進入http://www.qian-gua.com/rank/category/

  點擊右上角的登陸(此過程需要有千瓜的賬號才可以)

  有兩種登陸方式,我們可以選擇微信掃碼登陸,或者手機登陸(本案例采用手機登陸)

  獲取登陸的Cookies

  保存Cookies并訪問

  http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=頁碼數&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=時間戳

  得到json數據并解析數據

  在上述的流程中1-4,我們都是結合selenium完成的。

  代碼如下

  import json

  import time

  import scrapy

  from selenium import webdriver

  from qiangua_spider.items import QianguaSpiderItem

  class QianguaSpider(scrapy.Spider):

  name = 'qiangua'

  allowed_domains = ['www.qian-gua.com']

  # start_urls = ['http://www.qian-gua.com/rank/category/']

  headers = {

  'Origin': 'http://app.qian-gua.com',

  'Host': 'api.qian-gua.com',

  'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/605.1.15 (KHTML, like Gecko) Version/14.1.2 Safari/605.1.15'

  }

  def start_requests(self):

  driver = webdriver.Chrome()

  url = 'http://www.qian-gua.com/rank/category/'

  driver.get(url)

  driver.implicitly_wait(5)

  driver.find_element_by_xpath('//div[@class="loggin"]/a').click()

  time.sleep(2)

  driver.find_element_by_xpath('//div[@class="login-tab"]/span[2]').click()

  driver.find_element_by_xpath('//input[@class="js-tel"]').send_keys('15010185644')

  driver.find_element_by_xpath('//input[@class="js-pwd"]').send_keys('qiqining123')

  driver.find_element_by_xpath('//button[@class="btn-primary js-login-tel-pwd"]').click()

  time.sleep(2)

  cookies = driver.get_cookies()

  driver.close()

  jsonCookies = json.dumps(cookies) # 通過json將cookies寫入文件

  with open('qianguaCookies.json', 'w') as f:

  f.write(jsonCookies)

  print(cookies)

  with open('qianguaCookies.json', 'r', encoding='utf-8') as f:

  listcookies = json.loads(f.read()) # 獲取cookies

  cookies_dict = dict()

  for cookie in listcookies:

  # 在保存成dict時,我們其實只要cookies中的name和value,而domain等其他都可以不要

  cookies_dict[cookie['name']] = cookie['value']

  # 更多的數據需要開通會員才可以,我們當前獲取了top30的數據

  for page in range(1, 2):

  t = time.time()

  timestamp = str(t).replace(".", '')[:13]

  data_url = "http://api.qian-gua.com/Rank/GetBloggerRank?pageSize=50&pageIndex=" + str(

  page) + "&dateCode=20211104&period=1&originRankType=2&rankType=2&tagId=0&_=" + timestamp

  yield scrapy.Request(url=data_url, cookies=cookies_dict, callback=self.parse, headers=self.headers)

  def parse(self, response):

  rs = json.loads(response.text)

  if rs.get('Msg')=='ok':

  blogger_list = rs.get('Data').get("ItemList")

  for blogger in blogger_list:

  name = blogger.get('BloggerName')

  level = blogger.get('LevelName','無')

  fans = blogger.get('Fans')

  likeCollect = blogger.get('LikeCollectCount')

  item = QianguaSpiderItem()

  item['name'] = name

  item['level'] = level

  item['fans'] = fans

  item['likeCollect'] = likeCollect

  yield item

  最后我們添加pipelines.py保存解析的數據,我們是將數據保存到csv文件中

  代碼如下:

  import csv

  from itemadapter import ItemAdapter

  class QianguaSpiderPipeline:

  def __init__(self):

  self.stream = open('blogger.csv', 'w', newline='', encoding='utf-8')

  self.f = csv.writer(self.stream)

  def open_spider(self, spider):

  print("爬蟲開始...")

  def process_item(self, item, spider):

  data = [item.get('name'), item.get('level'), item.get('fans'), item.get('likeCollect')]

  self.f.writerow(data)

  def close_spider(self, spider):

  self.stream.close()

  print('爬蟲結束!')

  務必記得將settings.py中pipelines部分的代碼注釋取消掉

  ITEM_PIPELINES = {

  'qiangua_spider.pipelines.QianguaSpiderPipeline': 300,

  }

  執行爬蟲

  scrapy crawl qiangua

  結果很令我們滿意

Picture(4)

tags:
聲明:本站稿件版權均屬千鋒教育所有,未經許可不得擅自轉載。
10年以上業內強師集結,手把手帶你蛻變精英
請您保持通訊暢通,專屬學習老師24小時內將與您1V1溝通
免費領取
今日已有369人領取成功
劉同學 138****2860 剛剛成功領取
王同學 131****2015 剛剛成功領取
張同學 133****4652 剛剛成功領取
李同學 135****8607 剛剛成功領取
楊同學 132****5667 剛剛成功領取
岳同學 134****6652 剛剛成功領取
梁同學 157****2950 剛剛成功領取
劉同學 189****1015 剛剛成功領取
張同學 155****4678 剛剛成功領取
鄒同學 139****2907 剛剛成功領取
董同學 138****2867 剛剛成功領取
周同學 136****3602 剛剛成功領取
相關推薦HOT
主站蜘蛛池模板: 特a级片| 热99精品在线| 国产欧美日韩精品专区| 中国毛片在线观看| 国产a三级三级三级| 丰乳娇妻| 野花社区视频在线观看| 4480yy私人影院论| 动漫成人在线| 你懂的在线免费观看| 啊~怎么又加了一根手指| 黄色一级电影免费| 韩国朋友夫妇:交换4| 最近最好最新2018中文字幕免费| 工囗番漫画全彩无遮拦老师| 天天爱夜夜操| 国产免费午夜| 欧美日韩一级二级三级| 午夜精品久久久久久久四虎| 无限看片在线版免费视频大全| 亚洲成a人一区二区三区| 久久精品中文字幕| 四虎永久地址4hu2019| 天天干夜夜操| 免费日本黄色片| 免费大片黄国产在线观看| 欧洲老妇性| 爱爱帝国亚洲一区二区三区| 7m凹凸精品分类大全免费| 亚洲精品中文字幕乱码三区| 交换年轻夫妇无删减| 日韩欧美国产电影| 韩国三级香港三级日本三级 | 亚洲欧美国产另类视频| 啊灬啊别停灬用力啊岳| 草草浮力影视| 日本边添边摸边做边爱喷水| 好爽好深胸好大好多水视频| 亚洲精品美女在线观看播放| 欧美特黄a级高清免费大片| 中文字幕在线最新在线不卡|