• <noscript id="ggggg"><dd id="ggggg"></dd></noscript>
    <small id="ggggg"></small> <sup id="ggggg"></sup>
    <noscript id="ggggg"><dd id="ggggg"></dd></noscript>
    <tfoot id="ggggg"></tfoot>
  • <nav id="ggggg"><cite id="ggggg"></cite></nav>
    <nav id="ggggg"></nav>
    成人黃色A片免费看三更小说,精品人妻av区波多野结衣,亚洲第一极品精品无码,欧美综合区自拍亚洲综合,久久99青青精品免费观看,中文字幕在线中字日韩 ,亚洲国产精品18久久久久久,黄色在线免费观看

    selenium處理網頁下拉加載數據爬取并存入excel

    2019-7-17    seo達人

    如果您想訂閱本博客內容,每天自動發到您的郵箱中, 請點這里

    前言
    之前有個同學詢問我是否能夠爬取知乎的全部回答,當初只會Scrapy無法實現下拉的數據全部加載。后來在意外中接觸了selenium的自動化測試,看出了selenium的模擬能力的強大,而昨天有個同學問我能否爬取中國工商銀行遠程銀行的精彩回答,我說可以試試。

    思路
    selenium模擬下拉直至底部
    然后通過selenium獲取數據集合
    通過pandas寫入excel
    selenium模擬下拉直至底部
    此處全靠一位大佬的博客點撥,實在不好意思的是,selenium就看了下常用的api,實在不懂如何判斷是否加載完畢,而該博客代碼的原理也好理解,通過不斷下拉判斷與上一次高度進行對比,知道前端頁面的滾動高度屬性就懂了,當然思想最重要。
    見代碼:

    #將滾動條移動到頁面的底部
    all_window_height =  []  # 創建一個列表,用于記錄每一次拖動滾動條后頁面的最大高度
    all_window_height.append(self.driver.execute_script("return document.body.scrollHeight;")) #當前頁面的最大高度加入列表
    while True:
    self.driver.execute_script("scroll(0,100000)") # 執行拖動滾動條操作
    time.sleep(3)
    check_height = self.driver.execute_script("return document.body.scrollHeight;")
    if check_height == all_window_height[-1]:  #判斷拖動滾動條后的最大高度與上一次的最大高度的大小,相等表明到了最底部
    print("我已下拉完畢")
    break
    else:
    all_window_height.append(check_height) #如果不想等,將當前頁面最大高度加入列表。
    print("我正在下拉")

    然后通過selenium獲取數據集合
    通過find_elements_by_css_selector方法獲取元素對象列表,然后通過遍歷列表獲取單個對象,通過對象的text屬性獲取數據。
    代碼與"通過pandas寫入excel"代碼想結合。

    通過pandas寫入excel
    example.xlsx

    批量將數據依次寫入excel,此處個人知道有兩種寫法,推薦后者。
    寫法一:

    problem = cls.driver.find_elements_by_css_selector("li h2.item-title a")
    data = pd.read_excel('example.xlsx', sheet_name = 'Sheet1')
    problemtext = []
    for i in problem:
    problemtext .append(i.text)
    replytext = []
    reply = cls.driver.find_elements_by_css_selector("div.item-right p")
    for j in reply:
        replytext.append(j.text)
        data.loc[row,'答案'] = j.text
    data['問題'] = problemtext
    data['答案'] = replytext

    DataFrame(data).to_excel('test.xlsx', sheet_name='Sheet1')

    寫法二:

    problem = cls.driver.find_elements_by_css_selector("li h2.item-title a")
    data = pd.read_excel('example.xlsx', sheet_name = 'Sheet1')
    row = 1
    for i in problem:
        data.loc[row,'問題'] = i.text
        row += 1
    row = 1
    reply = cls.driver.find_elements_by_css_selector("div.item-right p")
    for j in reply:
        data.loc[row,'答案'] = j.text
        row += 1

    DataFrame(data).to_excel('test.xlsx', sheet_name='Sheet1')

    完整代碼
    import pandas as pd
    from pandas import DataFrame
    import unittest
    import time
    from selenium import webdriver
    from selenium.webdriver.support.ui import Select
    from selenium.webdriver.support.select import Select
    from selenium.webdriver.support.ui import WebDriverWait

    class autoLogin(unittest.TestCase):

    URL = 'http://zhidao.baidu.com/business/profile?id=87701'


    @classmethod
    def setUpClass(cls):
    cls.driver = webdriver.Firefox()
    cls.driver.implicitly_wait(20)
    cls.driver.maximize_window()



    def test_search_by_selenium(self):
    self.driver.get(self.URL)
    self.driver.title
    time.sleep(1)
    #將滾動條移動到頁面的底部
    all_window_height =  []
    all_window_height.append(self.driver.execute_script("return document.body.scrollHeight;"))
    while True:
    self.driver.execute_script("scroll(0,100000)") 
    time.sleep(3)
    check_height = self.driver.execute_script("return document.body.scrollHeight;")
    if check_height == all_window_height[-1]:  
    print("我已下拉完畢")
    break
    else:
    all_window_height.append(check_height) 
    print("我正在下拉")

    @classmethod
    def tearDownClass(cls):
    html=cls.driver.page_source
    problem = cls.driver.find_elements_by_css_selector("li h2.item-title a")
    data = pd.read_excel('example.xlsx', sheet_name = 'Sheet1')
    row = 1
    for i in problem:
        data.loc[row,'問題'] = i.text
        row += 1
    row = 1
    reply = cls.driver.find_elements_by_css_selector("div.item-right p")
    for j in reply:
        data.loc[row,'答案'] = j.text
        row += 1
        
    DataFrame(data).to_excel('test.xlsx', sheet_name='Sheet1')

    #保存成網頁
    with open("index.html", "wb") as f:
    f.write(html.encode())
    f.close()
    cls.driver.quit()

    if __name__ == '__main__':
    unittest.main(verbosity=2)

    text.xlsx


    總結
    在使用Scrapy爬蟲時,可以通過selenium來執行網頁中的一些js腳本,但是如何將二者結合起來,以及各種框架之間的靈活運用,都將是我需要面對的。
    --------------------- 
    藍藍設計www.lzhte.cn )是一家專注而深入的界面設計公司,為期望卓越的國內外企業提供卓越的UI界面設計、BS界面設計 、 cs界面設計 、 ipad界面設計 、 包裝設計 、 圖標定制 、 用戶體驗 、交互設計、網站建設 平面設計服務

    日歷

    鏈接

    個人資料

    藍藍設計的小編 http://www.lzhte.cn

    存檔

    主站蜘蛛池模板: 国产激情综合在线观看| av人摸人人人澡人人超碰妓女| 91福利一区二区三区| 色婷婷丁香综合激情| 免费视频这里是精品视频| 久久av高潮av喷水av无码| 兴仁县| 亚洲AV一二三区无码AV蜜桃| 色综亚洲国产vv在线观看| 午夜在线观看成人av| 国产盗摄XXXX视频XXXX| 国产v亚洲v天堂a无| 中国成人黄色自拍视频| 国产精品久久综合桃花网| 无码h黄肉3d动漫在线观看| 国产成人91激情在线播放| 亚洲va精品va国产va| 久久久久综合网久久| 国产成人av大片大片| 亚洲成在人线天堂网站| 东京热久久综合久久88| 景谷| 亚洲精品一本之道高清乱码 | 久久夜色精品久久噜噜亚洲av| 免费99精品久久七七桃花| 国产不卡精品一区二区三区| 久久久久亚洲A√无码| 久久婷婷五月综合色国产免费观看| 色一乱一伦一图一区二区精品| 久久国产精品免费一区二区三区| 亚洲尤物视频在线观看| 视频二区中文字幕在线| 水蜜桃亚洲一二三四在线| 亚洲精品乱码久久久久久蜜桃不卡| 91插逼| 日韩欧美一区二区久久| 深夜网址| 成色7777精品在线| 秋霞午夜国产精品成人片| 成人视频网| 一本久道久久综合多人|