Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 Warning: error_log(/data/www/wwwroot/hmttv.cn/caches/error_log.php): failed to open stream: Permission denied in /data/www/wwwroot/hmttv.cn/phpcms/libs/functions/global.func.php on line 537 亚洲一区二区在线播放,亚洲另类视频在线观看,亚洲天堂男人网

          整合營銷服務商

          電腦端+手機端+微信端=數據同步管理

          免費咨詢熱線:

          手把手教你用Python爬蟲爬取facebook臉書

          手把手教你用Python爬蟲爬取facebook臉書頁面(附代碼)

          了演示瀏覽器和API的使用,我們將會研究Facebook的網站。目前,從月活用戶數維度來看,Facebook是世界上最大的社交網絡之一,因此其用戶數據非常有價值。

          1 網站

          圖1所示為Packt出版社的Facebook頁面。

          當你查看該頁的源代碼時,可以找到最開始的幾篇日志,但是后面的日志只有在瀏覽器滾動時才會通過AJAX加載。另外,Facebook還提供了一個移動端界面,正如第1章所述,這種形式的界面通常更容易抓取。該頁面在移動端的展示形式如圖9.6所示。


          圖1


          圖2


          當我們與移動端網站進行交互,并使用瀏覽器工具查看時,會發現該界面使用了和之前相似的結構來處理AJAX事件,因此該方法無法簡化抓取。雖然這些AJAX事件可以被逆向工程,但是不同類型的Facebook頁面使用了不同的AJAX調用,而且依據我的過往經驗,Facebook經常會變更這些調用的結構,所以抓取這些頁面需要持續維護。因此,如第5章所述,除非性能十分重要,否則最好使用瀏覽器渲染引擎執行JavaScript事件,然后訪問生成的HTML頁面。

          下面的代碼片段使用Selenium自動化登錄Facebook,并跳轉到給定頁面的URL。

          from selenium import webdriver
          def get_driver():
           try:
           return webdriver.PhantomJS()
           except:
           return webdriver.Firefox()
          def facebook(username, password, url):
           driver=get_driver()
           driver.get('https://facebook.com')
           driver.find_element_by_id('email').send_keys(username)
           driver.find_element_by_id('pass').send_keys(password)
           driver.find_element_by_id('loginbutton').submit()
           driver.implicitly_wait(30)
           # wait until the search box is available,
           # which means it has successfully logged in
           search=driver.find_element_by_name('q')
           # now logged in so can go to the page of interest
           driver.get(url)
           # add code to scrape data of interest here ...
          

          然后,可以調用該函數加載你感興趣的Facebook頁面,并使用合法的Facebook郵箱和密碼,抓取生成的HTML頁面。

          2 Facebook API

          如第1章所述,抓取網站是在其數據沒有給出結構化格式時的最末之選。而Facebook確實為絕大多數公共或私有(通過你的用戶賬號)數據提供了API,因此我們需要在構建加強的瀏覽器抓取之前,首先檢查一下這些API提供的訪問是否已經能夠滿足需求。

          首先要做的事情是確定通過API哪些數據是可用的。為了解決該問題,我們需要先查閱其API文檔。開發者文檔的網址為https://developers.facebook.com/docs,在這里給出了所有不同類型的API,包括圖譜 API,該API中包含了我們想要的信息。如果你需要構建與Facebook的其他交互(通過API或SDK),可以隨時查閱該文檔,該文檔會定期更新并且易于使用。

          此外,根據文檔鏈接,我們還可以使用瀏覽器內的圖譜 API探索工具,其地址為https://developers.facebook.com/tools/explorer/。如圖3所示,探索工具是用來測試查詢及其結果的很好的地方。


          圖3


          在這里,我可以搜索API,獲取PacktPub的Facebook頁面ID。圖譜探索工具還可以用來生成訪問口令,我們可以用它來定位API。

          想要在Python中使用圖譜API,我們需要使用具有更高級請求的特殊訪問口令。幸運的是,有一個名為facebook-sdk(https://facebook-sdk.readthedocs.io)的維護良好的庫可以供我們使用。我們只需通過pip安裝它即可。

          pip install facebook-sdk
          

          下面是使用Facebook的圖譜API從Packt出版社頁面中抽取數據的代碼示例。

          In [1]: from facebook import GraphAPI
          In [2]: access_token='....' # insert your actual token here
          In [3]: graph=GraphAPI(access_token=access_token, version='2.7')
          In [4]: graph.get_object('PacktPub')
          Out[4]: {'id': '204603129458', 'name': 'Packt'}
          

          我們可以看到和基于瀏覽器的圖譜探索工具相同的結果。我們可以通過傳遞想要抽取的額外信息,來獲得頁面中的更多信息。要確定使用哪些信息,我們可以在圖譜文檔中看到頁面中所有可用的字段,文檔地址為https://developers.facebook.com/docs/graph-api/reference/page/。使用關鍵字參數fields,我們可以從API中抽取這些額外可用的字段。

          In [5]: graph.get_object('PacktPub', fields='about,events,feed,picture')
          Out[5]:
          {'about': 'Packt provides software learning resources, from eBooks to video
          courses, to everyone from web developers to data scientists.',
           'feed': {'data': [{'created_time': '2017-03-27T10:30:00+0000',
           'id': '204603129458_10155195603119459',
           'message': "We've teamed up with CBR Online to give you a chance to win 5
          tech eBooks - enter by March 31! http://bit.ly/2mTvmeA"},
          ...
           'id': '204603129458',
           'picture': {'data': {'is_silhouette': False,
           'url':
          'https://scontent.xx.fbcdn.net/v/t1.0-1/p50x50/14681705_10154660327349459_7
          2357248532027065_n.png?oh=d0a26e6c8a00cf7e6ce957ed2065e430&oe=59660265'}}}
          

          我們可以看到該響應是格式良好的Python字典,我們可以很容易地進行解析。

          圖譜API還提供了很多訪問用戶數據的其他調用,其文檔可以從Facebook的開發者頁面中獲取,網址為https://developers.facebook.com/docs/graph-api。根據所需數據的不同,你可能還需要創建一個Facebook開發者應用,從而獲得可用時間更長的訪問口令。

          業在網站建設時,很多同時也做了手機端的網站,為了豐富網站的版面和內容,給網站添加了大量的圖片做美化。網站的圖片是一個網站能給用戶最直觀的信息表現,而對于搜索引擎而言,蜘蛛在隨機抓取網站圖片時候的識別能力還沒有那么強。如果文字很少,圖片很多也會給手機端網站SEO優化帶來一定的困難。

          抓取手機網站圖片

          不過,隨著搜索引擎算法的不斷成熟,現在百度也能抓取網站的圖片,例如:網站的LOGO、以及和文章主題相關的圖片等等。十堰網站建設公司SEO優化顧問經過長時間的觀察,總結出了以下六種方法,協助我們優化網站和手機端的圖片,以達到優化友好,迅速被錄入的作用。

          一、不要盜用圖片盡量原創

          盡量自己做圖片,有很多免費的圖片素材,我們可以通過拼接,做出我們需要的圖片。

          在平時工作的時候,發現和自己網站相關的圖片可以先保存下來,在本地做出分類和標記。網站需要圖片的時候,看看相關的圖片,自己著手做一個圖片。這是一個長期積累的過程,隨之時間的增加,自己的素材量也會越來越大。熟練了再做圖片就得心應手了。

          圖片版權

          再這里特別要注意,現在很多圖片是有版權的,一點不要去使用那些有版權的圖片,不然不光會侵權,還會讓搜索引擎降低對你網站的信任值。

          二、網站圖片保存路徑

          這個問題很多站長都沒有注意,圖片在傳到到網站的時候,盡量把圖片保存在一個目錄下面,或者根據網站欄目做好相應的圖片目錄,上傳的時候路徑要相對固定,方便蜘蛛抓取,蜘蛛在訪問到這個目錄的時候就會“知道”這個目錄里面保存的是圖片;

          圖片文件命名最好使用一些有規律的或者意義的方法,可以使用時間、欄目名稱或者網站名稱來命名。例如:SEO優化下面的圖片可以使用“SEOYH2018-6-23-36”這種命名,前面“SEOYH”是SEO優化的簡拼,中間是時間,最后是圖片的ID。

          為什么要這么做呢?其實這樣是培養搜索引擎蜘蛛抓取習慣,方便將來更快的識別網站圖片內容。讓蜘蛛抓的順心了,網站被收錄的幾率就增加了,何樂而不為呢!

          三、圖片周圍要有相關文字

          文章的開頭就說了,網站圖片是能把信息直接呈現給用戶一個方法,搜索引擎在抓取網站內容的時候,也會檢測這篇文章是否有配圖、視頻或者表格等等,這些都是可以增加文章分數值的元素,其他的幾個形式暫時不表,這里我們只說說關于圖片周圍相關文字的介紹。

          圖片符合主題

          首先圖片周邊文字要與圖片本身內容相符,例如你的文章說的是做網站優化,里面配圖是一道菜譜的圖片,這不是掛羊頭賣狗肉么?用戶的訪問感會極差,搜索引擎通過相關算法識別這張圖片以后,也會覺得圖文不符,給你差評哦。

          所以,每篇文章最少要配一張相應的圖片,而且在圖片的周圍要出現和你網站標題相關的內容。不但能幫助搜索引擎理解圖片,還可以增加文章的可讀性、用戶體驗友好度以及相關性。

          四、圖片添加alt、title標簽

          許多站長在添加網站圖片時可能沒有留意這些細節,有的可能覺得麻煩,希望大家千萬別有這種想法,這是大錯特錯的。

          搜索引擎抓取網站圖片的時候,atl標簽是它首先抓取的,也是識別圖片內容最重要的核心因素之一,圖片的alt屬性是直接告訴搜索引擎這是啥網站圖片,以及這張要表達什么意思;

          title標簽是用戶指向這張圖片的時候,會顯示的提示內容,這是增加用戶體驗度和增加網站關鍵詞的一個小技巧。

          alt和title標簽

          還有就是這兩個屬性,會給有閱讀障礙的訪問者提供訪問的便利,例如:有盲人在訪問你網站的時候,他看不到屏幕上的內容,可能是通過讀屏軟件來閱讀的,如果有alt屬性,軟件會直接讀出alt屬性里的文字,給他們的訪問提供方便。

          五、圖片的大小和分辨率

          盡管兩者看起來有些相同,但還是有很大的差別,相同大小的圖片,分辨率更高的話,網站最終體積也會越大。這一點大家要搞清楚。

          網站的上的圖片,一直以來都提倡用盡量小的圖片,去最大化呈現內容。為什么要這樣呢?因為小尺寸的圖片會加載的更快,不會讓訪問者等待太久,特別是手機訪問的時候,由于手機上網速度和流量的限制,用戶更愿意訪問能立即打開的頁面,小尺寸圖片就更有優勢了。

          在這里我們盡量做好平衡,在圖片不失真的情況下,尺寸最好盡量的小。現在有很多在線給圖片瘦身的工具,各位站長可以去嘗試一下,把網站的圖片適當的壓縮一下,一方面可以減少你服務器帶寬的壓力,另外還能給用戶有流暢的體驗。

          六、手機端自動適應

          很多站長都遇到過網站在電腦訪問圖片顯示很正常,可是從手機端就會出現錯位等等情況,這就是大尺寸的圖片給不同尺寸的終端造成錯位和顯示不全的情況。

          圖片自適應手機端

          其實這個問題很好解決,在添加圖片的時候寬高最好不要使用絕對大小,使用百分比就解決了。具體說,CSS代碼不能指定像素寬度:width:xxx px;只能指定百分比寬度:width: xx%;或者width:auto就可以了。

          這樣做的目的也是為了讓百度的移動蜘蛛抓取的時候有個良好的體驗,這也是為了更符合百度移動落地頁體驗。

          以上介紹了在網站SEO優化如何抓取手機網站圖片的一些技巧,其實本質就是為了給用戶更好的訪問體驗。你做網站的時候本著這個目的,相信搜索引擎一定會青睞你的網站。

          來源:十堰SEO優化顧問

          來源:盧松松博客

          者:Kerry Parker

          翻譯:田曉寧

          校對:丁楠雅

          本文約2900字,建議閱讀10分鐘。

          本教程以在Fast Track上收集百強公司的數據為例,教你抓取網頁信息。



          作為一名數據科學家,我在工作中所做的第一件事就是網絡數據采集。使用代碼從網站收集數據,當時對我來說是一個完全陌生的概念,但它是最合理、最容易獲取的數據來源之一。經過幾次嘗試,網絡抓取已經成為我的第二天性,也是我幾乎每天使用的技能之一。

          在本教程中,我將介紹一個簡單的例子,說明如何抓取一個網站,我將從Fast Track上收集2018年百強公司的數據:

          Fast Track:http://www.fasttrack.co.uk/

          使用網絡爬蟲將此過程自動化,避免了手工收集數據,節省了時間,還可以讓所有數據都放在一個結構化文件中。

          用Python實現一個簡單的網絡爬蟲的快速示例,您可以在GitHub上找到本教程中所介紹的完整代碼。

          GitHub鏈接:https://github.com/kaparker/tutorials/blob/master/pythonscraper/websitescrapefasttrack.py

          以下是本文使用Python進行網頁抓取的簡短教程概述:

          • 連接到網頁
          • 使用BeautifulSoup解析html
          • 循環通過soup對象找到元素
          • 執行一些簡單的數據清理
          • 將數據寫入csv

          準備開始

          在開始使用任何Python應用程序之前,要問的第一個問題是:我需要哪些庫?

          對于web抓取,有一些不同的庫需要考慮,包括:

          • Beautiful Soup
          • Requests
          • Scrapy
          • Selenium

          在本例中我們使用Beautiful Soup。你可以使用Python包管理器 pip 安裝Beautiful Soup:

          pip install BeautifulSoup4

          安裝好這些庫之后,讓我們開始吧!

          檢查網頁

          要知道在Python代碼中需要定位哪些元素,首先需要檢查網頁。

          要從Tech Track Top 100 companies收集數據,可以通過右鍵單擊感興趣的元素來檢查頁面,然后選擇檢查。這將打開HTML代碼,我們可以在其中看到每個字段包含在其中的元素。

          Tech Track Top 100 companies鏈接:http://www.fasttrack.co.uk/league-tables/tech-track-100/league-table/




          右鍵單擊感興趣的元素并選擇“Inspect”,顯示html元素。

          由于數據存儲在一個表中,因此只需幾行代碼就可以直接獲取數據。如果您想練習抓取網站,這是一個很好的例子,也是一個好的開始,但請記住,它并不總是那么簡單!

          所有100個結果都包含在<tr> 元素的行中,并且這些在一頁上都可見。情況并非總是如此,當結果跨越多個頁面時,您可能需要更改網頁上顯示的結果數量,或者遍歷所有頁面以收集所有信息。

          League Table網頁上顯示了包含100個結果的表。檢查頁面時,很容易在html中看到一個模式。結果包含在表格中的行中:

          <table class="tableSorter">

          重復的行<tr> 將通過在Python中使用循環來查找數據并寫入文件來保持我們的代碼最小化!

          附注:可以做的另一項檢查是網站上是否發出了HTTP GET請求,該請求可能已經將結果作為結構化響應(如JSON或XML格式)返回。您可以在檢查工具的網絡選項卡中進行檢查,通常在XHR選項卡中進行檢查。刷新頁面后,它將在加載時顯示請求,如果響應包含格式化結構,則使用REST客戶端(如Insomnia)返回輸出通常更容易。



          刷新網頁后,頁面檢查工具的網絡選項卡

          使用Beautiful Soup解析網頁html

          現在您已經查看了html的結構并熟悉了將要抓取的內容,是時候開始使用Python了!

          第一步是導入將用于網絡爬蟲的庫。我們已經討論過上面的BeautifulSoup,它有助于我們處理html。我們導入的下一個庫是urllib,它連接到網頁。最后,我們將輸出寫入csv,因此我們還需要導入csv 庫。作為替代方案,可以在此處使用json庫。

          # import librariesfrom bs4 import BeautifulSoupimport urllib.requestimport csv

          下一步是定義您正在抓取的網址。如上一節所述,此網頁在一個頁面上顯示所有結果,因此此處給出了地址欄中的完整url:

          # specify the urlurlpage='http://www.fasttrack.co.uk/league-tables/tech-track-100/league-table/'

          然后我們建立與網頁的連接,我們可以使用BeautifulSoup解析html,將對象存儲在變量'soup'中:

          # query the website and return the html to the variable 'page'page=urllib.request.urlopen(urlpage)# parse the html using beautiful soup and store in variable 'soup'soup=BeautifulSoup(page, 'html.parser')

          我們可以在這個階段打印soup變量,它應該返回我們請求網頁的完整解析的html。

          print(soup)

          如果存在錯誤或變量為空,則請求可能不成功。可以使用urllib.error模塊在此時實現錯誤處理。

          搜索html元素

          由于所有結果都包含在表中,我們可以使用find 方法搜索表的soup對象。然后我們可以使用find_all 方法查找表中的每一行。

          如果我們打印行數,我們應該得到101的結果,100行加上標題。

          # find results within tabletable=soup.find('table', attrs={'class': 'tableSorter'})results=table.find_all('tr')print('Number of results', len(results))

          因此,我們可以對結果進行循環以收集數據。

          打印soup對象的前兩行,我們可以看到每行的結構是:

          <tr><th>Rank</th><th>Company</th><th class="">Location</th><th>Year end</th><th class="" style="text-align:right;">Annual sales rise over 3 years</th><th class="" style="text-align:right;">Latest sales £000s</th><th class="" style="text-align:right;">Staff</th><th class="">Comment</th><!-- <th>FYE</th>--></tr><tr><td>1</td><td><a ><span>Wonderbly</span></a>Personalised children's books</td><td>East London</td><td>Apr-17</td><td style="text-align:right;">294.27%</td><td style="text-align:right;">*25,860</td><td style="text-align:right;">80</td><td>Has sold nearly 3m customisable children’s books in 200 countries</td><!-- <td>Apr-17</td>--></tr>

          表格中有8欄:Rank,Company,Location,Year End,Annual Sales Rise,Latest Sales, Staff and Comments,所有這些都是我們可以保存的感興趣的數據。

          網頁的所有行的結構都是一致的(對于所有網站來說可能并非總是如此!)。因此,我們可以再次使用find_all 方法將每一列分配給一個變量,那么我們可以通過搜索<td> 元素來寫入csv或JSON。

          循環遍歷元素并保存變量

          在Python中,將結果附加到一個列表中是很有用的,然后將數據寫到一個文件中。我們應該在循環之前聲明列表并設置csv的頭文件,如下所示:

          # create and write headers to a list rows=[]rows.append(['Rank', 'Company Name', 'Webpage', 'Description', 'Location', 'Year end', 'Annual sales rise over 3 years', 'Sales £000s', 'Staff', 'Comments'])print(rows)

          這將打印出我們添加到包含標題的列表的第一行。

          你可能會注意到表格中有一些額外的字段Webpage和Description不是列名,但是如果你仔細看看我們打印上面的soup變量時的html,那么第二行不僅僅包含公司名稱。我們可以使用一些進一步的提取來獲取這些額外信息。

          下一步是循環結果,處理數據并附加到可以寫入csv的rows。

          在循環中查找結果:

          # loop over resultsfor result in results: # find all columns per result data=result.find_all('td') # check that columns have data if len(data)==0: continue

          由于表中的第一行僅包含標題,因此我們可以跳過此結果,如上所示。它也不包含任何<td>元素,因此在搜索元素時,不會返回任何內容。然后,我們可以通過要求數據的長度為非零來檢查是否只處理包含數據的結果。

          然后我們可以開始處理數據并保存到變量中。

          # write columns to variables rank=data[0].getText() company=data[1].getText() location=data[2].getText() yearend=data[3].getText() salesrise=data[4].getText() sales=data[5].getText() staff=data[6].getText() comments=data[7].getText()

          以上只是從每個列獲取文本并保存到變量。但是,其中一些數據需要進一步清理以刪除不需要的字符或提取更多信息。

          數據清理

          如果我們打印出變量company,該文本不僅包含公司名稱,還包含描述。我們然后打印sales,它包含不需要的字符,如腳注符號,最好刪除。

          print('Company is', company) # Company is WonderblyPersonalised children's books print('Sales', sales) # Sales *25,860

          我們希望將company 分為公司名稱和描述,我們可以用幾行代碼實現。再看一下html,對于這個列,有一個 <span> 元素只包含公司名稱。此列中還有一個鏈接指向網站上的另一個頁面,其中包含有關該公司的更多詳細信息。我們將在稍后使用它!

          <td><a ><span>Wonderbly</span></a>Personalised children's books</td>

          要將company 分成兩個字段,我們可以使用find方法保存<span>元素,然后使用strip 或replace 從company 變量中刪除公司名稱,這樣它只留下描述。

          要從sales中刪除不需要的字符,我們可以再次使用strip和replace 方法!

          # extract description from the name companyname=data[1].find('span', attrs={'class':'company-name'}).getText() description=company.replace(companyname, '') # remove unwanted characters sales=sales.strip('*').strip('?').replace(',','')

          我們要保存的最后一個變量是公司網站。如上所述,第二列包含指向另一個頁面的鏈接,該頁面具有每個公司的概述。 每個公司頁面都有自己的表格,大部分時間都包含公司網站。



          檢查公司頁面上的url元素

          要從每個表中抓取url并將其保存為變量,我們需要使用與上面相同的步驟:

          • 在fast track網站上找到具有公司頁面網址的元素
          • 向每個公司頁面網址發出請求
          • 使用Beautifulsoup解析html
          • 找到感興趣的元素

          查看一些公司頁面,如上面的屏幕截圖所示,網址位于表格的最后一行,因此我們可以在最后一行內搜索<a>元素。

          # go to link and extract company website url=data[1].find('a').get('href') page=urllib.request.urlopen(url) # parse the html soup=BeautifulSoup(page, 'html.parser') # find the last result in the table and get the link try: tableRow=soup.find('table').find_all('tr')[-1] webpage=tableRow.find('a').get('href') except: webpage=None

          也有可能出現公司網站未顯示的情況,因此我們可以使用try except條件,以防萬一找不到網址。

          一旦我們將所有數據保存到變量中,我們可以在循環中將每個結果添加到列表rows。

          # write each result to rows rows.append([rank, company, webpage, description, location, yearend, salesrise, sales, staff, comments])print(rows)

          然后可以試著在循環外打印變量,在將其寫入文件之前檢查它是否符合您的預期!

          寫入輸出文件

          如果想保存此數據以進行分析,可以用Python從我們列表中非常簡單地實現。

          # Create csv and write rows to output filewith open('techtrack100.csv','w', newline='') as f_output: csv_output=csv.writer(f_output) csv_output.writerows(rows)

          運行Python腳本時,將生成包含100行結果的輸出文件,您可以更詳細地查看這些結果!

          尾語

          這是我的第一個教程,如果您有任何問題或意見或者不清楚的地方,請告訴我!

          • Web Development
          • https://towardsdatascience.com/tagged/web-development?source=post
          • Python
          • https://towardsdatascience.com/tagged/python?source=post
          • Web Scraping
          • https://towardsdatascience.com/tagged/web-scraping?source=post
          • Data Science
          • https://towardsdatascience.com/tagged/data-science?source=post
          • Programming
          • https://towardsdatascience.com/tagged/programming?source=post

          原文標題:

          Data Science Skills: Web scraping using python

          原文鏈接:

          https://towardsdatascience.com/data-science-skills-web-scraping-using-python-d1a85ef607ed

          譯者簡介

          田曉寧,質量管理專家,國際認證精益六西格瑪黑帶,19年從業經驗;軟件工程專家,擁有CMMI ATM證書,曾主導公司通過CMMI 5級評估;精通ISO9000和ISO27000體系,長期擔任公司質量和信息安全主任審核員,每年審核超過50個項目或部門;擁有PMP證書,擔任公司項目管理內訓師,具有項目管理和系統開發實戰經驗。

          — 完 —

          關注清華-青島數據科學研究院官方微信公眾平臺“THU數據派”及姊妹號“數據派THU”獲取更多講座福利及優質內容。


          主站蜘蛛池模板: 亚洲日本一区二区三区在线| 中字幕一区二区三区乱码 | 亚洲丶国产丶欧美一区二区三区 | 变态拳头交视频一区二区| 日韩一区二区三区无码影院| 亚洲一区二区精品视频| 成人丝袜激情一区二区 | 一区二区福利视频| 午夜影院一区二区| 蜜臀AV免费一区二区三区| 中文字幕一区二区人妻| 国产福利电影一区二区三区久久久久成人精品综合 | 无码aⅴ精品一区二区三区| 精品国产一区二区三区不卡| 精品无码国产一区二区三区51安| 国产精品无码一区二区三级 | 最新欧美精品一区二区三区| 性色av无码免费一区二区三区| 成人精品视频一区二区三区尤物| 成人久久精品一区二区三区| 一区二区三区国模大胆| 亚洲一区二区影院| 国产日韩精品一区二区在线观看播放 | 国产日韩高清一区二区三区| 一区二区视频在线观看| 午夜视频在线观看一区二区| 狠狠色成人一区二区三区| 亚洲熟女乱色一区二区三区| 国产一区二区视频在线播放| 毛片一区二区三区| 久久无码人妻精品一区二区三区| 2021国产精品视频一区| 日本高清成本人视频一区| 久久久久人妻精品一区三寸| 日韩精品无码一区二区视频| 国产精品伦子一区二区三区| 91video国产一区| 韩日午夜在线资源一区二区| 免费看无码自慰一区二区 | 国产精品久久无码一区二区三区网 | 亚洲成AV人片一区二区|