日本高清免费一本视频100禁_在线不卡欧美精品一区二区三区_国产一区二区好的精华液_中文综合在线_国产啊啊啊视频在线观看_大地资源网免费观看高清

IT之道-艾銻知道

您當前位置: 主頁 > 資訊動態(tài) > 艾銻分享 >

微軟新作,ImageBERT雖好,千萬級數(shù)據(jù)集才是亮點


2020-02-05 14:40 作者:ylh 瀏覽量:
 
        這次的肺炎疫情對中國的中小企業(yè)將會是沉重的打擊,據(jù)釘釘和微信兩個辦公平臺數(shù)據(jù)統(tǒng)計現(xiàn)有2億左右的人在家遠程辦公,那么對于中小企業(yè)的員工來說不懂IT技術將會讓他們面臨的最大挑戰(zhàn)和困難。
 
        電腦不亮了怎么辦?系統(tǒng)藍屏如何處理?辦公室的電腦在家如何連接?網(wǎng)絡應該如何設置?VPN如何搭建?數(shù)據(jù)如何對接?服務器如何登錄?數(shù)據(jù)安全如何保證?數(shù)據(jù)如何存儲?視頻會議如何搭建?業(yè)務系統(tǒng)如何開啟等等一系列的問題,都會困擾著并非技術出身的您。
 
 
        好消息是當您看到這篇文章的時候,就不用再為上述的問題而苦惱,您只需撥打艾銻無限的全國免費熱線電話:400 650 7820,就會有我們的遠程工程師為您解決遇到的問題,他們可以遠程幫您處理遇到的一些IT技術難題。
 
       如遇到免費熱線占線,您還可以撥打我們的24小時值班經(jīng)理電話:15601064618或技術經(jīng)理的電話:13041036957,我們會在第一時間接聽您的來電,為您提供適合的解決方案,讓您無論在家還是在企業(yè)都能無憂辦公。
 
那艾銻無限具體能為您的企業(yè)提供哪些服務呢?
       艾銻無限始創(chuàng)于2005年,歷經(jīng)15年服務了5000多家中小企業(yè)并保障了幾十萬臺設備的正常運轉,積累了豐富的企業(yè)IT緊急問題和特殊故障的解決經(jīng)驗,制定了相對應的解決方案。我們?yōu)槟钠髽I(yè)提供的IT服務分為三大版塊:
 
        第一版塊是保障性IT外包服務:如電腦設備運維,辦公設備運維,網(wǎng)絡設備運維,服務器運維等綜合性企業(yè)IT設備運維服務。
 
        第二版塊是功能性互聯(lián)網(wǎng)外包服務:如網(wǎng)站開發(fā)外包,小程序開發(fā)外包,APP開發(fā)外包,電商平臺開發(fā)外包,業(yè)務系統(tǒng)的開發(fā)外包和后期的運維外包服務。
 
        第三版塊是增值性云服務外包:如企業(yè)郵箱上云,企業(yè)網(wǎng)站上云,企業(yè)存儲上云,企業(yè)APP小程序上云,企業(yè)業(yè)務系統(tǒng)上云,阿里云產(chǎn)品等后續(xù)的云運維外包服務。
 
        您要了解更多服務也可以登錄艾銻無限的官網(wǎng):www.bjitwx.com查看詳細說明,在疫情期間,您企業(yè)遇到的任何困境只要找到艾銻無限,能免費為您提供服務的我們絕不收一分錢,我們?nèi)w艾銻人承諾此活動直到中國疫情結束,我們將這次活動稱為——春雷行動。
 
       以下還有我們?yōu)槟峁┑囊恍┘夹g資訊,以便可以幫助您更好的了解相關的IT知識,幫您渡過疫情中辦公遇到的困難和挑戰(zhàn),艾銻無限愿和中國中小企業(yè)一起共進退,因為我們相信萬物同體,能量合一,只要我們一起齊心協(xié)力,一定會成功。再一次祝福您和您的企業(yè),戰(zhàn)勝疫情,您和您的企業(yè)一定行。

 



微軟新作,ImageBERT雖好,千萬級數(shù)據(jù)集才是亮點
       繼 2018 年谷歌的 BERT 模型獲得巨大成功之后,在純文本之外的任務上也有越來越多的研究人員借鑒了 BERT 的思維,開發(fā)出各種語音、視覺、視頻融合的 BERT 模型。
雷鋒網(wǎng) AI 科技評論曾專門整理并介紹了多篇將BERT應用到視覺/視頻領域的重要論文,其中包括最早的VideoBERT以及隨后的ViLBERT、VisualBERT、B2T2、Unicoder-VL、LXMERT、VL-BERT等。其中VL-BERT是由來自中科大、微軟亞研院的研究者共同提出的一種新型通用視覺-語言預訓練模型。繼語言BERT之后,視覺BERT隱隱成為一種新的研究趨勢。

       近期,來自微軟的Bing 多媒體團隊在arXiv上也同樣發(fā)表了一篇將BERT應用到視覺中的論文《ImageBERT: Cross-modal Pre-training with Large-scale Weak-supervised Image-Text Data》
       雷鋒網(wǎng)(公眾號:雷鋒網(wǎng))提供論文鏈接:https://arxiv.org/abs/2001.07966v1
       在這篇文章中,作者提出了一種新的視覺語言預訓練模型ImageBERT,并從網(wǎng)絡上收集了一個大型的弱監(jiān)督圖像-文本數(shù)據(jù)集LAIT,包含了 10M(1千萬)的 Text-Image pairs,這也是目前最大的一個數(shù)據(jù)集。利用ImageBERT模型和LAIT數(shù)據(jù)集進行預訓練,在MSCOCO和Flicker30k上進行文本到圖像、圖像到文本的檢索任務上獲得了不錯的結果。
2、背景及相關工作

       隨著Transformer的提出并廣泛應用于跨模態(tài)研究,近一年以來,各項任務上獲得的結果被推向了一個新的“珠穆朗瑪峰”。雖然幾乎所有最新的工作都是基于Transformer,但這些工作在不同的方面各有不同。
模型架構的維度:

       BERT是面向輸入為一個或兩個句子的 NLP 任務的預訓練模型。為了將 BERT 架構應用于跨模態(tài)任務中,現(xiàn)在已有諸多處理不同模態(tài)的方法。ViLBERT和LXMERT 先分別應用一個單模態(tài)Transformer到圖像和句子上,之后再采用跨模態(tài)Transformer來結合這兩種模態(tài)。其他工作如VisualBERT, B2T2,Unicoder-VL, VL-BERT, Unified VLP,UNITER等等,則都是將圖像和句子串聯(lián)為Transformer的單個輸入。很難說哪個模型架構更好,因為模型的性能非常依賴于指定的場景。
圖像視覺標記維度:

       最近幾乎所有的相關論文都將目標檢測模型應用到圖像當中,同時將經(jīng)檢測的感興趣區(qū)(ROIs) 用作圖像描述符,就如語言標記一般。與使用預訓練的檢測模型的其他工作不同,VL-BERT 結合了圖像-文本聯(lián)合嵌入網(wǎng)絡來共同訓練檢測網(wǎng)絡,同時也將全局圖像特征添加到模型訓練中。
可以發(fā)現(xiàn),基于區(qū)域的圖像特征是非常好的圖像描述符,它們形成了一系列可直接輸入到 Transformer 中的視覺標記。
預訓練數(shù)據(jù)維度:

       與可以利用大量自然語言數(shù)據(jù)的預訓練語言模型不同,視覺-語言任務需要高質(zhì)量的圖像描述,而這些圖像描述很難免費獲得。Conceptual Captions 是最為廣泛應用于圖像-文本預訓練的數(shù)據(jù),有 3 百萬個圖像描述,相對而言比其他的數(shù)據(jù)集都要大。UNITER 組合了四個數(shù)據(jù)集(Conceptual Captions,SBU Captions,Visual Genome, MSCOCO),形成了一個960萬的訓練語料庫,并在多個圖像-文本跨模態(tài)任務上實現(xiàn)了最佳結果。LXMERT將一些VQA訓練數(shù)據(jù)增添到預訓練中,并且在VQA任務上也獲得了最佳結果。
       我們可以發(fā)現(xiàn),數(shù)據(jù)的質(zhì)量和大小對于模型訓練而言至關重要,研究者們在設計新的模型時應該對此給予更大的關注。
3、數(shù)據(jù)集收集

       基于語言模型的BERT,可以使用無限的自然語言文本,例如BooksCorpus或Wikipedia;與之不同,跨模態(tài)的預訓練需要大量且高質(zhì)量的vision-language對。
目前最新的跨模態(tài)預訓練模型常用的兩個數(shù)據(jù)集分別是:
       The Conceptual Captions (CC) dataset:包含了3百萬帶有描述的圖像,這些圖像是從網(wǎng)頁的Alt-text HTML屬性中獲取的;
SBU Captions:包含了1百萬用戶相關標題的圖像。

       但這些數(shù)據(jù)集仍然不夠大,不足以對具有數(shù)億參數(shù)的模型進行預訓練(特別是在將來可能還會有更大的模型)。
為此,作者設計了一種弱監(jiān)督的方法(如下圖所示),從Web上收集了一個大規(guī)模的圖像文本數(shù)據(jù)集。
弱監(jiān)督數(shù)據(jù)收集流程
       先是從網(wǎng)絡上收集數(shù)億的網(wǎng)頁,從中清除掉所有非英語的部分,然后從中收集圖片的URLs,并利用HTML 標記和DOM樹特征檢測出主要圖片(丟棄非主要圖片,因為它們可能與網(wǎng)頁無關)。
隨后僅保留寬度和高度均大于300像素的圖片,并將一些色情或淫穢內(nèi)容的圖片以及一些非自然的圖片丟棄。
針對剩下的圖片,將HTML中用戶定義元數(shù)據(jù)(例如Alt、Title屬性、圖片周圍文本等)用作圖像的文本描述.
為了確保文字和圖片在語義上是相關的,作者利用少量image-text監(jiān)督數(shù)據(jù),訓練了一個弱image-text語義模型來預測<text, image>在語義上是否相關。用這個模型從十億規(guī)模的image-text 對中過濾掉相關性不高的數(shù)據(jù),從而生成的數(shù)據(jù)集LAIT(Large-scale weAk-supervised Image-Text),其中包含了 一千萬張圖片,圖片描述的平均長度為13個字。
LAIT數(shù)據(jù)集中的樣本
4ImageBERT模型
       如上圖所示,ImageBERT模型的總體架構和BERT類似,都采用了Transformer作為最基礎的架構。不同之處在于將圖像視覺的標記和問題標注作為輸入。注意其中圖像視覺標記是從Faster-RCNN模型提取的ROL特征。
通過一層嵌入層將文本和圖像編碼成不同的嵌入,然后將嵌入傳送到多層雙自我注意Transformer中來學習一個跨模態(tài)Transformer,從而對視覺區(qū)域和文字標記之間的關系進行建模。
1)嵌入建模

       整個嵌入建模分為三個部分:語言嵌入、圖像嵌入、序列位置和片段嵌入。
在語言嵌入模塊中采用了與BERT相似的詞預處理方法。具體而言,是用WordPiece方法將句子分成(標記)n個子詞{w0,...,wn-1}。一些特殊的標記,例如CLS和SEP也被增添到標記的文本序列里。每個子詞標記的最終嵌入是通過組合其原始單詞嵌入、分段嵌入和序列位置嵌入來生成的。

       與語言嵌入類似,圖像嵌入也是通過類似的過程從視覺輸入中產(chǎn)生的。用Faster-RCNN從 o RoIs中提取特征(記為{r0,...ro-1}),從圖像中提取特征,從而讓這兩個特征代表視覺內(nèi)容。檢測到的物體對象不僅可以為語言部分提供整個圖像的視覺上下文(visual contexts),還可以通過詳細的區(qū)域信息與特定的術語相關聯(lián)。另外,還通過將對象相對于全局圖像的位置編碼成5維向量來向圖像嵌入添加位置嵌入。5維向量表示如下:
       其中,(xtl,ytl)以及(xbr,ybr)分別代表邊界框的左上角和右下角坐標。5維向量中的第五個分向量相對于整個圖像的比例面積。
       另外,物體特征和位置嵌入都需要通過語言嵌入投影到同一維度。e(i)代表每個圖像的RoI。其計算通過加總對象嵌入、分段嵌入、圖像位置嵌入以及序列位置嵌入獲得。這意味著每個嵌入被投影到一個向量之中,然后用同樣的嵌入大小作為Transformer 隱藏層的尺寸,最后采用正則化層。
       在序列位置和片段嵌入中,因為沒有檢測到Rol的順序,所以其對所有的視覺標記使用固定的虛擬位置,并且將相應的坐標添加到圖像嵌入中。
2)多階段預訓練

       不同的數(shù)據(jù)集來源不同,所以其數(shù)據(jù)集質(zhì)量也就不同。為了充分利用不同類型的數(shù)據(jù)集,作者提出了多階段預訓練框架。如下圖所示。
       其主要思想是先用大規(guī)模域外數(shù)據(jù)訓練預先訓練好的模型,然后再用小規(guī)模域內(nèi)數(shù)據(jù)訓練。在多階段預訓練中,為了有順序地利用不同種類的數(shù)據(jù)集,可以將幾個預訓練階段應用到相同的網(wǎng)絡結構。
更為具體的,在ImageBERT模型中使用兩階段的預訓練策略。第一個階段使用LAIT數(shù)據(jù)集,第二個階段使用其他公共數(shù)據(jù)集。注意,兩個階段應使用相同的訓練策略。
3)預訓練任務
       在模型預訓練過程中,設計了四個任務來對語言信息和視覺內(nèi)容以及它們之間的交互進行建模。四個任務分別為:掩碼語言建模(Masked Language Modeling)、掩碼對象分類(Masked Object Classification)、掩碼區(qū)域特征回歸(Masked Region Feature Regression)、圖文匹配(Image-Text Matching)。
       掩碼語言建模簡稱MLM,在這個任務中的訓練過程與BERT類似。并引入了負對數(shù)似然率來進行預測,另外預測還基于文本標記和視覺特征之間的交叉注意。
       掩碼對象分類簡稱MOC,是掩碼語言建模的擴展。與語言模型類似,其對視覺對象標記進行了掩碼建模。并以15%的概率對物體對象進行掩碼,在標記清零和保留的概率選擇上分別為90%和10%。另外,在此任務中,還增加了一個完全的連通層,采用了交叉熵最小化的優(yōu)化目標,結合語言特征的上下文,引入負對數(shù)似然率來進行預測正確的標簽。
掩碼區(qū)域特征回歸簡稱MRFR,與掩碼對象分類類似,其也對視覺內(nèi)容建模,但它在對象特征預測方面做得更精確。顧名思義,該任務目的在于對每個掩碼對象的嵌入特征進行回歸。在輸出特征向量上添加一個完全連通的圖層,并將其投影到與匯集的輸入RoI對象特征相同的維度,然后應用L2損失函數(shù)來進行回歸。

       值得注意的是,上述三個任務都使用條件掩碼,這意味著當輸入圖像和文本相關時,只計算所有掩碼損失。
在圖文匹配任務中,其主要目標是學習圖文對齊(image-text alignment)。具體而言對于每個訓練樣本對每個圖像隨機抽取負句(negative sentences),對每個句子隨機抽取負圖像(negative images),生成負訓練數(shù)據(jù)。在這個任務中,其用二元分類損失進行優(yōu)化。
4)微調(diào)任務

       經(jīng)過預訓練,可以得到一個“訓練有素”的語言聯(lián)合表征模型,接下來需要對圖文檢索任務模型進行微調(diào)和評估,因此本任務包含圖像檢索和文本檢索兩個子任務。圖像檢索目的是給定輸入字幕句能夠檢索正確的圖像,而圖像文本檢索正好相反。經(jīng)過兩個階段的預訓練后,在MSCoCO和Flickr30k數(shù)據(jù)集上對模型進行了微調(diào),在微調(diào)過程中,輸入序列的格式與預訓練時的格式相同,但對象或單詞上沒有任何掩碼。另外,針對不同的負采樣方法提出了兩個微調(diào)目標:圖像到文本和文本到圖像。
       為了使得提高模型效果,還對三種不同的損失函數(shù)進行了實驗,這三種損失函數(shù)分別為:二元分類損失、多任務分類損失、三元組損失(Triplet loss)。關于這三種微調(diào)損失的組合研究,實驗部分將做介紹。
5、實驗

       針對圖像-文本檢索任務,作者給出了零樣本結果來評估預訓練模型的質(zhì)量和經(jīng)過進一步微調(diào)后的結果。下面是在 MSCOCO 和Flickr30k 數(shù)據(jù)集的不同設置下,對ImageBERT模型和圖像檢測和文本檢索任務上其他最先進的方法進行的比較。
1)評估預訓練模型

       如前面所提到,模型經(jīng)過了兩次預訓練。首先是在 LAIT 數(shù)據(jù)集上,采用從基于BERT 的模型初始化的參數(shù)對模型進行了預訓練;然后又在公開數(shù)據(jù)集(Conceptual Captions, SBU Captions)上對模型進行二次預訓練。具體過程和實驗設置請參考論文。
在沒有微調(diào)的情況下,作者在Flickr30k和MSCOCO測試集上對預訓練模型進行了評估,如下:
       零樣本結果如表 1 所示,我們可以發(fā)現(xiàn),ImageBERT預訓練模型在MSCOCO 獲得了新的最佳結果,但在Flickr30k數(shù)據(jù)集上卻比 UNITER模型的表現(xiàn)稍差。
       在微調(diào)后,ImageBERT模型獲得了有競爭力的結果,相關情況在表2 部分進行說明。值得一提的是,相比于其他僅有一個預訓練階段的方法,這種多階段的預訓練策略在預訓練期間學到了更多有用的知識,因而能夠有助于下游任務的微調(diào)階段。
2)評估微調(diào)模型

       在檢索任務上微調(diào)后的最終結果如表2 所示。我們可以看到,ImageBERT模型在Flickr30k 和 MSCOCO(同時在 1k和 5k的測試集)上都實現(xiàn)了最佳表現(xiàn),并且超越了所有的其他方法,從而證明了本文所提的面向跨模態(tài)聯(lián)合學習的 LAIT 數(shù)據(jù)和多階段預訓練策略的有效性。
3)消融實驗
       作者也在 Flickr3k 數(shù)據(jù)集上對預訓練數(shù)據(jù)集的不同組合、全局視覺特征的顯示、不同的訓練任務等進行了消融實驗,以進一步研究ImageBERT模型的架構和訓練策略。
預訓練數(shù)據(jù)集
       作者使用不同數(shù)據(jù)集的組合來進行預訓練實驗。結果如表3所示。CC表示的僅在 Conceptual Captions 數(shù)據(jù)集上進行預訓練;SBU 表示僅在 SBU Captions數(shù)據(jù)集上進行預訓練;LAIT+CC+SBU表示使用LAIT, Conceptual Caption 和 SBU Captions的組合數(shù)據(jù)集進行預訓練;LAIT → CC+SBU 表示使用 LAIT 來完成第一階段的預訓練,之后使用 Conceptual Captions和SBU Captions 數(shù)據(jù)集來做第二階段的預訓練。
       可以看到,用多階段的方法來使用三種不同的域外數(shù)據(jù)集,獲得了比其他方法明顯更好的結果。
全局圖像特征
       值得注意的是,檢測的ROIs可能并不包含整個圖像的所有信息。因此,作者也嘗試將全局圖像特征添加到視覺部分。文章使用了三個不同的CNN 模型(DenseNet,Resnet, GoogleNet)從輸入圖像上提取全局視覺特征,然而卻發(fā)現(xiàn)并非所有的指標都會提高。結果如表4的第1部分所示。
預訓練損失

       作者也將由UNITER引起的MRFR損失添加到預訓練中,結果在零樣本結果上獲得略微提高,結果如表4 的第2 部分所示。這意味著增加一個更難的任務來更好地對視覺內(nèi)容進行建模,有助于視覺文本聯(lián)合學習。
圖像中的目標數(shù)量 (RoIs)

       為了理解ImageBERT模型的視覺部分的重要性,作者基于不同的目標數(shù)量進行了實驗。如表4的第4部分所示,ImageBERT模型在目標最少(目標數(shù)量與ViLBERT一樣)的情況下,在檢索任務上并沒有獲得更好的結果。
可以得出結論,更多的目標確實能夠幫助模型實現(xiàn)更好的結果,因為更多的 RoIs 有助于理解圖像內(nèi)容。
微調(diào)損失

       針對在第4部分所提到的三項損失,作者嘗試在微調(diào)期間進行不同的組合。如表4的第4 部分所示,模型通過使用二元交叉熵損失(Binary Cross-Entropy Loss),本身就能在圖像-文本檢索任務上獲得最佳的微調(diào)結果
 


相關文章

IT外包服務
二維碼 關閉
主站蜘蛛池模板: 看免费黄色大片_素人天堂_www中文在线观看_亚洲视频在线网站_丰满的熟女爽死你视频_麻豆免费视频观看_av片免费看_久久无码中文字幕免费影院蜜桃 | 国产极品在线视频_不卡日韩_高潮到不停喷水的免费视频_欧美人妇做爰XXXⅩ性高_日本欧美久久久久免费播放网_国产网曝门99视频在线看_成人在线视频中文字幕_国产精品视频一区牛牛视频 | 天堂中文字幕在线_欧美最猛性xxxxx(亚洲精品)_99不卡视频_性欧美丰满熟妇XXXX性_国产乱码卡二卡三卡4_欧美性一级_国产精品一区二区无线_国产美女爆乳呻吟视频 | 热99欧美_欧美熟妇性XXXXX_日本大逼_久久婷婷五月综合色高清_日韩精品亚洲精品第一页_午夜久久久久久_黄色一级大片在线观看_av最新网 | 成年人观看免费视频_国产精品免费不_伦理二区_国产中文在线播放_97人人干_裸体丰满少妇做爰视频_aⅴ色欲AV片无码精品小说_日本在线视频二区 | 佐山爱一区二区中文字幕_黄色大全在线观看_国产日韩综合_国产精品久久久久不卡_一区二区三区国产欧美日韩_亚洲乱码中文字幕综合区_久久一日本道色综合久久_日本高清精品 | 久久婷婷人人澡人人爽人人喊_亚洲中文欧美日韩在线观看_一本一道波多野结衣一区_青青视频一区_国产精品视频免费一区_在线免费亚洲_国精产品一区一区三区在线观看_日日噜噜夜夜狠狠久久丁香五月 | 黄色片子免费观看_国产露脸150部国语对白_久久久久久久久久久国产精品_免费毛片手机在线播放_亚洲欧洲日韩在线_免费无码作爱视频_大地资源网中文在线观看免费节目_亚洲自偷自拍另类第1页 国产AV导航大全精品_日韩欧美综合在线_在线视频国产99_国产婷婷色一区二区三区在线_午夜免费啪视频观看视频_www.68pao.免费视频_久草伦理_精品久久久久久国产三级 | 四虎4hu永久免费_无码精品A在线观看无_精品久久人妻AV中文字幕_国产成A人亚洲精V品无码_日本xxxx网站_国产乱magnet_中文字幕无码日韩专区_久久久久亚洲精品无码网址蜜桃 | 日韩精品一区二区三区四区在线观看_亚洲AV在线观看天堂无码_好紧好大快点舒服使劲_粉嫩老牛aⅴ一区二区三区_奇米91_136fldh福利视频导在线_夜夜夜操_国产熟妇与子伦 | 成人一在线视频日韩国产_超碰在线公开97_久久亚洲精品国产一区_国产精品久久不能_午夜亚洲精品专区高潮日w_kaori肉感在线播放_www.四虎影视.com_欧美日韩久 | 国产裸体视频_好猛好深好爽喷水无码视频_久久久久成人片免费观看_午夜在线观看免费线无码视频_亚洲高清视频一区二区三区_欧美视频区_亚洲精品视频二区_中文字幕综合视频 | 国产视频一_色偷偷女人的天堂亚洲网_亚洲国产成人精品无码区2021_韩国一级片视频_亚州国产精品精华液_8X成年视频在线观看_各种少妇正面着BBW撒尿视频_偷拍自拍视频在线 | 亚洲欧美国产成人综合不卡_YYY6080韩国三级理论久久_欧美www777_久久99精品久久久久婷婷暖_久久久久在线观看_91福利无码国产正在播放_大肉大捧一进一出好爽视频_视频一区二区在线播放 | 亚洲国产成人精品福利无码_亚洲免费视频网_黄色影院国产_www.亚洲视频_av男人在线东京天堂_国产丰满大波大屁股熟女_91在线勾搭足浴店女技师_欧美综合自拍亚洲综合图片区 | 日本不卡视频一二三区_亚洲区成人_插下面视频_aaa在线免费观看_av中文字幕久久专区_亚洲一区二区三区四区五区_日本一区二区精品视频_曰曰摸天天添天天湿 | 男人进去女人爽免费视频_国内激情_午夜影院一级_狠狠做五月深爱婷婷_黄色一级大片免费_午夜久久久久久久久久久久_无码人妻丰满熟妇A片护士_免费看黄色大全 | 免费成年人_亚洲熟妇中文字幕五十中出_精品一区二区三区免费在线观看_四虎永久影院_国产普通话尤物吞精视频_精精国产xxxx视频在线动漫_亚洲综人网_国产一区二区欧美 | 偷看洗澡一二三区美女_blacked欧美黑粗硬大_国产在线无码视频一区_日本一道综合一本88在线_波多野结衣视频在线观看_9色国产深夜内射_在线观看国产一区_67pao国产在线观看 | 91精品国产日韩91久久久久久_欧美性少妇xxxx极品高清hd_操老妇视频_视频一区不卡_女女女女BBBBBB毛片在线_天天躁日日躁狠狠躁超碰97_久久中文精品无码中文字幕_天天躁狠狠躁狠狠躁夜夜躁 | 黄色片子免费观看_国产露脸150部国语对白_久久久久久久久久久国产精品_免费毛片手机在线播放_亚洲欧洲日韩在线_免费无码作爱视频_大地资源网中文在线观看免费节目_亚洲自偷自拍另类第1页 国产AV导航大全精品_日韩欧美综合在线_在线视频国产99_国产婷婷色一区二区三区在线_午夜免费啪视频观看视频_www.68pao.免费视频_久草伦理_精品久久久久久国产三级 | 佐山爱一区二区中文字幕_黄色大全在线观看_国产日韩综合_国产精品久久久久不卡_一区二区三区国产欧美日韩_亚洲乱码中文字幕综合区_久久一日本道色综合久久_日本高清精品 | 亚洲午夜视频_久久78_麻豆国产原创视频在线播放_成人在线视频免费播放_远方的山楂树免费观看视频48集_亚洲另类春色国产精品_国产影院一区二区三区_无套内射AV五十区 | 91专区在线观看_yellow中文字幕国产资源_国产嫩草影院久久久久_激情天堂网_久草网站在线观看_强奷表妺好紧2_免费观看又黄又爽的视频_免费在线国产视频 | KTV少少爷互囗交Gaygv_99中文字幕一区_99综合网_亚洲第一大网站_超碰网在线观看_成人免费毛片果冻_99国产精成人午夜视频一区二区_欧美亚洲专区 | 日本理论在线播放_国产女主播一区二区_av在线1_成网站在线观看_国产精品免费在线播放_大二情侣宾馆啪实拍_91桃色免费观看_国产欧洲精品视频 | 午夜免费_丰满岳乱妇在线观看中字_97在线精品_国产成人精品一区二区在线小狼_久久亚州综合_天天操好逼_毛片一毛片二毛片三国产片_国产精品丝袜www爽爽爽 | 美女高潮久久久_久久久99999_91多人xxx少妇_亚洲精品午睡沙发系列_两个人免费高清视频WWW_国产成人免费视频网站高清观看视频_丝袜一区二区三区_国产成年无码AV新网站 | 日韩不卡1卡2卡三卡免费网站2021_国产夫妇肉麻对白_激情偷乱人伦小说视频_黄色免费av网站_久久久久久久久久av_色av吧_国产欧美日韩va另类_91视频污软件 | 久久久久国产精品视频_欧美色第一页_韩国精品久久久_自拍偷自拍亚洲精品播放_亚洲AV中文无码乱人伦在线咪咕_疾速追杀4免费高清完整在线观看_欧美一级性爱免费观看_亚洲国产美女精品久久久久 | 免费香蕉视频_偷摄私密养生馆少妇推油_狠狠狠狠狠狠狠狠_chinese国产avvideoxxxx实拍_YY111111人妻影院_国产女人精品视频国产灰线_中日韩一级露脸视频_91污在线 | 日韩在线aaa_jizzyou中国少妇高潮_久久久综合亚洲色一区二区三区_免费看黄片毛片_久久千人斩_在线播放的av_少妇性饥渴姓交HDSEX_亚洲VA中文字幕无码毛片 | 欧美肥妇毛多水多BBXX_亚洲国产制服_国产成人久久精品77777综合_永久天堂网AV手机版_久久天堂网_人人天干天干啦夜天干天天爽_成人深夜www视频免费软件_欧美区视频 | 日本色片视频_精品久久久久久久久久久久久久久_久久99久久99精品免视看婷婷_日本一区二三区_夜夜爽亚洲人成8888_国产av久久久久精东av_夜夜av_精品国自产在线观看 | 亚洲国产黄色片_秋霞久久久久久一区二区_国产自91精品一区二区_av高清播放资源_精品一区二区三区久久久_国产.精品.日韩.另类.中文.在线.播放_少妇人妻综合久久中文字幕888_色爱综合网 | 俺去俺来也在线www色官_久久久久久久国产a∨_九色综合婷婷_亚洲成人久久一区_久久一区免费_我半夜摸妺妺的奶摸到高潮_AV天堂中AV世界中文在线播放_日黄的免费视频 | 国产午夜精品一区理论片_av在线免费播放_久久亚洲日韩看片无码_婷婷九月激情_成年人在线视频观看_精品亚洲精品_中国黄色a级_太九tai9免费网站 | 国产中文字幕二区_国产伊人影院_成人特级毛片_无套内谢孕妇毛片免费看看_久久亚洲精中文字幕冲田杏梨_久久久国产乱子伦精品_国产裸体xxxx视频在线播放_97中文 | 在线观看亚洲av每日更新_伊人55_久久久久久久久久久久久久久99_国产午夜精品理论片_波多野结衣久久_国产碰碰_国产一级淫片久久久片a级_国产免费女同互wei观看 | 小明成人永久免费视频在线观看_中文在线国产_一区二区三区AV高清免费波多_亚洲一级毛片在线_成人av毛片_亚洲伦理在线_野花社区观看在线www官网_国产亚洲AV无码专区A∨麻豆 | 老鸭窝视频在线观看_chinese国产人妖ts_狠狠躁夜夜躁人人躁婷婷91_2021av在线_亚洲成AV人片在线观看无线_国产看片网站_69精品人人人人人人人人人_亚洲欧美色中文字幕在线 |