高清不卡毛片免费观看_国产成人精品久久亚洲高清不卡_99riav国产在线观看_亚洲精品视频在线

pytorch .data(pytorch中dataset)

本文主要介紹py torch . data(py torch中的數(shù)據(jù)集),下面一起看看py torch . data(py torch中的數(shù)據(jù)集)相關(guān)資訊。
本節(jié)參考小土丘的pytorch入門視頻教程。建議學習時多讀源代碼。你可以通過源代碼中的注釋快速找出一個類或函數(shù)的功能以及輸入輸出的類型。
dataset#借用dataset可以快速訪問深度學習所需的數(shù)據(jù)。例如,我們需要訪問以下培訓數(shù)據(jù):
其中,訓練數(shù)據(jù)集存儲在train中,螞蟻和蜜蜂都是它們所包含的圖片數(shù)據(jù)的文件夾名和標簽,驗證數(shù)據(jù)集存儲在val中。
如果我們希望數(shù)據(jù)集類實現(xiàn)以下數(shù)據(jù)訪問形式:
dataset = my dataset( 根目錄 , 標簽目錄 )img,label = dataset [0] #我們只需要繼承dataset類,并重寫__getitem__(必需的)和__len__(建議的)方法。可以通過在交互模式下執(zhí)行以下語句來查看詳細信息:
從torch.utils.data導入數(shù)據(jù)集幫助(dataset) #還是執(zhí)行數(shù)據(jù)集??#或者在pycharm中按住ctrl點擊dataset直接查看源代碼。輸出如下所示:
表示: class : ` dataset &;的抽象類。所有表示從鍵到數(shù)據(jù)樣本的映射的數(shù)據(jù)集都應該對其進行子類化。所有子類都應該覆蓋: methe cho 6-@ . com `_ _ getitem _ _ `,支持為給定鍵提取數(shù)據(jù)樣本。子類還可以選擇覆蓋: methe cho 6-@ . com `_ _ len _ _ `,這將返回數(shù)據(jù)集大小的許多: class cho 6-@ . com `~torch . utils . data . sampl:class: ` ~ torch . utils . data . data loader `的實現(xiàn)和默認選項.定義mydataset類:# import os from torch . utils . data import dataset from torch . utils . data . dataset import t _ co from pil import image class my datas: d: 得到了所有的圖像文件名:參數(shù)root_dir:數(shù)據(jù)路徑:參數(shù)lab:標簽 self . root _ d . ir = root _ dir self . label _ dir = label _ dir self . data _ dir = os . path . join(self . root _ dir,self . label _ dir)self . img _ names = os . listdir(self . data _ dir)def _ _ getitem _ _(self,index)-t_co: 只能通過下標訪問數(shù)據(jù)集:參數(shù)ind:下標:r: img(pil)。標簽 img _ nam: return len(self . img _ names)使用我的數(shù)據(jù)集。class #以交互模式導入mydataset并執(zhí)行以下語句:
ants _ dataset = my dataset( 數(shù)據(jù)集/訓練 , 螞蟻 )#創(chuàng)建數(shù)據(jù)集bees _ dataset = my dataset( 數(shù)據(jù)集/訓練 , 蜜蜂 )img,label = ants _ dataset[47]# access data len(bees _ dataset)# get dataset length img . show# display picture dataset = ants _ dataset bees _ dataset # add dataset tensor board # tensor board可以用來記錄一些數(shù)據(jù)(標量、圖片等。)以日志的形式在訓練模型時生成,同時也可以將記錄的數(shù)據(jù)可視化,方便我們對現(xiàn)有模型進行分析。比如借助tensorboard,記錄并可視化損失函數(shù)隨訓練周期的下降過程。
要使用tensorboard,必須首先通過以下命令將其安裝在conda環(huán)境中:
conda安裝tensorboard記錄標量)#記錄標量需要使用torch.utils.tensorboard中summarywriter類的add_scalar方法
創(chuàng)建并執(zhí)行以下python腳本:
來自火炬。utils。tensorboard導入摘要writer #參數(shù):log_dir,存儲日志的路徑名writer = summary writer( 日志 )#記錄曲線y = x 2 #參數(shù)1:標簽,數(shù)據(jù)標識符#參數(shù)2: scalar_valu: writer中i的x軸數(shù)據(jù)。add _ scalar( y = x 2 ,i * * 2,i) #調(diào)用close確保數(shù)據(jù)刷新到磁盤寫入器。close腳本成功執(zhí)行后,將在腳本文件所在的當前路徑下創(chuàng)建一個logs文件夾,并生成一個日志文件。成功生成日志后,在conda環(huán)境中執(zhí)行以下命令以啟動tensorboard可視化服務:
#指示日志存儲的位置和服務啟動時使用的端口。默認端口為6006#多人使用同一臺服務器時,應避免以下兩個tensorboa值相同的參數(shù)。rd-logdir = second/logs-port = 6008該命令成功執(zhí)行后,會給出以下提示:
在瀏覽器中打開上述鏈接以查看可視化效果:
注:tensorboard是根據(jù)不同標簽可視化的。如果多次寫入的日志具有相同的標記,可能會導致可視化出現(xiàn)問題。只需刪除日志并重新生成它,然后重新啟動可視化服務。
image)# image可以通過使用torch.utils.tensorboard中summarywriter類的add_image方法來記錄
該方法定義如下:
def add _ image (self,tag,img _ tensor,global _ step = none,walltime = none,dataformats = chw )# tag (string)同上# img _ tensor (torch。張量、numpy.array或string/blobnam:圖像數(shù)據(jù)# global _ st: step # data formats(string):圖像數(shù)據(jù)格式。如果不是chw,您需要指定創(chuàng)建并執(zhí)行以下python腳本:
從torch.utils.tensorboard導入摘要writer從pil導入圖像import numpy as np writer = summary writer( 日志 )img _ path = e: \ \ code \ \ python \ \ py torch-learn \ \ dataset \ \ train \ \ ants \ \ 0013035 . jpg # img是pil . jpegimageplugin . jpegimagefile type img = image . open(img _ path)img _ array = np . array(img)writer . add _ image( 螞蟻 ,img _ array,0,數(shù)據(jù)格式= hwc )后編劇的劇本。close執(zhí)行成功,只需像之前一樣啟動可視化服務。
如果日志中相同標簽標識的數(shù)據(jù)中有多個global _ steps,可以顯示如下:拖動軸可以看到global _ steps之間的圖像變化。
轉(zhuǎn)換#transforms是位于torchvision包中的一個模塊,模塊中有很多類可以把要輸入神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)進行轉(zhuǎn)換,以滿足網(wǎng)絡(luò)的需要。
totensor#這個類可以將pil圖像或numpy.ndarray轉(zhuǎn)換成張量,以便于將圖像輸入神經(jīng)網(wǎng)絡(luò)。下面的代碼做了一個簡單的例子:將pil圖像轉(zhuǎn)換成張量后,借助tensorboard可以直接寫入日志文件:
從torchvision導入轉(zhuǎn)換從pil導入圖像從torch.utils.t:/code/python/pytorch-learn/dataset/train/.螞蟻 \ /6743948 _ 2b8c096dda.jpg img = image.open (img _ path) #將pil圖像轉(zhuǎn)換為張量類型# 1。劃分輸入數(shù)據(jù)形狀w,h,c —— c,w,h# 2。將所有數(shù)字除以255。將數(shù)據(jù)規(guī)范化到[0,1] #實例就像方法一樣被調(diào)用,其中實際調(diào)用的是totensor類中的__call__方法。# mor = trans _ to _ tensor(img)#將張量圖像寫入日志writer = summary writer( 日志 )使用tensorboard。writer . add _ image( img _張量 ,img _ tensor,1) writer.close啟動tensorbard可視化服務并在瀏覽器中訪問:
normalize#normalize類可以通過均值和標準差來歸一化張量圖像。這種構(gòu)造函數(shù)定義如下:
#平均(sequenc:表示圖像的每個通道的平均值的序列# std (sequenc:表示圖像的每個通道的標準偏差的序列# inplac:是否原位修改tensordef _ _ init _ _ (self,mean,std,inplac:),這個類的具體歸一化操作如下:
output[channel]=(input[channel]-mean[channel])/std[channel]對于任意通道,如果原始值為[0,1],傳入均值為0.5,std為0.5,則歸一化運算為:(value-0.5)/0.5 = 2*value-1,帶入。
創(chuàng)建并執(zhí)行以下腳本:
從torchvision導入轉(zhuǎn)換從pil導入圖像從torch.utils.tensorboard導入摘要writer#在轉(zhuǎn)換模塊trans _ to _ tenor = transforms中創(chuàng)建totensor類。totensor #在transforms模塊中創(chuàng)建normalize類。三個通道的均值和標準差都是0.5 trans _ normalize = transforms . normalize([0.5,0.5,0.5],[0.5,0.5],0.5)#獲取pil圖像img _ path = :/code/python/pytorch-learn/dataset/train/ants\ /6743948 _ 2b 8 c 096 dda . jpg img = image.open (img _ path) #將pil圖像轉(zhuǎn)換為張量類型# 1。將所有數(shù)字除以255,將數(shù)據(jù)歸一化為[0,1]img _ tensor = trans _ to _ tensor(img)# normalize tensor img _ normalize = trans _ normalize(img _ tensor)print(type(img _ normalize))# class ;火炬。張量與數(shù)學。;= #使用t。傳感器板將張量圖像寫入日志日志 )writer . add _ image( 正常化 ,img _ normalize,1) writer.clos:要求的序列或輸出大小#如果siz:創(chuàng)建并執(zhí)行以下腳本:
從torchvision導入轉(zhuǎn)換從pil導入圖像從torch.utils.tensorboard導入摘要writer# totensor在轉(zhuǎn)換模塊trans _ to _ tensor = transforms中創(chuàng)建的類。totensor #在轉(zhuǎn)換模塊trans _ normalize = transforms中創(chuàng)建normalize類。normalize ([0.5,0.5,0.5],[0.5,0.5]) #創(chuàng)建resize類trans _ resize _ 52x 52 = transforms . resize((80,40)) trans _ resize _ 52 = transforms。獲取pil圖像img _ path = :/code/python/pytorch-learn/dataset/train/ants\ /6743948 _ 2b8c096。mg_path)#用tensor board writer = summary writer( 日志 )#將pil圖像轉(zhuǎn)換成張量類型# 1。輸入數(shù)據(jù)形狀w,h,c —— c,w,h# 2。將所有數(shù)字除以255,將數(shù)據(jù)歸一化為[0,1]img _ tensor = trans _ to _ tensor(img)#第0步:記錄張量圖像writer . add _ image( img-tensor-normalize-resize _ 52x 52,img _ tensor,0)#歸一化張量img _ normalize = trans _ normalize(img _ tensor)#第一步:記錄歸一化的圖像寫入器。添加圖像( img-tensor-normalize-resize _ 52x 52,img_normalize,1)# resize img _ resize _ 52x 52 = trans _ resize _ 52x 52(img _ normalize)#第二步:記錄(52,52)圖像寫入器。調(diào)整大小后添加圖像( img-tensor-normalize-resize _ 52x 52,img _ resize _ 52x52,2) # pair (52,52)52)resize張量再次執(zhí)行(52)的resize img _ resize 52 = trans _ resize 52(img _ resize 52 x52)#第三步:記錄(52)。調(diào)整writer . add _ image( img-tensor-normalize-resize _ 52x 52,img _ resize _ 52,3) writer.close啟動tensorbard可視化服務并在瀏覽器中訪問它:
compose#在上一節(jié)的例子中,我們的圖像處理基于一系列的變換。為了在每次轉(zhuǎn)換執(zhí)行后記錄圖像,我們在每兩次轉(zhuǎn)換之間插入一個圖像記錄操作。如果我們不這樣做。;不需要在每次轉(zhuǎn)換執(zhí)行后記錄圖像,那么我們可以通過compose順序執(zhí)行一系列轉(zhuǎn)換。
compose類的構(gòu)造函數(shù)定義如下:
# trans froms(list of transform objects): # list d:)這個類的核心思想在于__call__函數(shù):
def _ _ call _ _ (s: for t in s: img = t(img)return img with compose,為了得到上一節(jié)的最終結(jié)果,我們可以將上一節(jié)的腳本簡化如下:
從torchvision導入轉(zhuǎn)換從pil導入圖像從torch.utils.tensorboard導入摘要writer# totensor在轉(zhuǎn)換模塊trans _ to _ tensor = transforms中創(chuàng)建的類。totensor #在轉(zhuǎn)換模塊trans _ normalize = transforms中創(chuàng)建normalize類。normalize ([0.5,0.5,0.5],[0.5,0.5]) #創(chuàng)建resize類trans _ resize _ 80x 40 = transforms . resize((80,40))trans _ resize _ 200 = transforms。resize (200) #創(chuàng)建合成類trans _ compose = transforms。compose ([trans _ to _ tensor,trans _ normalize,trans _ resize _ 80x40,trans _ resize _ 200]) #獲取pil圖像img _ path = e:/code/python/pytorch-learn/dataset/train/ants\ /6743948 _ 2b8c096dda。g _ path)# execute compose img _ compose = trans _ compose(img)# record合成的圖像writer = summary writer( 日志 ).writer . add _ image( img-tensor-normalize-resize _ 80x 40-resize _ 200,img _ compose,0) writer.close啟動tensorbard可視化服務并在瀏覽器中訪問它:
transforms模塊中還有許多其他轉(zhuǎn)換類,它們可以在需要時查詢文檔。在查詢文檔時,理解類或函數(shù)的功能以及輸入和輸出類型是很重要的。
dataset和transforms的組合使用#在pytorch官網(wǎng)首頁,按照不同的模塊提供文檔,包括:核心模塊、音頻模塊、文本模塊、可視化模塊等。
在torchvision.datasets中,提供了對常用數(shù)據(jù)集的支持,可以幫助我們快速下載、解壓和使用數(shù)據(jù)集:
以cifar10數(shù)據(jù)集為例,按照以下文檔使用:
根據(jù)文檔,如果要使用cifar10數(shù)據(jù)集,應該使用torch vision . datasets . cifs ar 10類,該類的構(gòu)造函數(shù)需要傳入以下參數(shù):
# root (string):數(shù)據(jù)集所在的目錄# train (bool,可選):tru測試集# transform (callable,optional):function/transform # target _ transform(callable,optional):目標的function/transform # download(bool,optional):如果為tru: str,train: bool = tru: optional[callabl: optional[callabl:·布爾= fals:根據(jù)文檔中的__getitem__函數(shù),我們知道當通過下標訪問dataset時,會返回(image,target),即圖像和圖像的類型。
創(chuàng)建以下腳本并執(zhí)行它(使用訓練集):
導入torchvision# create transform,將pil圖像轉(zhuǎn)換為tensor data _ trans = torch vision . transforms . pose([torch vision . transforms . tot tensor])#建議下載始終為真。即使提前下載了數(shù)據(jù)集,如果下載很慢也可以復制控制臺輸出的下載地址。然后在迅雷#下載后將壓縮包復制到根目錄下下載地址也可以在火炬威視的源代碼中查看。數(shù)據(jù)集。cifar10train _ set =火炬視覺。數(shù)據(jù)集。cifar 10(root = 。/dataset ,train = true,transform=data_trans,download=true)img,target = train _ set[0]print(type(img))# class ;torch.tensor = 打印(目標)# 6 #[ ;飛機與航空。;, 汽車與汽車。;,鳥 , 貓和貓。;, 鹿 , 狗和貓。;, 青蛙 , 馬與馬。;, 船舶與航空公司。;, 卡車 ]打印(train _ set。classes [target]) # frog創(chuàng)建以下腳本并執(zhí)行它(。
import torch vision test _ set = torch vision . datasets . cifar 10(root = 。/dataset ,train=false,download=true)img,target = test _ set[0]img . showprint(type(img))# class ;pil.image.image= print(target)# 3 print(test _ set . class[target]) # catdataload:數(shù)據(jù)集類型dataset # batch _ siz:批處理大小,d: 1 # shuffl:每個歷元后是否打亂數(shù)據(jù),d: fals:加載數(shù)據(jù)時使用的子進程數(shù),0表示使用主進程加載,d: 0。可以設(shè)置為cpu核心數(shù)# drop _ last (bool,可選):)。當數(shù)據(jù)個數(shù)不能被batch_siz:為fals: dataset[t _ co],batch_siz:可選[int] = 1,shuffl: bool = fals:可選[sampler] = none,batch_sampl:可選[sampler[sequenc: int = 0,collat:可選[_collate_fn_t] = none,pin _ memory: bool = false,drop _ last : boo= none,multiprocessing _ context = none,generator = none,*,prefetch_factor: int = 2,p:布爾= fals:創(chuàng)建并執(zhí)行以下腳本:
導入torch vision from torch . utils . data導入dataloader from torch . utils . t: trans _ to _ tensor = torch vision . transforms . to tensortrain _ dataset = torch vision . datasets . cifar 10(root = 。/dataset ,transform = trans _ to _ tensor,download = true) # dataloader根據(jù)batch_size封裝img和target,如圖,train _ data loader = data loader(dataset = train _ dataset,batch_siz:的epoch,用于:的batch_num,batch _ data # print(epoch, : ,batch_num) batch_img,batch _ target = batch _ data writer . add _ images( cifr 10-batch 64-no _ shuffle-no _ drop _ last _ epoch { } 。format (epoch),batch _ img,batch _ num)writer . clos:。如果num_work: #這里插入了訓練網(wǎng)絡(luò)的全部代碼...if _ _ nam:火車2。如果修改后代碼仍然報錯:os:[win:。
進入高級系統(tǒng)設(shè)置:
點擊:高級-性能-設(shè)置:
點擊:高級-更改:
如下圖,將d盤的虛擬內(nèi)存調(diào)整到系統(tǒng)管理的大小(重啟后生效)。如果仍然報告錯誤,您可以將大小自定義為一個很大的值,如10gb-100gb。
腳本成功執(zhí)行后,啟動tensorbard可視化服務并在瀏覽器中訪問:
step=170時:(日志比較大,可能需要在瀏覽器中刷新幾次才能加載滿)。
當步驟=781時:
因為我們在創(chuàng)建dataloader時,參數(shù)shuffle=false使得epoch0和epoch1之間同批次提取的圖像相同;參數(shù)drop_last=false使最后一批圖像即使小于64也不會被丟棄。
修改腳本,使shuffle=true,drop_last=true,然后再次執(zhí)行腳本并啟動tensorbard可視化服務。瀏覽器中的訪問結(jié)果如下:
如圖所示,從epoch0和epoch1之間的同一批次(780)提取的圖像不同,丟棄第781批次。
標簽:
圖像數(shù)據(jù)
了解更多py torch . data(py torch中的數(shù)據(jù)集)相關(guān)內(nèi)容請關(guān)注本站點。

手機如何控制電腦操作(手機怎么控制電腦屏幕,電腦不用操作)
靜電導致電腦死機(電腦老有靜電怎么回事)
shell環(huán)境變量的定義(shell設(shè)置環(huán)境變量即時生效)
ipad air3重量是多少(iPadair3重量多少千克)
win10系統(tǒng)u盤安裝制作(win10系統(tǒng)u盤安裝步驟)
pytorch .data(pytorch中dataset)
5g網(wǎng)絡(luò)什么時候普及全國2020(5g網(wǎng)絡(luò)什么時候普及全國各地)
聯(lián)想拯救者保修條例(聯(lián)想拯救者保修期幾年)
微信怎么讓訂閱號成列表狀態(tài)(訂閱號信息怎么變成列表)
oppo的輸入法怎么切換(oppo手機輸入法怎么切換別的輸入法)
戴爾筆記本電源鍵亮但黑屏怎么辦,我的戴爾筆記本黑屏怎么辦但是還在運作開機的指示燈也亮著 搜
ps軟件官方下載中文版手機版(ps軟件下載手機版安卓官方網(wǎng)站)
oppor9splus怎么截屏
ipad屏幕不亮但有聲音觸屏能用(ipad屏幕不亮但有聲音換屏幕要多少錢)
諾基亞6120ci怎么下載軟件,怎么在諾基亞上下載軟件
格力風管機e6是什么故障如何排除的(格力風管機e6是什么故障代碼怎么解決)
臺式機硬盤如何重新分區(qū),電腦硬盤重新分區(qū)方法
電腦硬盤維修費用大概是多少錢啊
手機如何做無線攝像頭(手機做wifi攝像頭)
oppo怎么關(guān)相機的聲音了,怎么關(guān)閉相機拍照的聲音
高清不卡毛片免费观看_国产成人精品久久亚洲高清不卡_99riav国产在线观看_亚洲精品视频在线

    亚洲毛片在线免费观看| 国产精品久久久久久久免费软件| 亚洲国语精品自产拍在线观看| 欧美福利在线| 久久精品国产2020观看福利| 99精品国产一区二区青青牛奶| 国产深夜精品| 欧美日韩精品一区视频| 另类激情亚洲| 欧美一级黄色网| 一区二区三区四区五区视频 | 韩国在线视频一区| 欧美日韩情趣电影| 欧美高清视频免费观看| 久久成人免费| 一本色道久久88综合日韩精品| 黑人操亚洲美女惩罚| 国产精品一区免费在线观看| 欧美日韩小视频| 欧美激情精品久久久久久大尺度| 久热精品视频在线观看一区| 欧美中日韩免费视频| 香蕉精品999视频一区二区| 亚洲一区二区伦理| 日韩亚洲欧美中文三级| 亚洲精品一品区二品区三品区| 在线播放日韩| 在线免费观看日本欧美| 在线观看欧美日韩| 国产一区91| 精品91在线| 亚洲激情视频网| 亚洲黄色成人| 亚洲黄色av| 一本一道久久综合狠狠老精东影业| 亚洲精品男同| 亚洲精选国产| 亚洲欧美高清| 久久久久久9| 欧美顶级少妇做爰| 欧美视频在线观看视频极品| 欧美日韩三级| 国产精品综合| 伊人激情综合| 亚洲最快最全在线视频| 亚洲一区二区三区视频| 欧美自拍偷拍午夜视频| 老司机亚洲精品| 欧美精品一区二区在线播放| 国产精品乱码一区二区三区| 国产一区二区三区成人欧美日韩在线观看| 国产一区自拍视频| 亚洲激情啪啪| 亚洲欧美清纯在线制服| 久久精品国产亚洲高清剧情介绍| 欧美a级片网| 国产精品av一区二区| 国产综合色产| 一本色道久久综合亚洲精品高清 | 国产精品自拍在线| 在线观看亚洲| 国产一在线精品一区在线观看| 亚洲国产成人av| 亚洲一级在线观看| 久久久综合网站| 欧美日韩在线播放三区四区| 国产日韩在线看| 一本在线高清不卡dvd| 久久九九国产精品| 欧美精品在线免费播放| 国内精品久久久久影院薰衣草| 99精品视频免费全部在线| 久久经典综合| 国产精品高潮粉嫩av| 亚洲国产精品一区二区三区| 欧美尤物一区| 国产精品久久毛片a| 91久久国产自产拍夜夜嗨| 亚欧成人在线| 欧美三级视频在线观看| 亚洲国产一区二区三区在线播 | 亚洲深夜福利| 欧美~级网站不卡| 国产一区二区丝袜高跟鞋图片| 亚洲少妇诱惑| 欧美日韩精品免费观看视频| 亚洲二区免费| 久久色中文字幕| 国内外成人在线视频| 西西人体一区二区| 欧美三级视频在线观看| 亚洲美洲欧洲综合国产一区| 欧美电影美腿模特1979在线看| 亚洲东热激情| 欧美第十八页| 亚洲国产另类久久精品| 嫩草国产精品入口| 亚洲大黄网站| 免费看成人av| 亚洲精品乱码久久久久久蜜桃91| 欧美成人一区二区三区在线观看| 亚洲电影在线观看| 免费久久精品视频| 91久久极品少妇xxxxⅹ软件| 美国三级日本三级久久99| 在线观看中文字幕不卡| 美女黄毛**国产精品啪啪 | 亚洲高清毛片| 免费亚洲婷婷| 亚洲另类春色国产| 国产精品h在线观看| 亚洲免费在线视频| 国产视频久久网| 久久伊人亚洲| 亚洲精选成人| 国产精品一二三四| 久久av免费一区| 亚洲国产精品久久久| 欧美日韩www| 亚洲欧美在线一区| 亚洲成色777777女色窝| 欧美日韩国产一区二区| 亚洲一区视频在线观看视频| 国色天香一区二区| 欧美屁股在线| 久久不见久久见免费视频1| 1024日韩| 国产精品网站在线| 欧美插天视频在线播放| 午夜精品久久| 亚洲国产99| 国产精品一区免费在线观看| 久久综合网hezyo| 亚洲一区免费看| 永久免费毛片在线播放不卡| 欧美午夜一区二区三区免费大片 | 黄色小说综合网站| 欧美三级午夜理伦三级中文幕| 久久精品成人欧美大片古装| 99热精品在线观看| 在线观看欧美黄色| 国产欧美一区二区三区另类精品| 欧美黑人国产人伦爽爽爽| 久久xxxx精品视频| 亚洲精品日产精品乱码不卡| 国内精品视频666| 国产精品xvideos88| 牛人盗摄一区二区三区视频| 亚洲欧美日韩精品一区二区| 亚洲免费精彩视频| 精品动漫av| 国产日韩精品视频一区| 欧美三级视频在线播放| 欧美v日韩v国产v| 久久久精品日韩| 欧美中文在线视频| 亚洲一区二区三区高清| 亚洲麻豆一区| 亚洲片在线资源| 亚洲国产天堂久久综合网| 国产日韩一级二级三级| 国产欧美日韩在线播放| 国产精品欧美久久久久无广告| 欧美日韩国产一区二区三区地区 | av不卡在线| 亚洲免费大片| 一道本一区二区| 亚洲最新合集| 在线亚洲电影| 一区二区av| 亚洲综合成人在线| 性欧美大战久久久久久久免费观看| 亚洲欧美999| 欧美在线你懂的| 久久精品视频免费播放| 久久久久久噜噜噜久久久精品| 久久精品亚洲一区二区三区浴池| 久久精品一区二区国产| 久久久久中文| 欧美成人精品在线播放| 欧美日韩成人综合| 国产精品久久久一区二区三区| 国产日韩精品一区观看| 国产综合自拍| 亚洲高清不卡在线观看| 日韩一区二区精品在线观看| 亚洲婷婷在线| 久久久久久高潮国产精品视| 蜜桃av一区| 欧美日韩一区二区三区免费| 国产精品狼人久久影院观看方式| 国产日韩欧美一区二区| 亚洲大片在线| 亚洲网在线观看| 久久免费观看视频| 欧美日韩三级电影在线| 国产日韩欧美综合在线| 亚洲精一区二区三区| 亚洲自拍偷拍麻豆| 久久先锋影音av|