婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 詳解基于docker-swarm搭建持續集成集群服務

詳解基于docker-swarm搭建持續集成集群服務

熱門標簽:400電話申請要什么條件 話術外呼系統 廣東如何申請400電話 燃氣管線地圖標注顏色 寧波400電話辦理對企業的意義 北京人工外呼系統廠家 i智能電話機器人yeta 西柏坡地圖標注 哈爾濱400電話去哪辦理

前言

本文只為自己搭建過程中的一些簡單的記錄。如果實踐中有疑問,可以一起探討。

為了能在本機(macOS)模擬集群環境,使用了vb和docker-machine。整體持續集成的幾個機器設施如下:

1、服務節點:三個manager節點,一個worker節點。manager需要占用更多的資源,manager配置盡量高一些。swarm的manager節點的容錯率是 (N-1)/2 。N是manager節點數。也就是如果有3個manager,那就能容忍一個manager節點掛掉。官方的算法說明:Raft consensus in swarm mode。

2、本地的鏡像倉庫 registry:用來存儲所有需要部署的服務docker鏡像。

https://docs.docker.com/registry/deploying/

因為使用swarm機制,所以不需要在服務間通信問題考慮服務發現以及負載均衡的問題(代替原有的consul&registor方式)。

3、構建鏡像的運維節點 ops:

也即運維機器。一個獨立的節點即可。主要負責build鏡像,push鏡像。在ops里可以構建gitlab的私庫。維護構建腳本。機器所需配置不高,對網絡寬帶還是盡量多一些。

用docker-machine 模擬集群環境

創建registry節點

docker-machine create -d virtualbox --virtualbox-memory "512" registry 

–engine-registry-mirror 這個參數是可以設置一些加速倉庫的地址。

創建manager,worker節點

manager

復制代碼 代碼如下:
docker-machine create -d virtualbox --virtualbox-memory "800"  manager1
    

worker:

docker-machine create -d virtualbox --virtualbox-memory "800" worker1 
docker-machine create -d virtualbox --virtualbox-memory "800" worker2 
docker-machine create -d virtualbox --virtualbox-memory "800" worker3 

創建ops 節點

docker-machine create -d virtualbox --virtualbox-memory "512" ops 

查看機器列表狀態

docker-machine ls 

創建registry服務

登錄到registry機器上。

docker-machine ssh registry

創建一個registry服務。

docker run -d -p 5000:5000 --restart=always --name registry \

 -v `pwd`/data:/var/lib/registry \

 registry:2

命令設置了-v volumn選項,這樣在每次容器服務重啟的時候,不會丟失已經pull的鏡像數據。registry,mysql等存儲類型的容器,建議設置一下volumn.如果為了更好的擴展,也可以將鏡像倉庫備份到其他driver里,如阿里云的OSS.

運行docker ps就可以看到一個啟動好的registry服務。當然,為了更好的擴展,也可以掛載在自己的域名下,重新run 的時候添加認證信息。

為了更方便管理容器,可以使用docker-compose 組件。安裝:

復制代碼 代碼如下:
curl -L "https://github.com/docker/compose/releases/download/1.9.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
 

也可以寫好compose文件之后直接啟動:

docker-compose up -d

本地倉庫push鏡像

現在可以嘗試拉一個鏡像,然后tag到本地的registry倉庫,如

復制代碼 代碼如下:
docker pull lijingyao0909/see:1.0.3 && docker tag lijingyao0909/see:1.0.3 localhost:5000/see:1.0.3

然后再執行push 命令:

docker push localhost:5000/see:1.0.3

這個鏡像就push到了registry服務中,最直接的方式可以通過查看本地的volumn目錄,如本例中的 data目錄查看到鏡像數據。
如果為了更方便的可視化管理registry,也可以試用下registry UI 相關的鏡像如hyper/docker-registry-web。

復制代碼 代碼如下:
docker run -it -p 8080:8080 --name registry-web --link registry-srv -e REGISTRY_URL=http://registry-srv:5000/v2 -e REGISTRY_NAME=localhost:5000 hyper/docker-registry-web

然后訪問 hostname:5000/registory/index可以看到簡單的鏡像列表UI。

https 問題

在本地測試時如果執行以上步驟,在push,或者在其他vb中pull鏡像時遇到以下問題:

Error response from daemon: Get https://registry:5000/v1/_ping: dial tcp 218.205.57.154:5000: i/o timeout

處理方式是,修改registry的認證,如下先修改“/var/lib/boot2docker/profile”:

sudo vi /var/lib/boot2docker/profile

添加

DOCKER_OPTS="--insecure-registry <host-name>:5000"
DOCKER_OPTS="--insecure-registry registry:5000"

因為registry的hostname就是 registry。所以執行docker ifno命令可以看到:

Insecure Registries:
 registry:5000
 127.0.0.0/8 

同時,在其他的worker機器,manager機器也需要修改–insecure-registry屬性,才可以pull私庫的鏡像。修改之后需重新restart vb。

重啟后,在manager重新嘗試pull

docker pull registry:5000/see:1.0.3 

 可以看到成功連接倉庫并拉取鏡像。注意,本示例使用的是機器名,registry,而不是IP地址。所以,在拉取鏡像的時候,需在各自的vb 的etc/hosts文件配置ip和機器名的映射。用機器名的方式比較操作易記。當然最好的方式還是通過域名訪問倉庫。

參考資源

部署registry服務

創建ops服務

swarm的服務集群會直接從registry上pull鏡像,直接啟動應用的service服務。服務的鏡像直接打在registry倉庫中,但是源碼可以維護在ops機器上。前面創建的ops的virtual-box,可以部署gitlab服務。啟動參數可以參考Deploy GitLab Docker images

先pull一個gitlab鏡像

docker run --detach \

 --hostname gitlab.lijingyao.com \

 --publish 443:443 --publish 80:80 --publish 22:22 \

 --name gitlab \

 --restart always \

 --volume `pwd`/gitlab/config:/etc/gitlab \

 --volume `pwd`/gitlab/logs:/var/log/gitlab \

 --volume `pwd`/gitlab/data:/var/opt/gitlab \

 gitlab/gitlab-ce:8.14.4-ce.0

使用git私庫

因綁定了80端口,啟動gitlab后訪問:http://machine-host/

第一次進入gitlab會自動跳轉到重置密碼。可以設置一個新的密碼,這個是root賬號的密碼。后續就可以注冊其他git用戶使用了。
這里,如果申請了域名服務,或者本地綁定gitlab.lijingyao.com 到這個virtualbox的ip地址,就可以直接訪問gitlab.lijingyao.com地址。在實際生產環境有固定公網ip,自己的dns服務,就不需要綁定host。這里只是本地測試,所以暫時就通過綁定host的方式。

swarm

本例中的服務是一個簡單的springboot 和gradle的工程,服務鏡像可以在docker hub pull,see service image。打包好鏡像后,直接在gradle task中push到registry倉庫中。在本地環境可以直接在工程目錄里執行。gradle task然后push到vb的registry中,再在registry 倉庫pull鏡像即可。現在開始準備初始化swarm 集群。

現在整個vb 集群的機器,查看如下:

$docker-machine ls

NAME  ACTIVE DRIVER  STATE  URL       SWARM DOCKER ERRORS
haproxy -  virtualbox Running tcp://192.168.99.103:2376   v1.12.3 
manager1 -  virtualbox Running tcp://192.168.99.100:2376   v1.12.3 
ops  -  virtualbox Running tcp://192.168.99.106:2376   v1.12.3 
registry -  virtualbox Running tcp://192.168.99.107:2376   v1.12.3 
worker1 -  virtualbox Running tcp://192.168.99.101:2376   v1.12.3 
worker2 -  virtualbox Running tcp://192.168.99.102:2376   v1.12.3 
worker3 -  virtualbox Running tcp://192.168.99.105:2376   v1.12.3 

然后用docker-machine ssh manager1登陸到manager1機器上。

初始化swarm manager節點

在manager1 機器上初始化swarm,這個初始化的機器就是swarm的manager.執行:

 docker swarm init --advertise-addr 192.168.99.100

會看到以下執行輸出:

Swarm initialized: current node (03x5vnxmk2gc43i0d7xpycvjg) is now a manager.

To add a worker to this swarm, run the following command:

 docker swarm join \

 --token SWMTKN-1-5ru6lyco3upj7oje6hidug3erqczok84wk7bekzfaca4uv51r9-22bcjhkbxnclmw3nl3ui8601l \

 192.168.99.100:2377

To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

這個生成的token值,是其他swarm集群節點join到整個swarm的key。如果忘記了token,可以在manager1上執行:

$docker swarm join-token manager 

來查看目前的token值。官方建議至少6個月更換以下token。更換命令:

$docker swarm join-token --rotate worker 

添加worker節點

分別登錄 worker1,worker2,worker3,執行join命令。

在join之前,先查看下docker 網絡設施。執行

$ docker network ls
NETWORK ID   NAME    DRIVER    SCOPE
4b7fe1416322  bridge    bridge    local    
06ab6f3352b0  host    host    local    
eebd5c8e0d5d  none    null    local 

按照manager1 初始化之后的命令,執行:

docker swarm join \

 --token SWMTKN-1-5ru6lyco3upj7oje6hidug3erqczok84wk7bekzfaca4uv51r9-22bcjhkbxnclmw3nl3ui8601l \

 192.168.99.100:2377

此時在任何worker節點再執行docker network ls 即可看到多了一個overlay的覆蓋范圍為swarm的網絡通道。

三個worker都加入之后,在manager1 上即可看到manager的node節點情況

docker node ls
ID       HOSTNAME STATUS AVAILABILITY MANAGER STATUS
03x5vnxmk2gc43i0d7xpycvjg * manager1 Ready Active  Leader  
2y5wrndibe8c8sqv6851vrlgp worker1 Ready Active  Reachable
dwgol1uinkpsybigc1gm5jgsv worker2 Ready Active  
etgyky6zztrapucm59yx33tg1 worker3 Ready Active  Reachable

manager status的Reachable狀態表示該節點也是manager節點。這是因為我們在worker1,worker3分別執行了

docker node promote worker1
docker node promote worker3

worker1,worker3此時也可以執行swarm命令,在manager1關停時,就會選舉其中之一作為新的leader。如果要去除node的manager狀態,可以通過demote命令去除。執行后,worker節點就變成普通的任務節點。

docker node demote worker1 worker3 

swarm節點的其他狀態

swarm節點可以設置drain狀態,drain狀態的節點不會執行任何service。

將某個node設置不可用:

docker node update --availability drain worker1 

Pause,Drain,Active三個狀態,pause標識有任務運行,不接受新任務。

如果要將worker1 節點去除swarm中心,現在需被移除的節點(worker1)執行:docker swarm leave 然后在manager上執行:docker node rm worker1,即可移除一個swarm節點。

創建swarm服務

本例中使用swarm部署一個基于springboot的rest api服務。倉庫的地址:springboot-restful-exam,創建的服務name是deftsee,綁定80端口,并且擴展4個運行容器服務。

docker service create \

 --replicas 4 \

 --name deftsee \

 --update-delay 10s \

 --publish 8080:80 \

 lijingyao0909/see:1.0.3

服務創建之后,可以查看服務節點的狀態

docker@manager1:~$ docker service ls
ID   NAME  REPLICAS IMAGE     COMMAND
a6s5dpsyz7st deftsee 4/4  lijingyao0909/see:1.0.3 

REPLICAS 代表服務的運行容器數,如果是0/4就代表所有服務都沒有起來。詳細查看各個節點運行狀態可以用docker service ps servicename

docker@manager1:~$ docker service ps deftsee
ID       NAME  IMAGE     NODE  DESIRED STATE CURRENT STATE   ERROR
8lsdkf357lk0nmdeqk7bi33mp deftsee.1 lijingyao0909/see:1.0.3 worker2 Running  Running 5 minutes ago 
cvqm5xn7t0bveo4btfjsm04jp deftsee.2 lijingyao0909/see:1.0.3 manager1 Running  Running 7 minutes ago 
6s5km76w2vxmt0j4zgzi4xi5f deftsee.3 lijingyao0909/see:1.0.3 worker1 Running  Running 5 minutes ago 
4cl9vnkssedpvu2wtzu6rtgxl deftsee.4 lijingyao0909/see:1.0.3 worker3 Running  Running 6 minutes ago 

可以看到任務被平分到所有的四個任務節點運行。下面再擴容deftsee服務

docker@manager1:~$ docker service scale deftsee=6
deftsee scaled to 6
docker@manager1:~$ docker service ps deftsee
ID       NAME  IMAGE     NODE  DESIRED STATE CURRENT STATE   ERROR
8lsdkf357lk0nmdeqk7bi33mp deftsee.1 lijingyao0909/see:1.0.3 worker2 Running  Running 8 minutes ago 
cvqm5xn7t0bveo4btfjsm04jp deftsee.2 lijingyao0909/see:1.0.3 manager1 Running  Running 10 minutes ago 
6s5km76w2vxmt0j4zgzi4xi5f deftsee.3 lijingyao0909/see:1.0.3 worker1 Running  Running 8 minutes ago 
4cl9vnkssedpvu2wtzu6rtgxl deftsee.4 lijingyao0909/see:1.0.3 worker3 Running  Running 9 minutes ago 
71uv51uwvso4l340xfkbacp2i deftsee.5 lijingyao0909/see:1.0.3 manager1 Running  Running 5 seconds ago 
4r2q7q782ab9fp49mdriq0ssk deftsee.6 lijingyao0909/see:1.0.3 worker2 Running  Running 5 seconds ago 

lijingyao0909/see:1.0.3是dockerhub的公共倉庫的鏡像,服務創建時會去pull鏡像,整體速度偏慢,所以可以結合私有倉庫,直接在registry機器上pull鏡像。服務可以直接用docker service rm deftsee移除服務,然后通過registry重建服務。

docker service create \

 --replicas 6 \

 --name deftsee \

 --update-delay 10s \

 --publish 8080:80 \

 registry:5000/see:1.0.4

此時登錄任何一臺worker服務,查看運行的容器鏡像:

docker@worker2:~$ docker ps
CONTAINER ID  IMAGE      COMMAND     CREATED    STATUS    PORTS    NAMES
89d4f588290b  registry:5000/see:1.0.4 "/bin/sh -c 'java -Dc" About a minute ago Up About a minute 8080/tcp   deftsee.1.eldpgb1aqtf9v49cxolydfjm9

如果要更新服務,可以直接通過update命令更新版本,并且服務滾動發布,通過設置*–update-delay 10s *可以改變更新時各個節點的延遲時間。

docker service update --image registry:5000/see:1.0.5 deftsee

重啟某個node的服務

關閉:docker node update –availability drain worker1

開啟:docker node update –availability active worker1

更新服務端口

更新一個服務的端口會重啟服務(關閉原有服務,重新創建服務并啟動):

 docker service update \

 --publish-add <PUBLISHED-PORT>:<TARGET-PORT> \

 <SERVICE>

docker@manager1:~$docker service update \

 --publish-add 8099:8080 \

 deftsee

docker@manager1:~$ docker service ps deftsee
ID       NAME   IMAGE     NODE  DESIRED STATE CURRENT STATE    ERROR
3xoe34msrht9eqv7eplnmlrz5 deftsee.1  registry:5000/see:1.0.4 manager1 Running  Running 39 seconds ago  
eldpgb1aqtf9v49cxolydfjm9 \_ deftsee.1 registry:5000/see:1.0.4 worker2 Shutdown  Shutdown 39 seconds ago  
9u4fh3mi5kxb14y6gih5d8tqv deftsee.2  registry:5000/see:1.0.4 manager1 Running  Running about a minute ago 
0skgr5fx4xtt6y71yliksoft0 \_ deftsee.2 registry:5000/see:1.0.4 worker1 Shutdown  Shutdown about a minute ago 
8hposdkqe92k7am084z6kt1j0 deftsee.3  registry:5000/see:1.0.4 worker3 Running  Running about a minute ago 
c5vhx1wx0q8mxaweaq0mia6n7 \_ deftsee.3 registry:5000/see:1.0.4 manager1 Shutdown  Shutdown about a minute ago 
9se1juxiinmetuaccgkjc3rr2 deftsee.4  registry:5000/see:1.0.4 worker1 Running  Running about a minute ago 
4wofho0axvrjildxhckl52s41 \_ deftsee.4 registry:5000/see:1.0.4 worker3 Shutdown  Shutdown about a minute ago 

服務驗證和網絡

例子中的服務啟動后,可以直接通過ip:port訪問。如http://192.168.99.100:8099/see,可以看到服務請求會分發到各個運行的節點中。也就是swarm的overlay網絡層,各個節點的網絡是互通的,swarm做了load balance,在swarm的lb的基礎上也可搭建自己定義的overlay網絡,創建的這個overlay 網絡,所有節點都可以和這個network互通。但是在服務創建的時候需要制定network選項。

$docker network create \

 --driver overlay \

 --subnet 10.0.9.0/24 \

 --opt encrypted \  
 my-network

$docker service create \

 --name deftsee \

 --publish 8099:80 \

 --replicas 4 \

 --network my-network \

 -l com.df.serviceDomain=deftsee.com \

 -l com.df.notify=true \

 lijingyao0909/see:1.0.3

–network my-network制定了服務可連接到的docker network,可以在swarm的節點創建一個name為my-network的網絡。所以也可以在swarm機制中搭建consul和haproxy的服務發現和lb機制。

當為一個服務指定一個network的時候,swarm上執行的任務也必須都在這個指定的網絡上才能和服務互通。如果節點上沒有加入到swarm模式的node中,或者沒有運行掛載在這個指定網絡的時候,也不會和這個network互通.docker network ls也不會查出該網絡。創建服務時通過–network my-network這個標簽鏈接到這個網絡。在查看網絡時,docker network inspect my-network可以查看返回的Containers 列出的該節點的掛載容器。

創建了一個網絡服務,有service連接到網絡時,swarm會給這個網絡下的服務(service)指定一個vip. swarm 內部的lb會自動分發服務,不需要指定每個服務端口,即在同一個network連接的容器,通過service name就可以訪問到服務。因為所有加入到這個network的容器都會通過gossip協議共享一個DNS映射(vip映射根據service name 綁定到的dns別名映射)。

查看服務的vip網絡信息:

$docker service inspect \

 --format='{{json .Endpoint.VirtualIPs}}' \

 deftsee

輸出:[{"NetworkID":"dn05pshfagohpebgonkhj5kxi","Addr":"10.255.0.6/16"}]

swarm管理

為了保持manager節點的可用性(心跳機制,leader選舉),可以將manager節點設置成不接受服務運行,節省manager節點資源,將manager節點隔離出任務環境。

docker node update --availability drain <NODE>

備份/var/lib/docker/swarm/raft 狀態

清理不可用的節點

docker node demote <NODE> 
docker node rm <id-node>.

節點重新加入manager re-join

$docker node demote <NODE>.
$docker node rm <NODE>.
$docker swarm join ...

初始化的時候指定固定ip ,init –advertise-addr。worker節點可以用動態ip 。

參考資源

Swarm mode

以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。

標簽:襄陽 阜陽 珠海 開封 西藏 湘潭 巴中 張家口

巨人網絡通訊聲明:本文標題《詳解基于docker-swarm搭建持續集成集群服務》,本文關鍵詞  詳解,基于,docker-swarm,搭建,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《詳解基于docker-swarm搭建持續集成集群服務》相關的同類信息!
  • 本頁收集關于詳解基于docker-swarm搭建持續集成集群服務的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    精品女同一区二区| 亚洲成人免费av| 亚洲精品免费在线播放| 国产一区二区影院| 欧美一级久久久| 日日夜夜免费精品| 色婷婷国产精品综合在线观看| 久久久久88色偷偷免费| 美女国产一区二区| 欧美性一二三区| 亚洲小少妇裸体bbw| 91福利精品视频| 亚洲一区二区在线播放相泽| 色婷婷精品大在线视频| 日韩伦理av电影| 成人av片在线观看| 久久久www成人免费毛片麻豆| 九九国产精品视频| 久久无码av三级| 国产一区二区三区在线观看免费视频 | 欧美一级日韩不卡播放免费| 亚洲国产欧美一区二区三区丁香婷| 日本韩国精品在线| 亚洲一区二区免费视频| 中文字幕不卡三区| 色噜噜狠狠一区二区三区果冻| 91色九色蝌蚪| 精品视频资源站| 欧美日韩另类一区| 日韩欧美亚洲一区二区| 久久亚洲精品国产精品紫薇| 久久精品水蜜桃av综合天堂| 日本一区二区高清| 欧美精品三级日韩久久| 亚洲蜜桃精久久久久久久| 欧美曰成人黄网| 美国毛片一区二区三区| 国产日韩欧美精品电影三级在线| 成人免费视频免费观看| 一区二区三区不卡视频| 6080亚洲精品一区二区| 韩国三级电影一区二区| 最新久久zyz资源站| 欧美男男青年gay1069videost| 精品一区二区三区免费毛片爱| 精一区二区三区| 日韩影视精彩在线| 高清shemale亚洲人妖| 欧美综合久久久| 国产亚洲短视频| 亚洲成a人在线观看| 国产一区二区三区国产| 欧美影院午夜播放| 欧美韩国日本不卡| 日韩精品乱码免费| 成人av电影观看| 欧美xxxx在线观看| 亚洲国产wwwccc36天堂| 国产精品一卡二| 911国产精品| 1024亚洲合集| 国产河南妇女毛片精品久久久| 99在线热播精品免费| 欧美大尺度电影在线| 一区二区三区四区激情 | 婷婷丁香激情综合| 国产精品久久毛片a| 91精品国模一区二区三区| 成年人网站91| 精品夜夜嗨av一区二区三区| 亚洲欧美日韩人成在线播放| 亚洲精品一区二区三区精华液| 欧美在线视频日韩| av中文字幕亚洲| 国产在线视频一区二区| 水野朝阳av一区二区三区| 成人欧美一区二区三区白人 | 午夜欧美一区二区三区在线播放| 韩国在线一区二区| 欧美成人vr18sexvr| 婷婷开心激情综合| 欧美午夜在线一二页| 国产一区在线视频| 裸体一区二区三区| 香蕉乱码成人久久天堂爱免费| 成人欧美一区二区三区黑人麻豆 | 亚洲精品videosex极品| 中文字幕欧美三区| 久久精品这里都是精品| 欧美精品一区二区久久久| 91精品国产91久久综合桃花| 欧美日韩久久一区| 91久久精品一区二区| 99久久精品免费| 不卡大黄网站免费看| 国产成人精品网址| 国产一区二区精品久久| 精品亚洲免费视频| 国产精品一区二区久久精品爱涩| 国产麻豆日韩欧美久久| 韩国女主播成人在线| 激情久久久久久久久久久久久久久久| 蜜桃视频一区二区| 美女久久久精品| 国内精品伊人久久久久av一坑 | 亚洲视频一区二区在线观看| 国产精品九色蝌蚪自拍| 日韩理论电影院| 亚洲一区二区高清| 视频精品一区二区| 精一区二区三区| 成人影视亚洲图片在线| 成人美女视频在线看| 在线看国产一区二区| 樱桃视频在线观看一区| 日韩午夜激情电影| 成人精品视频网站| 亚洲高清免费视频| www国产成人| 日本精品一区二区三区高清 | 91在线丨porny丨国产| 色综合久久88色综合天天免费| 日本久久精品电影| 在线不卡免费av| 国产网站一区二区| 亚洲精品中文在线影院| 五月激情丁香一区二区三区| 黑人巨大精品欧美黑白配亚洲| 成人爱爱电影网址| 欧美猛男超大videosgay| 欧美zozozo| 亚洲日本在线天堂| 午夜精品久久久久久不卡8050| 国产精品理伦片| 国产99精品在线观看| 视频在线在亚洲| 国产精品国产三级国产aⅴ入口 | 一区免费观看视频| 欧美一区二区高清| av不卡一区二区三区| 捆绑调教美女网站视频一区| 亚洲精品视频在线观看免费| 6080日韩午夜伦伦午夜伦| 99re成人在线| 国产乱理伦片在线观看夜一区| 亚洲在线观看免费视频| 国产欧美一区二区在线观看| 7777精品久久久大香线蕉| 色综合一区二区三区| 国产精品99久久久久久有的能看| 天堂成人国产精品一区| 亚洲四区在线观看| 中文天堂在线一区| 久久久综合激的五月天| 欧美一区二区三区人| 日本高清无吗v一区| 日韩电影网1区2区| 狠狠色丁香久久婷婷综合_中| 欧洲色大大久久| 久久综合久久综合九色| 午夜亚洲福利老司机| 99久久综合国产精品| 久久夜色精品一区| 蜜臀av国产精品久久久久| 欧美主播一区二区三区美女| 欧美国产日产图区| 国内久久婷婷综合| 欧美一区二区久久久| 一区二区国产视频| www.亚洲免费av| 久久综合九色综合97婷婷女人 | 欧美日韩在线一区二区| 色av一区二区| 欧美三级在线视频| 欧美日韩高清在线播放| 欧美亚洲国产怡红院影院| 在线观看一区二区视频| 色婷婷综合久久| 欧美最猛性xxxxx直播| 欧美男人的天堂一二区| 日韩欧美123| 欧美经典三级视频一区二区三区| 久久久影视传媒| 中文字幕日韩一区| 亚洲一区在线观看网站| 视频一区二区欧美| 国产美女精品在线| 不卡的av网站| 欧美日韩国产高清一区| 欧美xxxxx牲另类人与| 国产欧美日韩精品a在线观看| 国产精品动漫网站| 亚洲精品视频在线观看网站| 亚洲一级二级在线| 日本中文字幕一区二区视频| 国产在线一区二区综合免费视频| 国产成a人亚洲精| 色综合天天天天做夜夜夜夜做| 欧美三片在线视频观看| 久久一日本道色综合|