婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av

主頁 > 知識庫 > 用Docker swarm快速部署Nebula Graph集群的教程

用Docker swarm快速部署Nebula Graph集群的教程

熱門標簽:ai電話機器人營銷 云南云電銷機器人招商 山東電信外呼系統靠譜嗎 鸚鵡螺號航海地圖標注時間 比較穩定的外呼系統 400 電話 申請費用 江蘇自動外呼系統一般多少錢 信貸電銷機器人系統 長沙回撥外呼系統

一、前言

本文介紹如何使用 Docker Swarm 來部署 Nebula Graph 集群。

二、nebula集群搭建

2.1 環境準備

機器準備

ip

內存(Gb)

cpu(核數)

192.168.1.166

16

4

192.168.1.167

16

4

192.168.1.168

16

4

在安裝前確保所有機器已安裝docker

2.2 初始化swarm集群

在192.168.1.166機器上執行

$ docker swarm init --advertise-addr 192.168.1.166
Swarm initialized: current node (dxn1zf6l61qsb1josjja83ngz) is now a manager.
To add a worker to this swarm, run the following command:
 docker swarm join \

 --token SWMTKN-1-49nj1cmql0jkz5s954yi3oex3nedyz0fb0xx14ie39trti4wxv-8vxv8rssmk743ojnwacrr2e7c \

 192.168.1.166:2377
 
To add a manager to this swarm, run 'docker swarm join-token manager' and follow the instructions.

2.3 加入worker節點

根據init命令提示內容,加入swarm worker節點,在192.168.1.167 192.168.1.168分別執行

docker swarm join \

 --token SWMTKN-1-49nj1cmql0jkz5s954yi3oex3nedyz0fb0xx14ie39trti4wxv-8vxv8rssmk743ojnwacrr2e7c \

 192.168.1.166:2377

2.4 驗證集群

docker node ls
 
ID       HOSTNAME   STATUS    AVAILABILITY  MANAGER STATUS  ENGINE VERSION
h0az2wzqetpwhl9ybu76yxaen * KF2-DATA-166  Ready    Active    Reachable   18.06.1-ce
q6jripaolxsl7xqv3cmv5pxji  KF2-DATA-167  Ready    Active    Leader    18.06.1-ce
h1iql1uvm7123h3gon9so69dy  KF2-DATA-168  Ready    Active         18.06.1-ce

2.5 配置docker stack

vi docker-stack.yml

配置如下內容

 version: '3.6'
 services:
  metad0:
  image: vesoft/nebula-metad:nightly
  env_file:
   - ./nebula.env
  command:
   - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
   - --local_ip=192.168.1.166
  - --ws_ip=192.168.1.166
  - --port=45500
  - --data_path=/data/meta
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
  constraints:
   - node.hostname == KF2-DATA-166
 healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.166:11000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
 ports:
  - target: 11000
   published: 11000
   protocol: tcp
  mode: host
  - target: 11002
   published: 11002
   protocol: tcp
  mode: host
  - target: 45500
   published: 45500
  protocol: tcp
   mode: host
 volumes:
  - data-metad0:/data/meta
  - logs-metad0:/logs
 networks:
  - nebula-net
 
 metad1:
 image: vesoft/nebula-metad:nightly
  env_file:
  - ./nebula.env
 command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --local_ip=192.168.1.167
  - --ws_ip=192.168.1.167
  - --port=45500
  - --data_path=/data/meta
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
 deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-167
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.167:11000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
 start_period: 20s
  ports:
  - target: 11000
   published: 11000
  protocol: tcp
   mode: host
  - target: 11002
   published: 11002
  protocol: tcp
   mode: host
  - target: 45500
   published: 45500
   protocol: tcp
   mode: host
 volumes:
  - data-metad1:/data/meta
  - logs-metad1:/logs
 networks:
  - nebula-net

 metad2:
  image: vesoft/nebula-metad:nightly
 env_file:
  - ./nebula.env
 command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --local_ip=192.168.1.168
  - --ws_ip=192.168.1.168
  - --port=45500
  - --data_path=/data/meta
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-168
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.168:11000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 11000
   published: 11000
   protocol: tcp
   mode: host
  - target: 11002
   published: 11002
   protocol: tcp
   mode: host
  - target: 45500
   published: 45500
   protocol: tcp
   mode: host
  volumes:
  - data-metad2:/data/meta
  - logs-metad2:/logs
  networks:
  - nebula-net
 
 storaged0:
  image: vesoft/nebula-storaged:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --local_ip=192.168.1.166
  - --ws_ip=192.168.1.166
  - --port=44500
  - --data_path=/data/storage
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-166
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.166:12000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 12000
   published: 12000
   protocol: tcp
   mode: host
  - target: 12002
   published: 12002
   protocol: tcp
   mode: host
  volumes:
  - data-storaged0:/data/storage
  - logs-storaged0:/logs
  networks:
  - nebula-net
 storaged1:
  image: vesoft/nebula-storaged:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --local_ip=192.168.1.167
  - --ws_ip=192.168.1.167
  - --port=44500
  - --data_path=/data/storage
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-167
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.167:12000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 12000
   published: 12000
   protocol: tcp
   mode: host
  - target: 12002
   published: 12004
   protocol: tcp
   mode: host
  volumes:
  - data-storaged1:/data/storage
  - logs-storaged1:/logs
  networks:
  - nebula-net
 
 storaged2:
  image: vesoft/nebula-storaged:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --local_ip=192.168.1.168
  - --ws_ip=192.168.1.168
  - --port=44500
  - --data_path=/data/storage
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-168
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.168:12000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 12000
   published: 12000
   protocol: tcp
   mode: host
  - target: 12002
   published: 12006
   protocol: tcp
   mode: host
  volumes:
  - data-storaged2:/data/storage
  - logs-storaged2:/logs
  networks:
  - nebula-net
 graphd1:
  image: vesoft/nebula-graphd:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --port=3699
  - --ws_ip=192.168.1.166
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-166
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.166:13000/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 3699
   published: 3699
   protocol: tcp
   mode: host
  - target: 13000
   published: 13000
   protocol: tcp
 #  mode: host
  - target: 13002
   published: 13002
   protocol: tcp
   mode: host
  volumes:
  - logs-graphd:/logs
  networks:
  - nebula-net
 
 graphd2:
  image: vesoft/nebula-graphd:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --port=3699
  - --ws_ip=192.168.1.167
  - --log_dir=/logs
  - --v=2
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-167
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.167:13001/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 3699
   published: 3640
   protocol: tcp
   mode: host
  - target: 13000
   published: 13001
   protocol: tcp
   mode: host
  - target: 13002
   published: 13003
   protocol: tcp
 #  mode: host
  volumes:
  - logs-graphd2:/logs
  networks:
  - nebula-net
 graphd3:
  image: vesoft/nebula-graphd:nightly
  env_file:
  - ./nebula.env
  command:
  - --meta_server_addrs=192.168.1.166:45500,192.168.1.167:45500,192.168.1.168:45500
  - --port=3699
  - --ws_ip=192.168.1.168
  - --log_dir=/logs
  - --v=0
  - --minloglevel=2
  deploy:
  replicas: 1
  restart_policy:
   condition: on-failure
  placement:
   constraints:
   - node.hostname == KF2-DATA-168
  depends_on:
  - metad0
  - metad1
  - metad2
  healthcheck:
  test: ["CMD", "curl", "-f", "http://192.168.1.168:13002/status"]
  interval: 30s
  timeout: 10s
  retries: 3
  start_period: 20s
  ports:
  - target: 3699
   published: 3641
   protocol: tcp
   mode: host
  - target: 13000
   published: 13002
   protocol: tcp
 #  mode: host
  - target: 13002
   published: 13004
   protocol: tcp
   mode: host
  volumes:
  - logs-graphd3:/logs
  networks:
  - nebula-net
 networks:
 nebula-net:
  external: true
  attachable: true
  name: host
 volumes:
 data-metad0:
 logs-metad0:
 data-metad1:
 logs-metad1:
 data-metad2:
 logs-metad2:
 data-storaged0:
 logs-storaged0:
 data-storaged1:
 logs-storaged1:
 data-storaged2:
 logs-storaged2:
 logs-graphd:
 logs-graphd2:
 logs-graphd3:
docker-stack.yml

編輯 nebula.env

加入如下內容

 TZ=UTC
USER=root

nebula.env

2.6 啟動nebula集群

docker stack deploy nebula -c docker-stack.yml

三、集群負載均衡及高可用配置

Nebula Graph的客戶端目前(1.X)沒有提供負載均衡的能力,只是隨機選一個graphd去連接。所以生產使用的時候要自己做個負載均衡和高可用。

圖3.1

將整個部署架構分為三層,數據服務層,負載均衡層及高可用層。如圖3.1所示

負載均衡層:對client請求做負載均衡,將請求分發至下方數據服務層

高可用層: 這里實現的是haproxy的高可用,保證負載均衡層的服務從而保證整個集群的正常服務

3.1 負載均衡配置

haproxy使用docker-compose配置。分別編輯以下三個文件

Dockerfile 加入以下內容

FROM haproxy:1.7
 COPY haproxy.cfg /usr/local/etc/haproxy/haproxy.cfg
EXPOSE 3640

Dockerfile

docker-compose.yml加入以下內容

 version: "3.2"
 services:
 haproxy:
  container_name: haproxy
  build: .
  volumes:
  - ./haproxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
  ports:
  - 3640:3640
  restart: always
  networks:
  - app_net
 networks:
 app_net:
  external: true

docker-compose.yml

haproxy.cfg加入以下內容

global
  daemon
  maxconn 30000
  log 127.0.0.1 local0 info
 log 127.0.0.1 local1 warning

 defaults
 log-format %hr\ %ST\ %B\ %Ts
 log global
  mode http
  option http-keep-alive
  timeout connect 5000ms
  timeout client 10000ms
  timeout server 50000ms
  timeout http-request 20000ms
 
 # custom your own frontends && backends && listen conf
 #CUSTOM
 
 listen graphd-cluster
  bind *:3640
  mode tcp
  maxconn 300
  balance roundrobin
  server server1 192.168.1.166:3699 maxconn 300 check
  server server2 192.168.1.167:3699 maxconn 300 check
  server server3 192.168.1.168:3699 maxconn 300 check
 
 listen stats
  bind *:1080
  stats refresh 30s
  stats uri /stats

3.2 啟動haproxy

docker-compose up -d

3.2 高可用配置

注:配置keepalive需預先準備好vip (虛擬ip),在以下配置中192.168.1.99便為虛擬ip

在192.168.1.166 、192.168.1.167、192.168.1.168上均做以下配置

安裝keepalived

apt-get update && apt-get upgrade && apt-get install keepalived -y

更改keepalived配置文件/etc/keepalived/keepalived.conf(三臺機器中 做如下配置,priority應設置不同值確定優先級)

192.168.1.166機器配置

 global_defs {
  router_id lb01 #標識信息,一個名字而已;
 }
 vrrp_script chk_haproxy {
  script "killall -0 haproxy" interval 2
 }
 vrrp_instance VI_1 {
  state MASTER
  interface ens160
  virtual_router_id 52
  priority 999
  # 設定MASTER與BACKUP負載均衡器之間同步檢查的時間間隔,單位是秒
  advert_int 1
  # 設置驗證類型和密碼
  authentication {
  # 設置驗證類型,主要有PASS和AH兩種
   auth_type PASS
  # 設置驗證密碼,在同一個vrrp_instance下,MASTER與BACKUP必須使用相同的密碼才能正常通信
   auth_pass amber1
  }
  virtual_ipaddress {
   # 虛擬IP為192.168.1.99/24;綁定接口為ens160;別名ens169:1,主備相同
   192.168.1.99/24 dev ens160 label ens160:1
  }
  track_script {
   chk_haproxy
  }
 }

167機器配置

 global_defs {
  router_id lb01 #標識信息,一個名字而已;
 }
 vrrp_script chk_haproxy {
  script "killall -0 haproxy" interval 2
 }
 vrrp_instance VI_1 {
  state BACKUP
  interface ens160
  virtual_router_id 52
  priority 888
  # 設定MASTER與BACKUP負載均衡器之間同步檢查的時間間隔,單位是秒
  advert_int 1
  # 設置驗證類型和密碼
  authentication {
  # 設置驗證類型,主要有PASS和AH兩種
   auth_type PASS
  # 設置驗證密碼,在同一個vrrp_instance下,MASTER與BACKUP必須使用相同的密碼才能正常通信
   auth_pass amber1
  }
  virtual_ipaddress {
   # 虛擬IP為192.168.1.99/24;綁定接口為ens160;別名ens160:1,主備相同
   192.168.1.99/24 dev ens160 label ens160:1
  }
  track_script {
   chk_haproxy
  }
 }

168機器配置

 global_defs {
  router_id lb01 #標識信息,一個名字而已;
 }
 vrrp_script chk_haproxy {
  script "killall -0 haproxy" interval 2
 }
 vrrp_instance VI_1 {
  state BACKUP
  interface ens160
  virtual_router_id 52
  priority 777
  # 設定MASTER與BACKUP負載均衡器之間同步檢查的時間間隔,單位是秒
  advert_int 1
  # 設置驗證類型和密碼
  authentication {
  # 設置驗證類型,主要有PASS和AH兩種
   auth_type PASS
  # 設置驗證密碼,在同一個vrrp_instance下,MASTER與BACKUP必須使用相同的密碼才能正常通信
   auth_pass amber1
  }
  virtual_ipaddress {
   # 虛擬IP為192.168.1.99/24;綁定接口為ens160;別名ens160:1,主備相同
   192.168.1.99/24 dev ens160 label ens160:1
  }
  track_script {
   chk_haproxy
  }
 }

keepalived相關命令

# 啟動keepalived
systemctl start keepalived
# 使keepalived開機自啟
systemctl enable keeplived
# 重啟keepalived
systemctl restart keepalived

四、其他

離線怎么部署?把鏡像更改為私有鏡像庫就成了,有問題歡迎來勾搭啊。

到此這篇關于用Docker swarm快速部署Nebula Graph集群的文章就介紹到這了,更多相關Docker 部署Nebula Graph集群內容請搜索腳本之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持腳本之家!

標簽:亳州 烏海 澳門 嘉興 拉薩 運城 衡陽 齊齊哈爾

巨人網絡通訊聲明:本文標題《用Docker swarm快速部署Nebula Graph集群的教程》,本文關鍵詞  用,Docker,swarm,快速,部署,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《用Docker swarm快速部署Nebula Graph集群的教程》相關的同類信息!
  • 本頁收集關于用Docker swarm快速部署Nebula Graph集群的教程的相關信息資訊供網民參考!
  • 推薦文章
    婷婷综合国产,91蜜桃婷婷狠狠久久综合9色 ,九九九九九精品,国产综合av
    国产精品第四页| 亚洲一区二区高清| 亚洲国产精品精华液网站| 欧美妇女性影城| 亚洲人精品一区| 中文字幕在线观看一区二区| 国产日产欧产精品推荐色 | 在线精品观看国产| 日韩女同互慰一区二区| 日本欧美一区二区三区乱码| 欧美老肥妇做.爰bbww| 首页国产丝袜综合| 精品视频全国免费看| 欧美日韩一区国产| 亚洲欧洲三级电影| 欧美日韩在线一区二区| 免费不卡在线观看| 香蕉加勒比综合久久| 日韩欧美你懂的| 另类小说欧美激情| 久久久.com| 99久久久国产精品免费蜜臀| 国产美女一区二区三区| 欧美一区二区三区在线观看| 日韩黄色片在线观看| 精品精品欲导航| 久久99精品久久久| 国产精品三级av在线播放| 69成人精品免费视频| 国产精品18久久久| 日韩一级片网站| 91麻豆精品久久久久蜜臀| 国产精品一区在线观看你懂的| 精品国产成人系列| 欧美tickling挠脚心丨vk| 91丨九色丨国产丨porny| 国产馆精品极品| 精品一区二区在线播放| 国产精品亚洲第一区在线暖暖韩国| 美国毛片一区二区三区| 久久99热狠狠色一区二区| 日本成人在线电影网| 日韩中文字幕区一区有砖一区| 亚洲一区二区av电影| 午夜欧美2019年伦理| 蜜桃精品视频在线观看| 成人高清免费在线播放| 99视频一区二区三区| av激情综合网| 欧美一区二区三区啪啪| 精品国产伦一区二区三区免费| 国产色产综合色产在线视频| 亚洲色图欧美激情| 亚洲一区二区在线免费观看视频| 亚洲高清三级视频| 久久99国产精品麻豆| 色综合久久久久综合| 欧美一级午夜免费电影| 中文在线免费一区三区高中清不卡| 亚洲精选免费视频| 青青国产91久久久久久| 成人午夜免费视频| 911精品产国品一二三产区| 中文字幕欧美日本乱码一线二线| 午夜精品一区二区三区电影天堂| 国产精品一品二品| 国产精品2024| 69堂国产成人免费视频| 国产精品久久久久婷婷| 亚洲成人激情av| 99麻豆久久久国产精品免费优播| 欧美三级电影在线观看| 国产婷婷一区二区| 日本成人在线视频网站| 日本韩国一区二区三区视频| 国产欧美一区二区三区鸳鸯浴| 性欧美大战久久久久久久久| 国产成人综合网站| 欧美日韩午夜影院| 一区二区三区美女视频| 国产一区视频在线看| 欧美少妇性性性| 亚洲精品视频在线观看网站| 国产麻豆午夜三级精品| 日韩美女一区二区三区四区| 亚洲午夜av在线| 色哟哟国产精品免费观看| 国产精品婷婷午夜在线观看| 成人精品小蝌蚪| 精品奇米国产一区二区三区| 日韩中文字幕亚洲一区二区va在线| 日本丶国产丶欧美色综合| 日韩一区二区在线观看视频| 视频一区二区国产| 欧美久久久久久久久| 一区二区三区欧美| 色综合色综合色综合| 日韩理论片在线| 成人av电影在线网| 国产欧美一区二区精品久导航| 九九精品一区二区| 欧美一级片在线观看| 亚洲国产另类精品专区| 成人开心网精品视频| 精品国产伦一区二区三区观看体验 | 欧美日韩国产一级二级| 国产欧美视频一区二区| 天堂av在线一区| 日韩亚洲欧美在线| 欧美国产激情二区三区| 国产综合色在线| 亚洲精品一线二线三线无人区| 久久久综合视频| 精品一区二区在线免费观看| 久久久久国产精品厨房| 国产一区二区在线观看视频| 欧美xxx久久| 久久精品国产精品青草| 欧美一二三在线| 精品一区二区三区影院在线午夜| 欧美三级一区二区| 国产精品久久久久一区二区三区共| 成人午夜在线播放| 亚洲精品亚洲人成人网在线播放| 欧美人伦禁忌dvd放荡欲情| 久久66热偷产精品| 中文字幕精品一区| 99久久er热在这里只有精品15| 日韩码欧中文字| 欧美成人三级在线| 成人一级黄色片| 亚洲伊人伊色伊影伊综合网| 欧美精品久久99| 国产综合色视频| 日韩一区欧美一区| 欧美三级韩国三级日本三斤| 免费观看在线综合色| 狂野欧美性猛交blacked| 久久这里只精品最新地址| 99久久免费视频.com| 视频一区视频二区中文字幕| 国产女主播一区| www.在线成人| 一二三四社区欧美黄| 日韩精品一区二区三区中文精品| 岛国一区二区在线观看| 婷婷国产在线综合| 国产精品高潮久久久久无| 欧美日本高清视频在线观看| 不卡的av网站| 日韩av一区二区三区四区| 国产日韩在线不卡| 777欧美精品| 成人精品gif动图一区| 激情成人午夜视频| 亚洲一级二级三级在线免费观看| 丰满亚洲少妇av| 亚洲.国产.中文慕字在线| 中文字幕永久在线不卡| 日韩欧美国产成人一区二区| 99re这里都是精品| 午夜精品福利视频网站| 国产免费观看久久| 亚洲精品一区二区三区四区高清 | 国产一区二区三区免费播放| 一级日本不卡的影视| 国产欧美日韩综合| 欧美一区二区三区色| heyzo一本久久综合| 卡一卡二国产精品| 一区二区三区欧美| 洋洋成人永久网站入口| 色乱码一区二区三区88| 成人综合在线视频| 亚洲成人一区二区| 精品国产在天天线2019| 91精品国产欧美一区二区| 欧美日韩在线播放三区四区| 99久久精品免费看国产免费软件| 国产精品一线二线三线精华| 韩日av一区二区| 黄色精品一二区| 国精产品一区一区三区mba桃花 | 51午夜精品国产| a4yy欧美一区二区三区| 99久久国产综合精品麻豆| 国产乱人伦偷精品视频免下载| 午夜欧美一区二区三区在线播放| 亚洲欧美视频在线观看视频| 亚洲男人的天堂在线aⅴ视频| 中文字幕在线不卡一区| 国产精品美女一区二区在线观看| 国产欧美精品国产国产专区| 最新欧美精品一区二区三区| 亚洲乱码日产精品bd| 欧美成人伊人久久综合网| 在线电影欧美成精品| 日韩免费在线观看| 久久久久88色偷偷免费| 国产精品久久久久aaaa樱花 |