日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

solr源码分析之solrclound

發(fā)布時間:2025/4/5 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 solr源码分析之solrclound 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

一.簡介

SolrCloud是Solr4.0版本以后基于Solr和Zookeeper的分布式搜索方案。SolrCloud是Solr的基于Zookeeper一種部署方式。Solr可以以多種方式部署,例如單機(jī)方式,多機(jī)Master-Slaver方式。

二.特色功能

SolrCloud有幾個特色功能:

集中式的配置信息使用ZK進(jìn)行集中配置。啟動時可以指定把Solr的相關(guān)配置文件上傳Zookeeper,多機(jī)器共用。這些ZK中的配置不會再拿到本地緩存,Solr直接讀取ZK中的配置信息。配置文件的變動,所有機(jī)器都可以感知到。另外,Solr的一些任務(wù)也是通過ZK作為媒介發(fā)布的。目的是為了容錯。接收到任務(wù),但在執(zhí)行任務(wù)時崩潰的機(jī)器,在重啟后,或者集群選出候選者時,可以再次執(zhí)行這個未完成的任務(wù)。

自動容錯SolrCloud對索引分片,并對每個分片創(chuàng)建多個Replication。每個Replication都可以對外提供服務(wù)。一個Replication掛掉不會影響索引服務(wù)。更強(qiáng)大的是,它還能自動的在其它機(jī)器上幫你把失敗機(jī)器上的索引Replication重建并投入使用。

近實(shí)時搜索立即推送式的replication(也支持慢推送)。可以在秒內(nèi)檢索到新加入索引。

查詢時自動負(fù)載均衡SolrCloud索引的多個Replication可以分布在多臺機(jī)器上,均衡查詢壓力。如果查詢壓力大,可以通過擴(kuò)展機(jī)器,增加Replication來減緩。

自動分發(fā)的索引和索引分片發(fā)送文檔到任何節(jié)點(diǎn),它都會轉(zhuǎn)發(fā)到正確節(jié)點(diǎn)。

事務(wù)日志事務(wù)日志確保更新無丟失,即使文檔沒有索引到磁盤。

其它值得一提的功能有:

索引存儲在HDFS上索引的大小通常在G和幾十G,上百G的很少,這樣的功能或許很難實(shí)用。但是,如果你有上億數(shù)據(jù)來建索引的話,也是可以考慮一下的。我覺得這個功能最大的好處或許就是和下面這個“通過MR批量創(chuàng)建索引”聯(lián)合實(shí)用。

通過MR批量創(chuàng)建索引有了這個功能,你還擔(dān)心創(chuàng)建索引慢嗎?

強(qiáng)大的RESTful API通常你能想到的管理功能,都可以通過此API方式調(diào)用。這樣寫一些維護(hù)和管理腳本就方便多了。

優(yōu)秀的管理界面主要信息一目了然;可以清晰的以圖形化方式看到SolrCloud的部署分布;當(dāng)然還有不可或缺的Debug功能。

三.概念

Collection:在SolrCloud集群中邏輯意義上的完整的索引。它常常被劃分為一個或多個Shard,它們使用相同的Config Set。如果Shard數(shù)超過一個,它就是分布式索引,SolrCloud讓你通過Collection名稱引用它,而不需要關(guān)心分布式檢索時需要使用的和Shard相關(guān)參數(shù)。

Config Set: Solr Core提供服務(wù)必須的一組配置文件。每個config set有一個名字。最小需要包括solrconfig.xml (SolrConfigXml)和schema.xml (SchemaXml),除此之外,依據(jù)這兩個文件的配置內(nèi)容,可能還需要包含其它文件。它存儲在Zookeeper中。Config sets可以重新上傳或者使用upconfig命令更新,使用Solr的啟動參數(shù)bootstrap_confdir指定可以初始化或更新它。

Core: 也就是Solr Core,一個Solr中包含一個或者多個Solr Core,每個Solr Core可以獨(dú)立提供索引和查詢功能,每個Solr Core對應(yīng)一個索引或者Collection的Shard,Solr Core的提出是為了增加管理靈活性和共用資源。在SolrCloud中有個不同點(diǎn)是它使用的配置是在Zookeeper中的,傳統(tǒng)的Solr core的配置文件是在磁盤上的配置目錄中。

Leader: 贏得選舉的Shard replicas。每個Shard有多個Replicas,這幾個Replicas需要選舉來確定一個Leader。選舉可以發(fā)生在任何時間,但是通常他們僅在某個Solr實(shí)例發(fā)生故障時才會觸發(fā)。當(dāng)索引documents時,SolrCloud會傳遞它們到此Shard對應(yīng)的leader,leader再分發(fā)它們到全部Shard的replicas。

Replica: Shard的一個拷貝。每個Replica存在于Solr的一個Core中。一個命名為“test”的collection以numShards=1創(chuàng)建,并且指定replicationFactor設(shè)置為2,這會產(chǎn)生2個replicas,也就是對應(yīng)會有2個Core,每個在不同的機(jī)器或者Solr實(shí)例。一個會被命名為test_shard1_replica1,另一個命名為test_shard1_replica2。它們中的一個會被選舉為Leader。

Shard: Collection的邏輯分片。每個Shard被化成一個或者多個replicas,通過選舉確定哪個是Leader。

Zookeeper: Zookeeper提供分布式鎖功能,對SolrCloud是必須的。它處理Leader選舉。Solr可以以內(nèi)嵌的Zookeeper運(yùn)行,但是建議用獨(dú)立的,并且最好有3個以上的主機(jī)。

四.架構(gòu)圖

索引(collection)的邏輯圖?

Solr和索引對照圖?

創(chuàng)建索引過程?

分布式查詢?

Shard Splitting?

五.其它

NRT??近實(shí)時搜索Solr的建索引數(shù)據(jù)是要在提交時寫入磁盤的,這是硬提交,確保即便是停電也不會丟失數(shù)據(jù);為了提供更實(shí)時的檢索能力,Solr設(shè)定了一種軟提交方式。軟提交(soft commit):僅把數(shù)據(jù)提交到內(nèi)存,index可見,此時沒有寫入到磁盤索引文件中。

一個通常的用法是:每1-10分鐘自動觸發(fā)硬提交,每秒鐘自動觸發(fā)軟提交。

RealTime Get 實(shí)時獲取允許通過唯一鍵查找任何文檔的最新版本數(shù)據(jù),并且不需要重新打開searcher。這個主要用于把Solr作為NoSQL數(shù)據(jù)存儲服務(wù),而不僅僅是搜索引擎。Realtime Get當(dāng)前依賴事務(wù)日志,默認(rèn)是開啟的。另外,即便是Soft Commit或者commitwithin,get也能得到真實(shí)數(shù)據(jù)。 注:commitwithin是一種數(shù)據(jù)提交特性,不是立刻,而是要求在一定時間內(nèi)提交數(shù)據(jù).

?

源碼分析開始

一.SolrDispatchFilter初始化

@Overridepublic void init(FilterConfig config) throws ServletException{log.info("SolrDispatchFilter.init(): {}", this.getClass().getClassLoader());String exclude = config.getInitParameter("excludePatterns");if(exclude != null) {String[] excludeArray = exclude.split(",");excludePatterns = new ArrayList<>();for (String element : excludeArray) {excludePatterns.add(Pattern.compile(element));}}try {Properties extraProperties = (Properties) config.getServletContext().getAttribute(PROPERTIES_ATTRIBUTE);if (extraProperties == null)extraProperties = new Properties();String solrHome = (String) config.getServletContext().getAttribute(SOLRHOME_ATTRIBUTE);if (solrHome == null)solrHome = SolrResourceLoader.locateSolrHome();ExecutorUtil.addThreadLocalProvider(SolrRequestInfo.getInheritableThreadLocalProvider());this.cores = createCoreContainer(solrHome, extraProperties);if (this.cores.getAuthenticationPlugin() != null) {HttpClientConfigurer configurer = this.cores.getAuthenticationPlugin().getDefaultConfigurer();if (configurer != null) {configurer.configure((DefaultHttpClient) httpClient, new ModifiableSolrParams());}}log.info("user.dir=" + System.getProperty("user.dir"));}catch( Throwable t ) {// catch this so our filter still workslog.error( "Could not start Solr. Check solr/home property and the logs");SolrCore.log( t );if (t instanceof Error) {throw (Error) t;}}log.info("SolrDispatchFilter.init() done");}

二.CoreContainer執(zhí)行l(wèi)oad方法

//-------------------------------------------------------------------// Initialization / Cleanup//-------------------------------------------------------------------/*** Load the cores defined for this CoreContainer*/public void load() {log.info("Loading cores into CoreContainer [instanceDir={}]", loader.getInstanceDir());// add the sharedLib to the shared resource loader before initializing cfg based pluginsString libDir = cfg.getSharedLibDirectory();if (libDir != null) {File f = FileUtils.resolvePath(new File(solrHome), libDir);log.info("loading shared library: " + f.getAbsolutePath());loader.addToClassLoader(libDir, null, false);loader.reloadLuceneSPI();}shardHandlerFactory = ShardHandlerFactory.newInstance(cfg.getShardHandlerFactoryPluginInfo(), loader);updateShardHandler = new UpdateShardHandler(cfg.getUpdateShardHandlerConfig());solrCores.allocateLazyCores(cfg.getTransientCacheSize(), loader);logging = LogWatcher.newRegisteredLogWatcher(cfg.getLogWatcherConfig(), loader);hostName = cfg.getNodeName();zkSys.initZooKeeper(this, solrHome, cfg.getCloudConfig());initializeAuthenticationPlugin();if (isZooKeeperAware()) {intializeAuthorizationPlugin();}collectionsHandler = createHandler(cfg.getCollectionsHandlerClass(), CollectionsHandler.class);containerHandlers.put(COLLECTIONS_HANDLER_PATH, collectionsHandler);infoHandler = createHandler(cfg.getInfoHandlerClass(), InfoHandler.class);containerHandlers.put(INFO_HANDLER_PATH, infoHandler);coreAdminHandler = createHandler(cfg.getCoreAdminHandlerClass(), CoreAdminHandler.class);containerHandlers.put(CORES_HANDLER_PATH, coreAdminHandler);coreConfigService = ConfigSetService.createConfigSetService(cfg, loader, zkSys.zkController);containerProperties.putAll(cfg.getSolrProperties());// setup executor to load cores in parallel// do not limit the size of the executor in zk mode since cores may try and wait for each other.final ExecutorService coreLoadExecutor = ExecutorUtil.newMDCAwareFixedThreadPool(( zkSys.getZkController() == null ? cfg.getCoreLoadThreadCount() : Integer.MAX_VALUE ),new DefaultSolrThreadFactory("coreLoadExecutor") );final List<Future<SolrCore>> futures = new ArrayList<Future<SolrCore>>();try {List<CoreDescriptor> cds = coresLocator.discover(this);checkForDuplicateCoreNames(cds);for (final CoreDescriptor cd : cds) {if (cd.isTransient() || !cd.isLoadOnStartup()) {solrCores.putDynamicDescriptor(cd.getName(), cd);} else if (asyncSolrCoreLoad) {solrCores.markCoreAsLoading(cd);}if (cd.isLoadOnStartup()) {futures.add(coreLoadExecutor.submit(new Callable<SolrCore>() {@Overridepublic SolrCore call() throws Exception {SolrCore core;try {if (zkSys.getZkController() != null) {zkSys.getZkController().throwErrorIfReplicaReplaced(cd);}core = create(cd, false);} finally {if (asyncSolrCoreLoad) {solrCores.markCoreAsNotLoading(cd);}}try {zkSys.registerInZk(core, true);} catch (Throwable t) {SolrException.log(log, "Error registering SolrCore", t);}return core;}}));}}// Start the background threadbackgroundCloser = new CloserThread(this, solrCores, cfg);backgroundCloser.start();} finally {if (asyncSolrCoreLoad && futures != null) {Thread shutdownThread = new Thread() {public void run() {try {for (Future<SolrCore> future : futures) {try {future.get();} catch (InterruptedException e) {Thread.currentThread().interrupt();} catch (ExecutionException e) {log.error("Error waiting for SolrCore to be created", e);}}} finally {ExecutorUtil.shutdownNowAndAwaitTermination(coreLoadExecutor);}}};coreContainerWorkExecutor.submit(shutdownThread);} else {ExecutorUtil.shutdownAndAwaitTermination(coreLoadExecutor);}}if (isZooKeeperAware()) {zkSys.getZkController().checkOverseerDesignate();}}

三.ZkContainer調(diào)用配置文件,初始化zookeeper

public void initZooKeeper(final CoreContainer cc, String solrHome, CloudConfig config) {ZkController zkController = null;String zkRun = System.getProperty("zkRun");if (zkRun != null && config == null)throw new SolrException(SolrException.ErrorCode.SERVER_ERROR, "Cannot start Solr in cloud mode - no cloud config provided");if (config == null)return; // not in zk mode String zookeeperHost = config.getZkHost();// zookeeper in quorum mode currently causes a failure when trying to// register log4j mbeans. See SOLR-2369// TODO: remove after updating to an slf4j based zookeeperSystem.setProperty("zookeeper.jmx.log4j.disable", "true");if (zkRun != null) {String zkDataHome = System.getProperty("zkServerDataDir", solrHome + "zoo_data");String zkConfHome = System.getProperty("zkServerConfDir", solrHome);zkServer = new SolrZkServer(stripChroot(zkRun), stripChroot(config.getZkHost()), zkDataHome, zkConfHome, config.getSolrHostPort());zkServer.parseConfig();zkServer.start();// set client from server config if not already setif (zookeeperHost == null) {zookeeperHost = zkServer.getClientString();}}int zkClientConnectTimeout = 30000;if (zookeeperHost != null) {// we are ZooKeeper enabledtry {// If this is an ensemble, allow for a long connect time for other servers to come upif (zkRun != null && zkServer.getServers().size() > 1) {zkClientConnectTimeout = 24 * 60 * 60 * 1000; // 1 day for embedded ensemblelog.info("Zookeeper client=" + zookeeperHost + " Waiting for a quorum.");} else {log.info("Zookeeper client=" + zookeeperHost); }String confDir = System.getProperty("bootstrap_confdir");boolean boostrapConf = Boolean.getBoolean("bootstrap_conf"); if(!ZkController.checkChrootPath(zookeeperHost, (confDir!=null) || boostrapConf || zkRunOnly)) {throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"A chroot was specified in ZkHost but the znode doesn't exist. " + zookeeperHost);}zkController = new ZkController(cc, zookeeperHost, zkClientConnectTimeout, config,new CurrentCoreDescriptorProvider() {@Overridepublic List<CoreDescriptor> getCurrentDescriptors() {List<CoreDescriptor> descriptors = new ArrayList<>(cc.getCoreNames().size());Collection<SolrCore> cores = cc.getCores();for (SolrCore core : cores) {descriptors.add(core.getCoreDescriptor());}return descriptors;}});if (zkRun != null && zkServer.getServers().size() > 1 && confDir == null && boostrapConf == false) {// we are part of an ensemble and we are not uploading the config - pause to give the config time// to get upThread.sleep(10000);}if(confDir != null) {Path configPath = Paths.get(confDir);if (!Files.isDirectory(configPath))throw new IllegalArgumentException("bootstrap_confdir must be a directory of configuration files");String confName = System.getProperty(ZkController.COLLECTION_PARAM_PREFIX+ZkController.CONFIGNAME_PROP, "configuration1");ZkConfigManager configManager = new ZkConfigManager(zkController.getZkClient());configManager.uploadConfigDir(configPath, confName);}if(boostrapConf) {ZkController.bootstrapConf(zkController.getZkClient(), cc, solrHome);}} catch (InterruptedException e) {// Restore the interrupted status Thread.currentThread().interrupt();log.error("", e);throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);} catch (TimeoutException e) {log.error("Could not connect to ZooKeeper", e);throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);} catch (IOException | KeeperException e) {log.error("", e);throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);}}this.zkController = zkController;}

四.調(diào)用zkController的初始化方法進(jìn)行選舉

private void init(CurrentCoreDescriptorProvider registerOnReconnect) {try {boolean createdWatchesAndUpdated = false;Stat stat = zkClient.exists(ZkStateReader.LIVE_NODES_ZKNODE, null, true);if (stat!= null && stat.getNumChildren()>0) {zkStateReader.createClusterStateWatchersAndUpdate();createdWatchesAndUpdated = true;publishAndWaitForDownStates();}createClusterZkNodes(zkClient);createEphemeralLiveNode();ShardHandler shardHandler;UpdateShardHandler updateShardHandler;shardHandler = cc.getShardHandlerFactory().getShardHandler();updateShardHandler = cc.getUpdateShardHandler();if (!zkRunOnly) {overseerElector = new LeaderElector(zkClient);this.overseer = new Overseer(shardHandler, updateShardHandler,CoreContainer.CORES_HANDLER_PATH, zkStateReader, this, cloudConfig);ElectionContext context = new OverseerElectionContext(zkClient,overseer, getNodeName());overseerElector.setup(context);overseerElector.joinElection(context, false);}if (!createdWatchesAndUpdated) {zkStateReader.createClusterStateWatchersAndUpdate();}} catch (IOException e) {log.error("", e);throw new SolrException(SolrException.ErrorCode.SERVER_ERROR,"Can't create ZooKeeperController", e);} catch (InterruptedException e) {// Restore the interrupted status Thread.currentThread().interrupt();log.error("", e);throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);} catch (KeeperException e) {log.error("", e);throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);}}

五.具體實(shí)現(xiàn)為LeaderElector的joinElection()方法

/*** Begin participating in the election process. Gets a new sequential number* and begins watching the node with the sequence number before it, unless it* is the lowest number, in which case, initiates the leader process. If the* node that is watched goes down, check if we are the new lowest node, else* watch the next lowest numbered node.** @return sequential node number*/public int joinElection(ElectionContext context, boolean replacement,boolean joinAtHead) throws KeeperException, InterruptedException, IOException {context.joinedElectionFired();final String shardsElectZkPath = context.electionPath + LeaderElector.ELECTION_NODE;long sessionId = zkClient.getSolrZooKeeper().getSessionId();String id = sessionId + "-" + context.id;String leaderSeqPath = null;boolean cont = true;int tries = 0;while (cont) {try {if(joinAtHead){log.info("Node {} trying to join election at the head", id); List<String> nodes = OverseerCollectionProcessor.getSortedElectionNodes(zkClient, shardsElectZkPath);if(nodes.size() <2){leaderSeqPath = zkClient.create(shardsElectZkPath + "/" + id + "-n_", null,CreateMode.EPHEMERAL_SEQUENTIAL, false);} else {String firstInLine = nodes.get(1);log.info("The current head: {}", firstInLine);Matcher m = LEADER_SEQ.matcher(firstInLine);if (!m.matches()) {throw new IllegalStateException("Could not find regex match in:"+ firstInLine);}leaderSeqPath = shardsElectZkPath + "/" + id + "-n_"+ m.group(1);zkClient.create(leaderSeqPath, null, CreateMode.EPHEMERAL, false);}} else {leaderSeqPath = zkClient.create(shardsElectZkPath + "/" + id + "-n_", null,CreateMode.EPHEMERAL_SEQUENTIAL, false);}log.info("Joined leadership election with path: {}", leaderSeqPath);context.leaderSeqPath = leaderSeqPath;cont = false;} catch (ConnectionLossException e) {// we don't know if we made our node or not...List<String> entries = zkClient.getChildren(shardsElectZkPath, null, true);boolean foundId = false;for (String entry : entries) {String nodeId = getNodeId(entry);if (id.equals(nodeId)) {// we did create our node...foundId = true;break;}}if (!foundId) {cont = true;if (tries++ > 20) {throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);}try {Thread.sleep(50);} catch (InterruptedException e2) {Thread.currentThread().interrupt();}}} catch (KeeperException.NoNodeException e) {// we must have failed in creating the election node - someone else must// be working on it, lets try againif (tries++ > 20) {context = null;throw new ZooKeeperException(SolrException.ErrorCode.SERVER_ERROR,"", e);}cont = true;try {Thread.sleep(50);} catch (InterruptedException e2) {Thread.currentThread().interrupt();}}}checkIfIamLeader(context, replacement);return getSeq(context.leaderSeqPath);}

六.OverseerCollectionProcessor

實(shí)現(xiàn)了Runnable接口,故其核心方法是run()方法:

@Overridepublic void run() {log.info("Process current queue of collection creations");LeaderStatus isLeader = amILeader();while (isLeader == LeaderStatus.DONT_KNOW) {log.debug("am_i_leader unclear {}", isLeader);isLeader = amILeader(); // not a no, not a yes, try ask again }String oldestItemInWorkQueue = null;// hasLeftOverItems - used for avoiding re-execution of async tasks that were processed by a previous Overseer.// This variable is set in case there's any task found on the workQueue when the OCP starts up and// the id for the queue tail is used as a marker to check for the task in completed/failed map in zk.// Beyond the marker, all tasks can safely be assumed to have never been executed.boolean hasLeftOverItems = true;try {oldestItemInWorkQueue = workQueue.getTailId();} catch (KeeperException e) {// We don't need to handle this. This is just a fail-safe which comes in handy in skipping already processed// async calls.SolrException.log(log, "", e);} catch (InterruptedException e) {Thread.currentThread().interrupt();}if (oldestItemInWorkQueue == null)hasLeftOverItems = false;elselog.debug("Found already existing elements in the work-queue. Last element: {}", oldestItemInWorkQueue);try {prioritizeOverseerNodes();} catch (Exception e) {log.error("Unable to prioritize overseer ", e);}// TODO: Make maxThreads configurable.this.tpe = new ExecutorUtil.MDCAwareThreadPoolExecutor(5, 100, 0L, TimeUnit.MILLISECONDS,new SynchronousQueue<Runnable>(),new DefaultSolrThreadFactory("OverseerThreadFactory"));try {while (!this.isClosed) {try {isLeader = amILeader();if (LeaderStatus.NO == isLeader) {break;} else if (LeaderStatus.YES != isLeader) {log.debug("am_i_leader unclear {}", isLeader);continue; // not a no, not a yes, try asking again }log.debug("Cleaning up work-queue. #Running tasks: {}", runningTasks.size());cleanUpWorkQueue();printTrackingMaps();boolean waited = false;while (runningTasks.size() > maxParallelThreads) {synchronized (waitLock) {waitLock.wait(100);//wait for 100 ms or till a task is complete }waited = true;}if (waited)cleanUpWorkQueue();List<QueueEvent> heads = workQueue.peekTopN(maxParallelThreads, runningZKTasks, 2000L);if (heads == null)continue;log.debug("Got {} tasks from work-queue : [{}]", heads.size(), heads.toString());if (isClosed) break;for (QueueEvent head : heads) {final ZkNodeProps message = ZkNodeProps.load(head.getBytes());String collectionName = message.containsKey(COLLECTION_PROP) ?message.getStr(COLLECTION_PROP) : message.getStr(NAME);final String asyncId = message.getStr(ASYNC);if (hasLeftOverItems) {if (head.getId().equals(oldestItemInWorkQueue))hasLeftOverItems = false;if (asyncId != null && (completedMap.contains(asyncId) || failureMap.contains(asyncId))) {log.debug("Found already processed task in workQueue, cleaning up. AsyncId [{}]",asyncId );workQueue.remove(head);continue;}}if (!checkExclusivity(message, head.getId())) {log.debug("Exclusivity check failed for [{}]", message.toString());continue;}try {markTaskAsRunning(head, collectionName, asyncId, message);log.debug("Marked task [{}] as running", head.getId());} catch (KeeperException.NodeExistsException e) {// This should never happenlog.error("Tried to pick up task [{}] when it was already running!", head.getId());} catch (InterruptedException e) {log.error("Thread interrupted while trying to pick task for execution.", head.getId());Thread.currentThread().interrupt();}log.info("Overseer Collection Processor: Get the message id:" + head.getId() + " message:" + message.toString());String operation = message.getStr(Overseer.QUEUE_OPERATION); Runner runner = new Runner(message,operation, head);tpe.execute(runner);}} catch (KeeperException e) {if (e.code() == KeeperException.Code.SESSIONEXPIRED) {log.warn("Overseer cannot talk to ZK");return;}SolrException.log(log, "", e);} catch (InterruptedException e) {Thread.currentThread().interrupt();return;} catch (Exception e) {SolrException.log(log, "", e);}}} finally {this.close();}}

該run()方法由調(diào)用了一個內(nèi)部類Runner,見紅線所示,Runner也是一個線程,實(shí)現(xiàn)了Runnable接口,其核心方法同樣為run():

@Overridepublic void run() {final TimerContext timerContext = stats.time("collection_" + operation);boolean success = false;final String asyncId = message.getStr(ASYNC);String collectionName = message.containsKey(COLLECTION_PROP) ?message.getStr(COLLECTION_PROP) : message.getStr(NAME);try {try {log.debug("Runner processing {}", head.getId()); response = processMessage(message, operation);} finally {timerContext.stop();updateStats();}if(asyncId != null) {if (response != null && (response.getResponse().get("failure") != null || response.getResponse().get("exception") != null)) {failureMap.put(asyncId, SolrResponse.serializable(response));log.debug("Updated failed map for task with zkid:[{}]", head.getId());} else {completedMap.put(asyncId, SolrResponse.serializable(response));log.debug("Updated completed map for task with zkid:[{}]", head.getId());}} else {head.setBytes(SolrResponse.serializable(response));log.debug("Completed task:[{}]", head.getId());}markTaskComplete(head.getId(), asyncId, collectionName);log.debug("Marked task [{}] as completed.", head.getId());printTrackingMaps();log.info("Overseer Collection Processor: Message id:" + head.getId() +" complete, response:" + response.getResponse().toString());success = true;} catch (KeeperException e) {SolrException.log(log, "", e);} catch (InterruptedException e) {// Reset task from tracking data structures so that it can be retried. resetTaskWithException(head.getId(), asyncId, collectionName);log.warn("Resetting task {} as the thread was interrupted.", head.getId());Thread.currentThread().interrupt();} finally {if(!success) {// Reset task from tracking data structures so that it can be retried. resetTaskWithException(head.getId(), asyncId, collectionName);}synchronized (waitLock){waitLock.notifyAll();}}}

上述方法中,使用紅線標(biāo)明了核心實(shí)現(xiàn)方法processMessage(),該方法具體實(shí)現(xiàn)了Collection的各種操作:

protected SolrResponse processMessage(ZkNodeProps message, String operation) {log.warn("OverseerCollectionProcessor.processMessage : "+ operation + " , "+ message.toString());NamedList results = new NamedList();try {// force update the cluster state zkStateReader.updateClusterState();CollectionParams.CollectionAction action = CollectionParams.CollectionAction.get(operation);if (action == null) {throw new SolrException(ErrorCode.BAD_REQUEST, "Unknown operation:" + operation);}switch (action) {case CREATE:createCollection(zkStateReader.getClusterState(), message, results);break;case DELETE:deleteCollection(message, results);break;case RELOAD:ModifiableSolrParams params = new ModifiableSolrParams();params.set(CoreAdminParams.ACTION, CoreAdminAction.RELOAD.toString());collectionCmd(zkStateReader.getClusterState(), message, params, results, Replica.State.ACTIVE);break;case CREATEALIAS:createAlias(zkStateReader.getAliases(), message);break;case DELETEALIAS:deleteAlias(zkStateReader.getAliases(), message);break;case SPLITSHARD:splitShard(zkStateReader.getClusterState(), message, results);break;case DELETESHARD:deleteShard(zkStateReader.getClusterState(), message, results);break;case CREATESHARD:createShard(zkStateReader.getClusterState(), message, results);break;case DELETEREPLICA:deleteReplica(zkStateReader.getClusterState(), message, results);break;case MIGRATE:migrate(zkStateReader.getClusterState(), message, results);break;case ADDROLE:processRoleCommand(message, operation);break;case REMOVEROLE:processRoleCommand(message, operation);break;case ADDREPLICA:addReplica(zkStateReader.getClusterState(), message, results);break;case OVERSEERSTATUS:getOverseerStatus(message, results);break;case CLUSTERSTATUS://TODO . deprecated. OCP does not need to do it .remove in a later releasenew ClusterStatus(zkStateReader, message).getClusterStatus(results);break;case ADDREPLICAPROP:processReplicaAddPropertyCommand(message);break;case DELETEREPLICAPROP:processReplicaDeletePropertyCommand(message);break;case BALANCESHARDUNIQUE:balanceProperty(message);break;case REBALANCELEADERS:processRebalanceLeaders(message);break;case MODIFYCOLLECTION:overseer.getInQueue(zkStateReader.getZkClient()).offer(Utils.toJSON(message));break;default:throw new SolrException(ErrorCode.BAD_REQUEST, "Unknown operation:"+ operation);}} catch (Exception e) {String collName = message.getStr("collection");if (collName == null) collName = message.getStr(NAME);if (collName == null) {SolrException.log(log, "Operation " + operation + " failed", e);} else {SolrException.log(log, "Collection: " + collName + " operation: " + operation+ " failed", e);}results.add("Operation " + operation + " caused exception:", e);SimpleOrderedMap nl = new SimpleOrderedMap();nl.add("msg", e.getMessage());nl.add("rspCode", e instanceof SolrException ? ((SolrException)e).code() : -1);results.add("exception", nl);}return new OverseerSolrResponse(results);}

我們以SPLITSHARD為例說明:

private boolean splitShard(ClusterState clusterState, ZkNodeProps message, NamedList results) {String collectionName = message.getStr("collection");String slice = message.getStr(ZkStateReader.SHARD_ID_PROP);log.info("Split shard invoked");String splitKey = message.getStr("split.key");ShardHandler shardHandler = shardHandlerFactory.getShardHandler();DocCollection collection = clusterState.getCollection(collectionName);DocRouter router = collection.getRouter() != null ? collection.getRouter() : DocRouter.DEFAULT;Slice parentSlice = null;if (slice == null) {if (router instanceof CompositeIdRouter) {Collection<Slice> searchSlices = router.getSearchSlicesSingle(splitKey, new ModifiableSolrParams(), collection);if (searchSlices.isEmpty()) {throw new SolrException(ErrorCode.BAD_REQUEST, "Unable to find an active shard for split.key: " + splitKey);}if (searchSlices.size() > 1) {throw new SolrException(ErrorCode.BAD_REQUEST,"Splitting a split.key: " + splitKey + " which spans multiple shards is not supported");}parentSlice = searchSlices.iterator().next();slice = parentSlice.getName();log.info("Split by route.key: {}, parent shard is: {} ", splitKey, slice);} else {throw new SolrException(ErrorCode.BAD_REQUEST,"Split by route key can only be used with CompositeIdRouter or subclass. Found router: "+ router.getClass().getName());}} else {parentSlice = clusterState.getSlice(collectionName, slice);}if (parentSlice == null) {if (clusterState.hasCollection(collectionName)) {throw new SolrException(ErrorCode.BAD_REQUEST, "No shard with the specified name exists: " + slice);} else {throw new SolrException(ErrorCode.BAD_REQUEST,"No collection with the specified name exists: " + collectionName);}}// find the leader for the shardReplica parentShardLeader = null;try {parentShardLeader = zkStateReader.getLeaderRetry(collectionName, slice, 10000);} catch (InterruptedException e) {Thread.currentThread().interrupt();}DocRouter.Range range = parentSlice.getRange();if (range == null) {range = new PlainIdRouter().fullRange();}List<DocRouter.Range> subRanges = null;String rangesStr = message.getStr(CoreAdminParams.RANGES);if (rangesStr != null) {String[] ranges = rangesStr.split(",");if (ranges.length == 0 || ranges.length == 1) {throw new SolrException(ErrorCode.BAD_REQUEST, "There must be at least two ranges specified to split a shard");} else {subRanges = new ArrayList<>(ranges.length);for (int i = 0; i < ranges.length; i++) {String r = ranges[i];try {subRanges.add(DocRouter.DEFAULT.fromString(r));} catch (Exception e) {throw new SolrException(ErrorCode.BAD_REQUEST, "Exception in parsing hexadecimal hash range: " + r, e);}if (!subRanges.get(i).isSubsetOf(range)) {throw new SolrException(ErrorCode.BAD_REQUEST,"Specified hash range: " + r + " is not a subset of parent shard's range: " + range.toString());}}List<DocRouter.Range> temp = new ArrayList<>(subRanges); // copy to preserve original order Collections.sort(temp);if (!range.equals(new DocRouter.Range(temp.get(0).min, temp.get(temp.size() - 1).max))) {throw new SolrException(ErrorCode.BAD_REQUEST,"Specified hash ranges: " + rangesStr + " do not cover the entire range of parent shard: " + range);}for (int i = 1; i < temp.size(); i++) {if (temp.get(i - 1).max + 1 != temp.get(i).min) {throw new SolrException(ErrorCode.BAD_REQUEST, "Specified hash ranges: " + rangesStr+ " either overlap with each other or " + "do not cover the entire range of parent shard: " + range);}}}} else if (splitKey != null) {if (router instanceof CompositeIdRouter) {CompositeIdRouter compositeIdRouter = (CompositeIdRouter) router;subRanges = compositeIdRouter.partitionRangeByKey(splitKey, range);if (subRanges.size() == 1) {throw new SolrException(ErrorCode.BAD_REQUEST, "The split.key: " + splitKey+ " has a hash range that is exactly equal to hash range of shard: " + slice);}for (DocRouter.Range subRange : subRanges) {if (subRange.min == subRange.max) {throw new SolrException(ErrorCode.BAD_REQUEST, "The split.key: " + splitKey + " must be a compositeId");}}log.info("Partitioning parent shard " + slice + " range: " + parentSlice.getRange() + " yields: " + subRanges);rangesStr = "";for (int i = 0; i < subRanges.size(); i++) {DocRouter.Range subRange = subRanges.get(i);rangesStr += subRange.toString();if (i < subRanges.size() - 1) rangesStr += ',';}}} else {// todo: fixed to two partitions?subRanges = router.partitionRange(2, range);}try {List<String> subSlices = new ArrayList<>(subRanges.size());List<String> subShardNames = new ArrayList<>(subRanges.size());String nodeName = parentShardLeader.getNodeName();for (int i = 0; i < subRanges.size(); i++) {String subSlice = slice + "_" + i;subSlices.add(subSlice);String subShardName = collectionName + "_" + subSlice + "_replica1";subShardNames.add(subShardName);Slice oSlice = clusterState.getSlice(collectionName, subSlice);if (oSlice != null) {final Slice.State state = oSlice.getState();if (state == Slice.State.ACTIVE) {throw new SolrException(ErrorCode.BAD_REQUEST,"Sub-shard: " + subSlice + " exists in active state. Aborting split shard.");} else if (state == Slice.State.CONSTRUCTION || state == Slice.State.RECOVERY) {// delete the shardsfor (String sub : subSlices) {log.info("Sub-shard: {} already exists therefore requesting its deletion", sub);Map<String,Object> propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, "deleteshard");propMap.put(COLLECTION_PROP, collectionName);propMap.put(SHARD_ID_PROP, sub);ZkNodeProps m = new ZkNodeProps(propMap);try {deleteShard(clusterState, m, new NamedList());} catch (Exception e) {throw new SolrException(ErrorCode.SERVER_ERROR, "Unable to delete already existing sub shard: " + sub,e);}}}}}// do not abort splitshard if the unloading fails// this can happen because the replicas created previously may be down// the only side effect of this is that the sub shard may end up having more replicas than we wantcollectShardResponses(results, false, null, shardHandler);final String asyncId = message.getStr(ASYNC);HashMap<String,String> requestMap = new HashMap<>();for (int i = 0; i < subRanges.size(); i++) {String subSlice = subSlices.get(i);String subShardName = subShardNames.get(i);DocRouter.Range subRange = subRanges.get(i);log.info("Creating slice " + subSlice + " of collection " + collectionName + " on " + nodeName);Map<String,Object> propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, CREATESHARD.toLower());propMap.put(ZkStateReader.SHARD_ID_PROP, subSlice);propMap.put(ZkStateReader.COLLECTION_PROP, collectionName);propMap.put(ZkStateReader.SHARD_RANGE_PROP, subRange.toString());propMap.put(ZkStateReader.SHARD_STATE_PROP, Slice.State.CONSTRUCTION.toString());propMap.put(ZkStateReader.SHARD_PARENT_PROP, parentSlice.getName());DistributedQueue inQueue = Overseer.getInQueue(zkStateReader.getZkClient());inQueue.offer(Utils.toJSON(new ZkNodeProps(propMap)));// wait until we are able to see the new shard in cluster state waitForNewShard(collectionName, subSlice);// refresh cluster stateclusterState = zkStateReader.getClusterState();log.info("Adding replica " + subShardName + " as part of slice " + subSlice + " of collection " + collectionName+ " on " + nodeName);propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, ADDREPLICA.toLower());propMap.put(COLLECTION_PROP, collectionName);propMap.put(SHARD_ID_PROP, subSlice);propMap.put("node", nodeName);propMap.put(CoreAdminParams.NAME, subShardName);// copy over property params:for (String key : message.keySet()) {if (key.startsWith(COLL_PROP_PREFIX)) {propMap.put(key, message.getStr(key));}}// add async paramif (asyncId != null) {propMap.put(ASYNC, asyncId);}addReplica(clusterState, new ZkNodeProps(propMap), results);}collectShardResponses(results, true, "SPLITSHARD failed to create subshard leaders", shardHandler);completeAsyncRequest(asyncId, requestMap, results);for (String subShardName : subShardNames) {// wait for parent leader to acknowledge the sub-shard corelog.info("Asking parent leader to wait for: " + subShardName + " to be alive on: " + nodeName);String coreNodeName = waitForCoreNodeName(collectionName, nodeName, subShardName);CoreAdminRequest.WaitForState cmd = new CoreAdminRequest.WaitForState();cmd.setCoreName(subShardName);cmd.setNodeName(nodeName);cmd.setCoreNodeName(coreNodeName);cmd.setState(Replica.State.ACTIVE);cmd.setCheckLive(true);cmd.setOnlyIfLeader(true);ModifiableSolrParams p = new ModifiableSolrParams(cmd.getParams());sendShardRequest(nodeName, p, shardHandler, asyncId, requestMap);}collectShardResponses(results, true, "SPLITSHARD timed out waiting for subshard leaders to come up",shardHandler);completeAsyncRequest(asyncId, requestMap, results);log.info("Successfully created all sub-shards for collection " + collectionName + " parent shard: " + slice+ " on: " + parentShardLeader);log.info("Splitting shard " + parentShardLeader.getName() + " as part of slice " + slice + " of collection "+ collectionName + " on " + parentShardLeader);ModifiableSolrParams params = new ModifiableSolrParams();params.set(CoreAdminParams.ACTION, CoreAdminAction.SPLIT.toString());params.set(CoreAdminParams.CORE, parentShardLeader.getStr("core"));for (int i = 0; i < subShardNames.size(); i++) {String subShardName = subShardNames.get(i);params.add(CoreAdminParams.TARGET_CORE, subShardName);}params.set(CoreAdminParams.RANGES, rangesStr);sendShardRequest(parentShardLeader.getNodeName(), params, shardHandler, asyncId, requestMap);collectShardResponses(results, true, "SPLITSHARD failed to invoke SPLIT core admin command", shardHandler);completeAsyncRequest(asyncId, requestMap, results);log.info("Index on shard: " + nodeName + " split into two successfully");// apply buffered updates on sub-shardsfor (int i = 0; i < subShardNames.size(); i++) {String subShardName = subShardNames.get(i);log.info("Applying buffered updates on : " + subShardName);params = new ModifiableSolrParams();params.set(CoreAdminParams.ACTION, CoreAdminAction.REQUESTAPPLYUPDATES.toString());params.set(CoreAdminParams.NAME, subShardName);sendShardRequest(nodeName, params, shardHandler, asyncId, requestMap);}collectShardResponses(results, true, "SPLITSHARD failed while asking sub shard leaders to apply buffered updates",shardHandler);completeAsyncRequest(asyncId, requestMap, results);log.info("Successfully applied buffered updates on : " + subShardNames);// Replica creation for the new Slices// look at the replication factor and see if it matches reality// if it does not, find best nodes to create more cores// TODO: Have replication factor decided in some other way instead of numShards for the parentint repFactor = clusterState.getSlice(collectionName, slice).getReplicas().size();// we need to look at every node and see how many cores it serves// add our new cores to existing nodes serving the least number of cores// but (for now) require that each core goes on a distinct node.// TODO: add smarter options that look at the current number of cores per// node?// for now we just go randomSet<String> nodes = clusterState.getLiveNodes();List<String> nodeList = new ArrayList<>(nodes.size());nodeList.addAll(nodes);// TODO: Have maxShardsPerNode param for this operation?// Remove the node that hosts the parent shard for replica creation. nodeList.remove(nodeName);// TODO: change this to handle sharding a slice into > 2 sub-shards. List<Map<String, Object>> replicas = new ArrayList<>((repFactor - 1) * 2);for (int i = 1; i <= subSlices.size(); i++) {Collections.shuffle(nodeList, RANDOM);String sliceName = subSlices.get(i - 1);for (int j = 2; j <= repFactor; j++) {String subShardNodeName = nodeList.get((repFactor * (i - 1) + (j - 2)) % nodeList.size());String shardName = collectionName + "_" + sliceName + "_replica" + (j);log.info("Creating replica shard " + shardName + " as part of slice " + sliceName + " of collection "+ collectionName + " on " + subShardNodeName);ZkNodeProps props = new ZkNodeProps(Overseer.QUEUE_OPERATION, ADDREPLICA.toLower(),ZkStateReader.COLLECTION_PROP, collectionName,ZkStateReader.SHARD_ID_PROP, sliceName,ZkStateReader.CORE_NAME_PROP, shardName,ZkStateReader.STATE_PROP, Replica.State.DOWN.toString(),ZkStateReader.BASE_URL_PROP, zkStateReader.getBaseUrlForNodeName(subShardNodeName),ZkStateReader.NODE_NAME_PROP, subShardNodeName);Overseer.getInQueue(zkStateReader.getZkClient()).offer(Utils.toJSON(props));HashMap<String,Object> propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, ADDREPLICA.toLower());propMap.put(COLLECTION_PROP, collectionName);propMap.put(SHARD_ID_PROP, sliceName);propMap.put("node", subShardNodeName);propMap.put(CoreAdminParams.NAME, shardName);// copy over property params:for (String key : message.keySet()) {if (key.startsWith(COLL_PROP_PREFIX)) {propMap.put(key, message.getStr(key));}}// add async paramif (asyncId != null) {propMap.put(ASYNC, asyncId);}// special flag param to instruct addReplica not to create the replica in cluster state againpropMap.put(SKIP_CREATE_REPLICA_IN_CLUSTER_STATE, "true");replicas.add(propMap);}}// we must set the slice state into recovery before actually creating the replica cores// this ensures that the logic inside Overseer to update sub-shard state to 'active'// always gets a chance to execute. See SOLR-7673if (repFactor == 1) {// switch sub shard states to 'active'log.info("Replication factor is 1 so switching shard states");DistributedQueue inQueue = Overseer.getInQueue(zkStateReader.getZkClient());Map<String,Object> propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, OverseerAction.UPDATESHARDSTATE.toLower());propMap.put(slice, Slice.State.INACTIVE.toString());for (String subSlice : subSlices) {propMap.put(subSlice, Slice.State.ACTIVE.toString());}propMap.put(ZkStateReader.COLLECTION_PROP, collectionName);ZkNodeProps m = new ZkNodeProps(propMap);inQueue.offer(Utils.toJSON(m));} else {log.info("Requesting shard state be set to 'recovery'");DistributedQueue inQueue = Overseer.getInQueue(zkStateReader.getZkClient());Map<String,Object> propMap = new HashMap<>();propMap.put(Overseer.QUEUE_OPERATION, OverseerAction.UPDATESHARDSTATE.toLower());for (String subSlice : subSlices) {propMap.put(subSlice, Slice.State.RECOVERY.toString());}propMap.put(ZkStateReader.COLLECTION_PROP, collectionName);ZkNodeProps m = new ZkNodeProps(propMap);inQueue.offer(Utils.toJSON(m));}// now actually create replica cores on sub shard nodesfor (Map<String, Object> replica : replicas) {addReplica(clusterState, new ZkNodeProps(replica), results);}collectShardResponses(results, true,"SPLITSHARD failed to create subshard replicas", shardHandler);completeAsyncRequest(asyncId, requestMap, results);log.info("Successfully created all replica shards for all sub-slices " + subSlices);commit(results, slice, parentShardLeader);return true;} catch (SolrException e) {throw e;} catch (Exception e) {log.error("Error executing split operation for collection: " + collectionName + " parent shard: " + slice, e);throw new SolrException(ErrorCode.SERVER_ERROR, null, e);}

小結(jié):

solrCloud 從zookeeper開始一步步分析到具體的命令執(zhí)行,完整了走遍了流程,但因篇幅限制沒有就具體細(xì)節(jié)進(jìn)行講解。后續(xù)會在后面的文章中分析每個細(xì)節(jié)。

參考文獻(xiàn):

【1】http://itindex.net/detail/48735-solrcloud

?

轉(zhuǎn)載于:https://www.cnblogs.com/davidwang456/p/4776719.html

總結(jié)

以上是生活随笔為你收集整理的solr源码分析之solrclound的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

free. 性欧美.com | 国产中年夫妇高潮精品视频 | 91九色最新 | 久草视频免费看 | 欧美精品久久久久久久久老牛影院 | 黄色一级免费电影 | 一级成人免费视频 | 国产精品久久久精品 | 成人黄色av免费在线观看 | 国产精品福利午夜在线观看 | 色资源二区在线视频 | 免费在线黄 | 中文字幕日韩免费视频 | 精品在线免费观看 | 国产精品一区专区欧美日韩 | 99热99热 | 国偷自产中文字幕亚洲手机在线 | 99这里只有久久精品视频 | 免费在线观看av的网站 | 国产精品久久久久久久久久久久久 | 日本久久精品视频 | 国产欧美三级 | 亚洲精品永久免费视频 | 久草在线视频精品 | 免费成人黄色片 | 99精品免费网 | 国产综合小视频 | av在线h | aa一级片 | www.久久爱.cn| 久久久久国产成人精品亚洲午夜 | 韩国精品福利一区二区三区 | 国产欧美精品一区二区三区四区 | 国产91粉嫩白浆在线观看 | 亚洲免费成人av电影 | 日日夜夜天天综合 | 精品国产成人av | 天天操网址 | 97人人添人澡人人爽超碰动图 | 91看国产| 国产在线2020 | 国产精品永久免费 | 久久国产高清视频 | 天天操导航| 国产三级香港三韩国三级 | 手机在线中文字幕 | 在线观看国产亚洲 | 狠狠操天天操 | 中文字幕亚洲五码 | 色婷婷久久 | 欧美激情综合五月色丁香 | 97在线视频免费观看 | 激情视频区 | 天天曰天天射 | 欧美色综合久久 | 99精品在线免费在线观看 | 亚洲更新最快 | jizzjizzjizz亚洲 | 亚洲视频久久久久 | 久久综合之合合综合久久 | 美女黄网久久 | 国产99久久久国产精品 | 日本xxxx.com| 99久热在线精品视频成人一区 | 婷婷色网址 | 嫩小bbbb摸bbb摸bbb | 成人动漫一区二区 | 成人影片在线免费观看 | 日批在线看| 国产永久网站 | 色偷偷88欧美精品久久久 | 91免费看黄 | 四虎成人免费观看 | 午夜精品一区二区三区视频免费看 | 久久精品99国产精品酒店日本 | 色综合中文综合网 | 999久久久国产精品 高清av免费观看 | 欧日韩在线视频 | 激情网五月婷婷 | 久久你懂得 | 国产精品区二区三区日本 | 国产精品自拍av | 日韩aa视频 | 一色av | 日韩精品视频在线观看免费 | 日韩国产在线观看 | 国产精品久久久久久超碰 | 国产亚洲精品美女 | 91麻豆精品国产91久久久无需广告 | 9在线观看免费 | 色视频网页 | 天天色天天射天天干 | 在线观看国产一区二区 | 欧美9999 | 成片免费观看视频999 | 五月婷婷在线播放 | 日韩在线观看视频免费 | 亚洲1区 在线 | 国产手机精品视频 | 日日添夜夜添 | 在线免费中文字幕 | 国产成人一区二区三区在线观看 | 国产午夜精品一区 | 天天射夜夜爽 | 久久激情视频网 | 久久久在线视频 | 久久久久9999亚洲精品 | 91成人免费在线 | 亚洲做受高潮欧美裸体 | 日韩av免费大片 | 日韩网站免费观看 | 国产免费中文字幕 | 狠狠的操狠狠的干 | 成 人 a v天堂 | 亚洲精品国偷自产在线91正片 | 欧美一区二区三区免费观看 | 国产精品99免视看9 国产精品毛片一区视频 | 亚洲高清在线视频 | 特黄特色特刺激视频免费播放 | 国产精品久久99 | 九九热精品在线 | 欧美大香线蕉线伊人久久 | 91视频亚洲 | 国产精品国内免费一区二区三区 | 成人全视频免费观看在线看 | 91麻豆高清视频 | 玖玖综合网 | 福利视频第一页 | 操操日日| 三上悠亚在线免费 | 久久五月网 | 97视频人人澡人人爽 | 久久99精品久久久久久三级 | 国产美女精品人人做人人爽 | 黄色精品网站 | 这里只有精品视频在线观看 | 亚洲综合视频在线 | 人人艹人人 | 在线a人片免费观看视频 | 亚洲国产精品va在线看 | 免费男女羞羞的视频网站中文字幕 | 国产91综合一区在线观看 | 成人在线播放av | 婷婷国产在线观看 | 91亚洲永久精品 | 婷婷在线网站 | 最近中文字幕大全 | 手机看片福利 | 在线看黄色av | 欧美国产不卡 | 久久久久久国产精品 | 99久久久国产精品免费99 | 色综合欧洲| av黄在线播放 | 日日激情 | 国语自产偷拍精品视频偷 | 欧美一级电影片 | 日韩一级黄色av | 综合国产视频 | 999久久国产| 中文字幕在线观看日本 | 久久久网站 | 91香蕉视频720p| 亚洲资源在线观看 | 亚洲精品www. | 在线亚洲成人 | 在线色网站 | 久久亚洲欧美日韩精品专区 | 国产99久久久精品视频 | 精品91视频 | 91一区啪爱嗯打偷拍欧美 | 亚洲精品黄 | 亚洲一区二区三区四区精品 | 免费观看v片在线观看 | www.国产视频 | 日日久视频 | 欧美一区二区在线免费观看 | 国产精品久久久久亚洲影视 | 国产一区二区在线播放 | 看片网站黄 | 97免费在线观看 | 免费在线日韩 | av在线播放亚洲 | 99精品热视频 | 欧美 亚洲 另类 激情 另类 | 日韩av免费在线看 | 久草线 | 日日碰狠狠躁久久躁综合网 | 91亚洲精| 香蕉视频在线免费看 | 成人黄色在线观看视频 | 色多多视频在线 | 91精品国产91久久久久 | 婷婷中文字幕在线观看 | 国产小视频在线观看 | 久久精品一区二区三区国产主播 | 91麻豆国产 | 日韩欧美高清一区二区 | 最新中文字幕在线播放 | 色婷婷综合久久久中文字幕 | 精品视频久久 | 蜜臀av夜夜澡人人爽人人 | 天天综合天天做天天综合 | 国产精品少妇 | 国产专区视频在线 | 最近能播放的中文字幕 | 永久免费观看视频 | a黄色大片 | 久久久99精品免费观看 | 国产精品美女网站 | 黄色一级大片免费看 | 久青草视频 | 免费手机黄色网址 | www.av中文字幕.com | 综合伊人av | 亚洲日本va午夜在线影院 | 中文字幕在线看视频国产中文版 | 在线观看成人小视频 | 操操操av | 日韩久久影院 | 一本一本久久a久久精品综合小说 | 在线播放视频一区 | 精品视频国产一区 | 国产无遮挡又黄又爽馒头漫画 | 成人手机在线视频 | 日韩欧美视频在线播放 | 午夜天使 | 四虎成人精品永久免费av九九 | 免费久久99精品国产 | 亚洲综合情 | 色综合婷婷久久 | 欧美日本国产在线观看 | 黄色aa久久 | 亚洲香蕉在线观看 | 日韩久久午夜一级啪啪 | 深夜免费福利网站 | 日韩av在线高清 | 色婷婷成人 | 中文字幕中文字幕在线一区 | 国产精品一区专区欧美日韩 | 国产一区二区视频在线 | 91成人精品视频 | 97激情影院 | 人人爽人人爽人人片av | 激情欧美日韩一区二区 | 国产三级国产精品国产专区50 | 欧美日韩精品电影 | 久久久久www | 亚洲免费成人av电影 | 999成人网| 97精产国品一二三产区在线 | 999毛片| 在线超碰av| 97色婷婷| 日韩精品一区二区三区不卡 | 国产区 在线 | 亚洲一区久久 | 人人玩人人添人人 | 青青河边草免费直播 | 免费色黄 | 国内精品视频久久 | 精品视频久久 | 亚洲资源 | 亚洲91精品在线观看 | 免费黄色av | 日本福利视频在线 | 久久av免费电影 | 91网站在线视频 | 激情视频免费观看 | 开心激情综合网 | 久久免费美女视频 | 日本中文字幕在线一区 | 日韩在线短视频 | 综合精品久久 | 美女在线免费观看视频 | 国产高清无av久久 | 欧美日韩中文在线观看 | 欧美一二三区在线播放 | 黄色成人影视 | 日韩中文字幕在线不卡 | 亚洲精品黄| 国产99一区 | 国产五月婷婷 | 久久精品观看 | 久久久久久综合网天天 | 婷婷在线观看视频 | 亚洲闷骚少妇在线观看网站 | 成人午夜影院 | 久久婷婷国产色一区二区三区 | 激情久久久久久久久久久久久久久久 | 91日韩精品一区 | 国产第页 | 正在播放亚洲精品 | 成片人卡1卡2卡3手机免费看 | 深爱激情av | 五月婷婷色 | 欧美性猛片,| 在线视频一区观看 | 成年人免费在线 | 久一在线 | 欧美aⅴ在线观看 | 亚洲精品在线视频观看 | av网站免费线看精品 | 国产又粗又猛又黄又爽的视频 | 视频精品一区二区三区 | 六月丁香婷婷久久 | 天天色综合三 | 国产69精品久久99不卡的观看体验 | av免费看在线 | 99爱国产精品 | 毛片视频网址 | 久久成人免费视频 | 国产免费一区二区三区最新6 | 久久免费播放 | 国产一区二区在线观看视频 | 超碰免费成人 | 在线视频中文字幕一区 | 五月天视频网 | 国产精品视频内 | 亚洲综合最新在线 | 91亚洲精| 日韩天堂在线观看 | 亚洲天堂网在线播放 | 免费看污片 | 免费成人在线网站 | 色婷婷激婷婷情综天天 | 国产一区二区三区黄 | 天天干天天怕 | 婷婷久操 | 日日日操操 | 一区二区三区免费在线观看视频 | 国产91全国探花系列在线播放 | 国产成人在线观看 | 亚洲黄色区 | 亚洲天堂视频在线 | 丁香国产视频 | 91视频中文字幕 | 国产三级久久久 | 精品国产成人 | 麻豆免费看片 | 国产麻豆电影在线观看 | 久久国产影视 | 欧美性大战久久久久 | 在线观看av免费观看 | 在线观看午夜av | 国产成人高清在线 | 成人黄色影片在线 | 日韩精品电影在线播放 | 精品久久久久久综合 | 免费观看黄色12片一级视频 | 91大神免费在线观看 | 精品九九九九 | 欧美一级视频在线观看 | www久久九 | 国产高清在线观看av | 欧美综合干 | 国产精品mm | 午夜久久成人 | 超碰99人人 | 日韩精品高清不卡 | 四虎影视8848aamm | 一区二区三区久久精品 | 黄色一级大片在线观看 | 国产精品综合在线观看 | av大全免费在线观看 | 精品国产福利在线 | 亚洲高清视频一区二区三区 | 欧美a级片网站 | 亚洲美女视频在线 | 2024国产精品视频 | 午夜电影av| 天天干,天天插 | 中文在线中文资源 | 久久人人爽人人爽 | 亚洲精品小视频在线观看 | 午夜国产福利在线 | 国产精品中文 | 日韩精品中文字幕在线观看 | 中文字幕 国产视频 | 亚洲一区二区视频 | 国产一区 在线播放 | 国产永久免费观看 | 成人免费在线网 | 久久丁香网 | 亚洲天堂网在线视频观看 | 一区二区三区国 | 成人网444ppp | 97国产大学生情侣酒店的特点 | 日韩欧美精品免费 | 国产免费叼嘿网站免费 | 99久精品 | 亚洲精品国精品久久99热一 | 国产裸体无遮挡 | 91成人蝌蚪 | 亚洲精品乱码久久久久v最新版 | 欧美色婷婷 | 成人在线免费观看视视频 | 亚洲精品国偷拍自产在线观看 | 在线观看视频色 | 久久久久亚洲精品成人网小说 | 婷婷综合成人 | 欧美日韩伦理一区 | 国产a国产a国产a | 精品一二三区 | 五月色综合 | 国产永久网站 | 国产黄a三级三级三级三级三级 | 一区二区三区在线观看中文字幕 | 99热这里有精品 | 久久久一本精品99久久精品 | 日韩av播放在线 | 国产91国语对白在线 | 精品国产乱码一区二区三区在线 | 中文字幕资源网 国产 | 手机色站| 国产午夜一区二区 | www.亚洲精品在线 | 久久69av| 欧美性色综合网 | 久久av高清| 黄色影院在线免费观看 | 视频一区二区在线 | 国产真实在线 | 日韩免费视频在线观看 | 久久草| 国产精品人人做人人爽人人添 | 91视频在线免费看 | 国产精品久久久久9999吃药 | 最近乱久中文字幕 | 亚洲午夜久久久久 | 免费看片成年人 | 色婷婷导航 | 精品毛片一区二区免费看 | 久操97| 国产小视频你懂的 | 免费看的黄色网 | 午夜av在线免费 | 夜夜操天天 | www亚洲视频 | 九九国产视频 | 日日夜夜噜 | 成人毛片网| 免费人人干 | 91九色性视频| 日本精品视频在线 | 最新日韩中文字幕 | 亚洲另类视频在线 | 欧美精品一区在线发布 | 久久,天天综合 | 又爽又黄又无遮挡网站动态图 | 天天插天天狠天天透 | 婷婷久久网站 | 日韩免费观看高清 | 超碰av在线| 久久在现视频 | 三级在线视频播放 | 亚洲免费精彩视频 | 国产精品免费一区二区三区在线观看 | 久久国产精品视频免费看 | 久草在线电影网 | 日韩欧美一二三 | 午夜视频在线观看欧美 | 亚洲一片黄 | 一区二区三区中文字幕在线观看 | 中文字幕三区 | 日韩va在线观看 | 精品一区精品二区高清 | 亚洲片在线观看 | 欧美在线一级片 | 在线播放一区二区三区 | 成人黄视频| 中文字幕在线观看视频一区二区三区 | 国产精品久久久久久一区二区三区 | 国产精品毛片一区视频 | 黄色影院在线播放 | 色在线免费 | 久久久国产影视 | 国产亚州av| 国产精选在线 | 碰超在线观看 | 国产精品欧美久久久久天天影视 | 欧美精品一区二区蜜臀亚洲 | 在线观看国产福利片 | 三级小视频在线观看 | 中文字幕二区三区 | 精品国产_亚洲人成在线 | 中文字幕影视 | 美女国内精品自产拍在线播放 | 天天操天天草 | 91传媒免费在线观看 | 精品一区二区三区久久久 | 在线日本看片免费人成视久网 | 日韩性久久 | 丁香狠狠 | 成年人免费在线 | 91精品久久久久久久久 | 欧美精品免费在线 | 久久久久久久免费观看 | 精品免费视频. | 久久视奸 | 久久久久在线观看 | 久久开心激情 | 成人精品999| 国产精品久久久久久电影 | 波多野结衣一区二区三区中文字幕 | 肉色欧美久久久久久久免费看 | 日韩电影精品一区 | 97超碰.com | 久久国产免费视频 | 四虎在线免费视频 | 国产免费黄视频在线观看 | 热re99久久精品国产66热 | 色婷婷狠狠五月综合天色拍 | 超碰在线观看av.com | 激情五月色播五月 | 免费成人在线视频网站 | 久草视频一区 | 91视频在线国产 | 91免费在线 | 久草在线官网 | 97人人模人人爽人人喊中文字 | 国内揄拍国产精品 | 在线观看国产永久免费视频 | 在线中文日韩 | 日韩aⅴ视频 | 成人精品99 | 东方av免费在线观看 | 久久精品老司机 | 日本中文字幕网站 | 日韩欧美高清在线 | 91成人精品国产刺激国语对白 | 一区二区成人国产精品 | 97在线免费| 欧美日韩视频在线播放 | 精品久久久久久久久久久久久久久久 | 在线精品视频免费播放 | 99精品视频在线看 | 婷婷久久一区二区三区 | 四川妇女搡bbbb搡bbbb搡 | 伊香蕉大综综综合久久啪 | 综合激情婷婷 | 亚洲欧美日本国产 | 国产1区在线观看 | 日日夜夜噜噜噜 | 久久久精品国产免费观看一区二区 | 亚洲精品国精品久久99热 | 嫩草91影院 | 亚洲最快最全在线视频 | 99久久www免费 | 国产黄色网 | 免费在线观看不卡av | 久热国产视频 | 91夜夜夜| 九九av | 中文字幕乱码电影 | 超碰在线人人爱 | 久久视屏网 | 久久久视频在线 | 啪啪免费观看网站 | 国产亚洲精品久久久久久网站 | 超碰午夜| 亚洲视频精品在线 | 欧美性色综合网站 | 深爱激情五月综合 | 亚洲理论视频 | 韩国三级在线一区 | 久久婷婷精品视频 | 免费看网站在线 | 欧美日韩大片在线观看 | 日韩视频一区二区三区 | 日日操天天操夜夜操 | 国产精品美女免费 | 在线免费91 | 最新中文字幕视频 | 久久超级碰 | 国产.精品.日韩.另类.中文.在线.播放 | av成人在线看 | 成片视频免费观看 | 国产精品久久视频 | 操老逼免费视频 | 日韩中文字幕第一页 | 亚洲国产精品第一区二区 | 人人精品| 久久dvd | 一区二区日韩av | 国产九色91 | 一区二区不卡视频在线观看 | 91在线视频免费 | 91亚洲夫妻 | 久久久国产一区二区 | 成年人在线观看网站 | 久久伦理电影 | 久久99爱视频 | 中文字幕在线观看资源 | 久久久久久国产精品999 | av中文字幕在线播放 | 五月婷婷操| 日韩欧美有码在线 | 久久午夜精品影院一区 | 成人黄色中文字幕 | 欧美国产一区二区 | 国产精品久久久久永久免费 | 在线免费观看羞羞视频 | 中文字幕在线播放一区二区 | 亚洲精品中文字幕视频 | 午夜精品区 | 欧美久久电影 | 久草视频精品 | 国产无遮挡又黄又爽馒头漫画 | 在线国产99 | 啪嗒啪嗒免费观看完整版 | 日韩在线高清视频 | 激情导航| 国产三级国产精品国产专区50 | 国产三级国产精品国产专区50 | 人人爽人人爽人人片 | 黄色毛片视频 | 国产精品video爽爽爽爽 | 日韩激情在线视频 | 免费观看日韩 | 国产美女网站视频 | 日日干夜夜干 | 中文字幕国产亚洲 | 伊人在线视频 | 日韩免费一级电影 | 亚洲综合在线观看视频 | 成人三级黄色 | 天天舔天天搞 | 亚洲成人黄色在线观看 | 午夜精品一区二区三区在线播放 | 欧美狠狠色| 免费看片亚洲 | jizz欧美性9 国产一区高清在线观看 | 一区二区精品久久 | 色婷婷视频在线观看 | 久久久久久久电影 | 国产精品午夜在线 | 日韩专区av | 欧美精品一区二区免费 | 91在线一区二区 | 一区二区三区av在线 | 在线观看视频一区二区三区 | 亚洲人在线 | 国产成本人视频在线观看 | 99精品视频播放 | 国产二区电影 | 中文字幕在线看视频国产中文版 | 天天射天天操天天色 | 91香蕉久久| 国产精品1区 | 久久视频这里有久久精品视频11 | 国产日韩精品在线 | 麻豆91视频 | 国产在线精品观看 | 国产高清在线视频 | 精品在线观 | 国产精品视频专区 | 国产一区二区免费在线观看 | 国产色资源 | 国产色道| 中文字幕 国产精品 | 天天操天天操天天操天天操天天操 | 中文字幕观看视频 | 亚洲精品www | 天天插天天色 | 成人久久18免费网站图片 | 热精品 | 玖玖精品视频 | 91黄视频在线 | 色94色欧美 | 亚洲精品乱码久久久久久蜜桃不爽 | 91丨九色丨国产在线 | 久草在线视频首页 | 韩国精品视频在线观看 | 99日韩精品 | 日韩在线视频国产 | 亚洲国产成人精品在线 | 国产69精品久久99不卡的观看体验 | 亚洲九九爱 | 伊人网站 | 国产成人免费精品 | 免费h漫在线观看 | 成人免费看电影 | 国产综合精品一区二区三区 | 国产成人三级一区二区在线观看一 | 高清色免费 | 亚洲精品男人天堂 | 免费久久网 | 日韩精品欧美视频 | 久久精品一 | 激情久久一区二区三区 | av在线免费网站 | 97福利在线观看 | 免费三级网 | 色婷婷中文 | 伊人狠狠 | 久久社区视频 | 国产99精品 | 国产综合精品一区二区三区 | 日韩av线观看 | 欧美超碰在线 | 婷婷激情在线 | 超碰激情在线 | 国产精品久久久久久久久久尿 | 国产永久免费观看 | 国产不卡免费 | 99久久精品国产一区 | 中文av网站 | 亚洲精品在线一区二区三区 | 婷婷六月天综合 | 欧美在线久久 | 国产一区欧美日韩 | 免费网站在线观看成人 | 久久久久久久久久久久国产精品 | 特级毛片爽www免费版 | 天天射天天干天天插 | 国产在线精品国自产拍影院 | 91在线视频在线观看 | 欧美伦理一区二区 | 91国内产香蕉 | 五月婷婷视频在线 | 亚洲v精品| 蜜臀91丨九色丨蝌蚪老版 | 久久怡红院 | 91精品啪啪| 一色av| 国产精品久久久久久麻豆一区 | 日韩专区一区二区 | 91中文视频 | 中文字幕在线免费观看视频 | 日韩中文字幕一区 | 2018亚洲男人天堂 | 精品国产理论片 | 国产精品久久久 | 久久99久久99免费视频 | 国产麻豆剧传媒免费观看 | 美女网站黄在线观看 | 日韩城人在线 | 亚洲电影av在线 | 日韩精品大片 | 久久精品免视看 | 丁香激情综合国产 | av免费电影网站 | 人人澡超碰碰97碰碰碰软件 | 黄色视屏在线免费观看 | 色综合久久88色综合天天人守婷 | 亚洲精品久久久久中文字幕m男 | 天天色天天艹 | 色婷婷激情电影 | 91精品啪在线观看国产线免费 | 亚洲另类xxxx | 久久精品成人欧美大片古装 | 久久爱资源网 | 最新av免费在线观看 | 中文字幕 二区 | 精品视频久久久久久 | 欧美日韩一区二区三区不卡 | 伊甸园永久入口www 99热 精品在线 | 国产成人333kkk | 黄色av一区| av黄色成人| 日本一区二区三区视频在线播放 | 国产九九九精品视频 | 久久免费视频这里只有精品 | 国产精品黄网站在线观看 | 中文字幕精品视频 | 99久久综合精品五月天 | 欧美精品中文在线免费观看 | 国产精品一区二区免费视频 | 99久久精品无码一区二区毛片 | 免费观看全黄做爰大片国产 | 99久久影院| 丁香视频全集免费观看 | 天天射天天干天天爽 | 成人黄色电影在线 | 五月色丁香 | 日日综合 | 最新在线你懂的 | 亚洲精品女人久久久 | 激情欧美网| 国产精品中文字幕在线播放 | 天天干天天做天天爱 | 97久久久免费福利网址 | 久久69精品久久久久久久电影好 | 亚洲精品网站在线 | 91精品久久久久久综合乱菊 | 亚洲在线视频观看 | 免费a网站 | 一区二区三区 中文字幕 | 欧美一进一出抽搐大尺度视频 | 亚洲一区二区麻豆 | 黄色精品在线看 | 久久综合狠狠综合久久狠狠色综合 | 夜夜操网| 亚洲人成网站精品片在线观看 | 亚洲精品免费在线观看 | 日韩美女久久 | 中文字幕在线中文 | 99免费在线 | 亚洲老妇xxxxxx| 深爱开心激情网 | 一区二区三区精品久久久 | 国产99久久久精品 | ww视频在线观看 | 色吊丝在线永久观看最新版本 | 亚洲女人av | 国产区在线看 | 久久另类视频 | 成年在线观看 | 国产成人精品一区二区三区网站观看 | 久久久国产精品免费 | 九九热在线视频免费观看 | 中文十次啦 | av免费观看网站 | 日韩电影在线视频 | 99久久99久久 | 2019中文最近的2019中文在线 | 亚州日韩中文字幕 | 亚洲人片在线观看 | 国产精品永久在线观看 | 久久观看最新视频 | 激情网第四色 | 国产高清视频免费最新在线 | 欧美色综合天天久久综合精品 | av激情五月 | 久久96国产精品久久99软件 | 欧美激情视频免费看 | 欧产日产国产69 | 福利电影一区二区 | 国产亚洲精品久久久久久电影 | 亚洲精品国产精品国 | 九九视频网站 | 亚洲区色| av在线com| 草 免费视频 | 97超碰色偷偷 | 国产人在线成免费视频 | 国产拍揄自揄精品视频麻豆 | 亚洲精品国产精品国产 | av黄色影院 | 天天综合网 天天 | 夜夜澡人模人人添人人看 | 2021国产精品 | 97国产在线视频 | 伊在线视频 | 久草免费新视频 | 精品专区一区二区 | 黄色大片国产 | 99久久婷婷国产综合精品 | 日韩av午夜在线观看 | 在线观看免费视频你懂的 | 97精品在线视频 | 一本之道乱码区 | 人人擦| 99久久日韩精品免费热麻豆美女 | 色婷婷狠狠18 | 中文字幕久久精品一区 | 成人免费观看完整版电影 | 欧美精品在线一区二区 | 黄色av一区二区 | 激情电影影院 | 中文字幕第一页在线视频 | 亚洲天天干 | 99在线观看免费视频精品观看 | 国产香蕉视频在线观看 | 99精品视频一区二区 | 国产精品乱码久久久久 | 在线观看免费福利 | 91欧美视频网站 | 中文字幕一区二区三区四区在线视频 | 亚洲精品免费播放 | 午夜精品成人一区二区三区 | 日韩久久精品一区 | 日韩av电影免费观看 | 九九视频在线播放 | 久久精品久久99精品久久 | 欧美精品久久久久久久 | 欧美a级成人淫片免费看 | 日韩精品一区二 | 国产视频资源在线观看 | 开心激情五月网 | 精品欧美乱码久久久久久 | 日韩精品久久久免费观看夜色 | 精品中文字幕在线播放 | 中文字幕第一页在线播放 | 国产精品aⅴ | 成人黄性视频 | 久久免费片 | 五月香婷 | 黄色片视频免费 | 国产精品手机在线 | av在线一级 | 天天干天天看 | 国产小视频你懂的 | 国产精品久久久久一区二区国产 | 日韩在线免费视频观看 | 国产精品专区在线观看 | 在线午夜| 黄网站大全 | 中文字幕亚洲精品在线观看 | 亚洲精品视频在线免费播放 | 久久久久伊人 | v片在线看 | 亚洲欧美日韩国产精品一区午夜 | 日韩精品最新在线观看 | 在线免费观看羞羞视频 | 国产黄色在线网站 | jizz欧美性9| 久久国产精品99久久久久久进口 | 成人在线视频观看 | 992tv在线成人免费观看 | 美女网站视频色 | 国产最顶级的黄色片在线免费观看 | 久久久久国产精品免费 | 国产亚洲精品久久久久久网站 | 激情综合五月 | 欧美一级特黄aaaaaa大片在线观看 | 日韩在线一区二区免费 | 97av视频 | 看av免费网站 | 美女很黄免费网站 | 五月天婷婷在线观看视频 | 成人在线观看影院 | 缴情综合网五月天 | 日韩免费看视频 | 免费成人黄色 | 黄色特级片 | av动态图片 | 日本中文字幕免费观看 | 日韩中文字幕免费电影 | 亚洲三级性片 | 天天操天天射天天 | 在线免费视频 你懂得 | 色视频在线免费观看 | 中文字幕乱偷在线 | 丁香色综合 | 视频 天天草 | 九色在线| 狠狠的干 | 亚洲高清91| 六月丁香综合网 | 一区二区观看 | 97av在线视频| 成年人黄色免费看 | 色综合天天视频在线观看 | 成人黄色小说在线观看 | 激情片av| 亚洲日韩中文字幕 | 久久久精华网 | 97超在线视频 | 夜夜骑天天操 | 亚洲成人精品久久 | 五月婷婷开心 | 人人草天天草 | 奇米影视8888在线观看大全免费 | 日韩国产欧美在线视频 | 国产精品精品国产 | 色综合久久久久综合99 | 久久综合精品国产一区二区三区 | 国产精品专区h在线观看 | 嫩模bbw搡bbbb搡bbbb | 欧美在线视频第一页 | 亚洲精品中文在线资源 | 中文字幕高清免费日韩视频在线 | 国产高清在线一区 | 免费在线观看av网站 | 二区视频在线 | 欧美a免费 | 91免费看黄色 | 日韩有色 | 日日日日 | 天天鲁天天干天天射 | 激情丁香5月 | 欧美在线视频一区二区三区 | 国产日韩一区在线 | 久久av影院| 精选久久| 国产大片黄色 | 精品影院一区二区久久久 | www一起操 | 国产亚洲永久域名 | 欧美激情精品久久久久久免费印度 | 久久久久久久国产精品影院 | 欧美xxxx性xxxxx高清 | 日韩免费在线观看视频 | 天天操福利视频 | 91麻豆.com| 国产精品欧美久久 | 香蕉影视在线观看 | 美女视频久久 | 欧美日韩3p | 亚洲 欧美变态 另类 综合 | 在线天堂v| 五月天天色 | 人人舔人人爽 | 18国产精品白浆在线观看免费 | 国产不卡一区二区视频 | 亚洲精品一区二区三区新线路 |