日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Anbox 实现分析 3:会话管理器与容器管理器的通信

發布時間:2024/4/11 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Anbox 实现分析 3:会话管理器与容器管理器的通信 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Anbox 通過一個可執行文件,實現多個不同的應該用邏輯。在啟動 Anbox 可執行文件時,通過為它提供不同的命令行參數來確定具體執行哪個命令。Anbox 中這些不同的命令實例之間,整體的通信架構如下圖這樣:

這些不同的命令實例之間通信的過程大體如下:

  • 容器管理器實例首先運行起來,監聽在特定位置的 Unix 域 Socket 上;
  • 隨后會話管理器啟動,監聽在另外的一些 Unix 域 Socket 上;
  • 會話管理器同時連接容器管理器監聽的 Unix 域 Socket 上的服務;
  • 會話管理器與容器管理器通過 Unix 域 Socket 成功建立連接之后,會話管理器向容器管理器發送命令,請求容器管理器啟動 Android 容器;
  • 容器管理器收到會話管理器發來的命令后,先給會話管理器一個響應,然后通過 LXC 啟動一個 Android 容器,并將會話管理器監聽的 Unix 域 Socket 的文件路徑映射進 Android 容器的 /dev/ 目錄下;
  • Android 容器啟動之后,容器內的 Android 進程,通過映射進來的 Unix 域 Socket 與會話管理器建立連接;
  • Android 容器啟動時,會話管理器與 ADB 守護進程建立連接;
  • Anbox 的 install 和 launch 命令主要用于對 Android 容器做一些控制,它們分別用于向 Android 容器中安裝應用程序 APK 以及啟動容器內的特定 Activity,它們通過 D-Bus 與會話管理器通信。

在 Anbox 中,會話管理器和容器管理器之間是比較重要的一條通信通道。會話管理器和容器管理器之間通過 Unix 域 Socket 進行通信,容器管理器監聽在特定位置的 Unix 域 Socket 上,會話管理器發起與容器管理器之間的連接,連接建立之后,兩者通過這條連接進行通信。

容器管理器接受 RPC 調用

代碼層面,在容器管理器一端,通過 anbox::container::Service 啟動對 Unix 域 Socket 的監聽。anbox::container::Service 的定義(位于anbox/src/anbox/container/service.h)如下:

namespace anbox { namespace container { class Service : public std::enable_shared_from_this<Service> {public:static std::shared_ptr<Service> create(const std::shared_ptr<Runtime> &rt, bool privileged);~Service();private:Service(const std::shared_ptr<Runtime> &rt, bool privileged);int next_id();void new_client(std::shared_ptr<boost::asio::local::stream_protocol::socket> const &socket);std::shared_ptr<common::Dispatcher> dispatcher_;std::shared_ptr<network::PublishedSocketConnector> connector_;std::atomic<int> next_connection_id_;std::shared_ptr<network::Connections<network::SocketConnection>> connections_;std::shared_ptr<Container> backend_;bool privileged_; }; } // namespace container } // namespace anbox

dispatcher_ 看起來沒有實際的用處。 anbox::container::Service 的實現(位于 anbox/src/anbox/container/service.cpp)如下:

namespace anbox { namespace container { std::shared_ptr<Service> Service::create(const std::shared_ptr<Runtime> &rt, bool privileged) {auto sp = std::shared_ptr<Service>(new Service(rt, privileged));auto wp = std::weak_ptr<Service>(sp);auto delegate_connector = std::make_shared<network::DelegateConnectionCreator<boost::asio::local::stream_protocol>>([wp](std::shared_ptr<boost::asio::local::stream_protocol::socket> const &socket) {if (auto service = wp.lock())service->new_client(socket);});const auto container_socket_path = SystemConfiguration::instance().container_socket_path();sp->connector_ = std::make_shared<network::PublishedSocketConnector>(container_socket_path, rt, delegate_connector);// Make sure others can connect to our socket::chmod(container_socket_path.c_str(), S_IRUSR | S_IWUSR | S_IRGRP | S_IWGRP | S_IROTH | S_IWOTH);DEBUG("Everything setup. Waiting for incoming connections.");return sp; }Service::Service(const std::shared_ptr<Runtime> &rt, bool privileged): dispatcher_(anbox::common::create_dispatcher_for_runtime(rt)),next_connection_id_(0),connections_(std::make_shared<network::Connections<network::SocketConnection>>()),privileged_(privileged) { }Service::~Service() {connections_->clear(); }int Service::next_id() { return next_connection_id_++; }void Service::new_client(std::shared_ptr<boost::asio::local::stream_protocol::socket> const&socket) {if (connections_->size() >= 1) {socket->close();return;}auto const messenger = std::make_shared<network::LocalSocketMessenger>(socket);DEBUG("Got connection from pid %d", messenger->creds().pid());auto pending_calls = std::make_shared<rpc::PendingCallCache>();auto rpc_channel = std::make_shared<rpc::Channel>(pending_calls, messenger);auto server = std::make_shared<container::ManagementApiSkeleton>(pending_calls, std::make_shared<LxcContainer>(privileged_, messenger->creds()));auto processor = std::make_shared<container::ManagementApiMessageProcessor>(messenger, pending_calls, server);auto const &connection = std::make_shared<network::SocketConnection>(messenger, messenger, next_id(), connections_, processor);connection->set_name("container-service");connections_->add(connection);connection->read_next_message(); } } // namespace container } // namespace anbox

在 anbox::container::Service 的構造函數中,通過 anbox::network::PublishedSocketConnector 及 anbox::network::DelegateConnectionCreator 等組件,啟動對 Unix 域 Socket 的監聽。Anbox 中處理 Unix 域 Socket 監聽的基本方法/模型,請參考 Anbox 實現分析 2:I/O 模型 一文中的相關部分。

anbox::container::Service 通過 anbox::network::Connections 和
anbox::network::SocketConnection 等管理新接受的連接,它限制只與一個會話管理器實例建立一條連接。anbox::container::Service 將處理收到的消息的組件 anbox::container::ManagementApiMessageProcessor 與底層的連接粘起來。

Anbox 的容器管理器和會話管理器通過基于 Protobuf 設計的 RPC 進行通信。anbox::container::Service 中處理收到的消息及接受 RPC 調用的相關組件的設計框架如下:

在 Anbox 的設計中,anbox::rpc::Channel 及 anbox::rpc::PendingCallCache 本來主要用于 RPC 調用發起端的消息收發,但在 anbox::container::Service::new_client() 中,同樣為新連接創建了這兩個類的對象,這顯得有點多次一舉。

anbox::container::Service 通過 anbox::network::SocketConnection 收到消息之后,首先交給 anbox::rpc::MessageProcessor 的 process_data() 處理。

anbox::rpc::MessageProcessor 的定義(位于 anbox/src/anbox/rpc/message_processor.h)如下:

class MessageProcessor : public network::MessageProcessor {public:MessageProcessor(const std::shared_ptr<network::MessageSender>& sender,const std::shared_ptr<PendingCallCache>& pending_calls);~MessageProcessor();bool process_data(const std::vector<std::uint8_t>& data) override;void send_response(::google::protobuf::uint32 id,google::protobuf::MessageLite* response);virtual void dispatch(Invocation const&) {}virtual void process_event_sequence(const std::string&) {}private:std::shared_ptr<network::MessageSender> sender_;std::vector<std::uint8_t> buffer_;std::shared_ptr<PendingCallCache> pending_calls_; };

anbox::rpc::MessageProcessor 的實現(位于 anbox/src/anbox/rpc/message_processor.cpp)如下:

MessageProcessor::MessageProcessor(const std::shared_ptr<network::MessageSender> &sender,const std::shared_ptr<PendingCallCache> &pending_calls): sender_(sender), pending_calls_(pending_calls) {}MessageProcessor::~MessageProcessor() {}bool MessageProcessor::process_data(const std::vector<std::uint8_t> &data) {for (const auto &byte : data) buffer_.push_back(byte);while (buffer_.size() > 0) {const auto high = buffer_[0];const auto low = buffer_[1];size_t const message_size = (high << 8) + low;const auto message_type = buffer_[2];// If we don't have yet all bytes for a new message return and wait// until we have all.if (buffer_.size() - header_size < message_size) break;if (message_type == MessageType::invocation) {anbox::protobuf::rpc::Invocation raw_invocation;raw_invocation.ParseFromArray(buffer_.data() + header_size, message_size);dispatch(Invocation(raw_invocation));} else if (message_type == MessageType::response) {auto result = make_protobuf_object<protobuf::rpc::Result>();result->ParseFromArray(buffer_.data() + header_size, message_size);if (result->has_id()) {pending_calls_->populate_message_for_result(*result,[&](google::protobuf::MessageLite *result_message) {result_message->ParseFromString(result->response());});pending_calls_->complete_response(*result);}for (int n = 0; n < result->events_size(); n++)process_event_sequence(result->events(n));}buffer_.erase(buffer_.begin(),buffer_.begin() + header_size + message_size);}return true; }void MessageProcessor::send_response(::google::protobuf::uint32 id,google::protobuf::MessageLite *response) {VariableLengthArray<serialization_buffer_size> send_response_buffer(static_cast<size_t>(response->ByteSize()));response->SerializeWithCachedSizesToArray(send_response_buffer.data());anbox::protobuf::rpc::Result send_response_result;send_response_result.set_id(id);send_response_result.set_response(send_response_buffer.data(),send_response_buffer.size());send_response_buffer.resize(send_response_result.ByteSize());send_response_result.SerializeWithCachedSizesToArray(send_response_buffer.data());const size_t size = send_response_buffer.size();const unsigned char header_bytes[header_size] = {static_cast<unsigned char>((size >> 8) & 0xff),static_cast<unsigned char>((size >> 0) & 0xff), MessageType::response,};std::vector<std::uint8_t> send_buffer(sizeof(header_bytes) + size);std::copy(header_bytes, header_bytes + sizeof(header_bytes),send_buffer.begin());std::copy(send_response_buffer.data(),send_response_buffer.data() + send_response_buffer.size(),send_buffer.begin() + sizeof(header_bytes));sender_->send(reinterpret_cast<const char *>(send_buffer.data()),send_buffer.size()); }

在會話管理器與容器管理器之間的 RPC 通信中,anbox::rpc::MessageProcessor 是一個同時用于 RPC 調用發起端和接受端的組件。容器管理器作為 RPC 調用的接受端,接收發自于會話管理器的類型為 MessageType::invocation 的消息。

會話管理器與容器管理器之間的 RPC 通信的消息格式為:[3 個字節的消息頭] + [經由 Protobuf MessageLite 對象序列化得到的消息體],其中消息頭的前兩個字節為 16 位的消息體長度的大尾端表示,第 3 個字節為消息的類型。RPC 消息的具體定義在 anbox/src/anbox/protobuf/anbox_rpc.proto 文件中:

option optimize_for = LITE_RUNTIME;package anbox.protobuf.rpc;message Invocation {required uint32 id = 1;required string method_name = 2;required bytes parameters = 3;required uint32 protocol_version = 4; }message Result {optional uint32 id = 1;optional bytes response = 2;repeated bytes events = 3; }message StructuredError {optional uint32 domain = 1;optional uint32 code = 2; }message Void {optional string error = 127;optional StructuredError structured_error = 128; }

Invocation 消息用于發起 RPC 調用,Result、Void 和 StructuredError 用于返回響應或錯誤消息。

對于容器管理器而言,anbox::rpc::MessageProcessor 在其 process_data() 中首先提取消息頭,得到消息體的長度和類型,然后提取消息體并反序列化得到 Protobuf 消息 anbox::protobuf::rpc::Invocation,隨后將該 Protobuf 消息封裝為 anbox::rpc::Invocation 類的對象,并調用 dispatch(Invocation const&) 將消息派發出去。

anbox::rpc::Invocation 類的定義(位于 anbox/src/anbox/rpc/message_processor.h 中)如下:

class Invocation {public:Invocation(anbox::protobuf::rpc::Invocation const& invocation): invocation_(invocation) {}const ::std::string& method_name() const;const ::std::string& parameters() const;google::protobuf::uint32 id() const;private:anbox::protobuf::rpc::Invocation const& invocation_; };

anbox::rpc::Invocation 類的實現(位于 anbox/src/anbox/rpc/message_processor.cpp 中)如下:

const ::std::string &Invocation::method_name() const {return invocation_.method_name(); }const ::std::string &Invocation::parameters() const {return invocation_.parameters(); }google::protobuf::uint32 Invocation::id() const { return invocation_.id(); }

anbox::rpc::Invocation 類只是對 anbox::protobuf::rpc::Invocation 的簡單包裝。

anbox::rpc::MessageProcessor 的 dispatch(Invocation const&) 是一個虛函數,其實際的實現位于 ManagementApiMessageProcessor 中。anbox::container::ManagementApiMessageProcessor 的定義(位于 anbox/src/anbox/container/management_api_message_processor.h 中)如下:

namespace anbox { namespace container { class ManagementApiSkeleton; class ManagementApiMessageProcessor : public rpc::MessageProcessor {public:ManagementApiMessageProcessor(const std::shared_ptr<network::MessageSender> &sender,const std::shared_ptr<rpc::PendingCallCache> &pending_calls,const std::shared_ptr<ManagementApiSkeleton> &server);~ManagementApiMessageProcessor();void dispatch(rpc::Invocation const &invocation) override;void process_event_sequence(const std::string &event) override;private:std::shared_ptr<ManagementApiSkeleton> server_; }; } // namespace container } // namespace anbox

anbox::container::ManagementApiMessageProcessor 的實現(位于 anbox/src/anbox/container/management_api_message_processor.cpp 中)如下:

namespace anbox { namespace container { ManagementApiMessageProcessor::ManagementApiMessageProcessor(const std::shared_ptr<network::MessageSender> &sender,const std::shared_ptr<rpc::PendingCallCache> &pending_calls,const std::shared_ptr<ManagementApiSkeleton> &server): rpc::MessageProcessor(sender, pending_calls), server_(server) {}ManagementApiMessageProcessor::~ManagementApiMessageProcessor() {}void ManagementApiMessageProcessor::dispatch(rpc::Invocation const &invocation) {if (invocation.method_name() == "start_container")invoke(this, server_.get(), &ManagementApiSkeleton::start_container, invocation);else if (invocation.method_name() == "stop_container")invoke(this, server_.get(), &ManagementApiSkeleton::stop_container, invocation); }void ManagementApiMessageProcessor::process_event_sequence(const std::string &) {} } // namespace container } // namespace anbox

anbox::container::ManagementApiMessageProcessor 的實現很簡單,只支持兩種 RPC 調用,分別為啟動 Android 容器和停止 Android 容器,在它的 dispatch() 函數中,根據方法名,調用對應的函數。

函數調用通過一個函數模板 invoke() 完成,該函數模板定義(位于 anbox/src/anbox/rpc/template_message_processor.h)如下:

namespace anbox { namespace rpc { // Utility metafunction result_ptr_t<> allows invoke() to pick the right // send_response() overload. The base template resolves to the prototype // "send_response(::google::protobuf::uint32 id, ::google::protobuf::Message* // response)" // Client code may specialize result_ptr_t to resolve to another overload. template <typename ResultType> struct result_ptr_t {typedef ::google::protobuf::MessageLite* type; };// Boiler plate for unpacking a parameter message, invoking a server function, // and // sending the result message. Assumes the existence of Self::send_response(). template <class Self, class Bridge, class BridgeX, class ParameterMessage,class ResultMessage> void invoke(Self* self, Bridge* rpc,void (BridgeX::*function)(ParameterMessage const* request,ResultMessage* response,::google::protobuf::Closure* done),Invocation const& invocation) {ParameterMessage parameter_message;if (!parameter_message.ParseFromString(invocation.parameters()))throw std::runtime_error("Failed to parse message parameters!");ResultMessage result_message;try {std::unique_ptr<google::protobuf::Closure> callback(google::protobuf::NewPermanentCallback<Self, ::google::protobuf::uint32,typename result_ptr_t<ResultMessage>::type>(self, &Self::send_response, invocation.id(), &result_message));(rpc->*function)(&parameter_message, &result_message, callback.get());} catch (std::exception const& x) {result_message.set_error(std::string("Error processing request: ") +x.what());self->send_response(invocation.id(), &result_message);} } } // namespace rpc } // namespace anbox

直接啟動和停止 Android 容器的職責,由 anbox::container::ManagementApiSkeleton 完成,這個類的定義(位于 anbox/src/anbox/container/management_api_skeleton.h)如下:

class Container; class ManagementApiSkeleton {public:ManagementApiSkeleton(const std::shared_ptr<rpc::PendingCallCache> &pending_calls,const std::shared_ptr<Container> &container);~ManagementApiSkeleton();void start_container(anbox::protobuf::container::StartContainer const *request,anbox::protobuf::rpc::Void *response, google::protobuf::Closure *done);void stop_container(anbox::protobuf::container::StopContainer const *request,anbox::protobuf::rpc::Void *response, google::protobuf::Closure *done);private:std::shared_ptr<rpc::PendingCallCache> pending_calls_;std::shared_ptr<Container> container_; };

這個類的定義很簡單,其實現(位于 anbox/src/anbox/container/management_api_skeleton.cpp)如下:

namespace anbox { namespace container { ManagementApiSkeleton::ManagementApiSkeleton(const std::shared_ptr<rpc::PendingCallCache> &pending_calls,const std::shared_ptr<Container> &container): pending_calls_(pending_calls), container_(container) {}ManagementApiSkeleton::~ManagementApiSkeleton() {}void ManagementApiSkeleton::start_container(anbox::protobuf::container::StartContainer const *request,anbox::protobuf::rpc::Void *response, google::protobuf::Closure *done) {if (container_->state() == Container::State::running) {response->set_error("Container is already running");done->Run();return;}Configuration container_configuration;const auto configuration = request->configuration();for (int n = 0; n < configuration.bind_mounts_size(); n++) {const auto bind_mount = configuration.bind_mounts(n);container_configuration.bind_mounts.insert({bind_mount.source(), bind_mount.target()});}try {container_->start(container_configuration);} catch (std::exception &err) {response->set_error(utils::string_format("Failed to start container: %s", err.what()));}done->Run(); }void ManagementApiSkeleton::stop_container(anbox::protobuf::container::StopContainer const *request,anbox::protobuf::rpc::Void *response, google::protobuf::Closure *done) {(void)request;if (container_->state() != Container::State::running) {response->set_error("Container is not running");done->Run();return;}try {container_->stop();} catch (std::exception &err) {response->set_error(utils::string_format("Failed to stop container: %s", err.what()));}done->Run(); } } // namespace container } // namespace anbox

anbox::container::ManagementApiSkeleton 通過 Container 類啟動或停止 Android 容器。配合函數模板 invoke() 的定義,及 Protobuf 的相關方法實現,不難理解, start_container() 和 stop_container() 函數的參數消息,在 invoke() 函數中由 Invocation 消息的參數字段的字節數組反序列化得到,這兩個函數的執行過程,都是向 response 參數中填入返回給調用者的響應,并通過 done->Run() 將響應通過 ManagementApiMessageProcessor::send_response() 函數,即
anbox::rpc::MessageProcessor::send_response() 函數發送回調用端。

在 anbox::rpc::MessageProcessor::send_response() 函數中,先將響應序列化,然后將序列化之后的響應放進 anbox::protobuf::rpc::Result Protobuf 消息中,最后再將 anbox::protobuf::rpc::Result 包裝為 Anbox 的 RPC 消息發送回調用端。

anbox::container::ManagementApiSkeleton 的 pending_calls_ 似乎也沒有實際的用處。

至此整個 RPC 調用接受處理流程結束。整個流程如下圖所示:

會話管理器發起 RPC 調用

在 Anbox 的會話管理器中,通過 anbox::container::Client 發起與容器管理器之間的連接,并處理雙方之間的 RPC 通信,這個類的定義(位于 anbox/src/anbox/container/client.h)如下:

class Client {public:typedef std::function<void()> TerminateCallback;Client(const std::shared_ptr<Runtime> &rt);~Client();void start(const Configuration &configuration);void stop();void register_terminate_handler(const TerminateCallback &callback);private:void read_next_message();void on_read_size(const boost::system::error_code &ec,std::size_t bytes_read);std::shared_ptr<network::LocalSocketMessenger> messenger_;std::shared_ptr<rpc::PendingCallCache> pending_calls_;std::shared_ptr<rpc::Channel> rpc_channel_;std::shared_ptr<ManagementApiStub> management_api_;std::shared_ptr<rpc::MessageProcessor> processor_;std::array<std::uint8_t, 8192> buffer_;TerminateCallback terminate_callback_; };

anbox::container::Client 主要向外部暴露了兩個接口,一是啟動容器,二是停止容器,SessionManager 通過這兩個接口來控制容器的啟動與停止。anbox::container::Client 類的實現(位于 anbox/src/anbox/container/client.cpp)如下:

Client::Client(const std::shared_ptr<Runtime> &rt): messenger_(std::make_shared<network::LocalSocketMessenger>(SystemConfiguration::instance().container_socket_path(), rt)),pending_calls_(std::make_shared<rpc::PendingCallCache>()),rpc_channel_(std::make_shared<rpc::Channel>(pending_calls_, messenger_)),management_api_(std::make_shared<ManagementApiStub>(rpc_channel_)),processor_(std::make_shared<rpc::MessageProcessor>(messenger_, pending_calls_)) {read_next_message(); }Client::~Client() {}void Client::start(const Configuration &configuration) {try {management_api_->start_container(configuration);} catch (const std::exception &e) {ERROR("Failed to start container: %s", e.what());if (terminate_callback_)terminate_callback_();} }void Client::stop() {management_api_->stop_container(); }void Client::register_terminate_handler(const TerminateCallback &callback) {terminate_callback_ = callback; }void Client::read_next_message() {auto callback = std::bind(&Client::on_read_size, this, std::placeholders::_1,std::placeholders::_2);messenger_->async_receive_msg(callback, ba::buffer(buffer_)); }void Client::on_read_size(const boost::system::error_code &error,std::size_t bytes_read) {if (error) {if (terminate_callback_)terminate_callback_();return;}std::vector<std::uint8_t> data(bytes_read);std::copy(buffer_.data(), buffer_.data() + bytes_read, data.data());if (processor_->process_data(data)) read_next_message(); }

anbox::container::Client 類在其構造函數中,即通過 Unix 域 Socket 建立了與容器管理器的連接,它通過 ManagementApiStub 發起 RPC 調用。ManagementApiStub 是容器管理器與會話管理器間 RPC 進程間通信在 RPC 調用發起端的接口層,它提供了 啟動 Android 容器關閉 Android 容器 這樣的抽象。在 ManagementApiStub 之下,是容器管理器與會話管理器間 RPC 進程間通信的 RPC 層,即 anbox::rpc::Channel,主要用于處理消息的發送。

anbox::container::Client 類本身處理連接中原始數據的接收,這里直接用了裸 SocketMessenger,而沒有再用 SocketConnection 封裝。anbox::container::Client 收到數據之后,會將數據丟給 anbox::rpc::MessageProcessor 處理。類型為anbox::rpc::PendingCallCache 的 pending_calls_ 主要用于處理 RPC 的異步調用。在 anbox::rpc::Channel 中,消息發送之后,并不會等待響應的接收,而是在 pending_calls_ 中為 RPC 調用注冊一個完成回調。在 anbox::rpc::MessageProcessor 中收到響應的消息之后,前面的完成回調被調用,RPC 調用的發起者得到通知。

anbox::container::Client 中處理 RPC 調用的發起的相關組件的設計框架如下:

anbox::container::Client 直接使用 anbox::container::ManagementApiStub 執行 RPC 調用,這個類的定義(位于 anbox/src/anbox/container/management_api_stub.h)如下:

class ManagementApiStub : public DoNotCopyOrMove {public:ManagementApiStub(const std::shared_ptr<rpc::Channel> &channel);~ManagementApiStub();void start_container(const Configuration &configuration);void stop_container();private:template <typename Response>struct Request {Request() : response(std::make_shared<Response>()), success(true) {}std::shared_ptr<Response> response;bool success;common::WaitHandle wh;};void container_started(Request<protobuf::rpc::Void> *request);void container_stopped(Request<protobuf::rpc::Void> *request);mutable std::mutex mutex_;std::shared_ptr<rpc::Channel> channel_; };

anbox::container::ManagementApiStub 定義了啟動容器和停止容器的接口,并定義了容器啟動完成和容器停止完成之后的回調,它還定義了 Request 類,用于封裝請求的響應,及一個 WaitHandle。WaitHandle 由 RPC 調用的發起端用于等待請求的結束。

anbox::container::ManagementApiStub 類的實現(位于 anbox/src/anbox/container/management_api_stub.cpp)如下:

ManagementApiStub::ManagementApiStub(const std::shared_ptr<rpc::Channel> &channel): channel_(channel) {}ManagementApiStub::~ManagementApiStub() {}void ManagementApiStub::start_container(const Configuration &configuration) {auto c = std::make_shared<Request<protobuf::rpc::Void>>();protobuf::container::StartContainer message;auto message_configuration = new protobuf::container::Configuration;for (const auto &item : configuration.bind_mounts) {auto bind_mount_message = message_configuration->add_bind_mounts();bind_mount_message->set_source(item.first);bind_mount_message->set_target(item.second);}message.set_allocated_configuration(message_configuration);{std::lock_guard<decltype(mutex_)> lock(mutex_);c->wh.expect_result();}channel_->call_method("start_container", &message, c->response.get(),google::protobuf::NewCallback(this, &ManagementApiStub::container_started, c.get()));c->wh.wait_for_all();if (c->response->has_error()) throw std::runtime_error(c->response->error()); }void ManagementApiStub::container_started(Request<protobuf::rpc::Void> *request) {request->wh.result_received(); }void ManagementApiStub::stop_container() {auto c = std::make_shared<Request<protobuf::rpc::Void>>();protobuf::container::StopContainer message;message.set_force(false);{std::lock_guard<decltype(mutex_)> lock(mutex_);c->wh.expect_result();}channel_->call_method("stop_container", &message, c->response.get(),google::protobuf::NewCallback(this, &ManagementApiStub::container_stopped, c.get()));c->wh.wait_for_all();if (c->response->has_error()) throw std::runtime_error(c->response->error()); }void ManagementApiStub::container_stopped(Request<protobuf::rpc::Void> *request) {request->wh.result_received(); }

盡管實際的 RPC 調用是異步的,但 anbox::container::ManagementApiStub 類通過條件變量為其調用者提供了一種同步執行的假象。啟動容器和停止容器的行為通過另外的 Protobuf 消息來描述,這些消息的定義(位于 anbox/src/anbox/protobuf/anbox_container.proto)如下:

package anbox.protobuf.container;message Configuration {message BindMount {required string source = 1;required string target = 2;}repeated BindMount bind_mounts = 1; }message StartContainer {required Configuration configuration = 1; }message StopContainer {optional bool force = 1; }

在 ManagementApiStub::start_container() 和 ManagementApiStub::stop_container() 函數中,將參數封裝進對應的 Protobuf 消息中,然后更新 Request 的 WaitHandle 中用于表示期待接收到的響應的狀態,隨后通過 anbox::rpc::Channel 發起 RPC 調用并注冊完成回調,最后等待在 Request 的 WaitHandle 上。

啟動容器和停止容器的 RPC 調用完成之后,對應的回調被調用,它們通過相應的請求的 WaitHandle 通知調用結束,ManagementApiStub::start_container() 和 ManagementApiStub::stop_container() 函數返回。

ManagementApiStub 的設計實際上有幾處問題。首先是定義的 mutex_ 成員,看上去毫無意義;其次是等待的方法 wait_for_all(),這個函數會一直等待條件成立,如果容器管理器進程意外終止,或者由于其它什么原因,無法給會話管理器發回響應消息,則會話管理器會一直等在那里無法結束,正確的做法應該用有超時的等待,等待一段時間之后,就假設啟動容器失敗,并退出。

可以看一下 WaitHandle 的設計與實現。這個類的定義(位于 anbox/src/anbox/common/wait_handle.h)如下:

namespace anbox { namespace common { struct WaitHandle {public:WaitHandle();~WaitHandle();void expect_result();void result_received();void wait_for_all();void wait_for_one();void wait_for_pending(std::chrono::milliseconds limit);bool has_result();bool is_pending();private:std::mutex guard;std::condition_variable wait_condition;int expecting;int received; }; } // namespace common } // namespace anbox

WaitHandle 封裝標準庫的 std::mutex 和 std::condition_variable 來構造等待設施。這個類的實現(位于 anbox/src/anbox/common/wait_handle.cpp)如下:

namespace anbox { namespace common { WaitHandle::WaitHandle(): guard(), wait_condition(), expecting(0), received(0) {}WaitHandle::~WaitHandle() {}void WaitHandle::expect_result() {std::lock_guard<std::mutex> lock(guard);expecting++; }void WaitHandle::result_received() {std::lock_guard<std::mutex> lock(guard);received++;wait_condition.notify_all(); }void WaitHandle::wait_for_all() // wait for all results you expect {std::unique_lock<std::mutex> lock(guard);wait_condition.wait(lock, [&] { return received == expecting; });received = 0;expecting = 0; }void WaitHandle::wait_for_pending(std::chrono::milliseconds limit) {std::unique_lock<std::mutex> lock(guard);wait_condition.wait_for(lock, limit, [&] { return received == expecting; }); }void WaitHandle::wait_for_one() // wait for any single result {std::unique_lock<std::mutex> lock(guard);wait_condition.wait(lock, [&] { return received != 0; });--received;--expecting; }bool WaitHandle::has_result() {std::lock_guard<std::mutex> lock(guard);return received > 0; }bool WaitHandle::is_pending() {std::unique_lock<std::mutex> lock(guard);return expecting > 0 && received != expecting; } } // namespace common } // namespace anbox

需要等待的一端,通過調用 expect_result() 來告訴 WaitHandle,需要等待多接收一個響應,并通過 wait_for_all()、wait_for_pending() 和 wait_for_one() 來等待結果的出現。處理收到的消息的線程,通過 result_received() 通知等待的線程。

anbox::rpc::PendingCallCache 是一個容器,用于保存已經發送了請求消息,已經發起但還沒有得到響應的 RPC 調用的描述及完成回調,這個類的定義(位于 anbox/src/anbox/rpc/pending_call_cache.h)如下:

class PendingCallCache {public:PendingCallCache();void save_completion_details(anbox::protobuf::rpc::Invocation const &invocation,google::protobuf::MessageLite *response,google::protobuf::Closure *complete);void populate_message_for_result(anbox::protobuf::rpc::Result &result,std::function<void(google::protobuf::MessageLite *)> const &populator);void complete_response(anbox::protobuf::rpc::Result &result);void force_completion();bool empty() const;private:struct PendingCall {PendingCall(google::protobuf::MessageLite *response,google::protobuf::Closure *target): response(response), complete(target) {}PendingCall() : response(0), complete() {}google::protobuf::MessageLite *response;google::protobuf::Closure *complete;};std::mutex mutable mutex_;std::map<int, PendingCall> pending_calls_; }; } // namespace rpc } // namespace anbox

anbox::rpc::PendingCallCache 類還定義一個 PendingCall 用于封裝請求的響應對象及完成回調,它用一個 map 保存 PendingCall,由于需要在 anbox::rpc::MessageProcessor::process_data() 和 anbox::rpc::Channel 的線程中訪問,為了線程安全計,每次訪問都有鎖進行保護。

anbox::rpc::PendingCallCache 類的實現(位于 anbox/src/anbox/rpc/pending_call_cache.cpp)如下:

namespace anbox { namespace rpc { PendingCallCache::PendingCallCache() {}void PendingCallCache::save_completion_details(anbox::protobuf::rpc::Invocation const& invocation,google::protobuf::MessageLite* response,google::protobuf::Closure* complete) {std::unique_lock<std::mutex> lock(mutex_);pending_calls_[invocation.id()] = PendingCall(response, complete); }void PendingCallCache::populate_message_for_result(anbox::protobuf::rpc::Result& result,std::function<void(google::protobuf::MessageLite*)> const& populator) {std::unique_lock<std::mutex> lock(mutex_);populator(pending_calls_.at(result.id()).response); }void PendingCallCache::complete_response(anbox::protobuf::rpc::Result& result) {PendingCall completion;{std::unique_lock<std::mutex> lock(mutex_);auto call = pending_calls_.find(result.id());if (call != pending_calls_.end()) {completion = call->second;pending_calls_.erase(call);}}if (completion.complete) completion.complete->Run(); }void PendingCallCache::force_completion() {std::unique_lock<std::mutex> lock(mutex_);for (auto& call : pending_calls_) {auto& completion = call.second;completion.complete->Run();}pending_calls_.erase(pending_calls_.begin(), pending_calls_.end()); }bool PendingCallCache::empty() const {std::unique_lock<std::mutex> lock(mutex_);return pending_calls_.empty(); } } // namespace rpc } // namespace anbox

save_completion_details() 用于向 anbox::rpc::PendingCallCache 中放入調用,populate_message_for_result() 用于把返回的響應消息塞給調用,complete_response() 則用于通知結果的返回,調用對應的完成回調。

anbox::rpc::Channel 用于序列化消息,并發送出去,其定義(位于 anbox/src/anbox/rpc/channel.h)如下:

class Channel {public:Channel(const std::shared_ptr<PendingCallCache> &pending_calls,const std::shared_ptr<network::MessageSender> &sender);~Channel();void call_method(std::string const &method_name,google::protobuf::MessageLite const *parameters,google::protobuf::MessageLite *response,google::protobuf::Closure *complete);void send_event(google::protobuf::MessageLite const &event);private:protobuf::rpc::Invocation invocation_for(std::string const &method_name,google::protobuf::MessageLite const *request);void send_message(const std::uint8_t &type,google::protobuf::MessageLite const &message);std::uint32_t next_id();void notify_disconnected();std::shared_ptr<PendingCallCache> pending_calls_;std::shared_ptr<network::MessageSender> sender_;std::mutex write_mutex_; };

anbox::rpc::Channel 負責為每個調用消息分配 ID。anbox::rpc::Channel 實現(位于 anbox/src/anbox/rpc/channel.cpp)如下:

namespace anbox { namespace rpc { Channel::Channel(const std::shared_ptr<PendingCallCache> &pending_calls,const std::shared_ptr<network::MessageSender> &sender): pending_calls_(pending_calls), sender_(sender) {}Channel::~Channel() {}void Channel::call_method(std::string const &method_name,google::protobuf::MessageLite const *parameters,google::protobuf::MessageLite *response,google::protobuf::Closure *complete) {auto const &invocation = invocation_for(method_name, parameters);pending_calls_->save_completion_details(invocation, response, complete);send_message(MessageType::invocation, invocation); }void Channel::send_event(google::protobuf::MessageLite const &event) {VariableLengthArray<2048> buffer{static_cast<size_t>(event.ByteSize())};event.SerializeWithCachedSizesToArray(buffer.data());anbox::protobuf::rpc::Result response;response.add_events(buffer.data(), buffer.size());send_message(MessageType::response, response); }protobuf::rpc::Invocation Channel::invocation_for(std::string const &method_name,google::protobuf::MessageLite const *request) {anbox::VariableLengthArray<2048> buffer{static_cast<size_t>(request->ByteSize())};request->SerializeWithCachedSizesToArray(buffer.data());anbox::protobuf::rpc::Invocation invoke;invoke.set_id(next_id());invoke.set_method_name(method_name);invoke.set_parameters(buffer.data(), buffer.size());invoke.set_protocol_version(1);return invoke; }void Channel::send_message(const std::uint8_t &type,google::protobuf::MessageLite const &message) {const size_t size = message.ByteSize();const unsigned char header_bytes[header_size] = {static_cast<unsigned char>((size >> 8) & 0xff),static_cast<unsigned char>((size >> 0) & 0xff), type,};std::vector<std::uint8_t> send_buffer(sizeof(header_bytes) + size);std::copy(header_bytes, header_bytes + sizeof(header_bytes),send_buffer.begin());message.SerializeToArray(send_buffer.data() + sizeof(header_bytes), size);try {std::lock_guard<std::mutex> lock(write_mutex_);sender_->send(reinterpret_cast<const char *>(send_buffer.data()),send_buffer.size());} catch (std::runtime_error const &) {notify_disconnected();throw;} }void Channel::notify_disconnected() { pending_calls_->force_completion(); }std::uint32_t Channel::next_id() {static std::uint32_t next_message_id = 0;return next_message_id++; } } // namespace rpc } // namespace anbox

call_method() 用于發起 RPC 調用,這個函數將 RPC 調用描述及完成回調保存進 pending_calls_ 中,隨后發送消息。anbox::rpc::Channel 主要在操作 Protobuf 消息的序列化,此處不再贅述。

可以再看一下 RPC 調用發起端收到響應消息時的處理,主要是 anbox::rpc::MessageProcessor 的下面這一段(位于 anbox/src/anbox/rpc/message_processor.cpp):

} else if (message_type == MessageType::response) {auto result = make_protobuf_object<protobuf::rpc::Result>();result->ParseFromArray(buffer_.data() + header_size, message_size);if (result->has_id()) {pending_calls_->populate_message_for_result(*result,[&](google::protobuf::MessageLite *result_message) {result_message->ParseFromString(result->response());});pending_calls_->complete_response(*result);}for (int n = 0; n < result->events_size(); n++)process_event_sequence(result->events(n));}buffer_.erase(buffer_.begin(),buffer_.begin() + header_size + message_size);}

這段代碼將響應消息塞給 pending_calls_ 中保存的對應的 Invocation,并調用完成回調。

Anbox 中會話管理器與容器管理器通過兩個 RPC 調用進行通信,在調用發起端的整個處理過程如下圖:

Done。

總結

以上是生活随笔為你收集整理的Anbox 实现分析 3:会话管理器与容器管理器的通信的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产午夜小视频 | 国产高清免费在线播放 | 国产福利网站 | 久久久久亚洲精品中文字幕 | 亚洲欧美日韩国产一区二区 | 久久久久久久久久久久久影院 | 日韩艹| 日韩二区在线播放 | 亚洲91中文字幕无线码三区 | 五月天综合激情 | 日韩成人黄色 | 啪啪动态视频 | 国产精品第 | 日韩视频一区二区 | 日韩视 | 色综合天天综合 | 韩国av电影在线观看 | 欧美日韩中文字幕综合视频 | 日韩v在线91成人自拍 | 人人狠狠综合久久亚洲 | 日韩精品一区二区三区高清免费 | 欧美地下肉体性派对 | 亚洲国产人午在线一二区 | 97理论片| 九九九视频在线 | av免费在线网 | 色小说在线 | 国产日韩欧美在线播放 | 一级黄色大片在线观看 | 免费在线观看视频一区 | 国产精品久久久久久久久蜜臀 | av色一区 | 久久久久久久久久久影院 | 一区二区欧美日韩 | 国产一区在线视频播放 | 成人黄性视频 | av中文电影| 视频在线精品 | 成人免费网视频 | 最近中文字幕在线播放 | 精品91 | 91黄视频在线观看 | 日日躁夜夜躁xxxxaaaa | 国产色爽 | 美女福利视频 | 国产精品一区二区免费在线观看 | 亚洲女欲精品久久久久久久18 | 国产精品mv在线观看 | 亚洲精色 | 国产手机精品视频 | 色天天综合久久久久综合片 | 午夜婷婷在线播放 | 国产精品国产三级国产aⅴ无密码 | 手机av电影在线观看 | 欧美一级片在线播放 | 亚洲精品男人天堂 | 麻豆国产精品视频 | 日韩精品一区电影 | 麻豆久久一区二区 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产成人精品亚洲精品 | 成人国产精品av | 久久夜色精品国产亚洲aⅴ 91chinesexxx | 91精品国产综合久久福利不卡 | 欧美日韩性 | 高清中文字幕av | 久草在线资源免费 | 亚洲人成人在线 | 精品在线观看一区二区 | 日韩在线国产精品 | 西西大胆啪啪 | 九色视频网站 | 中文字幕av网站 | 91在线精品秘密一区二区 | www.xxxx欧美 | 欧美做受高潮1 | 久久久免费播放 | 欧美日本不卡视频 | 欧美日韩免费一区 | 婷婷午夜 | 日日夜夜干 | 99色| 午夜视频在线观看欧美 | 99久久夜色精品国产亚洲 | 亚洲综合网 | 黄色成人av| 一级成人免费视频 | 中文字幕中文字幕中文字幕 | 在线观看a视频 | 在线观看视频黄色 | 狠狠久久| 免费观看福利视频 | 成人免费视频观看 | 精品国产理论片 | 六月婷操| 91成人精品 | 欧美人zozo| 久久久久久久久综合 | 久草在线这里只有精品 | 国产最新视频在线观看 | 毛片精品免费在线观看 | 性色av一区二区三区在线观看 | 手机在线小视频 | 国产黄色免费观看 | japanesefreesexvideo高潮 | 亚洲午夜久久久久久久久电影网 | 国产高清免费av | 免费黄色在线播放 | 成人av动漫在线 | 日本久久成人 | 久久精品综合 | 日韩欧美电影在线 | 国产精品原创av片国产免费 | 丝袜制服天堂 | 成人av影院在线观看 | 久久韩国免费视频 | 日韩精品久久久久久久电影竹菊 | 天天干,天天干 | 国产一及片 | 色九九视频| 999电影免费在线观看 | 国产精品视频永久免费播放 | 国产精品一二三 | 99爱在线 | 国产精品久久久久高潮 | 国产精品高清一区二区三区 | 国产精品亚| 99色在线播放| 日日操夜夜操狠狠操 | 亚洲aⅴ乱码精品成人区 | 手机av永久免费 | 日韩天天综合 | 免费色黄 | 国产一级一片免费播放放 | 亚洲精品99久久久久中文字幕 | 人人干天天干 | 最新av网址在线观看 | 日韩精品2区 | 成人一区二区三区在线观看 | 久久亚洲电影 | 久久天天躁狠狠躁亚洲综合公司 | 亚洲国产午夜精品 | 成年人免费在线 | 九九热国产视频 | 成人免费观看视频大全 | www久久com| 超碰97免费 | 国产精品国产三级国产 | 成人资源站| 国产亚洲精品无 | 欧美中文字幕第一页 | 久久综合九色九九 | 天天干夜夜 | 日韩精品第一区 | 亚洲国产精品成人精品 | 99久免费精品视频在线观看 | 欧美一级片在线观看视频 | 成人免费视频网站 | 日韩精品极品视频 | 国产精品美女久久久久久久久久久 | 国产欧美精品在线观看 | 91视频91蝌蚪 | 青草草在线视频 | 在线观看视频一区二区 | 久久久久免费网站 | 香蕉视频国产在线观看 | 亚洲免费国产视频 | 在线免费观看成人 | 九色精品免费永久在线 | 国产aaa毛片 | 在线中文字幕播放 | 精品一区二区免费视频 | 黄色网址中文字幕 | 精品国产一区二区三区久久 | 中文字幕一区二区三区视频 | 丁香五香天综合情 | 不卡的av电影在线观看 | 99精品国产免费久久久久久下载 | 久久不射电影院 | av超碰在线 | 久久国产精品99久久久久 | 久久影院亚洲 | 97福利在线 | 婷婷激情网站 | 久久在线精品 | 中文一区在线观看 | 婷婷播播网 | 中文字幕乱码亚洲精品一区 | 日本三级吹潮在线 | 日本夜夜草视频网站 | 亚洲精品在线二区 | 五月婷婷毛片 | 91免费黄视频 | 欧美精品在线观看免费 | 超碰国产在线播放 | 2021国产精品视频 | 99久久精品一区二区成人 | 日韩在线第一 | 免费看精品久久片 | 欧美日韩免费一区 | 日韩网站一区 | 成人sm另类专区 | 精品国模一区二区三区 | 中文字幕免费高清在线 | 成年人在线免费视频观看 | 五月婷久 | 欧洲一区二区在线观看 | 色天天综合久久久久综合片 | 国产资源在线播放 | 嫩草av影院| 日韩久久久久久久久 | 亚洲精品在线二区 | 亚洲国产精品电影 | 国产成人精品久久二区二区 | 高清一区二区三区av | 国产精品久久久久久妇 | 成人aaa毛片| 免费看一及片 | 狠狠插天天干 | 在线国产日韩 | 成年美女黄网站色大片免费看 | 成人免费观看完整版电影 | 国产精品欧美一区二区 | 亚洲 欧美 91| 日韩久久精品一区二区 | 人人爱在线视频 | 六月色丁 | 少妇18xxxx性xxxx片 | 欧美激情综合色 | 日韩一区二区久久 | 国产剧情一区二区 | 国产亚洲精品女人久久久久久 | 777久久久| 国产黄色成人 | 久久久久久久久久久电影 | 午夜精品久久久久久久久久 | 国产亚洲精品久久久久久久久久 | 色偷偷97 | 免费一级特黄毛大片 | 国产一区二区在线免费视频 | 日本动漫做毛片一区二区 | 国产亚洲视频中文字幕视频 | 五月婷婷操 | 亚洲精品资源在线 | 久久a热6 | 在线观看国产高清视频 | 日韩激情久久 | 欧美国产视频在线 | 亚洲免费资源 | 国产高清免费av | 亚洲视频在线免费观看 | 国产一级免费av | 午夜精品久久久久久中宇69 | 欧美极品少妇xbxb性爽爽视频 | 亚洲精品美女久久久 | 欧美激情一区不卡 | 91伊人久久大香线蕉蜜芽人口 | 亚洲国产免费看 | 色婷久久 | 亚洲一区二区高潮无套美女 | 久久特级毛片 | 成人在线免费视频观看 | 成人免费一区二区三区在线观看 | 成人久久18免费 | 欧美精品久久久久久久久免 | 欧美精品久久久久久久 | 波多野结衣精品视频 | 日本护士三级少妇三级999 | 国产色在线观看 | av资源在线观看 | 国产黄色美女 | 97在线免费视频 | 黄色av在 | 欧美大码xxxx| 天天操天天射天天插 | 亚洲精品美女久久久久网站 | 高清视频一区二区三区 | 一区二区三区久久精品 | 黄色三级在线 | 欧美午夜精品久久久久久孕妇 | 亚洲女裸体 | 亚洲精品高清视频 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 成人91在线 | 亚洲人在线7777777精品 | 伊人国产在线观看 | 欧美污网站| 国内精品久久久久影院日本资源 | 色干综合 | 在线视频你懂得 | 在线观看视频福利 | 日韩精品一区二区免费 | 久久只精品99品免费久23小说 | 日本久久中文字幕 | 国产第一页福利影院 | 精品免费一区二区三区 | 久章草在线 | 公与妇乱理三级xxx 在线观看视频在线观看 | 国产美女精品视频免费观看 | 久草国产在线观看 | 亚洲五月花| 色婷婷骚婷婷 | 国产精久久 | 手机av在线不卡 | 中文在线中文资源 | 热九九精品 | 四虎成人精品永久免费av | 国产综合精品一区二区三区 | 狠狠插狠狠操 | 香蕉免费在线 | 中文字幕在线观看亚洲 | 国产美女视频免费观看的网站 | 亚洲精品午夜一区人人爽 | 中文字幕人成不卡一区 | 久久久国产影视 | 狠狠色丁香婷婷综合橹88 | 91激情视频在线观看 | 五月婷婷一区二区三区 | 免费av网站在线 | 99久久精品国产免费看不卡 | 中文av在线免费观看 | 婷婷激情在线 | 97精品国产 | 国产一级片一区二区三区 | 美女黄频在线观看 | 亚洲 成人 欧美 | 天天操导航 | 精品99免费视频 | 日韩在线中文字幕 | 久久久精品网 | 国产亚洲精品日韩在线tv黄 | 91完整版 | 日韩视频在线不卡 | 一级一片免费视频 | 美女视频一区二区 | 日本久久免费视频 | 国产精品久久久久久久久久了 | 亚洲欧美国内爽妇网 | 在线观看韩日电影免费 | 中文字幕国产精品一区二区 | 在线观看国产永久免费视频 | 国产香蕉视频 | 国产精品不卡在线 | 成人av观看| 亚洲精品综合欧美二区变态 | 国产原创在线视频 | 在线国产专区 | 国产精品久久久久久吹潮天美传媒 | 91九色在线视频 | 久久久夜色 | 国产精品久久久久永久免费观看 | 国产在线观看黄 | 日韩在线观看一区二区 | 日批视频| 一区二区精品在线观看 | 久久国产免费看 | 亚洲精品国产成人av在线 | 国产中文字幕视频在线观看 | 中文字幕 欧美性 | 久久66热这里只有精品 | 国产精品原创视频 | 成人h在线观看 | 久久久在线免费观看 | 91人人揉日日捏人人看 | 国产精品第72页 | 色婷婷福利 | 日韩在线电影观看 | 啪啪免费观看网站 | 亚洲三级精品 | 97色在线观看免费视频 | 亚洲一二视频 | 天天草天天干天天射 | 色婷婷激情电影 | 六月激情婷婷 | 亚洲少妇激情 | 插插插色综合 | 亚洲 中文 欧美 日韩vr 在线 | 色综合中文字幕 | 97狠狠操| 日韩视频在线观看免费 | 91字幕 | 久久久久在线观看 | 日韩av电影网站在线观看 | 美女网站视频久久 | 国产精品免费视频观看 | 久久综合久久综合九色 | 日日干夜夜干 | 天堂入口网站 | 国产精品自在线 | 人人干天天射 | 国产一级片一区二区三区 | 久草视频手机在线 | av官网在线 | 亚洲成年人av | 午夜精品在线看 | 成人久久18免费网站麻豆 | 国产精品黄色影片导航在线观看 | 天天天天天天操 | 五月婷在线 | 日本中文在线 | 成人影片在线免费观看 | 在线激情影院一区 | 自拍超碰在线 | 午夜av在线播放 | 91精品啪啪 | 国产麻豆精品一区二区 | 黄色片免费电影 | 国产成人在线观看免费 | 91天天操 | 亚洲美女在线国产 | 国产高清免费av | 美女网站在线播放 | 在线观av | 欧美日韩精品二区第二页 | 国产麻豆精品一区 | 国产成人99av超碰超爽 | 激情久久久久久久久久久久久久久久 | 国产精品久久久毛片 | 久久久久欠精品国产毛片国产毛生 | 欧美小视频在线 | 在线观看国产亚洲 | 曰本三级在线 | 亚洲欧美成人综合 | www.干| 久久av一区二区三区亚洲 | 久久天堂亚洲 | 五月天最新网址 | 久久国产精品一国产精品 | 国产精品久久久久国产精品日日 | 欧美乱大交 | 精品一区二区三区香蕉蜜桃 | 亚洲春色成人 | 国产精品久久久久久久久岛 | 久久精品美女视频网站 | 国产在线va | 国产精品 日韩 欧美 | 亚洲一区久久久 | 午夜精品久久久久久久99 | 中文字幕在线看视频国产中文版 | 天天操天天干天天操天天干 | 久久久午夜精品理论片中文字幕 | 国产在线日韩 | 色偷偷888欧美精品久久久 | 最近中文字幕在线 | 91在线观看视频网站 | 国产精品免费不卡 | 日韩网站在线播放 | 欧美精品一区二区免费 | 九九热只有这里有精品 | 免费看高清毛片 | 91免费看片黄 | 婷婷六月激情 | 亚洲精品在线网站 | www.com久久 | 六月色婷| 中文字幕高清在线 | 成人免费视频观看 | 国产无遮挡猛进猛出免费软件 | 精品你懂的 | 国产免费叼嘿网站免费 | 久久久三级视频 | 婷婷色五 | 不卡av在线免费观看 | www.黄色| 最新国产在线观看 | 久久综合久久综合久久综合 | 涩av在线| 黄色一级片视频 | 97看片网| 美女亚洲精品 | 亚洲电影在线看 | 久久一线 | 国产日韩在线看 | 91麻豆国产 | 国产经典 欧美精品 | 久草观看| 久久久久久国产精品999 | 国产又粗又猛又爽 | 日韩成人中文字幕 | 久久精品99 | av短片在线观看 | 亚洲精品免费在线播放 | 国产色在线,com | 五月婷婷激情综合 | 国产日韩精品一区二区三区 | 成人一区二区在线观看 | 日本中文字幕网 | 91精品国产99久久久久 | 欧美日本不卡高清 | 久久99精品久久只有精品 | 碰天天操天天 | av资源在线观看 | 日韩视频免费观看高清 | 奇米影视8888在线观看大全免费 | 91精品国产综合久久福利不卡 | 免费三级黄色片 | 成人黄色电影在线播放 | 日本久久电影 | 国产成人久久av977小说 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 91cn国产在线 | 在线观看爱爱视频 | 天天狠狠操 | 成人在线观看你懂的 | 精品亚洲成a人在线观看 | 天天想夜夜操 | 激情av资源 | 国内精品久久久久久中文字幕 | 在线成人免费电影 | 51精品国自产在线 | 色狠狠久久av五月综合 | 日韩一区二区三区高清免费看看 | 精品久久久久久亚洲 | 99国产精品久久久久老师 | 欧美日韩高清一区二区三区 | 91福利视频在线 | 蜜臀久久99精品久久久无需会员 | 国产欧美日韩视频 | 久久久私人影院 | 欧美日高清视频 | 国产精品一区二区三区在线播放 | 在线看一区二区 | 久久综合五月天婷婷伊人 | 91爱在线 | 中文字幕一区二区三区乱码在线 | 91人人爽人人爽人人精88v | 亚洲激精日韩激精欧美精品 | 日韩三区在线 | 免费成人在线网站 | 天天干天天想 | 日韩精品不卡在线观看 | 国产精品久久久久久爽爽爽 | 亚洲激情在线观看 | 五月激情天 | 日韩免费网站 | 中文字幕欧美日韩va免费视频 | 久久毛片网| 免费一级毛毛片 | 亚洲精品高清在线观看 | 91伊人久久大香线蕉蜜芽人口 | a黄色片在线观看 | 97国产在线播放 | 免费一级日韩欧美性大片 | 91av在线免费视频 | 欧美一二三专区 | 手机在线看a | 日韩电影在线一区 | 成人av片免费看 | 天天干,天天射,天天操,天天摸 | 免费视频黄色 | 久久久久久久久久久成人 | 国产麻豆精品一区二区 | 国产精品字幕 | 91成人免费观看视频 | 久久久官网 | 国内精品亚洲 | 国产精品久久久久久久久久久久午夜片 | 免费中午字幕无吗 | 91视频久久久久 | 国产成人精品一区在线 | 国产精品完整版 | 99爱精品在线 | 国产精品嫩草影视久久久 | 国产九色91 | 日韩午夜一级片 | 欧美综合色在线图区 | 激情视频免费观看 | 中文字幕在线观看完整版 | 天天干,天天射,天天操,天天摸 | 免费久久精品视频 | 91大神在线观看视频 | 天天天天天干 | 毛片网站在线 | 欧美另类巨大 | 久操操| 国产精品免费久久久 | 久久精品电影网 | 亚洲欧美观看 | 五月婷婷色 | 欧美视频在线二区 | 91成人网在线播放 | 欧美夫妻性生活电影 | 成人av一区二区在线观看 | 国产又粗又猛又黄又爽的视频 | av免费观看网址 | 日韩欧美视频免费在线观看 | 婷婷六月色 | www.av免费 | 日本黄色一级电影 | 成人久久免费 | 中文字幕二区三区 | 日韩不卡高清视频 | 麻豆av一区二区三区在线观看 | 天天干天天搞天天射 | 日韩欧美视频一区 | 免费在线激情电影 | 国产午夜在线观看视频 | 顶级bbw搡bbbb搡bbbb | 成人播放器 | 中国黄色一级大片 | 在线观看不卡视频 | 亚洲第一区在线播放 | 国产码电影 | 最新91在线视频 | 五月天av在线| 曰韩在线 | 欧美日韩中文视频 | 天天射天天干天天 | 夜又临在线观看 | 欧美性大战久久久久 | 国产精品一区久久久久 | www免费视频com | 欧美一级日韩免费不卡 | 日韩最新av在线 | 日韩视频一 | 91人人干 | 免费久久久久久 | 成人免费一区二区三区在线观看 | 欧美日韩高清一区二区 | 欧美激情片在线观看 | 亚洲综合网 | 欧美怡红院 | 久久精品系列 | 久久精品黄 | 国产成a人亚洲精v品在线观看 | 久久综合狠狠综合久久激情 | 精品一区二区三区在线播放 | 亚洲精品国偷拍自产在线观看 | 久久综合狠狠综合 | 色88久久 | 免费男女羞羞的视频网站中文字幕 | 超碰资源在线 | 狠狠色丁香婷婷综合最新地址 | 国产精品一区二区久久精品 | 久久久久国产一区二区三区四区 | 激情网婷婷 | 精品亚洲男同gayvideo网站 | 9999毛片| 久久精品一区二区三区四区 | 亚洲一区二区精品视频 | 777视频在线观看 | 激情五月在线 | 成人全视频免费观看在线看 | 亚洲精品乱码久久久久久蜜桃动漫 | 激情综合国产 | 6080yy午夜一二三区久久 | 国产123区在线观看 国产精品麻豆91 | 五月花丁香婷婷 | 国产成人无码AⅤ片在线观 日韩av不卡在线 | 九九久久影院 | 日韩在线观看的 | 人人藻人人澡人人爽 | 日韩精品综合在线 | 久草在线免费资源站 | 免费在线观看av网址 | 国产一区二区电影在线观看 | 91一区啪爱嗯打偷拍欧美 | 一区二区成人国产精品 | 99热 精品在线 | 国产日韩视频在线 | 精品国产aⅴ一区二区三区 在线直播av | 欧美在线视频a | 久久国产精品小视频 | 久久久久久久久亚洲精品 | 狠狠五月天 | 九九免费在线观看 | 奇米网777 | 亚州精品天堂中文字幕 | 97av在线视频免费播放 | 少妇bbb | 丁香婷婷激情啪啪 | 五月婷婷综合激情网 | 国产精品九色 | 激情五月婷婷综合网 | 日日夜夜精品免费视频 | av线上免费观看 | 97在线看| 国产欧美精品在线观看 | 欧美一级性生活片 | 日韩黄色软件 | 亚洲永久精品一区 | 三级黄色片在线观看 | 日韩精品久久久久久 | 日韩av免费在线看 | 精品福利在线观看 | 在线韩国电影免费观影完整版 | 国产日韩精品一区二区三区在线 | 国产麻豆传媒 | 中文字幕在线免费看线人 | 手机在线日韩视频 | 九九热1| 成人av资源在线 | 日韩免费二区 | 亚洲精品国| 91亚洲精品久久久久图片蜜桃 | 在线观看中文字幕av | 免费a v视频| 在线免费观看国产黄色 | 国产不卡一二三区 | 激情伊人五月天久久综合 | 日韩视频在线不卡 | 国产精品久久久久一区二区三区 | 免费视频97 | 不卡视频在线看 | 久久99国产综合精品免费 | 欧美精品久久久久久久免费 | 在线精品视频免费观看 | 亚洲午夜久久久久久久久 | 在线观看久久久久久 | av看片在线观看 | 成人在线免费观看网站 | 精品国产福利在线 | 五月婷婷六月丁香激情 | 久久久久久精 | 麻豆视频免费 | a在线免费 | 91黄色在线视频 | 97av在线| 狠狠插天天干 | 亚洲精品视频网站在线观看 | 五月激情丁香 | 亚洲精品在线一区二区三区 | 成人精品视频 | 国内精品久久久久久久97牛牛 | 日韩三级中文字幕 | 亚洲婷久久| 蜜臀av性久久久久蜜臀aⅴ涩爱 | 久久久久久高潮国产精品视 | 九九涩涩av台湾日本热热 | 国产成人精品电影久久久 | 日韩高清dvd| 亚洲一区二区三区四区在线视频 | 国产999视频| 欧美激情xxxx性bbbb | 久草视频看看 | 9在线观看免费高清完整版 玖玖爱免费视频 | 在线国产黄色 | 国产成人av网址 | 欧美日本不卡 | 午夜精品久久久久久久99 | 色婷婷福利 | 久久综合免费视频影院 | 欧美va天堂va视频va在线 | 国产在线观看地址 | 欧美一级日韩三级 | 一级特黄aaa大片在线观看 | 国产精品久久久久久麻豆一区 | 亚洲女欲精品久久久久久久18 | 国产91在| 国产成人精品在线观看 | 久久国产精品99久久久久久进口 | 国产精品久久久久久久久久免费 | 黄色三级久久 | 91亚洲精品久久久蜜桃网站 | 91在线91| 亚洲精品视频在线 | 免费黄色网址网站 | 国产精品永久免费在线 | 天天干 天天摸 天天操 | 午夜视频色| 色丁香婷婷| 国产亚洲人成网站在线观看 | 中文字幕在线字幕中文 | avav片| 日韩乱码中文字幕 | 丰满少妇一级片 | 久久在现 | 中文字幕一区二区三区四区在线视频 | 精品国产乱码久久久久久1区2匹 | 最新国产精品久久精品 | 成人国产精品电影 | 在线观看网站你懂的 | 99在线精品视频观看 | 91精品国产一区二区在线观看 | 91av在 | 四虎成人精品在永久免费 | 日韩在线电影一区二区 | 国内外成人免费在线视频 | 最近中文字幕mv | 国产一区二区免费看 | 激情视频在线观看网址 | 就要干b | 欧美一区二区三区在线看 | 日本高清免费中文字幕 | 亚洲国产精品成人va在线观看 | 国产精品一区二区三区在线看 | 国产精品久久久777 成人手机在线视频 | 国产最新精品视频 | 天海翼一区二区三区免费 | 国产高清视频网 | 夜夜爽88888免费视频4848 | 国产精品毛片久久久久久 | 久久伦理电影 | 欧美精品三级在线观看 | 欧美一级视频免费 | wwwww.国产| 91麻豆传媒 | 91大神电影| 天天操综合| 亚洲精品欧美精品 | 国产精品成人自拍 | 天天色宗合 | 激情欧美国产 | 最近中文字幕久久 | 中文字幕免费观看全部电影 | 亚洲日本韩国一区二区 | 中文字幕中文字幕在线中文字幕三区 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 一区二区精品视频 | 久久精品香蕉 | 99久久精品国产一区二区成人 | 国产精品99视频 | 2024av| 99精品国产99久久久久久97 | 天天做天天爱天天综合网 | 午夜婷婷在线观看 | 国产女人免费看a级丨片 | 日韩亚洲在线视频 | 黄色大片国产 | 99爱视频在线观看 | 国产成人一级电影 | 久久综合色天天久久综合图片 | 亚洲欧洲久久久 | 婷婷久久综合网 | 午夜精品一区二区三区在线观看 | 丁香婷婷在线观看 | 中文字幕视频在线播放 | 久久久激情视频 | 久久99国产一区二区三区 | 成人av影视在线 | 亚州欧美精品 | 日韩区欠美精品av视频 | 日日夜夜免费精品视频 | 欧美成a人片在线观看久 | 超碰在线97国产 | 亚洲 欧美 成人 | 超碰在线观看97 | 涩涩成人在线 | 99热这里只有精品久久 | 成人国产精品免费 | 久久精久久精 | 久久久久成人精品 | 国产伦精品一区二区三区高清 | 99re亚洲国产精品 | 国产999精品久久久久久绿帽 | 九九久 | 国产在线精品二区 | 午夜色性片 | 日本中文字幕高清 | 精品国产1区2区3区 国产欧美精品在线观看 | 久久av免费观看 | 婷婷色站 | 精品在线观看免费 | 久久久国产精品麻豆 | 中国一级片在线播放 | 8x8x在线观看视频 | 欧美日韩在线观看一区 | 欧美aaa视频 | 激情五月***国产精品 | 中文字幕字幕中文 | 久久伊人综合 | 天天天操天天天干 | 国产精彩视频一区二区 | 国产在线色站 | 日韩av中文在线观看 | 精选久久| 伊人久久在线观看 | 亚州欧美视频 | 91色网址 | 国产综合视频在线观看 | www.五月天 | 日韩精品综合在线 | 丁香六月在线 | 91视视频在线直接观看在线看网页在线看 | 亚洲在线视频免费观看 | 亚洲1区在线 | 成人av免费在线 | 日日干夜夜干 | 超碰在线个人 | 亚洲资源在线观看 | 六月丁香社区 | 欧美精品久久久久性色 | 久久精品香蕉 | 不卡电影免费在线播放一区 | 最近中文字幕国语免费高清6 | 日韩高清免费无专码区 | 日本高清免费中文字幕 | 911免费视频 | 婷婷久久婷婷 | 久久免费大片 | 九七在线视频 | 欧美地下肉体性派对 | 国产精品久久久电影 | 日批视频在线播放 | 国产精品婷婷午夜在线观看 | 高潮久久久 | 国色天香永久免费 | 欧美日韩国产伦理 | av免费黄色 | 天天操天天谢 | 五月婷婷丁香六月 | 久久久久久久久久免费视频 | 激情丁香在线 | 色婷婷成人网 | 日韩r级在线 | 亚洲午夜久久久综合37日本 | 2019久久精品 | 六月天色婷婷 | 人人狠狠综合久久亚洲婷 | 五月天婷亚洲天综合网鲁鲁鲁 | 岛国精品一区二区 | 国产精品久久久99 | 日韩精品一区二区三区在线视频 | 亚洲黄网站 | 午夜视频在线观看一区 | 天堂在线一区 | 日韩高清免费电影 | 亚洲激情在线观看 | 日本精品视频在线观看 | 九九影视理伦片 | 草久视频在线 | 粉嫩av一区二区三区入口 | 久草在线国产 | 午夜国产影院 | 麻豆一精品传二传媒短视频 | 欧美色综合天天久久综合精品 | 国产大尺度视频 | 日韩欧美v| www.天天成人国产电影 | 69av网| 国产精品麻豆免费版 | 在线成人性视频 | 不卡电影一区二区三区 | 欧美激情综合五月色丁香 | 久久精品国产一区 | 99久久精品免费看国产一区二区三区 | 色综合天天色综合 | 97精品国产97久久久久久免费 | 国内精品久久久久久久久 | 天天操天天摸天天射 | 青草视频在线播放 | 狠狠狠狠狠狠干 | 韩国av一区 | 中文字幕视频播放 | 黄色在线视频网址 | 欧美做受xxx| 国产亚洲精品久久久久久移动网络 | 操操操日日日干干干 | 99久久精品久久亚洲精品 | 久久久久久高潮国产精品视 | 亚洲婷婷丁香 | 精品免费国产一区二区三区四区 | 在线观看日韩精品视频 | 性色va| 91av在线国产| 色资源中文字幕 | 9999国产精品 | 久久99偷拍视频 | 国产中文字幕一区二区三区 | 色噜噜狠狠色综合中国 | 99久久综合狠狠综合久久 | 99在线观看视频 | 欧美日韩久久不卡 | 免费看网站在线 | 日日躁你夜夜躁你av蜜 | www五月天 | 日韩欧美一区二区在线观看 | 亚洲精品视频在线播放 | 黄色片免费电影 | 四虎小视频 | 国内精品久久久久久久久 | 久久国产精品视频观看 | 欧美韩国日本在线 | 深爱激情五月综合 | 91新人在线观看 | 免费看一及片 | 国产不卡视频在线 | 久久久激情网 | 久久久久久久久影院 | 久久综合激情 | 日韩色在线 | 91精品看片| 日韩欧美区| 亚洲日韩精品欧美一区二区 | 视频在线91| 婷婷六月天丁香 | 中文字幕在线看视频 | 一级国产视频 | 免费看污网站 | 国产精品视频你懂的 | 久久久久久网站 | 国产黄大片在线观看 | 色综合久久99 | 国产精品视频最多的网站 | 男女日麻批| 欧美一级免费 | 亚洲精品乱码久久久久久蜜桃欧美 | 日日操天天操狠狠操 |