我现在正在实现Raft算法,并且我想使用gRPC流来执行此操作。我的主要思想是为每个节点创建3个流,以每个其他对等端,一个流将传输一种类型的RPC,有AppendEntries
,RequestVote
和InstallSnapshot
。我在的帮助下编写了一些代码,因为在其双向流演示RouteChat
中,客户端在开始读取数据之前先发送了所有数据。
首先,我想随时写入流,因此我编写以下代码
void RaftMessagesStreamClientSync::AsyncRequestVote(const RequestVoteRequest& request){
std::string peer_name = this->peer_name;
debug("GRPC: Send RequestVoteRequest from %s to %s\n", request.name().c_str(), peer_name.c_str());
request_vote_stream->Write(request);
}
同时,我希望线程继续从流中读取内容,例如以下代码,该流在构造RaftMessagesStreamClientSync
之后立即被调用。
void RaftMessagesStreamClientSync::handle_response(){
// strongThis is a must
auto strongThis = shared_from_this();
t1 = new std::thread([strongThis](){
RequestVoteResponse response;
while (strongThis->request_vote_stream->Read(&response)) {
debug("GRPC: Recv RequestVoteResponse from %s, me %s\n", response.name().c_str(), strongThis->raft_node->name.c_str());
...
}
});
...
为了初始化3个流,我必须这样编写构造函数,我在这里使用3 ClientContext
,因为route_guide
struct RaftMessagesStreamClientSync : std::enable_shared_from_this<RaftMessagesStreamClientSync>{
typedef grpc::ClientReaderWriter<RequestVoteRequest, RequestVoteResponse> CR;
typedef grpc::ClientReaderWriter<AppendEntriesRequest, AppendEntriesResponse> CA;
typedef grpc::ClientReaderWriter<InstallSnapshotRequest, InstallSnapshotResponse> CI;
std::unique_ptr<CR> request_vote_stream;
std::unique_ptr<CA> append_entries_stream;
std::unique_ptr<CI> install_snapshot_stream;
ClientContext context_r;
ClientContext context_a;
ClientContext context_i;
std::thread * t1 = nullptr;
std::thread * t2 = nullptr;
std::thread * t3 = nullptr;
...
}
RaftMessagesStreamClientSync::RaftMessagesStreamClientSync(const char * addr, struct RaftNode * _raft_node) : raft_node(_raft_node), peer_name(addr) {
std::shared_ptr<Channel> channel = grpc::CreateChannel(addr, grpc::InsecureChannelCredentials());
stub = raft_messages::RaftStreamMessages::NewStub(channel);
// 1
request_vote_stream = stub->RequestVote(&context_r);
// 2
append_entries_stream = stub->AppendEntries(&context_a);
// 3
install_snapshot_stream = stub->InstallSnapshot(&context_i);
}
~RaftMessagesStreamClientSync() {
raft_node = nullptr;
t1->join();
t2->join();
t3->join();
delete t1;
delete t2;
delete t3;
}
然后我实现服务器端
Status RaftMessagesStreamServiceImpl::RequestVote(ServerContext* context, ::grpc::ServerReaderWriter< ::raft_messages::RequestVoteResponse, RequestVoteRequest>* stream){
RequestVoteResponse response;
RequestVoteRequest request;
while (stream->Read(&request)) {
...
}
return Status::OK;
}
然后发生2个问题:
RaftMessagesStreamServiceImpl
,从1到3的语句花费了很长的执行时间。更新
经过一些调试之后,我发现request_vote_stream->Write(request)
返回0,根据Bidi Aysnc Server,它返回0。但是为什么关闭呢?
答案 0 :(得分:0)
经过一些调试,我发现这两个问题都是由于一个问题,即我在创建服务器之前创建了一个客户端。
因为我最初使用一元RPC调用,所以来自客户端的先前调用仅导致gRPC错误代码14。该程序继续进行,因为可以正确处理创建服务器后发送的每个调用。
但是,当涉及流式调用时,stub->RequestVote(&context_r)
将最终调用阻塞函数ClientReaderWriter::ClientReaderWriter
,该函数将尝试连接到服务器(目前尚未创建)。
/// Block to create a stream and write the initial metadata and \a request
/// out. Note that \a context will be used to fill in custom initial metadata
/// used to send to the server when starting the call.
ClientReaderWriter(::grpc::ChannelInterface* channel,
const ::grpc::internal::RpcMethod& method,
ClientContext* context)
: context_(context),
cq_(grpc_completion_queue_attributes{
GRPC_CQ_CURRENT_VERSION, GRPC_CQ_PLUCK,
GRPC_CQ_DEFAULT_POLLING}), // Pluckable cq
call_(channel->CreateCall(method, context, &cq_)) {
if (!context_->initial_metadata_corked_) {
::grpc::internal::CallOpSet<::grpc::internal::CallOpSendInitialMetadata>
ops;
ops.SendInitialMetadata(context->send_initial_metadata_,
context->initial_metadata_flags());
call_.PerformOps(&ops);
cq_.Pluck(&ops);
}
}
因此,该连接尚未建立。