我正在尝试并行化程序,但是由于我对线程还很陌生,所以我遇到了一些问题。
我有两个属于同一类的方法。一种方法在for循环中执行一些计算,然后将结果压入向量,另一种方法(runTheResult)接受向量,并使用获得的向量启动线程。我希望每次运行runTheResult时都会启动另一个线程以运行下一个获得的结果,同时将一次将最大线程数限制为4。
我的程序的结构类似于:
void runTheResult(vector<double>& u){
//process 'u' and launch a thread
};
void method(){
for(...){
//calculate
for(...){
//put the calculations in vector<double>result
};
runTheResult(result);
};
};
我已经对此进行了很多搜索,其中一种解决方案是维护消息队列。但是,与此有关的问题是,如果我实现一个查询,则必须在while循环中定期与另一个线程检查该查询。如果我使用while(true){//check for new messages if number of threads is less than five}
之类的while循环,将会失去很多处理能力,如果在不满足条件的情况下选择让循环进入睡眠状态,则会浪费处理能力。我在线程中运行的函数每个需要2-5秒,而我必须处理其中的大约1k至50k,因此每个循环甚至一秒钟的延迟都很大。
每次runTheResult完成后,是否可以在另一个线程中运行runTheResult?还是有更好的方法做到这一点?
答案 0 :(得分:1)
其他人告诉您使用消息队列,因为这是最安全的方法。您的程序必须至少具有一个用户(您或最终用户)可以与之交互的主线程。只要您的程序运行,该主线程就会一直循环。您在这里进行邮件处理
// this is not actually running the result now
// this only sends it to the main thread that will run the result
void runTheResult(vector<double>& u){
//process 'u' and launch a thread.
// @NOTE Launching a thread again will not be beneficial as it will still be blocked
// by the mutex
// convert/store vector into Message. To make it usable for other types
// or you can just change Message to double
Message u_message = to_message(u)
std::lock_guard<std::mutex> lock(message_mutex);
messages_shared.append(u_message);
};
void method() // runs on worker thread
{
for(...){
//put the calculations in vector<double>result
};
runTheResult(result);
}
void getMessages_safe(std::vector<Messages>& outMessages_safe)
{
// as Ted Lyngo suggests, using lock_guard is best practice. See edit for alternative
std::lock_guard<std::mutex> lock(message_mutex);
outMessages_safe = messages_shared;
messages_shared.clear();
}
std::vector<Message> messages_shared;
std::mutex message_mutex;
void main() { // this runs on the very first thread of the program
while (isProgramRunning)
{
std::vector<Message> messages_safe; // safe to access by this thread only
getMessages_safe(messages_safe);
// dispatch messages to whoever needs it
// launch worker thread
}
}