我正在试图找出共享指针析构函数最放松(和正确)的内存顺序。我现在想到的是如下:
~shared_ptr() {
if (p) {
if (p->cnt.fetch_sub(1, std::memory_order_release) == 1) {
p->cnt.load(std::memory_order_acquire);
delete p;
}
}
}
基本上,我认为所有以前的fetch_sub()
都应该发生在delete p;
之前,而p->cnt.load(std::memory_order_acquire);
,我会构建一个确保这一点的发布序列。
我是C ++内存模型的新手,并不太自信。我的上述推理是否正确,我指定的记忆顺序是否正确且最轻松?
答案 0 :(得分:6)
在理论中,您可能拥有最有效的代码,因为没有必要的同步。
但是在练习中,几乎没有CPU提供完全映射到获取/释放内存顺序的指令(可能是将来的ARMv8.3-A)。因此,您必须检查每个目标生成的代码。
例如,在x86_64上fetch_sub(std::memory_order_acq_rel)
和fetch_sub(std::memory_order_release)
会产生完全相同的指令。
因此,虽然理论上你的代码看起来是最优的,但在实践中,你得到的代码不如你选择更简单的方法更优化:
std::atomic<int> cnt;
int* p;
void optimal_in_therory() {
if (cnt.fetch_sub(1, std::memory_order_release) == 1) {
cnt.load(std::memory_order_acquire);
delete p;
}
}
void optimal_in_practice_on_x86_64() {
if (cnt.fetch_sub(1, std::memory_order_acq_rel) == 1) {
delete p;
}
}
大会:
optimal_in_therory():
lock sub DWORD PTR cnt[rip], 1
je .L4
rep ret
.L4:
mov eax, DWORD PTR cnt[rip] ;Unnecessary extra load
mov rdi, QWORD PTR p[rip]
mov esi, 4
jmp operator delete(void*, unsigned long)
optimal_in_practice_on_x86_64():
lock sub DWORD PTR cnt[rip], 1
je .L7
rep ret
.L7:
mov rdi, QWORD PTR p[rip]
mov esi, 4
jmp operator delete(void*, unsigned long)
有一天,我将生活在理论中,因为理论上每件事情都顺利 -Pierre Desproges
为什么编译器会保留这种额外负载?
根据标准,优化器允许在非易失性原子上执行冗余负载。例如,如果在您的代码中添加了三个额外负载:
cnt.load(std::memory_order_acquire);
cnt.load(std::memory_order_acquire);
cnt.load(std::memory_order_acquire);
使用GCC或Clang时,三个载荷将出现在装配体中:
mov eax, DWORD PTR cnt[rip]
mov eax, DWORD PTR cnt[rip]
mov eax, DWORD PTR cnt[rip]
这是一个非常糟糕的悲观情绪。 我的观点是由于“波动性”和“原子性”之间的历史混淆而保持原样。虽然几乎所有程序员都知道volatile不具有原子变量的属性,但许多代码仍然写着原子具有volatile的特性:“原子访问是一种可观察的行为”。根据标准,它不是(明确的example note about this fact in the standard)。这是关于SO的反复出现的问题。
因此,您的代码在理论上确实是最佳代码,并且由于编译器优化代码就像原子也是挥发性的一样,因此它是悲观的。
解决方法可能是用Kieth在其评论中提出的atomic_thread_fence来替换负载。我不是硬件专家,但我想这样的围栏可能会导致更多的内存“同步”而不是必要的(或者至少在理论上;))。
为什么我认为您的代码在理论上是最佳的?
单个对象的最后一个shared_ptr必须调用该对象的析构函数,而不会导致数据争用。析构函数可以访问对象的值,因此析构函数调用必须在指向对象的指针“失效”之后发生。
所以delete p;
必须“在所有其他共享同一个尖头对象的共享指针的析构函数调用之后发生。”
在标准发生之前由以下段落定义:
[intro.races] / 9:
评估在评估B之前发生线程间如果:
- 与B同步,或[...]
[intro.races] / 10:
评估A发生在评估B之前(或等效地,B发生在A之后),如果:
A在B之前排序,或
线程发生在B之前。
因此,在fetch_sub
之前排序的delete p
与另一个fetch_sub
之间必须存在“同步”关系。
对原子对象M执行释放操作的原子操作A与对M执行获取操作的原子操作B同步,并从由A开头的释放序列中的任何副作用中获取其值。
所以delete p
必须在获取操作之后排序,该操作加载所有其他fetch_sub
的释放序列中的值。
根据[expr.races]/5,最后fetch_sub
(在cnt的修改顺序中)将属于所有其他版本fetch_sub
的发布序列,因为fetch_sub
是读 - 修改 - 写操作,与fetch_add
一样(假设在cnt
上没有发生其他操作)。
因此delete p
将在所有其他fetch_sub之后发生,并且仅在调用delete p
之前将产生“同步”。确切地说,不是必要的。