这是我的自旋锁实现,但它似乎无法保护关键代码。我的实施有问题吗?
static __inline__ int xchg_asm(int* lock, int val)
{
int ret;
__asm__ __volatile__(
LOCK "movl (%1),%%eax;
xchg (%1),%2;
movl %%eax, %0" :"=m" (ret) :"d"(lock), "c"(val)
);
return ret;
}
void spin_init(spinlock_t* sl)
{
sl->val = 0;
}
void spin_lock(spinlock_t* sl)
{
int ret;
do {
ret = xchg_asm(&(sl->val), 1);
} while ( ret==0 );
}
void spin_unlock(spinlock_t* sl)
{
xchg_asm(&(sl->val), 0);
}
答案 0 :(得分:11)
您的代码等于:
static __inline__ int xchg_asm(int* lock, int val) {
int save_old_value_at_eax;
save_old_value_at_eax = *lock; /* with a wrong lock prefix */
xchg *lock with val and discard the original value of *lock.
return save_old_value_at_eax; /* but it not the real original value of *lock */
}
您可以从代码中看到,当cpu执行xchg时,save_old_value_at_eax
不是真正的原始值。 您应该通过xchg指令获取旧/原始值,而不是在执行xchg 之前保存它。 (“它不是真正的旧/原始值”意味着,如果另一个CPU在此CPU保存值之后获取锁定但在此CPU执行xchg指令之前,此CPU将获得错误的旧值,并且它认为它花了锁定成功,因此,两个CPU同时进入CS)。您已将读取 - 修改 - 写入指令与三条指令分开,整个三条指令不是原子的(即使您将锁定前缀移动到xchg)。
我猜您认为锁定前缀将锁定WHOLE三条指令,但实际上锁定前缀只能用于附加的唯一指令(并非所有指令都可以附加) 而且我们在SMP上不需要用于xchg的锁前缀。引自linux_kernel_src / arch / x86 // include / asm / cmpxchg.h
/*
* Note: no "lock" prefix even on SMP: xchg always implies lock anyway.
* Since this is generally used to protect other memory information, we
* use "asm volatile" and "memory" clobbers to prevent gcc from moving
* information around.
*/
我的建议:
答案 1 :(得分:2)
我认为问题在于锁定指令前缀仅适用于以下指令,因此您的交换不是原子的。有关详细信息,请参阅此处的其他答案:What does the "lock" instruction mean in x86 assembly?
我认为如果将锁定指令前缀移动到xchg,它将起作用。
编辑:这可能很有用(例如gcc程序集中的原子交换):http://locklessinc.com/articles/locks/
请注意,我认为我的原始答案实际上是错误的,进一步的Google搜索显示,如果自386以来自动引用内存,xchg将被锁定。