]> pilppa.com Git - linux-2.6-omap-h63xx.git/commit
stop_machine: make stop_machine_run more virtualization friendly
authorChristian Borntraeger <borntraeger@de.ibm.com>
Thu, 8 May 2008 13:20:38 +0000 (15:20 +0200)
committerRusty Russell <rusty@rustcorp.com.au>
Fri, 23 May 2008 03:09:34 +0000 (13:09 +1000)
commit3401a61e16a5b852d4e353c8850c857105a67a9c
tree5e05731a790c48512c7fe41c5fc83b0fee6081e3
parent4d2e7d0d77e4e1e8a21cc990c607985fdba20e66
stop_machine: make stop_machine_run more virtualization friendly

On kvm I have seen some rare hangs in stop_machine when I used more guest
cpus than hosts cpus. e.g. 32 guest cpus on 1 host cpu triggered the
hang quite often. I could also reproduce the problem on a 4 way z/VM host with
a 64 way guest.

It turned out that the guest was consuming all available cpus mostly for
spinning on scheduler locks like rq->lock. This is expected as the threads are
calling yield all the time.
The problem is now, that the host scheduling decisings together with the guest
scheduling decisions and spinlocks not being fair managed to create an
interesting scenario similar to a live lock. (Sometimes the hang resolved
itself after some minutes)

Changing stop_machine to yield the cpu to the hypervisor when yielding inside
the guest fixed the problem for me. While I am not completely happy with this
patch, I think it causes no harm and it really improves the situation for me.

I used cpu_relax for yielding to the hypervisor, does that work on all
architectures?

p.s.: If you want to reproduce the problem, cpu hotplug and kprobes use
stop_machine_run and both triggered the problem after some retries.

Signed-off-by: Christian Borntraeger <borntraeger@de.ibm.com>
CC: Ingo Molnar <mingo@elte.hu>
Signed-off-by: Rusty Russell <rusty@rustcorp.com.au>
kernel/stop_machine.c