x86_64/memset: simple optimizations
authorDenys Vlasenko <vda.linux@googlemail.com>
Tue, 10 Feb 2015 17:30:56 +0000 (18:30 +0100)
committerRich Felker <dalias@aerifal.cx>
Tue, 10 Feb 2015 23:53:31 +0000 (18:53 -0500)
commitbf2071eda32528ee8b0bb89544152646684a2cf3
treed2d826f84c6a2d23be25019208bf80b6dee3f071
parent6a5242e4cb2f9c695f613dc312ed5e1bb8008912
x86_64/memset: simple optimizations

"and $0xff,%esi" is a six-byte insn (81 e6 ff 00 00 00), can use
4-byte "movzbl %sil,%esi" (40 0f b6 f6) instead.

64-bit imul is slow, move it as far up as possible so that the result
(rax) has more time to be ready by the time we start using it
in mem stores.

There is no need to shuffle registers in preparation to "rep movs"
if we are not going to take that code path. Thus, patch moves
"jump if len < 16" instructions up, and changes alternate code path
to use rdx and rdi instead of rcx and r8.

Signed-off-by: Denys Vlasenko <vda.linux@googlemail.com>
src/string/x86_64/memset.s