aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-07-27 12:31:34 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-07-27 18:33:13 +0000
commitf1b24e0dec93ad2237cf424a797bb88c76b6356b (patch)
tree0a282f9c95558850cf9ce8015eff00b847e776a5 /src/jumper/SkJumper_generated.S
parent7311b40efb0e1a75f3024eac3386e4f7d806675a (diff)
rearrange SkJumper registers on 32-bit x86
There are not many registers on 32-bit x86, and we're using most to pass Stage function arguments. This means few are available as temporaries, and we're forced to hit the stack all the time. xmm registers are the most egregious example: we use all 8 registers pass data, leaving none free as temporaries. This CL cuts things down pretty dramatically, from passing 5 general purpose and 8 xmm registers to 2 general purpose and 4 xmm registers. One of the two general purpose registers is a pointer to space on the stack where we store all those other values. Every stage function needs to use the program pointer, so that stays in a general purpose register. Almost every stage uses the r,g,b,a vectors, so they stay in xmm registers. The rest (destination x,y, the tail mask, a pointer to tricky constants, and the dr,dg,db,da vectors) now live on the stack. The generated code is about 20K smaller and runs about 20% faster. $ out/monobench SkRasterPipeline_srgb 200 Before: 358.784ns After: 282.563ns Change-Id: Icc117af95c1a81c41109984b32e0841022f0d1a6 Reviewed-on: https://skia-review.googlesource.com/27620 Reviewed-by: Florin Malita <fmalita@chromium.org> Commit-Queue: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S13732
1 files changed, 5647 insertions, 8085 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index bc7a0d8255..fb0055af01 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -48619,57 +48619,56 @@ _sk_start_pipeline_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 59,117,20 // cmp 0x14(%ebp),%esi
- .byte 115,107 // jae 7c <_sk_start_pipeline_sse2+0x7c>
- .byte 139,85,28 // mov 0x1c(%ebp),%edx
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
- .byte 139,59 // mov (%ebx),%edi
- .byte 131,195,4 // add $0x4,%ebx
- .byte 141,64,4 // lea 0x4(%eax),%eax
+ .byte 131,236,92 // sub $0x5c,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 59,69,20 // cmp 0x14(%ebp),%eax
+ .byte 115,118 // jae 87 <_sk_start_pipeline_sse2+0x87>
+ .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,117,24 // mov 0x18(%ebp),%esi
+ .byte 139,62 // mov (%esi),%edi
+ .byte 131,198,4 // add $0x4,%esi
+ .byte 141,73,4 // lea 0x4(%ecx),%ecx
+ .byte 137,77,240 // mov %ecx,-0x10(%ebp)
+ .byte 57,85,240 // cmp %edx,-0x10(%ebp)
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 137,77,152 // mov %ecx,-0x68(%ebp)
.byte 137,69,236 // mov %eax,-0x14(%ebp)
- .byte 137,117,240 // mov %esi,-0x10(%ebp)
- .byte 57,77,236 // cmp %ecx,-0x14(%ebp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,222 // mov %ebx,%esi
- .byte 119,37 // ja 5a <_sk_start_pipeline_sse2+0x5a>
- .byte 139,93,8 // mov 0x8(%ebp),%ebx
- .byte 131,236,76 // sub $0x4c,%esp
- .byte 106,0 // push $0x0
- .byte 255,117,240 // pushl -0x10(%ebp)
- .byte 83 // push %ebx
+ .byte 137,69,156 // mov %eax,-0x64(%ebp)
+ .byte 199,69,160,0,0,0,0 // movl $0x0,-0x60(%ebp)
+ .byte 139,69,28 // mov 0x1c(%ebp),%eax
+ .byte 137,69,164 // mov %eax,-0x5c(%ebp)
+ .byte 137,200 // mov %ecx,%eax
+ .byte 141,93,152 // lea -0x68(%ebp),%ebx
+ .byte 119,29 // ja 65 <_sk_start_pipeline_sse2+0x65>
+ .byte 131,236,8 // sub $0x8,%esp
.byte 86 // push %esi
- .byte 82 // push %edx
+ .byte 83 // push %ebx
.byte 255,215 // call *%edi
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,28 // mov 0x1c(%ebp),%edx
- .byte 131,196,96 // add $0x60,%esp
- .byte 141,67,4 // lea 0x4(%ebx),%eax
- .byte 131,195,8 // add $0x8,%ebx
- .byte 57,203 // cmp %ecx,%ebx
- .byte 137,195 // mov %eax,%ebx
- .byte 118,222 // jbe 38 <_sk_start_pipeline_sse2+0x38>
+ .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 131,196,16 // add $0x10,%esp
+ .byte 139,77,152 // mov -0x68(%ebp),%ecx
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 137,69,152 // mov %eax,-0x68(%ebp)
+ .byte 131,193,8 // add $0x8,%ecx
+ .byte 57,209 // cmp %edx,%ecx
+ .byte 118,227 // jbe 48 <_sk_start_pipeline_sse2+0x48>
+ .byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
- .byte 137,243 // mov %esi,%ebx
- .byte 139,117,240 // mov -0x10(%ebp),%esi
- .byte 116,16 // je 73 <_sk_start_pipeline_sse2+0x73>
- .byte 131,236,76 // sub $0x4c,%esp
- .byte 81 // push %ecx
+ .byte 116,19 // je 7e <_sk_start_pipeline_sse2+0x7e>
+ .byte 137,77,160 // mov %ecx,-0x60(%ebp)
+ .byte 131,236,8 // sub $0x8,%esp
.byte 86 // push %esi
+ .byte 141,69,152 // lea -0x68(%ebp),%eax
.byte 80 // push %eax
- .byte 83 // push %ebx
- .byte 82 // push %edx
.byte 255,215 // call *%edi
- .byte 139,85,28 // mov 0x1c(%ebp),%edx
- .byte 131,196,96 // add $0x60,%esp
- .byte 70 // inc %esi
- .byte 59,117,20 // cmp 0x14(%ebp),%esi
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 117,172 // jne 28 <_sk_start_pipeline_sse2+0x28>
- .byte 131,196,12 // add $0xc,%esp
+ .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 131,196,16 // add $0x10,%esp
+ .byte 139,69,236 // mov -0x14(%ebp),%eax
+ .byte 64 // inc %eax
+ .byte 59,69,20 // cmp 0x14(%ebp),%eax
+ .byte 117,158 // jne 25 <_sk_start_pipeline_sse2+0x25>
+ .byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -48688,47 +48687,38 @@ FUNCTION(_sk_seed_shader_sse2)
_sk_seed_shader_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 93 <_sk_seed_shader_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 102,15,110,199 // movd %edi,%xmm0
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 9a <_sk_seed_shader_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 139,114,12 // mov 0xc(%edx),%esi
+ .byte 102,15,110,2 // movd (%edx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,145,221,144,0,0 // movaps 0x90dd(%ecx),%xmm2
+ .byte 15,40,144,230,109,0,0 // movaps 0x6de6(%eax),%xmm2
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,16,0 // movups (%eax),%xmm0
+ .byte 15,16,6 // movups (%esi),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
- .byte 102,15,110,202 // movd %edx,%xmm1
+ .byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 141,67,4 // lea 0x4(%ebx),%eax
+ .byte 141,113,4 // lea 0x4(%ecx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,145,237,144,0,0 // movaps 0x90ed(%ecx),%xmm2
+ .byte 15,41,82,64 // movaps %xmm2,0x40(%edx)
+ .byte 15,41,82,48 // movaps %xmm2,0x30(%edx)
+ .byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
+ .byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,144,246,109,0,0 // movaps 0x6df6(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,19 // call *(%ebx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 86 // push %esi
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -48738,93 +48728,75 @@ FUNCTION(_sk_dither_sse2)
_sk_dither_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 131,236,36 // sub $0x24,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
+ .byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 132 <_sk_dither_sse2+0x20>
- .byte 94 // pop %esi
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 232,0,0,0,0 // call 117 <_sk_dither_sse2+0x1a>
+ .byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 102,15,110,226 // movd %edx,%xmm4
+ .byte 139,80,12 // mov 0xc(%eax),%edx
+ .byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 243,15,111,104,32 // movdqu 0x20(%eax),%xmm5
+ .byte 243,15,111,106,32 // movdqu 0x20(%edx),%xmm5
.byte 102,15,254,236 // paddd %xmm4,%xmm5
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 102,15,110,96,4 // movd 0x4(%eax),%xmm4
.byte 102,15,112,252,0 // pshufd $0x0,%xmm4,%xmm7
.byte 102,15,239,253 // pxor %xmm5,%xmm7
- .byte 102,15,111,182,94,144,0,0 // movdqa 0x905e(%esi),%xmm6
+ .byte 102,15,111,177,137,109,0,0 // movdqa 0x6d89(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,111,134,126,144,0,0 // movdqa 0x907e(%esi),%xmm0
+ .byte 102,15,111,129,169,109,0,0 // movdqa 0x6da9(%ecx),%xmm0
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,219,224 // pand %xmm0,%xmm4
.byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,111,158,110,144,0,0 // movdqa 0x906e(%esi),%xmm3
- .byte 102,15,219,251 // pand %xmm3,%xmm7
- .byte 102,15,219,235 // pand %xmm3,%xmm5
+ .byte 102,15,219,185,153,109,0,0 // pand 0x6d99(%ecx),%xmm7
+ .byte 102,15,219,169,153,109,0,0 // pand 0x6d99(%ecx),%xmm5
.byte 102,15,114,246,4 // pslld $0x4,%xmm6
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
.byte 102,15,114,213,2 // psrld $0x2,%xmm5
.byte 102,15,235,197 // por %xmm5,%xmm0
- .byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
.byte 102,15,114,244,2 // pslld $0x2,%xmm4
- .byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,225 // por %xmm1,%xmm4
.byte 102,15,235,224 // por %xmm0,%xmm4
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,134,142,144,0,0 // mulps 0x908e(%esi),%xmm0
- .byte 15,88,134,158,144,0,0 // addps 0x909e(%esi),%xmm0
- .byte 139,55 // mov (%edi),%esi
+ .byte 15,89,129,185,109,0,0 // mulps 0x6db9(%ecx),%xmm0
+ .byte 15,88,129,201,109,0,0 // addps 0x6dc9(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,93,211 // minps %xmm3,%xmm2
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,93,208 // minps %xmm0,%xmm2
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,93,216 // minps %xmm0,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,95,227 // maxps %xmm3,%xmm4
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,93,203 // minps %xmm3,%xmm1
+ .byte 15,93,200 // minps %xmm0,%xmm1
+ .byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 141,95,8 // lea 0x8(%edi),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 141,74,8 // lea 0x8(%edx),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 255,87,4 // call *0x4(%edi)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
+ .byte 81 // push %ecx
+ .byte 80 // push %eax
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,52 // add $0x34,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -48834,43 +48806,23 @@ FUNCTION(_sk_uniform_color_sse2)
_sk_uniform_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
- .byte 243,15,16,87,8 // movss 0x8(%edi),%xmm2
- .byte 243,15,16,95,12 // movss 0xc(%edi),%xmm3
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -48880,40 +48832,20 @@ FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 2f7 <_sk_black_color_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 141,67,4 // lea 0x4(%ebx),%eax
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,153,233,142,0,0 // movaps 0x8ee9(%ecx),%xmm3
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 257 <_sk_black_color_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,152,153,108,0,0 // movaps 0x6c99(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,19 // call *(%ebx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -48923,40 +48855,20 @@ FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 369 <_sk_white_color_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 141,67,4 // lea 0x4(%ebx),%eax
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,129,135,142,0,0 // movaps 0x8e87(%ecx),%xmm0
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 287 <_sk_white_color_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,128,121,108,0,0 // movaps 0x6c79(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,19 // call *(%ebx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -48966,39 +48878,19 @@ FUNCTION(_sk_load_rgba_sse2)
_sk_load_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,16,79,16 // movups 0x10(%edi),%xmm1
- .byte 15,16,87,32 // movups 0x20(%edi),%xmm2
- .byte 15,16,95,48 // movups 0x30(%edi),%xmm3
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 15,16,1 // movups (%ecx),%xmm0
+ .byte 15,16,73,16 // movups 0x10(%ecx),%xmm1
+ .byte 15,16,81,32 // movups 0x20(%ecx),%xmm2
+ .byte 15,16,89,48 // movups 0x30(%ecx),%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49008,39 +48900,20 @@ FUNCTION(_sk_store_rgba_sse2)
_sk_store_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,17,7 // movups %xmm0,(%edi)
- .byte 15,17,79,16 // movups %xmm1,0x10(%edi)
- .byte 15,17,87,32 // movups %xmm2,0x20(%edi)
- .byte 15,17,95,48 // movups %xmm3,0x30(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 15,17,2 // movups %xmm0,(%edx)
+ .byte 15,17,74,16 // movups %xmm1,0x10(%edx)
+ .byte 15,17,82,32 // movups %xmm2,0x20(%edx)
+ .byte 15,17,90,48 // movups %xmm3,0x30(%edx)
+ .byte 141,81,8 // lea 0x8(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49050,38 +48923,18 @@ FUNCTION(_sk_clear_sse2)
_sk_clear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49091,60 +48944,35 @@ FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 528 <_sk_srcatop_sse2+0x17>
- .byte 88 // pop %eax
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,40,136,216,140,0,0 // movaps 0x8cd8(%eax),%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,89,125,40 // mulps 0x28(%ebp),%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,117,56 // mulps 0x38(%ebp),%xmm6
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 336 <_sk_srcatop_sse2+0xb>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,40,170,218,107,0,0 // movaps 0x6bda(%edx),%xmm5
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,221 // addps %xmm5,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49154,54 +48982,36 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 232,0,0,0,0 // call 5d2 <_sk_dstatop_sse2+0x11>
- .byte 88 // pop %eax
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,89,117,40 // mulps 0x28(%ebp),%xmm6
- .byte 15,40,184,62,140,0,0 // movaps 0x8c3e(%eax),%xmm7
- .byte 15,92,125,88 // subps 0x58(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 395 <_sk_dstatop_sse2+0xb>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
+ .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,40,162,139,107,0,0 // movaps 0x6b8b(%edx),%xmm4
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49211,38 +49021,20 @@ FUNCTION(_sk_srcin_sse2)
_sk_srcin_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49252,41 +49044,22 @@ FUNCTION(_sk_dstin_sse2)
_sk_dstin_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49296,42 +49069,23 @@ FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 746 <_sk_srcout_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 456 <_sk_srcout_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,40,184,218,138,0,0 // movaps 0x8ada(%eax),%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,160,218,106,0,0 // movaps 0x6ada(%eax),%xmm4
+ .byte 15,92,98,64 // subps 0x40(%edx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49341,47 +49095,27 @@ FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 7be <_sk_dstout_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 48e <_sk_dstout_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,160,114,138,0,0 // movaps 0x8a72(%eax),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,160,178,106,0,0 // movaps 0x6ab2(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,40,74,32 // movaps 0x20(%edx),%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,40,82,48 // movaps 0x30(%edx),%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49391,55 +49125,30 @@ FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 84e <_sk_srcover_sse2+0x17>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 4d5 <_sk_srcover_sse2+0xb>
.byte 88 // pop %eax
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,128,242,137,0,0 // movaps 0x89f2(%eax),%xmm0
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,125,56 // mulps 0x38(%ebp),%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,160,123,106,0,0 // movaps 0x6a7b(%eax),%xmm4
+ .byte 15,92,227 // subps %xmm3,%xmm4
+ .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,40,106,32 // movaps 0x20(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,205 // addps %xmm5,%xmm1
+ .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,213 // addps %xmm5,%xmm2
+ .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4
+ .byte 15,88,220 // addps %xmm4,%xmm3
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49449,46 +49158,29 @@ FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8e5 <_sk_dstover_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,162,107,137,0,0 // movaps 0x896b(%edx),%xmm4
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 525 <_sk_dstover_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
+ .byte 15,40,160,59,106,0,0 // movaps 0x6a3b(%eax),%xmm4
+ .byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,88,66,16 // addps 0x10(%edx),%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 141,90,4 // lea 0x4(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,18 // call *(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,88,82,48 // addps 0x30(%edx),%xmm2
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49498,38 +49190,19 @@ FUNCTION(_sk_modulate_sse2)
_sk_modulate_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,89,65,16 // mulps 0x10(%ecx),%xmm0
+ .byte 15,89,73,32 // mulps 0x20(%ecx),%xmm1
+ .byte 15,89,81,48 // mulps 0x30(%ecx),%xmm2
+ .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49539,75 +49212,59 @@ FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 131,236,56 // sub $0x38,%esp
+ .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call 9db <_sk_multiply_sse2+0x18>
- .byte 88 // pop %eax
- .byte 15,40,144,133,136,0,0 // movaps 0x8885(%eax),%xmm2
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,92,125,88 // subps 0x58(%ebp),%xmm7
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 232,0,0,0,0 // call 5a4 <_sk_multiply_sse2+0x12>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,40,129,204,105,0,0 // movaps 0x69cc(%ecx),%xmm0
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,89,253 // mulps %xmm5,%xmm7
+ .byte 15,92,195 // subps %xmm3,%xmm0
+ .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,89,226 // mulps %xmm2,%xmm4
+ .byte 15,88,231 // addps %xmm7,%xmm4
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,88,236 // addps %xmm4,%xmm5
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,40,96,32 // movaps 0x20(%eax),%xmm4
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,88,250 // addps %xmm2,%xmm7
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,88,249 // addps %xmm1,%xmm7
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,72 // add $0x48,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49617,38 +49274,19 @@ FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,88,65,16 // addps 0x10(%ecx),%xmm0
+ .byte 15,88,73,32 // addps 0x20(%ecx),%xmm1
+ .byte 15,88,81,48 // addps 0x30(%ecx),%xmm2
+ .byte 15,88,89,64 // addps 0x40(%ecx),%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49658,55 +49296,39 @@ FUNCTION(_sk_screen_sse2)
_sk_screen_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
+ .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
+ .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,40,238 // movaps %xmm6,%xmm5
+ .byte 15,88,233 // addps %xmm1,%xmm5
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,92,238 // subps %xmm6,%xmm5
+ .byte 15,40,65,48 // movaps 0x30(%ecx),%xmm0
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,92,240 // subps %xmm0,%xmm6
+ .byte 15,40,65,64 // movaps 0x40(%ecx),%xmm0
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,88,251 // addps %xmm3,%xmm7
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,40,223 // movaps %xmm7,%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49716,57 +49338,38 @@ FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call bc2 <_sk_xor__sse2+0x12>
- .byte 88 // pop %eax
- .byte 15,40,176,174,134,0,0 // movaps 0x86ae(%eax),%xmm6
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,92,125,88 // subps 0x58(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,89,93,40 // mulps 0x28(%ebp),%xmm3
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,227 // movaps %xmm3,%xmm4
+ .byte 232,0,0,0,0 // call 6df <_sk_xor__sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
+ .byte 15,40,154,161,104,0,0 // movaps 0x68a1(%edx),%xmm3
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,92,245 // subps %xmm5,%xmm6
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 15,40,121,48 // movaps 0x30(%ecx),%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,88,222 // addps %xmm6,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49776,67 +49379,46 @@ FUNCTION(_sk_darken_sse2)
_sk_darken_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 232,0,0,0,0 // call 747 <_sk_darken_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
+ .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,88,196 // addps %xmm4,%xmm0
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,89,235 // mulps %xmm3,%xmm5
+ .byte 15,95,229 // maxps %xmm5,%xmm4
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,40,231 // movaps %xmm7,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,95,207 // maxps %xmm7,%xmm1
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,95,209 // maxps %xmm1,%xmm2
+ .byte 15,92,234 // subps %xmm2,%xmm5
+ .byte 15,40,138,73,104,0,0 // movaps 0x6849(%edx),%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,95,213 // maxps %xmm5,%xmm2
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 232,0,0,0,0 // call cbc <_sk_darken_sse2+0x63>
- .byte 88 // pop %eax
- .byte 15,40,144,196,133,0,0 // movaps 0x85c4(%eax),%xmm2
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49846,67 +49428,46 @@ FUNCTION(_sk_lighten_sse2)
_sk_lighten_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 232,0,0,0,0 // call 7c7 <_sk_lighten_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
+ .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,88,196 // addps %xmm4,%xmm0
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,89,235 // mulps %xmm3,%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,40,231 // movaps %xmm7,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,93,209 // minps %xmm1,%xmm2
+ .byte 15,92,234 // subps %xmm2,%xmm5
+ .byte 15,40,138,217,103,0,0 // movaps 0x67d9(%edx),%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 232,0,0,0,0 // call d81 <_sk_lighten_sse2+0x63>
- .byte 88 // pop %eax
- .byte 15,40,144,15,133,0,0 // movaps 0x850f(%eax),%xmm2
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49916,70 +49477,49 @@ FUNCTION(_sk_difference_sse2)
_sk_difference_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
+ .byte 232,0,0,0,0 // call 84a <_sk_difference_sse2+0x11>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
+ .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
+ .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,88,195 // addps %xmm3,%xmm0
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,93,206 // minps %xmm6,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,88,228 // addps %xmm4,%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,88,226 // addps %xmm2,%xmm4
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 232,0,0,0,0 // call e4f <_sk_difference_sse2+0x6c>
- .byte 88 // pop %eax
- .byte 15,40,144,81,132,0,0 // movaps 0x8451(%eax),%xmm2
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
+ .byte 15,40,146,102,103,0,0 // movaps 0x6766(%edx),%xmm2
+ .byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -49989,58 +49529,42 @@ FUNCTION(_sk_exclusion_sse2)
_sk_exclusion_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ec5 <_sk_exclusion_sse2+0x14>
- .byte 88 // pop %eax
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 232,0,0,0,0 // call 8d0 <_sk_exclusion_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
+ .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,88,196 // addps %xmm4,%xmm0
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,237 // addps %xmm5,%xmm5
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,88,246 // addps %xmm6,%xmm6
+ .byte 15,92,230 // subps %xmm6,%xmm4
+ .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,40,138,240,102,0,0 // movaps 0x66f0(%edx),%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,144,235,131,0,0 // movaps 0x83eb(%eax),%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50050,141 +49574,131 @@ FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,172,0,0,0 // sub $0xac,%esp
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call f76 <_sk_colorburn_sse2+0x1c>
- .byte 88 // pop %eax
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,92,69,40 // subps 0x28(%ebp),%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,94,193 // divps %xmm1,%xmm0
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,93,240 // minps %xmm0,%xmm6
- .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 131,236,120 // sub $0x78,%esp
+ .byte 15,40,235 // movaps %xmm3,%xmm5
+ .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
+ .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
+ .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
+ .byte 15,40,216 // movaps %xmm0,%xmm3
+ .byte 232,0,0,0,0 // call 953 <_sk_colorburn_sse2+0x1d>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0
+ .byte 15,40,96,16 // movaps 0x10(%eax),%xmm4
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,212 // subps %xmm4,%xmm2
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,94,211 // divps %xmm3,%xmm2
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,93,242 // minps %xmm2,%xmm6
+ .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,40,176,74,131,0,0 // movaps 0x834a(%eax),%xmm6
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,197 // andnps %xmm5,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,40,177,125,102,0,0 // movaps 0x667d(%ecx),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,194,77,88,0 // cmpeqps 0x58(%ebp),%xmm1
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,84,217 // andps %xmm1,%xmm3
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,86,203 // orps %xmm3,%xmm1
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,69,56 // subps 0x38(%ebp),%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,40,249 // movaps %xmm1,%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,88,231 // addps %xmm7,%xmm4
.byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,94,194 // divps %xmm2,%xmm0
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,88,239 // addps %xmm7,%xmm5
+ .byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,194,215,0 // cmpeqps %xmm7,%xmm2
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,84,221 // andps %xmm5,%xmm3
- .byte 15,85,234 // andnps %xmm2,%xmm5
- .byte 15,86,235 // orps %xmm3,%xmm5
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,69,72 // subps 0x48(%ebp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,94,195 // divps %xmm3,%xmm0
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
+ .byte 15,84,217 // andps %xmm1,%xmm3
+ .byte 15,85,205 // andnps %xmm5,%xmm1
+ .byte 15,86,203 // orps %xmm3,%xmm1
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 15,41,117,232 // movaps %xmm6,-0x18(%ebp)
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,203 // addps %xmm3,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 15,194,211,0 // cmpeqps %xmm3,%xmm2
+ .byte 15,84,226 // andps %xmm2,%xmm4
+ .byte 15,85,209 // andnps %xmm1,%xmm2
+ .byte 15,86,212 // orps %xmm4,%xmm2
+ .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,92,216 // subps %xmm0,%xmm3
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
+ .byte 15,94,217 // divps %xmm1,%xmm3
+ .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,93,227 // minps %xmm3,%xmm4
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,88,220 // addps %xmm4,%xmm3
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,194,231,0 // cmpeqps %xmm7,%xmm4
+ .byte 15,84,204 // andps %xmm4,%xmm1
+ .byte 15,85,227 // andnps %xmm3,%xmm4
+ .byte 15,86,225 // orps %xmm1,%xmm4
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,40,248 // movaps %xmm0,%xmm7
.byte 15,194,250,0 // cmpeqps %xmm2,%xmm7
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,84,215 // andps %xmm7,%xmm2
- .byte 15,85,248 // andnps %xmm0,%xmm7
- .byte 15,86,250 // orps %xmm2,%xmm7
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
+ .byte 15,84,247 // andps %xmm7,%xmm6
+ .byte 15,85,252 // andnps %xmm4,%xmm7
+ .byte 15,86,254 // orps %xmm6,%xmm7
+ .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,92,204 // subps %xmm4,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
+ .byte 15,94,205 // divps %xmm5,%xmm1
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,93,217 // minps %xmm1,%xmm3
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 15,194,226,0 // cmpeqps %xmm2,%xmm4
.byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,194,85,88,0 // cmpeqps 0x58(%ebp),%xmm2
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 255,23 // call *(%edi)
- .byte 129,196,172,0,0,0 // add $0xac,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
+ .byte 15,92,211 // subps %xmm3,%xmm2
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 15,88,85,216 // addps -0x28(%ebp),%xmm2
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,194,197,0 // cmpeqps %xmm5,%xmm0
+ .byte 15,84,232 // andps %xmm0,%xmm5
+ .byte 15,85,194 // andnps %xmm2,%xmm0
+ .byte 15,86,197 // orps %xmm5,%xmm0
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,84,204 // andps %xmm4,%xmm1
+ .byte 15,85,224 // andnps %xmm0,%xmm4
+ .byte 15,86,225 // orps %xmm1,%xmm4
+ .byte 15,40,235 // movaps %xmm3,%xmm5
+ .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,136,0,0,0 // add $0x88,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50194,133 +49708,116 @@ FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,172,0,0,0 // sub $0xac,%esp
+ .byte 131,236,104 // sub $0x68,%esp
.byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
+ .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 232,0,0,0,0 // call ae9 <_sk_colordodge_sse2+0x16>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
+ .byte 15,40,177,247,100,0,0 // movaps 0x64f7(%ecx),%xmm6
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,92,247 // subps %xmm7,%xmm6
+ .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,94,233 // divps %xmm1,%xmm5
+ .byte 15,40,96,64 // movaps 0x40(%eax),%xmm4
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,93,205 // minps %xmm5,%xmm1
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,211 // addps %xmm3,%xmm2
+ .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call 1138 <_sk_colordodge_sse2+0x1f>
- .byte 88 // pop %eax
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 15,40,152,152,129,0,0 // movaps 0x8198(%eax),%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,92,223 // subps %xmm7,%xmm3
+ .byte 15,194,239,0 // cmpeqps %xmm7,%xmm5
+ .byte 15,84,197 // andps %xmm5,%xmm0
+ .byte 15,85,233 // andnps %xmm1,%xmm5
+ .byte 15,86,232 // orps %xmm0,%xmm5
+ .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 15,194,216,0 // cmpeqps %xmm0,%xmm3
+ .byte 15,84,211 // andps %xmm3,%xmm2
+ .byte 15,85,221 // andnps %xmm5,%xmm3
+ .byte 15,86,218 // orps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,194,236,0 // cmpeqps %xmm4,%xmm5
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,85,232 // andnps %xmm0,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,247 // movaps %xmm7,%xmm6
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,94,198 // divps %xmm6,%xmm0
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,93,240 // minps %xmm0,%xmm6
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,206 // andnps %xmm6,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,194,244,0 // cmpeqps %xmm4,%xmm6
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,85,241 // andnps %xmm1,%xmm6
- .byte 15,86,242 // orps %xmm2,%xmm6
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,89,77,72 // mulps 0x48(%ebp),%xmm1
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,199 // mulps %xmm7,%xmm0
.byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,94,203 // divps %xmm3,%xmm1
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,93,217 // minps %xmm1,%xmm3
.byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
+ .byte 15,92,218 // subps %xmm2,%xmm3
+ .byte 15,94,195 // divps %xmm3,%xmm0
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,93,216 // minps %xmm0,%xmm3
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,88,240 // addps %xmm0,%xmm6
.byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,203 // andnps %xmm3,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
+ .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
+ .byte 15,84,208 // andps %xmm0,%xmm2
+ .byte 15,85,195 // andnps %xmm3,%xmm0
+ .byte 15,86,194 // orps %xmm2,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 15,194,234,0 // cmpeqps %xmm2,%xmm5
+ .byte 15,84,245 // andps %xmm5,%xmm6
+ .byte 15,85,232 // andnps %xmm0,%xmm5
+ .byte 15,86,238 // orps %xmm6,%xmm5
+ .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1
+ .byte 15,194,209,0 // cmpeqps %xmm1,%xmm2
+ .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
+ .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,194,226,0 // cmpeqps %xmm2,%xmm4
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,86,227 // orps %xmm3,%xmm4
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
+ .byte 15,89,207 // mulps %xmm7,%xmm1
+ .byte 15,40,247 // movaps %xmm7,%xmm6
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 15,94,206 // divps %xmm6,%xmm1
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,93,225 // minps %xmm1,%xmm4
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
+ .byte 15,84,209 // andps %xmm1,%xmm2
+ .byte 15,85,204 // andnps %xmm4,%xmm1
+ .byte 15,86,202 // orps %xmm2,%xmm1
+ .byte 15,88,77,168 // addps -0x58(%ebp),%xmm1
+ .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
+ .byte 15,84,218 // andps %xmm2,%xmm3
+ .byte 15,85,209 // andnps %xmm1,%xmm2
+ .byte 15,86,211 // orps %xmm3,%xmm2
.byte 15,88,248 // addps %xmm0,%xmm7
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
+ .byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,172,0,0,0 // add $0xac,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,120 // add $0x78,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50330,124 +49827,106 @@ FUNCTION(_sk_hardlight_sse2)
_sk_hardlight_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 12da <_sk_hardlight_sse2+0x1a>
- .byte 88 // pop %eax
- .byte 15,40,176,6,128,0,0 // movaps 0x8006(%eax),%xmm6
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,92,77,88 // subps 0x58(%ebp),%xmm1
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 131,236,88 // sub $0x58,%esp
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
+ .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
+ .byte 232,0,0,0,0 // call c55 <_sk_hardlight_sse2+0x16>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
+ .byte 15,40,145,155,99,0,0 // movaps 0x639b(%ecx),%xmm2
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,92,214 // subps %xmm6,%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,40,88,16 // movaps 0x10(%eax),%xmm3
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,40,212 // movaps %xmm4,%xmm2
.byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,85,88 // mulps 0x58(%ebp),%xmm2
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,89,101,40 // mulps 0x28(%ebp),%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
- .byte 15,89,117,56 // mulps 0x38(%ebp),%xmm6
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,92,101,56 // subps 0x38(%ebp),%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,92,251 // subps %xmm3,%xmm7
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,41,125,184 // movaps %xmm7,-0x48(%ebp)
.byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,92,252 // subps %xmm4,%xmm7
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
- .byte 15,89,109,56 // mulps 0x38(%ebp),%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,84,236 // andps %xmm4,%xmm5
- .byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
+ .byte 15,194,230,2 // cmpleps %xmm6,%xmm4
+ .byte 15,88,219 // addps %xmm3,%xmm3
+ .byte 15,84,220 // andps %xmm4,%xmm3
+ .byte 15,85,231 // andnps %xmm7,%xmm4
+ .byte 15,86,227 // orps %xmm3,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3
+ .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
+ .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,92,250 // subps %xmm2,%xmm7
+ .byte 15,89,249 // mulps %xmm1,%xmm7
+ .byte 15,88,255 // addps %xmm7,%xmm7
+ .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
+ .byte 15,92,215 // subps %xmm7,%xmm2
+ .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,194,206,2 // cmpleps %xmm6,%xmm1
+ .byte 15,88,219 // addps %xmm3,%xmm3
+ .byte 15,84,217 // andps %xmm1,%xmm3
+ .byte 15,85,202 // andnps %xmm2,%xmm1
+ .byte 15,86,203 // orps %xmm3,%xmm1
+ .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7
.byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,109,216 // movaps -0x28(%ebp),%xmm5
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,92,214 // subps %xmm6,%xmm2
+ .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
.byte 15,194,238,2 // cmpleps %xmm6,%xmm5
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,85,234 // andnps %xmm2,%xmm5
- .byte 15,86,239 // orps %xmm7,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,89,215 // mulps %xmm7,%xmm2
+ .byte 15,88,222 // addps %xmm6,%xmm3
+ .byte 15,92,247 // subps %xmm7,%xmm6
+ .byte 15,89,240 // mulps %xmm0,%xmm6
+ .byte 15,88,246 // addps %xmm6,%xmm6
+ .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
+ .byte 15,92,254 // subps %xmm6,%xmm7
+ .byte 15,88,210 // addps %xmm2,%xmm2
+ .byte 15,84,213 // andps %xmm5,%xmm2
+ .byte 15,85,239 // andnps %xmm7,%xmm5
+ .byte 15,86,234 // orps %xmm2,%xmm5
+ .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,104 // add $0x68,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50457,126 +49936,111 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 1465 <_sk_overlay_sse2+0x18>
- .byte 88 // pop %eax
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,40,144,139,126,0,0 // movaps 0x7e8b(%eax),%xmm2
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,89,85,40 // mulps 0x28(%ebp),%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 15,89,101,40 // mulps 0x28(%ebp),%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,89,117,56 // mulps 0x38(%ebp),%xmm6
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
+ .byte 131,236,104 // sub $0x68,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
+ .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 232,0,0,0,0 // call da0 <_sk_overlay_sse2+0x1a>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
+ .byte 15,40,161,96,98,0,0 // movaps 0x6260(%ecx),%xmm4
+ .byte 15,40,244 // movaps %xmm4,%xmm6
+ .byte 15,92,242 // subps %xmm2,%xmm6
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,40,227 // movaps %xmm3,%xmm4
+ .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
+ .byte 15,40,64,16 // movaps 0x10(%eax),%xmm0
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
.byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,194,101,88,2 // cmpleps 0x58(%ebp),%xmm4
- .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,92,236 // subps %xmm4,%xmm5
+ .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,85,226 // andnps %xmm2,%xmm4
- .byte 15,86,225 // orps %xmm1,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,40,117,184 // movaps -0x48(%ebp),%xmm6
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,89,85,72 // mulps 0x48(%ebp),%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,92,117,72 // subps 0x48(%ebp),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
+ .byte 15,194,202,2 // cmpleps %xmm2,%xmm1
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,84,193 // andps %xmm1,%xmm0
+ .byte 15,85,205 // andnps %xmm5,%xmm1
+ .byte 15,86,200 // orps %xmm0,%xmm1
+ .byte 15,88,203 // addps %xmm3,%xmm1
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3
+ .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,40,235 // movaps %xmm3,%xmm5
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,89,249 // mulps %xmm1,%xmm7
+ .byte 15,88,255 // addps %xmm7,%xmm7
+ .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
+ .byte 15,92,207 // subps %xmm7,%xmm1
.byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,194,238,2 // cmpleps %xmm6,%xmm5
- .byte 15,40,117,184 // movaps -0x48(%ebp),%xmm6
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,194,239,2 // cmpleps %xmm7,%xmm5
+ .byte 15,88,219 // addps %xmm3,%xmm3
+ .byte 15,84,221 // andps %xmm5,%xmm3
+ .byte 15,85,233 // andnps %xmm1,%xmm5
+ .byte 15,86,235 // orps %xmm3,%xmm5
+ .byte 15,88,236 // addps %xmm4,%xmm5
+ .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3
.byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1
+ .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,85,239 // andnps %xmm7,%xmm5
- .byte 15,86,238 // orps %xmm6,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,194,247,2 // cmpleps %xmm7,%xmm6
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,92,249 // subps %xmm1,%xmm7
+ .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,40,251 // movaps %xmm3,%xmm7
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,92,223 // subps %xmm7,%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,219 // addps %xmm3,%xmm3
+ .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
+ .byte 15,92,251 // subps %xmm3,%xmm7
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,84,206 // andps %xmm6,%xmm1
+ .byte 15,85,247 // andnps %xmm7,%xmm6
+ .byte 15,86,241 // orps %xmm1,%xmm6
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,120 // add $0x78,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50586,219 +50050,206 @@ FUNCTION(_sk_softlight_sse2)
_sk_softlight_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,12,1,0,0 // sub $0x10c,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 15,84,203 // andps %xmm3,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
+ .byte 129,236,184,0,0,0 // sub $0xb8,%esp
+ .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
+ .byte 15,41,149,88,255,255,255 // movaps %xmm2,-0xa8(%ebp)
+ .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp)
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
+ .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
+ .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,94,211 // divps %xmm3,%xmm2
+ .byte 15,84,208 // andps %xmm0,%xmm2
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,89,246 // mulps %xmm6,%xmm6
+ .byte 15,88,241 // addps %xmm1,%xmm6
+ .byte 232,0,0,0,0 // call f30 <_sk_softlight_sse2+0x52>
+ .byte 89 // pop %ecx
+ .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 15,40,137,240,96,0,0 // movaps 0x60f0(%ecx),%xmm1
+ .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,40,185,224,96,0,0 // movaps 0x60e0(%ecx),%xmm7
+ .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
+ .byte 15,92,250 // subps %xmm2,%xmm7
+ .byte 15,82,242 // rsqrtps %xmm2,%xmm6
+ .byte 15,83,206 // rcpps %xmm6,%xmm1
+ .byte 15,92,202 // subps %xmm2,%xmm1
+ .byte 15,40,161,0,97,0,0 // movaps 0x6100(%ecx),%xmm4
+ .byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 1634 <_sk_softlight_sse2+0x51>
- .byte 88 // pop %eax
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,128,220,124,0,0 // movaps 0x7cdc(%eax),%xmm0
- .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,40,184,204,124,0,0 // movaps 0x7ccc(%eax),%xmm7
- .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,82,209 // rsqrtps %xmm1,%xmm2
- .byte 15,83,242 // rcpps %xmm2,%xmm6
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,40,128,236,124,0,0 // movaps 0x7cec(%eax),%xmm0
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
+ .byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,194,194,2 // cmpleps %xmm2,%xmm0
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
- .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
+ .byte 15,194,198,2 // cmpleps %xmm6,%xmm0
+ .byte 15,84,208 // andps %xmm0,%xmm2
+ .byte 15,85,193 // andnps %xmm1,%xmm0
+ .byte 15,86,194 // orps %xmm2,%xmm0
+ .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
+ .byte 15,88,210 // addps %xmm2,%xmm2
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
.byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,88,250 // addps %xmm2,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,194,242,2 // cmpleps %xmm2,%xmm6
- .byte 15,84,254 // andps %xmm6,%xmm7
- .byte 15,85,240 // andnps %xmm0,%xmm6
- .byte 15,86,247 // orps %xmm7,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,41,181,104,255,255,255 // movaps %xmm6,-0x98(%ebp)
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,94,230 // divps %xmm6,%xmm4
- .byte 15,84,101,184 // andps -0x48(%ebp),%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,133,120,255,255,255 // addps -0x88(%ebp),%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,88,251 // addps %xmm3,%xmm7
+ .byte 15,89,253 // mulps %xmm5,%xmm7
+ .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
+ .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,92,227 // subps %xmm3,%xmm4
+ .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,40,206 // movaps %xmm6,%xmm1
+ .byte 15,194,211,2 // cmpleps %xmm3,%xmm2
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,84,250 // andps %xmm2,%xmm7
+ .byte 15,85,208 // andnps %xmm0,%xmm2
+ .byte 15,86,215 // orps %xmm7,%xmm2
+ .byte 15,88,209 // addps %xmm1,%xmm2
+ .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,94,101,184 // divps -0x48(%ebp),%xmm4
+ .byte 15,84,101,200 // andps -0x38(%ebp),%xmm4
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,88,201 // addps %xmm1,%xmm1
+ .byte 15,40,217 // movaps %xmm1,%xmm3
+ .byte 15,89,219 // mulps %xmm3,%xmm3
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,88,141,104,255,255,255 // addps -0x98(%ebp),%xmm1
+ .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,82,236 // rsqrtps %xmm4,%xmm5
- .byte 15,83,237 // rcpps %xmm5,%xmm5
+ .byte 15,82,220 // rsqrtps %xmm4,%xmm3
+ .byte 15,83,235 // rcpps %xmm3,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,89,101,168 // mulps -0x58(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 15,89,101,152 // mulps -0x68(%ebp),%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3
+ .byte 15,88,219 // addps %xmm3,%xmm3
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,89,249 // mulps %xmm1,%xmm7
+ .byte 15,88,254 // addps %xmm6,%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
+ .byte 15,89,240 // mulps %xmm0,%xmm6
+ .byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,88,192 // addps %xmm0,%xmm0
.byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,198,2 // cmpleps %xmm6,%xmm0
+ .byte 15,194,69,184,2 // cmpleps -0x48(%ebp),%xmm0
.byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,85,197 // andnps %xmm5,%xmm0
.byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,77,152 // mulps -0x68(%ebp),%xmm1
- .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,194,226,2 // cmpleps %xmm2,%xmm4
- .byte 15,84,252 // andps %xmm4,%xmm7
- .byte 15,85,224 // andnps %xmm0,%xmm4
- .byte 15,86,231 // orps %xmm7,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,84,125,184 // andps -0x48(%ebp),%xmm7
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,82,199 // rsqrtps %xmm7,%xmm0
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,88,194 // addps %xmm2,%xmm0
+ .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1
+ .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,194,221,2 // cmpleps %xmm5,%xmm3
+ .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 15,84,251 // andps %xmm3,%xmm7
+ .byte 15,85,216 // andnps %xmm0,%xmm3
+ .byte 15,86,223 // orps %xmm7,%xmm3
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,94,252 // divps %xmm4,%xmm7
+ .byte 15,84,125,200 // andps -0x38(%ebp),%xmm7
+ .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
+ .byte 15,92,207 // subps %xmm7,%xmm1
+ .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
+ .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5
+ .byte 15,88,239 // addps %xmm7,%xmm5
+ .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,82,207 // rsqrtps %xmm7,%xmm1
+ .byte 15,83,201 // rcpps %xmm1,%xmm1
+ .byte 15,92,207 // subps %xmm7,%xmm1
+ .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
.byte 15,88,255 // addps %xmm7,%xmm7
.byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,40,215 // movaps %xmm7,%xmm2
+ .byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5
.byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,194,238,2 // cmpleps %xmm6,%xmm5
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,92,214 // subps %xmm6,%xmm2
+ .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
+ .byte 15,89,226 // mulps %xmm2,%xmm4
+ .byte 15,88,230 // addps %xmm6,%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
+ .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,88,192 // addps %xmm0,%xmm0
+ .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
+ .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
+ .byte 15,84,200 // andps %xmm0,%xmm1
+ .byte 15,85,69,200 // andnps -0x38(%ebp),%xmm0
+ .byte 15,86,193 // orps %xmm1,%xmm0
+ .byte 15,89,215 // mulps %xmm7,%xmm2
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
+ .byte 15,89,242 // mulps %xmm2,%xmm6
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
+ .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
+ .byte 15,194,234,2 // cmpleps %xmm2,%xmm5
+ .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
.byte 15,84,213 // andps %xmm5,%xmm2
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,86,234 // orps %xmm2,%xmm5
+ .byte 15,88,233 // addps %xmm1,%xmm5
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
- .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,117,136 // movaps -0x78(%ebp),%xmm6
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,194,215,2 // cmpleps %xmm7,%xmm2
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,213 // andnps %xmm5,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,12,1,0,0 // add $0x10c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,200,0,0,0 // add $0xc8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -50808,233 +50259,223 @@ FUNCTION(_sk_hue_sse2)
_sk_hue_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,236,0,0,0 // sub $0xec,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,95,252 // maxps %xmm4,%xmm7
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,95,223 // maxps %xmm7,%xmm3
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,93,252 // minps %xmm4,%xmm7
+ .byte 129,236,184,0,0,0 // sub $0xb8,%esp
+ .byte 15,40,251 // movaps %xmm3,%xmm7
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
+ .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
+ .byte 15,40,88,48 // movaps 0x30(%eax),%xmm3
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,95,211 // maxps %xmm3,%xmm2
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
+ .byte 15,95,226 // maxps %xmm2,%xmm4
+ .byte 15,93,195 // minps %xmm3,%xmm0
+ .byte 15,93,200 // minps %xmm0,%xmm1
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
+ .byte 232,0,0,0,0 // call 11f1 <_sk_hue_sse2+0x4f>
+ .byte 89 // pop %ecx
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,89,223 // mulps %xmm7,%xmm3
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 232,0,0,0,0 // call 1905 <_sk_hue_sse2+0x3f>
- .byte 88 // pop %eax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,184,91,122,0,0 // movaps 0x7a5b(%eax),%xmm7
- .byte 15,41,125,168 // movaps %xmm7,-0x58(%ebp)
- .byte 15,92,125,88 // subps 0x58(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,41,125,136 // movaps %xmm7,-0x78(%ebp)
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp)
- .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,40,169,127,94,0,0 // movaps 0x5e7f(%ecx),%xmm5
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,41,181,104,255,255,255 // movaps %xmm6,-0x98(%ebp)
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 15,41,173,88,255,255,255 // movaps %xmm5,-0xa8(%ebp)
+ .byte 15,40,215 // movaps %xmm7,%xmm2
+ .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
+ .byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,93,249 // minps %xmm1,%xmm7
.byte 15,40,205 // movaps %xmm5,%xmm1
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,92,215 // subps %xmm7,%xmm2
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,95,225 // maxps %xmm1,%xmm4
+ .byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,152,43,122,0,0 // movaps 0x7a2b(%eax),%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
+ .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,40,153,79,94,0,0 // movaps 0x5e4f(%ecx),%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
+ .byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,160,59,122,0,0 // movaps 0x7a3b(%eax),%xmm4
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,40,153,95,94,0,0 // movaps 0x5e5f(%ecx),%xmm3
+ .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
+ .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,152,75,122,0,0 // movaps 0x7a4b(%eax),%xmm3
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
+ .byte 15,40,137,127,94,0,0 // movaps 0x5e7f(%ecx),%xmm1
+ .byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
+ .byte 15,40,169,111,94,0,0 // movaps 0x5e6f(%ecx),%xmm5
+ .byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,94,242 // divps %xmm2,%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,94,250 // divps %xmm2,%xmm7
- .byte 15,94,194 // divps %xmm2,%xmm0
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,213,4 // cmpneqps %xmm5,%xmm2
- .byte 15,84,242 // andps %xmm2,%xmm6
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,94,212 // divps %xmm4,%xmm2
+ .byte 15,40,181,120,255,255,255 // movaps -0x88(%ebp),%xmm6
+ .byte 15,94,244 // divps %xmm4,%xmm6
+ .byte 15,94,196 // divps %xmm4,%xmm0
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,194,231,4 // cmpneqps %xmm7,%xmm4
+ .byte 15,84,212 // andps %xmm4,%xmm2
+ .byte 15,84,244 // andps %xmm4,%xmm6
+ .byte 15,84,224 // andps %xmm0,%xmm4
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
+ .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,89,77,184 // mulps -0x48(%ebp),%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,88,209 // addps %xmm1,%xmm2
.byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,40,199 // movaps %xmm7,%xmm0
+ .byte 15,88,204 // addps %xmm4,%xmm1
+ .byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,93,193 // minps %xmm1,%xmm0
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
+ .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,93,224 // minps %xmm0,%xmm4
+ .byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,220 // addps %xmm4,%xmm3
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,89,222 // mulps %xmm6,%xmm3
+ .byte 15,88,216 // addps %xmm0,%xmm3
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 15,88,235 // addps %xmm3,%xmm5
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,194,194,2 // cmpleps %xmm2,%xmm0
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,85,234 // andnps %xmm2,%xmm5
- .byte 15,84,240 // andps %xmm0,%xmm6
- .byte 15,86,245 // orps %xmm5,%xmm6
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,101,168 // movaps -0x58(%ebp),%xmm4
+ .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
- .byte 15,88,109,88 // addps 0x58(%ebp),%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,194,215,1 // cmpltps %xmm7,%xmm2
+ .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,94,227 // divps %xmm3,%xmm4
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 15,40,216 // movaps %xmm0,%xmm3
+ .byte 15,85,220 // andnps %xmm4,%xmm3
.byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,85,230 // andnps %xmm6,%xmm4
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,94,247 // divps %xmm7,%xmm6
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 15,84,242 // andps %xmm2,%xmm6
- .byte 15,86,244 // orps %xmm4,%xmm6
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,85,236 // andnps %xmm4,%xmm5
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,85,236 // andnps %xmm4,%xmm5
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,89,101,152 // mulps -0x68(%ebp),%xmm4
+ .byte 15,86,227 // orps %xmm3,%xmm4
+ .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 15,88,93,216 // addps -0x28(%ebp),%xmm3
+ .byte 15,92,218 // subps %xmm2,%xmm3
+ .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
+ .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
+ .byte 15,194,215,1 // cmpltps %xmm7,%xmm2
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,85,220 // andnps %xmm4,%xmm3
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,92,253 // subps %xmm5,%xmm7
.byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,88,229 // addps %xmm5,%xmm4
.byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
+ .byte 15,86,101,200 // orps -0x38(%ebp),%xmm4
+ .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3
+ .byte 15,88,221 // addps %xmm5,%xmm3
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,85,227 // andnps %xmm3,%xmm4
+ .byte 15,84,240 // andps %xmm0,%xmm6
+ .byte 15,86,244 // orps %xmm4,%xmm6
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,85,220 // andnps %xmm4,%xmm3
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
+ .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,94,231 // divps %xmm7,%xmm4
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 15,84,226 // andps %xmm2,%xmm4
+ .byte 15,86,227 // orps %xmm3,%xmm4
+ .byte 15,40,217 // movaps %xmm1,%xmm3
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3
+ .byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,196 // andnps %xmm4,%xmm0
+ .byte 15,85,195 // andnps %xmm3,%xmm0
.byte 15,86,193 // orps %xmm1,%xmm0
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,89,69,152 // mulps -0x68(%ebp),%xmm0
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 15,86,193 // orps %xmm1,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
+ .byte 15,95,209 // maxps %xmm1,%xmm2
+ .byte 15,95,225 // maxps %xmm1,%xmm4
.byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,88,125,136 // addps -0x78(%ebp),%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
+ .byte 15,88,93,152 // addps -0x68(%ebp),%xmm3
+ .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
+ .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
+ .byte 15,88,204 // addps %xmm4,%xmm1
+ .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
+ .byte 15,88,149,88,255,255,255 // addps -0xa8(%ebp),%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,236,0,0,0 // add $0xec,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,200,0,0,0 // add $0xc8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51044,225 +50485,216 @@ FUNCTION(_sk_saturation_sse2)
_sk_saturation_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,12,1,0,0 // sub $0x10c,%esp
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
- .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
+ .byte 129,236,216,0,0,0 // sub $0xd8,%esp
+ .byte 15,41,149,40,255,255,255 // movaps %xmm2,-0xd8(%ebp)
+ .byte 15,41,141,56,255,255,255 // movaps %xmm1,-0xc8(%ebp)
+ .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,112,16 // movaps 0x10(%eax),%xmm6
+ .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,95,244 // maxps %xmm4,%xmm6
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,95,236 // maxps %xmm4,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
.byte 15,93,226 // minps %xmm2,%xmm4
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,89,93,56 // mulps 0x38(%ebp),%xmm3
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,125,72 // mulps 0x48(%ebp),%xmm7
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,95,231 // maxps %xmm7,%xmm4
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
.byte 15,92,234 // subps %xmm2,%xmm5
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,40,120,48 // movaps 0x30(%eax),%xmm7
+ .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
+ .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,93,207 // minps %xmm7,%xmm1
+ .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 15,93,209 // minps %xmm1,%xmm2
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,95,207 // maxps %xmm7,%xmm1
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,95,225 // maxps %xmm1,%xmm4
+ .byte 15,92,226 // subps %xmm2,%xmm4
+ .byte 15,92,194 // subps %xmm2,%xmm0
+ .byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,117,88 // mulps 0x58(%ebp),%xmm6
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 232,0,0,0,0 // call 1c53 <_sk_saturation_sse2+0x8e>
- .byte 88 // pop %eax
- .byte 15,40,176,29,119,0,0 // movaps 0x771d(%eax),%xmm6
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,40,160,45,119,0,0 // movaps 0x772d(%eax),%xmm4
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,89,144,61,119,0,0 // mulps 0x773d(%eax),%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,94,232 // divps %xmm0,%xmm5
- .byte 15,94,216 // divps %xmm0,%xmm3
- .byte 15,94,248 // divps %xmm0,%xmm7
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,194,193,4 // cmpneqps %xmm1,%xmm0
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,84,216 // andps %xmm0,%xmm3
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
+ .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0
+ .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,89,253 // mulps %xmm5,%xmm7
+ .byte 232,0,0,0,0 // call 1545 <_sk_saturation_sse2+0xb0>
+ .byte 89 // pop %ecx
+ .byte 15,40,153,59,91,0,0 // movaps 0x5b3b(%ecx),%xmm3
+ .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
+ .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,40,153,75,91,0,0 // movaps 0x5b4b(%ecx),%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,238 // movaps %xmm6,%xmm5
+ .byte 15,89,235 // mulps %xmm3,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,40,129,107,91,0,0 // movaps 0x5b6b(%ecx),%xmm0
+ .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
+ .byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,136,61,119,0,0 // mulps 0x773d(%eax),%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,89,85,216 // mulps -0x28(%ebp),%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,93,194 // minps %xmm2,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 15,41,149,120,255,255,255 // movaps %xmm2,-0x88(%ebp)
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,40,128,61,119,0,0 // movaps 0x773d(%eax),%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,249,2 // cmpleps %xmm1,%xmm7
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
+ .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 15,84,239 // andps %xmm7,%xmm5
- .byte 15,86,232 // orps %xmm0,%xmm5
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
+ .byte 15,40,129,91,91,0,0 // movaps 0x5b5b(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,144,77,119,0,0 // movaps 0x774d(%eax),%xmm2
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,88,205 // addps %xmm5,%xmm1
+ .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
+ .byte 15,94,236 // divps %xmm4,%xmm5
+ .byte 15,94,212 // divps %xmm4,%xmm2
+ .byte 15,94,252 // divps %xmm4,%xmm7
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
+ .byte 15,84,236 // andps %xmm4,%xmm5
+ .byte 15,84,212 // andps %xmm4,%xmm2
+ .byte 15,84,231 // andps %xmm7,%xmm4
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 15,40,165,88,255,255,255 // movaps -0xa8(%ebp),%xmm4
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,89,125,232 // mulps -0x18(%ebp),%xmm7
+ .byte 15,88,254 // addps %xmm6,%xmm7
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,89,240 // mulps %xmm0,%xmm6
+ .byte 15,88,247 // addps %xmm7,%xmm6
+ .byte 15,89,77,216 // mulps -0x28(%ebp),%xmm1
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,88,233 // addps %xmm1,%xmm5
+ .byte 15,88,209 // addps %xmm1,%xmm2
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,88,203 // addps %xmm3,%xmm1
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,93,217 // minps %xmm1,%xmm3
+ .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,93,251 // minps %xmm3,%xmm7
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,95,217 // maxps %xmm1,%xmm3
+ .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 15,95,243 // maxps %xmm3,%xmm6
+ .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 15,89,218 // mulps %xmm2,%xmm3
+ .byte 15,88,220 // addps %xmm4,%xmm3
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,88,195 // addps %xmm3,%xmm0
+ .byte 15,87,219 // xorps %xmm3,%xmm3
+ .byte 15,194,223,2 // cmpleps %xmm7,%xmm3
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,92,215 // subps %xmm7,%xmm2
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
+ .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,94,250 // divps %xmm2,%xmm7
+ .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,85,215 // andnps %xmm7,%xmm2
+ .byte 15,84,235 // andps %xmm3,%xmm5
+ .byte 15,86,234 // orps %xmm2,%xmm5
+ .byte 15,40,125,152 // movaps -0x68(%ebp),%xmm7
+ .byte 15,40,215 // movaps %xmm7,%xmm2
+ .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,88,231 // addps %xmm7,%xmm4
+ .byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,194,214,1 // cmpltps %xmm6,%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0
.byte 15,92,232 // subps %xmm0,%xmm5
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 15,94,233 // divps %xmm1,%xmm5
+ .byte 15,94,238 // divps %xmm6,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,84,234 // andps %xmm2,%xmm5
.byte 15,86,236 // orps %xmm4,%xmm5
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,77,184 // divps -0x48(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,84,223 // andps %xmm7,%xmm3
- .byte 15,86,220 // orps %xmm4,%xmm3
+ .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp)
+ .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,40,235 // movaps %xmm3,%xmm5
+ .byte 15,85,236 // andnps %xmm4,%xmm5
+ .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
+ .byte 15,84,227 // andps %xmm3,%xmm4
+ .byte 15,86,229 // orps %xmm5,%xmm4
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,85,236 // andnps %xmm4,%xmm5
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,89,231 // mulps %xmm7,%xmm4
+ .byte 15,94,230 // divps %xmm6,%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,84,226 // andps %xmm2,%xmm4
+ .byte 15,86,229 // orps %xmm5,%xmm4
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,84,203 // andps %xmm3,%xmm1
+ .byte 15,85,220 // andnps %xmm4,%xmm3
+ .byte 15,86,217 // orps %xmm1,%xmm3
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,85,203 // andnps %xmm3,%xmm1
.byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,94,93,200 // divps -0x38(%ebp),%xmm3
+ .byte 15,89,223 // mulps %xmm7,%xmm3
+ .byte 15,94,222 // divps %xmm6,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
.byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,40,165,120,255,255,255 // movaps -0x88(%ebp),%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,77,184 // divps -0x48(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,84,231 // andps %xmm7,%xmm4
- .byte 15,85,249 // andnps %xmm1,%xmm7
- .byte 15,86,252 // orps %xmm4,%xmm7
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,85,207 // andnps %xmm7,%xmm1
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,94,125,200 // divps -0x38(%ebp),%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,86,249 // orps %xmm1,%xmm7
.byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
+ .byte 15,95,200 // maxps %xmm0,%xmm1
.byte 15,95,232 // maxps %xmm0,%xmm5
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
+ .byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4
+ .byte 15,92,101,152 // subps -0x68(%ebp),%xmm4
+ .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,88,69,184 // addps -0x48(%ebp),%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,89,133,72,255,255,255 // mulps -0xb8(%ebp),%xmm0
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,89,165,40,255,255,255 // mulps -0xd8(%ebp),%xmm4
+ .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
+ .byte 15,88,212 // addps %xmm4,%xmm2
+ .byte 15,88,211 // addps %xmm3,%xmm2
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,12,1,0,0 // add $0x10c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,232,0,0,0 // add $0xe8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51272,203 +50704,182 @@ FUNCTION(_sk_color_sse2)
_sk_color_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,28,1,0,0 // sub $0x11c,%esp
+ .byte 129,236,200,0,0,0 // sub $0xc8,%esp
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 232,0,0,0,0 // call 1eda <_sk_color_sse2+0x1f>
- .byte 88 // pop %eax
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,152,214,116,0,0 // movaps 0x74d6(%eax),%xmm3
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,40,176,230,116,0,0 // movaps 0x74e6(%eax),%xmm6
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,184,246,116,0,0 // movaps 0x74f6(%eax),%xmm7
- .byte 15,41,189,56,255,255,255 // movaps %xmm7,-0xc8(%ebp)
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,41,101,136 // movaps %xmm4,-0x78(%ebp)
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,136,6,117,0,0 // movaps 0x7506(%eax),%xmm1
- .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
+ .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
- .byte 15,40,141,72,255,255,255 // movaps -0xb8(%ebp),%xmm1
- .byte 15,89,225 // mulps %xmm1,%xmm4
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,181,56,255,255,255 // movaps -0xc8(%ebp),%xmm6
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
+ .byte 232,0,0,0,0 // call 17a0 <_sk_color_sse2+0x2a>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
+ .byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
+ .byte 15,40,177,32,89,0,0 // movaps 0x5920(%ecx),%xmm6
+ .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
+ .byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,101,136 // movaps -0x78(%ebp),%xmm4
- .byte 15,89,101,200 // mulps -0x38(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,40,109,152 // movaps -0x68(%ebp),%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,41,101,136 // movaps %xmm4,-0x78(%ebp)
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
+ .byte 15,40,153,48,89,0,0 // movaps 0x5930(%ecx),%xmm3
+ .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,88,240 // addps %xmm0,%xmm6
+ .byte 15,40,129,80,89,0,0 // movaps 0x5950(%ecx),%xmm0
+ .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
+ .byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
+ .byte 15,89,208 // mulps %xmm0,%xmm2
+ .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
+ .byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
+ .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
+ .byte 15,89,194 // mulps %xmm2,%xmm0
+ .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
+ .byte 15,40,137,64,89,0,0 // movaps 0x5940(%ecx),%xmm1
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
+ .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,40,243 // movaps %xmm3,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,89,109,216 // mulps -0x28(%ebp),%xmm5
+ .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,89,125,184 // mulps -0x48(%ebp),%xmm7
+ .byte 15,88,253 // addps %xmm5,%xmm7
+ .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp)
+ .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
+ .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
+ .byte 15,88,235 // addps %xmm3,%xmm5
+ .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
+ .byte 15,40,235 // movaps %xmm3,%xmm5
+ .byte 15,89,109,152 // mulps -0x68(%ebp),%xmm5
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,88,223 // addps %xmm7,%xmm3
+ .byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,194,241,2 // cmpleps %xmm1,%xmm6
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 15,84,222 // andps %xmm6,%xmm3
- .byte 15,86,218 // orps %xmm2,%xmm3
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 15,88,213 // addps %xmm5,%xmm2
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,93,218 // minps %xmm2,%xmm3
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,93,227 // minps %xmm3,%xmm4
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,95,218 // maxps %xmm2,%xmm3
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,95,235 // maxps %xmm3,%xmm5
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,88,251 // addps %xmm3,%xmm7
.byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,88,101,88 // addps 0x58(%ebp),%xmm4
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,194,252,2 // cmpleps %xmm4,%xmm7
+ .byte 15,40,217 // movaps %xmm1,%xmm3
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
+ .byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,194,231,1 // cmpltps %xmm7,%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,85,203 // andnps %xmm3,%xmm1
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,94,223 // divps %xmm7,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,77,216 // divps -0x28(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 15,84,238 // andps %xmm6,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,94,215 // divps %xmm7,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,94,77,216 // divps -0x28(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,85,241 // andnps %xmm1,%xmm6
- .byte 15,86,242 // orps %xmm2,%xmm6
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,85,206 // andnps %xmm6,%xmm1
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,94,247 // divps %xmm7,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,94,227 // divps %xmm3,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,223 // movaps %xmm7,%xmm3
+ .byte 15,85,220 // andnps %xmm4,%xmm3
+ .byte 15,84,199 // andps %xmm7,%xmm0
+ .byte 15,86,195 // orps %xmm3,%xmm0
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
+ .byte 15,194,229,1 // cmpltps %xmm5,%xmm4
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,85,216 // andnps %xmm0,%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 15,92,217 // subps %xmm1,%xmm3
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
+ .byte 15,94,197 // divps %xmm5,%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,84,196 // andps %xmm4,%xmm0
+ .byte 15,86,69,232 // orps -0x18(%ebp),%xmm0
+ .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,92,217 // subps %xmm1,%xmm3
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
+ .byte 15,40,109,232 // movaps -0x18(%ebp),%xmm5
+ .byte 15,85,235 // andnps %xmm3,%xmm5
+ .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
+ .byte 15,84,247 // andps %xmm7,%xmm6
+ .byte 15,86,117,232 // orps -0x18(%ebp),%xmm6
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,85,222 // andnps %xmm6,%xmm3
+ .byte 15,92,241 // subps %xmm1,%xmm6
+ .byte 15,89,117,216 // mulps -0x28(%ebp),%xmm6
+ .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
+ .byte 15,94,245 // divps %xmm5,%xmm6
+ .byte 15,88,241 // addps %xmm1,%xmm6
.byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,86,241 // orps %xmm1,%xmm6
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,95,240 // maxps %xmm0,%xmm6
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
+ .byte 15,86,243 // orps %xmm3,%xmm6
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,92,217 // subps %xmm1,%xmm3
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3
+ .byte 15,88,217 // addps %xmm1,%xmm3
+ .byte 15,84,215 // andps %xmm7,%xmm2
+ .byte 15,85,251 // andnps %xmm3,%xmm7
+ .byte 15,86,250 // orps %xmm2,%xmm7
+ .byte 15,40,212 // movaps %xmm4,%xmm2
+ .byte 15,85,215 // andnps %xmm7,%xmm2
+ .byte 15,92,249 // subps %xmm1,%xmm7
+ .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
+ .byte 15,94,253 // divps %xmm5,%xmm7
+ .byte 15,88,249 // addps %xmm1,%xmm7
+ .byte 15,84,252 // andps %xmm4,%xmm7
+ .byte 15,86,250 // orps %xmm2,%xmm7
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,193 // maxps %xmm1,%xmm0
+ .byte 15,95,241 // maxps %xmm1,%xmm6
+ .byte 15,95,249 // maxps %xmm1,%xmm7
+ .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
+ .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,88,141,56,255,255,255 // addps -0xc8(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
+ .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,88,141,88,255,255,255 // addps -0xa8(%ebp),%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
.byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,173,104,255,255,255 // addps -0x98(%ebp),%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,149,72,255,255,255 // addps -0xb8(%ebp),%xmm2
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,28,1,0,0 // add $0x11c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,216,0,0,0 // add $0xd8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51478,194 +50889,179 @@ FUNCTION(_sk_luminosity_sse2)
_sk_luminosity_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,252,0,0,0 // sub $0xfc,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 218d <_sk_luminosity_sse2+0x1a>
- .byte 88 // pop %eax
- .byte 15,40,160,99,114,0,0 // movaps 0x7263(%eax),%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 129,236,184,0,0,0 // sub $0xb8,%esp
+ .byte 15,40,242 // movaps %xmm2,%xmm6
+ .byte 232,0,0,0,0 // call 1a03 <_sk_luminosity_sse2+0x11>
+ .byte 89 // pop %ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 15,40,161,253,86,0,0 // movaps 0x56fd(%ecx),%xmm4
+ .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
+ .byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,128,115,114,0,0 // movaps 0x7273(%eax),%xmm0
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,40,184,147,114,0,0 // movaps 0x7293(%eax),%xmm7
- .byte 15,41,125,152 // movaps %xmm7,-0x68(%ebp)
+ .byte 15,40,161,13,87,0,0 // movaps 0x570d(%ecx),%xmm4
+ .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
+ .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
+ .byte 15,40,161,45,87,0,0 // movaps 0x572d(%ecx),%xmm4
+ .byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
.byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,41,189,120,255,255,255 // movaps %xmm7,-0x88(%ebp)
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,128,131,114,0,0 // movaps 0x7283(%eax),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,109,40 // mulps 0x28(%ebp),%xmm5
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,89,93,56 // mulps 0x38(%ebp),%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,101,216 // mulps -0x28(%ebp),%xmm4
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,85,200 // mulps -0x38(%ebp),%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,89,117,72 // mulps 0x48(%ebp),%xmm6
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,93,209 // minps %xmm1,%xmm2
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
+ .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
+ .byte 15,40,214 // movaps %xmm6,%xmm2
+ .byte 15,40,137,29,87,0,0 // movaps 0x571d(%ecx),%xmm1
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,88,213 // addps %xmm5,%xmm2
+ .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
+ .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
+ .byte 15,89,235 // mulps %xmm3,%xmm5
+ .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6
+ .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
+ .byte 15,40,254 // movaps %xmm6,%xmm7
+ .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
+ .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,92,227 // subps %xmm3,%xmm4
+ .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
+ .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
+ .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
+ .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,252,2 // cmpleps %xmm4,%xmm7
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 15,89,211 // mulps %xmm3,%xmm2
+ .byte 15,92,208 // subps %xmm0,%xmm2
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 15,88,212 // addps %xmm4,%xmm2
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,93,194 // minps %xmm2,%xmm0
.byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,94,226 // divps %xmm2,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,85,212 // andnps %xmm4,%xmm2
- .byte 15,84,239 // andps %xmm7,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,40,101,168 // movaps -0x58(%ebp),%xmm4
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
- .byte 15,88,101,88 // addps 0x58(%ebp),%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,117,184 // movaps -0x48(%ebp),%xmm6
- .byte 15,194,214,1 // cmpltps %xmm6,%xmm2
- .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 15,93,224 // minps %xmm0,%xmm4
+ .byte 15,40,198 // movaps %xmm6,%xmm0
+ .byte 15,95,194 // maxps %xmm2,%xmm0
+ .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,95,248 // maxps %xmm0,%xmm7
+ .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
+ .byte 15,89,254 // mulps %xmm6,%xmm7
+ .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 15,89,202 // mulps %xmm2,%xmm1
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
+ .byte 15,40,249 // movaps %xmm1,%xmm7
+ .byte 15,92,252 // subps %xmm4,%xmm7
+ .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
+ .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,94,231 // divps %xmm7,%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,85,252 // andnps %xmm4,%xmm7
+ .byte 15,84,232 // andps %xmm0,%xmm5
+ .byte 15,86,239 // orps %xmm7,%xmm5
+ .byte 15,40,251 // movaps %xmm3,%xmm7
+ .byte 15,40,231 // movaps %xmm7,%xmm4
+ .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 15,88,223 // addps %xmm7,%xmm3
+ .byte 15,92,220 // subps %xmm4,%xmm3
+ .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
+ .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
+ .byte 15,194,223,1 // cmpltps %xmm7,%xmm3
+ .byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,41,101,136 // movaps %xmm4,-0x78(%ebp)
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
+ .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp)
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,94,238 // divps %xmm6,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,84,234 // andps %xmm2,%xmm5
- .byte 15,86,109,136 // orps -0x78(%ebp),%xmm5
+ .byte 15,92,249 // subps %xmm1,%xmm7
+ .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
+ .byte 15,94,239 // divps %xmm7,%xmm5
+ .byte 15,88,233 // addps %xmm1,%xmm5
+ .byte 15,84,235 // andps %xmm3,%xmm5
+ .byte 15,86,109,184 // orps -0x48(%ebp),%xmm5
+ .byte 15,40,230 // movaps %xmm6,%xmm4
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,40,248 // movaps %xmm0,%xmm7
+ .byte 15,85,252 // andnps %xmm4,%xmm7
+ .byte 15,84,240 // andps %xmm0,%xmm6
+ .byte 15,86,247 // orps %xmm7,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,94,101,200 // divps -0x38(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,85,244 // andnps %xmm4,%xmm6
- .byte 15,84,223 // andps %xmm7,%xmm3
- .byte 15,86,222 // orps %xmm6,%xmm3
+ .byte 15,85,230 // andnps %xmm6,%xmm4
+ .byte 15,92,241 // subps %xmm1,%xmm6
+ .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
+ .byte 15,89,247 // mulps %xmm7,%xmm6
+ .byte 15,94,117,200 // divps -0x38(%ebp),%xmm6
+ .byte 15,88,241 // addps %xmm1,%xmm6
+ .byte 15,84,243 // andps %xmm3,%xmm6
+ .byte 15,86,244 // orps %xmm4,%xmm6
.byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,86,220 // orps %xmm4,%xmm3
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,94,101,200 // divps -0x38(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,84,207 // andps %xmm7,%xmm1
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,86,249 // orps %xmm1,%xmm7
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,85,207 // andnps %xmm7,%xmm1
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,94,125,184 // divps -0x48(%ebp),%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,86,249 // orps %xmm1,%xmm7
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,92,225 // subps %xmm1,%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
+ .byte 15,88,225 // addps %xmm1,%xmm4
+ .byte 15,84,208 // andps %xmm0,%xmm2
+ .byte 15,85,196 // andnps %xmm4,%xmm0
+ .byte 15,86,194 // orps %xmm2,%xmm0
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,85,208 // andnps %xmm0,%xmm2
+ .byte 15,92,193 // subps %xmm1,%xmm0
+ .byte 15,89,199 // mulps %xmm7,%xmm0
+ .byte 15,94,69,200 // divps -0x38(%ebp),%xmm0
+ .byte 15,88,193 // addps %xmm1,%xmm0
+ .byte 15,84,195 // andps %xmm3,%xmm0
+ .byte 15,86,194 // orps %xmm2,%xmm0
+ .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 15,95,233 // maxps %xmm1,%xmm5
+ .byte 15,95,241 // maxps %xmm1,%xmm6
+ .byte 15,95,193 // maxps %xmm1,%xmm0
+ .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
+ .byte 15,88,93,136 // addps -0x78(%ebp),%xmm3
+ .byte 15,88,221 // addps %xmm5,%xmm3
.byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,165,120,255,255,255 // addps -0x88(%ebp),%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,77,152 // addps -0x68(%ebp),%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
+ .byte 15,88,149,104,255,255,255 // addps -0x98(%ebp),%xmm2
+ .byte 15,88,208 // addps %xmm0,%xmm2
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,252,0,0,0 // add $0xfc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 129,196,200,0,0,0 // add $0xc8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51678,139 +51074,117 @@ _sk_srcover_rgba_8888_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 15,41,93,152 // movaps %xmm3,-0x68(%ebp)
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 232,0,0,0,0 // call 2424 <_sk_srcover_rgba_8888_sse2+0x22>
+ .byte 131,236,44 // sub $0x2c,%esp
+ .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 232,0,0,0,0 // call 1c6e <_sk_srcover_rgba_8888_sse2+0x17>
.byte 95 // pop %edi
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,241 // imul %ecx,%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,50 // add (%edx),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,48 // mov (%eax),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 15,133,47,1,0,0 // jne 2575 <_sk_srcover_rgba_8888_sse2+0x173>
- .byte 243,15,111,4,150 // movdqu (%esi,%edx,4),%xmm0
- .byte 102,15,111,143,12,112,0,0 // movdqa 0x700c(%edi),%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,114,215,8 // psrld $0x8,%xmm7
- .byte 102,15,219,249 // pand %xmm1,%xmm7
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,233 // pand %xmm1,%xmm5
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,40,183,28,112,0,0 // movaps 0x701c(%edi),%xmm6
- .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,40,167,44,112,0,0 // movaps 0x702c(%edi),%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,91,215 // cvtdq2ps %xmm7,%xmm2
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,89,109,216 // mulps -0x28(%ebp),%xmm5
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,89,93,216 // mulps -0x28(%ebp),%xmm3
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 15,133,224,0,0,0 // jne 1d70 <_sk_srcover_rgba_8888_sse2+0x119>
+ .byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
+ .byte 102,15,111,167,210,84,0,0 // movdqa 0x54d2(%edi),%xmm4
+ .byte 102,15,111,234 // movdqa %xmm2,%xmm5
+ .byte 102,15,219,236 // pand %xmm4,%xmm5
+ .byte 102,15,111,242 // movdqa %xmm2,%xmm6
+ .byte 102,15,114,214,8 // psrld $0x8,%xmm6
+ .byte 102,15,219,244 // pand %xmm4,%xmm6
+ .byte 102,15,111,250 // movdqa %xmm2,%xmm7
+ .byte 102,15,114,215,16 // psrld $0x10,%xmm7
+ .byte 102,15,219,252 // pand %xmm4,%xmm7
+ .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
+ .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
+ .byte 15,40,175,226,84,0,0 // movaps 0x54e2(%edi),%xmm5
+ .byte 15,92,235 // subps %xmm3,%xmm5
+ .byte 15,40,143,242,84,0,0 // movaps 0x54f2(%edi),%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
+ .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
+ .byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 102,15,91,204 // cvtps2dq %xmm4,%xmm1
+ .byte 15,88,240 // addps %xmm0,%xmm6
+ .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
+ .byte 15,41,121,48 // movaps %xmm7,0x30(%ecx)
+ .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,89,253 // mulps %xmm5,%xmm7
+ .byte 15,88,248 // addps %xmm0,%xmm7
+ .byte 102,15,114,210,24 // psrld $0x18,%xmm2
+ .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
+ .byte 15,41,65,64 // movaps %xmm0,0x40(%ecx)
+ .byte 15,89,217 // mulps %xmm1,%xmm3
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 15,88,235 // addps %xmm3,%xmm5
+ .byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0
+ .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
.byte 102,15,114,241,8 // pslld $0x8,%xmm1
- .byte 102,15,91,208 // cvtps2dq %xmm0,%xmm2
- .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,91,215 // cvtps2dq %xmm7,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,91,222 // cvtps2dq %xmm6,%xmm3
- .byte 102,15,114,243,24 // pslld $0x18,%xmm3
- .byte 102,15,235,218 // por %xmm2,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 139,125,8 // mov 0x8(%ebp),%edi
+ .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
+ .byte 102,15,114,240,24 // pslld $0x18,%xmm0
+ .byte 102,15,235,194 // por %xmm2,%xmm0
+ .byte 102,15,235,193 // por %xmm1,%xmm0
.byte 133,219 // test %ebx,%ebx
- .byte 15,133,141,0,0,0 // jne 25b0 <_sk_srcover_rgba_8888_sse2+0x1ae>
- .byte 243,15,127,28,150 // movdqu %xmm3,(%esi,%edx,4)
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 117,95 // jne 1dab <_sk_srcover_rgba_8888_sse2+0x154>
+ .byte 243,15,127,4,178 // movdqu %xmm0,(%edx,%esi,4)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
+ .byte 15,40,221 // movaps %xmm5,%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 136,77,216 // mov %cl,-0x28(%ebp)
- .byte 128,101,216,3 // andb $0x3,-0x28(%ebp)
- .byte 128,125,216,1 // cmpb $0x1,-0x28(%ebp)
- .byte 116,99 // je 25e7 <_sk_srcover_rgba_8888_sse2+0x1e5>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 128,125,216,2 // cmpb $0x2,-0x28(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,21 // je 25a6 <_sk_srcover_rgba_8888_sse2+0x1a4>
- .byte 128,125,216,3 // cmpb $0x3,-0x28(%ebp)
- .byte 15,133,176,254,255,255 // jne 244b <_sk_srcover_rgba_8888_sse2+0x49>
- .byte 102,15,110,68,150,8 // movd 0x8(%esi,%edx,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,15,18,4,150 // movlpd (%esi,%edx,4),%xmm0
- .byte 233,155,254,255,255 // jmp 244b <_sk_srcover_rgba_8888_sse2+0x49>
.byte 137,216 // mov %ebx,%eax
- .byte 136,69,216 // mov %al,-0x28(%ebp)
- .byte 128,101,216,3 // andb $0x3,-0x28(%ebp)
- .byte 128,125,216,1 // cmpb $0x1,-0x28(%ebp)
- .byte 116,53 // je 25f4 <_sk_srcover_rgba_8888_sse2+0x1f2>
- .byte 128,125,216,2 // cmpb $0x2,-0x28(%ebp)
+ .byte 136,69,243 // mov %al,-0xd(%ebp)
+ .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
+ .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
+ .byte 116,80 // je 1dcf <_sk_srcover_rgba_8888_sse2+0x178>
+ .byte 102,15,239,210 // pxor %xmm2,%xmm2
+ .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 25dd <_sk_srcover_rgba_8888_sse2+0x1db>
- .byte 128,125,216,3 // cmpb $0x3,-0x28(%ebp)
- .byte 15,133,86,255,255,255 // jne 2528 <_sk_srcover_rgba_8888_sse2+0x126>
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,15,126,76,150,8 // movd %xmm1,0x8(%esi,%edx,4)
- .byte 102,15,214,28,150 // movq %xmm3,(%esi,%edx,4)
- .byte 233,65,255,255,255 // jmp 2528 <_sk_srcover_rgba_8888_sse2+0x126>
- .byte 102,15,110,4,150 // movd (%esi,%edx,4),%xmm0
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,87,254,255,255 // jmp 244b <_sk_srcover_rgba_8888_sse2+0x49>
- .byte 102,15,126,28,150 // movd %xmm3,(%esi,%edx,4)
+ .byte 116,21 // je 1da1 <_sk_srcover_rgba_8888_sse2+0x14a>
+ .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
+ .byte 15,133,255,254,255,255 // jne 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 102,15,110,84,178,8 // movd 0x8(%edx,%esi,4),%xmm2
+ .byte 102,15,112,210,69 // pshufd $0x45,%xmm2,%xmm2
+ .byte 102,15,18,20,178 // movlpd (%edx,%esi,4),%xmm2
+ .byte 233,234,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,41 // je 1ddc <_sk_srcover_rgba_8888_sse2+0x185>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 1dc8 <_sk_srcover_rgba_8888_sse2+0x171>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,148 // jne 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
+ .byte 102,15,126,76,178,8 // movd %xmm1,0x8(%edx,%esi,4)
+ .byte 102,15,214,4,178 // movq %xmm0,(%edx,%esi,4)
+ .byte 235,130 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
+ .byte 102,15,110,20,178 // movd (%edx,%esi,4),%xmm2
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,39,255,255,255 // jmp 2528 <_sk_srcover_rgba_8888_sse2+0x126>
+ .byte 233,185,254,255,255 // jmp 1c95 <_sk_srcover_rgba_8888_sse2+0x3e>
+ .byte 102,15,126,4,178 // movd %xmm0,(%edx,%esi,4)
+ .byte 233,107,255,255,255 // jmp 1d51 <_sk_srcover_rgba_8888_sse2+0xfa>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -51818,39 +51192,19 @@ FUNCTION(_sk_clamp_0_sse2)
_sk_clamp_0_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,95,207 // maxps %xmm7,%xmm1
- .byte 15,95,215 // maxps %xmm7,%xmm2
- .byte 15,95,223 // maxps %xmm7,%xmm3
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,95,196 // maxps %xmm4,%xmm0
+ .byte 15,95,204 // maxps %xmm4,%xmm1
+ .byte 15,95,212 // maxps %xmm4,%xmm2
+ .byte 15,95,220 // maxps %xmm4,%xmm3
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51860,41 +51214,21 @@ FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 267a <_sk_clamp_1_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 1e1a <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,184,230,109,0,0 // movaps 0x6de6(%eax),%xmm7
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,93,215 // minps %xmm7,%xmm2
- .byte 15,93,223 // minps %xmm7,%xmm3
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 15,40,160,86,83,0,0 // movaps 0x5356(%eax),%xmm4
+ .byte 15,93,196 // minps %xmm4,%xmm0
+ .byte 15,93,204 // minps %xmm4,%xmm1
+ .byte 15,93,212 // minps %xmm4,%xmm2
+ .byte 15,93,220 // minps %xmm4,%xmm3
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51904,40 +51238,20 @@ FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 26ef <_sk_clamp_a_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 1e4d <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,93,152,129,109,0,0 // minps 0x6d81(%eax),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 15,93,152,51,83,0,0 // minps 0x5333(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51947,40 +51261,29 @@ FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 2761 <_sk_clamp_a_dst_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 1e7d <_sk_clamp_a_dst_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,93,160,31,109,0,0 // minps 0x6d1f(%eax),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,93,252 // minps %xmm4,%xmm7
- .byte 15,93,244 // minps %xmm4,%xmm6
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
+ .byte 15,93,160,19,83,0,0 // minps 0x5313(%eax),%xmm4
+ .byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
+ .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,93,236 // minps %xmm4,%xmm5
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,41,106,16 // movaps %xmm5,0x10(%edx)
+ .byte 15,40,106,32 // movaps 0x20(%edx),%xmm5
+ .byte 15,93,236 // minps %xmm4,%xmm5
+ .byte 15,41,106,32 // movaps %xmm5,0x20(%edx)
+ .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5
+ .byte 15,93,236 // minps %xmm4,%xmm5
+ .byte 15,41,106,48 // movaps %xmm5,0x30(%edx)
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 82 // push %edx
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -51990,41 +51293,21 @@ FUNCTION(_sk_set_rgb_sse2)
_sk_set_rgb_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
- .byte 243,15,16,87,8 // movss 0x8(%edi),%xmm2
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52034,37 +51317,17 @@ FUNCTION(_sk_swap_rb_sse2)
_sk_swap_rb_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52074,30 +51337,19 @@ FUNCTION(_sk_move_src_dst_sse2)
_sk_move_src_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
+ .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
+ .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
+ .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx)
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52107,34 +51359,19 @@ FUNCTION(_sk_move_dst_src_sse2)
_sk_move_dst_src_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0
+ .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1
+ .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2
+ .byte 15,40,89,64 // movaps 0x40(%ecx),%xmm3
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52144,37 +51381,17 @@ FUNCTION(_sk_premul_sse2)
_sk_premul_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 139,125,12 // mov 0xc(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 15,89,195 // mulps %xmm3,%xmm0
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52184,36 +51401,24 @@ FUNCTION(_sk_premul_dst_sse2)
_sk_premul_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,89,101,72 // mulps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
+ .byte 15,40,105,32 // movaps 0x20(%ecx),%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
+ .byte 15,89,97,48 // mulps 0x30(%ecx),%xmm4
+ .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
+ .byte 141,80,4 // lea 0x4(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52223,44 +51428,24 @@ FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 2a20 <_sk_unpremul_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,40,185,112,106,0,0 // movaps 0x6a70(%ecx),%xmm7
- .byte 15,94,251 // divps %xmm3,%xmm7
- .byte 15,194,243,4 // cmpneqps %xmm3,%xmm6
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 1fde <_sk_unpremul_sse2+0xb>
+ .byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,89,4 // lea 0x4(%ecx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,40,168,194,81,0,0 // movaps 0x51c2(%eax),%xmm5
+ .byte 15,94,235 // divps %xmm3,%xmm5
+ .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
+ .byte 15,84,229 // andps %xmm5,%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,17 // call *(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52270,87 +51455,67 @@ FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 131,236,56 // sub $0x38,%esp
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,40,217 // movaps %xmm1,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2aaf <_sk_from_srgb_sse2+0x1e>
+ .byte 232,0,0,0,0 // call 2028 <_sk_from_srgb_sse2+0x18>
.byte 88 // pop %eax
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,219 // mulps %xmm3,%xmm3
- .byte 15,40,160,1,106,0,0 // movaps 0x6a01(%eax),%xmm4
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,89,201 // mulps %xmm1,%xmm1
+ .byte 15,40,160,152,81,0,0 // movaps 0x5198(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,136,17,106,0,0 // movaps 0x6a11(%eax),%xmm1
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,152,241,105,0,0 // movaps 0x69f1(%eax),%xmm3
+ .byte 15,40,176,168,81,0,0 // movaps 0x51a8(%eax),%xmm6
+ .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,40,176,136,81,0,0 // movaps 0x5188(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,184,33,106,0,0 // movaps 0x6a21(%eax),%xmm7
- .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,40,184,184,81,0,0 // movaps 0x51b8(%eax),%xmm7
+ .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,49,106,0,0 // movaps 0x6a31(%eax),%xmm7
+ .byte 15,40,184,200,81,0,0 // movaps 0x51c8(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
.byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
+ .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
+ .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
+ .byte 15,194,223,1 // cmpltps %xmm7,%xmm3
+ .byte 15,84,195 // andps %xmm3,%xmm0
+ .byte 15,85,217 // andnps %xmm1,%xmm3
+ .byte 15,86,216 // orps %xmm0,%xmm3
+ .byte 15,89,229 // mulps %xmm5,%xmm4
+ .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4
.byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,197 // andps %xmm5,%xmm0
- .byte 15,85,233 // andnps %xmm1,%xmm5
- .byte 15,86,232 // orps %xmm0,%xmm5
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,84,222 // andps %xmm6,%xmm3
- .byte 15,85,244 // andnps %xmm4,%xmm6
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,86,243 // orps %xmm3,%xmm6
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,194,239,1 // cmpltps %xmm7,%xmm5
+ .byte 15,84,245 // andps %xmm5,%xmm6
+ .byte 15,85,236 // andnps %xmm4,%xmm5
+ .byte 15,86,238 // orps %xmm6,%xmm5
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,72 // add $0x48,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52360,87 +51525,73 @@ FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 15,41,93,152 // movaps %xmm3,-0x68(%ebp)
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 232,0,0,0,0 // call 2bd2 <_sk_from_srgb_dst_sse2+0x21>
- .byte 88 // pop %eax
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,168,46,105,0,0 // movaps 0x692e(%eax),%xmm5
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,144,62,105,0,0 // movaps 0x693e(%eax),%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,40,176,30,105,0,0 // movaps 0x691e(%eax),%xmm6
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,40,152,78,105,0,0 // movaps 0x694e(%eax),%xmm3
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,40,144,94,105,0,0 // movaps 0x695e(%eax),%xmm2
- .byte 15,194,202,1 // cmpltps %xmm2,%xmm1
- .byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,85,207 // andnps %xmm7,%xmm1
- .byte 15,86,204 // orps %xmm4,%xmm1
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,88,125,216 // addps -0x28(%ebp),%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,194,194,1 // cmpltps %xmm2,%xmm0
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,85,199 // andnps %xmm7,%xmm0
- .byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,109,216 // addps -0x28(%ebp),%xmm5
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,85,229 // andnps %xmm5,%xmm4
+ .byte 131,236,72 // sub $0x48,%esp
+ .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
+ .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
+ .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
+ .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
+ .byte 232,0,0,0,0 // call 2103 <_sk_from_srgb_dst_sse2+0x1b>
+ .byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,86,230 // orps %xmm6,%xmm4
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
+ .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 15,89,237 // mulps %xmm5,%xmm5
+ .byte 15,40,161,13,81,0,0 // movaps 0x510d(%ecx),%xmm4
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,40,177,29,81,0,0 // movaps 0x511d(%ecx),%xmm6
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,40,169,253,80,0,0 // movaps 0x50fd(%ecx),%xmm5
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,40,185,45,81,0,0 // movaps 0x512d(%ecx),%xmm7
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,40,153,61,81,0,0 // movaps 0x513d(%ecx),%xmm3
+ .byte 15,194,203,1 // cmpltps %xmm3,%xmm1
+ .byte 15,84,209 // andps %xmm1,%xmm2
+ .byte 15,85,200 // andnps %xmm0,%xmm1
+ .byte 15,86,202 // orps %xmm2,%xmm1
+ .byte 15,41,72,16 // movaps %xmm1,0x10(%eax)
+ .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,89,201 // mulps %xmm1,%xmm1
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,89,209 // mulps %xmm1,%xmm2
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
+ .byte 15,84,200 // andps %xmm0,%xmm1
+ .byte 15,85,194 // andnps %xmm2,%xmm0
+ .byte 15,86,193 // orps %xmm1,%xmm0
+ .byte 15,41,64,32 // movaps %xmm0,0x20(%eax)
+ .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,88,230 // addps %xmm6,%xmm4
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 15,89,201 // mulps %xmm1,%xmm1
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,88,231 // addps %xmm7,%xmm4
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
+ .byte 15,84,232 // andps %xmm0,%xmm5
+ .byte 15,85,196 // andnps %xmm4,%xmm0
+ .byte 15,86,197 // orps %xmm5,%xmm0
+ .byte 15,41,64,48 // movaps %xmm0,0x30(%eax)
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
+ .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,88 // add $0x58,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52450,36 +51601,33 @@ FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,172,0,0,0 // sub $0xac,%esp
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
+ .byte 131,236,72 // sub $0x48,%esp
+ .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2cf2 <_sk_to_srgb_sse2+0x1e>
+ .byte 232,0,0,0,0 // call 21ee <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,94,104,0,0 // movaps 0x685e(%eax),%xmm4
+ .byte 15,40,160,114,80,0,0 // movaps 0x5072(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,110,104,0,0 // movaps 0x686e(%eax),%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 15,40,128,130,80,0,0 // movaps 0x5082(%eax),%xmm0
+ .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,126,104,0,0 // movaps 0x687e(%eax),%xmm0
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,142,104,0,0 // movaps 0x688e(%eax),%xmm0
+ .byte 15,40,128,146,80,0,0 // movaps 0x5092(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,40,128,162,80,0,0 // movaps 0x50a2(%eax),%xmm0
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,78,104,0,0 // movaps 0x684e(%eax),%xmm5
+ .byte 15,40,168,98,80,0,0 // movaps 0x5062(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,158,104,0,0 // movaps 0x689e(%eax),%xmm3
+ .byte 15,40,152,178,80,0,0 // movaps 0x50b2(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -52487,10 +51635,10 @@ _sk_to_srgb_sse2:
.byte 15,82,198 // rsqrtps %xmm6,%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
+ .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,77,184 // addps -0x48(%ebp),%xmm1
- .byte 15,88,69,200 // addps -0x38(%ebp),%xmm0
+ .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
+ .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
.byte 15,83,192 // rcpps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -52501,45 +51649,28 @@ _sk_to_srgb_sse2:
.byte 15,86,241 // orps %xmm1,%xmm6
.byte 15,82,199 // rsqrtps %xmm7,%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4
+ .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,184 // addps -0x48(%ebp),%xmm4
- .byte 15,88,69,200 // addps -0x38(%ebp),%xmm0
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
+ .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
+ .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
.byte 15,83,192 // rcpps %xmm0,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,194,251,1 // cmpltps %xmm3,%xmm7
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
.byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,85,248 // andnps %xmm0,%xmm7
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
.byte 15,86,253 // orps %xmm5,%xmm7
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,172,0,0,0 // add $0xac,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,88 // add $0x58,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52549,92 +51680,74 @@ FUNCTION(_sk_rgb_to_hsl_sse2)
_sk_rgb_to_hsl_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
+ .byte 131,236,56 // sub $0x38,%esp
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,40,249 // movaps %xmm1,%xmm7
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 2e31 <_sk_rgb_to_hsl_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 22e5 <_sk_rgb_to_hsl_sse2+0x15>
.byte 88 // pop %eax
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,95,205 // maxps %xmm5,%xmm1
+ .byte 15,95,207 // maxps %xmm7,%xmm1
.byte 15,95,202 // maxps %xmm2,%xmm1
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,41,109,216 // movaps %xmm5,-0x28(%ebp)
- .byte 15,93,250 // minps %xmm2,%xmm7
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,93,223 // minps %xmm7,%xmm3
+ .byte 15,93,218 // minps %xmm2,%xmm3
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 15,40,152,111,103,0,0 // movaps 0x676f(%eax),%xmm3
+ .byte 15,92,195 // subps %xmm3,%xmm0
+ .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
+ .byte 15,40,152,203,79,0,0 // movaps 0x4fcb(%eax),%xmm3
.byte 15,94,216 // divps %xmm0,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,127,103,0,0 // andps 0x677f(%eax),%xmm5
+ .byte 15,84,168,219,79,0,0 // andps 0x4fdb(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,117,216,0 // cmpeqps -0x28(%ebp),%xmm6
+ .byte 15,194,247,0 // cmpeqps %xmm7,%xmm6
.byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,92,101,216 // subps -0x28(%ebp),%xmm4
+ .byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,211 // mulps %xmm3,%xmm2
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,152,143,103,0,0 // movaps 0x678f(%eax),%xmm3
+ .byte 15,40,152,235,79,0,0 // movaps 0x4feb(%eax),%xmm3
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,88,160,159,103,0,0 // addps 0x679f(%eax),%xmm4
+ .byte 15,88,160,251,79,0,0 // addps 0x4ffb(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,198 // andnps %xmm6,%xmm0
.byte 15,86,197 // orps %xmm5,%xmm0
.byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,194,231,4 // cmpneqps %xmm7,%xmm4
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,40,168,191,103,0,0 // movaps 0x67bf(%eax),%xmm5
- .byte 15,92,223 // subps %xmm7,%xmm3
+ .byte 15,88,202 // addps %xmm2,%xmm1
+ .byte 15,40,168,27,80,0,0 // movaps 0x501b(%eax),%xmm5
+ .byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
.byte 15,84,221 // andps %xmm5,%xmm3
.byte 15,85,233 // andnps %xmm1,%xmm5
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,86,235 // orps %xmm3,%xmm5
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
+ .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,89,128,175,103,0,0 // mulps 0x67af(%eax),%xmm0
+ .byte 15,89,128,11,80,0,0 // mulps 0x500b(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,16 // call *(%eax)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,196,72 // add $0x48,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52644,180 +51757,159 @@ FUNCTION(_sk_hsl_to_rgb_sse2)
_sk_hsl_to_rgb_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,44,1,0,0 // sub $0x12c,%esp
- .byte 15,41,157,40,255,255,255 // movaps %xmm3,-0xd8(%ebp)
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 232,0,0,0,0 // call 2f66 <_sk_hsl_to_rgb_sse2+0x1c>
+ .byte 129,236,200,0,0,0 // sub $0xc8,%esp
+ .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
+ .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
+ .byte 232,0,0,0,0 // call 23da <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,152,154,102,0,0 // movaps 0x669a(%eax),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,181,72,255,255,255 // movaps %xmm6,-0xb8(%ebp)
- .byte 15,194,226,2 // cmpleps %xmm2,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,217,0 // cmpeqps %xmm1,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,40,160,54,79,0,0 // movaps 0x4f36(%eax),%xmm4
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
+ .byte 15,194,218,2 // cmpleps %xmm2,%xmm3
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5
+ .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
.byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,84,236 // andps %xmm4,%xmm5
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,40,136,170,102,0,0 // movaps 0x66aa(%eax),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 243,15,91,193 // cvttps2dq %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,40,168,186,102,0,0 // movaps 0x66ba(%eax),%xmm5
- .byte 15,41,173,104,255,255,255 // movaps %xmm5,-0x98(%ebp)
- .byte 15,84,221 // andps %xmm5,%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,41,173,56,255,255,255 // movaps %xmm5,-0xc8(%ebp)
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp)
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,144,202,102,0,0 // movaps 0x66ca(%eax),%xmm2
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,194,209,2 // cmpleps %xmm1,%xmm2
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,176,250,102,0,0 // movaps 0x66fa(%eax),%xmm6
- .byte 15,41,181,88,255,255,255 // movaps %xmm6,-0xa8(%ebp)
- .byte 15,194,241,2 // cmpleps %xmm1,%xmm6
- .byte 15,40,152,218,102,0,0 // movaps 0x66da(%eax),%xmm3
- .byte 15,41,93,152 // movaps %xmm3,-0x68(%ebp)
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,184,234,102,0,0 // movaps 0x66ea(%eax),%xmm7
- .byte 15,41,125,136 // movaps %xmm7,-0x78(%ebp)
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,85,69,184 // andnps -0x48(%ebp),%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
+ .byte 15,92,241 // subps %xmm1,%xmm6
+ .byte 15,84,243 // andps %xmm3,%xmm6
+ .byte 15,85,217 // andnps %xmm1,%xmm3
+ .byte 15,86,222 // orps %xmm6,%xmm3
+ .byte 15,40,168,70,79,0,0 // movaps 0x4f46(%eax),%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
+ .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,194,193,1 // cmpltps %xmm1,%xmm0
+ .byte 15,40,176,86,79,0,0 // movaps 0x4f56(%eax),%xmm6
+ .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
- .byte 15,85,241 // andnps %xmm1,%xmm6
- .byte 15,86,240 // orps %xmm0,%xmm6
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
+ .byte 15,92,200 // subps %xmm0,%xmm1
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
+ .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,88,210 // addps %xmm2,%xmm2
+ .byte 15,92,211 // subps %xmm3,%xmm2
+ .byte 15,40,184,102,79,0,0 // movaps 0x4f66(%eax),%xmm7
+ .byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
+ .byte 15,194,253,2 // cmpleps %xmm5,%xmm7
+ .byte 15,92,218 // subps %xmm2,%xmm3
+ .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 15,194,205,2 // cmpleps %xmm5,%xmm1
+ .byte 15,40,160,150,79,0,0 // movaps 0x4f96(%eax),%xmm4
+ .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
+ .byte 15,194,229,2 // cmpleps %xmm5,%xmm4
+ .byte 15,40,176,118,79,0,0 // movaps 0x4f76(%eax),%xmm6
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 15,40,128,134,79,0,0 // movaps 0x4f86(%eax),%xmm0
+ .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,89,195 // mulps %xmm3,%xmm0
+ .byte 15,88,194 // addps %xmm2,%xmm0
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,84,223 // andps %xmm7,%xmm3
+ .byte 15,85,248 // andnps %xmm0,%xmm7
+ .byte 15,86,251 // orps %xmm3,%xmm7
+ .byte 15,84,249 // andps %xmm1,%xmm7
+ .byte 15,85,77,216 // andnps -0x28(%ebp),%xmm1
+ .byte 15,86,207 // orps %xmm7,%xmm1
+ .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,84,204 // andps %xmm4,%xmm1
+ .byte 15,85,229 // andnps %xmm5,%xmm4
+ .byte 15,86,225 // orps %xmm1,%xmm4
+ .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
+ .byte 15,85,196 // andnps %xmm4,%xmm0
+ .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,186,102,0,0 // andps 0x66ba(%eax),%xmm1
+ .byte 15,84,136,86,79,0,0 // andps 0x4f56(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,202,102,0,0 // movaps 0x66ca(%eax),%xmm0
+ .byte 15,40,128,102,79,0,0 // movaps 0x4f66(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,144,154,102,0,0 // movaps 0x669a(%eax),%xmm2
- .byte 15,194,209,2 // cmpleps %xmm1,%xmm2
- .byte 15,40,152,250,102,0,0 // movaps 0x66fa(%eax),%xmm3
+ .byte 15,40,152,54,79,0,0 // movaps 0x4f36(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,89,136,218,102,0,0 // mulps 0x66da(%eax),%xmm1
- .byte 15,40,176,234,102,0,0 // movaps 0x66ea(%eax),%xmm6
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
+ .byte 15,40,160,150,79,0,0 // movaps 0x4f96(%eax),%xmm4
+ .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
+ .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,40,168,134,79,0,0 // movaps 0x4f86(%eax),%xmm5
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,88,234 // addps %xmm2,%xmm5
+ .byte 15,40,250 // movaps %xmm2,%xmm7
.byte 15,84,248 // andps %xmm0,%xmm7
- .byte 15,85,198 // andnps %xmm6,%xmm0
+ .byte 15,85,197 // andnps %xmm5,%xmm0
.byte 15,86,199 // orps %xmm7,%xmm0
- .byte 15,84,194 // andps %xmm2,%xmm0
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,86,208 // orps %xmm0,%xmm2
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,84,211 // andps %xmm3,%xmm2
- .byte 15,85,217 // andnps %xmm1,%xmm3
- .byte 15,86,218 // orps %xmm2,%xmm3
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,85,243 // andnps %xmm3,%xmm6
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,88,144,10,103,0,0 // addps 0x670a(%eax),%xmm2
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
+ .byte 15,84,195 // andps %xmm3,%xmm0
+ .byte 15,85,93,216 // andnps -0x28(%ebp),%xmm3
+ .byte 15,86,216 // orps %xmm0,%xmm3
+ .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,202 // addps %xmm2,%xmm1
+ .byte 15,84,220 // andps %xmm4,%xmm3
+ .byte 15,85,225 // andnps %xmm1,%xmm4
+ .byte 15,86,227 // orps %xmm3,%xmm4
+ .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
+ .byte 15,85,252 // andnps %xmm4,%xmm7
+ .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
+ .byte 15,88,152,166,79,0,0 // addps 0x4fa6(%eax),%xmm3
+ .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,141,104,255,255,255 // andps -0x98(%ebp),%xmm1
+ .byte 15,84,77,136 // andps -0x78(%ebp),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,194,234,2 // cmpleps %xmm2,%xmm5
- .byte 15,84,229 // andps %xmm5,%xmm4
- .byte 15,85,235 // andnps %xmm3,%xmm5
- .byte 15,86,236 // orps %xmm4,%xmm5
- .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
- .byte 15,194,194,2 // cmpleps %xmm2,%xmm0
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,199 // andnps %xmm7,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,40,157,88,255,255,255 // movaps -0xa8(%ebp),%xmm3
- .byte 15,194,218,2 // cmpleps %xmm2,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,85,217 // andnps %xmm1,%xmm3
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,149,56,255,255,255 // movaps -0xc8(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,84,211 // andps %xmm3,%xmm2
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,133,120,255,255,255 // movaps -0x88(%ebp),%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,86,242 // orps %xmm2,%xmm6
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,157,40,255,255,255 // movaps -0xd8(%ebp),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 129,196,44,1,0,0 // add $0x12c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,216 // subps %xmm0,%xmm3
+ .byte 15,89,243 // mulps %xmm3,%xmm6
+ .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,226 // addps %xmm2,%xmm4
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
+ .byte 15,194,203,2 // cmpleps %xmm3,%xmm1
+ .byte 15,84,209 // andps %xmm1,%xmm2
+ .byte 15,85,204 // andnps %xmm4,%xmm1
+ .byte 15,86,202 // orps %xmm2,%xmm1
+ .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
+ .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
+ .byte 15,84,200 // andps %xmm0,%xmm1
+ .byte 15,85,69,216 // andnps -0x28(%ebp),%xmm0
+ .byte 15,86,193 // orps %xmm1,%xmm0
+ .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
+ .byte 15,194,203,2 // cmpleps %xmm3,%xmm1
+ .byte 15,84,193 // andps %xmm1,%xmm0
+ .byte 15,85,206 // andnps %xmm6,%xmm1
+ .byte 15,86,200 // orps %xmm0,%xmm1
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
+ .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
+ .byte 15,84,217 // andps %xmm1,%xmm3
+ .byte 15,85,202 // andnps %xmm2,%xmm1
+ .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
+ .byte 15,86,195 // orps %xmm3,%xmm0
+ .byte 15,86,251 // orps %xmm3,%xmm7
+ .byte 15,86,217 // orps %xmm1,%xmm3
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,207 // movaps %xmm7,%xmm1
+ .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 129,196,216,0,0,0 // add $0xd8,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52827,41 +51919,21 @@ FUNCTION(_sk_scale_1_float_sse2)
_sk_scale_1_float_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,33 // movss (%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -52874,74 +51946,61 @@ _sk_scale_u8_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 326c <_sk_scale_u8_sse2+0xe>
- .byte 95 // pop %edi
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 2654 <_sk_scale_u8_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,85,20 // imul 0x14(%ebp),%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 117,109 // jne 32fe <_sk_scale_u8_sse2+0xa0>
- .byte 102,15,110,36,50 // movd (%edx,%esi,1),%xmm4
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,65 // jne 26b0 <_sk_scale_u8_sse2+0x6a>
+ .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,167,20,100,0,0 // pand 0x6414(%edi),%xmm4
+ .byte 102,15,219,162,60,77,0,0 // pand 0x4d3c(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,167,36,100,0,0 // mulps 0x6424(%edi),%xmm4
+ .byte 15,89,162,76,77,0,0 // mulps 0x4d4c(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,57 // je 3341 <_sk_scale_u8_sse2+0xe3>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 26ea <_sk_scale_u8_sse2+0xa4>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 3324 <_sk_scale_u8_sse2+0xc6>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,136 // jne 329e <_sk_scale_u8_sse2+0x40>
- .byte 15,182,76,50,2 // movzbl 0x2(%edx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 26d4 <_sk_scale_u8_sse2+0x8e>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,182 // jne 267c <_sk_scale_u8_sse2+0x36>
+ .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,12,50 // movzwl (%edx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
+ .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
+ .byte 102,15,110,238 // movd %esi,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 233,93,255,255,255 // jmp 329e <_sk_scale_u8_sse2+0x40>
- .byte 15,182,12,50 // movzbl (%edx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,80,255,255,255 // jmp 329e <_sk_scale_u8_sse2+0x40>
+ .byte 235,146 // jmp 267c <_sk_scale_u8_sse2+0x36>
+ .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 235,136 // jmp 267c <_sk_scale_u8_sse2+0x36>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -52949,49 +52008,34 @@ FUNCTION(_sk_lerp_1_float_sse2)
_sk_lerp_1_float_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,57 // movss (%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,92,85,72 // subps 0x48(%ebp),%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 243,15,16,34 // movss (%edx),%xmm4
+ .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
+ .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
+ .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,92,206 // subps %xmm6,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,40,104,48 // movaps 0x30(%eax),%xmm5
+ .byte 15,92,213 // subps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,88,213 // addps %xmm5,%xmm2
+ .byte 15,40,104,64 // movaps 0x40(%eax),%xmm5
+ .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 15,88,221 // addps %xmm5,%xmm3
+ .byte 141,81,8 // lea 0x8(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -53004,84 +52048,72 @@ _sk_lerp_u8_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 33ec <_sk_lerp_u8_sse2+0x12>
- .byte 95 // pop %edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 275c <_sk_lerp_u8_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,85,20 // imul 0x14(%ebp),%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,146,0,0,0 // jne 349f <_sk_lerp_u8_sse2+0xc5>
- .byte 102,15,110,36,50 // movd (%edx,%esi,1),%xmm4
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,102 // jne 27dd <_sk_lerp_u8_sse2+0x8f>
+ .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,167,180,98,0,0 // pand 0x62b4(%edi),%xmm4
+ .byte 102,15,219,162,84,76,0,0 // pand 0x4c54(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,167,196,98,0,0 // mulps 0x62c4(%edi),%xmm4
+ .byte 15,89,162,100,76,0,0 // mulps 0x4c64(%edx),%xmm4
+ .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
+ .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
+ .byte 15,88,197 // addps %xmm5,%xmm0
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,92,215 // subps %xmm7,%xmm2
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,40,105,48 // movaps 0x30(%ecx),%xmm5
+ .byte 15,92,213 // subps %xmm5,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 15,88,213 // addps %xmm5,%xmm2
+ .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,92,221 // subps %xmm5,%xmm3
.byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,88,215 // addps %xmm7,%xmm2
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,124 // add $0x7c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,61 // je 34e6 <_sk_lerp_u8_sse2+0x10c>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,53 // je 281a <_sk_lerp_u8_sse2+0xcc>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,23 // je 34c9 <_sk_lerp_u8_sse2+0xef>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,95,255,255,255 // jne 341a <_sk_lerp_u8_sse2+0x40>
- .byte 15,182,76,50,2 // movzbl 0x2(%edx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 2801 <_sk_lerp_u8_sse2+0xb3>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,145 // jne 2784 <_sk_lerp_u8_sse2+0x36>
+ .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,12,50 // movzwl (%edx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
+ .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
+ .byte 102,15,110,238 // movd %esi,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 233,52,255,255,255 // jmp 341a <_sk_lerp_u8_sse2+0x40>
- .byte 15,182,12,50 // movzbl (%edx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,39,255,255,255 // jmp 341a <_sk_lerp_u8_sse2+0x40>
+ .byte 233,106,255,255,255 // jmp 2784 <_sk_lerp_u8_sse2+0x36>
+ .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 233,93,255,255,255 // jmp 2784 <_sk_lerp_u8_sse2+0x36>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -53092,96 +52124,85 @@ _sk_lerp_565_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 3501 <_sk_lerp_565_sse2+0xe>
- .byte 95 // pop %edi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 2835 <_sk_lerp_565_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,85,20 // imul 0x14(%ebp),%edx
- .byte 1,210 // add %edx,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 1,246 // add %esi,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,215,0,0,0 // jne 35f7 <_sk_lerp_565_sse2+0x104>
- .byte 243,15,126,52,114 // movq (%edx,%esi,2),%xmm6
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 15,133,163,0,0,0 // jne 28f9 <_sk_lerp_565_sse2+0xd2>
+ .byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,167,191,97,0,0 // movdqa 0x61bf(%edi),%xmm4
+ .byte 102,15,111,162,155,75,0,0 // movdqa 0x4b9b(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,167,207,97,0,0 // mulps 0x61cf(%edi),%xmm4
- .byte 102,15,111,191,223,97,0,0 // movdqa 0x61df(%edi),%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,191,239,97,0,0 // mulps 0x61ef(%edi),%xmm7
- .byte 102,15,219,183,255,97,0,0 // pand 0x61ff(%edi),%xmm6
+ .byte 15,89,162,171,75,0,0 // mulps 0x4bab(%edx),%xmm4
+ .byte 102,15,111,170,187,75,0,0 // movdqa 0x4bbb(%edx),%xmm5
+ .byte 102,15,219,238 // pand %xmm6,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 15,89,170,203,75,0,0 // mulps 0x4bcb(%edx),%xmm5
+ .byte 102,15,219,178,219,75,0,0 // pand 0x4bdb(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,183,15,98,0,0 // mulps 0x620f(%edi),%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,89,178,235,75,0,0 // mulps 0x4beb(%edx),%xmm6
+ .byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7
+ .byte 15,92,199 // subps %xmm7,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,92,213 // subps %xmm5,%xmm2
+ .byte 15,88,199 // addps %xmm7,%xmm0
+ .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
+ .byte 15,92,207 // subps %xmm7,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,88,207 // addps %xmm7,%xmm1
+ .byte 15,40,121,48 // movaps 0x30(%ecx),%xmm7
+ .byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,92,221 // subps %xmm5,%xmm3
+ .byte 15,88,215 // addps %xmm7,%xmm2
+ .byte 15,40,121,64 // movaps 0x40(%ecx),%xmm7
+ .byte 15,92,223 // subps %xmm7,%xmm3
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,89,251 // mulps %xmm3,%xmm7
+ .byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,95,251 // maxps %xmm3,%xmm7
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,95,231 // maxps %xmm7,%xmm4
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,88,231 // addps %xmm7,%xmm4
+ .byte 15,88,239 // addps %xmm7,%xmm5
+ .byte 15,88,223 // addps %xmm7,%xmm3
+ .byte 15,95,235 // maxps %xmm3,%xmm5
+ .byte 15,95,229 // maxps %xmm5,%xmm4
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,50 // je 3633 <_sk_lerp_565_sse2+0x140>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 2933 <_sk_lerp_565_sse2+0x10c>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,23 // je 3621 <_sk_lerp_565_sse2+0x12e>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,22,255,255,255 // jne 3529 <_sk_lerp_565_sse2+0x36>
- .byte 15,183,76,114,4 // movzwl 0x4(%edx,%esi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,23 // je 2921 <_sk_lerp_565_sse2+0xfa>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 15,133,76,255,255,255 // jne 285f <_sk_lerp_565_sse2+0x38>
+ .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
- .byte 102,15,110,36,114 // movd (%edx,%esi,2),%xmm4
+ .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,246,254,255,255 // jmp 3529 <_sk_lerp_565_sse2+0x36>
- .byte 15,183,12,114 // movzwl (%edx,%esi,2),%ecx
- .byte 102,15,110,241 // movd %ecx,%xmm6
- .byte 233,233,254,255,255 // jmp 3529 <_sk_lerp_565_sse2+0x36>
+ .byte 233,44,255,255,255 // jmp 285f <_sk_lerp_565_sse2+0x38>
+ .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
+ .byte 102,15,110,246 // movd %esi,%xmm6
+ .byte 233,31,255,255,255 // jmp 285f <_sk_lerp_565_sse2+0x38>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -53192,33 +52213,34 @@ _sk_load_tables_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 364e <_sk_load_tables_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,24 // mov 0x18(%ebp),%eax
- .byte 139,93,16 // mov 0x10(%ebp),%ebx
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 294e <_sk_load_tables_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,117,12 // mov 0xc(%ebp),%esi
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 139,65,8 // mov 0x8(%ecx),%eax
.byte 133,192 // test %eax,%eax
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,133,75,1,0,0 // jne 37af <_sk_load_tables_sse2+0x16f>
- .byte 243,15,111,28,159 // movdqu (%edi,%ebx,4),%xmm3
- .byte 102,15,111,150,210,96,0,0 // movdqa 0x60d2(%esi),%xmm2
+ .byte 139,54 // mov (%esi),%esi
+ .byte 139,30 // mov (%esi),%ebx
+ .byte 15,133,19,1,0,0 // jne 2a79 <_sk_load_tables_sse2+0x139>
+ .byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
+ .byte 102,15,111,146,226,74,0,0 // movdqa 0x4ae2(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,112,224,231 // pshufd $0xe7,%xmm0,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 139,74,4 // mov 0x4(%edx),%ecx
- .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,44,185 // movss (%ecx,%edi,4),%xmm5
- .byte 102,15,126,199 // movd %xmm0,%edi
+ .byte 102,15,126,224 // movd %xmm4,%eax
+ .byte 139,126,4 // mov 0x4(%esi),%edi
+ .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4
+ .byte 102,15,126,200 // movd %xmm1,%eax
+ .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
+ .byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 139,74,8 // mov 0x8(%edx),%ecx
+ .byte 243,15,16,4,135 // movss (%edi,%eax,4),%xmm0
+ .byte 102,15,126,200 // movd %xmm1,%eax
+ .byte 243,15,16,12,135 // movss (%edi,%eax,4),%xmm1
+ .byte 139,70,8 // mov 0x8(%esi),%eax
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 15,20,193 // unpcklps %xmm1,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -53227,79 +52249,66 @@ _sk_load_tables_sse2:
.byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
.byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
.byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,185 // movss (%ecx,%edi,4),%xmm6
+ .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
+ .byte 243,15,16,36,184 // movss (%eax,%edi,4),%xmm4
.byte 102,15,126,207 // movd %xmm1,%edi
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
+ .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
.byte 102,15,126,255 // movd %xmm7,%edi
- .byte 243,15,16,60,185 // movss (%ecx,%edi,4),%xmm7
+ .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
.byte 15,20,197 // unpcklps %xmm5,%xmm0
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 139,74,12 // mov 0xc(%edx),%ecx
+ .byte 139,70,12 // mov 0xc(%esi),%eax
.byte 102,15,111,235 // movdqa %xmm3,%xmm5
.byte 102,15,114,213,16 // psrld $0x10,%xmm5
.byte 102,15,219,234 // pand %xmm2,%xmm5
.byte 102,15,112,213,229 // pshufd $0xe5,%xmm5,%xmm2
.byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 243,15,16,60,145 // movss (%ecx,%edx,4),%xmm7
- .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 102,15,126,246 // movd %xmm6,%esi
+ .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
+ .byte 102,15,126,214 // movd %xmm2,%esi
+ .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
+ .byte 102,15,126,238 // movd %xmm5,%esi
.byte 102,15,112,237,78 // pshufd $0x4e,%xmm5,%xmm5
- .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
+ .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
+ .byte 102,15,126,238 // movd %xmm5,%esi
+ .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 15,20,254 // unpcklps %xmm6,%xmm7
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 15,20,215 // unpcklps %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,158,226,96,0,0 // mulps 0x60e2(%esi),%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 137,206 // mov %ecx,%esi
- .byte 141,78,8 // lea 0x8(%esi),%ecx
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,68,36,16 // mov %eax,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,92,36,8 // mov %ebx,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 15,89,154,242,74,0,0 // mulps 0x4af2(%edx),%xmm3
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 137,194 // mov %eax,%edx
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,193 // mov %eax,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,39 // je 37e0 <_sk_load_tables_sse2+0x1a0>
+ .byte 36,3 // and $0x3,%al
+ .byte 60,1 // cmp $0x1,%al
+ .byte 116,37 // je 2aa4 <_sk_load_tables_sse2+0x164>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,20 // je 37d6 <_sk_load_tables_sse2+0x196>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,158,254,255,255 // jne 3669 <_sk_load_tables_sse2+0x29>
- .byte 102,15,110,68,159,8 // movd 0x8(%edi,%ebx,4),%xmm0
+ .byte 60,2 // cmp $0x2,%al
+ .byte 116,19 // je 2a9a <_sk_load_tables_sse2+0x15a>
+ .byte 60,3 // cmp $0x3,%al
+ .byte 15,133,220,254,255,255 // jne 296b <_sk_load_tables_sse2+0x2b>
+ .byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,159 // movlpd (%edi,%ebx,4),%xmm3
- .byte 233,137,254,255,255 // jmp 3669 <_sk_load_tables_sse2+0x29>
- .byte 102,15,110,28,159 // movd (%edi,%ebx,4),%xmm3
- .byte 233,127,254,255,255 // jmp 3669 <_sk_load_tables_sse2+0x29>
+ .byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
+ .byte 233,199,254,255,255 // jmp 296b <_sk_load_tables_sse2+0x2b>
+ .byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
+ .byte 233,189,254,255,255 // jmp 296b <_sk_load_tables_sse2+0x2b>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -53310,19 +52319,21 @@ _sk_load_tables_u16_be_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 232,0,0,0,0 // call 37fb <_sk_load_tables_u16_be_sse2+0x11>
- .byte 95 // pop %edi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 131,125,24,0 // cmpl $0x0,0x18(%ebp)
+ .byte 131,236,44 // sub $0x2c,%esp
+ .byte 232,0,0,0,0 // call 2abc <_sk_load_tables_u16_be_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,24 // mov (%eax),%ebx
- .byte 139,11 // mov (%ebx),%ecx
- .byte 141,52,149,0,0,0,0 // lea 0x0(,%edx,4),%esi
- .byte 186,255,0,255,0 // mov $0xff00ff,%edx
- .byte 15,133,229,1,0,0 // jne 3a01 <_sk_load_tables_u16_be_sse2+0x217>
- .byte 102,15,16,4,113 // movupd (%ecx,%esi,2),%xmm0
- .byte 243,15,111,76,113,16 // movdqu 0x10(%ecx,%esi,2),%xmm1
+ .byte 139,64,8 // mov 0x8(%eax),%eax
+ .byte 193,227,2 // shl $0x2,%ebx
+ .byte 133,192 // test %eax,%eax
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 139,15 // mov (%edi),%ecx
+ .byte 190,255,0,255,0 // mov $0xff00ff,%esi
+ .byte 15,133,166,1,0,0 // jne 2c82 <_sk_load_tables_u16_be_sse2+0x1d4>
+ .byte 102,15,16,4,89 // movupd (%ecx,%ebx,2),%xmm0
+ .byte 243,15,111,76,89,16 // movdqu 0x10(%ecx,%ebx,2),%xmm1
.byte 102,15,40,216 // movapd %xmm0,%xmm3
.byte 102,15,97,217 // punpcklwd %xmm1,%xmm3
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
@@ -53330,64 +52341,64 @@ _sk_load_tables_u16_be_sse2:
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
.byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
.byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,126,214 // movd %xmm2,%esi
+ .byte 102,15,126,192 // movd %xmm0,%eax
+ .byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,15,112,202,78 // pshufd $0x4e,%xmm2,%xmm1
.byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5
- .byte 33,214 // and %edx,%esi
- .byte 137,117,216 // mov %esi,-0x28(%ebp)
- .byte 33,209 // and %edx,%ecx
- .byte 137,77,220 // mov %ecx,-0x24(%ebp)
+ .byte 33,241 // and %esi,%ecx
+ .byte 137,77,216 // mov %ecx,-0x28(%ebp)
+ .byte 33,240 // and %esi,%eax
+ .byte 137,69,220 // mov %eax,-0x24(%ebp)
.byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2
.byte 102,15,112,240,231 // pshufd $0xe7,%xmm0,%xmm6
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 139,115,4 // mov 0x4(%ebx),%esi
- .byte 243,15,16,52,142 // movss (%esi,%ecx,4),%xmm6
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 243,15,16,20,142 // movss (%esi,%ecx,4),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 102,15,126,240 // movd %xmm6,%eax
+ .byte 139,79,4 // mov 0x4(%edi),%ecx
+ .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6
+ .byte 102,15,126,208 // movd %xmm2,%eax
+ .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2
+ .byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7
- .byte 243,15,16,4,142 // movss (%esi,%ecx,4),%xmm0
- .byte 102,15,126,249 // movd %xmm7,%ecx
- .byte 243,15,16,60,142 // movss (%esi,%ecx,4),%xmm7
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 139,115,8 // mov 0x8(%ebx),%esi
- .byte 33,209 // and %edx,%ecx
- .byte 137,77,228 // mov %ecx,-0x1c(%ebp)
- .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
+ .byte 102,15,126,248 // movd %xmm7,%eax
+ .byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7
+ .byte 102,15,126,232 // movd %xmm5,%eax
+ .byte 139,79,8 // mov 0x8(%edi),%ecx
+ .byte 33,240 // and %esi,%eax
+ .byte 137,69,228 // mov %eax,-0x1c(%ebp)
+ .byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 33,209 // and %edx,%ecx
- .byte 137,77,224 // mov %ecx,-0x20(%ebp)
- .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 33,240 // and %esi,%eax
+ .byte 137,69,224 // mov %eax,-0x20(%ebp)
+ .byte 102,15,126,200 // movd %xmm1,%eax
.byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5
.byte 102,15,97,236 // punpcklwd %xmm4,%xmm5
.byte 102,15,112,205,231 // pshufd $0xe7,%xmm5,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,36,134 // movss (%esi,%eax,4),%xmm4
+ .byte 102,15,126,203 // movd %xmm1,%ebx
+ .byte 243,15,16,36,153 // movss (%ecx,%ebx,4),%xmm4
.byte 15,20,214 // unpcklps %xmm6,%xmm2
.byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,52,134 // movss (%esi,%eax,4),%xmm6
+ .byte 102,15,126,203 // movd %xmm1,%ebx
+ .byte 243,15,16,52,153 // movss (%ecx,%ebx,4),%xmm6
.byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,12,134 // movss (%esi,%eax,4),%xmm1
+ .byte 102,15,126,235 // movd %xmm5,%ebx
+ .byte 243,15,16,12,153 // movss (%ecx,%ebx,4),%xmm1
.byte 102,15,112,237,78 // pshufd $0x4e,%xmm5,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,134 // movss (%esi,%eax,4),%xmm5
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 139,115,12 // mov 0xc(%ebx),%esi
- .byte 33,208 // and %edx,%eax
- .byte 137,69,232 // mov %eax,-0x18(%ebp)
- .byte 33,209 // and %edx,%ecx
+ .byte 102,15,126,235 // movd %xmm5,%ebx
+ .byte 243,15,16,44,153 // movss (%ecx,%ebx,4),%xmm5
+ .byte 102,15,126,217 // movd %xmm3,%ecx
+ .byte 139,127,12 // mov 0xc(%edi),%edi
+ .byte 33,241 // and %esi,%ecx
+ .byte 137,77,232 // mov %ecx,-0x18(%ebp)
+ .byte 33,240 // and %esi,%eax
.byte 15,20,194 // unpcklps %xmm2,%xmm0
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 15,20,205 // unpcklps %xmm5,%xmm1
.byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 137,77,236 // mov %ecx,-0x14(%ebp)
+ .byte 137,69,236 // mov %eax,-0x14(%ebp)
.byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
@@ -53395,14 +52406,14 @@ _sk_load_tables_u16_be_sse2:
.byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4
.byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,134 // movss (%esi,%eax,4),%xmm5
+ .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
.byte 102,15,126,224 // movd %xmm4,%eax
- .byte 243,15,16,36,134 // movss (%esi,%eax,4),%xmm4
+ .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4
.byte 102,15,126,208 // movd %xmm2,%eax
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 243,15,16,20,134 // movss (%esi,%eax,4),%xmm2
+ .byte 243,15,16,20,135 // movss (%edi,%eax,4),%xmm2
.byte 102,15,126,240 // movd %xmm6,%eax
- .byte 243,15,16,52,134 // movss (%esi,%eax,4),%xmm6
+ .byte 243,15,16,52,135 // movss (%edi,%eax,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 15,20,214 // unpcklps %xmm6,%xmm2
.byte 15,20,212 // unpcklps %xmm4,%xmm2
@@ -53417,44 +52428,29 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,208 // movq -0x30(%ebp),%xmm3
.byte 102,15,97,223 // punpcklwd %xmm7,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,159,69,95,0,0 // mulps 0x5f45(%edi),%xmm3
+ .byte 15,89,154,148,73,0,0 // mulps 0x4994(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,193 // mov %eax,%ecx
.byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 242,15,16,4,113 // movsd (%ecx,%esi,2),%xmm0
+ .byte 242,15,16,4,89 // movsd (%ecx,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 139,69,24 // mov 0x18(%ebp),%eax
.byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,17,254,255,255 // je 3827 <_sk_load_tables_u16_be_sse2+0x3d>
- .byte 102,15,22,68,113,8 // movhpd 0x8(%ecx,%esi,2),%xmm0
+ .byte 15,132,83,254,255,255 // je 2ae7 <_sk_load_tables_u16_be_sse2+0x39>
+ .byte 102,15,22,68,89,8 // movhpd 0x8(%ecx,%ebx,2),%xmm0
.byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,2,254,255,255 // jb 3827 <_sk_load_tables_u16_be_sse2+0x3d>
- .byte 243,15,126,76,113,16 // movq 0x10(%ecx,%esi,2),%xmm1
- .byte 233,247,253,255,255 // jmp 3827 <_sk_load_tables_u16_be_sse2+0x3d>
+ .byte 15,130,68,254,255,255 // jb 2ae7 <_sk_load_tables_u16_be_sse2+0x39>
+ .byte 243,15,126,76,89,16 // movq 0x10(%ecx,%ebx,2),%xmm1
+ .byte 233,57,254,255,255 // jmp 2ae7 <_sk_load_tables_u16_be_sse2+0x39>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -53465,20 +52461,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 232,0,0,0,0 // call 3a3e <_sk_load_tables_rgb_u16_be_sse2+0xe>
+ .byte 131,236,28 // sub $0x1c,%esp
+ .byte 232,0,0,0,0 // call 2cbc <_sk_load_tables_rgb_u16_be_sse2+0xe>
.byte 88 // pop %eax
.byte 137,69,240 // mov %eax,-0x10(%ebp)
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 131,125,24,0 // cmpl $0x0,0x18(%ebp)
- .byte 139,24 // mov (%eax),%ebx
- .byte 139,19 // mov (%ebx),%edx
- .byte 141,60,73 // lea (%ecx,%ecx,2),%edi
+ .byte 139,85,8 // mov 0x8(%ebp),%edx
+ .byte 139,74,8 // mov 0x8(%edx),%ecx
+ .byte 107,26,3 // imul $0x3,(%edx),%ebx
+ .byte 133,201 // test %ecx,%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,7 // mov (%edi),%eax
.byte 190,255,0,255,0 // mov $0xff00ff,%esi
- .byte 15,133,198,1,0,0 // jne 3c24 <_sk_load_tables_rgb_u16_be_sse2+0x1f4>
- .byte 243,15,111,12,122 // movdqu (%edx,%edi,2),%xmm1
- .byte 243,15,111,92,122,8 // movdqu 0x8(%edx,%edi,2),%xmm3
+ .byte 15,133,141,1,0,0 // jne 2e6a <_sk_load_tables_rgb_u16_be_sse2+0x1bc>
+ .byte 243,15,111,12,88 // movdqu (%eax,%ebx,2),%xmm1
+ .byte 243,15,111,92,88,8 // movdqu 0x8(%eax,%ebx,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,115,216,6 // psrldq $0x6,%xmm0
@@ -53488,132 +52485,118 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
+ .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,15,105,200 // punpckhwd %xmm0,%xmm1
.byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,194 // movd %xmm0,%edx
+ .byte 102,15,126,192 // movd %xmm0,%eax
+ .byte 102,15,126,209 // movd %xmm2,%ecx
+ .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0
+ .byte 102,15,126,195 // movd %xmm0,%ebx
+ .byte 33,241 // and %esi,%ecx
+ .byte 137,77,216 // mov %ecx,-0x28(%ebp)
.byte 33,240 // and %esi,%eax
- .byte 137,69,216 // mov %eax,-0x28(%ebp)
- .byte 33,247 // and %esi,%edi
- .byte 137,125,220 // mov %edi,-0x24(%ebp)
+ .byte 137,69,220 // mov %eax,-0x24(%ebp)
.byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
- .byte 102,15,112,248,231 // pshufd $0xe7,%xmm0,%xmm7
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 139,123,4 // mov 0x4(%ebx),%edi
- .byte 243,15,16,20,135 // movss (%edi,%eax,4),%xmm2
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 243,15,16,60,135 // movss (%edi,%eax,4),%xmm7
+ .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
+ .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
+ .byte 102,15,126,232 // movd %xmm5,%eax
+ .byte 139,79,4 // mov 0x4(%edi),%ecx
+ .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6
+ .byte 102,15,126,216 // movd %xmm3,%eax
+ .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2
.byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
+ .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
+ .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3
+ .byte 102,15,126,232 // movd %xmm5,%eax
+ .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
.byte 102,15,126,224 // movd %xmm4,%eax
- .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 139,123,8 // mov 0x8(%ebx),%edi
+ .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
+ .byte 139,79,8 // mov 0x8(%edi),%ecx
.byte 33,240 // and %esi,%eax
.byte 137,69,224 // mov %eax,-0x20(%ebp)
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 33,242 // and %esi,%edx
- .byte 137,85,228 // mov %edx,-0x1c(%ebp)
- .byte 243,15,126,93,224 // movq -0x20(%ebp),%xmm3
- .byte 102,15,97,222 // punpcklwd %xmm6,%xmm3
- .byte 102,15,112,243,231 // pshufd $0xe7,%xmm3,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,151 // movss (%edi,%edx,4),%xmm6
+ .byte 102,15,126,224 // movd %xmm4,%eax
+ .byte 33,243 // and %esi,%ebx
+ .byte 137,93,228 // mov %ebx,-0x1c(%ebp)
+ .byte 243,15,126,101,224 // movq -0x20(%ebp),%xmm4
+ .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4
+ .byte 102,15,112,252,231 // pshufd $0xe7,%xmm4,%xmm7
+ .byte 102,15,126,251 // movd %xmm7,%ebx
+ .byte 243,15,16,60,153 // movss (%ecx,%ebx,4),%xmm7
+ .byte 102,15,126,203 // movd %xmm1,%ebx
+ .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1
.byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 243,15,16,4,143 // movss (%edi,%ecx,4),%xmm0
- .byte 15,20,250 // unpcklps %xmm2,%xmm7
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 243,15,16,12,143 // movss (%edi,%ecx,4),%xmm1
- .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 243,15,16,28,143 // movss (%edi,%ecx,4),%xmm3
- .byte 139,75,12 // mov 0xc(%ebx),%ecx
- .byte 33,242 // and %esi,%edx
- .byte 137,85,232 // mov %edx,-0x18(%ebp)
+ .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
+ .byte 15,20,214 // unpcklps %xmm6,%xmm2
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
+ .byte 102,15,112,228,78 // pshufd $0x4e,%xmm4,%xmm4
+ .byte 102,15,126,226 // movd %xmm4,%edx
+ .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
+ .byte 139,79,12 // mov 0xc(%edi),%ecx
+ .byte 33,243 // and %esi,%ebx
+ .byte 137,93,232 // mov %ebx,-0x18(%ebp)
.byte 33,240 // and %esi,%eax
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 15,20,239 // unpcklps %xmm7,%xmm5
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
+ .byte 15,20,221 // unpcklps %xmm5,%xmm3
+ .byte 15,20,218 // unpcklps %xmm2,%xmm3
+ .byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 137,69,236 // mov %eax,-0x14(%ebp)
.byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4
+ .byte 15,87,237 // xorps %xmm5,%xmm5
+ .byte 102,15,97,213 // punpcklwd %xmm5,%xmm2
+ .byte 102,15,112,234,229 // pshufd $0xe5,%xmm2,%xmm5
.byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4
+ .byte 102,15,126,232 // movd %xmm5,%eax
+ .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
.byte 102,15,126,208 // movd %xmm2,%eax
.byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7
.byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2
.byte 102,15,126,248 // movd %xmm7,%eax
.byte 243,15,16,60,129 // movss (%ecx,%eax,4),%xmm7
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
+ .byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 15,20,230 // unpcklps %xmm6,%xmm4
+ .byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 15,20,215 // unpcklps %xmm7,%xmm2
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
+ .byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,193 // mov %eax,%ecx
.byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 139,69,240 // mov -0x10(%ebp),%eax
- .byte 15,40,152,18,93,0,0 // movaps 0x5d12(%eax),%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,85,240 // mov -0x10(%ebp),%edx
+ .byte 15,40,162,164,71,0,0 // movaps 0x47a4(%edx),%xmm4
+ .byte 15,40,195 // movaps %xmm3,%xmm0
+ .byte 15,40,220 // movaps %xmm4,%xmm3
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,124 // add $0x7c,%esp
+ .byte 131,196,44 // add $0x2c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 102,15,110,12,122 // movd (%edx,%edi,2),%xmm1
- .byte 102,15,196,76,122,4,2 // pinsrw $0x2,0x4(%edx,%edi,2),%xmm1
+ .byte 102,15,110,12,88 // movd (%eax,%ebx,2),%xmm1
+ .byte 102,15,196,76,88,4,2 // pinsrw $0x2,0x4(%eax,%ebx,2),%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 139,69,24 // mov 0x18(%ebp),%eax
- .byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 3c49 <_sk_load_tables_rgb_u16_be_sse2+0x219>
+ .byte 131,249,1 // cmp $0x1,%ecx
+ .byte 117,13 // jne 2e8c <_sk_load_tables_rgb_u16_be_sse2+0x1de>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,55,254,255,255 // jmp 3a80 <_sk_load_tables_rgb_u16_be_sse2+0x50>
- .byte 102,15,110,68,122,6 // movd 0x6(%edx,%edi,2),%xmm0
- .byte 102,15,196,68,122,10,2 // pinsrw $0x2,0xa(%edx,%edi,2),%xmm0
+ .byte 233,115,254,255,255 // jmp 2cff <_sk_load_tables_rgb_u16_be_sse2+0x51>
+ .byte 102,15,110,68,88,6 // movd 0x6(%eax,%ebx,2),%xmm0
+ .byte 102,15,196,68,88,10,2 // pinsrw $0x2,0xa(%eax,%ebx,2),%xmm0
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 3c71 <_sk_load_tables_rgb_u16_be_sse2+0x241>
- .byte 102,15,110,92,122,12 // movd 0xc(%edx,%edi,2),%xmm3
- .byte 102,15,196,92,122,16,2 // pinsrw $0x2,0x10(%edx,%edi,2),%xmm3
- .byte 233,15,254,255,255 // jmp 3a80 <_sk_load_tables_rgb_u16_be_sse2+0x50>
+ .byte 131,249,3 // cmp $0x3,%ecx
+ .byte 114,18 // jb 2eb4 <_sk_load_tables_rgb_u16_be_sse2+0x206>
+ .byte 102,15,110,92,88,12 // movd 0xc(%eax,%ebx,2),%xmm3
+ .byte 102,15,196,92,88,16,2 // pinsrw $0x2,0x10(%eax,%ebx,2),%xmm3
+ .byte 233,75,254,255,255 // jmp 2cff <_sk_load_tables_rgb_u16_be_sse2+0x51>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,6,254,255,255 // jmp 3a80 <_sk_load_tables_rgb_u16_be_sse2+0x50>
+ .byte 233,66,254,255,255 // jmp 2cff <_sk_load_tables_rgb_u16_be_sse2+0x51>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -53624,35 +52607,35 @@ _sk_byte_tables_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 3c88 <_sk_byte_tables_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 2ecb <_sk_byte_tables_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,170,216,90,0,0 // movaps 0x5ad8(%edx),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,40,162,165,69,0,0 // movaps 0x45a5(%edx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,224,231 // pshufd $0xe7,%xmm0,%xmm4
+ .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
+ .byte 102,15,126,238 // movd %xmm5,%esi
+ .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
.byte 139,57 // mov (%ecx),%edi
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,227 // movd %xmm4,%ebx
+ .byte 102,15,126,235 // movd %xmm5,%ebx
.byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx
.byte 193,227,8 // shl $0x8,%ebx
.byte 9,243 // or %esi,%ebx
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
+ .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,198 // movd %xmm0,%esi
.byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,224 // movd %xmm4,%eax
+ .byte 102,15,126,232 // movd %xmm5,%eax
.byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax
.byte 193,224,8 // shl $0x8,%eax
.byte 9,240 // or %esi,%eax
.byte 102,15,196,192,0 // pinsrw $0x0,%eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,162,232,90,0,0 // movaps 0x5ae8(%edx),%xmm4
- .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 15,40,170,181,69,0,0 // movaps 0x45b5(%edx),%xmm5
+ .byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,15,126,242 // movd %xmm6,%edx
@@ -53672,7 +52655,7 @@ _sk_byte_tables_sse2:
.byte 102,15,196,200,0 // pinsrw $0x0,%eax,%xmm1
.byte 102,15,196,206,1 // pinsrw $0x1,%esi,%xmm1
.byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,15,126,242 // movd %xmm6,%edx
@@ -53692,10 +52675,10 @@ _sk_byte_tables_sse2:
.byte 102,15,196,208,0 // pinsrw $0x0,%eax,%xmm2
.byte 102,15,196,214,1 // pinsrw $0x1,%esi,%xmm2
.byte 139,65,12 // mov 0xc(%ecx),%eax
- .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 15,89,220 // mulps %xmm4,%xmm3
.byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
.byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 102,15,112,235,229 // pshufd $0xe5,%xmm3,%xmm5
+ .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
.byte 102,15,126,242 // movd %xmm6,%edx
.byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
@@ -53704,51 +52687,37 @@ _sk_byte_tables_sse2:
.byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
.byte 193,230,8 // shl $0x8,%esi
.byte 9,214 // or %edx,%esi
- .byte 102,15,126,234 // movd %xmm5,%edx
+ .byte 102,15,126,226 // movd %xmm4,%edx
.byte 15,182,12,8 // movzbl (%eax,%ecx,1),%ecx
.byte 15,182,4,16 // movzbl (%eax,%edx,1),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 193,224,8 // shl $0x8,%eax
.byte 9,200 // or %ecx,%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 102,15,196,216,0 // pinsrw $0x0,%eax,%xmm3
- .byte 139,69,20 // mov 0x14(%ebp),%eax
- .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,97,199 // punpcklwd %xmm7,%xmm0
- .byte 102,15,96,207 // punpcklbw %xmm7,%xmm1
- .byte 102,15,97,207 // punpcklwd %xmm7,%xmm1
- .byte 102,15,96,215 // punpcklbw %xmm7,%xmm2
- .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2
- .byte 102,15,96,223 // punpcklbw %xmm7,%xmm3
- .byte 102,15,97,223 // punpcklwd %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
+ .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
+ .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
+ .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3
+ .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3
+ .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 141,123,8 // lea 0x8(%ebx),%edi
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,83,4 // call *0x4(%ebx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 15,89,221 // mulps %xmm5,%xmm3
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,65,8 // lea 0x8(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -53764,7 +52733,7 @@ _sk_byte_tables_rgb_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,12 // sub $0xc,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
.byte 139,81,12 // mov 0xc(%ecx),%edx
@@ -53790,12 +52759,12 @@ _sk_byte_tables_rgb_sse2:
.byte 15,182,60,31 // movzbl (%edi,%ebx,1),%edi
.byte 193,231,8 // shl $0x8,%edi
.byte 9,215 // or %edx,%edi
- .byte 232,0,0,0,0 // call 3ec4 <_sk_byte_tables_rgb_sse2+0x65>
+ .byte 232,0,0,0,0 // call 30cb <_sk_byte_tables_rgb_sse2+0x65>
.byte 90 // pop %edx
.byte 102,15,196,199,0 // pinsrw $0x0,%edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,188,88,0,0 // movaps 0x58bc(%edx),%xmm5
+ .byte 15,40,170,197,67,0,0 // movaps 0x43c5(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -53831,43 +52800,29 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,126,230 // movd %xmm4,%esi
.byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
.byte 15,182,12,49 // movzbl (%ecx,%esi,1),%ecx
- .byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 193,225,8 // shl $0x8,%ecx
.byte 9,209 // or %edx,%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 102,15,196,209,0 // pinsrw $0x0,%ecx,%xmm2
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,96,199 // punpcklbw %xmm7,%xmm0
- .byte 102,15,97,199 // punpcklwd %xmm7,%xmm0
- .byte 102,15,96,207 // punpcklbw %xmm7,%xmm1
- .byte 102,15,97,207 // punpcklwd %xmm7,%xmm1
- .byte 102,15,96,215 // punpcklbw %xmm7,%xmm2
- .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
+ .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 102,15,96,204 // punpcklbw %xmm4,%xmm1
+ .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2
+ .byte 102,15,96,212 // punpcklbw %xmm4,%xmm2
+ .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,52,36 // mov %esi,(%esp)
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -53880,57 +52835,37 @@ FUNCTION(_sk_table_r_sse2)
_sk_table_r_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 139,118,4 // mov 0x4(%esi),%esi
- .byte 78 // dec %esi
- .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,73,4 // mov 0x4(%ecx),%ecx
+ .byte 73 // dec %ecx
+ .byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 102,15,91,196 // cvtps2dq %xmm4,%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,183 // movss (%edi,%esi,4),%xmm5
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 243,15,16,36,183 // movss (%edi,%esi,4),%xmm4
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,126,233 // movd %xmm5,%ecx
+ .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
+ .byte 102,15,126,225 // movd %xmm4,%ecx
+ .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
+ .byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 243,15,16,4,183 // movss (%edi,%esi,4),%xmm0
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 243,15,16,4,138 // movss (%edx,%ecx,4),%xmm0
+ .byte 102,15,126,241 // movd %xmm6,%ecx
+ .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -53940,57 +52875,37 @@ FUNCTION(_sk_table_g_sse2)
_sk_table_g_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 139,118,4 // mov 0x4(%esi),%esi
- .byte 78 // dec %esi
- .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,73,4 // mov 0x4(%ecx),%ecx
+ .byte 73 // dec %ecx
+ .byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,225 // mulps %xmm1,%xmm4
.byte 102,15,91,204 // cvtps2dq %xmm4,%xmm1
.byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
.byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,183 // movss (%edi,%esi,4),%xmm5
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 243,15,16,36,183 // movss (%edi,%esi,4),%xmm4
- .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,126,233 // movd %xmm5,%ecx
+ .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
+ .byte 102,15,126,225 // movd %xmm4,%ecx
+ .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
+ .byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 243,15,16,12,183 // movss (%edi,%esi,4),%xmm1
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 243,15,16,12,138 // movss (%edx,%ecx,4),%xmm1
+ .byte 102,15,126,241 // movd %xmm6,%ecx
+ .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54000,57 +52915,37 @@ FUNCTION(_sk_table_b_sse2)
_sk_table_b_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 139,118,4 // mov 0x4(%esi),%esi
- .byte 78 // dec %esi
- .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,73,4 // mov 0x4(%ecx),%ecx
+ .byte 73 // dec %ecx
+ .byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,226 // mulps %xmm2,%xmm4
.byte 102,15,91,212 // cvtps2dq %xmm4,%xmm2
.byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4
.byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,183 // movss (%edi,%esi,4),%xmm5
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 243,15,16,36,183 // movss (%edi,%esi,4),%xmm4
- .byte 102,15,126,214 // movd %xmm2,%esi
+ .byte 102,15,126,233 // movd %xmm5,%ecx
+ .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
+ .byte 102,15,126,225 // movd %xmm4,%ecx
+ .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
+ .byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 243,15,16,20,183 // movss (%edi,%esi,4),%xmm2
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 243,15,16,20,138 // movss (%edx,%ecx,4),%xmm2
+ .byte 102,15,126,241 // movd %xmm6,%ecx
+ .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54060,57 +52955,37 @@ FUNCTION(_sk_table_a_sse2)
_sk_table_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 139,118,4 // mov 0x4(%esi),%esi
- .byte 78 // dec %esi
- .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,73,4 // mov 0x4(%ecx),%ecx
+ .byte 73 // dec %ecx
+ .byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,220 // cvtps2dq %xmm4,%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,183 // movss (%edi,%esi,4),%xmm5
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 243,15,16,36,183 // movss (%edi,%esi,4),%xmm4
- .byte 102,15,126,222 // movd %xmm3,%esi
+ .byte 102,15,126,233 // movd %xmm5,%ecx
+ .byte 243,15,16,44,138 // movss (%edx,%ecx,4),%xmm5
+ .byte 102,15,126,225 // movd %xmm4,%ecx
+ .byte 243,15,16,36,138 // movss (%edx,%ecx,4),%xmm4
+ .byte 102,15,126,217 // movd %xmm3,%ecx
.byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 243,15,16,28,183 // movss (%edi,%esi,4),%xmm3
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 243,15,16,28,138 // movss (%edx,%ecx,4),%xmm3
+ .byte 102,15,126,241 // movd %xmm6,%ecx
+ .byte 243,15,16,52,138 // movss (%edx,%ecx,4),%xmm6
.byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54120,96 +52995,84 @@ FUNCTION(_sk_parametric_r_sse2)
_sk_parametric_r_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 42cd <_sk_parametric_r_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 243,15,16,119,4 // movss 0x4(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 232,0,0,0,0 // call 339a <_sk_parametric_r_sse2+0x18>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,194,205,2 // cmpleps %xmm5,%xmm1
+ .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,91,230 // cvtdq2ps %xmm6,%xmm4
- .byte 15,89,166,195,84,0,0 // mulps 0x54c3(%esi),%xmm4
- .byte 15,84,182,211,84,0,0 // andps 0x54d3(%esi),%xmm6
- .byte 15,86,182,227,84,0,0 // orps 0x54e3(%esi),%xmm6
- .byte 15,88,166,243,84,0,0 // addps 0x54f3(%esi),%xmm4
- .byte 15,40,190,3,85,0,0 // movaps 0x5503(%esi),%xmm7
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,170,6,65,0,0 // mulps 0x4106(%edx),%xmm5
+ .byte 15,84,178,22,65,0,0 // andps 0x4116(%edx),%xmm6
+ .byte 15,86,178,38,65,0,0 // orps 0x4126(%edx),%xmm6
+ .byte 15,88,170,54,65,0,0 // addps 0x4136(%edx),%xmm5
+ .byte 15,40,186,70,65,0,0 // movaps 0x4146(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,88,182,19,85,0,0 // addps 0x5513(%esi),%xmm6
- .byte 15,40,190,35,85,0,0 // movaps 0x5523(%esi),%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 243,15,91,236 // cvttps2dq %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,174,51,85,0,0 // movaps 0x5533(%esi),%xmm5
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,166,67,85,0,0 // addps 0x5543(%esi),%xmm4
- .byte 15,40,182,83,85,0,0 // movaps 0x5553(%esi),%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,182,99,85,0,0 // movaps 0x5563(%esi),%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,190,115,85,0,0 // movaps 0x5573(%esi),%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,88,178,86,65,0,0 // addps 0x4156(%edx),%xmm6
+ .byte 15,40,186,102,65,0,0 // movaps 0x4166(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,89,190,131,85,0,0 // mulps 0x5583(%esi),%xmm7
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 243,15,16,103,16 // movss 0x10(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
+ .byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 243,15,16,103,24 // movss 0x18(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 243,15,16,103,20 // movss 0x14(%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,84,240 // andps %xmm0,%xmm6
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,86,198 // orps %xmm6,%xmm0
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,198 // maxps %xmm6,%xmm0
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,93,197 // minps %xmm5,%xmm0
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
+ .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
+ .byte 15,40,178,118,65,0,0 // movaps 0x4176(%edx),%xmm6
+ .byte 15,84,198 // andps %xmm6,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 15,88,170,134,65,0,0 // addps 0x4186(%edx),%xmm5
+ .byte 15,40,186,150,65,0,0 // movaps 0x4196(%edx),%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,40,186,166,65,0,0 // movaps 0x41a6(%edx),%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,130,182,65,0,0 // movaps 0x41b6(%edx),%xmm0
+ .byte 15,94,199 // divps %xmm7,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,89,130,198,65,0,0 // mulps 0x41c6(%edx),%xmm0
+ .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,84,225 // andps %xmm1,%xmm4
+ .byte 15,85,205 // andnps %xmm5,%xmm1
+ .byte 15,86,204 // orps %xmm4,%xmm1
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 15,93,206 // minps %xmm6,%xmm1
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54219,96 +53082,82 @@ FUNCTION(_sk_parametric_g_sse2)
_sk_parametric_g_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 442f <_sk_parametric_g_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 243,15,16,119,4 // movss 0x4(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,218 // movaps %xmm2,%xmm3
+ .byte 15,40,208 // movaps %xmm0,%xmm2
+ .byte 232,0,0,0,0 // call 34d1 <_sk_parametric_g_sse2+0x15>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,194,205,2 // cmpleps %xmm5,%xmm1
+ .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,91,230 // cvtdq2ps %xmm6,%xmm4
- .byte 15,89,166,49,84,0,0 // mulps 0x5431(%esi),%xmm4
- .byte 15,84,182,65,84,0,0 // andps 0x5441(%esi),%xmm6
- .byte 15,86,182,81,84,0,0 // orps 0x5451(%esi),%xmm6
- .byte 15,88,166,97,84,0,0 // addps 0x5461(%esi),%xmm4
- .byte 15,40,190,113,84,0,0 // movaps 0x5471(%esi),%xmm7
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,170,159,64,0,0 // mulps 0x409f(%edx),%xmm5
+ .byte 15,84,178,175,64,0,0 // andps 0x40af(%edx),%xmm6
+ .byte 15,86,178,191,64,0,0 // orps 0x40bf(%edx),%xmm6
+ .byte 15,88,170,207,64,0,0 // addps 0x40cf(%edx),%xmm5
+ .byte 15,40,186,223,64,0,0 // movaps 0x40df(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,88,182,129,84,0,0 // addps 0x5481(%esi),%xmm6
- .byte 15,40,190,145,84,0,0 // movaps 0x5491(%esi),%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 243,15,91,236 // cvttps2dq %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,174,161,84,0,0 // movaps 0x54a1(%esi),%xmm5
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,166,177,84,0,0 // addps 0x54b1(%esi),%xmm4
- .byte 15,40,182,193,84,0,0 // movaps 0x54c1(%esi),%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,182,209,84,0,0 // movaps 0x54d1(%esi),%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,190,225,84,0,0 // movaps 0x54e1(%esi),%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,88,178,239,64,0,0 // addps 0x40ef(%edx),%xmm6
+ .byte 15,40,186,255,64,0,0 // movaps 0x40ff(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,89,190,241,84,0,0 // mulps 0x54f1(%esi),%xmm7
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 243,15,16,103,16 // movss 0x10(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
+ .byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,194,204,2 // cmpleps %xmm4,%xmm1
- .byte 243,15,16,103,24 // movss 0x18(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 243,15,16,103,20 // movss 0x14(%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,84,241 // andps %xmm1,%xmm6
- .byte 15,85,204 // andnps %xmm4,%xmm1
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,86,206 // orps %xmm6,%xmm1
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,93,205 // minps %xmm5,%xmm1
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
+ .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
+ .byte 15,40,178,15,65,0,0 // movaps 0x410f(%edx),%xmm6
+ .byte 15,84,198 // andps %xmm6,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 15,88,170,31,65,0,0 // addps 0x411f(%edx),%xmm5
+ .byte 15,40,186,47,65,0,0 // movaps 0x412f(%edx),%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,40,186,63,65,0,0 // movaps 0x413f(%edx),%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,130,79,65,0,0 // movaps 0x414f(%edx),%xmm0
+ .byte 15,94,199 // divps %xmm7,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,89,130,95,65,0,0 // mulps 0x415f(%edx),%xmm0
+ .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,84,225 // andps %xmm1,%xmm4
+ .byte 15,85,205 // andnps %xmm5,%xmm1
+ .byte 15,86,204 // orps %xmm4,%xmm1
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,200 // maxps %xmm0,%xmm1
+ .byte 15,93,206 // minps %xmm6,%xmm1
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54318,96 +53167,82 @@ FUNCTION(_sk_parametric_b_sse2)
_sk_parametric_b_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 4591 <_sk_parametric_b_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 243,15,16,119,4 // movss 0x4(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 15,40,217 // movaps %xmm1,%xmm3
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 232,0,0,0,0 // call 3605 <_sk_parametric_b_sse2+0x15>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
+ .byte 15,89,226 // mulps %xmm2,%xmm4
+ .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,194,213,2 // cmpleps %xmm5,%xmm2
+ .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,91,230 // cvtdq2ps %xmm6,%xmm4
- .byte 15,89,166,159,83,0,0 // mulps 0x539f(%esi),%xmm4
- .byte 15,84,182,175,83,0,0 // andps 0x53af(%esi),%xmm6
- .byte 15,86,182,191,83,0,0 // orps 0x53bf(%esi),%xmm6
- .byte 15,88,166,207,83,0,0 // addps 0x53cf(%esi),%xmm4
- .byte 15,40,190,223,83,0,0 // movaps 0x53df(%esi),%xmm7
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,170,59,64,0,0 // mulps 0x403b(%edx),%xmm5
+ .byte 15,84,178,75,64,0,0 // andps 0x404b(%edx),%xmm6
+ .byte 15,86,178,91,64,0,0 // orps 0x405b(%edx),%xmm6
+ .byte 15,88,170,107,64,0,0 // addps 0x406b(%edx),%xmm5
+ .byte 15,40,186,123,64,0,0 // movaps 0x407b(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,88,182,239,83,0,0 // addps 0x53ef(%esi),%xmm6
- .byte 15,40,190,255,83,0,0 // movaps 0x53ff(%esi),%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 243,15,91,236 // cvttps2dq %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,174,15,84,0,0 // movaps 0x540f(%esi),%xmm5
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,166,31,84,0,0 // addps 0x541f(%esi),%xmm4
- .byte 15,40,182,47,84,0,0 // movaps 0x542f(%esi),%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,182,63,84,0,0 // movaps 0x543f(%esi),%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,190,79,84,0,0 // movaps 0x544f(%esi),%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,88,178,139,64,0,0 // addps 0x408b(%edx),%xmm6
+ .byte 15,40,186,155,64,0,0 // movaps 0x409b(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,89,190,95,84,0,0 // mulps 0x545f(%esi),%xmm7
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 243,15,16,103,16 // movss 0x10(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
+ .byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,194,212,2 // cmpleps %xmm4,%xmm2
- .byte 243,15,16,103,24 // movss 0x18(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 243,15,16,103,20 // movss 0x14(%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,84,242 // andps %xmm2,%xmm6
- .byte 15,85,212 // andnps %xmm4,%xmm2
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,86,214 // orps %xmm6,%xmm2
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
+ .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
+ .byte 15,40,178,171,64,0,0 // movaps 0x40ab(%edx),%xmm6
+ .byte 15,84,198 // andps %xmm6,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 15,88,170,187,64,0,0 // addps 0x40bb(%edx),%xmm5
+ .byte 15,40,186,203,64,0,0 // movaps 0x40cb(%edx),%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,40,186,219,64,0,0 // movaps 0x40db(%edx),%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,130,235,64,0,0 // movaps 0x40eb(%edx),%xmm0
+ .byte 15,94,199 // divps %xmm7,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,89,130,251,64,0,0 // mulps 0x40fb(%edx),%xmm0
+ .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,84,226 // andps %xmm2,%xmm4
+ .byte 15,85,213 // andnps %xmm5,%xmm2
+ .byte 15,86,212 // orps %xmm4,%xmm2
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,208 // maxps %xmm0,%xmm2
+ .byte 15,93,214 // minps %xmm6,%xmm2
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54417,96 +53252,82 @@ FUNCTION(_sk_parametric_a_sse2)
_sk_parametric_a_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 46f3 <_sk_parametric_a_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 243,15,16,119,4 // movss 0x4(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
+ .byte 15,40,209 // movaps %xmm1,%xmm2
+ .byte 15,40,200 // movaps %xmm0,%xmm1
+ .byte 232,0,0,0,0 // call 3739 <_sk_parametric_a_sse2+0x15>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,16 // movss 0x10(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
+ .byte 15,89,227 // mulps %xmm3,%xmm4
+ .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,194,221,2 // cmpleps %xmm5,%xmm3
+ .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,229 // addps %xmm5,%xmm4
+ .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,91,230 // cvtdq2ps %xmm6,%xmm4
- .byte 15,89,166,13,83,0,0 // mulps 0x530d(%esi),%xmm4
- .byte 15,84,182,29,83,0,0 // andps 0x531d(%esi),%xmm6
- .byte 15,86,182,45,83,0,0 // orps 0x532d(%esi),%xmm6
- .byte 15,88,166,61,83,0,0 // addps 0x533d(%esi),%xmm4
- .byte 15,40,190,77,83,0,0 // movaps 0x534d(%esi),%xmm7
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,170,215,63,0,0 // mulps 0x3fd7(%edx),%xmm5
+ .byte 15,84,178,231,63,0,0 // andps 0x3fe7(%edx),%xmm6
+ .byte 15,86,178,247,63,0,0 // orps 0x3ff7(%edx),%xmm6
+ .byte 15,88,170,7,64,0,0 // addps 0x4007(%edx),%xmm5
+ .byte 15,40,186,23,64,0,0 // movaps 0x4017(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,88,182,93,83,0,0 // addps 0x535d(%esi),%xmm6
- .byte 15,40,190,109,83,0,0 // movaps 0x536d(%esi),%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 243,15,91,236 // cvttps2dq %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,174,125,83,0,0 // movaps 0x537d(%esi),%xmm5
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,166,141,83,0,0 // addps 0x538d(%esi),%xmm4
- .byte 15,40,182,157,83,0,0 // movaps 0x539d(%esi),%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,182,173,83,0,0 // movaps 0x53ad(%esi),%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,190,189,83,0,0 // movaps 0x53bd(%esi),%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,88,178,39,64,0,0 // addps 0x4027(%edx),%xmm6
+ .byte 15,40,186,55,64,0,0 // movaps 0x4037(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,89,190,205,83,0,0 // mulps 0x53cd(%esi),%xmm7
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 243,15,16,103,16 // movss 0x10(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
+ .byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,194,220,2 // cmpleps %xmm4,%xmm3
- .byte 243,15,16,103,24 // movss 0x18(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 243,15,16,103,20 // movss 0x14(%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,84,243 // andps %xmm3,%xmm6
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,222 // maxps %xmm6,%xmm3
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,89,238 // mulps %xmm6,%xmm5
+ .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
+ .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
+ .byte 15,40,178,71,64,0,0 // movaps 0x4047(%edx),%xmm6
+ .byte 15,84,198 // andps %xmm6,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,197 // movaps %xmm5,%xmm0
+ .byte 15,92,199 // subps %xmm7,%xmm0
+ .byte 15,88,170,87,64,0,0 // addps 0x4057(%edx),%xmm5
+ .byte 15,40,186,103,64,0,0 // movaps 0x4067(%edx),%xmm7
+ .byte 15,89,248 // mulps %xmm0,%xmm7
+ .byte 15,92,239 // subps %xmm7,%xmm5
+ .byte 15,40,186,119,64,0,0 // movaps 0x4077(%edx),%xmm7
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,40,130,135,64,0,0 // movaps 0x4087(%edx),%xmm0
+ .byte 15,94,199 // divps %xmm7,%xmm0
+ .byte 15,88,197 // addps %xmm5,%xmm0
+ .byte 15,89,130,151,64,0,0 // mulps 0x4097(%edx),%xmm0
+ .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
+ .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,84,227 // andps %xmm3,%xmm4
+ .byte 15,85,221 // andnps %xmm5,%xmm3
+ .byte 15,86,220 // orps %xmm4,%xmm3
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,216 // maxps %xmm0,%xmm3
+ .byte 15,93,222 // minps %xmm6,%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,193 // movaps %xmm1,%xmm0
+ .byte 15,40,202 // movaps %xmm2,%xmm1
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54516,38 +53337,35 @@ FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 485f <_sk_lab_to_xyz_sse2+0x18>
+ .byte 232,0,0,0,0 // call 386d <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,113,82,0,0 // mulps 0x5271(%eax),%xmm2
- .byte 15,40,160,129,82,0,0 // movaps 0x5281(%eax),%xmm4
+ .byte 15,89,144,115,63,0,0 // mulps 0x3f73(%eax),%xmm2
+ .byte 15,40,160,131,63,0,0 // movaps 0x3f83(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,145,82,0,0 // movaps 0x5291(%eax),%xmm5
+ .byte 15,40,168,147,63,0,0 // movaps 0x3f93(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,161,82,0,0 // addps 0x52a1(%eax),%xmm2
- .byte 15,89,144,177,82,0,0 // mulps 0x52b1(%eax),%xmm2
- .byte 15,89,136,193,82,0,0 // mulps 0x52c1(%eax),%xmm1
+ .byte 15,88,144,163,63,0,0 // addps 0x3fa3(%eax),%xmm2
+ .byte 15,89,144,179,63,0,0 // mulps 0x3fb3(%eax),%xmm2
+ .byte 15,89,136,195,63,0,0 // mulps 0x3fc3(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,209,82,0,0 // mulps 0x52d1(%eax),%xmm3
+ .byte 15,89,152,211,63,0,0 // mulps 0x3fd3(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,225,82,0,0 // movaps 0x52e1(%eax),%xmm3
+ .byte 15,40,152,227,63,0,0 // movaps 0x3fe3(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,241,82,0,0 // movaps 0x52f1(%eax),%xmm6
+ .byte 15,40,176,243,63,0,0 // movaps 0x3ff3(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,1,83,0,0 // movaps 0x5301(%eax),%xmm7
+ .byte 15,40,184,3,64,0,0 // movaps 0x4003(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -54561,45 +53379,28 @@ _sk_lab_to_xyz_sse2:
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
.byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
.byte 15,84,195 // andps %xmm3,%xmm0
.byte 15,85,221 // andnps %xmm5,%xmm3
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,89,160,17,83,0,0 // mulps 0x5311(%eax),%xmm4
- .byte 15,89,152,33,83,0,0 // mulps 0x5321(%eax),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 15,89,160,19,64,0,0 // mulps 0x4013(%eax),%xmm4
+ .byte 15,89,152,35,64,0,0 // mulps 0x4023(%eax),%xmm3
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,16 // call *(%eax)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54612,71 +53413,59 @@ _sk_load_a8_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 498e <_sk_load_a8_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 395d <_sk_load_a8_sse2+0xe>
.byte 90 // pop %edx
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 102,15,111,69,40 // movdqa 0x28(%ebp),%xmm0
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,101 // jne 4a1d <_sk_load_a8_sse2+0x9d>
- .byte 102,15,110,28,62 // movd (%esi,%edi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,219,154,2,82,0,0 // pand 0x5202(%edx),%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,18,82,0,0 // mulps 0x5212(%edx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 102,15,127,68,36,32 // movdqa %xmm0,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,60 // jne 39b4 <_sk_load_a8_sse2+0x65>
+ .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
+ .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
+ .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
+ .byte 102,15,219,130,67,63,0,0 // pand 0x3f43(%edx),%xmm0
+ .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
+ .byte 15,89,154,83,63,0,0 // mulps 0x3f53(%edx),%xmm3
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 102,15,87,201 // xorpd %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,53 // je 4a5c <_sk_load_a8_sse2+0xdc>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 4a43 <_sk_load_a8_sse2+0xc3>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,144 // jne 49c5 <_sk_load_a8_sse2+0x45>
- .byte 15,182,76,62,2 // movzbl 0x2(%esi,%edi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,112,219,69 // pshufd $0x45,%xmm3,%xmm3
- .byte 15,183,12,62 // movzwl (%esi,%edi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 233,105,255,255,255 // jmp 49c5 <_sk_load_a8_sse2+0x45>
- .byte 15,182,12,62 // movzbl (%esi,%edi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 233,92,255,255,255 // jmp 49c5 <_sk_load_a8_sse2+0x45>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 39ee <_sk_load_a8_sse2+0x9f>
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 39d8 <_sk_load_a8_sse2+0x89>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,187 // jne 3985 <_sk_load_a8_sse2+0x36>
+ .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
+ .byte 102,15,110,195 // movd %ebx,%xmm0
+ .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
+ .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
+ .byte 102,15,110,206 // movd %esi,%xmm1
+ .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
+ .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
+ .byte 242,15,16,193 // movsd %xmm1,%xmm0
+ .byte 235,151 // jmp 3985 <_sk_load_a8_sse2+0x36>
+ .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
+ .byte 102,15,110,198 // movd %esi,%xmm0
+ .byte 235,141 // jmp 3985 <_sk_load_a8_sse2+0x36>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -54687,65 +53476,60 @@ _sk_load_a8_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 4a77 <_sk_load_a8_dst_sse2+0xe>
- .byte 90 // pop %edx
+ .byte 131,236,12 // sub $0xc,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 139,16 // mov (%eax),%edx
+ .byte 139,122,4 // mov 0x4(%edx),%edi
+ .byte 15,175,121,4 // imul 0x4(%ecx),%edi
+ .byte 3,58 // add (%edx),%edi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 102,15,127,97,48 // movdqa %xmm4,0x30(%ecx)
+ .byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
+ .byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,97 // jne 4af1 <_sk_load_a8_dst_sse2+0x88>
- .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
+ .byte 232,0,0,0,0 // call 3a31 <_sk_load_a8_dst_sse2+0x39>
+ .byte 90 // pop %edx
+ .byte 117,54 // jne 3a6a <_sk_load_a8_dst_sse2+0x72>
+ .byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,57,81,0,0 // pand 0x5139(%edx),%xmm4
+ .byte 102,15,219,162,143,62,0,0 // pand 0x3e8f(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,87,237 // xorpd %xmm5,%xmm5
- .byte 15,89,162,73,81,0,0 // mulps 0x5149(%edx),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,41,108,36,64 // movapd %xmm5,0x40(%esp)
- .byte 102,15,41,108,36,48 // movapd %xmm5,0x30(%esp)
- .byte 102,15,41,108,36,32 // movapd %xmm5,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
+ .byte 15,89,162,159,62,0,0 // mulps 0x3e9f(%edx),%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,53 // je 4b30 <_sk_load_a8_dst_sse2+0xc7>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 4b17 <_sk_load_a8_dst_sse2+0xae>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,148 // jne 4a9d <_sk_load_a8_dst_sse2+0x34>
- .byte 15,182,76,62,2 // movzbl 0x2(%esi,%edi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,46 // je 3aa0 <_sk_load_a8_dst_sse2+0xa8>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 3a8a <_sk_load_a8_dst_sse2+0x92>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,197 // jne 3a41 <_sk_load_a8_dst_sse2+0x49>
+ .byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,12,62 // movzwl (%esi,%edi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
+ .byte 15,183,52,55 // movzwl (%edi,%esi,1),%esi
+ .byte 102,15,110,238 // movd %esi,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,109,255,255,255 // jmp 4a9d <_sk_load_a8_dst_sse2+0x34>
- .byte 15,182,12,62 // movzbl (%esi,%edi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,96,255,255,255 // jmp 4a9d <_sk_load_a8_dst_sse2+0x34>
+ .byte 235,161 // jmp 3a41 <_sk_load_a8_dst_sse2+0x49>
+ .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 235,151 // jmp 3a41 <_sk_load_a8_dst_sse2+0x49>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -54753,10 +53537,8 @@ FUNCTION(_sk_gather_a8_sse2)
_sk_gather_a8_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -54784,43 +53566,28 @@ _sk_gather_a8_sse2:
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx
.byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx
- .byte 232,0,0,0,0 // call 4bb7 <_sk_gather_a8_sse2+0x7a>
- .byte 94 // pop %esi
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0
- .byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 232,0,0,0,0 // call 3b2f <_sk_gather_a8_sse2+0x85>
+ .byte 89 // pop %ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,158,25,80,0,0 // mulps 0x5019(%esi),%xmm3
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,89,153,177,61,0,0 // mulps 0x3db1(%ecx),%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 102,15,239,210 // pxor %xmm2,%xmm2
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,16 // add $0x10,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -54833,45 +53600,34 @@ _sk_store_a8_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 232,0,0,0,0 // call 4c48 <_sk_store_a8_sse2+0x11>
- .byte 95 // pop %edi
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
+ .byte 131,236,60 // sub $0x3c,%esp
+ .byte 232,0,0,0,0 // call 3b73 <_sk_store_a8_sse2+0xe>
+ .byte 94 // pop %esi
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
- .byte 3,50 // add (%edx),%esi
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 15,40,167,152,79,0,0 // movaps 0x4f98(%edi),%xmm4
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,87,4 // mov 0x4(%edi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 3,23 // add (%edi),%edx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 15,40,166,125,61,0,0 // movaps 0x3d7d(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,228 // packssdw %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 133,210 // test %edx,%edx
- .byte 139,93,16 // mov 0x10(%ebp),%ebx
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 117,73 // jne 4cd6 <_sk_store_a8_sse2+0x9f>
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 137,12,30 // mov %ecx,(%esi,%ebx,1)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,92,36,8 // mov %ebx,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 133,219 // test %ebx,%ebx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,26 // jne 3bc8 <_sk_store_a8_sse2+0x63>
+ .byte 102,15,126,230 // movd %xmm4,%esi
+ .byte 137,52,58 // mov %esi,(%edx,%edi,1)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
+ .byte 131,196,76 // add $0x4c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -54879,29 +53635,28 @@ _sk_store_a8_sse2:
.byte 195 // ret
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,60 // je 4d24 <_sk_store_a8_sse2+0xed>
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,17 // je 4cfe <_sk_store_a8_sse2+0xc7>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,162 // jne 4c94 <_sk_store_a8_sse2+0x5d>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,57 // je 3c11 <_sk_store_a8_sse2+0xac>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,17 // je 3bee <_sk_store_a8_sse2+0x89>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,211 // jne 3bb5 <_sk_store_a8_sse2+0x50>
.byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp)
- .byte 138,77,208 // mov -0x30(%ebp),%cl
- .byte 136,76,30,2 // mov %cl,0x2(%esi,%ebx,1)
+ .byte 138,93,208 // mov -0x30(%ebp),%bl
+ .byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,167,168,79,0,0 // pand 0x4fa8(%edi),%xmm4
+ .byte 102,15,219,166,141,61,0,0 // pand 0x3d8d(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 102,137,12,30 // mov %cx,(%esi,%ebx,1)
- .byte 233,112,255,255,255 // jmp 4c94 <_sk_store_a8_sse2+0x5d>
+ .byte 102,15,126,230 // movd %xmm4,%esi
+ .byte 102,137,52,58 // mov %si,(%edx,%edi,1)
+ .byte 235,164 // jmp 3bb5 <_sk_store_a8_sse2+0x50>
.byte 102,15,127,101,216 // movdqa %xmm4,-0x28(%ebp)
- .byte 138,77,216 // mov -0x28(%ebp),%cl
- .byte 136,12,30 // mov %cl,(%esi,%ebx,1)
- .byte 233,96,255,255,255 // jmp 4c94 <_sk_store_a8_sse2+0x5d>
+ .byte 138,93,216 // mov -0x28(%ebp),%bl
+ .byte 136,28,58 // mov %bl,(%edx,%edi,1)
+ .byte 235,151 // jmp 3bb5 <_sk_store_a8_sse2+0x50>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -54912,71 +53667,59 @@ _sk_load_g8_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 4d42 <_sk_load_g8_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 3c2c <_sk_load_g8_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,103 // jne 4dd2 <_sk_load_g8_sse2+0x9e>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,63 // jne 3c86 <_sk_load_g8_sse2+0x68>
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,128,190,78,0,0 // pand 0x4ebe(%eax),%xmm0
+ .byte 102,15,219,130,228,60,0,0 // pand 0x3ce4(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,128,206,78,0,0 // mulps 0x4ece(%eax),%xmm0
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,152,222,78,0,0 // movaps 0x4ede(%eax),%xmm3
+ .byte 15,89,130,244,60,0,0 // mulps 0x3cf4(%edx),%xmm0
+ .byte 141,112,8 // lea 0x8(%eax),%esi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,154,4,61,0,0 // movaps 0x3d04(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 86 // push %esi
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,218 // mov %ebx,%edx
- .byte 128,226,3 // and $0x3,%dl
- .byte 128,250,1 // cmp $0x1,%dl
- .byte 116,53 // je 4e11 <_sk_load_g8_sse2+0xdd>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 3cc0 <_sk_load_g8_sse2+0xa2>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 128,250,2 // cmp $0x2,%dl
- .byte 116,19 // je 4df8 <_sk_load_g8_sse2+0xc4>
- .byte 128,250,3 // cmp $0x3,%dl
- .byte 117,142 // jne 4d78 <_sk_load_g8_sse2+0x44>
- .byte 15,182,84,62,2 // movzbl 0x2(%esi,%edi,1),%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 3caa <_sk_load_g8_sse2+0x8c>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,184 // jne 3c54 <_sk_load_g8_sse2+0x36>
+ .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
+ .byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 15,183,20,62 // movzwl (%esi,%edi,1),%edx
- .byte 102,15,110,234 // movd %edx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 233,103,255,255,255 // jmp 4d78 <_sk_load_g8_sse2+0x44>
- .byte 15,182,20,62 // movzbl (%esi,%edi,1),%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 233,90,255,255,255 // jmp 4d78 <_sk_load_g8_sse2+0x44>
+ .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
+ .byte 102,15,110,206 // movd %esi,%xmm1
+ .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
+ .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
+ .byte 242,15,16,193 // movsd %xmm1,%xmm0
+ .byte 235,148 // jmp 3c54 <_sk_load_g8_sse2+0x36>
+ .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
+ .byte 102,15,110,198 // movd %esi,%xmm0
+ .byte 235,138 // jmp 3c54 <_sk_load_g8_sse2+0x36>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -54987,65 +53730,61 @@ _sk_load_g8_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 4e2c <_sk_load_g8_dst_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 3cd8 <_sk_load_g8_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 117,97 // jne 4ea6 <_sk_load_g8_dst_sse2+0x88>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,73 // jne 3d3c <_sk_load_g8_dst_sse2+0x72>
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,4,78,0,0 // pand 0x4e04(%edx),%xmm4
+ .byte 102,15,219,162,104,60,0,0 // pand 0x3c68(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,20,78,0,0 // mulps 0x4e14(%edx),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,170,36,78,0,0 // movaps 0x4e24(%edx),%xmm5
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
+ .byte 15,89,162,120,60,0,0 // mulps 0x3c78(%edx),%xmm4
+ .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
+ .byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
+ .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
+ .byte 15,40,162,136,60,0,0 // movaps 0x3c88(%edx),%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,53 // je 4ee5 <_sk_load_g8_dst_sse2+0xc7>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 3d76 <_sk_load_g8_dst_sse2+0xac>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 4ecc <_sk_load_g8_dst_sse2+0xae>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,148 // jne 4e52 <_sk_load_g8_dst_sse2+0x34>
- .byte 15,182,76,62,2 // movzbl 0x2(%esi,%edi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 3d60 <_sk_load_g8_dst_sse2+0x96>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,174 // jne 3d00 <_sk_load_g8_dst_sse2+0x36>
+ .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,12,62 // movzwl (%esi,%edi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
+ .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
+ .byte 102,15,110,238 // movd %esi,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,109,255,255,255 // jmp 4e52 <_sk_load_g8_dst_sse2+0x34>
- .byte 15,182,12,62 // movzbl (%esi,%edi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,96,255,255,255 // jmp 4e52 <_sk_load_g8_dst_sse2+0x34>
+ .byte 235,138 // jmp 3d00 <_sk_load_g8_dst_sse2+0x36>
+ .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 235,128 // jmp 3d00 <_sk_load_g8_dst_sse2+0x36>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -55053,10 +53792,8 @@ FUNCTION(_sk_gather_g8_sse2)
_sk_gather_g8_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
.byte 139,17 // mov (%ecx),%edx
@@ -55084,44 +53821,28 @@ _sk_gather_g8_sse2:
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx
.byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx
- .byte 232,0,0,0,0 // call 4f6c <_sk_gather_g8_sse2+0x7a>
- .byte 94 // pop %esi
.byte 193,226,8 // shl $0x8,%edx
.byte 9,202 // or %ecx,%edx
.byte 102,15,196,194,0 // pinsrw $0x0,%edx,%xmm0
- .byte 139,85,16 // mov 0x10(%ebp),%edx
+ .byte 232,0,0,0,0 // call 3e00 <_sk_gather_g8_sse2+0x80>
+ .byte 89 // pop %ecx
.byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,96,197 // punpcklbw %xmm5,%xmm0
- .byte 102,15,97,197 // punpcklwd %xmm5,%xmm0
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
+ .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,134,244,76,0,0 // mulps 0x4cf4(%esi),%xmm0
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,158,4,77,0,0 // movaps 0x4d04(%esi),%xmm3
+ .byte 15,89,129,112,59,0,0 // mulps 0x3b70(%ecx),%xmm0
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,153,128,59,0,0 // movaps 0x3b80(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 82 // push %edx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,16 // add $0x10,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -55134,75 +53855,63 @@ _sk_load_565_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5000 <_sk_load_565_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 3e4b <_sk_load_565_sse2+0xe>
+ .byte 90 // pop %edx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 1,246 // add %esi,%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,133,137,0,0,0 // jne 50b8 <_sk_load_565_sse2+0xc6>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,97 // jne 3ec9 <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,128,128,76,0,0 // movdqa 0x4c80(%eax),%xmm0
+ .byte 102,15,111,130,69,59,0,0 // movdqa 0x3b45(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,128,144,76,0,0 // mulps 0x4c90(%eax),%xmm0
- .byte 102,15,111,136,160,76,0,0 // movdqa 0x4ca0(%eax),%xmm1
+ .byte 15,89,130,85,59,0,0 // mulps 0x3b55(%edx),%xmm0
+ .byte 102,15,111,138,101,59,0,0 // movdqa 0x3b65(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,136,176,76,0,0 // mulps 0x4cb0(%eax),%xmm1
- .byte 102,15,219,144,192,76,0,0 // pand 0x4cc0(%eax),%xmm2
+ .byte 15,89,138,117,59,0,0 // mulps 0x3b75(%edx),%xmm1
+ .byte 102,15,219,146,133,59,0,0 // pand 0x3b85(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,144,208,76,0,0 // mulps 0x4cd0(%eax),%xmm2
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,152,224,76,0,0 // movaps 0x4ce0(%eax),%xmm3
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 15,89,146,149,59,0,0 // mulps 0x3b95(%edx),%xmm2
+ .byte 141,112,8 // lea 0x8(%eax),%esi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,154,165,59,0,0 // movaps 0x3ba5(%edx),%xmm3
+ .byte 86 // push %esi
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,218 // mov %ebx,%edx
- .byte 128,226,3 // and $0x3,%dl
- .byte 128,250,1 // cmp $0x1,%dl
- .byte 116,50 // je 50f4 <_sk_load_565_sse2+0x102>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,46 // je 3eff <_sk_load_565_sse2+0xc2>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 128,250,2 // cmp $0x2,%dl
- .byte 116,23 // je 50e2 <_sk_load_565_sse2+0xf0>
- .byte 128,250,3 // cmp $0x3,%dl
- .byte 15,133,100,255,255,255 // jne 5038 <_sk_load_565_sse2+0x46>
- .byte 15,183,84,126,4 // movzwl 0x4(%esi,%edi,2),%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 3eed <_sk_load_565_sse2+0xb0>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,146 // jne 3e71 <_sk_load_565_sse2+0x34>
+ .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
+ .byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,68,255,255,255 // jmp 5038 <_sk_load_565_sse2+0x46>
- .byte 15,183,20,126 // movzwl (%esi,%edi,2),%edx
- .byte 102,15,110,210 // movd %edx,%xmm2
- .byte 233,55,255,255,255 // jmp 5038 <_sk_load_565_sse2+0x46>
+ .byte 233,114,255,255,255 // jmp 3e71 <_sk_load_565_sse2+0x34>
+ .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
+ .byte 102,15,110,214 // movd %esi,%xmm2
+ .byte 233,101,255,255,255 // jmp 3e71 <_sk_load_565_sse2+0x34>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -55213,71 +53922,67 @@ _sk_load_565_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 510f <_sk_load_565_dst_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 3f1a <_sk_load_565_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 1,246 // add %esi,%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,133,137,0,0,0 // jne 51b7 <_sk_load_565_dst_sse2+0xb6>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,113 // jne 3fa8 <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,225,75,0,0 // movdqa 0x4be1(%edx),%xmm5
+ .byte 102,15,111,170,230,58,0,0 // movdqa 0x3ae6(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,241,75,0,0 // mulps 0x4bf1(%edx),%xmm5
- .byte 102,15,111,178,1,76,0,0 // movdqa 0x4c01(%edx),%xmm6
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,17,76,0,0 // mulps 0x4c11(%edx),%xmm6
- .byte 102,15,219,162,33,76,0,0 // pand 0x4c21(%edx),%xmm4
+ .byte 15,89,170,246,58,0,0 // mulps 0x3af6(%edx),%xmm5
+ .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
+ .byte 102,15,111,170,6,59,0,0 // movdqa 0x3b06(%edx),%xmm5
+ .byte 102,15,219,236 // pand %xmm4,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 15,89,170,22,59,0,0 // mulps 0x3b16(%edx),%xmm5
+ .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
+ .byte 102,15,219,162,38,59,0,0 // pand 0x3b26(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,49,76,0,0 // mulps 0x4c31(%edx),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,186,65,76,0,0 // movaps 0x4c41(%edx),%xmm7
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
+ .byte 15,89,162,54,59,0,0 // mulps 0x3b36(%edx),%xmm4
+ .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
+ .byte 15,40,162,70,59,0,0 // movaps 0x3b46(%edx),%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,50 // je 51f3 <_sk_load_565_dst_sse2+0xf2>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,46 // je 3fde <_sk_load_565_dst_sse2+0xd2>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,23 // je 51e1 <_sk_load_565_dst_sse2+0xe0>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,100,255,255,255 // jne 5137 <_sk_load_565_dst_sse2+0x36>
- .byte 15,183,76,126,4 // movzwl 0x4(%esi,%edi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 3fcc <_sk_load_565_dst_sse2+0xc0>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,130 // jne 3f40 <_sk_load_565_dst_sse2+0x34>
+ .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,68,255,255,255 // jmp 5137 <_sk_load_565_dst_sse2+0x36>
- .byte 15,183,12,126 // movzwl (%esi,%edi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,55,255,255,255 // jmp 5137 <_sk_load_565_dst_sse2+0x36>
+ .byte 233,98,255,255,255 // jmp 3f40 <_sk_load_565_dst_sse2+0x34>
+ .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 233,85,255,255,255 // jmp 3f40 <_sk_load_565_dst_sse2+0x34>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -55285,17 +53990,12 @@ FUNCTION(_sk_gather_565_sse2)
_sk_gather_565_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 520e <_sk_gather_565_sse2+0xe>
- .byte 88 // pop %eax
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 139,62 // mov (%esi),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,110,86,4 // movd 0x4(%esi),%xmm2
+ .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
.byte 102,15,244,218 // pmuludq %xmm2,%xmm3
@@ -55305,56 +54005,41 @@ _sk_gather_565_sse2:
.byte 102,15,98,203 // punpckldq %xmm3,%xmm1
.byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
.byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,196,20,119,0 // pinsrw $0x0,(%edi,%esi,2),%xmm2
- .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,196,20,74,0 // pinsrw $0x0,(%edx,%ecx,2),%xmm2
+ .byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,196,20,119,1 // pinsrw $0x1,(%edi,%esi,2),%xmm2
- .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,196,20,74,1 // pinsrw $0x1,(%edx,%ecx,2),%xmm2
+ .byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 15,183,52,119 // movzwl (%edi,%esi,2),%esi
- .byte 102,15,196,214,2 // pinsrw $0x2,%esi,%xmm2
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 15,183,52,119 // movzwl (%edi,%esi,2),%esi
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 102,15,196,214,3 // pinsrw $0x3,%esi,%xmm2
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
+ .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
+ .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
+ .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
+ .byte 232,0,0,0,0 // call 4066 <_sk_gather_565_sse2+0x7b>
+ .byte 90 // pop %edx
+ .byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,128,82,75,0,0 // movdqa 0x4b52(%eax),%xmm0
+ .byte 102,15,111,130,10,58,0,0 // movdqa 0x3a0a(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,128,98,75,0,0 // mulps 0x4b62(%eax),%xmm0
- .byte 102,15,111,136,114,75,0,0 // movdqa 0x4b72(%eax),%xmm1
+ .byte 15,89,130,26,58,0,0 // mulps 0x3a1a(%edx),%xmm0
+ .byte 102,15,111,138,42,58,0,0 // movdqa 0x3a2a(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,136,130,75,0,0 // mulps 0x4b82(%eax),%xmm1
- .byte 102,15,219,144,146,75,0,0 // pand 0x4b92(%eax),%xmm2
+ .byte 15,89,138,58,58,0,0 // mulps 0x3a3a(%edx),%xmm1
+ .byte 102,15,219,146,74,58,0,0 // pand 0x3a4a(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,144,162,75,0,0 // mulps 0x4ba2(%eax),%xmm2
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
- .byte 141,74,8 // lea 0x8(%edx),%ecx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,178,75,0,0 // movaps 0x4bb2(%eax),%xmm3
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,89,146,90,58,0,0 // mulps 0x3a5a(%edx),%xmm2
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,154,106,58,0,0 // movaps 0x3a6a(%edx),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -55367,65 +54052,49 @@ _sk_store_565_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5330 <_sk_store_565_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,160,160,74,0,0 // movaps 0x4aa0(%eax),%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,11 // pslld $0xb,%xmm5
- .byte 15,40,176,176,74,0,0 // movaps 0x4ab0(%eax),%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
- .byte 102,15,114,246,5 // pslld $0x5,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 40d9 <_sk_store_565_sse2+0xe>
+ .byte 95 // pop %edi
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,223 // imul %edi,%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 1,210 // add %edx,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 15,40,167,7,58,0,0 // movaps 0x3a07(%edi),%xmm4
+ .byte 15,40,175,23,58,0,0 // movaps 0x3a17(%edi),%xmm5
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,89,244 // mulps %xmm4,%xmm6
+ .byte 102,15,91,246 // cvtps2dq %xmm6,%xmm6
+ .byte 102,15,114,246,11 // pslld $0xb,%xmm6
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
+ .byte 102,15,114,245,5 // pslld $0x5,%xmm5
+ .byte 102,15,235,238 // por %xmm6,%xmm5
.byte 15,89,226 // mulps %xmm2,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,86,230 // orpd %xmm6,%xmm4
+ .byte 102,15,86,229 // orpd %xmm5,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,228 // packssdw %xmm4,%xmm4
.byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp)
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
- .byte 133,210 // test %edx,%edx
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 117,90 // jne 5404 <_sk_store_565_sse2+0xe2>
- .byte 137,208 // mov %edx,%eax
- .byte 137,250 // mov %edi,%edx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 117,34 // jne 416d <_sk_store_565_sse2+0xa2>
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 137,60,115 // mov %edi,(%ebx,%esi,2)
- .byte 137,215 // mov %edx,%edi
- .byte 137,194 // mov %eax,%edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,76,115,4 // mov %ecx,0x4(%ebx,%esi,2)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 102,15,126,235 // movd %xmm5,%ebx
+ .byte 137,60,114 // mov %edi,(%edx,%esi,2)
+ .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -55433,27 +54102,22 @@ _sk_store_565_sse2:
.byte 195 // ret
.byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,41 // je 5440 <_sk_store_565_sse2+0x11e>
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 542f <_sk_store_565_sse2+0x10d>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,163 // jne 53c4 <_sk_store_565_sse2+0xa2>
- .byte 137,249 // mov %edi,%ecx
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,37 // je 41a3 <_sk_store_565_sse2+0xd8>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,15 // je 4192 <_sk_store_565_sse2+0xc7>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,210 // jne 415a <_sk_store_565_sse2+0x8f>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
- .byte 102,137,124,115,4 // mov %di,0x4(%ebx,%esi,2)
- .byte 137,207 // mov %ecx,%edi
+ .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 102,15,126,36,115 // movd %xmm4,(%ebx,%esi,2)
- .byte 235,132 // jmp 53c4 <_sk_store_565_sse2+0xa2>
- .byte 137,249 // mov %edi,%ecx
+ .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
+ .byte 235,183 // jmp 415a <_sk_store_565_sse2+0x8f>
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,137,60,115 // mov %di,(%ebx,%esi,2)
- .byte 137,207 // mov %ecx,%edi
- .byte 233,115,255,255,255 // jmp 53c4 <_sk_store_565_sse2+0xa2>
+ .byte 102,137,60,114 // mov %di,(%edx,%esi,2)
+ .byte 235,173 // jmp 415a <_sk_store_565_sse2+0x8f>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -55464,78 +54128,66 @@ _sk_load_4444_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 545f <_sk_load_4444_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 41bb <_sk_load_4444_sse2+0xe>
.byte 90 // pop %edx
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 1,246 // add %esi,%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,133,152,0,0,0 // jne 5526 <_sk_load_4444_sse2+0xd5>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,112 // jne 4248 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,145,73,0,0 // movdqa 0x4991(%edx),%xmm0
+ .byte 102,15,111,130,69,57,0,0 // movdqa 0x3945(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,161,73,0,0 // mulps 0x49a1(%edx),%xmm0
- .byte 102,15,111,138,177,73,0,0 // movdqa 0x49b1(%edx),%xmm1
+ .byte 15,89,130,85,57,0,0 // mulps 0x3955(%edx),%xmm0
+ .byte 102,15,111,138,101,57,0,0 // movdqa 0x3965(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,193,73,0,0 // mulps 0x49c1(%edx),%xmm1
- .byte 102,15,111,146,209,73,0,0 // movdqa 0x49d1(%edx),%xmm2
+ .byte 15,89,138,117,57,0,0 // mulps 0x3975(%edx),%xmm1
+ .byte 102,15,111,146,133,57,0,0 // movdqa 0x3985(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,225,73,0,0 // mulps 0x49e1(%edx),%xmm2
- .byte 102,15,219,154,241,73,0,0 // pand 0x49f1(%edx),%xmm3
+ .byte 15,89,146,149,57,0,0 // mulps 0x3995(%edx),%xmm2
+ .byte 102,15,219,154,165,57,0,0 // pand 0x39a5(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,1,74,0,0 // mulps 0x4a01(%edx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,89,154,181,57,0,0 // mulps 0x39b5(%edx),%xmm3
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,50 // je 5562 <_sk_load_4444_sse2+0x111>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,46 // je 427e <_sk_load_4444_sse2+0xd1>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,23 // je 5550 <_sk_load_4444_sse2+0xff>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,85,255,255,255 // jne 5497 <_sk_load_4444_sse2+0x46>
- .byte 15,183,76,126,4 // movzwl 0x4(%esi,%edi,2),%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,19 // je 426c <_sk_load_4444_sse2+0xbf>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,131 // jne 41e1 <_sk_load_4444_sse2+0x34>
+ .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
+ .byte 102,15,110,195 // movd %ebx,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,53,255,255,255 // jmp 5497 <_sk_load_4444_sse2+0x46>
- .byte 15,183,12,126 // movzwl (%esi,%edi,2),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 233,40,255,255,255 // jmp 5497 <_sk_load_4444_sse2+0x46>
+ .byte 233,99,255,255,255 // jmp 41e1 <_sk_load_4444_sse2+0x34>
+ .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
+ .byte 102,15,110,222 // movd %esi,%xmm3
+ .byte 233,86,255,255,255 // jmp 41e1 <_sk_load_4444_sse2+0x34>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -55546,74 +54198,70 @@ _sk_load_4444_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 557d <_sk_load_4444_dst_sse2+0xe>
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 4299 <_sk_load_4444_dst_sse2+0xe>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,56 // mov (%eax),%edi
.byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 1,246 // add %esi,%esi
.byte 3,55 // add (%edi),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,133,152,0,0,0 // jne 5634 <_sk_load_4444_dst_sse2+0xc5>
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 15,133,128,0,0,0 // jne 433a <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,243,72,0,0 // movdqa 0x48f3(%edx),%xmm5
+ .byte 102,15,111,170,231,56,0,0 // movdqa 0x38e7(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,3,73,0,0 // mulps 0x4903(%edx),%xmm5
- .byte 102,15,111,178,19,73,0,0 // movdqa 0x4913(%edx),%xmm6
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,35,73,0,0 // mulps 0x4923(%edx),%xmm6
- .byte 102,15,111,186,51,73,0,0 // movdqa 0x4933(%edx),%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,186,67,73,0,0 // mulps 0x4943(%edx),%xmm7
- .byte 102,15,219,162,83,73,0,0 // pand 0x4953(%edx),%xmm4
+ .byte 15,89,170,247,56,0,0 // mulps 0x38f7(%edx),%xmm5
+ .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
+ .byte 102,15,111,170,7,57,0,0 // movdqa 0x3907(%edx),%xmm5
+ .byte 102,15,219,236 // pand %xmm4,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 15,89,170,23,57,0,0 // mulps 0x3917(%edx),%xmm5
+ .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
+ .byte 102,15,111,170,39,57,0,0 // movdqa 0x3927(%edx),%xmm5
+ .byte 102,15,219,236 // pand %xmm4,%xmm5
+ .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
+ .byte 15,89,170,55,57,0,0 // mulps 0x3937(%edx),%xmm5
+ .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
+ .byte 102,15,219,162,71,57,0,0 // pand 0x3947(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,99,73,0,0 // mulps 0x4963(%edx),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
+ .byte 15,89,162,87,57,0,0 // mulps 0x3957(%edx),%xmm4
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,50 // je 5670 <_sk_load_4444_dst_sse2+0x101>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,50 // je 4374 <_sk_load_4444_dst_sse2+0xe9>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,23 // je 565e <_sk_load_4444_dst_sse2+0xef>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 15,133,85,255,255,255 // jne 55a5 <_sk_load_4444_dst_sse2+0x36>
- .byte 15,183,76,126,4 // movzwl 0x4(%esi,%edi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,23 // je 4362 <_sk_load_4444_dst_sse2+0xd7>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 15,133,111,255,255,255 // jne 42c3 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
+ .byte 102,15,110,227 // movd %ebx,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
.byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,53,255,255,255 // jmp 55a5 <_sk_load_4444_dst_sse2+0x36>
- .byte 15,183,12,126 // movzwl (%esi,%edi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 233,40,255,255,255 // jmp 55a5 <_sk_load_4444_dst_sse2+0x36>
+ .byte 233,79,255,255,255 // jmp 42c3 <_sk_load_4444_dst_sse2+0x38>
+ .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
+ .byte 102,15,110,230 // movd %esi,%xmm4
+ .byte 233,66,255,255,255 // jmp 42c3 <_sk_load_4444_dst_sse2+0x38>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -55621,18 +54269,12 @@ FUNCTION(_sk_gather_4444_sse2)
_sk_gather_4444_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 568b <_sk_gather_4444_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,62 // mov (%esi),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,110,86,4 // movd 0x4(%esi),%xmm2
+ .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
.byte 102,15,244,218 // pmuludq %xmm2,%xmm3
@@ -55642,58 +54284,44 @@ _sk_gather_4444_sse2:
.byte 102,15,98,203 // punpckldq %xmm3,%xmm1
.byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
.byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,196,28,119,0 // pinsrw $0x0,(%edi,%esi,2),%xmm3
- .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,196,28,74,0 // pinsrw $0x0,(%edx,%ecx,2),%xmm3
+ .byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,196,28,119,1 // pinsrw $0x1,(%edi,%esi,2),%xmm3
- .byte 102,15,126,206 // movd %xmm1,%esi
+ .byte 102,15,196,28,74,1 // pinsrw $0x1,(%edx,%ecx,2),%xmm3
+ .byte 102,15,126,201 // movd %xmm1,%ecx
.byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 15,183,52,119 // movzwl (%edi,%esi,2),%esi
- .byte 102,15,196,222,2 // pinsrw $0x2,%esi,%xmm3
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 15,183,60,119 // movzwl (%edi,%esi,2),%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 102,15,196,223,3 // pinsrw $0x3,%edi,%xmm3
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
+ .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
+ .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
+ .byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
+ .byte 232,0,0,0,0 // call 4401 <_sk_gather_4444_sse2+0x80>
+ .byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,101,72,0,0 // movdqa 0x4865(%edx),%xmm0
+ .byte 102,15,111,129,255,55,0,0 // movdqa 0x37ff(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,117,72,0,0 // mulps 0x4875(%edx),%xmm0
- .byte 102,15,111,138,133,72,0,0 // movdqa 0x4885(%edx),%xmm1
+ .byte 15,89,129,15,56,0,0 // mulps 0x380f(%ecx),%xmm0
+ .byte 102,15,111,137,31,56,0,0 // movdqa 0x381f(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,149,72,0,0 // mulps 0x4895(%edx),%xmm1
- .byte 102,15,111,146,165,72,0,0 // movdqa 0x48a5(%edx),%xmm2
+ .byte 15,89,137,47,56,0,0 // mulps 0x382f(%ecx),%xmm1
+ .byte 102,15,111,145,63,56,0,0 // movdqa 0x383f(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,181,72,0,0 // mulps 0x48b5(%edx),%xmm2
- .byte 102,15,219,154,197,72,0,0 // pand 0x48c5(%edx),%xmm3
+ .byte 15,89,145,79,56,0,0 // mulps 0x384f(%ecx),%xmm2
+ .byte 102,15,219,153,95,56,0,0 // pand 0x385f(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,213,72,0,0 // mulps 0x48d5(%edx),%xmm3
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,89,8 // lea 0x8(%ecx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,89,153,111,56,0,0 // mulps 0x386f(%ecx),%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -55706,10 +54334,19 @@ _sk_store_4444_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 57bc <_sk_store_4444_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,160,180,71,0,0 // movaps 0x47b4(%eax),%xmm4
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 447e <_sk_store_4444_sse2+0xe>
+ .byte 95 // pop %edi
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,48 // mov (%eax),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 1,210 // add %edx,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 15,40,167,2,56,0,0 // movaps 0x3802(%edi),%xmm4
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -55726,15 +54363,6 @@ _sk_store_4444_sse2:
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,86,229 // orpd %xmm5,%xmm4
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,223 // imul %edi,%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 102,15,86,230 // orpd %xmm6,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
@@ -55742,34 +54370,18 @@ _sk_store_4444_sse2:
.byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp)
.byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
.byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
- .byte 133,210 // test %edx,%edx
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 117,90 // jne 589f <_sk_store_4444_sse2+0xf1>
- .byte 137,208 // mov %edx,%eax
- .byte 137,250 // mov %edi,%edx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 117,34 // jne 4521 <_sk_store_4444_sse2+0xb1>
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 137,60,115 // mov %edi,(%ebx,%esi,2)
- .byte 137,215 // mov %edx,%edi
- .byte 137,194 // mov %eax,%edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,76,115,4 // mov %ecx,0x4(%ebx,%esi,2)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 102,15,126,235 // movd %xmm5,%ebx
+ .byte 137,60,114 // mov %edi,(%edx,%esi,2)
+ .byte 137,92,114,4 // mov %ebx,0x4(%edx,%esi,2)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -55777,27 +54389,22 @@ _sk_store_4444_sse2:
.byte 195 // ret
.byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,3 // and $0x3,%cl
- .byte 128,249,1 // cmp $0x1,%cl
- .byte 116,41 // je 58db <_sk_store_4444_sse2+0x12d>
- .byte 128,249,2 // cmp $0x2,%cl
- .byte 116,19 // je 58ca <_sk_store_4444_sse2+0x11c>
- .byte 128,249,3 // cmp $0x3,%cl
- .byte 117,163 // jne 585f <_sk_store_4444_sse2+0xb1>
- .byte 137,249 // mov %edi,%ecx
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,37 // je 4557 <_sk_store_4444_sse2+0xe7>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,15 // je 4546 <_sk_store_4444_sse2+0xd6>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,210 // jne 450e <_sk_store_4444_sse2+0x9e>
.byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
- .byte 102,137,124,115,4 // mov %di,0x4(%ebx,%esi,2)
- .byte 137,207 // mov %ecx,%edi
+ .byte 102,137,124,114,4 // mov %di,0x4(%edx,%esi,2)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
.byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 102,15,126,36,115 // movd %xmm4,(%ebx,%esi,2)
- .byte 235,132 // jmp 585f <_sk_store_4444_sse2+0xb1>
- .byte 137,249 // mov %edi,%ecx
+ .byte 102,15,126,36,114 // movd %xmm4,(%edx,%esi,2)
+ .byte 235,183 // jmp 450e <_sk_store_4444_sse2+0x9e>
.byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,137,60,115 // mov %di,(%ebx,%esi,2)
- .byte 137,207 // mov %ecx,%edi
- .byte 233,115,255,255,255 // jmp 585f <_sk_store_4444_sse2+0xb1>
+ .byte 102,137,60,114 // mov %di,(%edx,%esi,2)
+ .byte 235,173 // jmp 450e <_sk_store_4444_sse2+0x9e>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -55808,80 +54415,65 @@ _sk_load_8888_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 58fa <_sk_load_8888_sse2+0xe>
- .byte 95 // pop %edi
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 456f <_sk_load_8888_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,147,0,0,0 // jne 59b7 <_sk_load_8888_sse2+0xcb>
- .byte 243,15,111,44,178 // movdqu (%edx,%esi,4),%xmm5
- .byte 102,15,111,151,134,70,0,0 // movdqa 0x4686(%edi),%xmm2
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,102 // jne 45f3 <_sk_load_8888_sse2+0x92>
+ .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
+ .byte 102,15,111,146,33,55,0,0 // movdqa 0x3721(%edx),%xmm2
+ .byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,167,150,70,0,0 // movaps 0x4696(%edi),%xmm4
+ .byte 15,40,162,49,55,0,0 // movaps 0x3731(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,16 // psrld $0x10,%xmm5
+ .byte 102,15,219,234 // pand %xmm2,%xmm5
+ .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,114,213,24 // psrld $0x18,%xmm5
- .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
+ .byte 102,15,114,211,24 // psrld $0x18,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,44 // je 59f2 <_sk_load_8888_sse2+0x106>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,21 // je 59e8 <_sk_load_8888_sse2+0xfc>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,76,255,255,255 // jne 5929 <_sk_load_8888_sse2+0x3d>
- .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
- .byte 102,15,112,232,69 // pshufd $0x45,%xmm0,%xmm5
- .byte 102,15,18,44,178 // movlpd (%edx,%esi,4),%xmm5
- .byte 233,55,255,255,255 // jmp 5929 <_sk_load_8888_sse2+0x3d>
- .byte 102,15,110,44,178 // movd (%edx,%esi,4),%xmm5
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,42,255,255,255 // jmp 5929 <_sk_load_8888_sse2+0x3d>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,35 // je 461e <_sk_load_8888_sse2+0xbd>
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 4614 <_sk_load_8888_sse2+0xb3>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,137 // jne 4592 <_sk_load_8888_sse2+0x31>
+ .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
+ .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
+ .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
+ .byte 233,116,255,255,255 // jmp 4592 <_sk_load_8888_sse2+0x31>
+ .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
+ .byte 233,106,255,255,255 // jmp 4592 <_sk_load_8888_sse2+0x31>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -55892,80 +54484,69 @@ _sk_load_8888_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 5a19 <_sk_load_8888_dst_sse2+0x1a>
- .byte 95 // pop %edi
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 4636 <_sk_load_8888_dst_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,150,0,0,0 // jne 5ad1 <_sk_load_8888_dst_sse2+0xd2>
- .byte 243,15,111,28,178 // movdqu (%edx,%esi,4),%xmm3
- .byte 102,15,111,151,135,69,0,0 // movdqa 0x4587(%edi),%xmm2
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,219,242 // pand %xmm2,%xmm6
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,118 // jne 46ca <_sk_load_8888_dst_sse2+0xa2>
+ .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
+ .byte 102,15,111,170,122,54,0,0 // movdqa 0x367a(%edx),%xmm5
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,191,151,69,0,0 // movaps 0x4597(%edi),%xmm7
+ .byte 15,40,186,138,54,0,0 // movaps 0x368a(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,114,212,8 // psrld $0x8,%xmm4
- .byte 102,15,219,226 // pand %xmm2,%xmm4
+ .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,8 // psrld $0x8,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,89,247 // mulps %xmm7,%xmm6
+ .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,16 // psrld $0x10,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
+ .byte 102,15,114,212,24 // psrld $0x18,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,44 // je 5b0c <_sk_load_8888_dst_sse2+0x10d>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,21 // je 5b02 <_sk_load_8888_dst_sse2+0x103>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,73,255,255,255 // jne 5a40 <_sk_load_8888_dst_sse2+0x41>
- .byte 102,15,110,100,178,8 // movd 0x8(%edx,%esi,4),%xmm4
- .byte 102,15,112,220,69 // pshufd $0x45,%xmm4,%xmm3
- .byte 102,15,18,28,178 // movlpd (%edx,%esi,4),%xmm3
- .byte 233,52,255,255,255 // jmp 5a40 <_sk_load_8888_dst_sse2+0x41>
- .byte 102,15,110,28,178 // movd (%edx,%esi,4),%xmm3
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,39,255,255,255 // jmp 5a40 <_sk_load_8888_dst_sse2+0x41>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,39 // je 46f9 <_sk_load_8888_dst_sse2+0xd1>
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,20 // je 46ef <_sk_load_8888_dst_sse2+0xc7>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 15,133,117,255,255,255 // jne 4659 <_sk_load_8888_dst_sse2+0x31>
+ .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
+ .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
+ .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
+ .byte 233,96,255,255,255 // jmp 4659 <_sk_load_8888_dst_sse2+0x31>
+ .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
+ .byte 233,86,255,255,255 // jmp 4659 <_sk_load_8888_dst_sse2+0x31>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -55973,18 +54554,12 @@ FUNCTION(_sk_gather_8888_sse2)
_sk_gather_8888_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5b27 <_sk_gather_8888_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,62 // mov (%esi),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,110,86,4 // movd 0x4(%esi),%xmm2
+ .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
.byte 102,15,244,218 // pmuludq %xmm2,%xmm3
@@ -55996,59 +54571,45 @@ _sk_gather_8888_sse2:
.byte 102,15,254,193 // paddd %xmm1,%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,110,20,183 // movd (%edi,%esi,4),%xmm2
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,110,12,183 // movd (%edi,%esi,4),%xmm1
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,126,209 // movd %xmm2,%ecx
+ .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
+ .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
+ .byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,110,28,183 // movd (%edi,%esi,4),%xmm3
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,110,4,183 // movd (%edi,%esi,4),%xmm0
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,111,162,153,68,0,0 // movdqa 0x4499(%edx),%xmm4
- .byte 15,40,170,169,68,0,0 // movaps 0x44a9(%edx),%xmm5
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
+ .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
+ .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
+ .byte 232,0,0,0,0 // call 4779 <_sk_gather_8888_sse2+0x76>
+ .byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
+ .byte 102,15,111,145,87,53,0,0 // movdqa 0x3557(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,196 // pand %xmm4,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
+ .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
+ .byte 15,40,161,103,53,0,0 // movaps 0x3567(%ecx),%xmm4
+ .byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,204 // pand %xmm4,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,212 // pand %xmm4,%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,16 // psrld $0x10,%xmm5
+ .byte 102,15,219,234 // pand %xmm2,%xmm5
+ .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,89,8 // lea 0x8(%ecx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -56061,10 +54622,19 @@ _sk_store_8888_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5c4c <_sk_store_8888_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,160,148,67,0,0 // movaps 0x4394(%eax),%xmm4
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 47f4 <_sk_store_8888_sse2+0xe>
+ .byte 95 // pop %edi
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,48 // mov (%eax),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 15,40,167,252,52,0,0 // movaps 0x34fc(%edi),%xmm4
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -56078,61 +54648,37 @@ _sk_store_8888_sse2:
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 102,15,91,252 // cvtps2dq %xmm4,%xmm7
- .byte 102,15,114,247,24 // pslld $0x18,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,217 // imul %ecx,%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 133,210 // test %edx,%edx
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 117,66 // jne 5cfe <_sk_store_8888_sse2+0xc0>
- .byte 243,15,127,60,187 // movdqu %xmm7,(%ebx,%edi,4)
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,52,36 // mov %esi,(%esp)
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,114,244,24 // pslld $0x18,%xmm4
+ .byte 102,15,235,229 // por %xmm5,%xmm4
+ .byte 102,15,235,230 // por %xmm6,%xmm4
+ .byte 133,219 // test %ebx,%ebx
+ .byte 117,24 // jne 4871 <_sk_store_8888_sse2+0x8b>
+ .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,33 // je 5d2e <_sk_store_8888_sse2+0xf0>
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,17 // je 5d27 <_sk_store_8888_sse2+0xe9>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 117,165 // jne 5cc1 <_sk_store_8888_sse2+0x83>
- .byte 102,15,112,239,78 // pshufd $0x4e,%xmm7,%xmm5
- .byte 102,15,126,108,187,8 // movd %xmm5,0x8(%ebx,%edi,4)
- .byte 102,15,214,60,187 // movq %xmm7,(%ebx,%edi,4)
- .byte 235,147 // jmp 5cc1 <_sk_store_8888_sse2+0x83>
- .byte 102,15,126,60,187 // movd %xmm7,(%ebx,%edi,4)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 235,137 // jmp 5cc1 <_sk_store_8888_sse2+0x83>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,28 // je 4895 <_sk_store_8888_sse2+0xaf>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 488e <_sk_store_8888_sse2+0xa8>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,219 // jne 485e <_sk_store_8888_sse2+0x78>
+ .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
+ .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
+ .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
+ .byte 235,201 // jmp 485e <_sk_store_8888_sse2+0x78>
+ .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
+ .byte 235,194 // jmp 485e <_sk_store_8888_sse2+0x78>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -56143,80 +54689,65 @@ _sk_load_bgra_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5d46 <_sk_load_bgra_sse2+0xe>
- .byte 95 // pop %edi
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 48aa <_sk_load_bgra_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,147,0,0,0 // jne 5e03 <_sk_load_bgra_sse2+0xcb>
- .byte 243,15,111,44,178 // movdqu (%edx,%esi,4),%xmm5
- .byte 102,15,111,135,170,66,0,0 // movdqa 0x42aa(%edi),%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,102 // jne 492e <_sk_load_bgra_sse2+0x92>
+ .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
+ .byte 102,15,111,130,86,52,0,0 // movdqa 0x3456(%edx),%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,167,186,66,0,0 // movaps 0x42ba(%edi),%xmm4
+ .byte 15,40,162,102,52,0,0 // movaps 0x3466(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,16 // psrld $0x10,%xmm5
+ .byte 102,15,219,232 // pand %xmm0,%xmm5
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,114,213,24 // psrld $0x18,%xmm5
- .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
+ .byte 102,15,114,211,24 // psrld $0x18,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,44 // je 5e3e <_sk_load_bgra_sse2+0x106>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,21 // je 5e34 <_sk_load_bgra_sse2+0xfc>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,76,255,255,255 // jne 5d75 <_sk_load_bgra_sse2+0x3d>
- .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
- .byte 102,15,112,232,69 // pshufd $0x45,%xmm0,%xmm5
- .byte 102,15,18,44,178 // movlpd (%edx,%esi,4),%xmm5
- .byte 233,55,255,255,255 // jmp 5d75 <_sk_load_bgra_sse2+0x3d>
- .byte 102,15,110,44,178 // movd (%edx,%esi,4),%xmm5
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,42,255,255,255 // jmp 5d75 <_sk_load_bgra_sse2+0x3d>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,35 // je 4959 <_sk_load_bgra_sse2+0xbd>
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 494f <_sk_load_bgra_sse2+0xb3>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,137 // jne 48cd <_sk_load_bgra_sse2+0x31>
+ .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
+ .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
+ .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
+ .byte 233,116,255,255,255 // jmp 48cd <_sk_load_bgra_sse2+0x31>
+ .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
+ .byte 233,106,255,255,255 // jmp 48cd <_sk_load_bgra_sse2+0x31>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -56227,80 +54758,69 @@ _sk_load_bgra_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 5e65 <_sk_load_bgra_dst_sse2+0x1a>
- .byte 95 // pop %edi
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 4971 <_sk_load_bgra_dst_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 133,219 // test %ebx,%ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,150,0,0,0 // jne 5f1d <_sk_load_bgra_dst_sse2+0xd2>
- .byte 243,15,111,28,178 // movdqu (%edx,%esi,4),%xmm3
- .byte 102,15,111,151,171,65,0,0 // movdqa 0x41ab(%edi),%xmm2
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,219,242 // pand %xmm2,%xmm6
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 117,118 // jne 4a05 <_sk_load_bgra_dst_sse2+0xa2>
+ .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
+ .byte 102,15,111,170,175,51,0,0 // movdqa 0x33af(%edx),%xmm5
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,191,187,65,0,0 // movaps 0x41bb(%edi),%xmm7
+ .byte 15,40,186,191,51,0,0 // movaps 0x33bf(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,114,212,8 // psrld $0x8,%xmm4
- .byte 102,15,219,226 // pand %xmm2,%xmm4
+ .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,8 // psrld $0x8,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,89,247 // mulps %xmm7,%xmm6
+ .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,114,214,16 // psrld $0x10,%xmm6
+ .byte 102,15,219,245 // pand %xmm5,%xmm6
+ .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
+ .byte 15,89,239 // mulps %xmm7,%xmm5
+ .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
+ .byte 102,15,114,212,24 // psrld $0x18,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
+ .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,217 // mov %ebx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,44 // je 5f58 <_sk_load_bgra_dst_sse2+0x10d>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,21 // je 5f4e <_sk_load_bgra_dst_sse2+0x103>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,73,255,255,255 // jne 5e8c <_sk_load_bgra_dst_sse2+0x41>
- .byte 102,15,110,100,178,8 // movd 0x8(%edx,%esi,4),%xmm4
- .byte 102,15,112,220,69 // pshufd $0x45,%xmm4,%xmm3
- .byte 102,15,18,28,178 // movlpd (%edx,%esi,4),%xmm3
- .byte 233,52,255,255,255 // jmp 5e8c <_sk_load_bgra_dst_sse2+0x41>
- .byte 102,15,110,28,178 // movd (%edx,%esi,4),%xmm3
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 233,39,255,255,255 // jmp 5e8c <_sk_load_bgra_dst_sse2+0x41>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,39 // je 4a34 <_sk_load_bgra_dst_sse2+0xd1>
+ .byte 102,15,239,228 // pxor %xmm4,%xmm4
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,20 // je 4a2a <_sk_load_bgra_dst_sse2+0xc7>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 15,133,117,255,255,255 // jne 4994 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
+ .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
+ .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
+ .byte 233,96,255,255,255 // jmp 4994 <_sk_load_bgra_dst_sse2+0x31>
+ .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
+ .byte 233,86,255,255,255 // jmp 4994 <_sk_load_bgra_dst_sse2+0x31>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -56308,18 +54828,12 @@ FUNCTION(_sk_gather_bgra_sse2)
_sk_gather_bgra_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5f73 <_sk_gather_bgra_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,62 // mov (%esi),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 139,17 // mov (%ecx),%edx
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,110,86,4 // movd 0x4(%esi),%xmm2
+ .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
.byte 102,15,244,218 // pmuludq %xmm2,%xmm3
@@ -56331,59 +54845,45 @@ _sk_gather_bgra_sse2:
.byte 102,15,254,193 // paddd %xmm1,%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,110,20,183 // movd (%edi,%esi,4),%xmm2
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,110,12,183 // movd (%edi,%esi,4),%xmm1
- .byte 102,15,126,198 // movd %xmm0,%esi
+ .byte 102,15,126,209 // movd %xmm2,%ecx
+ .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
+ .byte 102,15,126,201 // movd %xmm1,%ecx
+ .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
+ .byte 102,15,126,193 // movd %xmm0,%ecx
.byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,110,28,183 // movd (%edi,%esi,4),%xmm3
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,110,4,183 // movd (%edi,%esi,4),%xmm0
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,111,162,189,64,0,0 // movdqa 0x40bd(%edx),%xmm4
- .byte 15,40,170,205,64,0,0 // movaps 0x40cd(%edx),%xmm5
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
+ .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
+ .byte 102,15,126,193 // movd %xmm0,%ecx
+ .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
+ .byte 232,0,0,0,0 // call 4ab4 <_sk_gather_bgra_sse2+0x76>
+ .byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
.byte 102,15,98,216 // punpckldq %xmm0,%xmm3
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,219,212 // pand %xmm4,%xmm2
+ .byte 102,15,111,129,140,50,0,0 // movdqa 0x328c(%ecx),%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,219,200 // pand %xmm0,%xmm1
+ .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
+ .byte 15,40,161,156,50,0,0 // movaps 0x329c(%ecx),%xmm4
+ .byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,204 // pand %xmm4,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 102,15,111,235 // movdqa %xmm3,%xmm5
+ .byte 102,15,114,213,16 // psrld $0x10,%xmm5
+ .byte 102,15,219,232 // pand %xmm0,%xmm5
+ .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
+ .byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,89,8 // lea 0x8(%ecx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,89,220 // mulps %xmm4,%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -56396,10 +54896,19 @@ _sk_store_bgra_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 6098 <_sk_store_bgra_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,160,184,63,0,0 // movaps 0x3fb8(%eax),%xmm4
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 232,0,0,0,0 // call 4b2f <_sk_store_bgra_sse2+0xe>
+ .byte 95 // pop %edi
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,48 // mov (%eax),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 15,40,167,49,50,0,0 // movaps 0x3231(%edi),%xmm4
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
@@ -56413,61 +54922,37 @@ _sk_store_bgra_sse2:
.byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 102,15,91,252 // cvtps2dq %xmm4,%xmm7
- .byte 102,15,114,247,24 // pslld $0x18,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,217 // imul %ecx,%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 133,210 // test %edx,%edx
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 117,66 // jne 614a <_sk_store_bgra_sse2+0xc0>
- .byte 243,15,127,60,187 // movdqu %xmm7,(%ebx,%edi,4)
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,52,36 // mov %esi,(%esp)
+ .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
+ .byte 102,15,114,244,24 // pslld $0x18,%xmm4
+ .byte 102,15,235,229 // por %xmm5,%xmm4
+ .byte 102,15,235,230 // por %xmm6,%xmm4
+ .byte 133,219 // test %ebx,%ebx
+ .byte 117,24 // jne 4bac <_sk_store_bgra_sse2+0x8b>
+ .byte 243,15,127,36,178 // movdqu %xmm4,(%edx,%esi,4)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 137,209 // mov %edx,%ecx
- .byte 136,77,243 // mov %cl,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,33 // je 617a <_sk_store_bgra_sse2+0xf0>
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 116,17 // je 6173 <_sk_store_bgra_sse2+0xe9>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 117,165 // jne 610d <_sk_store_bgra_sse2+0x83>
- .byte 102,15,112,239,78 // pshufd $0x4e,%xmm7,%xmm5
- .byte 102,15,126,108,187,8 // movd %xmm5,0x8(%ebx,%edi,4)
- .byte 102,15,214,60,187 // movq %xmm7,(%ebx,%edi,4)
- .byte 235,147 // jmp 610d <_sk_store_bgra_sse2+0x83>
- .byte 102,15,126,60,187 // movd %xmm7,(%ebx,%edi,4)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 235,137 // jmp 610d <_sk_store_bgra_sse2+0x83>
+ .byte 128,227,3 // and $0x3,%bl
+ .byte 128,251,1 // cmp $0x1,%bl
+ .byte 116,28 // je 4bd0 <_sk_store_bgra_sse2+0xaf>
+ .byte 128,251,2 // cmp $0x2,%bl
+ .byte 116,16 // je 4bc9 <_sk_store_bgra_sse2+0xa8>
+ .byte 128,251,3 // cmp $0x3,%bl
+ .byte 117,219 // jne 4b99 <_sk_store_bgra_sse2+0x78>
+ .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
+ .byte 102,15,126,108,178,8 // movd %xmm5,0x8(%edx,%esi,4)
+ .byte 102,15,214,36,178 // movq %xmm4,(%edx,%esi,4)
+ .byte 235,201 // jmp 4b99 <_sk_store_bgra_sse2+0x78>
+ .byte 102,15,126,36,178 // movd %xmm4,(%edx,%esi,4)
+ .byte 235,194 // jmp 4b99 <_sk_store_bgra_sse2+0x78>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -56478,138 +54963,126 @@ _sk_load_f16_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 232,0,0,0,0 // call 6195 <_sk_load_f16_sse2+0x11>
- .byte 91 // pop %ebx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 131,236,92 // sub $0x5c,%esp
+ .byte 232,0,0,0,0 // call 4be5 <_sk_load_f16_sse2+0xe>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,3 // shl $0x3,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 133,255 // test %edi,%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,220,1,0,0 // jne 6393 <_sk_load_f16_sse2+0x20f>
- .byte 102,15,16,4,242 // movupd (%edx,%esi,8),%xmm0
- .byte 243,15,111,76,242,16 // movdqu 0x10(%edx,%esi,8),%xmm1
- .byte 102,15,40,208 // movapd %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,3 // shl $0x3,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 15,133,160,1,0,0 // jne 4da7 <_sk_load_f16_sse2+0x1d0>
+ .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
+ .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
+ .byte 102,15,40,216 // movapd %xmm0,%xmm3
+ .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,126,77,208 // movd %xmm1,-0x30(%ebp)
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
+ .byte 102,15,111,211 // movdqa %xmm3,%xmm2
+ .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
+ .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
+ .byte 102,15,126,85,208 // movd %xmm2,-0x30(%ebp)
+ .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
.byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp)
- .byte 243,15,126,117,208 // movq -0x30(%ebp),%xmm6
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
+ .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1
+ .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
.byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp)
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
+ .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
.byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp)
- .byte 243,15,126,101,216 // movq -0x28(%ebp),%xmm4
- .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp)
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
+ .byte 243,15,126,125,216 // movq -0x28(%ebp),%xmm7
+ .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp)
+ .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp)
- .byte 243,15,126,125,224 // movq -0x20(%ebp),%xmm7
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
+ .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5
+ .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
.byte 102,15,126,69,236 // movd %xmm0,-0x14(%ebp)
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
+ .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
.byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,97,243 // punpcklwd %xmm3,%xmm6
- .byte 102,15,111,171,203,62,0,0 // movdqa 0x3ecb(%ebx),%xmm5
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,239,242 // pxor %xmm2,%xmm6
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 102,15,239,212 // pxor %xmm4,%xmm2
- .byte 102,15,127,85,152 // movdqa %xmm2,-0x68(%ebp)
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
+ .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
+ .byte 102,15,111,154,139,49,0,0 // movdqa 0x318b(%edx),%xmm3
+ .byte 102,15,111,225 // movdqa %xmm1,%xmm4
+ .byte 102,15,219,227 // pand %xmm3,%xmm4
+ .byte 102,15,239,204 // pxor %xmm4,%xmm1
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
+ .byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,212 // por %xmm4,%xmm2
+ .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,97,227 // punpcklwd %xmm3,%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,219,253 // pand %xmm5,%xmm7
- .byte 102,15,239,231 // pxor %xmm7,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
+ .byte 102,15,219,227 // pand %xmm3,%xmm4
+ .byte 102,15,239,252 // pxor %xmm4,%xmm7
+ .byte 102,15,127,125,152 // movdqa %xmm7,-0x68(%ebp)
+ .byte 102,15,114,244,16 // pslld $0x10,%xmm4
+ .byte 102,15,111,247 // movdqa %xmm7,%xmm6
+ .byte 102,15,114,246,13 // pslld $0xd,%xmm6
+ .byte 102,15,235,244 // por %xmm4,%xmm6
+ .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
+ .byte 102,15,111,253 // movdqa %xmm5,%xmm7
+ .byte 102,15,219,251 // pand %xmm3,%xmm7
+ .byte 102,15,239,239 // pxor %xmm7,%xmm5
+ .byte 102,15,127,109,168 // movdqa %xmm5,-0x58(%ebp)
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,244,13 // pslld $0xd,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
+ .byte 102,15,114,245,13 // pslld $0xd,%xmm5
+ .byte 102,15,235,239 // por %xmm7,%xmm5
.byte 243,15,126,125,232 // movq -0x18(%ebp),%xmm7
- .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 102,15,239,253 // pxor %xmm5,%xmm7
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
+ .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
+ .byte 102,15,219,223 // pand %xmm7,%xmm3
+ .byte 102,15,239,251 // pxor %xmm3,%xmm7
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
- .byte 102,15,235,197 // por %xmm5,%xmm0
- .byte 102,15,111,155,219,62,0,0 // movdqa 0x3edb(%ebx),%xmm3
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
+ .byte 102,15,235,195 // por %xmm3,%xmm0
+ .byte 102,15,111,154,155,49,0,0 // movdqa 0x319b(%edx),%xmm3
.byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 102,15,254,227 // paddd %xmm3,%xmm4
+ .byte 102,15,254,243 // paddd %xmm3,%xmm6
+ .byte 102,15,254,235 // paddd %xmm3,%xmm5
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,155,235,62,0,0 // movdqa 0x3eeb(%ebx),%xmm3
+ .byte 102,15,111,154,171,49,0,0 // movdqa 0x31ab(%edx),%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,239,243 // pxor %xmm3,%xmm6
- .byte 102,15,111,155,251,62,0,0 // movdqa 0x3efb(%ebx),%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,102,238 // pcmpgtd %xmm6,%xmm5
- .byte 102,15,223,233 // pandn %xmm1,%xmm5
- .byte 102,15,111,117,152 // movdqa -0x68(%ebp),%xmm6
- .byte 102,15,239,117,184 // pxor -0x48(%ebp),%xmm6
+ .byte 102,15,239,203 // pxor %xmm3,%xmm1
+ .byte 102,15,111,154,187,49,0,0 // movdqa 0x31bb(%edx),%xmm3
+ .byte 102,15,111,227 // movdqa %xmm3,%xmm4
+ .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
+ .byte 102,15,223,226 // pandn %xmm2,%xmm4
+ .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2
+ .byte 102,15,239,85,184 // pxor -0x48(%ebp),%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,102,206 // pcmpgtd %xmm6,%xmm1
- .byte 102,15,223,202 // pandn %xmm2,%xmm1
+ .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1
+ .byte 102,15,223,206 // pandn %xmm6,%xmm1
.byte 102,15,111,117,168 // movdqa -0x58(%ebp),%xmm6
.byte 102,15,239,117,184 // pxor -0x48(%ebp),%xmm6
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,102,214 // pcmpgtd %xmm6,%xmm2
- .byte 102,15,223,212 // pandn %xmm4,%xmm2
+ .byte 102,15,223,213 // pandn %xmm5,%xmm2
.byte 102,15,239,125,184 // pxor -0x48(%ebp),%xmm7
.byte 102,15,102,223 // pcmpgtd %xmm7,%xmm3
.byte 102,15,223,216 // pandn %xmm0,%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 102,15,111,196 // movdqa %xmm4,%xmm0
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
+ .byte 131,196,108 // add $0x6c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 242,15,16,4,242 // movsd (%edx,%esi,8),%xmm0
+ .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 15,132,29,254,255,255 // je 61c2 <_sk_load_f16_sse2+0x3e>
- .byte 102,15,22,68,242,8 // movhpd 0x8(%edx,%esi,8),%xmm0
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 15,130,14,254,255,255 // jb 61c2 <_sk_load_f16_sse2+0x3e>
- .byte 243,15,126,76,242,16 // movq 0x10(%edx,%esi,8),%xmm1
- .byte 233,3,254,255,255 // jmp 61c2 <_sk_load_f16_sse2+0x3e>
+ .byte 131,251,1 // cmp $0x1,%ebx
+ .byte 15,132,89,254,255,255 // je 4c12 <_sk_load_f16_sse2+0x3b>
+ .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
+ .byte 131,251,3 // cmp $0x3,%ebx
+ .byte 15,130,74,254,255,255 // jb 4c12 <_sk_load_f16_sse2+0x3b>
+ .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
+ .byte 233,63,254,255,255 // jmp 4c12 <_sk_load_f16_sse2+0x3b>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -56620,142 +55093,139 @@ _sk_load_f16_dst_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,252,0,0,0 // sub $0xfc,%esp
- .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
- .byte 102,15,127,149,104,255,255,255 // movdqa %xmm2,-0x98(%ebp)
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 102,15,127,69,136 // movdqa %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 63eb <_sk_load_f16_dst_sse2+0x2c>
- .byte 91 // pop %ebx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
+ .byte 129,236,140,0,0,0 // sub $0x8c,%esp
+ .byte 15,41,157,104,255,255,255 // movaps %xmm3,-0x98(%ebp)
+ .byte 15,41,149,120,255,255,255 // movaps %xmm2,-0x88(%ebp)
+ .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
+ .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
+ .byte 232,0,0,0,0 // call 4dfb <_sk_load_f16_dst_sse2+0x28>
+ .byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,209 // imul %ecx,%edx
- .byte 193,226,3 // shl $0x3,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 133,255 // test %edi,%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,133,233,1,0,0 // jne 65f6 <_sk_load_f16_dst_sse2+0x237>
- .byte 102,15,16,12,242 // movupd (%edx,%esi,8),%xmm1
- .byte 243,15,111,68,242,16 // movdqu 0x10(%edx,%esi,8),%xmm0
- .byte 102,15,40,217 // movapd %xmm1,%xmm3
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,3 // shl $0x3,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 133,219 // test %ebx,%ebx
+ .byte 139,57 // mov (%ecx),%edi
+ .byte 15,133,206,1,0,0 // jne 4feb <_sk_load_f16_dst_sse2+0x218>
+ .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
+ .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
+ .byte 102,15,40,208 // movapd %xmm0,%xmm2
+ .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
+ .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
+ .byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,105,200 // punpckhwd %xmm0,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 102,15,105,217 // punpckhwd %xmm1,%xmm3
- .byte 102,15,126,69,208 // movd %xmm0,-0x30(%ebp)
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,77,212 // movd %xmm1,-0x2c(%ebp)
- .byte 243,15,126,117,208 // movq -0x30(%ebp),%xmm6
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,77,220 // movd %xmm1,-0x24(%ebp)
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp)
- .byte 243,15,126,109,216 // movq -0x28(%ebp),%xmm5
- .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp)
+ .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
+ .byte 102,15,126,93,208 // movd %xmm3,-0x30(%ebp)
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp)
- .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1
+ .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp)
+ .byte 243,15,126,101,208 // movq -0x30(%ebp),%xmm4
.byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
- .byte 102,15,126,69,236 // movd %xmm0,-0x14(%ebp)
+ .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp)
.byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,111,155,181,60,0,0 // movdqa 0x3cb5(%ebx),%xmm3
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,239,240 // pxor %xmm0,%xmm6
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
+ .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp)
+ .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0
+ .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp)
+ .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
+ .byte 102,15,126,93,228 // movd %xmm3,-0x1c(%ebp)
+ .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5
+ .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3
+ .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp)
+ .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2
+ .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
+ .byte 102,15,111,154,181,47,0,0 // movdqa 0x2fb5(%edx),%xmm3
+ .byte 102,15,111,212 // movdqa %xmm4,%xmm2
+ .byte 102,15,219,211 // pand %xmm3,%xmm2
+ .byte 102,15,239,226 // pxor %xmm2,%xmm4
+ .byte 102,15,114,242,16 // pslld $0x10,%xmm2
+ .byte 102,15,111,204 // movdqa %xmm4,%xmm1
+ .byte 102,15,114,241,13 // pslld $0xd,%xmm1
+ .byte 102,15,235,202 // por %xmm2,%xmm1
+ .byte 102,15,111,146,213,47,0,0 // movdqa 0x2fd5(%edx),%xmm2
+ .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
+ .byte 102,15,239,226 // pxor %xmm2,%xmm4
+ .byte 102,15,111,178,229,47,0,0 // movdqa 0x2fe5(%edx),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
+ .byte 102,15,102,252 // pcmpgtd %xmm4,%xmm7
+ .byte 102,15,111,146,197,47,0,0 // movdqa 0x2fc5(%edx),%xmm2
+ .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
+ .byte 102,15,254,202 // paddd %xmm2,%xmm1
+ .byte 102,15,223,249 // pandn %xmm1,%xmm7
+ .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
+ .byte 102,15,127,121,16 // movdqa %xmm7,0x10(%ecx)
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
+ .byte 102,15,111,200 // movdqa %xmm0,%xmm1
+ .byte 102,15,219,203 // pand %xmm3,%xmm1
+ .byte 102,15,239,193 // pxor %xmm1,%xmm0
+ .byte 102,15,114,241,16 // pslld $0x10,%xmm1
+ .byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
- .byte 102,15,235,248 // por %xmm0,%xmm7
- .byte 102,15,97,236 // punpcklwd %xmm4,%xmm5
+ .byte 102,15,235,249 // por %xmm1,%xmm7
+ .byte 102,15,111,101,168 // movdqa -0x58(%ebp),%xmm4
+ .byte 102,15,239,196 // pxor %xmm4,%xmm0
+ .byte 102,15,111,206 // movdqa %xmm6,%xmm1
+ .byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
+ .byte 102,15,254,125,184 // paddd -0x48(%ebp),%xmm7
+ .byte 102,15,223,207 // pandn %xmm7,%xmm1
+ .byte 102,15,127,73,32 // movdqa %xmm1,0x20(%ecx)
+ .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 102,15,97,239 // punpcklwd %xmm7,%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,239,232 // pxor %xmm0,%xmm5
- .byte 102,15,127,109,152 // movdqa %xmm5,-0x68(%ebp)
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,245,13 // pslld $0xd,%xmm5
- .byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,239,200 // pxor %xmm0,%xmm1
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,114,244,13 // pslld $0xd,%xmm4
- .byte 102,15,235,224 // por %xmm0,%xmm4
- .byte 243,15,126,77,232 // movq -0x18(%ebp),%xmm1
- .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,219,217 // pand %xmm1,%xmm3
- .byte 102,15,239,203 // pxor %xmm3,%xmm1
+ .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 102,15,114,241,13 // pslld $0xd,%xmm1
+ .byte 102,15,235,200 // por %xmm0,%xmm1
+ .byte 102,15,239,236 // pxor %xmm4,%xmm5
+ .byte 102,15,111,198 // movdqa %xmm6,%xmm0
+ .byte 102,15,102,197 // pcmpgtd %xmm5,%xmm0
+ .byte 102,15,111,109,184 // movdqa -0x48(%ebp),%xmm5
+ .byte 102,15,254,205 // paddd %xmm5,%xmm1
+ .byte 102,15,223,193 // pandn %xmm1,%xmm0
+ .byte 102,15,127,65,48 // movdqa %xmm0,0x30(%ecx)
+ .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 102,15,239,211 // pxor %xmm3,%xmm2
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,15,111,155,197,60,0,0 // movdqa 0x3cc5(%ebx),%xmm3
- .byte 102,15,254,251 // paddd %xmm3,%xmm7
- .byte 102,15,254,235 // paddd %xmm3,%xmm5
- .byte 102,15,254,227 // paddd %xmm3,%xmm4
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 102,15,111,131,213,60,0,0 // movdqa 0x3cd5(%ebx),%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,239,240 // pxor %xmm0,%xmm6
- .byte 102,15,111,131,229,60,0,0 // movdqa 0x3ce5(%ebx),%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,102,222 // pcmpgtd %xmm6,%xmm3
- .byte 102,15,223,223 // pandn %xmm7,%xmm3
- .byte 102,15,111,125,152 // movdqa -0x68(%ebp),%xmm7
- .byte 102,15,239,125,184 // pxor -0x48(%ebp),%xmm7
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,102,247 // pcmpgtd %xmm7,%xmm6
- .byte 102,15,223,245 // pandn %xmm5,%xmm6
- .byte 102,15,111,125,168 // movdqa -0x58(%ebp),%xmm7
- .byte 102,15,239,125,184 // pxor -0x48(%ebp),%xmm7
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,102,239 // pcmpgtd %xmm7,%xmm5
- .byte 102,15,223,236 // pandn %xmm4,%xmm5
- .byte 102,15,239,77,184 // pxor -0x48(%ebp),%xmm1
- .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
- .byte 102,15,223,194 // pandn %xmm2,%xmm0
+ .byte 102,15,111,194 // movdqa %xmm2,%xmm0
+ .byte 102,15,114,240,13 // pslld $0xd,%xmm0
+ .byte 102,15,235,195 // por %xmm3,%xmm0
+ .byte 102,15,254,197 // paddd %xmm5,%xmm0
+ .byte 102,15,239,212 // pxor %xmm4,%xmm2
+ .byte 102,15,102,242 // pcmpgtd %xmm2,%xmm6
+ .byte 102,15,223,240 // pandn %xmm0,%xmm6
+ .byte 102,15,127,113,64 // movdqa %xmm6,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,127,68,36,80 // movdqa %xmm0,0x50(%esp)
- .byte 102,15,127,108,36,64 // movdqa %xmm5,0x40(%esp)
- .byte 102,15,127,116,36,48 // movdqa %xmm6,0x30(%esp)
- .byte 102,15,127,92,36,32 // movdqa %xmm3,0x20(%esp)
- .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0
- .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
- .byte 15,40,149,104,255,255,255 // movaps -0x98(%ebp),%xmm2
- .byte 15,40,157,88,255,255,255 // movaps -0xa8(%ebp),%xmm3
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
+ .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1
+ .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
+ .byte 15,40,157,104,255,255,255 // movaps -0x98(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,252,0,0,0 // add $0xfc,%esp
+ .byte 129,196,156,0,0,0 // add $0x9c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 242,15,16,12,242 // movsd (%edx,%esi,8),%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 15,132,16,254,255,255 // je 6418 <_sk_load_f16_dst_sse2+0x59>
- .byte 102,15,22,76,242,8 // movhpd 0x8(%edx,%esi,8),%xmm1
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 15,130,1,254,255,255 // jb 6418 <_sk_load_f16_dst_sse2+0x59>
- .byte 243,15,126,68,242,16 // movq 0x10(%edx,%esi,8),%xmm0
- .byte 233,246,253,255,255 // jmp 6418 <_sk_load_f16_dst_sse2+0x59>
+ .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
+ .byte 102,15,239,201 // pxor %xmm1,%xmm1
+ .byte 131,251,1 // cmp $0x1,%ebx
+ .byte 15,132,43,254,255,255 // je 4e28 <_sk_load_f16_dst_sse2+0x55>
+ .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
+ .byte 131,251,3 // cmp $0x3,%ebx
+ .byte 15,130,28,254,255,255 // jb 4e28 <_sk_load_f16_dst_sse2+0x55>
+ .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
+ .byte 233,17,254,255,255 // jmp 4e28 <_sk_load_f16_dst_sse2+0x55>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -56763,17 +55233,12 @@ FUNCTION(_sk_gather_f16_sse2)
_sk_gather_f16_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,204,0,0,0 // sub $0xcc,%esp
- .byte 232,0,0,0,0 // call 6633 <_sk_gather_f16_sse2+0x11>
- .byte 89 // pop %ecx
+ .byte 131,236,88 // sub $0x58,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,22 // mov (%esi),%edx
+ .byte 139,16 // mov (%eax),%edx
+ .byte 139,10 // mov (%edx),%ecx
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,110,86,4 // movd 0x4(%esi),%xmm2
+ .byte 102,15,110,82,4 // movd 0x4(%edx),%xmm2
.byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
.byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
.byte 102,15,244,218 // pmuludq %xmm2,%xmm3
@@ -56783,138 +55248,120 @@ _sk_gather_f16_sse2:
.byte 102,15,98,203 // punpckldq %xmm3,%xmm1
.byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
.byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,110,68,250,4 // movd 0x4(%edx,%edi,8),%xmm0
- .byte 102,15,110,28,250 // movd (%edx,%edi,8),%xmm3
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,110,84,250,4 // movd 0x4(%edx,%edi,8),%xmm2
- .byte 102,15,110,36,250 // movd (%edx,%edi,8),%xmm4
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,15,98,227 // punpckldq %xmm3,%xmm4
- .byte 102,15,98,226 // punpckldq %xmm2,%xmm4
- .byte 102,15,110,68,242,4 // movd 0x4(%edx,%esi,8),%xmm0
- .byte 102,15,110,76,250,4 // movd 0x4(%edx,%edi,8),%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,110,12,242 // movd (%edx,%esi,8),%xmm1
- .byte 102,15,110,20,250 // movd (%edx,%edi,8),%xmm2
+ .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
+ .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
+ .byte 102,15,126,210 // movd %xmm2,%edx
+ .byte 102,15,110,84,209,4 // movd 0x4(%ecx,%edx,8),%xmm2
+ .byte 102,15,110,28,209 // movd (%ecx,%edx,8),%xmm3
+ .byte 102,15,126,202 // movd %xmm1,%edx
+ .byte 102,15,110,76,209,4 // movd 0x4(%ecx,%edx,8),%xmm1
+ .byte 102,15,110,36,209 // movd (%ecx,%edx,8),%xmm4
+ .byte 102,15,126,194 // movd %xmm0,%edx
+ .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
+ .byte 102,15,110,108,209,4 // movd 0x4(%ecx,%edx,8),%xmm5
+ .byte 102,15,110,52,209 // movd (%ecx,%edx,8),%xmm6
+ .byte 102,15,126,194 // movd %xmm0,%edx
+ .byte 102,15,110,68,209,4 // movd 0x4(%ecx,%edx,8),%xmm0
+ .byte 102,15,110,60,209 // movd (%ecx,%edx,8),%xmm7
+ .byte 232,0,0,0,0 // call 50a5 <_sk_gather_f16_sse2+0x8e>
+ .byte 89 // pop %ecx
.byte 102,15,98,202 // punpckldq %xmm2,%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
+ .byte 102,15,98,227 // punpckldq %xmm3,%xmm4
+ .byte 102,15,98,225 // punpckldq %xmm1,%xmm4
+ .byte 102,15,98,232 // punpckldq %xmm0,%xmm5
+ .byte 102,15,98,247 // punpckldq %xmm7,%xmm6
+ .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
+ .byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,105,204 // punpckhwd %xmm4,%xmm1
+ .byte 102,15,105,244 // punpckhwd %xmm4,%xmm6
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,126,85,208 // movd %xmm2,-0x30(%ebp)
+ .byte 102,15,97,214 // punpcklwd %xmm6,%xmm2
+ .byte 102,15,105,198 // punpckhwd %xmm6,%xmm0
+ .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp)
.byte 102,15,112,202,229 // pshufd $0xe5,%xmm2,%xmm1
- .byte 102,15,126,77,212 // movd %xmm1,-0x2c(%ebp)
- .byte 243,15,126,101,208 // movq -0x30(%ebp),%xmm4
+ .byte 102,15,126,77,228 // movd %xmm1,-0x1c(%ebp)
+ .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1
.byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3
- .byte 102,15,126,93,220 // movd %xmm3,-0x24(%ebp)
+ .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp)
.byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2
- .byte 102,15,126,85,216 // movd %xmm2,-0x28(%ebp)
- .byte 243,15,126,85,216 // movq -0x28(%ebp),%xmm2
- .byte 102,15,126,69,224 // movd %xmm0,-0x20(%ebp)
+ .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
+ .byte 243,15,126,125,232 // movq -0x18(%ebp),%xmm7
+ .byte 102,15,126,69,240 // movd %xmm0,-0x10(%ebp)
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
- .byte 102,15,126,93,228 // movd %xmm3,-0x1c(%ebp)
- .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1
+ .byte 102,15,126,93,244 // movd %xmm3,-0xc(%ebp)
+ .byte 243,15,126,109,240 // movq -0x10(%ebp),%xmm5
.byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp)
+ .byte 102,15,126,93,252 // movd %xmm3,-0x4(%ebp)
.byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,97,235 // punpcklwd %xmm3,%xmm5
- .byte 102,15,111,161,173,58,0,0 // movdqa 0x3aad(%ecx),%xmm4
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,239,232 // pxor %xmm0,%xmm5
- .byte 102,15,127,109,136 // movdqa %xmm5,-0x78(%ebp)
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,245,13 // pslld $0xd,%xmm5
- .byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,239,208 // pxor %xmm0,%xmm2
- .byte 102,15,127,85,152 // movdqa %xmm2,-0x68(%ebp)
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,114,246,13 // pslld $0xd,%xmm6
- .byte 102,15,235,240 // por %xmm0,%xmm6
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,239,200 // pxor %xmm0,%xmm1
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,114,247,13 // pslld $0xd,%xmm7
- .byte 102,15,235,248 // por %xmm0,%xmm7
- .byte 243,15,126,69,232 // movq -0x18(%ebp),%xmm0
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,239,196 // pxor %xmm4,%xmm0
+ .byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
+ .byte 102,15,239,192 // pxor %xmm0,%xmm0
+ .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
+ .byte 102,15,111,153,75,45,0,0 // movdqa 0x2d4b(%ecx),%xmm3
+ .byte 102,15,111,225 // movdqa %xmm1,%xmm4
+ .byte 102,15,219,227 // pand %xmm3,%xmm4
+ .byte 102,15,239,204 // pxor %xmm4,%xmm1
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 102,15,111,153,189,58,0,0 // movdqa 0x3abd(%ecx),%xmm3
- .byte 102,15,254,235 // paddd %xmm3,%xmm5
+ .byte 102,15,111,209 // movdqa %xmm1,%xmm2
+ .byte 102,15,114,242,13 // pslld $0xd,%xmm2
+ .byte 102,15,235,212 // por %xmm4,%xmm2
+ .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
+ .byte 102,15,111,231 // movdqa %xmm7,%xmm4
+ .byte 102,15,219,227 // pand %xmm3,%xmm4
+ .byte 102,15,239,252 // pxor %xmm4,%xmm7
+ .byte 102,15,127,125,168 // movdqa %xmm7,-0x58(%ebp)
+ .byte 102,15,114,244,16 // pslld $0x10,%xmm4
+ .byte 102,15,111,247 // movdqa %xmm7,%xmm6
+ .byte 102,15,114,246,13 // pslld $0xd,%xmm6
+ .byte 102,15,235,244 // por %xmm4,%xmm6
+ .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
+ .byte 102,15,111,253 // movdqa %xmm5,%xmm7
+ .byte 102,15,219,251 // pand %xmm3,%xmm7
+ .byte 102,15,239,239 // pxor %xmm7,%xmm5
+ .byte 102,15,127,109,184 // movdqa %xmm5,-0x48(%ebp)
+ .byte 102,15,114,247,16 // pslld $0x10,%xmm7
+ .byte 102,15,114,245,13 // pslld $0xd,%xmm5
+ .byte 102,15,235,239 // por %xmm7,%xmm5
+ .byte 243,15,126,125,248 // movq -0x8(%ebp),%xmm7
+ .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
+ .byte 102,15,219,223 // pand %xmm7,%xmm3
+ .byte 102,15,239,251 // pxor %xmm3,%xmm7
+ .byte 102,15,114,243,16 // pslld $0x10,%xmm3
+ .byte 102,15,111,199 // movdqa %xmm7,%xmm0
+ .byte 102,15,114,240,13 // pslld $0xd,%xmm0
+ .byte 102,15,235,195 // por %xmm3,%xmm0
+ .byte 102,15,111,153,91,45,0,0 // movdqa 0x2d5b(%ecx),%xmm3
+ .byte 102,15,254,211 // paddd %xmm3,%xmm2
.byte 102,15,254,243 // paddd %xmm3,%xmm6
- .byte 102,15,254,251 // paddd %xmm3,%xmm7
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,111,153,205,58,0,0 // movdqa 0x3acd(%ecx),%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,111,85,136 // movdqa -0x78(%ebp),%xmm2
- .byte 102,15,239,211 // pxor %xmm3,%xmm2
- .byte 102,15,111,153,221,58,0,0 // movdqa 0x3add(%ecx),%xmm3
+ .byte 102,15,254,235 // paddd %xmm3,%xmm5
+ .byte 102,15,254,195 // paddd %xmm3,%xmm0
+ .byte 102,15,111,153,107,45,0,0 // movdqa 0x2d6b(%ecx),%xmm3
+ .byte 102,15,127,93,200 // movdqa %xmm3,-0x38(%ebp)
+ .byte 102,15,239,203 // pxor %xmm3,%xmm1
+ .byte 102,15,111,153,123,45,0,0 // movdqa 0x2d7b(%ecx),%xmm3
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,102,226 // pcmpgtd %xmm2,%xmm4
- .byte 102,15,223,229 // pandn %xmm5,%xmm4
- .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2
- .byte 102,15,239,85,184 // pxor -0x48(%ebp),%xmm2
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,102,234 // pcmpgtd %xmm2,%xmm5
- .byte 102,15,223,238 // pandn %xmm6,%xmm5
- .byte 102,15,111,117,168 // movdqa -0x58(%ebp),%xmm6
- .byte 102,15,239,117,184 // pxor -0x48(%ebp),%xmm6
+ .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
+ .byte 102,15,223,226 // pandn %xmm2,%xmm4
+ .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2
+ .byte 102,15,239,85,200 // pxor -0x38(%ebp),%xmm2
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1
+ .byte 102,15,223,206 // pandn %xmm6,%xmm1
+ .byte 102,15,111,117,184 // movdqa -0x48(%ebp),%xmm6
+ .byte 102,15,239,117,200 // pxor -0x38(%ebp),%xmm6
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,102,214 // pcmpgtd %xmm6,%xmm2
+ .byte 102,15,223,213 // pandn %xmm5,%xmm2
+ .byte 102,15,239,125,200 // pxor -0x38(%ebp),%xmm7
+ .byte 102,15,102,223 // pcmpgtd %xmm7,%xmm3
+ .byte 102,15,223,216 // pandn %xmm0,%xmm3
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 102,15,223,215 // pandn %xmm7,%xmm2
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 102,15,239,69,184 // pxor -0x48(%ebp),%xmm0
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 102,15,223,217 // pandn %xmm1,%xmm3
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,204,0,0,0 // add $0xcc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,196,104 // add $0x68,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -56924,35 +55371,34 @@ FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
+ .byte 131,236,80 // sub $0x50,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 68d0 <_sk_store_f16_sse2+0x19>
+ .byte 232,0,0,0,0 // call 5268 <_sk_store_f16_sse2+0x15>
.byte 88 // pop %eax
- .byte 102,15,111,176,80,56,0,0 // movdqa 0x3850(%eax),%xmm6
+ .byte 102,15,111,176,200,43,0,0 // movdqa 0x2bc8(%eax),%xmm6
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
+ .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
.byte 102,15,239,234 // pxor %xmm2,%xmm5
- .byte 102,15,111,160,96,56,0,0 // movdqa 0x3860(%eax),%xmm4
+ .byte 102,15,111,160,216,43,0,0 // movdqa 0x2bd8(%eax),%xmm4
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,102,197 // pcmpgtd %xmm5,%xmm0
.byte 102,15,114,213,13 // psrld $0xd,%xmm5
- .byte 102,15,111,184,112,56,0,0 // movdqa 0x3870(%eax),%xmm7
+ .byte 102,15,111,184,232,43,0,0 // movdqa 0x2be8(%eax),%xmm7
.byte 102,15,254,215 // paddd %xmm7,%xmm2
- .byte 102,15,127,125,216 // movdqa %xmm7,-0x28(%ebp)
+ .byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,254,213 // paddd %xmm5,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,223,194 // pandn %xmm2,%xmm0
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,127,77,168 // movdqa %xmm1,-0x58(%ebp)
+ .byte 102,15,127,77,184 // movdqa %xmm1,-0x48(%ebp)
.byte 102,15,239,205 // pxor %xmm5,%xmm1
.byte 102,15,114,213,16 // psrld $0x10,%xmm5
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
@@ -56965,15 +55411,15 @@ _sk_store_f16_sse2:
.byte 102,15,223,213 // pandn %xmm5,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
- .byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
+ .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
.byte 102,15,239,217 // pxor %xmm1,%xmm3
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,235 // pcmpgtd %xmm3,%xmm5
.byte 102,15,114,211,13 // psrld $0xd,%xmm3
- .byte 102,15,254,77,216 // paddd -0x28(%ebp),%xmm1
+ .byte 102,15,254,77,232 // paddd -0x18(%ebp),%xmm1
.byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
+ .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,114,225,16 // psrad $0x10,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -56981,69 +55427,60 @@ _sk_store_f16_sse2:
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,239,206 // pxor %xmm6,%xmm1
.byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,254,117,216 // paddd -0x28(%ebp),%xmm6
+ .byte 102,15,254,117,232 // paddd -0x18(%ebp),%xmm6
.byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
.byte 102,15,114,209,13 // psrld $0xd,%xmm1
.byte 102,15,254,241 // paddd %xmm1,%xmm6
+ .byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
.byte 102,15,223,230 // pandn %xmm6,%xmm4
- .byte 102,15,107,192 // packssdw %xmm0,%xmm0
+ .byte 102,15,107,201 // packssdw %xmm1,%xmm1
.byte 102,15,107,210 // packssdw %xmm2,%xmm2
- .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
+ .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
.byte 102,15,107,237 // packssdw %xmm5,%xmm5
.byte 102,15,107,228 // packssdw %xmm4,%xmm4
.byte 102,15,97,236 // punpcklwd %xmm4,%xmm5
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,217 // imul %ecx,%ebx
- .byte 193,227,3 // shl $0x3,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 133,210 // test %edx,%edx
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,98,205 // punpckldq %xmm5,%xmm1
- .byte 117,82 // jne 6a76 <_sk_store_f16_sse2+0x1bf>
- .byte 15,17,12,251 // movups %xmm1,(%ebx,%edi,8)
- .byte 102,15,106,197 // punpckhdq %xmm5,%xmm0
- .byte 243,15,127,68,251,16 // movdqu %xmm0,0x10(%ebx,%edi,8)
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,52,36 // mov %esi,(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 193,230,3 // shl $0x3,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
+ .byte 133,255 // test %edi,%edi
+ .byte 117,53 // jne 53da <_sk_store_f16_sse2+0x187>
+ .byte 102,15,111,193 // movdqa %xmm1,%xmm0
+ .byte 102,15,98,197 // punpckldq %xmm5,%xmm0
+ .byte 243,15,127,4,214 // movdqu %xmm0,(%esi,%edx,8)
+ .byte 102,15,106,205 // punpckhdq %xmm5,%xmm1
+ .byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
+ .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
+ .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
+ .byte 131,196,96 // add $0x60,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 102,15,214,12,251 // movq %xmm1,(%ebx,%edi,8)
- .byte 131,250,1 // cmp $0x1,%edx
- .byte 116,178 // je 6a32 <_sk_store_f16_sse2+0x17b>
- .byte 102,15,23,76,251,8 // movhpd %xmm1,0x8(%ebx,%edi,8)
- .byte 131,250,3 // cmp $0x3,%edx
- .byte 114,167 // jb 6a32 <_sk_store_f16_sse2+0x17b>
- .byte 102,15,106,197 // punpckhdq %xmm5,%xmm0
- .byte 102,15,214,68,251,16 // movq %xmm0,0x10(%ebx,%edi,8)
- .byte 235,155 // jmp 6a32 <_sk_store_f16_sse2+0x17b>
+ .byte 102,15,111,209 // movdqa %xmm1,%xmm2
+ .byte 102,15,98,213 // punpckldq %xmm5,%xmm2
+ .byte 102,15,214,20,214 // movq %xmm2,(%esi,%edx,8)
+ .byte 131,255,1 // cmp $0x1,%edi
+ .byte 116,208 // je 53bc <_sk_store_f16_sse2+0x169>
+ .byte 102,15,23,84,214,8 // movhpd %xmm2,0x8(%esi,%edx,8)
+ .byte 131,255,3 // cmp $0x3,%edi
+ .byte 114,197 // jb 53bc <_sk_store_f16_sse2+0x169>
+ .byte 102,15,106,205 // punpckhdq %xmm5,%xmm1
+ .byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
+ .byte 235,185 // jmp 53bc <_sk_store_f16_sse2+0x169>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -57054,23 +55491,23 @@ _sk_load_u16_be_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 232,0,0,0,0 // call 6aa8 <_sk_load_u16_be_sse2+0x11>
- .byte 91 // pop %ebx
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
+ .byte 131,236,44 // sub $0x2c,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 15,175,85,20 // imul 0x14(%ebp),%edx
- .byte 1,210 // add %edx,%edx
- .byte 3,17 // add (%ecx),%edx
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 133,255 // test %edi,%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 141,12,181,0,0,0,0 // lea 0x0(,%esi,4),%ecx
- .byte 15,133,66,1,0,0 // jne 6c14 <_sk_load_u16_be_sse2+0x17d>
- .byte 102,15,16,4,74 // movupd (%edx,%ecx,2),%xmm0
- .byte 243,15,111,76,74,16 // movdqu 0x10(%edx,%ecx,2),%xmm1
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,49 // mov (%ecx),%esi
+ .byte 139,16 // mov (%eax),%edx
+ .byte 139,122,4 // mov 0x4(%edx),%edi
+ .byte 15,175,121,4 // imul 0x4(%ecx),%edi
+ .byte 1,255 // add %edi,%edi
+ .byte 3,58 // add (%edx),%edi
+ .byte 139,89,8 // mov 0x8(%ecx),%ebx
+ .byte 193,230,2 // shl $0x2,%esi
+ .byte 133,219 // test %ebx,%ebx
+ .byte 232,0,0,0,0 // call 542e <_sk_load_u16_be_sse2+0x2b>
+ .byte 90 // pop %edx
+ .byte 15,133,11,1,0,0 // jne 5540 <_sk_load_u16_be_sse2+0x13d>
+ .byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
+ .byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
@@ -57089,7 +55526,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,163,168,54,0,0 // movaps 0x36a8(%ebx),%xmm4
+ .byte 15,40,162,50,42,0,0 // movaps 0x2a32(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -57125,37 +55562,26 @@ _sk_load_u16_be_sse2:
.byte 102,15,97,235 // punpcklwd %xmm3,%xmm5
.byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
.byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
+ .byte 131,196,60 // add $0x3c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 242,15,16,4,74 // movsd (%edx,%ecx,2),%xmm0
+ .byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 15,132,183,254,255,255 // je 6add <_sk_load_u16_be_sse2+0x46>
- .byte 102,15,22,68,74,8 // movhpd 0x8(%edx,%ecx,2),%xmm0
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 15,130,168,254,255,255 // jb 6add <_sk_load_u16_be_sse2+0x46>
- .byte 243,15,126,76,74,16 // movq 0x10(%edx,%ecx,2),%xmm1
- .byte 233,157,254,255,255 // jmp 6add <_sk_load_u16_be_sse2+0x46>
+ .byte 131,251,1 // cmp $0x1,%ebx
+ .byte 15,132,238,254,255,255 // je 5440 <_sk_load_u16_be_sse2+0x3d>
+ .byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
+ .byte 131,251,3 // cmp $0x3,%ebx
+ .byte 15,130,223,254,255,255 // jb 5440 <_sk_load_u16_be_sse2+0x3d>
+ .byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
+ .byte 233,212,254,255,255 // jmp 5440 <_sk_load_u16_be_sse2+0x3d>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -57166,34 +55592,32 @@ _sk_load_rgb_u16_be_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 232,0,0,0,0 // call 6c4e <_sk_load_rgb_u16_be_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
+ .byte 131,236,28 // sub $0x1c,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
+ .byte 139,16 // mov (%eax),%edx
.byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
.byte 1,246 // add %esi,%esi
.byte 3,50 // add (%edx),%esi
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 141,20,127 // lea (%edi,%edi,2),%edx
- .byte 15,133,32,1,0,0 // jne 6d98 <_sk_load_rgb_u16_be_sse2+0x158>
- .byte 243,15,111,20,86 // movdqu (%esi,%edx,2),%xmm2
- .byte 243,15,111,124,86,8 // movdqu 0x8(%esi,%edx,2),%xmm7
- .byte 102,15,115,223,4 // psrldq $0x4,%xmm7
+ .byte 107,25,3 // imul $0x3,(%ecx),%ebx
+ .byte 133,255 // test %edi,%edi
+ .byte 232,0,0,0,0 // call 5595 <_sk_load_rgb_u16_be_sse2+0x29>
+ .byte 90 // pop %edx
+ .byte 15,133,240,0,0,0 // jne 568c <_sk_load_rgb_u16_be_sse2+0x120>
+ .byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
+ .byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
+ .byte 102,15,115,219,4 // psrldq $0x4,%xmm3
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,115,217,6 // psrldq $0x6,%xmm1
- .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2
+ .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
+ .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
@@ -57203,73 +55627,63 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp)
.byte 243,15,126,69,224 // movq -0x20(%ebp),%xmm0
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,97,199 // punpcklwd %xmm7,%xmm0
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,160,18,53,0,0 // movaps 0x3512(%eax),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 15,40,170,219,40,0,0 // movaps 0x28db(%edx),%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,126,93,216 // movd %xmm3,-0x28(%ebp)
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
+ .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
+ .byte 102,15,235,225 // por %xmm1,%xmm4
+ .byte 102,15,126,101,216 // movd %xmm4,-0x28(%ebp)
+ .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1
.byte 102,15,126,77,220 // movd %xmm1,-0x24(%ebp)
.byte 243,15,126,77,216 // movq -0x28(%ebp),%xmm1
- .byte 102,15,97,207 // punpcklwd %xmm7,%xmm1
+ .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
+ .byte 15,89,205 // mulps %xmm5,%xmm1
+ .byte 102,15,111,226 // movdqa %xmm2,%xmm4
+ .byte 102,15,113,244,8 // psllw $0x8,%xmm4
.byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
+ .byte 102,15,235,212 // por %xmm4,%xmm2
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2
.byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp)
.byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
- .byte 102,15,97,215 // punpcklwd %xmm7,%xmm2
+ .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,152,34,53,0,0 // movaps 0x3522(%eax),%xmm3
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,124 // add $0x7c,%esp
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 141,112,8 // lea 0x8(%eax),%esi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,154,235,40,0,0 // movaps 0x28eb(%edx),%xmm3
+ .byte 86 // push %esi
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,44 // add $0x2c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 102,15,110,20,86 // movd (%esi,%edx,2),%xmm2
- .byte 102,15,196,84,86,4,2 // pinsrw $0x2,0x4(%esi,%edx,2),%xmm2
+ .byte 102,15,110,20,94 // movd (%esi,%ebx,2),%xmm2
+ .byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,251,1 // cmp $0x1,%ebx
- .byte 117,13 // jne 6dba <_sk_load_rgb_u16_be_sse2+0x17a>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
+ .byte 131,255,1 // cmp $0x1,%edi
+ .byte 117,13 // jne 56ae <_sk_load_rgb_u16_be_sse2+0x142>
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,224,254,255,255 // jmp 6c9a <_sk_load_rgb_u16_be_sse2+0x5a>
- .byte 102,15,110,68,86,6 // movd 0x6(%esi,%edx,2),%xmm0
- .byte 102,15,196,68,86,10,2 // pinsrw $0x2,0xa(%esi,%edx,2),%xmm0
+ .byte 233,16,255,255,255 // jmp 55be <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
+ .byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,251,3 // cmp $0x3,%ebx
- .byte 114,18 // jb 6de2 <_sk_load_rgb_u16_be_sse2+0x1a2>
- .byte 102,15,110,124,86,12 // movd 0xc(%esi,%edx,2),%xmm7
- .byte 102,15,196,124,86,16,2 // pinsrw $0x2,0x10(%esi,%edx,2),%xmm7
- .byte 233,184,254,255,255 // jmp 6c9a <_sk_load_rgb_u16_be_sse2+0x5a>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 233,175,254,255,255 // jmp 6c9a <_sk_load_rgb_u16_be_sse2+0x5a>
+ .byte 131,255,3 // cmp $0x3,%edi
+ .byte 114,18 // jb 56d6 <_sk_load_rgb_u16_be_sse2+0x16a>
+ .byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
+ .byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
+ .byte 233,232,254,255,255 // jmp 55be <_sk_load_rgb_u16_be_sse2+0x52>
+ .byte 102,15,239,219 // pxor %xmm3,%xmm3
+ .byte 233,223,254,255,255 // jmp 55be <_sk_load_rgb_u16_be_sse2+0x52>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -57277,14 +55691,13 @@ FUNCTION(_sk_store_u16_be_sse2)
_sk_store_u16_be_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 6dfd <_sk_store_u16_be_sse2+0x12>
+ .byte 131,236,16 // sub $0x10,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
+ .byte 232,0,0,0,0 // call 56f0 <_sk_store_u16_be_sse2+0x11>
.byte 88 // pop %eax
- .byte 15,40,176,131,51,0,0 // movaps 0x3383(%eax),%xmm6
+ .byte 15,40,176,160,39,0,0 // movaps 0x27a0(%eax),%xmm6
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
@@ -57315,7 +55728,7 @@ _sk_store_u16_be_sse2:
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
.byte 102,15,235,235 // por %xmm3,%xmm5
- .byte 15,89,117,216 // mulps -0x28(%ebp),%xmm6
+ .byte 15,89,117,232 // mulps -0x18(%ebp),%xmm6
.byte 102,15,91,222 // cvtps2dq %xmm6,%xmm3
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
@@ -57326,55 +55739,45 @@ _sk_store_u16_be_sse2:
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 102,15,97,231 // punpcklwd %xmm7,%xmm4
.byte 102,15,97,235 // punpcklwd %xmm3,%xmm5
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,217 // imul %ecx,%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 133,210 // test %edx,%edx
- .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 139,56 // mov (%eax),%edi
+ .byte 139,119,4 // mov 0x4(%edi),%esi
+ .byte 15,175,113,4 // imul 0x4(%ecx),%esi
+ .byte 1,246 // add %esi,%esi
+ .byte 3,55 // add (%edi),%esi
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 133,255 // test %edi,%edi
+ .byte 117,45 // jne 57f2 <_sk_store_u16_be_sse2+0x113>
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,98,221 // punpckldq %xmm5,%xmm3
- .byte 117,82 // jne 6f38 <_sk_store_u16_be_sse2+0x14d>
- .byte 15,17,28,115 // movups %xmm3,(%ebx,%esi,2)
+ .byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2)
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
- .byte 243,15,127,100,115,16 // movdqu %xmm4,0x10(%ebx,%esi,2)
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 15,40,93,88 // movaps 0x58(%ebp),%xmm3
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 243,15,127,100,86,16 // movdqu %xmm4,0x10(%esi,%edx,2)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,124 // add $0x7c,%esp
+ .byte 131,196,32 // add $0x20,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
- .byte 102,15,214,28,115 // movq %xmm3,(%ebx,%esi,2)
- .byte 131,250,1 // cmp $0x1,%edx
- .byte 116,178 // je 6ef4 <_sk_store_u16_be_sse2+0x109>
- .byte 102,15,23,92,115,8 // movhpd %xmm3,0x8(%ebx,%esi,2)
- .byte 131,250,3 // cmp $0x3,%edx
- .byte 114,167 // jb 6ef4 <_sk_store_u16_be_sse2+0x109>
+ .byte 102,15,111,244 // movdqa %xmm4,%xmm6
+ .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
+ .byte 102,15,214,52,86 // movq %xmm6,(%esi,%edx,2)
+ .byte 131,255,1 // cmp $0x1,%edi
+ .byte 116,216 // je 57dc <_sk_store_u16_be_sse2+0xfd>
+ .byte 102,15,23,116,86,8 // movhpd %xmm6,0x8(%esi,%edx,2)
+ .byte 131,255,3 // cmp $0x3,%edi
+ .byte 114,205 // jb 57dc <_sk_store_u16_be_sse2+0xfd>
.byte 102,15,106,229 // punpckhdq %xmm5,%xmm4
- .byte 102,15,214,100,115,16 // movq %xmm4,0x10(%ebx,%esi,2)
- .byte 235,155 // jmp 6ef4 <_sk_store_u16_be_sse2+0x109>
+ .byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2)
+ .byte 235,193 // jmp 57dc <_sk_store_u16_be_sse2+0xfd>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -57382,75 +55785,60 @@ FUNCTION(_sk_load_f32_sse2)
_sk_load_f32_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,57 // mov (%ecx),%edi
.byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,218 // imul %edx,%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 137,206 // mov %ecx,%esi
- .byte 193,230,4 // shl $0x4,%esi
- .byte 15,16,44,30 // movups (%esi,%ebx,1),%xmm5
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi
+ .byte 193,231,4 // shl $0x4,%edi
+ .byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 141,52,141,0,0,0,0 // lea 0x0(,%ecx,4),%esi
- .byte 117,117 // jne 700c <_sk_load_f32_sse2+0xb3>
- .byte 15,16,84,179,16 // movups 0x10(%ebx,%esi,4),%xmm2
- .byte 15,16,92,179,32 // movups 0x20(%ebx,%esi,4),%xmm3
- .byte 15,16,68,179,48 // movups 0x30(%ebx,%esi,4),%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
+ .byte 117,71 // jne 5892 <_sk_load_f32_sse2+0x77>
+ .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
+ .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
+ .byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,20,234 // unpcklps %xmm2,%xmm5
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 15,21,234 // unpckhps %xmm2,%xmm5
+ .byte 15,21,226 // unpckhps %xmm2,%xmm4
.byte 15,21,216 // unpckhps %xmm0,%xmm3
- .byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 15,40,197 // movaps %xmm5,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,204 // movhlps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 15,18,205 // movhlps %xmm5,%xmm1
+ .byte 15,40,212 // movaps %xmm4,%xmm2
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,18,221 // movhlps %xmm5,%xmm3
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,18,220 // movhlps %xmm4,%xmm3
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,16 // add $0x10,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 701c <_sk_load_f32_sse2+0xc3>
+ .byte 117,8 // jne 58a2 <_sk_load_f32_sse2+0x87>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,138 // jmp 6fa6 <_sk_load_f32_sse2+0x4d>
- .byte 15,16,84,179,16 // movups 0x10(%ebx,%esi,4),%xmm2
+ .byte 235,184 // jmp 585a <_sk_load_f32_sse2+0x3f>
+ .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,10 // jb 7030 <_sk_load_f32_sse2+0xd7>
- .byte 15,16,92,179,32 // movups 0x20(%ebx,%esi,4),%xmm3
- .byte 233,118,255,255,255 // jmp 6fa6 <_sk_load_f32_sse2+0x4d>
+ .byte 114,7 // jb 58b3 <_sk_load_f32_sse2+0x98>
+ .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
+ .byte 235,167 // jmp 585a <_sk_load_f32_sse2+0x3f>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 233,110,255,255,255 // jmp 6fa6 <_sk_load_f32_sse2+0x4d>
+ .byte 235,162 // jmp 585a <_sk_load_f32_sse2+0x3f>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -57458,30 +55846,28 @@ FUNCTION(_sk_load_f32_dst_sse2)
_sk_load_f32_dst_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 131,236,32 // sub $0x20,%esp
+ .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,57 // mov (%ecx),%edi
.byte 139,48 // mov (%eax),%esi
- .byte 139,94,4 // mov 0x4(%esi),%ebx
- .byte 15,175,218 // imul %edx,%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,30 // add (%esi),%ebx
- .byte 137,206 // mov %ecx,%esi
- .byte 193,230,4 // shl $0x4,%esi
- .byte 15,16,52,30 // movups (%esi,%ebx,1),%xmm6
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi
+ .byte 193,231,4 // shl $0x4,%edi
+ .byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 133,255 // test %edi,%edi
- .byte 141,52,141,0,0,0,0 // lea 0x0(,%ecx,4),%esi
- .byte 117,122 // jne 70f3 <_sk_load_f32_dst_sse2+0xbb>
- .byte 15,16,124,179,16 // movups 0x10(%ebx,%esi,4),%xmm7
- .byte 15,16,92,179,32 // movups 0x20(%ebx,%esi,4),%xmm3
- .byte 15,16,84,179,48 // movups 0x30(%ebx,%esi,4),%xmm2
+ .byte 117,97 // jne 5954 <_sk_load_f32_dst_sse2+0x9c>
+ .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
+ .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
+ .byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
.byte 15,40,230 // movaps %xmm6,%xmm4
.byte 15,20,231 // unpcklps %xmm7,%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
@@ -57494,39 +55880,35 @@ _sk_load_f32_dst_sse2:
.byte 15,40,230 // movaps %xmm6,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
.byte 15,18,222 // movhlps %xmm6,%xmm3
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,92,36,80 // movaps %xmm3,0x50(%esp)
- .byte 102,15,41,100,36,64 // movapd %xmm4,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 102,15,41,84,36,32 // movapd %xmm2,0x20(%esp)
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
+ .byte 102,15,41,81,16 // movapd %xmm2,0x10(%ecx)
+ .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
+ .byte 102,15,41,97,48 // movapd %xmm4,0x30(%ecx)
+ .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx)
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
+ .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
+ .byte 131,196,48 // add $0x30,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 7103 <_sk_load_f32_dst_sse2+0xcb>
+ .byte 117,8 // jne 5964 <_sk_load_f32_dst_sse2+0xac>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,133 // jmp 7088 <_sk_load_f32_dst_sse2+0x50>
- .byte 15,16,124,179,16 // movups 0x10(%ebx,%esi,4),%xmm7
+ .byte 235,158 // jmp 5902 <_sk_load_f32_dst_sse2+0x4a>
+ .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,10 // jb 7117 <_sk_load_f32_dst_sse2+0xdf>
- .byte 15,16,92,179,32 // movups 0x20(%ebx,%esi,4),%xmm3
- .byte 233,113,255,255,255 // jmp 7088 <_sk_load_f32_dst_sse2+0x50>
+ .byte 114,7 // jb 5975 <_sk_load_f32_dst_sse2+0xbd>
+ .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
+ .byte 235,141 // jmp 5902 <_sk_load_f32_dst_sse2+0x4a>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 233,105,255,255,255 // jmp 7088 <_sk_load_f32_dst_sse2+0x50>
+ .byte 235,136 // jmp 5902 <_sk_load_f32_dst_sse2+0x4a>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -57537,71 +55919,56 @@ _sk_store_f32_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 131,236,12 // sub $0xc,%esp
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,117,20 // imul 0x14(%ebp),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,50 // add (%edx),%esi
- .byte 137,202 // mov %ecx,%edx
- .byte 193,226,4 // shl $0x4,%edx
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,20,241 // unpcklps %xmm1,%xmm6
- .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,25 // mov (%ecx),%ebx
+ .byte 139,48 // mov (%eax),%esi
+ .byte 139,86,4 // mov 0x4(%esi),%edx
+ .byte 15,175,81,4 // imul 0x4(%ecx),%edx
+ .byte 193,226,2 // shl $0x2,%edx
+ .byte 3,22 // add (%esi),%edx
+ .byte 141,52,157,0,0,0,0 // lea 0x0(,%ebx,4),%esi
+ .byte 193,227,4 // shl $0x4,%ebx
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,20,233 // unpcklps %xmm1,%xmm5
+ .byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 102,15,20,196 // unpcklpd %xmm4,%xmm0
- .byte 102,15,17,4,50 // movupd %xmm0,(%edx,%esi,1)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,21,193 // unpckhps %xmm1,%xmm0
- .byte 15,21,211 // unpckhps %xmm3,%xmm2
- .byte 15,18,230 // movhlps %xmm6,%xmm4
+ .byte 15,40,245 // movaps %xmm5,%xmm6
+ .byte 102,15,20,244 // unpcklpd %xmm4,%xmm6
+ .byte 139,121,8 // mov 0x8(%ecx),%edi
+ .byte 102,15,17,52,19 // movupd %xmm6,(%ebx,%edx,1)
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
+ .byte 15,21,241 // unpckhps %xmm1,%xmm6
+ .byte 15,40,250 // movaps %xmm2,%xmm7
+ .byte 15,21,251 // unpckhps %xmm3,%xmm7
+ .byte 15,18,229 // movhlps %xmm5,%xmm4
+ .byte 15,40,238 // movaps %xmm6,%xmm5
+ .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
.byte 133,255 // test %edi,%edi
- .byte 139,93,8 // mov 0x8(%ebp),%ebx
- .byte 141,20,141,0,0,0,0 // lea 0x0(,%ecx,4),%edx
- .byte 117,99 // jne 71e6 <_sk_store_f32_sse2+0xc7>
- .byte 102,15,21,194 // unpckhpd %xmm2,%xmm0
- .byte 15,17,100,150,16 // movups %xmm4,0x10(%esi,%edx,4)
- .byte 102,15,17,116,150,32 // movupd %xmm6,0x20(%esi,%edx,4)
- .byte 102,15,17,68,150,48 // movupd %xmm0,0x30(%esi,%edx,4)
+ .byte 117,40 // jne 5a00 <_sk_store_f32_sse2+0x86>
+ .byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
+ .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
+ .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
+ .byte 102,15,17,116,178,48 // movupd %xmm6,0x30(%edx,%esi,4)
.byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 137,28,36 // mov %ebx,(%esp)
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
.byte 131,255,1 // cmp $0x1,%edi
- .byte 116,173 // je 7198 <_sk_store_f32_sse2+0x79>
- .byte 15,17,100,150,16 // movups %xmm4,0x10(%esi,%edx,4)
+ .byte 116,232 // je 59ed <_sk_store_f32_sse2+0x73>
+ .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
.byte 131,255,3 // cmp $0x3,%edi
- .byte 114,163 // jb 7198 <_sk_store_f32_sse2+0x79>
- .byte 102,15,17,116,150,32 // movupd %xmm6,0x20(%esi,%edx,4)
- .byte 235,155 // jmp 7198 <_sk_store_f32_sse2+0x79>
+ .byte 114,222 // jb 59ed <_sk_store_f32_sse2+0x73>
+ .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
+ .byte 235,214 // jmp 59ed <_sk_store_f32_sse2+0x73>
HIDDEN _sk_clamp_x_sse2
.globl _sk_clamp_x_sse2
@@ -57609,43 +55976,23 @@ FUNCTION(_sk_clamp_x_sse2)
_sk_clamp_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,254,197 // paddd %xmm5,%xmm0
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,232 // paddd %xmm0,%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57655,43 +56002,23 @@ FUNCTION(_sk_clamp_y_sse2)
_sk_clamp_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,93,225 // minps %xmm1,%xmm4
- .byte 15,40,77,88 // movaps 0x58(%ebp),%xmm1
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,76,36,80 // movaps %xmm1,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 243,15,16,9 // movss (%ecx),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,233 // paddd %xmm1,%xmm5
+ .byte 15,93,229 // minps %xmm5,%xmm4
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57701,52 +56028,32 @@ FUNCTION(_sk_repeat_x_sse2)
_sk_repeat_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 7301 <_sk_repeat_x_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,16,111,4 // movss 0x4(%edi),%xmm5
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5a94 <_sk_repeat_x_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,16 // mov (%eax),%edx
+ .byte 243,15,16,34 // movss (%edx),%xmm4
+ .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,174,143,46,0,0 // andps 0x2e8f(%esi),%xmm5
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 15,84,169,12,36,0,0 // andps 0x240c(%ecx),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,93,198 // minps %xmm6,%xmm0
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,236 // paddd %xmm4,%xmm5
+ .byte 15,93,197 // minps %xmm5,%xmm0
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57756,52 +56063,32 @@ FUNCTION(_sk_repeat_y_sse2)
_sk_repeat_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 73a0 <_sk_repeat_y_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,16,111,4 // movss 0x4(%edi),%xmm5
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5af1 <_sk_repeat_y_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,16 // mov (%eax),%edx
+ .byte 243,15,16,34 // movss (%edx),%xmm4
+ .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,174,0,46,0,0 // andps 0x2e00(%esi),%xmm5
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
+ .byte 15,84,169,191,35,0,0 // andps 0x23bf(%ecx),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,244 // mulps %xmm4,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,93,206 // minps %xmm6,%xmm1
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,236 // paddd %xmm4,%xmm5
+ .byte 15,93,205 // minps %xmm5,%xmm1
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57811,61 +56098,41 @@ FUNCTION(_sk_mirror_x_sse2)
_sk_mirror_x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 743f <_sk_mirror_x_sse2+0xe>
- .byte 95 // pop %edi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 243,15,16,46 // movss (%esi),%xmm5
- .byte 243,15,16,118,4 // movss 0x4(%esi),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5b4e <_sk_mirror_x_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,16 // mov (%eax),%edx
+ .byte 243,15,16,42 // movss (%edx),%xmm5
+ .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 243,15,89,183,97,50,0,0 // mulss 0x3261(%edi),%xmm6
+ .byte 243,15,89,177,98,40,0,0 // mulss 0x2862(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,183,113,45,0,0 // andps 0x2d71(%edi),%xmm6
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 15,84,177,114,35,0,0 // andps 0x2372(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,254,252 // paddd %xmm4,%xmm7
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,232 // subps %xmm0,%xmm5
+ .byte 15,84,197 // andps %xmm5,%xmm0
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,236 // paddd %xmm4,%xmm5
+ .byte 15,93,197 // minps %xmm5,%xmm0
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57875,61 +56142,41 @@ FUNCTION(_sk_mirror_y_sse2)
_sk_mirror_y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 7500 <_sk_mirror_y_sse2+0xe>
- .byte 95 // pop %edi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 243,15,16,46 // movss (%esi),%xmm5
- .byte 243,15,16,118,4 // movss 0x4(%esi),%xmm6
- .byte 139,117,20 // mov 0x14(%ebp),%esi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5bcd <_sk_mirror_y_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,16 // mov (%eax),%edx
+ .byte 243,15,16,42 // movss (%edx),%xmm5
+ .byte 243,15,16,114,4 // movss 0x4(%edx),%xmm6
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 243,15,89,183,164,49,0,0 // mulss 0x31a4(%edi),%xmm6
+ .byte 243,15,89,177,231,39,0,0 // mulss 0x27e7(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,183,192,44,0,0 // andps 0x2cc0(%edi),%xmm6
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 15,84,177,3,35,0,0 // andps 0x2303(%ecx),%xmm6
.byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 243,15,88,237 // addss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,84,207 // andps %xmm7,%xmm1
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,254,252 // paddd %xmm4,%xmm7
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,92,233 // subps %xmm1,%xmm5
+ .byte 15,84,205 // andps %xmm5,%xmm1
+ .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
+ .byte 102,15,254,236 // paddd %xmm4,%xmm5
+ .byte 15,93,205 // minps %xmm5,%xmm1
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57939,40 +56186,20 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 75c1 <_sk_clamp_x_1_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5c4c <_sk_clamp_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,93,160,15,44,0,0 // minps 0x2c0f(%eax),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 15,93,160,148,34,0,0 // minps 0x2294(%eax),%xmm4
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -57982,43 +56209,23 @@ FUNCTION(_sk_repeat_x_1_sse2)
_sk_repeat_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 7633 <_sk_repeat_x_1_sse2+0xe>
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5c7c <_sk_repeat_x_1_sse2+0xb>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,84,184,173,43,0,0 // andps 0x2bad(%eax),%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
+ .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
+ .byte 15,40,232 // movaps %xmm0,%xmm5
+ .byte 15,194,236,1 // cmpltps %xmm4,%xmm5
+ .byte 15,84,168,116,34,0,0 // andps 0x2274(%eax),%xmm5
+ .byte 15,92,229 // subps %xmm5,%xmm4
+ .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58028,51 +56235,31 @@ FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 76b0 <_sk_mirror_x_1_sse2+0xe>
- .byte 95 // pop %edi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,175,64,43,0,0 // movaps 0x2b40(%edi),%xmm5
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,183,80,43,0,0 // movaps 0x2b50(%edi),%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 243,15,91,254 // cvttps2dq %xmm6,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,194,247,1 // cmpltps %xmm7,%xmm6
- .byte 15,84,183,96,43,0,0 // andps 0x2b60(%edi),%xmm6
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,84,197 // andps %xmm5,%xmm0
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 5cb7 <_sk_mirror_x_1_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 15,40,161,73,34,0,0 // movaps 0x2249(%ecx),%xmm4
+ .byte 15,88,196 // addps %xmm4,%xmm0
+ .byte 15,40,169,89,34,0,0 // movaps 0x2259(%ecx),%xmm5
+ .byte 15,89,232 // mulps %xmm0,%xmm5
+ .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
+ .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
+ .byte 15,194,238,1 // cmpltps %xmm6,%xmm5
+ .byte 15,84,169,105,34,0,0 // andps 0x2269(%ecx),%xmm5
+ .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,92,245 // subps %xmm5,%xmm6
+ .byte 15,88,246 // addps %xmm6,%xmm6
+ .byte 15,92,198 // subps %xmm6,%xmm0
+ .byte 15,88,196 // addps %xmm4,%xmm0
+ .byte 15,92,248 // subps %xmm0,%xmm7
+ .byte 15,84,199 // andps %xmm7,%xmm0
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58082,45 +56269,25 @@ FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 7750 <_sk_luminance_to_alpha_sse2+0x11>
+ .byte 232,0,0,0,0 // call 5d15 <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 15,89,128,208,42,0,0 // mulps 0x2ad0(%eax),%xmm0
- .byte 15,89,136,224,42,0,0 // mulps 0x2ae0(%eax),%xmm1
- .byte 15,89,152,240,42,0,0 // mulps 0x2af0(%eax),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 15,89,128,27,34,0,0 // mulps 0x221b(%eax),%xmm0
+ .byte 15,89,136,43,34,0,0 // mulps 0x222b(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
+ .byte 15,89,152,59,34,0,0 // mulps 0x223b(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,16 // call *(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58130,41 +56297,21 @@ FUNCTION(_sk_matrix_translate_sse2)
_sk_matrix_translate_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,16,111,4 // movss 0x4(%edi),%xmm5
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,33 // movss (%ecx),%xmm4
+ .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58174,47 +56321,27 @@ FUNCTION(_sk_matrix_scale_translate_sse2)
_sk_matrix_scale_translate_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
- .byte 243,15,16,47 // movss (%edi),%xmm5
- .byte 243,15,16,119,4 // movss 0x4(%edi),%xmm6
- .byte 243,15,16,127,12 // movss 0xc(%edi),%xmm7
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,97,8 // movss 0x8(%ecx),%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
+ .byte 243,15,16,41 // movss (%ecx),%xmm5
+ .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
+ .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58224,57 +56351,37 @@ FUNCTION(_sk_matrix_2x3_sse2)
_sk_matrix_2x3_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,119,8 // movss 0x8(%edi),%xmm6
+ .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,16 // movss 0x10(%edi),%xmm7
+ .byte 243,15,16,121,16 // movss 0x10(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
- .byte 243,15,16,127,20 // movss 0x14(%edi),%xmm7
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
+ .byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58284,80 +56391,59 @@ FUNCTION(_sk_matrix_3x4_sse2)
_sk_matrix_3x4_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,224 // movaps %xmm0,%xmm4
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,119,24 // movss 0x18(%edi),%xmm6
+ .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,113,36 // movss 0x24(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,36 // movss 0x24(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,12 // movss 0xc(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,119,28 // movss 0x1c(%edi),%xmm6
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 15,89,196 // mulps %xmm4,%xmm0
+ .byte 15,88,198 // addps %xmm6,%xmm0
+ .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,89,234 // mulps %xmm2,%xmm5
+ .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
+ .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,89,236 // mulps %xmm4,%xmm5
+ .byte 15,88,238 // addps %xmm6,%xmm5
+ .byte 243,15,16,113,32 // movss 0x20(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,40 // movss 0x28(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,16 // movss 0x10(%edi),%xmm7
+ .byte 243,15,16,81,44 // movss 0x2c(%ecx),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,88,242 // addps %xmm2,%xmm6
+ .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 243,15,16,119,8 // movss 0x8(%edi),%xmm6
- .byte 243,15,16,127,32 // movss 0x20(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 243,15,16,87,44 // movss 0x2c(%edi),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 243,15,16,87,20 // movss 0x14(%edi),%xmm2
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
.byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,40,85,88 // movaps 0x58(%ebp),%xmm2
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,84,36,80 // movaps %xmm2,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,205 // movaps %xmm5,%xmm1
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58367,115 +56453,93 @@ FUNCTION(_sk_matrix_4x5_sse2)
_sk_matrix_4x5_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,40,226 // movaps %xmm2,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 141,122,4 // lea 0x4(%edx),%edi
- .byte 137,125,240 // mov %edi,-0x10(%ebp)
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,23 // movss (%edi),%xmm2
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,119,48 // movss 0x30(%edi),%xmm6
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 137,77,252 // mov %ecx,-0x4(%ebp)
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,33 // movss (%ecx),%xmm4
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
+ .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
+ .byte 243,15,16,113,48 // movss 0x30(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,64 // movss 0x40(%edi),%xmm7
+ .byte 243,15,16,121,64 // movss 0x40(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,32 // movss 0x20(%edi),%xmm7
+ .byte 243,15,16,121,32 // movss 0x20(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,89,250 // mulps %xmm2,%xmm7
.byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,119,16 // movss 0x10(%edi),%xmm6
+ .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
+ .byte 15,89,224 // mulps %xmm0,%xmm4
+ .byte 15,88,230 // addps %xmm6,%xmm4
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,119,52 // movss 0x34(%edi),%xmm6
+ .byte 243,15,16,113,52 // movss 0x34(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,68 // movss 0x44(%edi),%xmm7
+ .byte 243,15,16,121,68 // movss 0x44(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,36 // movss 0x24(%edi),%xmm7
+ .byte 243,15,16,121,36 // movss 0x24(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,89,250 // mulps %xmm2,%xmm7
.byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,119,20 // movss 0x14(%edi),%xmm6
+ .byte 243,15,16,113,20 // movss 0x14(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,41,109,216 // movaps %xmm5,-0x28(%ebp)
.byte 15,88,247 // addps %xmm7,%xmm6
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 243,15,16,119,56 // movss 0x38(%edi),%xmm6
+ .byte 243,15,16,113,56 // movss 0x38(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,72 // movss 0x48(%edi),%xmm7
+ .byte 243,15,16,121,72 // movss 0x48(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,40 // movss 0x28(%edi),%xmm7
+ .byte 243,15,16,121,40 // movss 0x28(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
+ .byte 15,89,250 // mulps %xmm2,%xmm7
.byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,119,24 // movss 0x18(%edi),%xmm6
+ .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,127,8 // movss 0x8(%edi),%xmm7
+ .byte 243,15,16,121,8 // movss 0x8(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,119,60 // movss 0x3c(%edi),%xmm6
+ .byte 243,15,16,113,60 // movss 0x3c(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 243,15,16,95,76 // movss 0x4c(%edi),%xmm3
+ .byte 243,15,16,89,76 // movss 0x4c(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,88,243 // addps %xmm3,%xmm6
- .byte 243,15,16,71,44 // movss 0x2c(%edi),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 243,15,16,95,12 // movss 0xc(%edi),%xmm3
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 243,15,16,103,28 // movss 0x1c(%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,101,216 // mulps -0x28(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
+ .byte 243,15,16,89,44 // movss 0x2c(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,194 // movaps %xmm2,%xmm0
+ .byte 15,89,218 // mulps %xmm2,%xmm3
+ .byte 15,88,222 // addps %xmm6,%xmm3
+ .byte 243,15,16,81,28 // movss 0x1c(%ecx),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
+ .byte 15,89,213 // mulps %xmm5,%xmm2
+ .byte 15,88,211 // addps %xmm3,%xmm2
+ .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
+ .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 15,89,216 // mulps %xmm0,%xmm3
+ .byte 15,88,218 // addps %xmm2,%xmm3
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58485,77 +56549,57 @@ FUNCTION(_sk_matrix_4x3_sse2)
_sk_matrix_4x3_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,87,16 // movss 0x10(%edi),%xmm2
+ .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,95,32 // movss 0x20(%edi),%xmm3
+ .byte 243,15,16,89,32 // movss 0x20(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,194 // addps %xmm2,%xmm0
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,87,20 // movss 0x14(%edi),%xmm2
+ .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,95,36 // movss 0x24(%edi),%xmm3
+ .byte 243,15,16,89,36 // movss 0x24(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,87,8 // movss 0x8(%edi),%xmm2
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,95,24 // movss 0x18(%edi),%xmm3
+ .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,15,16,119,40 // movss 0x28(%edi),%xmm6
+ .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,88,222 // addps %xmm6,%xmm3
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,95,12 // movss 0xc(%edi),%xmm3
- .byte 243,15,16,119,28 // movss 0x1c(%edi),%xmm6
- .byte 243,15,16,127,44 // movss 0x2c(%edi),%xmm7
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
+ .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 243,15,16,121,44 // movss 0x2c(%ecx),%xmm7
.byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
+ .byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
.byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58565,70 +56609,50 @@ FUNCTION(_sk_matrix_perspective_sse2)
_sk_matrix_perspective_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,111,4 // movss 0x4(%edi),%xmm5
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,119,8 // movss 0x8(%edi),%xmm6
+ .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,88,238 // addps %xmm6,%xmm5
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 243,15,16,111,12 // movss 0xc(%edi),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,119,16 // movss 0x10(%edi),%xmm6
+ .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,127,20 // movss 0x14(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
+ .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
+ .byte 15,88,245 // addps %xmm5,%xmm6
+ .byte 243,15,16,105,12 // movss 0xc(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,238 // addps %xmm6,%xmm5
- .byte 243,15,16,119,24 // movss 0x18(%edi),%xmm6
- .byte 243,15,16,127,28 // movss 0x1c(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 243,15,16,79,32 // movss 0x20(%edi),%xmm1
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
+ .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,83,246 // rcpps %xmm6,%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,89,241 // mulps %xmm1,%xmm6
+ .byte 243,15,16,73,32 // movss 0x20(%ecx),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,88,241 // addps %xmm1,%xmm6
+ .byte 243,15,16,73,24 // movss 0x18(%ecx),%xmm1
+ .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,89,204 // mulps %xmm4,%xmm1
+ .byte 15,88,206 // addps %xmm6,%xmm1
+ .byte 15,83,201 // rcpps %xmm1,%xmm1
+ .byte 15,89,193 // mulps %xmm1,%xmm0
+ .byte 15,89,233 // mulps %xmm1,%xmm5
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58641,9 +56665,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
+ .byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 7e0a <_sk_evenly_spaced_gradient_sse2+0x15>
+ .byte 232,0,0,0,0 // call 61b2 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,65,4 // lea 0x4(%ecx),%eax
@@ -58654,12 +56678,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,70,36,0,0 // movdqa 0x2446(%edx),%xmm2
+ .byte 102,15,111,146,174,29,0,0 // movdqa 0x1dae(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,86,36,0,0 // por 0x2456(%edx),%xmm2
+ .byte 102,15,235,146,190,29,0,0 // por 0x1dbe(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,102,36,0,0 // por 0x2466(%edx),%xmm1
- .byte 15,88,138,118,36,0,0 // addps 0x2476(%edx),%xmm1
+ .byte 102,15,235,138,206,29,0,0 // por 0x1dce(%edx),%xmm1
+ .byte 15,88,138,222,29,0,0 // addps 0x1dde(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -58735,37 +56759,24 @@ _sk_evenly_spaced_gradient_sse2:
.byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 15,20,197 // unpcklps %xmm5,%xmm0
- .byte 15,40,117,184 // movaps -0x48(%ebp),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
+ .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
+ .byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,89,206 // mulps %xmm6,%xmm1
+ .byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,89,214 // mulps %xmm6,%xmm2
+ .byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 15,89,221 // mulps %xmm5,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 139,93,12 // mov 0xc(%ebp),%ebx
- .byte 141,123,8 // lea 0x8(%ebx),%edi
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 141,74,8 // lea 0x8(%edx),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 255,83,4 // call *0x4(%ebx)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
+ .byte 81 // push %ecx
+ .byte 80 // push %eax
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,76 // add $0x4c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -58778,48 +56789,28 @@ FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8001 <_sk_gauss_a_to_rgba_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 15,40,130,143,34,0,0 // movaps 0x228f(%edx),%xmm0
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 6368 <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 15,40,128,56,28,0,0 // movaps 0x1c38(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,130,159,34,0,0 // addps 0x229f(%edx),%xmm0
+ .byte 15,88,128,72,28,0,0 // addps 0x1c48(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,130,175,34,0,0 // addps 0x22af(%edx),%xmm0
+ .byte 15,88,128,88,28,0,0 // addps 0x1c58(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,130,191,34,0,0 // addps 0x22bf(%edx),%xmm0
+ .byte 15,88,128,104,28,0,0 // addps 0x1c68(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,130,207,34,0,0 // addps 0x22cf(%edx),%xmm0
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 141,90,4 // lea 0x4(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,128,120,28,0,0 // addps 0x1c78(%eax),%xmm0
+ .byte 141,65,4 // lea 0x4(%ecx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,18 // call *(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 80 // push %eax
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,17 // call *(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -58832,102 +56823,102 @@ _sk_gradient_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 129,236,156,0,0,0 // sub $0x9c,%esp
- .byte 232,0,0,0,0 // call 809e <_sk_gradient_sse2+0x11>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 137,77,240 // mov %ecx,-0x10(%ebp)
- .byte 139,56 // mov (%eax),%edi
- .byte 139,7 // mov (%edi),%eax
+ .byte 131,236,60 // sub $0x3c,%esp
+ .byte 232,0,0,0,0 // call 63c3 <_sk_gradient_sse2+0xe>
+ .byte 95 // pop %edi
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 141,81,4 // lea 0x4(%ecx),%edx
+ .byte 137,85,240 // mov %edx,-0x10(%ebp)
+ .byte 139,9 // mov (%ecx),%ecx
+ .byte 139,17 // mov (%ecx),%edx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,248,2 // cmp $0x2,%eax
- .byte 114,43 // jb 80e0 <_sk_gradient_sse2+0x53>
- .byte 139,79,36 // mov 0x24(%edi),%ecx
- .byte 72 // dec %eax
- .byte 131,193,4 // add $0x4,%ecx
+ .byte 131,250,2 // cmp $0x2,%edx
+ .byte 114,43 // jb 6405 <_sk_gradient_sse2+0x50>
+ .byte 139,113,36 // mov 0x24(%ecx),%esi
+ .byte 74 // dec %edx
+ .byte 131,198,4 // add $0x4,%esi
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,40,146,66,34,0,0 // movaps 0x2242(%edx),%xmm2
- .byte 243,15,16,25 // movss (%ecx),%xmm3
+ .byte 15,40,151,45,28,0,0 // movaps 0x1c2d(%edi),%xmm2
+ .byte 243,15,16,30 // movss (%esi),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
.byte 15,84,218 // andps %xmm2,%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 131,193,4 // add $0x4,%ecx
- .byte 72 // dec %eax
- .byte 117,231 // jne 80c7 <_sk_gradient_sse2+0x3a>
- .byte 102,15,126,203 // movd %xmm1,%ebx
+ .byte 131,198,4 // add $0x4,%esi
+ .byte 74 // dec %edx
+ .byte 117,231 // jne 63ec <_sk_gradient_sse2+0x37>
+ .byte 102,15,126,202 // movd %xmm1,%edx
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
+ .byte 102,15,126,214 // movd %xmm2,%esi
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 243,15,16,12,142 // movss (%esi,%ecx,4),%xmm1
- .byte 243,15,16,28,134 // movss (%esi,%eax,4),%xmm3
- .byte 243,15,16,36,158 // movss (%esi,%ebx,4),%xmm4
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 243,15,16,20,150 // movss (%esi,%edx,4),%xmm2
+ .byte 102,15,126,207 // movd %xmm1,%edi
+ .byte 139,65,4 // mov 0x4(%ecx),%eax
+ .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
+ .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
+ .byte 243,15,16,36,144 // movss (%eax,%edx,4),%xmm4
+ .byte 102,15,126,211 // movd %xmm2,%ebx
+ .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
.byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 139,119,20 // mov 0x14(%edi),%esi
- .byte 243,15,16,12,142 // movss (%esi,%ecx,4),%xmm1
- .byte 243,15,16,52,134 // movss (%esi,%eax,4),%xmm6
- .byte 243,15,16,44,158 // movss (%esi,%ebx,4),%xmm5
- .byte 243,15,16,60,150 // movss (%esi,%edx,4),%xmm7
+ .byte 139,65,20 // mov 0x14(%ecx),%eax
+ .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
+ .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
+ .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5
+ .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 15,20,227 // unpcklps %xmm3,%xmm4
.byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp)
.byte 15,20,241 // unpcklps %xmm1,%xmm6
.byte 15,20,239 // unpcklps %xmm7,%xmm5
- .byte 139,119,8 // mov 0x8(%edi),%esi
- .byte 243,15,16,20,142 // movss (%esi,%ecx,4),%xmm2
- .byte 243,15,16,28,134 // movss (%esi,%eax,4),%xmm3
- .byte 243,15,16,12,158 // movss (%esi,%ebx,4),%xmm1
- .byte 243,15,16,60,150 // movss (%esi,%edx,4),%xmm7
+ .byte 139,65,8 // mov 0x8(%ecx),%eax
+ .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
+ .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
+ .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
+ .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,20,207 // unpcklps %xmm7,%xmm1
.byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 139,119,24 // mov 0x18(%edi),%esi
- .byte 243,15,16,20,142 // movss (%esi,%ecx,4),%xmm2
- .byte 243,15,16,28,134 // movss (%esi,%eax,4),%xmm3
- .byte 243,15,16,36,158 // movss (%esi,%ebx,4),%xmm4
- .byte 243,15,16,60,150 // movss (%esi,%edx,4),%xmm7
+ .byte 139,65,24 // mov 0x18(%ecx),%eax
+ .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
+ .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
+ .byte 243,15,16,36,144 // movss (%eax,%edx,4),%xmm4
+ .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
.byte 15,20,218 // unpcklps %xmm2,%xmm3
.byte 15,20,231 // unpcklps %xmm7,%xmm4
.byte 15,20,227 // unpcklps %xmm3,%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 139,119,12 // mov 0xc(%edi),%esi
- .byte 243,15,16,20,142 // movss (%esi,%ecx,4),%xmm2
- .byte 243,15,16,28,134 // movss (%esi,%eax,4),%xmm3
+ .byte 139,65,12 // mov 0xc(%ecx),%eax
+ .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
+ .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
.byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,158 // movss (%esi,%ebx,4),%xmm2
- .byte 243,15,16,60,150 // movss (%esi,%edx,4),%xmm7
+ .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2
+ .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
.byte 15,20,215 // unpcklps %xmm7,%xmm2
.byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 139,119,28 // mov 0x1c(%edi),%esi
- .byte 243,15,16,60,142 // movss (%esi,%ecx,4),%xmm7
- .byte 243,15,16,28,134 // movss (%esi,%eax,4),%xmm3
+ .byte 139,65,28 // mov 0x1c(%ecx),%eax
+ .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
+ .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
.byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 243,15,16,60,158 // movss (%esi,%ebx,4),%xmm7
- .byte 243,15,16,44,150 // movss (%esi,%edx,4),%xmm5
+ .byte 243,15,16,60,144 // movss (%eax,%edx,4),%xmm7
+ .byte 243,15,16,44,152 // movss (%eax,%ebx,4),%xmm5
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,119,16 // mov 0x10(%edi),%esi
- .byte 243,15,16,28,142 // movss (%esi,%ecx,4),%xmm3
- .byte 243,15,16,44,134 // movss (%esi,%eax,4),%xmm5
+ .byte 139,65,16 // mov 0x10(%ecx),%eax
+ .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
+ .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,15,16,28,158 // movss (%esi,%ebx,4),%xmm3
- .byte 243,15,16,52,150 // movss (%esi,%edx,4),%xmm6
+ .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
+ .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6
.byte 15,20,222 // unpcklps %xmm6,%xmm3
.byte 15,20,221 // unpcklps %xmm5,%xmm3
- .byte 139,119,32 // mov 0x20(%edi),%esi
- .byte 243,15,16,44,142 // movss (%esi,%ecx,4),%xmm5
- .byte 243,15,16,52,134 // movss (%esi,%eax,4),%xmm6
+ .byte 139,65,32 // mov 0x20(%ecx),%eax
+ .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5
+ .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
.byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 243,15,16,44,158 // movss (%esi,%ebx,4),%xmm5
- .byte 243,15,16,36,150 // movss (%esi,%edx,4),%xmm4
+ .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5
+ .byte 243,15,16,36,152 // movss (%eax,%ebx,4),%xmm4
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4
@@ -58941,26 +56932,12 @@ _sk_gradient_sse2:
.byte 15,88,221 // addps %xmm5,%xmm3
.byte 139,69,240 // mov -0x10(%ebp),%eax
.byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 139,85,24 // mov 0x18(%ebp),%edx
- .byte 137,84,36,16 // mov %edx,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,16 // call *(%eax)
- .byte 129,196,156,0,0,0 // add $0x9c,%esp
+ .byte 131,196,76 // add $0x4c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -58973,60 +56950,40 @@ FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2)
_sk_evenly_spaced_2_stop_gradient_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,16,79,4 // movss 0x4(%edi),%xmm1
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,1 // movss (%ecx),%xmm0
+ .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,87,16 // movss 0x10(%edi),%xmm2
+ .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,194 // addps %xmm2,%xmm0
- .byte 243,15,16,111,20 // movss 0x14(%edi),%xmm5
- .byte 243,15,16,87,8 // movss 0x8(%edi),%xmm2
- .byte 243,15,16,119,24 // movss 0x18(%edi),%xmm6
- .byte 243,15,16,95,12 // movss 0xc(%edi),%xmm3
- .byte 243,15,16,127,28 // movss 0x1c(%edi),%xmm7
- .byte 139,125,24 // mov 0x18(%ebp),%edi
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2
+ .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
+ .byte 15,88,202 // addps %xmm2,%xmm1
+ .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
+ .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3
+ .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
+ .byte 15,88,211 // addps %xmm3,%xmm2
+ .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
+ .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,88,221 // addps %xmm5,%xmm3
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59036,15 +56993,12 @@ FUNCTION(_sk_xy_to_unit_angle_sse2)
_sk_xy_to_unit_angle_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 835e <_sk_xy_to_unit_angle_sse2+0x1b>
+ .byte 232,0,0,0,0 // call 65ff <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -59059,64 +57013,47 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,146,31,0,0 // movaps 0x1f92(%eax),%xmm0
+ .byte 15,40,128,1,26,0,0 // movaps 0x1a01(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,162,31,0,0 // addps 0x1fa2(%eax),%xmm0
+ .byte 15,88,128,17,26,0,0 // addps 0x1a11(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,178,31,0,0 // addps 0x1fb2(%eax),%xmm0
+ .byte 15,88,128,33,26,0,0 // addps 0x1a21(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,88,128,194,31,0,0 // addps 0x1fc2(%eax),%xmm0
+ .byte 15,88,128,49,26,0,0 // addps 0x1a31(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,184,210,31,0,0 // movaps 0x1fd2(%eax),%xmm7
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
+ .byte 15,40,176,65,26,0,0 // movaps 0x1a41(%eax),%xmm6
+ .byte 15,92,240 // subps %xmm0,%xmm6
+ .byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,86,239 // orps %xmm7,%xmm5
+ .byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,226,31,0,0 // movaps 0x1fe2(%eax),%xmm0
+ .byte 15,40,128,81,26,0,0 // movaps 0x1a51(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,242,31,0,0 // movaps 0x1ff2(%eax),%xmm5
+ .byte 15,40,168,97,26,0,0 // movaps 0x1a61(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 15,40,77,56 // movaps 0x38(%ebp),%xmm1
.byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 15,194,224,7 // cmpordps %xmm0,%xmm4
.byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,40,69,88 // movaps 0x58(%ebp),%xmm0
.byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,88,4 // lea 0x4(%eax),%ebx
- .byte 15,41,68,36,80 // movaps %xmm0,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,16 // call *(%eax)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59126,39 +57063,19 @@ FUNCTION(_sk_xy_to_radius_sse2)
_sk_xy_to_radius_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 15,81,199 // sqrtps %xmm7,%xmm0
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,225 // movaps %xmm1,%xmm4
+ .byte 15,89,228 // mulps %xmm4,%xmm4
+ .byte 15,88,224 // addps %xmm0,%xmm4
+ .byte 15,81,196 // sqrtps %xmm4,%xmm0
+ .byte 141,72,4 // lea 0x4(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,16 // call *(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59168,74 +57085,48 @@ FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_sse2)
_sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 84e3 <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x18>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,111,32 // movss 0x20(%edi),%xmm5
- .byte 243,15,16,119,40 // movss 0x28(%edi),%xmm6
- .byte 243,15,16,103,44 // movss 0x2c(%edi),%xmm4
- .byte 243,15,89,230 // mulss %xmm6,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,40 // movss 0x28(%ecx),%xmm5
+ .byte 243,15,16,97,44 // movss 0x2c(%ecx),%xmm4
+ .byte 243,15,89,229 // mulss %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 243,15,16,79,36 // movss 0x24(%edi),%xmm1
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,89,246 // mulps %xmm6,%xmm6
+ .byte 15,88,240 // addps %xmm0,%xmm6
+ .byte 232,0,0,0,0 // call 671c <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
+ .byte 90 // pop %edx
+ .byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,166,125,30,0,0 // mulps 0x1e7d(%esi),%xmm4
- .byte 243,15,89,246 // mulss %xmm6,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,89,174,141,30,0,0 // mulps 0x1e8d(%esi),%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,81,232 // sqrtps %xmm0,%xmm5
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,92,245 // subps %xmm5,%xmm6
+ .byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 15,89,162,84,25,0,0 // mulps 0x1954(%edx),%xmm4
+ .byte 15,89,130,100,25,0,0 // mulps 0x1964(%edx),%xmm0
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,89,237 // mulps %xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,166,157,30,0,0 // xorps 0x1e9d(%esi),%xmm4
- .byte 15,89,142,173,30,0,0 // mulps 0x1ead(%esi),%xmm1
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
+ .byte 15,87,162,116,25,0,0 // xorps 0x1974(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
+ .byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,89,170,132,25,0,0 // mulps 0x1984(%edx),%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59245,74 +57136,48 @@ FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_sse2)
_sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 85d7 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x18>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,111,32 // movss 0x20(%edi),%xmm5
- .byte 243,15,16,119,40 // movss 0x28(%edi),%xmm6
- .byte 243,15,16,103,44 // movss 0x2c(%edi),%xmm4
- .byte 243,15,89,230 // mulss %xmm6,%xmm4
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 243,15,16,105,40 // movss 0x28(%ecx),%xmm5
+ .byte 243,15,16,97,44 // movss 0x2c(%ecx),%xmm4
+ .byte 243,15,89,229 // mulss %xmm5,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 243,15,16,79,36 // movss 0x24(%edi),%xmm1
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 15,40,241 // movaps %xmm1,%xmm6
+ .byte 15,89,246 // mulps %xmm6,%xmm6
+ .byte 15,88,240 // addps %xmm0,%xmm6
+ .byte 232,0,0,0,0 // call 67ba <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
+ .byte 90 // pop %edx
+ .byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,166,201,29,0,0 // mulps 0x1dc9(%esi),%xmm4
- .byte 243,15,89,246 // mulss %xmm6,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,89,174,217,29,0,0 // mulps 0x1dd9(%esi),%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,81,232 // sqrtps %xmm0,%xmm5
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
+ .byte 15,92,245 // subps %xmm5,%xmm6
+ .byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
+ .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
+ .byte 15,89,162,246,24,0,0 // mulps 0x18f6(%edx),%xmm4
+ .byte 15,89,130,6,25,0,0 // mulps 0x1906(%edx),%xmm0
+ .byte 15,89,198 // mulps %xmm6,%xmm0
+ .byte 15,40,236 // movaps %xmm4,%xmm5
+ .byte 15,89,237 // mulps %xmm5,%xmm5
+ .byte 15,88,232 // addps %xmm0,%xmm5
+ .byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,166,233,29,0,0 // xorps 0x1de9(%esi),%xmm4
- .byte 15,89,142,249,29,0,0 // mulps 0x1df9(%esi),%xmm1
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
+ .byte 15,87,162,22,25,0,0 // xorps 0x1916(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
+ .byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
+ .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
+ .byte 15,89,170,38,25,0,0 // mulps 0x1926(%edx),%xmm5
+ .byte 15,89,197 // mulps %xmm5,%xmm0
+ .byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59322,23 +57187,17 @@ FUNCTION(_sk_xy_to_2pt_conical_linear_sse2)
_sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 86c1 <_sk_xy_to_2pt_conical_linear_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,103,40 // movss 0x28(%edi),%xmm4
- .byte 243,15,16,111,44 // movss 0x2c(%edi),%xmm5
- .byte 139,125,20 // mov 0x14(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 232,0,0,0,0 // call 6832 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 89 // pop %ecx
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,16 // mov (%eax),%edx
+ .byte 243,15,16,98,40 // movss 0x28(%edx),%xmm4
+ .byte 243,15,16,106,44 // movss 0x2c(%edx),%xmm5
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,174,31,29,0,0 // mulps 0x1d1f(%esi),%xmm5
+ .byte 15,89,169,190,24,0,0 // mulps 0x18be(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -59346,28 +57205,14 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,134,47,29,0,0 // xorps 0x1d2f(%esi),%xmm0
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 15,87,129,206,24,0,0 // xorps 0x18ce(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
- .byte 15,40,109,88 // movaps 0x58(%ebp),%xmm5
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,116,36,16 // mov %esi,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59377,17 +57222,12 @@ FUNCTION(_sk_mask_2pt_conical_degenerates_sse2)
_sk_mask_2pt_conical_degenerates_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,8 // sub $0x8,%esp
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 243,15,16,103,40 // movss 0x28(%edi),%xmm4
- .byte 243,15,16,111,44 // movss 0x2c(%edi),%xmm5
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 243,15,16,98,40 // movss 0x28(%edx),%xmm4
+ .byte 243,15,16,106,44 // movss 0x2c(%edx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,232 // mulps %xmm0,%xmm5
@@ -59397,27 +57237,13 @@ _sk_mask_2pt_conical_degenerates_sse2:
.byte 15,194,244,7 // cmpordps %xmm4,%xmm6
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
.byte 15,84,230 // andps %xmm6,%xmm4
- .byte 15,17,39 // movups %xmm4,(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,17,34 // movups %xmm4,(%edx)
+ .byte 141,81,8 // lea 0x8(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59427,40 +57253,20 @@ FUNCTION(_sk_apply_vector_mask_sse2)
_sk_apply_vector_mask_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,39 // movups (%edi),%xmm4
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 15,16,33 // movups (%ecx),%xmm4
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 15,84,212 // andps %xmm4,%xmm2
.byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 141,72,8 // lea 0x8(%eax),%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 255,117,8 // pushl 0x8(%ebp)
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59470,22 +57276,19 @@ FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
+ .byte 131,236,24 // sub $0x18,%esp
+ .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 8863 <_sk_save_xy_sse2+0x15>
+ .byte 232,0,0,0,0 // call 690f <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,157,27,0,0 // movaps 0x1b9d(%eax),%xmm4
+ .byte 15,40,160,1,24,0,0 // movaps 0x1801(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,173,27,0,0 // movaps 0x1bad(%eax),%xmm2
+ .byte 15,40,144,17,24,0,0 // movaps 0x1811(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -59495,39 +57298,23 @@ _sk_save_xy_sse2:
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
.byte 15,84,250 // andps %xmm2,%xmm7
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,17,7 // movups %xmm0,(%edi)
- .byte 15,17,79,32 // movups %xmm1,0x20(%edi)
- .byte 15,17,111,64 // movups %xmm5,0x40(%edi)
- .byte 15,17,103,96 // movups %xmm4,0x60(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 15,40,117,88 // movaps 0x58(%ebp),%xmm6
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,116,36,80 // movaps %xmm6,0x50(%esp)
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
+ .byte 139,8 // mov (%eax),%ecx
+ .byte 15,17,1 // movups %xmm0,(%ecx)
+ .byte 15,17,73,32 // movups %xmm1,0x20(%ecx)
+ .byte 15,17,105,64 // movups %xmm5,0x40(%ecx)
+ .byte 15,17,97,96 // movups %xmm4,0x60(%ecx)
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 141,80,8 // lea 0x8(%eax),%edx
+ .byte 131,236,8 // sub $0x8,%esp
.byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
+ .byte 82 // push %edx
+ .byte 81 // push %ecx
+ .byte 255,80,4 // call *0x4(%eax)
+ .byte 131,196,40 // add $0x28,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59537,45 +57324,34 @@ FUNCTION(_sk_accumulate_sse2)
_sk_accumulate_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,56 // mov (%eax),%edi
- .byte 15,16,167,128,0,0,0 // movups 0x80(%edi),%xmm4
- .byte 15,16,175,160,0,0,0 // movups 0xa0(%edi),%xmm5
- .byte 139,125,24 // mov 0x18(%ebp),%edi
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 139,69,8 // mov 0x8(%ebp),%eax
+ .byte 139,77,12 // mov 0xc(%ebp),%ecx
+ .byte 139,17 // mov (%ecx),%edx
+ .byte 15,16,162,128,0,0,0 // movups 0x80(%edx),%xmm4
+ .byte 15,16,170,160,0,0,0 // movups 0xa0(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,40 // addps 0x28(%ebp),%xmm4
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,117,56 // addps 0x38(%ebp),%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,125,72 // addps 0x48(%ebp),%xmm7
+ .byte 15,88,96,16 // addps 0x10(%eax),%xmm4
+ .byte 15,41,96,16 // movaps %xmm4,0x10(%eax)
+ .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,89,225 // mulps %xmm1,%xmm4
+ .byte 15,88,96,32 // addps 0x20(%eax),%xmm4
+ .byte 15,41,96,32 // movaps %xmm4,0x20(%eax)
+ .byte 15,40,229 // movaps %xmm5,%xmm4
+ .byte 15,89,226 // mulps %xmm2,%xmm4
+ .byte 15,88,96,48 // addps 0x30(%eax),%xmm4
+ .byte 15,41,96,48 // movaps %xmm4,0x30(%eax)
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,109,88 // addps 0x58(%ebp),%xmm5
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
+ .byte 15,88,104,64 // addps 0x40(%eax),%xmm5
+ .byte 15,41,104,64 // movaps %xmm5,0x40(%eax)
+ .byte 141,81,8 // lea 0x8(%ecx),%edx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 82 // push %edx
+ .byte 80 // push %eax
+ .byte 255,81,4 // call *0x4(%ecx)
+ .byte 131,196,24 // add $0x18,%esp
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59585,43 +57361,26 @@ FUNCTION(_sk_bilinear_nx_sse2)
_sk_bilinear_nx_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 89a8 <_sk_bilinear_nx_sse2+0xe>
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 69f1 <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,88,128,120,26,0,0 // addps 0x1a78(%eax),%xmm0
- .byte 15,40,160,136,26,0,0 // movaps 0x1a88(%eax),%xmm4
- .byte 139,69,20 // mov 0x14(%ebp),%eax
- .byte 15,16,111,64 // movups 0x40(%edi),%xmm5
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,17,167,128,0,0,0 // movups %xmm4,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,102,64 // movups 0x40(%esi),%xmm4
+ .byte 15,88,128,63,23,0,0 // addps 0x173f(%eax),%xmm0
+ .byte 15,40,168,79,23,0,0 // movaps 0x174f(%eax),%xmm5
+ .byte 15,92,236 // subps %xmm4,%xmm5
+ .byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59631,41 +57390,24 @@ FUNCTION(_sk_bilinear_px_sse2)
_sk_bilinear_px_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8a2c <_sk_bilinear_px_sse2+0xe>
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6a34 <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,88,128,20,26,0,0 // addps 0x1a14(%eax),%xmm0
- .byte 139,69,20 // mov 0x14(%ebp),%eax
- .byte 15,16,103,64 // movups 0x40(%edi),%xmm4
- .byte 15,17,167,128,0,0,0 // movups %xmm4,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,102,64 // movups 0x40(%esi),%xmm4
+ .byte 15,88,128,28,23,0,0 // addps 0x171c(%eax),%xmm0
+ .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59675,43 +57417,26 @@ FUNCTION(_sk_bilinear_ny_sse2)
_sk_bilinear_ny_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8aa6 <_sk_bilinear_ny_sse2+0xe>
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6a6d <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,88,136,170,25,0,0 // addps 0x19aa(%eax),%xmm1
- .byte 15,40,160,186,25,0,0 // movaps 0x19ba(%eax),%xmm4
- .byte 139,69,20 // mov 0x14(%ebp),%eax
- .byte 15,16,111,96 // movups 0x60(%edi),%xmm5
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,17,167,160,0,0,0 // movups %xmm4,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,102,96 // movups 0x60(%esi),%xmm4
+ .byte 15,88,136,243,22,0,0 // addps 0x16f3(%eax),%xmm1
+ .byte 15,40,168,3,23,0,0 // movaps 0x1703(%eax),%xmm5
+ .byte 15,92,236 // subps %xmm4,%xmm5
+ .byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59721,41 +57446,24 @@ FUNCTION(_sk_bilinear_py_sse2)
_sk_bilinear_py_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8b2b <_sk_bilinear_py_sse2+0xe>
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6ab1 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,88,136,69,25,0,0 // addps 0x1945(%eax),%xmm1
- .byte 139,69,20 // mov 0x14(%ebp),%eax
- .byte 15,16,103,96 // movups 0x60(%edi),%xmm4
- .byte 15,17,167,160,0,0,0 // movups %xmm4,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,102,96 // movups 0x60(%esi),%xmm4
+ .byte 15,88,136,207,22,0,0 // addps 0x16cf(%eax),%xmm1
+ .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59765,48 +57473,31 @@ FUNCTION(_sk_bicubic_n3x_sse2)
_sk_bicubic_n3x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8ba6 <_sk_bicubic_n3x_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6aeb <_sk_bicubic_n3x_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,16,103,64 // movups 0x40(%edi),%xmm4
- .byte 15,88,134,218,24,0,0 // addps 0x18da(%esi),%xmm0
- .byte 15,40,174,234,24,0,0 // movaps 0x18ea(%esi),%xmm5
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,102,64 // movups 0x40(%esi),%xmm4
+ .byte 15,88,128,165,22,0,0 // addps 0x16a5(%eax),%xmm0
+ .byte 15,40,168,181,22,0,0 // movaps 0x16b5(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,174,250,24,0,0 // mulps 0x18fa(%esi),%xmm5
- .byte 15,88,174,10,25,0,0 // addps 0x190a(%esi),%xmm5
- .byte 139,117,20 // mov 0x14(%ebp),%esi
.byte 15,89,228 // mulps %xmm4,%xmm4
+ .byte 15,89,168,197,22,0,0 // mulps 0x16c5(%eax),%xmm5
+ .byte 15,88,168,213,22,0,0 // addps 0x16d5(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,17,175,128,0,0,0 // movups %xmm5,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59816,50 +57507,33 @@ FUNCTION(_sk_bicubic_n1x_sse2)
_sk_bicubic_n1x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8c41 <_sk_bicubic_n1x_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6b45 <_sk_bicubic_n1x_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,16,103,64 // movups 0x40(%edi),%xmm4
- .byte 15,88,134,127,24,0,0 // addps 0x187f(%esi),%xmm0
- .byte 15,40,174,143,24,0,0 // movaps 0x188f(%esi),%xmm5
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,102,64 // movups 0x40(%esi),%xmm4
+ .byte 15,88,128,139,22,0,0 // addps 0x168b(%eax),%xmm0
+ .byte 15,40,168,155,22,0,0 // movaps 0x169b(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,166,159,24,0,0 // movaps 0x189f(%esi),%xmm4
+ .byte 15,40,160,171,22,0,0 // movaps 0x16ab(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,175,24,0,0 // addps 0x18af(%esi),%xmm4
+ .byte 15,88,160,187,22,0,0 // addps 0x16bb(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,191,24,0,0 // addps 0x18bf(%esi),%xmm4
+ .byte 15,88,160,203,22,0,0 // addps 0x16cb(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,207,24,0,0 // addps 0x18cf(%esi),%xmm4
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,17,167,128,0,0,0 // movups %xmm4,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,160,219,22,0,0 // addps 0x16db(%eax),%xmm4
+ .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59869,49 +57543,32 @@ FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8cea <_sk_bicubic_p1x_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6bad <_sk_bicubic_p1x_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,40,166,54,24,0,0 // movaps 0x1836(%esi),%xmm4
- .byte 15,16,71,64 // movups 0x40(%edi),%xmm0
- .byte 15,40,174,70,24,0,0 // movaps 0x1846(%esi),%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,174,86,24,0,0 // addps 0x1856(%esi),%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,174,102,24,0,0 // addps 0x1866(%esi),%xmm5
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,17,175,128,0,0,0 // movups %xmm5,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,40,160,131,22,0,0 // movaps 0x1683(%eax),%xmm4
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,110,64 // movups 0x40(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,40,176,147,22,0,0 // movaps 0x1693(%eax),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,176,163,22,0,0 // addps 0x16a3(%eax),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,176,179,22,0,0 // addps 0x16b3(%eax),%xmm6
+ .byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59921,46 +57578,29 @@ FUNCTION(_sk_bicubic_p3x_sse2)
_sk_bicubic_p3x_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8d88 <_sk_bicubic_p3x_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,16,103,64 // movups 0x40(%edi),%xmm4
- .byte 15,88,129,216,23,0,0 // addps 0x17d8(%ecx),%xmm0
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6c0a <_sk_bicubic_p3x_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,6 // movups (%esi),%xmm0
+ .byte 15,16,102,64 // movups 0x40(%esi),%xmm4
+ .byte 15,88,128,102,22,0,0 // addps 0x1666(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,89,161,232,23,0,0 // mulps 0x17e8(%ecx),%xmm4
- .byte 15,88,161,248,23,0,0 // addps 0x17f8(%ecx),%xmm4
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
.byte 15,89,237 // mulps %xmm5,%xmm5
+ .byte 15,89,160,118,22,0,0 // mulps 0x1676(%eax),%xmm4
+ .byte 15,88,160,134,22,0,0 // addps 0x1686(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,17,167,128,0,0,0 // movups %xmm4,0x80(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -59970,48 +57610,31 @@ FUNCTION(_sk_bicubic_n3y_sse2)
_sk_bicubic_n3y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8e19 <_sk_bicubic_n3y_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6c5a <_sk_bicubic_n3y_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,16,103,96 // movups 0x60(%edi),%xmm4
- .byte 15,88,142,119,23,0,0 // addps 0x1777(%esi),%xmm1
- .byte 15,40,174,135,23,0,0 // movaps 0x1787(%esi),%xmm5
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,102,96 // movups 0x60(%esi),%xmm4
+ .byte 15,88,136,70,22,0,0 // addps 0x1646(%eax),%xmm1
+ .byte 15,40,168,86,22,0,0 // movaps 0x1656(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,174,151,23,0,0 // mulps 0x1797(%esi),%xmm5
- .byte 15,88,174,167,23,0,0 // addps 0x17a7(%esi),%xmm5
- .byte 139,117,20 // mov 0x14(%ebp),%esi
.byte 15,89,228 // mulps %xmm4,%xmm4
+ .byte 15,89,168,102,22,0,0 // mulps 0x1666(%eax),%xmm5
+ .byte 15,88,168,118,22,0,0 // addps 0x1676(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,17,175,160,0,0,0 // movups %xmm5,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -60021,50 +57644,33 @@ FUNCTION(_sk_bicubic_n1y_sse2)
_sk_bicubic_n1y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8eb5 <_sk_bicubic_n1y_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6cb5 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,16,103,96 // movups 0x60(%edi),%xmm4
- .byte 15,88,142,27,23,0,0 // addps 0x171b(%esi),%xmm1
- .byte 15,40,174,43,23,0,0 // movaps 0x172b(%esi),%xmm5
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,102,96 // movups 0x60(%esi),%xmm4
+ .byte 15,88,136,43,22,0,0 // addps 0x162b(%eax),%xmm1
+ .byte 15,40,168,59,22,0,0 // movaps 0x163b(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,166,59,23,0,0 // movaps 0x173b(%esi),%xmm4
+ .byte 15,40,160,75,22,0,0 // movaps 0x164b(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,75,23,0,0 // addps 0x174b(%esi),%xmm4
+ .byte 15,88,160,91,22,0,0 // addps 0x165b(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,91,23,0,0 // addps 0x175b(%esi),%xmm4
+ .byte 15,88,160,107,22,0,0 // addps 0x166b(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,166,107,23,0,0 // addps 0x176b(%esi),%xmm4
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,17,167,160,0,0,0 // movups %xmm4,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,88,160,123,22,0,0 // addps 0x167b(%eax),%xmm4
+ .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -60074,49 +57680,32 @@ FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8f5f <_sk_bicubic_p1y_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6d1e <_sk_bicubic_p1y_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,58 // mov (%edx),%edi
- .byte 15,40,166,209,22,0,0 // movaps 0x16d1(%esi),%xmm4
- .byte 15,16,79,96 // movups 0x60(%edi),%xmm1
- .byte 15,40,174,225,22,0,0 // movaps 0x16e1(%esi),%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,174,241,22,0,0 // addps 0x16f1(%esi),%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,174,1,23,0,0 // addps 0x1701(%esi),%xmm5
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,17,175,160,0,0,0 // movups %xmm5,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,40,160,34,22,0,0 // movaps 0x1622(%eax),%xmm4
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,110,96 // movups 0x60(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 141,90,8 // lea 0x8(%edx),%ebx
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 15,40,176,50,22,0,0 // movaps 0x1632(%eax),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,176,66,22,0,0 // addps 0x1642(%eax),%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,244 // addps %xmm4,%xmm6
+ .byte 15,89,245 // mulps %xmm5,%xmm6
+ .byte 15,88,176,82,22,0,0 // addps 0x1652(%eax),%xmm6
+ .byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
.byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -60126,46 +57715,29 @@ FUNCTION(_sk_bicubic_p3y_sse2)
_sk_bicubic_p3y_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 8ffe <_sk_bicubic_p3y_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,79,32 // movups 0x20(%edi),%xmm1
- .byte 15,16,103,96 // movups 0x60(%edi),%xmm4
- .byte 15,88,137,114,22,0,0 // addps 0x1672(%ecx),%xmm1
+ .byte 80 // push %eax
+ .byte 232,0,0,0,0 // call 6d7c <_sk_bicubic_p3y_sse2+0xa>
+ .byte 88 // pop %eax
+ .byte 139,77,8 // mov 0x8(%ebp),%ecx
+ .byte 139,85,12 // mov 0xc(%ebp),%edx
+ .byte 139,50 // mov (%edx),%esi
+ .byte 15,16,78,32 // movups 0x20(%esi),%xmm1
+ .byte 15,16,102,96 // movups 0x60(%esi),%xmm4
+ .byte 15,88,136,4,22,0,0 // addps 0x1604(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,89,161,130,22,0,0 // mulps 0x1682(%ecx),%xmm4
- .byte 15,88,161,146,22,0,0 // addps 0x1692(%ecx),%xmm4
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
.byte 15,89,237 // mulps %xmm5,%xmm5
+ .byte 15,89,160,20,22,0,0 // mulps 0x1614(%eax),%xmm4
+ .byte 15,88,160,36,22,0,0 // addps 0x1624(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,17,167,160,0,0,0 // movups %xmm4,0xa0(%edi)
- .byte 139,125,24 // mov 0x18(%ebp),%edi
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,125,88 // movaps 0x58(%ebp),%xmm7
- .byte 141,94,8 // lea 0x8(%esi),%ebx
- .byte 15,41,124,36,80 // movaps %xmm7,0x50(%esp)
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,124,36,16 // mov %edi,0x10(%esp)
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
+ .byte 141,66,8 // lea 0x8(%edx),%eax
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 81 // push %ecx
+ .byte 255,82,4 // call *0x4(%edx)
+ .byte 131,196,20 // add $0x14,%esp
.byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
.byte 93 // pop %ebp
.byte 195 // ret
@@ -60178,33 +57750,36 @@ _sk_callback_sse2:
.byte 83 // push %ebx
.byte 87 // push %edi
.byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
+ .byte 131,236,12 // sub $0xc,%esp
+ .byte 139,117,12 // mov 0xc(%ebp),%esi
+ .byte 139,125,8 // mov 0x8(%ebp),%edi
+ .byte 139,71,8 // mov 0x8(%edi),%eax
+ .byte 139,30 // mov (%esi),%ebx
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,20,225 // unpcklps %xmm1,%xmm4
+ .byte 15,40,234 // movaps %xmm2,%xmm5
+ .byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 15,21,193 // unpckhps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
.byte 15,21,211 // unpckhps %xmm3,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 15,18,204 // movhlps %xmm4,%xmm1
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 102,15,17,95,4 // movupd %xmm3,0x4(%edi)
+ .byte 15,40,204 // movaps %xmm4,%xmm1
+ .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
+ .byte 15,18,236 // movhlps %xmm4,%xmm5
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 102,15,20,218 // unpcklpd %xmm2,%xmm3
+ .byte 102,15,17,75,4 // movupd %xmm1,0x4(%ebx)
.byte 15,18,208 // movhlps %xmm0,%xmm2
- .byte 15,17,79,20 // movups %xmm1,0x14(%edi)
- .byte 102,15,17,95,36 // movupd %xmm3,0x24(%edi)
- .byte 15,17,87,52 // movups %xmm2,0x34(%edi)
- .byte 139,93,24 // mov 0x18(%ebp),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 184,4,0,0,0 // mov $0x4,%eax
- .byte 15,69,195 // cmovne %ebx,%eax
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 137,60,36 // mov %edi,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 139,135,132,0,0,0 // mov 0x84(%edi),%eax
+ .byte 15,17,107,20 // movups %xmm5,0x14(%ebx)
+ .byte 102,15,17,91,36 // movupd %xmm3,0x24(%ebx)
+ .byte 15,17,83,52 // movups %xmm2,0x34(%ebx)
+ .byte 133,192 // test %eax,%eax
+ .byte 185,4,0,0,0 // mov $0x4,%ecx
+ .byte 15,69,200 // cmovne %eax,%ecx
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 81 // push %ecx
+ .byte 83 // push %ebx
+ .byte 255,19 // call *(%ebx)
+ .byte 131,196,16 // add $0x10,%esp
+ .byte 139,131,132,0,0,0 // mov 0x84(%ebx),%eax
.byte 15,16,32 // movups (%eax),%xmm4
.byte 15,16,64,16 // movups 0x10(%eax),%xmm0
.byte 15,16,88,32 // movups 0x20(%eax),%xmm3
@@ -60222,24 +57797,11 @@ _sk_callback_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 15,18,220 // movhlps %xmm4,%xmm3
.byte 141,70,8 // lea 0x8(%esi),%eax
- .byte 15,40,101,88 // movaps 0x58(%ebp),%xmm4
- .byte 15,41,100,36,80 // movaps %xmm4,0x50(%esp)
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 137,92,36,16 // mov %ebx,0x10(%esp)
- .byte 139,77,20 // mov 0x14(%ebp),%ecx
- .byte 137,76,36,12 // mov %ecx,0xc(%esp)
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
+ .byte 131,236,8 // sub $0x8,%esp
+ .byte 80 // push %eax
+ .byte 87 // push %edi
.byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,108 // add $0x6c,%esp
+ .byte 131,196,28 // add $0x1c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
.byte 91 // pop %ebx
@@ -60403,9 +57965,9 @@ BALIGN16
.byte 0,224 // add %ah,%al
.byte 64 // inc %eax
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 936c <.literal16+0x1fc>
+ .byte 224,64 // loopne 707c <.literal16+0x1fc>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 9370 <.literal16+0x200>
+ .byte 224,64 // loopne 7080 <.literal16+0x200>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -60416,16 +57978,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9391 <.literal16+0x221>
+ .byte 225,61 // loope 70a1 <.literal16+0x221>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9395 <.literal16+0x225>
+ .byte 225,61 // loope 70a5 <.literal16+0x225>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9399 <.literal16+0x229>
+ .byte 225,61 // loope 70a9 <.literal16+0x229>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 939d <.literal16+0x22d>
+ .byte 225,61 // loope 70ad <.literal16+0x22d>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60442,16 +58004,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 93d1 <.literal16+0x261>
+ .byte 225,61 // loope 70e1 <.literal16+0x261>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93d5 <.literal16+0x265>
+ .byte 225,61 // loope 70e5 <.literal16+0x265>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93d9 <.literal16+0x269>
+ .byte 225,61 // loope 70e9 <.literal16+0x269>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 93dd <.literal16+0x26d>
+ .byte 225,61 // loope 70ed <.literal16+0x26d>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60468,16 +58030,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 9411 <.literal16+0x2a1>
+ .byte 225,61 // loope 7121 <.literal16+0x2a1>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9415 <.literal16+0x2a5>
+ .byte 225,61 // loope 7125 <.literal16+0x2a5>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9419 <.literal16+0x2a9>
+ .byte 225,61 // loope 7129 <.literal16+0x2a9>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 941d <.literal16+0x2ad>
+ .byte 225,61 // loope 712d <.literal16+0x2ad>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60494,16 +58056,16 @@ BALIGN16
.byte 63 // aas
.byte 61,10,23,63,174 // cmp $0xae3f170a,%eax
.byte 71 // inc %edi
- .byte 225,61 // loope 9451 <.literal16+0x2e1>
+ .byte 225,61 // loope 7161 <.literal16+0x2e1>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9455 <.literal16+0x2e5>
+ .byte 225,61 // loope 7165 <.literal16+0x2e5>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 9459 <.literal16+0x2e9>
+ .byte 225,61 // loope 7169 <.literal16+0x2e9>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope 945d <.literal16+0x2ed>
+ .byte 225,61 // loope 716d <.literal16+0x2ed>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60525,11 +58087,11 @@ BALIGN16
.byte 0,128,63,0,0,127 // add %al,0x7f00003f(%eax)
.byte 67 // inc %ebx
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 949b <.literal16+0x32b>
+ .byte 127,67 // jg 71ab <.literal16+0x32b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 949f <.literal16+0x32f>
+ .byte 127,67 // jg 71af <.literal16+0x32f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 94a3 <.literal16+0x333>
+ .byte 127,67 // jg 71b3 <.literal16+0x333>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60798,13 +58360,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 96e9 <.literal16+0x579>
+ .byte 224,7 // loopne 73f9 <.literal16+0x579>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 96ed <.literal16+0x57d>
+ .byte 224,7 // loopne 73fd <.literal16+0x57d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 96f1 <.literal16+0x581>
+ .byte 224,7 // loopne 7401 <.literal16+0x581>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 96f5 <.literal16+0x585>
+ .byte 224,7 // loopne 7405 <.literal16+0x585>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -60853,11 +58415,11 @@ BALIGN16
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,127,67 // add %bh,0x43(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97ab <.literal16+0x63b>
+ .byte 127,67 // jg 74bb <.literal16+0x63b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97af <.literal16+0x63f>
+ .byte 127,67 // jg 74bf <.literal16+0x63f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 97b3 <.literal16+0x643>
+ .byte 127,67 // jg 74c3 <.literal16+0x643>
.byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax)
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,129,128,128,59 // addb $0x3b,-0x7f7f7ec5(%eax)
@@ -60872,16 +58434,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 97a4 <.literal16+0x634>
+ .byte 127,0 // jg 74b4 <.literal16+0x634>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97a8 <.literal16+0x638>
+ .byte 127,0 // jg 74b8 <.literal16+0x638>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97ac <.literal16+0x63c>
+ .byte 127,0 // jg 74bc <.literal16+0x63c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 97b0 <.literal16+0x640>
+ .byte 127,0 // jg 74c0 <.literal16+0x640>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -60890,7 +58452,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9835 <.literal16+0x6c5>
+ .byte 119,115 // ja 7545 <.literal16+0x6c5>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -60901,7 +58463,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9799 <.literal16+0x629>
+ .byte 117,191 // jne 74a9 <.literal16+0x629>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -60917,7 +58479,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d7d6 <_sk_callback_sse2+0xe9a34754>
+ .byte 233,220,63,163,233 // jmp e9a3b4e6 <_sk_callback_sse2+0xe9a34723>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -60972,16 +58534,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9874 <.literal16+0x704>
+ .byte 127,0 // jg 7584 <.literal16+0x704>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9878 <.literal16+0x708>
+ .byte 127,0 // jg 7588 <.literal16+0x708>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 987c <.literal16+0x70c>
+ .byte 127,0 // jg 758c <.literal16+0x70c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9880 <.literal16+0x710>
+ .byte 127,0 // jg 7590 <.literal16+0x710>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -60990,7 +58552,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9905 <.literal16+0x795>
+ .byte 119,115 // ja 7615 <.literal16+0x795>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -61001,7 +58563,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9869 <.literal16+0x6f9>
+ .byte 117,191 // jne 7579 <.literal16+0x6f9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -61017,7 +58579,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d8a6 <_sk_callback_sse2+0xe9a34824>
+ .byte 233,220,63,163,233 // jmp e9a3b5b6 <_sk_callback_sse2+0xe9a347f3>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -61072,16 +58634,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9944 <.literal16+0x7d4>
+ .byte 127,0 // jg 7654 <.literal16+0x7d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9948 <.literal16+0x7d8>
+ .byte 127,0 // jg 7658 <.literal16+0x7d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 994c <.literal16+0x7dc>
+ .byte 127,0 // jg 765c <.literal16+0x7dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9950 <.literal16+0x7e0>
+ .byte 127,0 // jg 7660 <.literal16+0x7e0>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -61090,7 +58652,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 99d5 <.literal16+0x865>
+ .byte 119,115 // ja 76e5 <.literal16+0x865>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -61101,7 +58663,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9939 <.literal16+0x7c9>
+ .byte 117,191 // jne 7649 <.literal16+0x7c9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -61117,7 +58679,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3d976 <_sk_callback_sse2+0xe9a348f4>
+ .byte 233,220,63,163,233 // jmp e9a3b686 <_sk_callback_sse2+0xe9a348c3>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -61172,16 +58734,16 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 9a14 <.literal16+0x8a4>
+ .byte 127,0 // jg 7724 <.literal16+0x8a4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a18 <.literal16+0x8a8>
+ .byte 127,0 // jg 7728 <.literal16+0x8a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a1c <.literal16+0x8ac>
+ .byte 127,0 // jg 772c <.literal16+0x8ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 9a20 <.literal16+0x8b0>
+ .byte 127,0 // jg 7730 <.literal16+0x8b0>
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
@@ -61190,7 +58752,7 @@ BALIGN16
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
- .byte 119,115 // ja 9aa5 <.literal16+0x935>
+ .byte 119,115 // ja 77b5 <.literal16+0x935>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -61201,7 +58763,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne 9a09 <.literal16+0x899>
+ .byte 117,191 // jne 7719 <.literal16+0x899>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -61217,7 +58779,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a3da46 <_sk_callback_sse2+0xe9a349c4>
+ .byte 233,220,63,163,233 // jmp e9a3b756 <_sk_callback_sse2+0xe9a34993>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,0 // mov %eax,0x3fdce9
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -61268,13 +58830,13 @@ BALIGN16
.byte 200,66,0,0 // enter $0x42,$0x0
.byte 200,66,0,0 // enter $0x42,$0x0
.byte 200,66,0,0 // enter $0x42,$0x0
- .byte 127,67 // jg 9b27 <.literal16+0x9b7>
+ .byte 127,67 // jg 7837 <.literal16+0x9b7>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9b2b <.literal16+0x9bb>
+ .byte 127,67 // jg 783b <.literal16+0x9bb>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9b2f <.literal16+0x9bf>
+ .byte 127,67 // jg 783f <.literal16+0x9bf>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9b33 <.literal16+0x9c3>
+ .byte 127,67 // jg 7843 <.literal16+0x9c3>
.byte 0,0 // add %al,(%eax)
.byte 0,195 // add %al,%bl
.byte 0,0 // add %al,(%eax)
@@ -61325,16 +58887,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9bb3 <.literal16+0xa43>
+ .byte 118,63 // jbe 78c3 <.literal16+0xa43>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9bb7 <.literal16+0xa47>
+ .byte 118,63 // jbe 78c7 <.literal16+0xa47>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9bbb <.literal16+0xa4b>
+ .byte 118,63 // jbe 78cb <.literal16+0xa4b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 9bbf <.literal16+0xa4f>
+ .byte 118,63 // jbe 78cf <.literal16+0xa4f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -61363,11 +58925,11 @@ BALIGN16
.byte 128,59,0 // cmpb $0x0,(%ebx)
.byte 0,127,67 // add %bh,0x43(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c2b <.literal16+0xabb>
+ .byte 127,67 // jg 793b <.literal16+0xabb>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c2f <.literal16+0xabf>
+ .byte 127,67 // jg 793f <.literal16+0xabf>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 9c33 <.literal16+0xac3>
+ .byte 127,67 // jg 7943 <.literal16+0xac3>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
@@ -61429,13 +58991,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9ca9 <.literal16+0xb39>
+ .byte 224,7 // loopne 79b9 <.literal16+0xb39>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9cad <.literal16+0xb3d>
+ .byte 224,7 // loopne 79bd <.literal16+0xb3d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9cb1 <.literal16+0xb41>
+ .byte 224,7 // loopne 79c1 <.literal16+0xb41>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9cb5 <.literal16+0xb45>
+ .byte 224,7 // loopne 79c5 <.literal16+0xb45>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -61481,13 +59043,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9d19 <.literal16+0xba9>
+ .byte 224,7 // loopne 7a29 <.literal16+0xba9>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d1d <.literal16+0xbad>
+ .byte 224,7 // loopne 7a2d <.literal16+0xbad>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d21 <.literal16+0xbb1>
+ .byte 224,7 // loopne 7a31 <.literal16+0xbb1>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d25 <.literal16+0xbb5>
+ .byte 224,7 // loopne 7a35 <.literal16+0xbb5>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -61533,13 +59095,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 9d89 <.literal16+0xc19>
+ .byte 224,7 // loopne 7a99 <.literal16+0xc19>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d8d <.literal16+0xc1d>
+ .byte 224,7 // loopne 7a9d <.literal16+0xc1d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d91 <.literal16+0xc21>
+ .byte 224,7 // loopne 7aa1 <.literal16+0xc21>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 9d95 <.literal16+0xc25>
+ .byte 224,7 // loopne 7aa5 <.literal16+0xc25>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -61581,13 +59143,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9e26 <.literal16+0xcb6>
+ .byte 124,66 // jl 7b36 <.literal16+0xcb6>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9e2a <.literal16+0xcba>
+ .byte 124,66 // jl 7b3a <.literal16+0xcba>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9e2e <.literal16+0xcbe>
+ .byte 124,66 // jl 7b3e <.literal16+0xcbe>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 9e32 <.literal16+0xcc2>
+ .byte 124,66 // jl 7b42 <.literal16+0xcc2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -61721,13 +59283,13 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 9fb5 <.literal16+0xe45>
+ .byte 112,65 // jo 7cc5 <.literal16+0xe45>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 9fb9 <.literal16+0xe49>
+ .byte 112,65 // jo 7cc9 <.literal16+0xe49>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 9fbd <.literal16+0xe4d>
+ .byte 112,65 // jo 7ccd <.literal16+0xe4d>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 9fc1 <.literal16+0xe51>
+ .byte 112,65 // jo 7cd1 <.literal16+0xe51>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -61758,11 +59320,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a02b <.literal16+0xebb>
+ .byte 127,67 // jg 7d3b <.literal16+0xebb>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a02f <.literal16+0xebf>
+ .byte 127,67 // jg 7d3f <.literal16+0xebf>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a033 <.literal16+0xec3>
+ .byte 127,67 // jg 7d43 <.literal16+0xec3>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -61793,11 +59355,11 @@ BALIGN16
.byte 128,59,129 // cmpb $0x81,(%ebx)
.byte 128,128,59,0,0,127,67 // addb $0x43,0x7f00003b(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a09b <.literal16+0xf2b>
+ .byte 127,67 // jg 7dab <.literal16+0xf2b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a09f <.literal16+0xf2f>
+ .byte 127,67 // jg 7daf <.literal16+0xf2f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg a0a3 <.literal16+0xf33>
+ .byte 127,67 // jg 7db3 <.literal16+0xf33>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
@@ -61896,13 +59458,13 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 255 // (bad)
- .byte 127,71 // jg a1cb <.literal16+0x105b>
+ .byte 127,71 // jg 7edb <.literal16+0x105b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a1cf <.literal16+0x105f>
+ .byte 127,71 // jg 7edf <.literal16+0x105f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a1d3 <.literal16+0x1063>
+ .byte 127,71 // jg 7ee3 <.literal16+0x1063>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg a1d7 <.literal16+0x1067>
+ .byte 127,71 // jg 7ee7 <.literal16+0x1067>
.byte 0,0 // add %al,(%eax)
.byte 128,63,0 // cmpb $0x0,(%edi)
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
@@ -62010,7 +59572,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js a2dc <.literal16+0x116c>
+ .byte 120,57 // js 7fec <.literal16+0x116c>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -62203,11 +59765,11 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,114 // cmpb $0x72,(%edi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt a4c2 <.literal16+0x1352>
+ .byte 62,114,28 // jb,pt 81d2 <.literal16+0x1352>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a4c6 <.literal16+0x1356>
+ .byte 62,114,28 // jb,pt 81d6 <.literal16+0x1356>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a4ca <.literal16+0x135a>
+ .byte 62,114,28 // jb,pt 81da <.literal16+0x135a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -62286,13 +59848,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%edi)
.byte 0,192 // add %al,%al
.byte 63 // aas
- .byte 114,28 // jb a58e <.literal16+0x141e>
+ .byte 114,28 // jb 829e <.literal16+0x141e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a592 <.literal16+0x1422>
+ .byte 62,114,28 // jb,pt 82a2 <.literal16+0x1422>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a596 <.literal16+0x1426>
+ .byte 62,114,28 // jb,pt 82a6 <.literal16+0x1426>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a59a <.literal16+0x142a>
+ .byte 62,114,28 // jb,pt 82aa <.literal16+0x142a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -62313,11 +59875,11 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 128,63,114 // cmpb $0x72,(%edi)
.byte 28,199 // sbb $0xc7,%al
- .byte 62,114,28 // jb,pt a5d2 <.literal16+0x1462>
+ .byte 62,114,28 // jb,pt 82e2 <.literal16+0x1462>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a5d6 <.literal16+0x1466>
+ .byte 62,114,28 // jb,pt 82e6 <.literal16+0x1466>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a5da <.literal16+0x146a>
+ .byte 62,114,28 // jb,pt 82ea <.literal16+0x146a>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)
@@ -62396,13 +59958,13 @@ BALIGN16
.byte 192,63,0 // sarb $0x0,(%edi)
.byte 0,192 // add %al,%al
.byte 63 // aas
- .byte 114,28 // jb a69e <.literal16+0x152e>
+ .byte 114,28 // jb 83ae <.literal16+0x152e>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6a2 <_sk_callback_sse2+0x1620>
+ .byte 62,114,28 // jb,pt 83b2 <_sk_callback_sse2+0x15ef>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6a6 <_sk_callback_sse2+0x1624>
+ .byte 62,114,28 // jb,pt 83b6 <_sk_callback_sse2+0x15f3>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt a6aa <_sk_callback_sse2+0x1628>
+ .byte 62,114,28 // jb,pt 83ba <_sk_callback_sse2+0x15f7>
.byte 199 // (bad)
.byte 62,171 // ds stos %eax,%es:(%edi)
.byte 170 // stos %al,%es:(%edi)