aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S2888
1 files changed, 1656 insertions, 1232 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index a3ea251a7c..973d607e16 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -7347,14 +7347,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,199 // vmovd %edi,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,61,64,0,0 // vbroadcastss 0x403d(%rip),%ymm1 # 4100 <_sk_callback_hsw+0x126>
+ .byte 196,226,125,24,13,253,63,0,0 // vbroadcastss 0x3ffd(%rip),%ymm1 # 40c0 <_sk_callback_hsw+0x126>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,2 // vaddps (%rdx),%ymm0,%ymm0
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,33,64,0,0 // vbroadcastss 0x4021(%rip),%ymm2 # 4104 <_sk_callback_hsw+0x12a>
+ .byte 196,226,125,24,21,225,63,0,0 // vbroadcastss 0x3fe1(%rip),%ymm2 # 40c4 <_sk_callback_hsw+0x12a>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -8624,24 +8624,19 @@ _sk_load_tables_hsw:
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 117,121 // jne 1306 <_sk_load_tables_hsw+0x8e>
+ .byte 117,109 // jne 12fa <_sk_load_tables_hsw+0x82>
.byte 196,193,126,111,25 // vmovdqu (%r9),%ymm3
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 197,249,110,193 // vmovd %ecx,%xmm0
- .byte 196,226,125,88,208 // vpbroadcastd %xmm0,%ymm2
- .byte 197,237,219,203 // vpand %ymm3,%ymm2,%ymm1
+ .byte 197,229,219,13,6,47,0,0 // vpand 0x2f06(%rip),%ymm3,%ymm1 # 41a0 <_sk_callback_hsw+0x206>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 72,139,72,8 // mov 0x8(%rax),%rcx
.byte 76,139,72,16 // mov 0x10(%rax),%r9
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,4,137 // vgatherdps %ymm2,(%rcx,%ymm1,4),%ymm0
+ .byte 196,226,101,0,21,6,47,0,0 // vpshufb 0x2f06(%rip),%ymm3,%ymm2 # 41c0 <_sk_callback_hsw+0x226>
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,226,53,146,4,137 // vgatherdps %ymm9,(%rcx,%ymm1,4),%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 197,109,219,201 // vpand %ymm1,%ymm2,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
+ .byte 196,194,53,146,12,145 // vgatherdps %ymm9,(%r9,%ymm2,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
- .byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
+ .byte 196,98,101,0,13,14,47,0,0 // vpshufb 0x2f0e(%rip),%ymm3,%ymm9 # 41e0 <_sk_callback_hsw+0x246>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,124,91,195 // vcvtdq2ps %ymm3,%ymm8
@@ -8660,7 +8655,7 @@ _sk_load_tables_hsw:
.byte 196,193,249,110,194 // vmovq %r10,%xmm0
.byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0
.byte 196,194,125,140,25 // vpmaskmovd (%r9),%ymm0,%ymm3
- .byte 233,99,255,255,255 // jmpq 1292 <_sk_load_tables_hsw+0x1a>
+ .byte 233,111,255,255,255 // jmpq 1292 <_sk_load_tables_hsw+0x1a>
HIDDEN _sk_load_tables_u16_be_hsw
.globl _sk_load_tables_u16_be_hsw
@@ -8670,7 +8665,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,216,0,0,0 // jne 141d <_sk_load_tables_u16_be_hsw+0xee>
+ .byte 15,133,208,0,0,0 // jne 1409 <_sk_load_tables_u16_be_hsw+0xe6>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -8681,28 +8676,26 @@ _sk_load_tables_u16_be_hsw:
.byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
.byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
.byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
+ .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
.byte 197,113,105,235 // vpunpckhwd %xmm3,%xmm1,%xmm13
- .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 65,184,255,0,0,0 // mov $0xff,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,98,125,88,209 // vpbroadcastd %xmm1,%ymm10
- .byte 196,193,125,219,202 // vpand %ymm10,%ymm0,%ymm1
+ .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
+ .byte 197,185,109,208 // vpunpckhqdq %xmm0,%xmm8,%xmm2
+ .byte 196,65,49,108,197 // vpunpcklqdq %xmm13,%xmm9,%xmm8
+ .byte 197,121,111,21,149,47,0,0 // vmovdqa 0x2f95(%rip),%xmm10 # 4320 <_sk_callback_hsw+0x386>
+ .byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
+ .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,194,29,146,4,136 // vgatherdps %ymm12,(%r8,%ymm1,4),%ymm0
- .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 196,193,117,219,210 // vpand %ymm10,%ymm1,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,194,61,146,12,145 // vgatherdps %ymm8,(%r9,%ymm2,4),%ymm1
+ .byte 196,193,105,219,202 // vpand %xmm10,%xmm2,%xmm1
+ .byte 196,226,125,51,209 // vpmovzxwd %xmm1,%ymm2
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,194,29,146,12,145 // vgatherdps %ymm12,(%r9,%ymm2,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,49,108,213 // vpunpcklqdq %xmm13,%xmm9,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 196,65,109,219,194 // vpand %ymm10,%ymm2,%ymm8
+ .byte 196,193,57,219,210 // vpand %xmm10,%xmm8,%xmm2
+ .byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8
.byte 196,162,37,146,20,128 // vgatherdps %ymm11,(%rax,%ymm8,4),%ymm2
.byte 184,128,0,128,55 // mov $0x37800080,%eax
.byte 197,249,110,216 // vmovd %eax,%xmm3
@@ -8719,29 +8712,29 @@ _sk_load_tables_u16_be_hsw:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 1483 <_sk_load_tables_u16_be_hsw+0x154>
+ .byte 116,85 // je 146f <_sk_load_tables_u16_be_hsw+0x14c>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 1483 <_sk_load_tables_u16_be_hsw+0x154>
+ .byte 114,72 // jb 146f <_sk_load_tables_u16_be_hsw+0x14c>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 1490 <_sk_load_tables_u16_be_hsw+0x161>
+ .byte 116,72 // je 147c <_sk_load_tables_u16_be_hsw+0x159>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 1490 <_sk_load_tables_u16_be_hsw+0x161>
+ .byte 114,59 // jb 147c <_sk_load_tables_u16_be_hsw+0x159>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,250,254,255,255 // je 1360 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,2,255,255,255 // je 1354 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,233,254,255,255 // jb 1360 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,241,254,255,255 // jb 1354 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,221,254,255,255 // jmpq 1360 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,229,254,255,255 // jmpq 1354 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,208,254,255,255 // jmpq 1360 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,216,254,255,255 // jmpq 1354 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,199,254,255,255 // jmpq 1360 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,207,254,255,255 // jmpq 1354 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -8751,7 +8744,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,127 // lea (%rdi,%rdi,2),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,207,0,0,0 // jne 157a <_sk_load_tables_rgb_u16_be_hsw+0xe1>
+ .byte 15,133,198,0,0,0 // jne 155d <_sk_load_tables_rgb_u16_be_hsw+0xd8>
.byte 196,129,122,111,4,72 // vmovdqu (%r8,%r9,2),%xmm0
.byte 196,129,122,111,84,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm2
.byte 196,129,122,111,76,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm1
@@ -8766,30 +8759,28 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1
.byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3
.byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
+ .byte 197,249,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm0
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3
- .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 65,184,255,0,0,0 // mov $0xff,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,98,125,88,209 // vpbroadcastd %xmm1,%ymm10
- .byte 196,193,125,219,202 // vpand %ymm10,%ymm0,%ymm1
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 197,241,105,203 // vpunpckhwd %xmm3,%xmm1,%xmm1
+ .byte 197,185,108,218 // vpunpcklqdq %xmm2,%xmm8,%xmm3
+ .byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2
+ .byte 197,121,108,193 // vpunpcklqdq %xmm1,%xmm0,%xmm8
+ .byte 197,121,111,13,47,46,0,0 // vmovdqa 0x2e2f(%rip),%xmm9 # 4330 <_sk_callback_hsw+0x396>
+ .byte 196,193,97,219,193 // vpand %xmm9,%xmm3,%xmm0
+ .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,194,29,146,4,136 // vgatherdps %ymm12,(%r8,%ymm1,4),%ymm0
- .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 196,193,117,219,210 // vpand %ymm10,%ymm1,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,194,61,146,12,145 // vgatherdps %ymm8,(%r9,%ymm2,4),%ymm1
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,194,45,146,4,136 // vgatherdps %ymm10,(%r8,%ymm1,4),%ymm0
+ .byte 196,193,105,219,201 // vpand %xmm9,%xmm2,%xmm1
+ .byte 196,226,125,51,209 // vpmovzxwd %xmm1,%ymm2
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,194,45,146,12,145 // vgatherdps %ymm10,(%r9,%ymm2,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 196,193,109,219,218 // vpand %ymm10,%ymm2,%ymm3
- .byte 196,226,37,146,20,152 // vgatherdps %ymm11,(%rax,%ymm3,4),%ymm2
+ .byte 196,193,57,219,209 // vpand %xmm9,%xmm8,%xmm2
+ .byte 196,98,125,51,194 // vpmovzxwd %xmm2,%ymm8
+ .byte 196,162,101,146,20,128 // vgatherdps %ymm3,(%rax,%ymm8,4),%ymm2
.byte 184,0,0,128,63 // mov $0x3f800000,%eax
.byte 197,249,110,216 // vmovd %eax,%xmm3
.byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
@@ -8798,36 +8789,36 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,129,121,196,68,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 1593 <_sk_load_tables_rgb_u16_be_hsw+0xfa>
- .byte 233,76,255,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,5 // jne 1576 <_sk_load_tables_rgb_u16_be_hsw+0xf1>
+ .byte 233,85,255,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,72,6 // vmovd 0x6(%r8,%r9,2),%xmm1
.byte 196,1,113,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 15c2 <_sk_load_tables_rgb_u16_be_hsw+0x129>
+ .byte 114,26 // jb 15a5 <_sk_load_tables_rgb_u16_be_hsw+0x120>
.byte 196,129,121,110,76,72,12 // vmovd 0xc(%r8,%r9,2),%xmm1
.byte 196,129,113,196,84,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 15c7 <_sk_load_tables_rgb_u16_be_hsw+0x12e>
- .byte 233,29,255,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,24,255,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 15aa <_sk_load_tables_rgb_u16_be_hsw+0x125>
+ .byte 233,38,255,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,33,255,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,76,72,18 // vmovd 0x12(%r8,%r9,2),%xmm1
.byte 196,1,113,196,76,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 15f6 <_sk_load_tables_rgb_u16_be_hsw+0x15d>
+ .byte 114,26 // jb 15d9 <_sk_load_tables_rgb_u16_be_hsw+0x154>
.byte 196,129,121,110,76,72,24 // vmovd 0x18(%r8,%r9,2),%xmm1
.byte 196,129,113,196,76,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 15fb <_sk_load_tables_rgb_u16_be_hsw+0x162>
- .byte 233,233,254,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,228,254,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 15de <_sk_load_tables_rgb_u16_be_hsw+0x159>
+ .byte 233,242,254,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,237,254,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
.byte 196,129,121,110,92,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm3
.byte 196,1,97,196,92,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 1624 <_sk_load_tables_rgb_u16_be_hsw+0x18b>
+ .byte 114,20 // jb 1607 <_sk_load_tables_rgb_u16_be_hsw+0x182>
.byte 196,129,121,110,92,72,36 // vmovd 0x24(%r8,%r9,2),%xmm3
.byte 196,129,97,196,92,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 233,187,254,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
- .byte 233,182,254,255,255 // jmpq 14df <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,196,254,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
+ .byte 233,191,254,255,255 // jmpq 14cb <_sk_load_tables_rgb_u16_be_hsw+0x46>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
@@ -9207,33 +9198,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,243,36,0,0 // vbroadcastss 0x24f3(%rip),%ymm12 # 4108 <_sk_callback_hsw+0x12e>
- .byte 196,98,125,24,45,238,36,0,0 // vbroadcastss 0x24ee(%rip),%ymm13 # 410c <_sk_callback_hsw+0x132>
+ .byte 196,98,125,24,37,208,36,0,0 // vbroadcastss 0x24d0(%rip),%ymm12 # 40c8 <_sk_callback_hsw+0x12e>
+ .byte 196,98,125,24,45,203,36,0,0 // vbroadcastss 0x24cb(%rip),%ymm13 # 40cc <_sk_callback_hsw+0x132>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,228,36,0,0 // vbroadcastss 0x24e4(%rip),%ymm13 # 4110 <_sk_callback_hsw+0x136>
+ .byte 196,98,125,24,45,193,36,0,0 // vbroadcastss 0x24c1(%rip),%ymm13 # 40d0 <_sk_callback_hsw+0x136>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,218,36,0,0 // vbroadcastss 0x24da(%rip),%ymm13 # 4114 <_sk_callback_hsw+0x13a>
+ .byte 196,98,125,24,45,183,36,0,0 // vbroadcastss 0x24b7(%rip),%ymm13 # 40d4 <_sk_callback_hsw+0x13a>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,208,36,0,0 // vbroadcastss 0x24d0(%rip),%ymm11 # 4118 <_sk_callback_hsw+0x13e>
+ .byte 196,98,125,24,29,173,36,0,0 // vbroadcastss 0x24ad(%rip),%ymm11 # 40d8 <_sk_callback_hsw+0x13e>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,198,36,0,0 // vbroadcastss 0x24c6(%rip),%ymm12 # 411c <_sk_callback_hsw+0x142>
+ .byte 196,98,125,24,37,163,36,0,0 // vbroadcastss 0x24a3(%rip),%ymm12 # 40dc <_sk_callback_hsw+0x142>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,188,36,0,0 // vbroadcastss 0x24bc(%rip),%ymm12 # 4120 <_sk_callback_hsw+0x146>
+ .byte 196,98,125,24,37,153,36,0,0 // vbroadcastss 0x2499(%rip),%ymm12 # 40e0 <_sk_callback_hsw+0x146>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,157,36,0,0 // vbroadcastss 0x249d(%rip),%ymm11 # 4124 <_sk_callback_hsw+0x14a>
+ .byte 196,98,125,24,29,122,36,0,0 // vbroadcastss 0x247a(%rip),%ymm11 # 40e4 <_sk_callback_hsw+0x14a>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,147,36,0,0 // vbroadcastss 0x2493(%rip),%ymm11 # 4128 <_sk_callback_hsw+0x14e>
+ .byte 196,98,125,24,29,112,36,0,0 // vbroadcastss 0x2470(%rip),%ymm11 # 40e8 <_sk_callback_hsw+0x14e>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,137,36,0,0 // vbroadcastss 0x2489(%rip),%ymm0 # 412c <_sk_callback_hsw+0x152>
+ .byte 196,226,125,24,5,102,36,0,0 // vbroadcastss 0x2466(%rip),%ymm0 # 40ec <_sk_callback_hsw+0x152>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,127,36,0,0 // vbroadcastss 0x247f(%rip),%ymm10 # 4130 <_sk_callback_hsw+0x156>
+ .byte 196,98,125,24,21,92,36,0,0 // vbroadcastss 0x245c(%rip),%ymm10 # 40f0 <_sk_callback_hsw+0x156>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,114,36,0,0 // vbroadcastss 0x2472(%rip),%ymm10 # 4134 <_sk_callback_hsw+0x15a>
+ .byte 196,98,125,24,21,79,36,0,0 // vbroadcastss 0x244f(%rip),%ymm10 # 40f4 <_sk_callback_hsw+0x15a>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -9263,33 +9254,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,249,35,0,0 // vbroadcastss 0x23f9(%rip),%ymm12 # 4138 <_sk_callback_hsw+0x15e>
- .byte 196,98,125,24,45,244,35,0,0 // vbroadcastss 0x23f4(%rip),%ymm13 # 413c <_sk_callback_hsw+0x162>
+ .byte 196,98,125,24,37,214,35,0,0 // vbroadcastss 0x23d6(%rip),%ymm12 # 40f8 <_sk_callback_hsw+0x15e>
+ .byte 196,98,125,24,45,209,35,0,0 // vbroadcastss 0x23d1(%rip),%ymm13 # 40fc <_sk_callback_hsw+0x162>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,234,35,0,0 // vbroadcastss 0x23ea(%rip),%ymm13 # 4140 <_sk_callback_hsw+0x166>
+ .byte 196,98,125,24,45,199,35,0,0 // vbroadcastss 0x23c7(%rip),%ymm13 # 4100 <_sk_callback_hsw+0x166>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,224,35,0,0 // vbroadcastss 0x23e0(%rip),%ymm13 # 4144 <_sk_callback_hsw+0x16a>
+ .byte 196,98,125,24,45,189,35,0,0 // vbroadcastss 0x23bd(%rip),%ymm13 # 4104 <_sk_callback_hsw+0x16a>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,214,35,0,0 // vbroadcastss 0x23d6(%rip),%ymm11 # 4148 <_sk_callback_hsw+0x16e>
+ .byte 196,98,125,24,29,179,35,0,0 // vbroadcastss 0x23b3(%rip),%ymm11 # 4108 <_sk_callback_hsw+0x16e>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,204,35,0,0 // vbroadcastss 0x23cc(%rip),%ymm12 # 414c <_sk_callback_hsw+0x172>
+ .byte 196,98,125,24,37,169,35,0,0 // vbroadcastss 0x23a9(%rip),%ymm12 # 410c <_sk_callback_hsw+0x172>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,194,35,0,0 // vbroadcastss 0x23c2(%rip),%ymm12 # 4150 <_sk_callback_hsw+0x176>
+ .byte 196,98,125,24,37,159,35,0,0 // vbroadcastss 0x239f(%rip),%ymm12 # 4110 <_sk_callback_hsw+0x176>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,163,35,0,0 // vbroadcastss 0x23a3(%rip),%ymm11 # 4154 <_sk_callback_hsw+0x17a>
+ .byte 196,98,125,24,29,128,35,0,0 // vbroadcastss 0x2380(%rip),%ymm11 # 4114 <_sk_callback_hsw+0x17a>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,153,35,0,0 // vbroadcastss 0x2399(%rip),%ymm11 # 4158 <_sk_callback_hsw+0x17e>
+ .byte 196,98,125,24,29,118,35,0,0 // vbroadcastss 0x2376(%rip),%ymm11 # 4118 <_sk_callback_hsw+0x17e>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,143,35,0,0 // vbroadcastss 0x238f(%rip),%ymm1 # 415c <_sk_callback_hsw+0x182>
+ .byte 196,226,125,24,13,108,35,0,0 // vbroadcastss 0x236c(%rip),%ymm1 # 411c <_sk_callback_hsw+0x182>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,133,35,0,0 // vbroadcastss 0x2385(%rip),%ymm10 # 4160 <_sk_callback_hsw+0x186>
+ .byte 196,98,125,24,21,98,35,0,0 // vbroadcastss 0x2362(%rip),%ymm10 # 4120 <_sk_callback_hsw+0x186>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,120,35,0,0 // vbroadcastss 0x2378(%rip),%ymm10 # 4164 <_sk_callback_hsw+0x18a>
+ .byte 196,98,125,24,21,85,35,0,0 // vbroadcastss 0x2355(%rip),%ymm10 # 4124 <_sk_callback_hsw+0x18a>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -9319,33 +9310,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,255,34,0,0 // vbroadcastss 0x22ff(%rip),%ymm12 # 4168 <_sk_callback_hsw+0x18e>
- .byte 196,98,125,24,45,250,34,0,0 // vbroadcastss 0x22fa(%rip),%ymm13 # 416c <_sk_callback_hsw+0x192>
+ .byte 196,98,125,24,37,220,34,0,0 // vbroadcastss 0x22dc(%rip),%ymm12 # 4128 <_sk_callback_hsw+0x18e>
+ .byte 196,98,125,24,45,215,34,0,0 // vbroadcastss 0x22d7(%rip),%ymm13 # 412c <_sk_callback_hsw+0x192>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,240,34,0,0 // vbroadcastss 0x22f0(%rip),%ymm13 # 4170 <_sk_callback_hsw+0x196>
+ .byte 196,98,125,24,45,205,34,0,0 // vbroadcastss 0x22cd(%rip),%ymm13 # 4130 <_sk_callback_hsw+0x196>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,230,34,0,0 // vbroadcastss 0x22e6(%rip),%ymm13 # 4174 <_sk_callback_hsw+0x19a>
+ .byte 196,98,125,24,45,195,34,0,0 // vbroadcastss 0x22c3(%rip),%ymm13 # 4134 <_sk_callback_hsw+0x19a>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,220,34,0,0 // vbroadcastss 0x22dc(%rip),%ymm11 # 4178 <_sk_callback_hsw+0x19e>
+ .byte 196,98,125,24,29,185,34,0,0 // vbroadcastss 0x22b9(%rip),%ymm11 # 4138 <_sk_callback_hsw+0x19e>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,210,34,0,0 // vbroadcastss 0x22d2(%rip),%ymm12 # 417c <_sk_callback_hsw+0x1a2>
+ .byte 196,98,125,24,37,175,34,0,0 // vbroadcastss 0x22af(%rip),%ymm12 # 413c <_sk_callback_hsw+0x1a2>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,200,34,0,0 // vbroadcastss 0x22c8(%rip),%ymm12 # 4180 <_sk_callback_hsw+0x1a6>
+ .byte 196,98,125,24,37,165,34,0,0 // vbroadcastss 0x22a5(%rip),%ymm12 # 4140 <_sk_callback_hsw+0x1a6>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,169,34,0,0 // vbroadcastss 0x22a9(%rip),%ymm11 # 4184 <_sk_callback_hsw+0x1aa>
+ .byte 196,98,125,24,29,134,34,0,0 // vbroadcastss 0x2286(%rip),%ymm11 # 4144 <_sk_callback_hsw+0x1aa>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,159,34,0,0 // vbroadcastss 0x229f(%rip),%ymm11 # 4188 <_sk_callback_hsw+0x1ae>
+ .byte 196,98,125,24,29,124,34,0,0 // vbroadcastss 0x227c(%rip),%ymm11 # 4148 <_sk_callback_hsw+0x1ae>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,149,34,0,0 // vbroadcastss 0x2295(%rip),%ymm2 # 418c <_sk_callback_hsw+0x1b2>
+ .byte 196,226,125,24,21,114,34,0,0 // vbroadcastss 0x2272(%rip),%ymm2 # 414c <_sk_callback_hsw+0x1b2>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,139,34,0,0 // vbroadcastss 0x228b(%rip),%ymm10 # 4190 <_sk_callback_hsw+0x1b6>
+ .byte 196,98,125,24,21,104,34,0,0 // vbroadcastss 0x2268(%rip),%ymm10 # 4150 <_sk_callback_hsw+0x1b6>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,126,34,0,0 // vbroadcastss 0x227e(%rip),%ymm10 # 4194 <_sk_callback_hsw+0x1ba>
+ .byte 196,98,125,24,21,91,34,0,0 // vbroadcastss 0x225b(%rip),%ymm10 # 4154 <_sk_callback_hsw+0x1ba>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -9375,33 +9366,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,5,34,0,0 // vbroadcastss 0x2205(%rip),%ymm12 # 4198 <_sk_callback_hsw+0x1be>
- .byte 196,98,125,24,45,0,34,0,0 // vbroadcastss 0x2200(%rip),%ymm13 # 419c <_sk_callback_hsw+0x1c2>
+ .byte 196,98,125,24,37,226,33,0,0 // vbroadcastss 0x21e2(%rip),%ymm12 # 4158 <_sk_callback_hsw+0x1be>
+ .byte 196,98,125,24,45,221,33,0,0 // vbroadcastss 0x21dd(%rip),%ymm13 # 415c <_sk_callback_hsw+0x1c2>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,246,33,0,0 // vbroadcastss 0x21f6(%rip),%ymm13 # 41a0 <_sk_callback_hsw+0x1c6>
+ .byte 196,98,125,24,45,211,33,0,0 // vbroadcastss 0x21d3(%rip),%ymm13 # 4160 <_sk_callback_hsw+0x1c6>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,236,33,0,0 // vbroadcastss 0x21ec(%rip),%ymm13 # 41a4 <_sk_callback_hsw+0x1ca>
+ .byte 196,98,125,24,45,201,33,0,0 // vbroadcastss 0x21c9(%rip),%ymm13 # 4164 <_sk_callback_hsw+0x1ca>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,226,33,0,0 // vbroadcastss 0x21e2(%rip),%ymm11 # 41a8 <_sk_callback_hsw+0x1ce>
+ .byte 196,98,125,24,29,191,33,0,0 // vbroadcastss 0x21bf(%rip),%ymm11 # 4168 <_sk_callback_hsw+0x1ce>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,216,33,0,0 // vbroadcastss 0x21d8(%rip),%ymm12 # 41ac <_sk_callback_hsw+0x1d2>
+ .byte 196,98,125,24,37,181,33,0,0 // vbroadcastss 0x21b5(%rip),%ymm12 # 416c <_sk_callback_hsw+0x1d2>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,206,33,0,0 // vbroadcastss 0x21ce(%rip),%ymm12 # 41b0 <_sk_callback_hsw+0x1d6>
+ .byte 196,98,125,24,37,171,33,0,0 // vbroadcastss 0x21ab(%rip),%ymm12 # 4170 <_sk_callback_hsw+0x1d6>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,175,33,0,0 // vbroadcastss 0x21af(%rip),%ymm11 # 41b4 <_sk_callback_hsw+0x1da>
+ .byte 196,98,125,24,29,140,33,0,0 // vbroadcastss 0x218c(%rip),%ymm11 # 4174 <_sk_callback_hsw+0x1da>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,165,33,0,0 // vbroadcastss 0x21a5(%rip),%ymm11 # 41b8 <_sk_callback_hsw+0x1de>
+ .byte 196,98,125,24,29,130,33,0,0 // vbroadcastss 0x2182(%rip),%ymm11 # 4178 <_sk_callback_hsw+0x1de>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,155,33,0,0 // vbroadcastss 0x219b(%rip),%ymm3 # 41bc <_sk_callback_hsw+0x1e2>
+ .byte 196,226,125,24,29,120,33,0,0 // vbroadcastss 0x2178(%rip),%ymm3 # 417c <_sk_callback_hsw+0x1e2>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,145,33,0,0 // vbroadcastss 0x2191(%rip),%ymm10 # 41c0 <_sk_callback_hsw+0x1e6>
+ .byte 196,98,125,24,21,110,33,0,0 // vbroadcastss 0x216e(%rip),%ymm10 # 4180 <_sk_callback_hsw+0x1e6>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,132,33,0,0 // vbroadcastss 0x2184(%rip),%ymm10 # 41c4 <_sk_callback_hsw+0x1ea>
+ .byte 196,98,125,24,21,97,33,0,0 // vbroadcastss 0x2161(%rip),%ymm10 # 4184 <_sk_callback_hsw+0x1ea>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -9494,7 +9485,7 @@ _sk_load_a8_hsw:
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,50 // jne 21e9 <_sk_load_a8_hsw+0x42>
+ .byte 117,50 // jne 21cc <_sk_load_a8_hsw+0x42>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
@@ -9517,9 +9508,9 @@ _sk_load_a8_hsw:
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 21f1 <_sk_load_a8_hsw+0x4a>
+ .byte 117,234 // jne 21d4 <_sk_load_a8_hsw+0x4a>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,173 // jmp 21bb <_sk_load_a8_hsw+0x14>
+ .byte 235,173 // jmp 219e <_sk_load_a8_hsw+0x14>
HIDDEN _sk_gather_a8_hsw
.globl _sk_gather_a8_hsw
@@ -9594,7 +9585,7 @@ _sk_store_a8_hsw:
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 2326 <_sk_store_a8_hsw+0x3b>
+ .byte 117,10 // jne 2309 <_sk_store_a8_hsw+0x3b>
.byte 196,65,123,17,4,57 // vmovsd %xmm8,(%r9,%rdi,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -9602,10 +9593,10 @@ _sk_store_a8_hsw:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 2322 <_sk_store_a8_hsw+0x37>
+ .byte 119,236 // ja 2305 <_sk_store_a8_hsw+0x37>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 2388 <_sk_store_a8_hsw+0x9d>
+ .byte 76,141,5,67,0,0,0 // lea 0x43(%rip),%r8 # 236c <_sk_store_a8_hsw+0x9e>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -9616,26 +9607,27 @@ _sk_store_a8_hsw:
.byte 196,67,121,20,68,57,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rdi,1)
.byte 196,67,121,20,68,57,1,2 // vpextrb $0x2,%xmm8,0x1(%r9,%rdi,1)
.byte 196,67,121,20,4,57,0 // vpextrb $0x0,%xmm8,(%r9,%rdi,1)
- .byte 235,154 // jmp 2322 <_sk_store_a8_hsw+0x37>
- .byte 247,255 // idiv %edi
+ .byte 235,154 // jmp 2305 <_sk_store_a8_hsw+0x37>
+ .byte 144 // nop
+ .byte 246,255 // idiv %bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
+ .byte 238 // out %al,(%dx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
+ .byte 255,230 // jmpq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 223,255 // (bad)
+ .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
- .byte 255,215 // callq *%rdi
+ .byte 255,214 // callq *%rsi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,207 // dec %edi
+ .byte 255,206 // dec %esi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,199 // inc %edi
+ .byte 255,198 // inc %esi
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -9649,7 +9641,7 @@ _sk_load_g8_hsw:
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,60 // jne 23f0 <_sk_load_g8_hsw+0x4c>
+ .byte 117,60 // jne 23d4 <_sk_load_g8_hsw+0x4c>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
@@ -9674,9 +9666,9 @@ _sk_load_g8_hsw:
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 23f8 <_sk_load_g8_hsw+0x54>
+ .byte 117,234 // jne 23dc <_sk_load_g8_hsw+0x54>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,163 // jmp 23b8 <_sk_load_g8_hsw+0x14>
+ .byte 235,163 // jmp 239c <_sk_load_g8_hsw+0x14>
HIDDEN _sk_gather_g8_hsw
.globl _sk_gather_g8_hsw
@@ -9745,9 +9737,9 @@ _sk_gather_i8_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 250b <_sk_gather_i8_hsw+0xf>
+ .byte 116,5 // je 24ef <_sk_gather_i8_hsw+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 250d <_sk_gather_i8_hsw+0x11>
+ .byte 235,2 // jmp 24f1 <_sk_gather_i8_hsw+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,87 // push %r15
.byte 65,86 // push %r14
@@ -9785,21 +9777,16 @@ _sk_gather_i8_hsw:
.byte 73,139,64,8 // mov 0x8(%r8),%rax
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,226,117,144,28,128 // vpgatherdd %ymm1,(%rax,%ymm0,4),%ymm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,208 // vpbroadcastd %xmm0,%ymm2
- .byte 197,237,219,195 // vpand %ymm3,%ymm2,%ymm0
+ .byte 197,229,219,5,97,28,0,0 // vpand 0x1c61(%rip),%ymm3,%ymm0 # 4200 <_sk_callback_hsw+0x266>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
+ .byte 196,226,101,0,13,97,28,0,0 // vpshufb 0x1c61(%rip),%ymm3,%ymm1 # 4220 <_sk_callback_hsw+0x286>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
- .byte 196,193,109,219,209 // vpand %ymm9,%ymm2,%ymm2
+ .byte 196,226,101,0,21,111,28,0,0 // vpshufb 0x1c6f(%rip),%ymm3,%ymm2 # 4240 <_sk_callback_hsw+0x2a6>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -9820,7 +9807,7 @@ _sk_load_565_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,149,0,0,0 // jne 26bf <_sk_load_565_hsw+0xa3>
+ .byte 15,133,149,0,0,0 // jne 2698 <_sk_load_565_hsw+0xa3>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
.byte 184,0,248,0,0 // mov $0xf800,%eax
@@ -9860,9 +9847,9 @@ _sk_load_565_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,89,255,255,255 // ja 2630 <_sk_load_565_hsw+0x14>
+ .byte 15,135,89,255,255,255 // ja 2609 <_sk_load_565_hsw+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,74,0,0,0 // lea 0x4a(%rip),%r9 # 272c <_sk_load_565_hsw+0x110>
+ .byte 76,141,13,73,0,0,0 // lea 0x49(%rip),%r9 # 2704 <_sk_load_565_hsw+0x10f>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -9874,27 +9861,27 @@ _sk_load_565_hsw:
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,5,255,255,255 // jmpq 2630 <_sk_load_565_hsw+0x14>
- .byte 144 // nop
- .byte 243,255 // repz (bad)
+ .byte 233,5,255,255,255 // jmpq 2609 <_sk_load_565_hsw+0x14>
+ .byte 244 // hlt
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 2731 <_sk_load_565_hsw+0x115>
.byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
+ .byte 236 // in (%dx),%al
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,228 // jmpq *%rsp
.byte 255 // (bad)
- .byte 219,255 // (bad)
.byte 255 // (bad)
- .byte 255,211 // callq *%rbx
.byte 255 // (bad)
+ .byte 220,255 // fdivr %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,212 // callq *%rsp
.byte 255 // (bad)
- .byte 255,203 // dec %ebx
.byte 255 // (bad)
+ .byte 255,204 // dec %esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 191 // .byte 0xbf
+ .byte 255,192 // inc %eax
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10006,7 +9993,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 28f7 <_sk_store_565_hsw+0x6c>
+ .byte 117,10 // jne 28cf <_sk_store_565_hsw+0x6c>
.byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10014,9 +10001,9 @@ _sk_store_565_hsw:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 28f3 <_sk_store_565_hsw+0x68>
+ .byte 119,236 // ja 28cb <_sk_store_565_hsw+0x68>
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 2954 <_sk_store_565_hsw+0xc9>
+ .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 292c <_sk_store_565_hsw+0xc9>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -10027,7 +10014,7 @@ _sk_store_565_hsw:
.byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
.byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
.byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 28f3 <_sk_store_565_hsw+0x68>
+ .byte 235,159 // jmp 28cb <_sk_store_565_hsw+0x68>
.byte 247,255 // idiv %edi
.byte 255 // (bad)
.byte 255 // (bad)
@@ -10058,7 +10045,7 @@ _sk_load_4444_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,179,0,0,0 // jne 2a31 <_sk_load_4444_hsw+0xc1>
+ .byte 15,133,179,0,0,0 // jne 2a09 <_sk_load_4444_hsw+0xc1>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 184,0,240,0,0 // mov $0xf000,%eax
@@ -10104,9 +10091,9 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,59,255,255,255 // ja 2984 <_sk_load_4444_hsw+0x14>
+ .byte 15,135,59,255,255,255 // ja 295c <_sk_load_4444_hsw+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 2aa0 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 2a78 <_sk_load_4444_hsw+0x130>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -10118,13 +10105,13 @@ _sk_load_4444_hsw:
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,231,254,255,255 // jmpq 2984 <_sk_load_4444_hsw+0x14>
+ .byte 233,231,254,255,255 // jmpq 295c <_sk_load_4444_hsw+0x14>
.byte 15,31,0 // nopl (%rax)
.byte 241 // icebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2002aa8 <_sk_callback_hsw+0xffffffffe1ffeace>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2002a80 <_sk_callback_hsw+0xffffffffe1ffeae6>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -10256,7 +10243,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 2c8f <_sk_store_4444_hsw+0x72>
+ .byte 117,10 // jne 2c67 <_sk_store_4444_hsw+0x72>
.byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10264,9 +10251,9 @@ _sk_store_4444_hsw:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 2c8b <_sk_store_4444_hsw+0x6e>
+ .byte 119,236 // ja 2c63 <_sk_store_4444_hsw+0x6e>
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 2cec <_sk_store_4444_hsw+0xcf>
+ .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 2cc4 <_sk_store_4444_hsw+0xcf>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -10277,7 +10264,7 @@ _sk_store_4444_hsw:
.byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
.byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
.byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 2c8b <_sk_store_4444_hsw+0x6e>
+ .byte 235,159 // jmp 2c63 <_sk_store_4444_hsw+0x6e>
.byte 247,255 // idiv %edi
.byte 255 // (bad)
.byte 255 // (bad)
@@ -10310,23 +10297,18 @@ _sk_load_8888_hsw:
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 76,3,8 // add (%rax),%r9
.byte 77,133,192 // test %r8,%r8
- .byte 117,104 // jne 2d85 <_sk_load_8888_hsw+0x7d>
+ .byte 117,93 // jne 2d52 <_sk_load_8888_hsw+0x72>
.byte 196,193,126,111,25 // vmovdqu (%r9),%ymm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,208 // vpbroadcastd %xmm0,%ymm2
- .byte 197,237,219,195 // vpand %ymm3,%ymm2,%ymm0
+ .byte 197,229,219,5,94,21,0,0 // vpand 0x155e(%rip),%ymm3,%ymm0 # 4260 <_sk_callback_hsw+0x2c6>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
+ .byte 196,226,101,0,13,94,21,0,0 // vpshufb 0x155e(%rip),%ymm3,%ymm1 # 4280 <_sk_callback_hsw+0x2e6>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
- .byte 196,193,109,219,209 // vpand %ymm9,%ymm2,%ymm2
+ .byte 196,226,101,0,21,108,21,0,0 // vpshufb 0x156c(%rip),%ymm3,%ymm2 # 42a0 <_sk_callback_hsw+0x306>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -10343,7 +10325,7 @@ _sk_load_8888_hsw:
.byte 196,225,249,110,192 // vmovq %rax,%xmm0
.byte 196,226,125,33,192 // vpmovsxbd %xmm0,%ymm0
.byte 196,194,125,140,25 // vpmaskmovd (%r9),%ymm0,%ymm3
- .byte 233,116,255,255,255 // jmpq 2d22 <_sk_load_8888_hsw+0x1a>
+ .byte 235,130 // jmp 2cfa <_sk_load_8888_hsw+0x1a>
HIDDEN _sk_gather_8888_hsw
.globl _sk_gather_8888_hsw
@@ -10358,21 +10340,16 @@ _sk_gather_8888_hsw:
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,194,117,144,28,128 // vpgatherdd %ymm1,(%r8,%ymm0,4),%ymm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,226,125,88,208 // vpbroadcastd %xmm0,%ymm2
- .byte 197,237,219,195 // vpand %ymm3,%ymm2,%ymm0
+ .byte 197,229,219,5,26,21,0,0 // vpand 0x151a(%rip),%ymm3,%ymm0 # 42c0 <_sk_callback_hsw+0x326>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
+ .byte 196,226,101,0,13,26,21,0,0 // vpshufb 0x151a(%rip),%ymm3,%ymm1 # 42e0 <_sk_callback_hsw+0x346>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
- .byte 196,193,109,219,209 // vpand %ymm9,%ymm2,%ymm2
+ .byte 196,226,101,0,21,40,21,0,0 // vpshufb 0x1528(%rip),%ymm3,%ymm2 # 4300 <_sk_callback_hsw+0x366>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -10407,7 +10384,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,12 // jne 2ea8 <_sk_store_8888_hsw+0x74>
+ .byte 117,12 // jne 2e67 <_sk_store_8888_hsw+0x74>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,137,193 // mov %r8,%rcx
@@ -10420,7 +10397,7 @@ _sk_store_8888_hsw:
.byte 196,97,249,110,200 // vmovq %rax,%xmm9
.byte 196,66,125,33,201 // vpmovsxbd %xmm9,%ymm9
.byte 196,66,53,142,1 // vpmaskmovd %ymm8,%ymm9,(%r9)
- .byte 235,211 // jmp 2ea1 <_sk_store_8888_hsw+0x6d>
+ .byte 235,211 // jmp 2e60 <_sk_store_8888_hsw+0x6d>
HIDDEN _sk_load_f16_hsw
.globl _sk_load_f16_hsw
@@ -10429,7 +10406,7 @@ _sk_load_f16_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,97 // jne 2f39 <_sk_load_f16_hsw+0x6b>
+ .byte 117,97 // jne 2ef8 <_sk_load_f16_hsw+0x6b>
.byte 197,121,16,4,248 // vmovupd (%rax,%rdi,8),%xmm8
.byte 197,249,16,84,248,16 // vmovupd 0x10(%rax,%rdi,8),%xmm2
.byte 197,249,16,92,248,32 // vmovupd 0x20(%rax,%rdi,8),%xmm3
@@ -10455,29 +10432,29 @@ _sk_load_f16_hsw:
.byte 197,123,16,4,248 // vmovsd (%rax,%rdi,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,79 // je 2f98 <_sk_load_f16_hsw+0xca>
+ .byte 116,79 // je 2f57 <_sk_load_f16_hsw+0xca>
.byte 197,57,22,68,248,8 // vmovhpd 0x8(%rax,%rdi,8),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,67 // jb 2f98 <_sk_load_f16_hsw+0xca>
+ .byte 114,67 // jb 2f57 <_sk_load_f16_hsw+0xca>
.byte 197,251,16,84,248,16 // vmovsd 0x10(%rax,%rdi,8),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,68 // je 2fa5 <_sk_load_f16_hsw+0xd7>
+ .byte 116,68 // je 2f64 <_sk_load_f16_hsw+0xd7>
.byte 197,233,22,84,248,24 // vmovhpd 0x18(%rax,%rdi,8),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,56 // jb 2fa5 <_sk_load_f16_hsw+0xd7>
+ .byte 114,56 // jb 2f64 <_sk_load_f16_hsw+0xd7>
.byte 197,251,16,92,248,32 // vmovsd 0x20(%rax,%rdi,8),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,114,255,255,255 // je 2eef <_sk_load_f16_hsw+0x21>
+ .byte 15,132,114,255,255,255 // je 2eae <_sk_load_f16_hsw+0x21>
.byte 197,225,22,92,248,40 // vmovhpd 0x28(%rax,%rdi,8),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,98,255,255,255 // jb 2eef <_sk_load_f16_hsw+0x21>
+ .byte 15,130,98,255,255,255 // jb 2eae <_sk_load_f16_hsw+0x21>
.byte 197,122,126,76,248,48 // vmovq 0x30(%rax,%rdi,8),%xmm9
- .byte 233,87,255,255,255 // jmpq 2eef <_sk_load_f16_hsw+0x21>
+ .byte 233,87,255,255,255 // jmpq 2eae <_sk_load_f16_hsw+0x21>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,74,255,255,255 // jmpq 2eef <_sk_load_f16_hsw+0x21>
+ .byte 233,74,255,255,255 // jmpq 2eae <_sk_load_f16_hsw+0x21>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,65,255,255,255 // jmpq 2eef <_sk_load_f16_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq 2eae <_sk_load_f16_hsw+0x21>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -10535,7 +10512,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,27 // jne 309d <_sk_store_f16_hsw+0x65>
+ .byte 117,27 // jne 305c <_sk_store_f16_hsw+0x65>
.byte 197,120,17,28,248 // vmovups %xmm11,(%rax,%rdi,8)
.byte 197,120,17,84,248,16 // vmovups %xmm10,0x10(%rax,%rdi,8)
.byte 197,120,17,76,248,32 // vmovups %xmm9,0x20(%rax,%rdi,8)
@@ -10544,22 +10521,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 197,121,214,28,248 // vmovq %xmm11,(%rax,%rdi,8)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,241 // je 3099 <_sk_store_f16_hsw+0x61>
+ .byte 116,241 // je 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,23,92,248,8 // vmovhpd %xmm11,0x8(%rax,%rdi,8)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,229 // jb 3099 <_sk_store_f16_hsw+0x61>
+ .byte 114,229 // jb 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,214,84,248,16 // vmovq %xmm10,0x10(%rax,%rdi,8)
- .byte 116,221 // je 3099 <_sk_store_f16_hsw+0x61>
+ .byte 116,221 // je 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,23,84,248,24 // vmovhpd %xmm10,0x18(%rax,%rdi,8)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,209 // jb 3099 <_sk_store_f16_hsw+0x61>
+ .byte 114,209 // jb 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,214,76,248,32 // vmovq %xmm9,0x20(%rax,%rdi,8)
- .byte 116,201 // je 3099 <_sk_store_f16_hsw+0x61>
+ .byte 116,201 // je 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,23,76,248,40 // vmovhpd %xmm9,0x28(%rax,%rdi,8)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,189 // jb 3099 <_sk_store_f16_hsw+0x61>
+ .byte 114,189 // jb 3058 <_sk_store_f16_hsw+0x61>
.byte 197,121,214,68,248,48 // vmovq %xmm8,0x30(%rax,%rdi,8)
- .byte 235,181 // jmp 3099 <_sk_store_f16_hsw+0x61>
+ .byte 235,181 // jmp 3058 <_sk_store_f16_hsw+0x61>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -10569,7 +10546,7 @@ _sk_load_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,205,0,0,0 // jne 31c7 <_sk_load_u16_be_hsw+0xe3>
+ .byte 15,133,205,0,0,0 // jne 3186 <_sk_load_u16_be_hsw+0xe3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -10618,29 +10595,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 322d <_sk_load_u16_be_hsw+0x149>
+ .byte 116,85 // je 31ec <_sk_load_u16_be_hsw+0x149>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 322d <_sk_load_u16_be_hsw+0x149>
+ .byte 114,72 // jb 31ec <_sk_load_u16_be_hsw+0x149>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 323a <_sk_load_u16_be_hsw+0x156>
+ .byte 116,72 // je 31f9 <_sk_load_u16_be_hsw+0x156>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 323a <_sk_load_u16_be_hsw+0x156>
+ .byte 114,59 // jb 31f9 <_sk_load_u16_be_hsw+0x156>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,5,255,255,255 // je 3115 <_sk_load_u16_be_hsw+0x31>
+ .byte 15,132,5,255,255,255 // je 30d4 <_sk_load_u16_be_hsw+0x31>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,244,254,255,255 // jb 3115 <_sk_load_u16_be_hsw+0x31>
+ .byte 15,130,244,254,255,255 // jb 30d4 <_sk_load_u16_be_hsw+0x31>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,232,254,255,255 // jmpq 3115 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,232,254,255,255 // jmpq 30d4 <_sk_load_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,219,254,255,255 // jmpq 3115 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,219,254,255,255 // jmpq 30d4 <_sk_load_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,210,254,255,255 // jmpq 3115 <_sk_load_u16_be_hsw+0x31>
+ .byte 233,210,254,255,255 // jmpq 30d4 <_sk_load_u16_be_hsw+0x31>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -10650,7 +10627,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,127 // lea (%rdi,%rdi,2),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,211,0,0,0 // jne 3328 <_sk_load_rgb_u16_be_hsw+0xe5>
+ .byte 15,133,211,0,0,0 // jne 32e7 <_sk_load_rgb_u16_be_hsw+0xe5>
.byte 196,193,122,111,4,64 // vmovdqu (%r8,%rax,2),%xmm0
.byte 196,193,122,111,84,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm2
.byte 196,193,122,111,76,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm1
@@ -10700,36 +10677,36 @@ _sk_load_rgb_u16_be_hsw:
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,193,121,196,68,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 3341 <_sk_load_rgb_u16_be_hsw+0xfe>
- .byte 233,72,255,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,5 // jne 3300 <_sk_load_rgb_u16_be_hsw+0xfe>
+ .byte 233,72,255,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,76,64,6 // vmovd 0x6(%r8,%rax,2),%xmm1
.byte 196,65,113,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 3370 <_sk_load_rgb_u16_be_hsw+0x12d>
+ .byte 114,26 // jb 332f <_sk_load_rgb_u16_be_hsw+0x12d>
.byte 196,193,121,110,76,64,12 // vmovd 0xc(%r8,%rax,2),%xmm1
.byte 196,193,113,196,84,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 3375 <_sk_load_rgb_u16_be_hsw+0x132>
- .byte 233,25,255,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,20,255,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 3334 <_sk_load_rgb_u16_be_hsw+0x132>
+ .byte 233,25,255,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,20,255,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,76,64,18 // vmovd 0x12(%r8,%rax,2),%xmm1
.byte 196,65,113,196,76,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 33a4 <_sk_load_rgb_u16_be_hsw+0x161>
+ .byte 114,26 // jb 3363 <_sk_load_rgb_u16_be_hsw+0x161>
.byte 196,193,121,110,76,64,24 // vmovd 0x18(%r8,%rax,2),%xmm1
.byte 196,193,113,196,76,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 33a9 <_sk_load_rgb_u16_be_hsw+0x166>
- .byte 233,229,254,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,224,254,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 117,10 // jne 3368 <_sk_load_rgb_u16_be_hsw+0x166>
+ .byte 233,229,254,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,224,254,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
.byte 196,193,121,110,92,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm3
.byte 196,65,97,196,92,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 33d2 <_sk_load_rgb_u16_be_hsw+0x18f>
+ .byte 114,20 // jb 3391 <_sk_load_rgb_u16_be_hsw+0x18f>
.byte 196,193,121,110,92,64,36 // vmovd 0x24(%r8,%rax,2),%xmm3
.byte 196,193,97,196,92,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
- .byte 233,183,254,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
- .byte 233,178,254,255,255 // jmpq 3289 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,183,254,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
+ .byte 233,178,254,255,255 // jmpq 3248 <_sk_load_rgb_u16_be_hsw+0x46>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -10778,7 +10755,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,31 // jne 34d2 <_sk_store_u16_be_hsw+0xfb>
+ .byte 117,31 // jne 3491 <_sk_store_u16_be_hsw+0xfb>
.byte 196,1,120,17,28,72 // vmovups %xmm11,(%r8,%r9,2)
.byte 196,1,120,17,84,72,16 // vmovups %xmm10,0x10(%r8,%r9,2)
.byte 196,1,120,17,76,72,32 // vmovups %xmm9,0x20(%r8,%r9,2)
@@ -10787,22 +10764,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,214,28,72 // vmovq %xmm11,(%r8,%r9,2)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 116,240 // je 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,23,92,72,8 // vmovhpd %xmm11,0x8(%r8,%r9,2)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 114,227 // jb 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,214,84,72,16 // vmovq %xmm10,0x10(%r8,%r9,2)
- .byte 116,218 // je 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 116,218 // je 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,23,84,72,24 // vmovhpd %xmm10,0x18(%r8,%r9,2)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 114,205 // jb 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,214,76,72,32 // vmovq %xmm9,0x20(%r8,%r9,2)
- .byte 116,196 // je 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 116,196 // je 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,23,76,72,40 // vmovhpd %xmm9,0x28(%r8,%r9,2)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,183 // jb 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 114,183 // jb 348d <_sk_store_u16_be_hsw+0xf7>
.byte 196,1,121,214,68,72,48 // vmovq %xmm8,0x30(%r8,%r9,2)
- .byte 235,174 // jmp 34ce <_sk_store_u16_be_hsw+0xf7>
+ .byte 235,174 // jmp 348d <_sk_store_u16_be_hsw+0xf7>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -10810,10 +10787,10 @@ FUNCTION(_sk_load_f32_hsw)
_sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 119,110 // ja 3596 <_sk_load_f32_hsw+0x76>
+ .byte 119,110 // ja 3555 <_sk_load_f32_hsw+0x76>
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 35c0 <_sk_load_f32_hsw+0xa0>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 3580 <_sk_load_f32_hsw+0xa1>
.byte 73,99,4,138 // movslq (%r10,%rcx,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
@@ -10839,19 +10816,21 @@ _sk_load_f32_hsw:
.byte 196,193,101,21,216 // vunpckhpd %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 131,255,255 // cmp $0xffffffff,%edi
- .byte 255,202 // dec %edx
+ .byte 15,31,0 // nopl (%rax)
+ .byte 130 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 189,255,255,255,176 // mov $0xb0ffffff,%ebp
+ .byte 188,255,255,255,175 // mov $0xafffffff,%esp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx)
+ .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,147,255,255,255,139 // callq *-0x74000001(%rbx)
+ .byte 255,146,255,255,255,138 // callq *-0x75000001(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -10872,7 +10851,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,55 // jne 364d <_sk_store_f32_hsw+0x6d>
+ .byte 117,55 // jne 360d <_sk_store_f32_hsw+0x6d>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -10885,22 +10864,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 3649 <_sk_store_f32_hsw+0x69>
+ .byte 116,240 // je 3609 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 3649 <_sk_store_f32_hsw+0x69>
+ .byte 114,227 // jb 3609 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 3649 <_sk_store_f32_hsw+0x69>
+ .byte 116,218 // je 3609 <_sk_store_f32_hsw+0x69>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 3649 <_sk_store_f32_hsw+0x69>
+ .byte 114,205 // jb 3609 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 3649 <_sk_store_f32_hsw+0x69>
+ .byte 116,195 // je 3609 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,181 // jb 3649 <_sk_store_f32_hsw+0x69>
+ .byte 114,181 // jb 3609 <_sk_store_f32_hsw+0x69>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 3649 <_sk_store_f32_hsw+0x69>
+ .byte 235,171 // jmp 3609 <_sk_store_f32_hsw+0x69>
HIDDEN _sk_clamp_x_hsw
.globl _sk_clamp_x_hsw
@@ -11165,7 +11144,7 @@ _sk_linear_gradient_hsw:
.byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
.byte 76,139,0 // mov (%rax),%r8
.byte 77,133,192 // test %r8,%r8
- .byte 15,132,143,0,0,0 // je 3ad9 <_sk_linear_gradient_hsw+0xb5>
+ .byte 15,132,143,0,0,0 // je 3a99 <_sk_linear_gradient_hsw+0xb5>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
@@ -11192,8 +11171,8 @@ _sk_linear_gradient_hsw:
.byte 196,67,13,74,201,208 // vblendvps %ymm13,%ymm9,%ymm14,%ymm9
.byte 72,131,192,36 // add $0x24,%rax
.byte 73,255,200 // dec %r8
- .byte 117,140 // jne 3a63 <_sk_linear_gradient_hsw+0x3f>
- .byte 235,17 // jmp 3aea <_sk_linear_gradient_hsw+0xc6>
+ .byte 117,140 // jne 3a23 <_sk_linear_gradient_hsw+0x3f>
+ .byte 235,17 // jmp 3aaa <_sk_linear_gradient_hsw+0xc6>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
@@ -11623,10 +11602,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4110 <.literal4+0x10>
+ .byte 127,0 // jg 40d0 <.literal4+0x10>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4189 <.literal4+0x89>
+ .byte 119,115 // ja 4149 <.literal4+0x89>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11640,10 +11619,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4140 <.literal4+0x40>
+ .byte 127,0 // jg 4100 <.literal4+0x40>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 41b9 <.literal4+0xb9>
+ .byte 119,115 // ja 4179 <.literal4+0xb9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11657,10 +11636,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4170 <.literal4+0x70>
+ .byte 127,0 // jg 4130 <.literal4+0x70>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 41e9 <_sk_callback_hsw+0x20f>
+ .byte 119,115 // ja 41a9 <_sk_callback_hsw+0x20f>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11674,10 +11653,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 41a0 <.literal4+0xa0>
+ .byte 127,0 // jg 4160 <.literal4+0xa0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4219 <_sk_callback_hsw+0x23f>
+ .byte 119,115 // ja 41d9 <_sk_callback_hsw+0x23f>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -11689,6 +11668,234 @@ BALIGN4
.byte 65,0,0 // add %al,(%r8)
.byte 0 // .byte 0x0
.byte 75 // rex.WXB
+
+BALIGN32
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0041c8 <_sk_callback_hsw+0xa00022e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120041d0 <_sk_callback_hsw+0x12000236>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0041d8 <_sk_callback_hsw+0x1a00023e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30041e0 <_sk_callback_hsw+0x3000246>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,18 // callq *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,22 // callq *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,30 // lcall *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004228 <_sk_callback_hsw+0xa00028e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004230 <_sk_callback_hsw+0x12000296>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004238 <_sk_callback_hsw+0x1a00029e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004240 <_sk_callback_hsw+0x30002a6>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,18 // callq *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,22 // callq *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,30 // lcall *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004288 <_sk_callback_hsw+0xa0002ee>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12004290 <_sk_callback_hsw+0x120002f6>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a004298 <_sk_callback_hsw+0x1a0002fe>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30042a0 <_sk_callback_hsw+0x3000306>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,18 // callq *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,22 // callq *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,30 // lcall *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0042e8 <_sk_callback_hsw+0xa00034e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120042f0 <_sk_callback_hsw+0x12000356>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0042f8 <_sk_callback_hsw+0x1a00035e>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3004300 <_sk_callback_hsw+0x3000366>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,18 // callq *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,22 // callq *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,26 // lcall *(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,30 // lcall *(%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+BALIGN16
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
BALIGN32
HIDDEN _sk_start_pipeline_avx
@@ -11767,14 +11974,14 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,135,91,0,0 // vbroadcastss 0x5b87(%rip),%ymm1 # 5c50 <_sk_callback_avx+0x126>
+ .byte 196,226,125,24,13,11,91,0,0 // vbroadcastss 0x5b0b(%rip),%ymm1 # 5bd4 <_sk_callback_avx+0x126>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,88,2 // vaddps (%rdx),%ymm0,%ymm0
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,107,91,0,0 // vbroadcastss 0x5b6b(%rip),%ymm2 # 5c54 <_sk_callback_avx+0x12a>
+ .byte 196,226,125,24,21,239,90,0,0 // vbroadcastss 0x5aef(%rip),%ymm2 # 5bd8 <_sk_callback_avx+0x12a>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -13194,22 +13401,19 @@ HIDDEN _sk_load_tables_avx
.globl _sk_load_tables_avx
FUNCTION(_sk_load_tables_avx)
_sk_load_tables_avx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 72,133,201 // test %rcx,%rcx
+ .byte 15,133,37,2,0,0 // jne 17bb <_sk_load_tables_avx+0x233>
+ .byte 196,65,124,16,4,184 // vmovups (%r8,%rdi,4),%ymm8
.byte 85 // push %rbp
.byte 65,87 // push %r15
.byte 65,86 // push %r14
.byte 65,85 // push %r13
.byte 65,84 // push %r12
.byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,56,2,0,0 // jne 17d8 <_sk_load_tables_avx+0x250>
- .byte 196,65,124,16,4,184 // vmovups (%r8,%rdi,4),%ymm8
- .byte 187,255,0,0,0 // mov $0xff,%ebx
- .byte 197,249,110,195 // vmovd %ebx,%xmm0
- .byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm9
- .byte 196,193,52,84,192 // vandps %ymm8,%ymm9,%ymm0
+ .byte 197,124,40,13,50,71,0,0 // vmovaps 0x4732(%rip),%ymm9 # 5ce0 <_sk_callback_avx+0x232>
+ .byte 196,193,60,84,193 // vandps %ymm9,%ymm8,%ymm0
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
.byte 69,137,203 // mov %r9d,%r11d
.byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
@@ -13227,22 +13431,18 @@ _sk_load_tables_avx:
.byte 76,139,64,16 // mov 0x10(%rax),%r8
.byte 196,161,122,16,68,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm0
.byte 196,163,121,33,68,165,0,16 // vinsertps $0x10,0x0(%rbp,%r12,4),%xmm0,%xmm0
- .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 197,250,16,76,157,0 // vmovss 0x0(%rbp,%rbx,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
+ .byte 196,163,121,33,68,173,0,32 // vinsertps $0x20,0x0(%rbp,%r13,4),%xmm0,%xmm0
+ .byte 196,227,121,33,68,157,0,48 // vinsertps $0x30,0x0(%rbp,%rbx,4),%xmm0,%xmm0
.byte 196,161,122,16,76,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm1
.byte 196,163,113,33,76,141,0,16 // vinsertps $0x10,0x0(%rbp,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
+ .byte 196,163,113,33,76,181,0,32 // vinsertps $0x20,0x0(%rbp,%r14,4),%xmm1,%xmm1
+ .byte 196,163,113,33,76,149,0,48 // vinsertps $0x30,0x0(%rbp,%r10,4),%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
.byte 196,193,105,114,210,8 // vpsrld $0x8,%xmm10,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 197,180,84,201 // vandps %ymm1,%ymm9,%ymm1
+ .byte 196,193,116,84,201 // vandps %ymm9,%ymm1,%ymm1
.byte 196,193,249,126,201 // vmovq %xmm1,%r9
.byte 69,137,203 // mov %r9d,%r11d
.byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
@@ -13273,7 +13473,7 @@ _sk_load_tables_avx:
.byte 196,193,105,114,208,16 // vpsrld $0x10,%xmm8,%xmm2
.byte 196,193,97,114,210,16 // vpsrld $0x10,%xmm10,%xmm3
.byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 197,180,84,210 // vandps %ymm2,%ymm9,%ymm2
+ .byte 196,193,108,84,209 // vandps %ymm9,%ymm2,%ymm2
.byte 196,193,249,126,208 // vmovq %xmm2,%r8
.byte 69,137,194 // mov %r8d,%r10d
.byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
@@ -13317,17 +13517,17 @@ _sk_load_tables_avx:
.byte 65,95 // pop %r15
.byte 93 // pop %rbp
.byte 255,224 // jmpq *%rax
- .byte 137,203 // mov %ecx,%ebx
- .byte 128,227,7 // and $0x7,%bl
+ .byte 65,137,201 // mov %ecx,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 15,135,185,253,255,255 // ja 15a6 <_sk_load_tables_avx+0x1e>
- .byte 15,182,219 // movzbl %bl,%ebx
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 1880 <_sk_load_tables_avx+0x2f8>
- .byte 73,99,28,153 // movslq (%r9,%rbx,4),%rbx
- .byte 76,1,203 // add %r9,%rbx
- .byte 255,227 // jmpq *%rbx
+ .byte 65,254,201 // dec %r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 15,135,200,253,255,255 // ja 159c <_sk_load_tables_avx+0x14>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,141,0,0,0 // lea 0x8d(%rip),%r10 # 186c <_sk_load_tables_avx+0x2e4>
+ .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
+ .byte 77,1,209 // add %r10,%r9
+ .byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,68,184,24 // vmovd 0x18(%r8,%rdi,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -13347,24 +13547,25 @@ _sk_load_tables_avx:
.byte 196,99,61,12,192,15 // vblendps $0xf,%ymm0,%ymm8,%ymm8
.byte 196,195,57,34,4,184,0 // vpinsrd $0x0,(%r8,%rdi,4),%xmm8,%xmm0
.byte 196,99,61,12,192,15 // vblendps $0xf,%ymm0,%ymm8,%ymm8
- .byte 233,38,253,255,255 // jmpq 15a6 <_sk_load_tables_avx+0x1e>
- .byte 238 // out %al,(%dx)
+ .byte 233,51,253,255,255 // jmpq 159c <_sk_load_tables_avx+0x14>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 235,255 // jmp 186d <_sk_load_tables_avx+0x2e5>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
+ .byte 221,255 // (bad)
.byte 255 // (bad)
+ .byte 255,207 // dec %edi
.byte 255 // (bad)
- .byte 255,210 // callq *%rdx
.byte 255 // (bad)
+ .byte 255,193 // inc %ecx
.byte 255 // (bad)
- .byte 255,196 // inc %esp
.byte 255 // (bad)
+ .byte 255,173,255,255,255,153 // ljmp *-0x66000001(%rbp)
.byte 255 // (bad)
- .byte 255,176,255,255,255,156 // pushq -0x63000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 128,255,255 // cmp $0xff,%bh
+ .byte 125,255 // jge 1885 <_sk_load_tables_avx+0x2fd>
+ .byte 255 // (bad)
.byte 255 // .byte 0xff
HIDDEN _sk_load_tables_u16_be_avx
@@ -13375,7 +13576,7 @@ _sk_load_tables_u16_be_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,165,2,0,0 // jne 1b57 <_sk_load_tables_u16_be_avx+0x2bb>
+ .byte 15,133,125,2,0,0 // jne 1b1b <_sk_load_tables_u16_be_avx+0x293>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -13390,124 +13591,117 @@ _sk_load_tables_u16_be_avx:
.byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
.byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
.byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,218 // vpunpcklwd %xmm2,%xmm0,%xmm11
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,211 // vpunpckhwd %xmm3,%xmm1,%xmm10
- .byte 197,161,108,194 // vpunpcklqdq %xmm2,%xmm11,%xmm0
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,193,121,105,200 // vpunpckhwd %xmm8,%xmm0,%xmm1
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 187,255,0,0,0 // mov $0xff,%ebx
- .byte 197,249,110,203 // vmovd %ebx,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,225,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm12
- .byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 69,137,214 // mov %r10d,%r14d
+ .byte 197,121,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm9
+ .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
+ .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
+ .byte 197,113,105,227 // vpunpckhwd %xmm3,%xmm1,%xmm12
+ .byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
+ .byte 197,177,109,200 // vpunpckhqdq %xmm0,%xmm9,%xmm1
+ .byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
+ .byte 197,121,111,29,102,68,0,0 // vmovdqa 0x4466(%rip),%xmm11 # 5d60 <_sk_callback_avx+0x2b2>
+ .byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
+ .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
+ .byte 196,193,121,105,209 // vpunpckhwd %xmm9,%xmm0,%xmm2
+ .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 77,137,194 // mov %r8,%r10
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 196,193,249,126,196 // vmovq %xmm0,%r12
- .byte 69,137,231 // mov %r12d,%r15d
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,221 // mov %ebx,%r13d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 73,193,236,32 // shr $0x20,%r12
+ .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 69,137,195 // mov %r8d,%r11d
+ .byte 77,137,198 // mov %r8,%r14
+ .byte 73,193,238,32 // shr $0x20,%r14
+ .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
+ .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
+ .byte 65,137,223 // mov %ebx,%r15d
+ .byte 72,193,235,30 // shr $0x1e,%rbx
+ .byte 196,195,249,22,196,1 // vpextrq $0x1,%xmm0,%r12
+ .byte 69,137,229 // mov %r12d,%r13d
+ .byte 73,193,236,30 // shr $0x1e,%r12
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,161,122,16,68,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm0
- .byte 196,163,121,33,68,165,0,16 // vinsertps $0x10,0x0(%rbp,%r12,4),%xmm0,%xmm0
- .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 197,250,16,76,157,0 // vmovss 0x0(%rbp,%rbx,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 196,161,122,16,76,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm1
- .byte 196,163,113,33,76,141,0,16 // vinsertps $0x10,0x0(%rbp,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,161,109,202 // vpunpckhqdq %xmm2,%xmm11,%xmm1
- .byte 196,193,113,105,208 // vpunpckhwd %xmm8,%xmm1,%xmm2
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,225,249,126,205 // vmovq %xmm1,%rbp
- .byte 65,137,239 // mov %ebp,%r15d
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,220 // mov %ebx,%r12d
- .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,161,122,16,68,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm0
+ .byte 196,163,121,33,68,181,0,16 // vinsertps $0x10,0x0(%rbp,%r14,4),%xmm0,%xmm0
+ .byte 196,161,122,16,84,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm2
+ .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0
+ .byte 196,161,122,16,84,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm2
+ .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0
+ .byte 196,161,122,16,84,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm2
+ .byte 196,227,105,33,84,29,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,1),%xmm2,%xmm2
+ .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3
+ .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
+ .byte 196,161,122,16,92,37,0 // vmovss 0x0(%rbp,%r12,1),%xmm3
+ .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
+ .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
+ .byte 196,193,113,219,203 // vpand %xmm11,%xmm1,%xmm1
+ .byte 196,193,113,105,209 // vpunpckhwd %xmm9,%xmm1,%xmm2
+ .byte 196,227,249,22,213,1 // vpextrq $0x1,%xmm2,%rbp
+ .byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
- .byte 196,129,122,16,12,184 // vmovss (%r8,%r15,4),%xmm1
- .byte 196,195,113,33,12,168,16 // vinsertps $0x10,(%r8,%rbp,4),%xmm1,%xmm1
- .byte 196,129,122,16,20,160 // vmovss (%r8,%r12,4),%xmm2
+ .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
+ .byte 65,137,218 // mov %ebx,%r10d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
+ .byte 196,193,249,126,203 // vmovq %xmm1,%r11
+ .byte 69,137,222 // mov %r11d,%r14d
+ .byte 73,193,235,30 // shr $0x1e,%r11
+ .byte 196,195,249,22,207,1 // vpextrq $0x1,%xmm1,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,30 // shr $0x1e,%r15
+ .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
+ .byte 196,195,113,33,12,152,16 // vinsertps $0x10,(%r8,%rbx,4),%xmm1,%xmm1
+ .byte 196,129,122,16,20,136 // vmovss (%r8,%r9,4),%xmm2
.byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 196,193,122,16,20,152 // vmovss (%r8,%rbx,4),%xmm2
+ .byte 196,193,122,16,20,168 // vmovss (%r8,%rbp,4),%xmm2
.byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,129,122,16,20,152 // vmovss (%r8,%r11,4),%xmm2
- .byte 196,131,105,33,20,136,16 // vinsertps $0x10,(%r8,%r9,4),%xmm2,%xmm2
- .byte 196,129,122,16,28,176 // vmovss (%r8,%r14,4),%xmm3
+ .byte 196,129,122,16,20,176 // vmovss (%r8,%r14,4),%xmm2
+ .byte 196,131,105,33,20,24,16 // vinsertps $0x10,(%r8,%r11,1),%xmm2,%xmm2
+ .byte 196,129,122,16,28,160 // vmovss (%r8,%r12,4),%xmm3
.byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 196,129,122,16,28,144 // vmovss (%r8,%r10,4),%xmm3
+ .byte 196,129,122,16,28,56 // vmovss (%r8,%r15,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
.byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,49,108,210 // vpunpcklqdq %xmm10,%xmm9,%xmm2
- .byte 196,193,105,105,216 // vpunpckhwd %xmm8,%xmm2,%xmm3
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2
- .byte 196,225,249,126,213 // vmovq %xmm2,%rbp
- .byte 65,137,238 // mov %ebp,%r14d
- .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 76,139,80,24 // mov 0x18(%rax),%r10
+ .byte 196,193,41,219,211 // vpand %xmm11,%xmm10,%xmm2
+ .byte 196,193,105,105,217 // vpunpckhwd %xmm9,%xmm2,%xmm3
+ .byte 196,227,249,22,221,1 // vpextrq $0x1,%xmm3,%rbp
+ .byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,105,33,20,168,16 // vinsertps $0x10,(%rax,%rbp,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3
+ .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
+ .byte 65,137,217 // mov %ebx,%r9d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
+ .byte 196,225,249,126,208 // vmovq %xmm2,%rax
+ .byte 65,137,195 // mov %eax,%r11d
+ .byte 72,193,232,30 // shr $0x1e,%rax
+ .byte 196,195,249,22,214,1 // vpextrq $0x1,%xmm2,%r14
+ .byte 69,137,247 // mov %r14d,%r15d
+ .byte 73,193,238,30 // shr $0x1e,%r14
+ .byte 196,129,122,16,20,138 // vmovss (%r10,%r9,4),%xmm2
+ .byte 196,195,105,33,20,154,16 // vinsertps $0x10,(%r10,%rbx,4),%xmm2,%xmm2
+ .byte 196,129,122,16,28,130 // vmovss (%r10,%r8,4),%xmm3
.byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,99,105,33,219,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm11
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
+ .byte 196,193,122,16,28,170 // vmovss (%r10,%rbp,4),%xmm3
+ .byte 196,99,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm10
+ .byte 196,129,122,16,28,154 // vmovss (%r10,%r11,4),%xmm3
+ .byte 196,195,97,33,28,2,16 // vinsertps $0x10,(%r10,%rax,1),%xmm3,%xmm3
+ .byte 196,129,122,16,20,186 // vmovss (%r10,%r15,4),%xmm2
.byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
+ .byte 196,129,122,16,28,50 // vmovss (%r10,%r14,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 196,195,109,24,211,1 // vinsertf128 $0x1,%xmm11,%ymm2,%ymm2
+ .byte 196,195,109,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm2,%ymm2
.byte 184,128,0,128,55 // mov $0x37800080,%eax
.byte 197,249,110,216 // vmovd %eax,%xmm3
.byte 196,227,121,4,219,0 // vpermilps $0x0,%xmm3,%xmm3
- .byte 196,99,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm11
- .byte 196,193,49,109,218 // vpunpckhqdq %xmm10,%xmm9,%xmm3
- .byte 197,177,113,243,8 // vpsllw $0x8,%xmm3,%xmm9
+ .byte 196,99,101,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm10
+ .byte 196,193,57,109,220 // vpunpckhqdq %xmm12,%xmm8,%xmm3
+ .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
.byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,177,235,219 // vpor %xmm3,%xmm9,%xmm3
- .byte 196,65,97,105,192 // vpunpckhwd %xmm8,%xmm3,%xmm8
+ .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
+ .byte 196,65,97,105,193 // vpunpckhwd %xmm9,%xmm3,%xmm8
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,219 // vmulps %ymm11,%ymm3,%ymm3
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13519,29 +13713,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 1bbd <_sk_load_tables_u16_be_avx+0x321>
+ .byte 116,85 // je 1b81 <_sk_load_tables_u16_be_avx+0x2f9>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 1bbd <_sk_load_tables_u16_be_avx+0x321>
+ .byte 114,72 // jb 1b81 <_sk_load_tables_u16_be_avx+0x2f9>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 1bca <_sk_load_tables_u16_be_avx+0x32e>
+ .byte 116,72 // je 1b8e <_sk_load_tables_u16_be_avx+0x306>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 1bca <_sk_load_tables_u16_be_avx+0x32e>
+ .byte 114,59 // jb 1b8e <_sk_load_tables_u16_be_avx+0x306>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,45,253,255,255 // je 18cd <_sk_load_tables_u16_be_avx+0x31>
+ .byte 15,132,85,253,255,255 // je 18b9 <_sk_load_tables_u16_be_avx+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,28,253,255,255 // jb 18cd <_sk_load_tables_u16_be_avx+0x31>
+ .byte 15,130,68,253,255,255 // jb 18b9 <_sk_load_tables_u16_be_avx+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,16,253,255,255 // jmpq 18cd <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,56,253,255,255 // jmpq 18b9 <_sk_load_tables_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,3,253,255,255 // jmpq 18cd <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,43,253,255,255 // jmpq 18b9 <_sk_load_tables_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,250,252,255,255 // jmpq 18cd <_sk_load_tables_u16_be_avx+0x31>
+ .byte 233,34,253,255,255 // jmpq 18b9 <_sk_load_tables_u16_be_avx+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -13551,7 +13745,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,127 // lea (%rdi,%rdi,2),%r9
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,146,2,0,0 // jne 1e77 <_sk_load_tables_rgb_u16_be_avx+0x2a4>
+ .byte 15,133,105,2,0,0 // jne 1e12 <_sk_load_tables_rgb_u16_be_avx+0x27b>
.byte 196,129,122,111,4,72 // vmovdqu (%r8,%r9,2),%xmm0
.byte 196,129,122,111,84,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm2
.byte 196,129,122,111,76,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm1
@@ -13571,109 +13765,102 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,193,57,97,209 // vpunpcklwd %xmm9,%xmm8,%xmm2
.byte 197,241,97,203 // vpunpcklwd %xmm3,%xmm1,%xmm1
.byte 196,193,33,97,218 // vpunpcklwd %xmm10,%xmm11,%xmm3
- .byte 197,121,97,218 // vpunpcklwd %xmm2,%xmm0,%xmm11
- .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
+ .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
+ .byte 197,249,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm0
.byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,211 // vpunpckhwd %xmm3,%xmm1,%xmm10
- .byte 197,161,108,194 // vpunpcklqdq %xmm2,%xmm11,%xmm0
- .byte 196,65,25,239,228 // vpxor %xmm12,%xmm12,%xmm12
- .byte 196,193,121,105,204 // vpunpckhwd %xmm12,%xmm0,%xmm1
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 187,255,0,0,0 // mov $0xff,%ebx
- .byte 197,249,110,203 // vmovd %ebx,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm9
- .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 69,137,214 // mov %r10d,%r14d
+ .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3
+ .byte 197,185,108,202 // vpunpcklqdq %xmm2,%xmm8,%xmm1
+ .byte 197,185,109,210 // vpunpckhqdq %xmm2,%xmm8,%xmm2
+ .byte 197,121,108,195 // vpunpcklqdq %xmm3,%xmm0,%xmm8
+ .byte 197,121,111,13,83,65,0,0 // vmovdqa 0x4153(%rip),%xmm9 # 5d70 <_sk_callback_avx+0x2c2>
+ .byte 196,193,113,219,193 // vpand %xmm9,%xmm1,%xmm0
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 196,193,121,105,202 // vpunpckhwd %xmm10,%xmm0,%xmm1
+ .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 77,137,194 // mov %r8,%r10
.byte 73,193,234,32 // shr $0x20,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 196,193,249,126,196 // vmovq %xmm0,%r12
- .byte 69,137,231 // mov %r12d,%r15d
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,221 // mov %ebx,%r13d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 73,193,236,32 // shr $0x20,%r12
+ .byte 196,193,249,126,200 // vmovq %xmm1,%r8
+ .byte 69,137,195 // mov %r8d,%r11d
+ .byte 77,137,198 // mov %r8,%r14
+ .byte 73,193,238,32 // shr $0x20,%r14
+ .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
+ .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
+ .byte 65,137,223 // mov %ebx,%r15d
+ .byte 72,193,235,30 // shr $0x1e,%rbx
+ .byte 196,195,249,22,196,1 // vpextrq $0x1,%xmm0,%r12
+ .byte 69,137,229 // mov %r12d,%r13d
+ .byte 73,193,236,30 // shr $0x1e,%r12
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,161,122,16,68,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm0
- .byte 196,163,121,33,68,165,0,16 // vinsertps $0x10,0x0(%rbp,%r12,4),%xmm0,%xmm0
- .byte 196,161,122,16,76,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm1
+ .byte 196,161,122,16,68,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm0
+ .byte 196,163,121,33,68,181,0,16 // vinsertps $0x10,0x0(%rbp,%r14,4),%xmm0,%xmm0
+ .byte 196,161,122,16,76,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm1
.byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 197,250,16,76,157,0 // vmovss 0x0(%rbp,%rbx,4),%xmm1
+ .byte 196,161,122,16,76,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm1
.byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 196,161,122,16,76,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm1
- .byte 196,163,113,33,76,141,0,16 // vinsertps $0x10,0x0(%rbp,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,92,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm3
+ .byte 196,161,122,16,76,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm1
+ .byte 196,227,113,33,76,29,0,16 // vinsertps $0x10,0x0(%rbp,%rbx,1),%xmm1,%xmm1
+ .byte 196,161,122,16,92,173,0 // vmovss 0x0(%rbp,%r13,4),%xmm3
.byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 196,161,122,16,92,149,0 // vmovss 0x0(%rbp,%r10,4),%xmm3
+ .byte 196,161,122,16,92,37,0 // vmovss 0x0(%rbp,%r12,1),%xmm3
.byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,161,109,202 // vpunpckhqdq %xmm2,%xmm11,%xmm1
- .byte 196,193,113,105,212 // vpunpckhwd %xmm12,%xmm1,%xmm2
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,116,84,201 // vandps %ymm9,%ymm1,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,225,249,126,205 // vmovq %xmm1,%rbp
- .byte 65,137,239 // mov %ebp,%r15d
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,220 // mov %ebx,%r12d
- .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,105,219,201 // vpand %xmm9,%xmm2,%xmm1
+ .byte 196,193,113,105,210 // vpunpckhwd %xmm10,%xmm1,%xmm2
+ .byte 196,227,249,22,213,1 // vpextrq $0x1,%xmm2,%rbp
+ .byte 65,137,233 // mov %ebp,%r9d
.byte 72,193,237,32 // shr $0x20,%rbp
- .byte 196,129,122,16,12,184 // vmovss (%r8,%r15,4),%xmm1
- .byte 196,195,113,33,12,168,16 // vinsertps $0x10,(%r8,%rbp,4),%xmm1,%xmm1
- .byte 196,129,122,16,20,160 // vmovss (%r8,%r12,4),%xmm2
+ .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
+ .byte 65,137,218 // mov %ebx,%r10d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
+ .byte 196,193,249,126,203 // vmovq %xmm1,%r11
+ .byte 69,137,222 // mov %r11d,%r14d
+ .byte 73,193,235,30 // shr $0x1e,%r11
+ .byte 196,195,249,22,207,1 // vpextrq $0x1,%xmm1,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,30 // shr $0x1e,%r15
+ .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
+ .byte 196,195,113,33,12,152,16 // vinsertps $0x10,(%r8,%rbx,4),%xmm1,%xmm1
+ .byte 196,129,122,16,20,136 // vmovss (%r8,%r9,4),%xmm2
.byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 196,193,122,16,20,152 // vmovss (%r8,%rbx,4),%xmm2
+ .byte 196,193,122,16,20,168 // vmovss (%r8,%rbp,4),%xmm2
.byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,129,122,16,20,152 // vmovss (%r8,%r11,4),%xmm2
- .byte 196,131,105,33,20,136,16 // vinsertps $0x10,(%r8,%r9,4),%xmm2,%xmm2
- .byte 196,129,122,16,28,176 // vmovss (%r8,%r14,4),%xmm3
+ .byte 196,129,122,16,20,176 // vmovss (%r8,%r14,4),%xmm2
+ .byte 196,131,105,33,20,24,16 // vinsertps $0x10,(%r8,%r11,1),%xmm2,%xmm2
+ .byte 196,129,122,16,28,160 // vmovss (%r8,%r12,4),%xmm3
.byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 196,129,122,16,28,144 // vmovss (%r8,%r10,4),%xmm3
+ .byte 196,129,122,16,28,56 // vmovss (%r8,%r15,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
.byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,57,108,210 // vpunpcklqdq %xmm10,%xmm8,%xmm2
- .byte 196,193,105,105,220 // vpunpckhwd %xmm12,%xmm2,%xmm3
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,193,108,84,209 // vandps %ymm9,%ymm2,%ymm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
- .byte 69,137,203 // mov %r9d,%r11d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2
- .byte 196,225,249,126,213 // vmovq %xmm2,%rbp
- .byte 65,137,238 // mov %ebp,%r14d
- .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 76,139,80,24 // mov 0x18(%rax),%r10
+ .byte 196,193,57,219,209 // vpand %xmm9,%xmm8,%xmm2
+ .byte 196,193,105,105,218 // vpunpckhwd %xmm10,%xmm2,%xmm3
+ .byte 196,227,249,22,221,1 // vpextrq $0x1,%xmm3,%rbp
+ .byte 65,137,232 // mov %ebp,%r8d
.byte 72,193,237,32 // shr $0x20,%rbp
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,105,33,20,168,16 // vinsertps $0x10,(%rax,%rbp,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3
+ .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
+ .byte 65,137,217 // mov %ebx,%r9d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
+ .byte 196,225,249,126,208 // vmovq %xmm2,%rax
+ .byte 65,137,195 // mov %eax,%r11d
+ .byte 72,193,232,30 // shr $0x1e,%rax
+ .byte 196,195,249,22,214,1 // vpextrq $0x1,%xmm2,%r14
+ .byte 69,137,247 // mov %r14d,%r15d
+ .byte 73,193,238,30 // shr $0x1e,%r14
+ .byte 196,129,122,16,20,138 // vmovss (%r10,%r9,4),%xmm2
+ .byte 196,195,105,33,20,154,16 // vinsertps $0x10,(%r10,%rbx,4),%xmm2,%xmm2
+ .byte 196,129,122,16,28,130 // vmovss (%r10,%r8,4),%xmm3
.byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
+ .byte 196,193,122,16,28,170 // vmovss (%r10,%rbp,4),%xmm3
.byte 196,99,105,33,195,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm8
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
+ .byte 196,129,122,16,28,154 // vmovss (%r10,%r11,4),%xmm3
+ .byte 196,195,97,33,28,2,16 // vinsertps $0x10,(%r10,%rax,1),%xmm3,%xmm3
+ .byte 196,129,122,16,20,186 // vmovss (%r10,%r15,4),%xmm2
.byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
+ .byte 196,129,122,16,28,50 // vmovss (%r10,%r14,1),%xmm3
.byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
.byte 196,195,109,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm2
.byte 184,0,0,128,63 // mov $0x3f800000,%eax
@@ -13691,36 +13878,36 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,129,121,196,68,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 1e90 <_sk_load_tables_rgb_u16_be_avx+0x2bd>
- .byte 233,137,253,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,5 // jne 1e2b <_sk_load_tables_rgb_u16_be_avx+0x294>
+ .byte 233,178,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,76,72,6 // vmovd 0x6(%r8,%r9,2),%xmm1
.byte 196,1,113,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 1ebf <_sk_load_tables_rgb_u16_be_avx+0x2ec>
+ .byte 114,26 // jb 1e5a <_sk_load_tables_rgb_u16_be_avx+0x2c3>
.byte 196,129,121,110,76,72,12 // vmovd 0xc(%r8,%r9,2),%xmm1
.byte 196,129,113,196,84,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 1ec4 <_sk_load_tables_rgb_u16_be_avx+0x2f1>
- .byte 233,90,253,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,85,253,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 1e5f <_sk_load_tables_rgb_u16_be_avx+0x2c8>
+ .byte 233,131,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,126,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,76,72,18 // vmovd 0x12(%r8,%r9,2),%xmm1
.byte 196,1,113,196,76,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 1ef3 <_sk_load_tables_rgb_u16_be_avx+0x320>
+ .byte 114,26 // jb 1e8e <_sk_load_tables_rgb_u16_be_avx+0x2f7>
.byte 196,129,121,110,76,72,24 // vmovd 0x18(%r8,%r9,2),%xmm1
.byte 196,129,113,196,76,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 1ef8 <_sk_load_tables_rgb_u16_be_avx+0x325>
- .byte 233,38,253,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,33,253,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 1e93 <_sk_load_tables_rgb_u16_be_avx+0x2fc>
+ .byte 233,79,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,74,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
.byte 196,129,121,110,92,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm3
.byte 196,1,97,196,92,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 1f21 <_sk_load_tables_rgb_u16_be_avx+0x34e>
+ .byte 114,20 // jb 1ebc <_sk_load_tables_rgb_u16_be_avx+0x325>
.byte 196,129,121,110,92,72,36 // vmovd 0x24(%r8,%r9,2),%xmm3
.byte 196,129,97,196,92,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 233,248,252,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
- .byte 233,243,252,255,255 // jmpq 1c19 <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,33,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
+ .byte 233,28,253,255,255 // jmpq 1bdd <_sk_load_tables_rgb_u16_be_avx+0x46>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
@@ -14238,36 +14425,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,198,52,0,0 // vbroadcastss 0x34c6(%rip),%ymm12 # 5c58 <_sk_callback_avx+0x12e>
+ .byte 196,98,125,24,37,175,52,0,0 // vbroadcastss 0x34af(%rip),%ymm12 # 5bdc <_sk_callback_avx+0x12e>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,188,52,0,0 // vbroadcastss 0x34bc(%rip),%ymm12 # 5c5c <_sk_callback_avx+0x132>
+ .byte 196,98,125,24,37,165,52,0,0 // vbroadcastss 0x34a5(%rip),%ymm12 # 5be0 <_sk_callback_avx+0x132>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,178,52,0,0 // vbroadcastss 0x34b2(%rip),%ymm12 # 5c60 <_sk_callback_avx+0x136>
+ .byte 196,98,125,24,37,155,52,0,0 // vbroadcastss 0x349b(%rip),%ymm12 # 5be4 <_sk_callback_avx+0x136>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,168,52,0,0 // vbroadcastss 0x34a8(%rip),%ymm12 # 5c64 <_sk_callback_avx+0x13a>
+ .byte 196,98,125,24,37,145,52,0,0 // vbroadcastss 0x3491(%rip),%ymm12 # 5be8 <_sk_callback_avx+0x13a>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,158,52,0,0 // vbroadcastss 0x349e(%rip),%ymm12 # 5c68 <_sk_callback_avx+0x13e>
+ .byte 196,98,125,24,37,135,52,0,0 // vbroadcastss 0x3487(%rip),%ymm12 # 5bec <_sk_callback_avx+0x13e>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,143,52,0,0 // vbroadcastss 0x348f(%rip),%ymm12 # 5c6c <_sk_callback_avx+0x142>
+ .byte 196,98,125,24,37,120,52,0,0 // vbroadcastss 0x3478(%rip),%ymm12 # 5bf0 <_sk_callback_avx+0x142>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,133,52,0,0 // vbroadcastss 0x3485(%rip),%ymm12 # 5c70 <_sk_callback_avx+0x146>
+ .byte 196,98,125,24,37,110,52,0,0 // vbroadcastss 0x346e(%rip),%ymm12 # 5bf4 <_sk_callback_avx+0x146>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,105,52,0,0 // vbroadcastss 0x3469(%rip),%ymm11 # 5c74 <_sk_callback_avx+0x14a>
+ .byte 196,98,125,24,29,82,52,0,0 // vbroadcastss 0x3452(%rip),%ymm11 # 5bf8 <_sk_callback_avx+0x14a>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,95,52,0,0 // vbroadcastss 0x345f(%rip),%ymm11 # 5c78 <_sk_callback_avx+0x14e>
+ .byte 196,98,125,24,29,72,52,0,0 // vbroadcastss 0x3448(%rip),%ymm11 # 5bfc <_sk_callback_avx+0x14e>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,80,52,0,0 // vbroadcastss 0x3450(%rip),%ymm11 # 5c7c <_sk_callback_avx+0x152>
+ .byte 196,98,125,24,29,57,52,0,0 // vbroadcastss 0x3439(%rip),%ymm11 # 5c00 <_sk_callback_avx+0x152>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,70,52,0,0 // vbroadcastss 0x3446(%rip),%ymm11 # 5c80 <_sk_callback_avx+0x156>
+ .byte 196,98,125,24,29,47,52,0,0 // vbroadcastss 0x342f(%rip),%ymm11 # 5c04 <_sk_callback_avx+0x156>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,55,52,0,0 // vbroadcastss 0x3437(%rip),%ymm10 # 5c84 <_sk_callback_avx+0x15a>
+ .byte 196,98,125,24,21,32,52,0,0 // vbroadcastss 0x3420(%rip),%ymm10 # 5c08 <_sk_callback_avx+0x15a>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -14300,36 +14487,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,176,51,0,0 // vbroadcastss 0x33b0(%rip),%ymm12 # 5c88 <_sk_callback_avx+0x15e>
+ .byte 196,98,125,24,37,153,51,0,0 // vbroadcastss 0x3399(%rip),%ymm12 # 5c0c <_sk_callback_avx+0x15e>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,166,51,0,0 // vbroadcastss 0x33a6(%rip),%ymm12 # 5c8c <_sk_callback_avx+0x162>
+ .byte 196,98,125,24,37,143,51,0,0 // vbroadcastss 0x338f(%rip),%ymm12 # 5c10 <_sk_callback_avx+0x162>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,156,51,0,0 // vbroadcastss 0x339c(%rip),%ymm12 # 5c90 <_sk_callback_avx+0x166>
+ .byte 196,98,125,24,37,133,51,0,0 // vbroadcastss 0x3385(%rip),%ymm12 # 5c14 <_sk_callback_avx+0x166>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,146,51,0,0 // vbroadcastss 0x3392(%rip),%ymm12 # 5c94 <_sk_callback_avx+0x16a>
+ .byte 196,98,125,24,37,123,51,0,0 // vbroadcastss 0x337b(%rip),%ymm12 # 5c18 <_sk_callback_avx+0x16a>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,136,51,0,0 // vbroadcastss 0x3388(%rip),%ymm12 # 5c98 <_sk_callback_avx+0x16e>
+ .byte 196,98,125,24,37,113,51,0,0 // vbroadcastss 0x3371(%rip),%ymm12 # 5c1c <_sk_callback_avx+0x16e>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,121,51,0,0 // vbroadcastss 0x3379(%rip),%ymm12 # 5c9c <_sk_callback_avx+0x172>
+ .byte 196,98,125,24,37,98,51,0,0 // vbroadcastss 0x3362(%rip),%ymm12 # 5c20 <_sk_callback_avx+0x172>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,111,51,0,0 // vbroadcastss 0x336f(%rip),%ymm12 # 5ca0 <_sk_callback_avx+0x176>
+ .byte 196,98,125,24,37,88,51,0,0 // vbroadcastss 0x3358(%rip),%ymm12 # 5c24 <_sk_callback_avx+0x176>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,83,51,0,0 // vbroadcastss 0x3353(%rip),%ymm11 # 5ca4 <_sk_callback_avx+0x17a>
+ .byte 196,98,125,24,29,60,51,0,0 // vbroadcastss 0x333c(%rip),%ymm11 # 5c28 <_sk_callback_avx+0x17a>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,73,51,0,0 // vbroadcastss 0x3349(%rip),%ymm11 # 5ca8 <_sk_callback_avx+0x17e>
+ .byte 196,98,125,24,29,50,51,0,0 // vbroadcastss 0x3332(%rip),%ymm11 # 5c2c <_sk_callback_avx+0x17e>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,58,51,0,0 // vbroadcastss 0x333a(%rip),%ymm11 # 5cac <_sk_callback_avx+0x182>
+ .byte 196,98,125,24,29,35,51,0,0 // vbroadcastss 0x3323(%rip),%ymm11 # 5c30 <_sk_callback_avx+0x182>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,48,51,0,0 // vbroadcastss 0x3330(%rip),%ymm11 # 5cb0 <_sk_callback_avx+0x186>
+ .byte 196,98,125,24,29,25,51,0,0 // vbroadcastss 0x3319(%rip),%ymm11 # 5c34 <_sk_callback_avx+0x186>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,33,51,0,0 // vbroadcastss 0x3321(%rip),%ymm10 # 5cb4 <_sk_callback_avx+0x18a>
+ .byte 196,98,125,24,21,10,51,0,0 // vbroadcastss 0x330a(%rip),%ymm10 # 5c38 <_sk_callback_avx+0x18a>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -14362,36 +14549,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,154,50,0,0 // vbroadcastss 0x329a(%rip),%ymm12 # 5cb8 <_sk_callback_avx+0x18e>
+ .byte 196,98,125,24,37,131,50,0,0 // vbroadcastss 0x3283(%rip),%ymm12 # 5c3c <_sk_callback_avx+0x18e>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,144,50,0,0 // vbroadcastss 0x3290(%rip),%ymm12 # 5cbc <_sk_callback_avx+0x192>
+ .byte 196,98,125,24,37,121,50,0,0 // vbroadcastss 0x3279(%rip),%ymm12 # 5c40 <_sk_callback_avx+0x192>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,134,50,0,0 // vbroadcastss 0x3286(%rip),%ymm12 # 5cc0 <_sk_callback_avx+0x196>
+ .byte 196,98,125,24,37,111,50,0,0 // vbroadcastss 0x326f(%rip),%ymm12 # 5c44 <_sk_callback_avx+0x196>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,124,50,0,0 // vbroadcastss 0x327c(%rip),%ymm12 # 5cc4 <_sk_callback_avx+0x19a>
+ .byte 196,98,125,24,37,101,50,0,0 // vbroadcastss 0x3265(%rip),%ymm12 # 5c48 <_sk_callback_avx+0x19a>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,114,50,0,0 // vbroadcastss 0x3272(%rip),%ymm12 # 5cc8 <_sk_callback_avx+0x19e>
+ .byte 196,98,125,24,37,91,50,0,0 // vbroadcastss 0x325b(%rip),%ymm12 # 5c4c <_sk_callback_avx+0x19e>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,99,50,0,0 // vbroadcastss 0x3263(%rip),%ymm12 # 5ccc <_sk_callback_avx+0x1a2>
+ .byte 196,98,125,24,37,76,50,0,0 // vbroadcastss 0x324c(%rip),%ymm12 # 5c50 <_sk_callback_avx+0x1a2>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,89,50,0,0 // vbroadcastss 0x3259(%rip),%ymm12 # 5cd0 <_sk_callback_avx+0x1a6>
+ .byte 196,98,125,24,37,66,50,0,0 // vbroadcastss 0x3242(%rip),%ymm12 # 5c54 <_sk_callback_avx+0x1a6>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,61,50,0,0 // vbroadcastss 0x323d(%rip),%ymm11 # 5cd4 <_sk_callback_avx+0x1aa>
+ .byte 196,98,125,24,29,38,50,0,0 // vbroadcastss 0x3226(%rip),%ymm11 # 5c58 <_sk_callback_avx+0x1aa>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,51,50,0,0 // vbroadcastss 0x3233(%rip),%ymm11 # 5cd8 <_sk_callback_avx+0x1ae>
+ .byte 196,98,125,24,29,28,50,0,0 // vbroadcastss 0x321c(%rip),%ymm11 # 5c5c <_sk_callback_avx+0x1ae>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,36,50,0,0 // vbroadcastss 0x3224(%rip),%ymm11 # 5cdc <_sk_callback_avx+0x1b2>
+ .byte 196,98,125,24,29,13,50,0,0 // vbroadcastss 0x320d(%rip),%ymm11 # 5c60 <_sk_callback_avx+0x1b2>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,26,50,0,0 // vbroadcastss 0x321a(%rip),%ymm11 # 5ce0 <_sk_callback_avx+0x1b6>
+ .byte 196,98,125,24,29,3,50,0,0 // vbroadcastss 0x3203(%rip),%ymm11 # 5c64 <_sk_callback_avx+0x1b6>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,11,50,0,0 // vbroadcastss 0x320b(%rip),%ymm10 # 5ce4 <_sk_callback_avx+0x1ba>
+ .byte 196,98,125,24,21,244,49,0,0 // vbroadcastss 0x31f4(%rip),%ymm10 # 5c68 <_sk_callback_avx+0x1ba>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -14424,36 +14611,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,132,49,0,0 // vbroadcastss 0x3184(%rip),%ymm12 # 5ce8 <_sk_callback_avx+0x1be>
+ .byte 196,98,125,24,37,109,49,0,0 // vbroadcastss 0x316d(%rip),%ymm12 # 5c6c <_sk_callback_avx+0x1be>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,122,49,0,0 // vbroadcastss 0x317a(%rip),%ymm12 # 5cec <_sk_callback_avx+0x1c2>
+ .byte 196,98,125,24,37,99,49,0,0 // vbroadcastss 0x3163(%rip),%ymm12 # 5c70 <_sk_callback_avx+0x1c2>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,112,49,0,0 // vbroadcastss 0x3170(%rip),%ymm12 # 5cf0 <_sk_callback_avx+0x1c6>
+ .byte 196,98,125,24,37,89,49,0,0 // vbroadcastss 0x3159(%rip),%ymm12 # 5c74 <_sk_callback_avx+0x1c6>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,102,49,0,0 // vbroadcastss 0x3166(%rip),%ymm12 # 5cf4 <_sk_callback_avx+0x1ca>
+ .byte 196,98,125,24,37,79,49,0,0 // vbroadcastss 0x314f(%rip),%ymm12 # 5c78 <_sk_callback_avx+0x1ca>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,92,49,0,0 // vbroadcastss 0x315c(%rip),%ymm12 # 5cf8 <_sk_callback_avx+0x1ce>
+ .byte 196,98,125,24,37,69,49,0,0 // vbroadcastss 0x3145(%rip),%ymm12 # 5c7c <_sk_callback_avx+0x1ce>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,77,49,0,0 // vbroadcastss 0x314d(%rip),%ymm12 # 5cfc <_sk_callback_avx+0x1d2>
+ .byte 196,98,125,24,37,54,49,0,0 // vbroadcastss 0x3136(%rip),%ymm12 # 5c80 <_sk_callback_avx+0x1d2>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,67,49,0,0 // vbroadcastss 0x3143(%rip),%ymm12 # 5d00 <_sk_callback_avx+0x1d6>
+ .byte 196,98,125,24,37,44,49,0,0 // vbroadcastss 0x312c(%rip),%ymm12 # 5c84 <_sk_callback_avx+0x1d6>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,39,49,0,0 // vbroadcastss 0x3127(%rip),%ymm11 # 5d04 <_sk_callback_avx+0x1da>
+ .byte 196,98,125,24,29,16,49,0,0 // vbroadcastss 0x3110(%rip),%ymm11 # 5c88 <_sk_callback_avx+0x1da>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,29,49,0,0 // vbroadcastss 0x311d(%rip),%ymm11 # 5d08 <_sk_callback_avx+0x1de>
+ .byte 196,98,125,24,29,6,49,0,0 // vbroadcastss 0x3106(%rip),%ymm11 # 5c8c <_sk_callback_avx+0x1de>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,14,49,0,0 // vbroadcastss 0x310e(%rip),%ymm11 # 5d0c <_sk_callback_avx+0x1e2>
+ .byte 196,98,125,24,29,247,48,0,0 // vbroadcastss 0x30f7(%rip),%ymm11 # 5c90 <_sk_callback_avx+0x1e2>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,4,49,0,0 // vbroadcastss 0x3104(%rip),%ymm11 # 5d10 <_sk_callback_avx+0x1e6>
+ .byte 196,98,125,24,29,237,48,0,0 // vbroadcastss 0x30ed(%rip),%ymm11 # 5c94 <_sk_callback_avx+0x1e6>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,245,48,0,0 // vbroadcastss 0x30f5(%rip),%ymm10 # 5d14 <_sk_callback_avx+0x1ea>
+ .byte 196,98,125,24,21,222,48,0,0 // vbroadcastss 0x30de(%rip),%ymm10 # 5c98 <_sk_callback_avx+0x1ea>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -14564,7 +14751,7 @@ _sk_load_a8_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,74 // jne 2e44 <_sk_load_a8_avx+0x5a>
+ .byte 117,74 // jne 2ddf <_sk_load_a8_avx+0x5a>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,121,49,200 // vpmovzxbd %xmm0,%xmm1
.byte 196,227,121,4,192,229 // vpermilps $0xe5,%xmm0,%xmm0
@@ -14591,9 +14778,9 @@ _sk_load_a8_avx:
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 2e4c <_sk_load_a8_avx+0x62>
+ .byte 117,234 // jne 2de7 <_sk_load_a8_avx+0x62>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,149 // jmp 2dfe <_sk_load_a8_avx+0x14>
+ .byte 235,149 // jmp 2d99 <_sk_load_a8_avx+0x14>
HIDDEN _sk_gather_a8_avx
.globl _sk_gather_a8_avx
@@ -14674,7 +14861,7 @@ _sk_store_a8_avx:
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 196,65,57,103,192 // vpackuswb %xmm8,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 2fa5 <_sk_store_a8_avx+0x42>
+ .byte 117,10 // jne 2f40 <_sk_store_a8_avx+0x42>
.byte 196,65,123,17,4,57 // vmovsd %xmm8,(%r9,%rdi,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14682,10 +14869,10 @@ _sk_store_a8_avx:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 2fa1 <_sk_store_a8_avx+0x3e>
+ .byte 119,236 // ja 2f3c <_sk_store_a8_avx+0x3e>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,67,0,0,0 // lea 0x43(%rip),%r8 # 3008 <_sk_store_a8_avx+0xa5>
+ .byte 76,141,5,68,0,0,0 // lea 0x44(%rip),%r8 # 2fa4 <_sk_store_a8_avx+0xa6>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -14696,27 +14883,28 @@ _sk_store_a8_avx:
.byte 196,67,121,20,68,57,2,4 // vpextrb $0x4,%xmm8,0x2(%r9,%rdi,1)
.byte 196,67,121,20,68,57,1,2 // vpextrb $0x2,%xmm8,0x1(%r9,%rdi,1)
.byte 196,67,121,20,4,57,0 // vpextrb $0x0,%xmm8,(%r9,%rdi,1)
- .byte 235,154 // jmp 2fa1 <_sk_store_a8_avx+0x3e>
- .byte 144 // nop
- .byte 246,255 // idiv %bh
+ .byte 235,154 // jmp 2f3c <_sk_store_a8_avx+0x3e>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 245 // cmc
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 238 // out %al,(%dx)
.byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
.byte 255 // (bad)
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
- .byte 255,214 // callq *%rsi
+ .byte 221,255 // (bad)
.byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
.byte 255 // (bad)
- .byte 255,206 // dec %esi
.byte 255 // (bad)
+ .byte 255,205 // dec %ebp
.byte 255 // (bad)
- .byte 255,198 // inc %esi
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -14730,7 +14918,7 @@ _sk_load_g8_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 72,1,248 // add %rdi,%rax
.byte 77,133,192 // test %r8,%r8
- .byte 117,91 // jne 308f <_sk_load_g8_avx+0x6b>
+ .byte 117,91 // jne 302b <_sk_load_g8_avx+0x6b>
.byte 197,250,126,0 // vmovq (%rax),%xmm0
.byte 196,226,121,49,200 // vpmovzxbd %xmm0,%xmm1
.byte 196,227,121,4,192,229 // vpermilps $0xe5,%xmm0,%xmm0
@@ -14760,9 +14948,9 @@ _sk_load_g8_avx:
.byte 77,9,217 // or %r11,%r9
.byte 72,131,193,8 // add $0x8,%rcx
.byte 73,255,202 // dec %r10
- .byte 117,234 // jne 3097 <_sk_load_g8_avx+0x73>
+ .byte 117,234 // jne 3033 <_sk_load_g8_avx+0x73>
.byte 196,193,249,110,193 // vmovq %r9,%xmm0
- .byte 235,132 // jmp 3038 <_sk_load_g8_avx+0x14>
+ .byte 235,132 // jmp 2fd4 <_sk_load_g8_avx+0x14>
HIDDEN _sk_gather_g8_avx
.globl _sk_gather_g8_avx
@@ -14837,9 +15025,9 @@ _sk_gather_i8_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 31ce <_sk_gather_i8_avx+0xf>
+ .byte 116,5 // je 316a <_sk_gather_i8_avx+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 31d0 <_sk_gather_i8_avx+0x11>
+ .byte 235,2 // jmp 316c <_sk_gather_i8_avx+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,87 // push %r15
.byte 65,86 // push %r14
@@ -14901,27 +15089,24 @@ _sk_gather_i8_avx:
.byte 196,163,121,34,4,163,2 // vpinsrd $0x2,(%rbx,%r12,4),%xmm0,%xmm0
.byte 196,163,121,34,28,19,3 // vpinsrd $0x3,(%rbx,%r10,1),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm11
- .byte 197,164,84,192 // vandps %ymm0,%ymm11,%ymm0
+ .byte 197,124,40,21,106,42,0,0 // vmovaps 0x2a6a(%rip),%ymm10 # 5d00 <_sk_callback_avx+0x252>
+ .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm9
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,193,41,114,208,8 // vpsrld $0x8,%xmm8,%xmm10
- .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
- .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- .byte 197,164,84,201 // vandps %ymm1,%ymm11,%ymm1
+ .byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
+ .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
+ .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
+ .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10
+ .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11
.byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2
- .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 197,164,84,210 // vandps %ymm2,%ymm11,%ymm2
+ .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
+ .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
@@ -14944,7 +15129,7 @@ _sk_load_565_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,209,0,0,0 // jne 346a <_sk_load_565_avx+0xdf>
+ .byte 15,133,209,0,0,0 // jne 33fd <_sk_load_565_avx+0xdf>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
@@ -14994,9 +15179,9 @@ _sk_load_565_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,29,255,255,255 // ja 339f <_sk_load_565_avx+0x14>
+ .byte 15,135,29,255,255,255 // ja 3332 <_sk_load_565_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,75,0,0,0 // lea 0x4b(%rip),%r9 # 34d8 <_sk_load_565_avx+0x14d>
+ .byte 76,141,13,76,0,0,0 // lea 0x4c(%rip),%r9 # 346c <_sk_load_565_avx+0x14e>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15008,28 +15193,26 @@ _sk_load_565_avx:
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,201,254,255,255 // jmpq 339f <_sk_load_565_avx+0x14>
- .byte 102,144 // xchg %ax,%ax
- .byte 242,255 // repnz (bad)
- .byte 255 // (bad)
+ .byte 233,201,254,255,255 // jmpq 3332 <_sk_load_565_avx+0x14>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 241 // icebp
.byte 255 // (bad)
- .byte 234 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003474 <_sk_callback_avx+0xffffffffe1ffd9c6>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 218,255 // (bad)
+ .byte 217,255 // fcos
.byte 255 // (bad)
- .byte 255,210 // callq *%rdx
+ .byte 255,209 // callq *%rcx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,202 // dec %edx
+ .byte 255,201 // dec %ecx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 190 // .byte 0xbe
+ .byte 189 // .byte 0xbd
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15165,7 +15348,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3723 <_sk_store_565_avx+0x9e>
+ .byte 117,10 // jne 36b7 <_sk_store_565_avx+0x9e>
.byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15173,9 +15356,9 @@ _sk_store_565_avx:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 371f <_sk_store_565_avx+0x9a>
+ .byte 119,236 // ja 36b3 <_sk_store_565_avx+0x9a>
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 3780 <_sk_store_565_avx+0xfb>
+ .byte 76,141,5,66,0,0,0 // lea 0x42(%rip),%r8 # 3714 <_sk_store_565_avx+0xfb>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -15186,7 +15369,7 @@ _sk_store_565_avx:
.byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
.byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
.byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 371f <_sk_store_565_avx+0x9a>
+ .byte 235,159 // jmp 36b3 <_sk_store_565_avx+0x9a>
.byte 247,255 // idiv %edi
.byte 255 // (bad)
.byte 255 // (bad)
@@ -15217,7 +15400,7 @@ _sk_load_4444_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,245,0,0,0 // jne 389f <_sk_load_4444_avx+0x103>
+ .byte 15,133,245,0,0,0 // jne 3833 <_sk_load_4444_avx+0x103>
.byte 196,193,122,111,4,122 // vmovdqu (%r10,%rdi,2),%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
@@ -15274,9 +15457,9 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,249,254,255,255 // ja 37b0 <_sk_load_4444_avx+0x14>
+ .byte 15,135,249,254,255,255 // ja 3744 <_sk_load_4444_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,74,0,0,0 // lea 0x4a(%rip),%r9 # 390c <_sk_load_4444_avx+0x170>
+ .byte 76,141,13,74,0,0,0 // lea 0x4a(%rip),%r9 # 38a0 <_sk_load_4444_avx+0x170>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15288,12 +15471,12 @@ _sk_load_4444_avx:
.byte 196,193,121,196,68,122,4,2 // vpinsrw $0x2,0x4(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,68,122,2,1 // vpinsrw $0x1,0x2(%r10,%rdi,2),%xmm0,%xmm0
.byte 196,193,121,196,4,122,0 // vpinsrw $0x0,(%r10,%rdi,2),%xmm0,%xmm0
- .byte 233,165,254,255,255 // jmpq 37b0 <_sk_load_4444_avx+0x14>
+ .byte 233,165,254,255,255 // jmpq 3744 <_sk_load_4444_avx+0x14>
.byte 144 // nop
.byte 243,255 // repz (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 3911 <_sk_load_4444_avx+0x175>
+ .byte 235,255 // jmp 38a5 <_sk_load_4444_avx+0x175>
.byte 255 // (bad)
.byte 255,227 // jmpq *%rbx
.byte 255 // (bad)
@@ -15454,7 +15637,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3b8c <_sk_store_4444_avx+0xaf>
+ .byte 117,10 // jne 3b20 <_sk_store_4444_avx+0xaf>
.byte 196,65,122,127,4,121 // vmovdqu %xmm8,(%r9,%rdi,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15462,9 +15645,9 @@ _sk_store_4444_avx:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 3b88 <_sk_store_4444_avx+0xab>
+ .byte 119,236 // ja 3b1c <_sk_store_4444_avx+0xab>
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,69,0,0,0 // lea 0x45(%rip),%r8 # 3bec <_sk_store_4444_avx+0x10f>
+ .byte 76,141,5,69,0,0,0 // lea 0x45(%rip),%r8 # 3b80 <_sk_store_4444_avx+0x10f>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -15475,7 +15658,7 @@ _sk_store_4444_avx:
.byte 196,67,121,21,68,121,4,2 // vpextrw $0x2,%xmm8,0x4(%r9,%rdi,2)
.byte 196,67,121,21,68,121,2,1 // vpextrw $0x1,%xmm8,0x2(%r9,%rdi,2)
.byte 196,67,121,21,4,121,0 // vpextrw $0x0,%xmm8,(%r9,%rdi,2)
- .byte 235,159 // jmp 3b88 <_sk_store_4444_avx+0xab>
+ .byte 235,159 // jmp 3b1c <_sk_store_4444_avx+0xab>
.byte 15,31,0 // nopl (%rax)
.byte 244 // hlt
.byte 255 // (bad)
@@ -15508,30 +15691,27 @@ _sk_load_8888_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,157,0,0,0 // jne 3cb3 <_sk_load_8888_avx+0xab>
+ .byte 15,133,147,0,0,0 // jne 3c3d <_sk_load_8888_avx+0xa1>
.byte 196,65,124,16,12,186 // vmovups (%r10,%rdi,4),%ymm9
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm11
- .byte 196,193,36,84,193 // vandps %ymm9,%ymm11,%ymm0
+ .byte 197,124,40,21,104,33,0,0 // vmovaps 0x2168(%rip),%ymm10 # 5d20 <_sk_callback_avx+0x272>
+ .byte 196,193,52,84,194 // vandps %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,193,41,114,209,8 // vpsrld $0x8,%xmm9,%xmm10
+ .byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
- .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
- .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- .byte 197,164,84,201 // vandps %ymm1,%ymm11,%ymm1
+ .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
+ .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
+ .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10
+ .byte 196,193,33,114,209,16 // vpsrld $0x10,%xmm9,%xmm11
.byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2
- .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 197,164,84,210 // vandps %ymm2,%ymm11,%ymm2
+ .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
+ .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
@@ -15546,9 +15726,9 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 15,135,80,255,255,255 // ja 3c1c <_sk_load_8888_avx+0x14>
+ .byte 15,135,90,255,255,255 // ja 3bb0 <_sk_load_8888_avx+0x14>
.byte 69,15,182,192 // movzbl %r8b,%r8d
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 3d60 <_sk_load_8888_avx+0x158>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3cec <_sk_load_8888_avx+0x150>
.byte 75,99,4,129 // movslq (%r9,%r8,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
@@ -15571,24 +15751,26 @@ _sk_load_8888_avx:
.byte 196,99,53,12,200,15 // vblendps $0xf,%ymm0,%ymm9,%ymm9
.byte 196,195,49,34,4,186,0 // vpinsrd $0x0,(%r10,%rdi,4),%xmm9,%xmm0
.byte 196,99,53,12,200,15 // vblendps $0xf,%ymm0,%ymm9,%ymm9
- .byte 233,188,254,255,255 // jmpq 3c1c <_sk_load_8888_avx+0x14>
- .byte 238 // out %al,(%dx)
+ .byte 233,198,254,255,255 // jmpq 3bb0 <_sk_load_8888_avx+0x14>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 236 // in (%dx),%al
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
.byte 255 // (bad)
+ .byte 222,255 // fdivrp %st,%st(7)
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
.byte 255 // (bad)
- .byte 255,210 // callq *%rdx
.byte 255 // (bad)
+ .byte 255,194 // inc %edx
.byte 255 // (bad)
- .byte 255,196 // inc %esp
.byte 255 // (bad)
+ .byte 255,174,255,255,255,154 // ljmp *-0x65000001(%rsi)
.byte 255 // (bad)
- .byte 255,176,255,255,255,156 // pushq -0x63000001(%rax)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 128,255,255 // cmp $0xff,%bh
+ .byte 126,255 // jle 3d05 <_sk_load_8888_avx+0x169>
+ .byte 255 // (bad)
.byte 255 // .byte 0xff
HIDDEN _sk_gather_8888_avx
@@ -15632,27 +15814,24 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,152,2 // vpinsrd $0x2,(%r8,%r11,4),%xmm0,%xmm0
.byte 196,131,121,34,28,144,3 // vpinsrd $0x3,(%r8,%r10,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm11
- .byte 197,164,84,192 // vandps %ymm0,%ymm11,%ymm0
+ .byte 197,124,40,21,134,31,0,0 // vmovaps 0x1f86(%rip),%ymm10 # 5d40 <_sk_callback_avx+0x292>
+ .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm9
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,193,41,114,208,8 // vpsrld $0x8,%xmm8,%xmm10
- .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
- .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- .byte 197,164,84,201 // vandps %ymm1,%ymm11,%ymm1
+ .byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
+ .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
+ .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
+ .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,193,41,114,208,16 // vpsrld $0x10,%xmm8,%xmm10
+ .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11
.byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2
- .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 197,164,84,210 // vandps %ymm2,%ymm11,%ymm2
+ .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
+ .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
@@ -15701,7 +15880,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,10 // jne 3f61 <_sk_store_8888_avx+0xa4>
+ .byte 117,10 // jne 3ee4 <_sk_store_8888_avx+0xa4>
.byte 196,65,124,17,4,185 // vmovups %ymm8,(%r9,%rdi,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15709,9 +15888,9 @@ _sk_store_8888_avx:
.byte 65,128,224,7 // and $0x7,%r8b
.byte 65,254,200 // dec %r8b
.byte 65,128,248,6 // cmp $0x6,%r8b
- .byte 119,236 // ja 3f5d <_sk_store_8888_avx+0xa0>
+ .byte 119,236 // ja 3ee0 <_sk_store_8888_avx+0xa0>
.byte 65,15,182,192 // movzbl %r8b,%eax
- .byte 76,141,5,84,0,0,0 // lea 0x54(%rip),%r8 # 3fd0 <_sk_store_8888_avx+0x113>
+ .byte 76,141,5,85,0,0,0 // lea 0x55(%rip),%r8 # 3f54 <_sk_store_8888_avx+0x114>
.byte 73,99,4,128 // movslq (%r8,%rax,4),%rax
.byte 76,1,192 // add %r8,%rax
.byte 255,224 // jmpq *%rax
@@ -15725,28 +15904,29 @@ _sk_store_8888_avx:
.byte 196,67,121,22,68,185,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rdi,4)
.byte 196,67,121,22,68,185,4,1 // vpextrd $0x1,%xmm8,0x4(%r9,%rdi,4)
.byte 196,65,121,126,4,185 // vmovd %xmm8,(%r9,%rdi,4)
- .byte 235,143 // jmp 3f5d <_sk_store_8888_avx+0xa0>
- .byte 102,144 // xchg %ax,%ax
- .byte 246,255 // idiv %bh
+ .byte 235,143 // jmp 3ee0 <_sk_store_8888_avx+0xa0>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 245 // cmc
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 238 // out %al,(%dx)
.byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
.byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
.byte 255 // (bad)
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
.byte 255 // (bad)
- .byte 255,209 // callq *%rcx
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,195 // inc %ebx
+ .byte 255,194 // inc %edx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
- .byte 181,255 // mov $0xff,%ch
+ .byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -15762,7 +15942,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,254,127,100,36,128 // vmovdqu %ymm4,-0x80(%rsp)
- .byte 15,133,141,2,0,0 // jne 42a3 <_sk_load_f16_avx+0x2b7>
+ .byte 15,133,141,2,0,0 // jne 4227 <_sk_load_f16_avx+0x2b7>
.byte 197,121,16,4,248 // vmovupd (%rax,%rdi,8),%xmm8
.byte 197,249,16,84,248,16 // vmovupd 0x10(%rax,%rdi,8),%xmm2
.byte 197,249,16,76,248,32 // vmovupd 0x20(%rax,%rdi,8),%xmm1
@@ -15780,13 +15960,13 @@ _sk_load_f16_avx:
.byte 197,249,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm1
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,98,125,24,37,169,28,0,0 // vbroadcastss 0x1ca9(%rip),%ymm12 # 5d18 <_sk_callback_avx+0x1ee>
+ .byte 196,98,125,24,37,169,28,0,0 // vbroadcastss 0x1ca9(%rip),%ymm12 # 5c9c <_sk_callback_avx+0x1ee>
.byte 196,193,124,84,204 // vandps %ymm12,%ymm0,%ymm1
.byte 197,252,87,193 // vxorps %ymm1,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,149,28,0,0 // vbroadcastss 0x1c95(%rip),%xmm11 # 5d1c <_sk_callback_avx+0x1f2>
+ .byte 196,98,121,24,29,149,28,0,0 // vbroadcastss 0x1c95(%rip),%xmm11 # 5ca0 <_sk_callback_avx+0x1f2>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,139,28,0,0 // vbroadcastss 0x1c8b(%rip),%xmm13 # 5d20 <_sk_callback_avx+0x1f6>
+ .byte 196,98,121,24,45,139,28,0,0 // vbroadcastss 0x1c8b(%rip),%xmm13 # 5ca4 <_sk_callback_avx+0x1f6>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -15800,7 +15980,7 @@ _sk_load_f16_avx:
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,193 // vorps %ymm1,%ymm0,%ymm0
.byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1
- .byte 196,226,121,24,29,65,28,0,0 // vbroadcastss 0x1c41(%rip),%xmm3 # 5d24 <_sk_callback_avx+0x1fa>
+ .byte 196,226,121,24,29,65,28,0,0 // vbroadcastss 0x1c41(%rip),%xmm3 # 5ca8 <_sk_callback_avx+0x1fa>
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
@@ -15893,29 +16073,29 @@ _sk_load_f16_avx:
.byte 197,123,16,4,248 // vmovsd (%rax,%rdi,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,79 // je 4302 <_sk_load_f16_avx+0x316>
+ .byte 116,79 // je 4286 <_sk_load_f16_avx+0x316>
.byte 197,57,22,68,248,8 // vmovhpd 0x8(%rax,%rdi,8),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,67 // jb 4302 <_sk_load_f16_avx+0x316>
+ .byte 114,67 // jb 4286 <_sk_load_f16_avx+0x316>
.byte 197,251,16,84,248,16 // vmovsd 0x10(%rax,%rdi,8),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,68 // je 430f <_sk_load_f16_avx+0x323>
+ .byte 116,68 // je 4293 <_sk_load_f16_avx+0x323>
.byte 197,233,22,84,248,24 // vmovhpd 0x18(%rax,%rdi,8),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,56 // jb 430f <_sk_load_f16_avx+0x323>
+ .byte 114,56 // jb 4293 <_sk_load_f16_avx+0x323>
.byte 197,251,16,76,248,32 // vmovsd 0x20(%rax,%rdi,8),%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,70,253,255,255 // je 402d <_sk_load_f16_avx+0x41>
+ .byte 15,132,70,253,255,255 // je 3fb1 <_sk_load_f16_avx+0x41>
.byte 197,241,22,76,248,40 // vmovhpd 0x28(%rax,%rdi,8),%xmm1,%xmm1
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,54,253,255,255 // jb 402d <_sk_load_f16_avx+0x41>
+ .byte 15,130,54,253,255,255 // jb 3fb1 <_sk_load_f16_avx+0x41>
.byte 197,122,126,76,248,48 // vmovq 0x30(%rax,%rdi,8),%xmm9
- .byte 233,43,253,255,255 // jmpq 402d <_sk_load_f16_avx+0x41>
+ .byte 233,43,253,255,255 // jmpq 3fb1 <_sk_load_f16_avx+0x41>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,30,253,255,255 // jmpq 402d <_sk_load_f16_avx+0x41>
+ .byte 233,30,253,255,255 // jmpq 3fb1 <_sk_load_f16_avx+0x41>
.byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,21,253,255,255 // jmpq 402d <_sk_load_f16_avx+0x41>
+ .byte 233,21,253,255,255 // jmpq 3fb1 <_sk_load_f16_avx+0x41>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -15979,13 +16159,13 @@ _sk_gather_f16_avx:
.byte 197,249,105,210 // vpunpckhwd %xmm2,%xmm0,%xmm2
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,125,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,5,25,0,0 // vbroadcastss 0x1905(%rip),%ymm12 # 5d28 <_sk_callback_avx+0x1fe>
+ .byte 196,98,125,24,37,5,25,0,0 // vbroadcastss 0x1905(%rip),%ymm12 # 5cac <_sk_callback_avx+0x1fe>
.byte 196,193,124,84,212 // vandps %ymm12,%ymm0,%ymm2
.byte 197,252,87,194 // vxorps %ymm2,%ymm0,%ymm0
.byte 196,195,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm14
- .byte 196,98,121,24,29,241,24,0,0 // vbroadcastss 0x18f1(%rip),%xmm11 # 5d2c <_sk_callback_avx+0x202>
+ .byte 196,98,121,24,29,241,24,0,0 // vbroadcastss 0x18f1(%rip),%xmm11 # 5cb0 <_sk_callback_avx+0x202>
.byte 196,193,8,87,219 // vxorps %xmm11,%xmm14,%xmm3
- .byte 196,98,121,24,45,231,24,0,0 // vbroadcastss 0x18e7(%rip),%xmm13 # 5d30 <_sk_callback_avx+0x206>
+ .byte 196,98,121,24,45,231,24,0,0 // vbroadcastss 0x18e7(%rip),%xmm13 # 5cb4 <_sk_callback_avx+0x206>
.byte 197,145,102,219 // vpcmpgtd %xmm3,%xmm13,%xmm3
.byte 196,65,120,87,211 // vxorps %xmm11,%xmm0,%xmm10
.byte 196,65,17,102,210 // vpcmpgtd %xmm10,%xmm13,%xmm10
@@ -15999,7 +16179,7 @@ _sk_gather_f16_avx:
.byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
.byte 197,252,86,194 // vorps %ymm2,%ymm0,%ymm0
.byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
- .byte 196,226,121,24,29,157,24,0,0 // vbroadcastss 0x189d(%rip),%xmm3 # 5d34 <_sk_callback_avx+0x20a>
+ .byte 196,226,121,24,29,157,24,0,0 // vbroadcastss 0x189d(%rip),%xmm3 # 5cb8 <_sk_callback_avx+0x20a>
.byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 196,227,125,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm0,%ymm0
@@ -16103,12 +16283,12 @@ _sk_store_f16_avx:
.byte 197,252,17,52,36 // vmovups %ymm6,(%rsp)
.byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
.byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
- .byte 196,98,125,24,13,182,22,0,0 // vbroadcastss 0x16b6(%rip),%ymm9 # 5d38 <_sk_callback_avx+0x20e>
+ .byte 196,98,125,24,13,182,22,0,0 // vbroadcastss 0x16b6(%rip),%ymm9 # 5cbc <_sk_callback_avx+0x20e>
.byte 196,65,124,84,209 // vandps %ymm9,%ymm0,%ymm10
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
.byte 196,65,124,87,218 // vxorps %ymm10,%ymm0,%ymm11
.byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,98,121,24,5,155,22,0,0 // vbroadcastss 0x169b(%rip),%xmm8 # 5d3c <_sk_callback_avx+0x212>
+ .byte 196,98,121,24,5,155,22,0,0 // vbroadcastss 0x169b(%rip),%xmm8 # 5cc0 <_sk_callback_avx+0x212>
.byte 196,65,57,102,236 // vpcmpgtd %xmm12,%xmm8,%xmm13
.byte 196,65,57,102,243 // vpcmpgtd %xmm11,%xmm8,%xmm14
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
@@ -16118,7 +16298,7 @@ _sk_store_f16_avx:
.byte 196,67,13,24,242,1 // vinsertf128 $0x1,%xmm10,%ymm14,%ymm14
.byte 196,193,33,114,211,13 // vpsrld $0xd,%xmm11,%xmm11
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
- .byte 196,98,125,24,21,98,22,0,0 // vbroadcastss 0x1662(%rip),%ymm10 # 5d40 <_sk_callback_avx+0x216>
+ .byte 196,98,125,24,21,98,22,0,0 // vbroadcastss 0x1662(%rip),%ymm10 # 5cc4 <_sk_callback_avx+0x216>
.byte 196,65,12,86,242 // vorps %ymm10,%ymm14,%ymm14
.byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15
.byte 196,65,1,254,228 // vpaddd %xmm12,%xmm15,%xmm12
@@ -16200,7 +16380,7 @@ _sk_store_f16_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,66 // jne 48bc <_sk_store_f16_avx+0x25e>
+ .byte 117,66 // jne 4840 <_sk_store_f16_avx+0x25e>
.byte 197,120,17,28,248 // vmovups %xmm11,(%rax,%rdi,8)
.byte 197,120,17,84,248,16 // vmovups %xmm10,0x10(%rax,%rdi,8)
.byte 197,120,17,76,248,32 // vmovups %xmm9,0x20(%rax,%rdi,8)
@@ -16216,22 +16396,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 197,121,214,28,248 // vmovq %xmm11,(%rax,%rdi,8)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,202 // je 4891 <_sk_store_f16_avx+0x233>
+ .byte 116,202 // je 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,23,92,248,8 // vmovhpd %xmm11,0x8(%rax,%rdi,8)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,190 // jb 4891 <_sk_store_f16_avx+0x233>
+ .byte 114,190 // jb 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,214,84,248,16 // vmovq %xmm10,0x10(%rax,%rdi,8)
- .byte 116,182 // je 4891 <_sk_store_f16_avx+0x233>
+ .byte 116,182 // je 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,23,84,248,24 // vmovhpd %xmm10,0x18(%rax,%rdi,8)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,170 // jb 4891 <_sk_store_f16_avx+0x233>
+ .byte 114,170 // jb 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,214,76,248,32 // vmovq %xmm9,0x20(%rax,%rdi,8)
- .byte 116,162 // je 4891 <_sk_store_f16_avx+0x233>
+ .byte 116,162 // je 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,23,76,248,40 // vmovhpd %xmm9,0x28(%rax,%rdi,8)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,150 // jb 4891 <_sk_store_f16_avx+0x233>
+ .byte 114,150 // jb 4815 <_sk_store_f16_avx+0x233>
.byte 197,121,214,68,248,48 // vmovq %xmm8,0x30(%rax,%rdi,8)
- .byte 235,142 // jmp 4891 <_sk_store_f16_avx+0x233>
+ .byte 235,142 // jmp 4815 <_sk_store_f16_avx+0x233>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -16241,7 +16421,7 @@ _sk_load_u16_be_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,189,0,0,0,0 // lea 0x0(,%rdi,4),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,5,1,0,0 // jne 4a1e <_sk_load_u16_be_avx+0x11b>
+ .byte 15,133,5,1,0,0 // jne 49a2 <_sk_load_u16_be_avx+0x11b>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -16300,29 +16480,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,85 // je 4a84 <_sk_load_u16_be_avx+0x181>
+ .byte 116,85 // je 4a08 <_sk_load_u16_be_avx+0x181>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,72 // jb 4a84 <_sk_load_u16_be_avx+0x181>
+ .byte 114,72 // jb 4a08 <_sk_load_u16_be_avx+0x181>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 116,72 // je 4a91 <_sk_load_u16_be_avx+0x18e>
+ .byte 116,72 // je 4a15 <_sk_load_u16_be_avx+0x18e>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,59 // jb 4a91 <_sk_load_u16_be_avx+0x18e>
+ .byte 114,59 // jb 4a15 <_sk_load_u16_be_avx+0x18e>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 15,132,205,254,255,255 // je 4934 <_sk_load_u16_be_avx+0x31>
+ .byte 15,132,205,254,255,255 // je 48b8 <_sk_load_u16_be_avx+0x31>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 15,130,188,254,255,255 // jb 4934 <_sk_load_u16_be_avx+0x31>
+ .byte 15,130,188,254,255,255 // jb 48b8 <_sk_load_u16_be_avx+0x31>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,176,254,255,255 // jmpq 4934 <_sk_load_u16_be_avx+0x31>
+ .byte 233,176,254,255,255 // jmpq 48b8 <_sk_load_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,163,254,255,255 // jmpq 4934 <_sk_load_u16_be_avx+0x31>
+ .byte 233,163,254,255,255 // jmpq 48b8 <_sk_load_u16_be_avx+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,154,254,255,255 // jmpq 4934 <_sk_load_u16_be_avx+0x31>
+ .byte 233,154,254,255,255 // jmpq 48b8 <_sk_load_u16_be_avx+0x31>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -16332,7 +16512,7 @@ _sk_load_rgb_u16_be_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 72,141,4,127 // lea (%rdi,%rdi,2),%rax
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,133,8,1,0,0 // jne 4bb4 <_sk_load_rgb_u16_be_avx+0x11a>
+ .byte 15,133,8,1,0,0 // jne 4b38 <_sk_load_rgb_u16_be_avx+0x11a>
.byte 196,193,122,111,4,64 // vmovdqu (%r8,%rax,2),%xmm0
.byte 196,193,122,111,84,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm2
.byte 196,193,122,111,76,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm1
@@ -16391,36 +16571,36 @@ _sk_load_rgb_u16_be_avx:
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,193,121,196,68,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm0
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 117,5 // jne 4bcd <_sk_load_rgb_u16_be_avx+0x133>
- .byte 233,19,255,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,5 // jne 4b51 <_sk_load_rgb_u16_be_avx+0x133>
+ .byte 233,19,255,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,76,64,6 // vmovd 0x6(%r8,%rax,2),%xmm1
.byte 196,65,113,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm1,%xmm8
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,26 // jb 4bfc <_sk_load_rgb_u16_be_avx+0x162>
+ .byte 114,26 // jb 4b80 <_sk_load_rgb_u16_be_avx+0x162>
.byte 196,193,121,110,76,64,12 // vmovd 0xc(%r8,%rax,2),%xmm1
.byte 196,193,113,196,84,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm1,%xmm2
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 117,10 // jne 4c01 <_sk_load_rgb_u16_be_avx+0x167>
- .byte 233,228,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,223,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 4b85 <_sk_load_rgb_u16_be_avx+0x167>
+ .byte 233,228,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,223,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,76,64,18 // vmovd 0x12(%r8,%rax,2),%xmm1
.byte 196,65,113,196,76,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm1,%xmm9
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,26 // jb 4c30 <_sk_load_rgb_u16_be_avx+0x196>
+ .byte 114,26 // jb 4bb4 <_sk_load_rgb_u16_be_avx+0x196>
.byte 196,193,121,110,76,64,24 // vmovd 0x18(%r8,%rax,2),%xmm1
.byte 196,193,113,196,76,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm1,%xmm1
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 117,10 // jne 4c35 <_sk_load_rgb_u16_be_avx+0x19b>
- .byte 233,176,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,171,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 117,10 // jne 4bb9 <_sk_load_rgb_u16_be_avx+0x19b>
+ .byte 233,176,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,171,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
.byte 196,193,121,110,92,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm3
.byte 196,65,97,196,92,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm3,%xmm11
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,20 // jb 4c5e <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 114,20 // jb 4be2 <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 196,193,121,110,92,64,36 // vmovd 0x24(%r8,%rax,2),%xmm3
.byte 196,193,97,196,92,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm3,%xmm3
- .byte 233,130,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
- .byte 233,125,254,255,255 // jmpq 4ae0 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,130,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
+ .byte 233,125,254,255,255 // jmpq 4a64 <_sk_load_rgb_u16_be_avx+0x46>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -16470,7 +16650,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,31 // jne 4d65 <_sk_store_u16_be_avx+0x102>
+ .byte 117,31 // jne 4ce9 <_sk_store_u16_be_avx+0x102>
.byte 196,1,120,17,28,72 // vmovups %xmm11,(%r8,%r9,2)
.byte 196,1,120,17,84,72,16 // vmovups %xmm10,0x10(%r8,%r9,2)
.byte 196,1,120,17,76,72,32 // vmovups %xmm9,0x20(%r8,%r9,2)
@@ -16479,22 +16659,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,1,121,214,28,72 // vmovq %xmm11,(%r8,%r9,2)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 116,240 // je 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,23,92,72,8 // vmovhpd %xmm11,0x8(%r8,%r9,2)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 114,227 // jb 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,214,84,72,16 // vmovq %xmm10,0x10(%r8,%r9,2)
- .byte 116,218 // je 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 116,218 // je 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,23,84,72,24 // vmovhpd %xmm10,0x18(%r8,%r9,2)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 114,205 // jb 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,214,76,72,32 // vmovq %xmm9,0x20(%r8,%r9,2)
- .byte 116,196 // je 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 116,196 // je 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,23,76,72,40 // vmovhpd %xmm9,0x28(%r8,%r9,2)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,183 // jb 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 114,183 // jb 4ce5 <_sk_store_u16_be_avx+0xfe>
.byte 196,1,121,214,68,72,48 // vmovq %xmm8,0x30(%r8,%r9,2)
- .byte 235,174 // jmp 4d61 <_sk_store_u16_be_avx+0xfe>
+ .byte 235,174 // jmp 4ce5 <_sk_store_u16_be_avx+0xfe>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -16502,10 +16682,10 @@ FUNCTION(_sk_load_f32_avx)
_sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 119,110 // ja 4e29 <_sk_load_f32_avx+0x76>
+ .byte 119,110 // ja 4dad <_sk_load_f32_avx+0x76>
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,189,0,0,0,0 // lea 0x0(,%rdi,4),%r9
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4e54 <_sk_load_f32_avx+0xa1>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4dd8 <_sk_load_f32_avx+0xa1>
.byte 73,99,4,138 // movslq (%r10,%rcx,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
@@ -16566,7 +16746,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,201 // test %rcx,%rcx
- .byte 117,55 // jne 4ee1 <_sk_store_f32_avx+0x6d>
+ .byte 117,55 // jne 4e65 <_sk_store_f32_avx+0x6d>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -16579,22 +16759,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,249,1 // cmp $0x1,%rcx
- .byte 116,240 // je 4edd <_sk_store_f32_avx+0x69>
+ .byte 116,240 // je 4e61 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,249,3 // cmp $0x3,%rcx
- .byte 114,227 // jb 4edd <_sk_store_f32_avx+0x69>
+ .byte 114,227 // jb 4e61 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 4edd <_sk_store_f32_avx+0x69>
+ .byte 116,218 // je 4e61 <_sk_store_f32_avx+0x69>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,249,5 // cmp $0x5,%rcx
- .byte 114,205 // jb 4edd <_sk_store_f32_avx+0x69>
+ .byte 114,205 // jb 4e61 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 4edd <_sk_store_f32_avx+0x69>
+ .byte 116,195 // je 4e61 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,249,7 // cmp $0x7,%rcx
- .byte 114,181 // jb 4edd <_sk_store_f32_avx+0x69>
+ .byte 114,181 // jb 4e61 <_sk_store_f32_avx+0x69>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 4edd <_sk_store_f32_avx+0x69>
+ .byte 235,171 // jmp 4e61 <_sk_store_f32_avx+0x69>
HIDDEN _sk_clamp_x_avx
.globl _sk_clamp_x_avx
@@ -16922,7 +17102,7 @@ _sk_linear_gradient_avx:
.byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3
.byte 76,139,0 // mov (%rax),%r8
.byte 77,133,192 // test %r8,%r8
- .byte 15,132,146,0,0,0 // je 5495 <_sk_linear_gradient_avx+0xb8>
+ .byte 15,132,146,0,0,0 // je 5419 <_sk_linear_gradient_avx+0xb8>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
@@ -16949,8 +17129,8 @@ _sk_linear_gradient_avx:
.byte 196,227,13,74,219,208 // vblendvps %ymm13,%ymm3,%ymm14,%ymm3
.byte 72,131,192,36 // add $0x24,%rax
.byte 73,255,200 // dec %r8
- .byte 117,140 // jne 541f <_sk_linear_gradient_avx+0x42>
- .byte 235,20 // jmp 54a9 <_sk_linear_gradient_avx+0xcc>
+ .byte 117,140 // jne 53a3 <_sk_linear_gradient_avx+0x42>
+ .byte 235,20 // jmp 542d <_sk_linear_gradient_avx+0xcc>
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
@@ -17448,10 +17628,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5c60 <.literal4+0x10>
+ .byte 127,0 // jg 5be4 <.literal4+0x10>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5cd9 <.literal4+0x89>
+ .byte 119,115 // ja 5c5d <.literal4+0x89>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17465,10 +17645,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5c90 <.literal4+0x40>
+ .byte 127,0 // jg 5c14 <.literal4+0x40>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5d09 <.literal4+0xb9>
+ .byte 119,115 // ja 5c8d <.literal4+0xb9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17482,10 +17662,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5cc0 <.literal4+0x70>
+ .byte 127,0 // jg 5c44 <.literal4+0x70>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5d39 <.literal4+0xe9>
+ .byte 119,115 // ja 5cbd <.literal4+0xe9>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17499,10 +17679,10 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 5cf0 <.literal4+0xa0>
+ .byte 127,0 // jg 5c74 <.literal4+0xa0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 5d69 <_sk_callback_avx+0x23f>
+ .byte 119,115 // ja 5ced <_sk_callback_avx+0x23f>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -17526,6 +17706,90 @@ BALIGN4
.byte 0,128,0,0,128,56 // add %al,0x38800000(%rax)
.byte 0,64,254 // add %al,-0x2(%rax)
.byte 255 // .byte 0xff
+
+BALIGN32
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+
+BALIGN16
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
BALIGN32
HIDDEN _sk_start_pipeline_sse41
@@ -17586,7 +17850,7 @@ _sk_seed_shader_sse41:
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,196,62,0,0 // movaps 0x3ec4(%rip),%xmm2 # 3f40 <_sk_callback_sse41+0xe0>
+ .byte 15,40,21,212,62,0,0 // movaps 0x3ed4(%rip),%xmm2 # 3f50 <_sk_callback_sse41+0xe4>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,2 // movups (%rdx),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -17595,7 +17859,7 @@ _sk_seed_shader_sse41:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,179,62,0,0 // movaps 0x3eb3(%rip),%xmm2 # 3f50 <_sk_callback_sse41+0xf0>
+ .byte 15,40,21,195,62,0,0 // movaps 0x3ec3(%rip),%xmm2 # 3f60 <_sk_callback_sse41+0xf4>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -19187,56 +19451,51 @@ HIDDEN _sk_load_tables_sse41
FUNCTION(_sk_load_tables_sse41)
_sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,8 // mov (%rax),%rcx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 243,68,15,111,4,185 // movdqu (%rcx,%rdi,4),%xmm8
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 76,139,72,8 // mov 0x8(%rax),%r9
+ .byte 243,69,15,111,4,184 // movdqu (%r8,%rdi,4),%xmm8
+ .byte 102,15,111,5,14,42,0,0 // movdqa 0x2a0e(%rip),%xmm0 # 3f70 <_sk_callback_sse41+0x104>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 65,137,201 // mov %ecx,%r9d
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 102,67,15,58,33,4,144,16 // insertps $0x10,(%r8,%r10,4),%xmm0
- .byte 102,67,15,58,33,4,136,32 // insertps $0x20,(%r8,%r9,4),%xmm0
- .byte 102,65,15,58,33,4,136,48 // insertps $0x30,(%r8,%rcx,4),%xmm0
+ .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
+ .byte 102,72,15,126,193 // movq %xmm0,%rcx
+ .byte 68,15,182,209 // movzbl %cl,%r10d
+ .byte 72,193,233,30 // shr $0x1e,%rcx
+ .byte 69,15,182,216 // movzbl %r8b,%r11d
+ .byte 73,193,232,30 // shr $0x1e,%r8
+ .byte 243,67,15,16,4,145 // movss (%r9,%r10,4),%xmm0
+ .byte 102,65,15,58,33,4,9,16 // insertps $0x10,(%r9,%rcx,1),%xmm0
+ .byte 102,67,15,58,33,4,153,32 // insertps $0x20,(%r9,%r11,4),%xmm0
+ .byte 243,67,15,16,12,1 // movss (%r9,%r8,1),%xmm1
+ .byte 102,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,73,15,58,22,202,1 // pextrq $0x1,%xmm1,%r10
- .byte 77,137,209 // mov %r10,%r9
- .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
+ .byte 102,15,56,0,13,201,41,0,0 // pshufb 0x29c9(%rip),%xmm1 # 3f80 <_sk_callback_sse41+0x114>
+ .byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
- .byte 65,137,203 // mov %ecx,%r11d
- .byte 65,129,227,255,255,255,0 // and $0xffffff,%r11d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 65,129,226,255,255,255,0 // and $0xffffff,%r10d
- .byte 243,67,15,16,12,152 // movss (%r8,%r11,4),%xmm1
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
+ .byte 73,193,233,30 // shr $0x1e,%r9
+ .byte 243,67,15,16,12,144 // movss (%r8,%r10,4),%xmm1
.byte 102,65,15,58,33,12,8,16 // insertps $0x10,(%r8,%rcx,1),%xmm1
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1
- .byte 243,67,15,16,28,136 // movss (%r8,%r9,4),%xmm3
- .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
+ .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
+ .byte 243,67,15,16,20,8 // movss (%r8,%r9,1),%xmm2
+ .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
+ .byte 76,139,64,24 // mov 0x18(%rax),%r8
+ .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
+ .byte 102,15,56,0,21,133,41,0,0 // pshufb 0x2985(%rip),%xmm2 # 3f90 <_sk_callback_sse41+0x124>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
- .byte 68,15,183,193 // movzwl %cx,%r8d
- .byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,183,208 // movzwl %ax,%r10d
+ .byte 68,15,182,200 // movzbl %al,%r9d
.byte 72,193,232,30 // shr $0x1e,%rax
- .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2
- .byte 102,65,15,58,33,20,1,16 // insertps $0x10,(%r9,%rax,1),%xmm2
- .byte 243,67,15,16,28,129 // movss (%r9,%r8,4),%xmm3
+ .byte 68,15,182,209 // movzbl %cl,%r10d
+ .byte 72,193,233,30 // shr $0x1e,%rcx
+ .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
+ .byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
+ .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
.byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,65,15,16,28,137 // movss (%r9,%rcx,4),%xmm3
+ .byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
@@ -19256,36 +19515,36 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 243,15,111,4,249 // movdqu (%rcx,%rdi,8),%xmm0
.byte 243,15,111,76,249,16 // movdqu 0x10(%rcx,%rdi,8),%xmm1
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
+ .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
- .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,68,15,112,194,0 // pshufd $0x0,%xmm2,%xmm8
+ .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
+ .byte 102,68,15,111,5,251,40,0,0 // movdqa 0x28fb(%rip),%xmm8 # 3fa0 <_sk_callback_sse41+0x134>
+ .byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
+ .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9
.byte 102,72,15,126,193 // movq %xmm0,%rcx
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 69,137,203 // mov %r9d,%r11d
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
.byte 73,193,233,30 // shr $0x1e,%r9
.byte 243,67,15,16,4,144 // movss (%r8,%r10,4),%xmm0
.byte 102,65,15,58,33,4,8,16 // insertps $0x10,(%r8,%rcx,1),%xmm0
- .byte 102,67,15,58,33,4,152,32 // insertps $0x20,(%r8,%r11,4),%xmm0
- .byte 102,67,15,58,33,4,8,48 // insertps $0x30,(%r8,%r9,1),%xmm0
+ .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
+ .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
+ .byte 243,67,15,16,20,8 // movss (%r8,%r9,1),%xmm2
+ .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,15,115,217,8 // psrldq $0x8,%xmm1
+ .byte 102,15,56,0,13,174,40,0,0 // pshufb 0x28ae(%rip),%xmm1 # 3fb0 <_sk_callback_sse41+0x144>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
- .byte 102,65,15,219,200 // pand %xmm8,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 69,137,203 // mov %r9d,%r11d
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
.byte 73,193,233,30 // shr $0x1e,%r9
.byte 243,67,15,16,12,144 // movss (%r8,%r10,4),%xmm1
.byte 102,65,15,58,33,12,8,16 // insertps $0x10,(%r8,%rcx,1),%xmm1
@@ -19294,22 +19553,24 @@ _sk_load_tables_u16_be_sse41:
.byte 243,67,15,16,20,8 // movss (%r8,%r9,1),%xmm2
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,15,56,51,211 // pmovzxwd %xmm3,%xmm2
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
+ .byte 102,69,15,219,193 // pand %xmm9,%xmm8
+ .byte 102,65,15,56,51,208 // pmovzxwd %xmm8,%xmm2
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
+ .byte 68,15,182,200 // movzbl %al,%r9d
.byte 72,193,232,30 // shr $0x1e,%rax
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
.byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
.byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
- .byte 102,67,15,58,33,20,144,32 // insertps $0x20,(%r8,%r10,4),%xmm2
- .byte 102,65,15,58,33,20,8,48 // insertps $0x30,(%r8,%rcx,1),%xmm2
+ .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
+ .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
+ .byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
+ .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 184,128,0,128,55 // mov $0x37800080,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3
+ .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
@@ -19331,38 +19592,37 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,66,15,111,20,73 // movdqu (%rcx,%r9,2),%xmm2
.byte 243,66,15,111,68,73,8 // movdqu 0x8(%rcx,%r9,2),%xmm0
.byte 102,15,115,216,4 // psrldq $0x4,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,115,217,6 // psrldq $0x6,%xmm1
+ .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
+ .byte 102,65,15,115,217,6 // psrldq $0x6,%xmm9
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
.byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 102,68,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm8
- .byte 102,15,105,209 // punpckhwd %xmm1,%xmm2
+ .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
+ .byte 102,15,111,202 // movdqa %xmm2,%xmm1
+ .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
+ .byte 102,68,15,111,5,162,39,0,0 // movdqa 0x27a2(%rip),%xmm8 # 3fc0 <_sk_callback_sse41+0x154>
+ .byte 102,15,111,193 // movdqa %xmm1,%xmm0
+ .byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,68,15,112,201,0 // pshufd $0x0,%xmm1,%xmm9
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,73,15,58,22,193,1 // pextrq $0x1,%xmm0,%r9
.byte 102,72,15,126,193 // movq %xmm0,%rcx
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 69,137,203 // mov %r9d,%r11d
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
.byte 73,193,233,30 // shr $0x1e,%r9
.byte 243,67,15,16,4,144 // movss (%r8,%r10,4),%xmm0
.byte 102,65,15,58,33,4,8,16 // insertps $0x10,(%r8,%rcx,1),%xmm0
- .byte 102,67,15,58,33,4,152,32 // insertps $0x20,(%r8,%r11,4),%xmm0
- .byte 102,67,15,58,33,4,8,48 // insertps $0x30,(%r8,%r9,1),%xmm0
+ .byte 243,67,15,16,28,152 // movss (%r8,%r11,4),%xmm3
+ .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
+ .byte 243,67,15,16,28,8 // movss (%r8,%r9,1),%xmm3
+ .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,65,15,56,51,200 // pmovzxwd %xmm8,%xmm1
- .byte 102,65,15,219,201 // pand %xmm9,%xmm1
+ .byte 102,15,56,0,13,85,39,0,0 // pshufb 0x2755(%rip),%xmm1 # 3fd0 <_sk_callback_sse41+0x164>
+ .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,201,1 // pextrq $0x1,%xmm1,%r9
.byte 102,72,15,126,201 // movq %xmm1,%rcx
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 69,137,203 // mov %r9d,%r11d
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
.byte 73,193,233,30 // shr $0x1e,%r9
.byte 243,67,15,16,12,144 // movss (%r8,%r10,4),%xmm1
.byte 102,65,15,58,33,12,8,16 // insertps $0x10,(%r8,%rcx,1),%xmm1
@@ -19371,18 +19631,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,67,15,16,28,8 // movss (%r8,%r9,1),%xmm3
.byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
+ .byte 102,65,15,105,209 // punpckhwd %xmm9,%xmm2
+ .byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
+ .byte 68,15,182,200 // movzbl %al,%r9d
.byte 72,193,232,30 // shr $0x1e,%rax
- .byte 65,137,202 // mov %ecx,%r10d
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
.byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
.byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
- .byte 102,67,15,58,33,20,144,32 // insertps $0x20,(%r8,%r10,4),%xmm2
- .byte 102,65,15,58,33,20,8,48 // insertps $0x30,(%r8,%rcx,1),%xmm2
+ .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
+ .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
+ .byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
+ .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 184,0,0,128,63 // mov $0x3f800000,%eax
.byte 102,15,110,216 // movd %eax,%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -19690,31 +19953,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,149,33,0,0 // mulps 0x2195(%rip),%xmm8 # 3f60 <_sk_callback_sse41+0x100>
- .byte 68,15,84,21,157,33,0,0 // andps 0x219d(%rip),%xmm10 # 3f70 <_sk_callback_sse41+0x110>
- .byte 68,15,86,21,165,33,0,0 // orps 0x21a5(%rip),%xmm10 # 3f80 <_sk_callback_sse41+0x120>
- .byte 68,15,88,5,173,33,0,0 // addps 0x21ad(%rip),%xmm8 # 3f90 <_sk_callback_sse41+0x130>
- .byte 68,15,40,37,181,33,0,0 // movaps 0x21b5(%rip),%xmm12 # 3fa0 <_sk_callback_sse41+0x140>
+ .byte 68,15,89,5,242,33,0,0 // mulps 0x21f2(%rip),%xmm8 # 3fe0 <_sk_callback_sse41+0x174>
+ .byte 68,15,84,21,250,33,0,0 // andps 0x21fa(%rip),%xmm10 # 3ff0 <_sk_callback_sse41+0x184>
+ .byte 68,15,86,21,2,34,0,0 // orps 0x2202(%rip),%xmm10 # 4000 <_sk_callback_sse41+0x194>
+ .byte 68,15,88,5,10,34,0,0 // addps 0x220a(%rip),%xmm8 # 4010 <_sk_callback_sse41+0x1a4>
+ .byte 68,15,40,37,18,34,0,0 // movaps 0x2212(%rip),%xmm12 # 4020 <_sk_callback_sse41+0x1b4>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,181,33,0,0 // addps 0x21b5(%rip),%xmm10 # 3fb0 <_sk_callback_sse41+0x150>
- .byte 68,15,40,37,189,33,0,0 // movaps 0x21bd(%rip),%xmm12 # 3fc0 <_sk_callback_sse41+0x160>
+ .byte 68,15,88,21,18,34,0,0 // addps 0x2212(%rip),%xmm10 # 4030 <_sk_callback_sse41+0x1c4>
+ .byte 68,15,40,37,26,34,0,0 // movaps 0x221a(%rip),%xmm12 # 4040 <_sk_callback_sse41+0x1d4>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,170,33,0,0 // addps 0x21aa(%rip),%xmm8 # 3fd0 <_sk_callback_sse41+0x170>
- .byte 68,15,40,21,178,33,0,0 // movaps 0x21b2(%rip),%xmm10 # 3fe0 <_sk_callback_sse41+0x180>
+ .byte 68,15,88,5,7,34,0,0 // addps 0x2207(%rip),%xmm8 # 4050 <_sk_callback_sse41+0x1e4>
+ .byte 68,15,40,21,15,34,0,0 // movaps 0x220f(%rip),%xmm10 # 4060 <_sk_callback_sse41+0x1f4>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,178,33,0,0 // movaps 0x21b2(%rip),%xmm10 # 3ff0 <_sk_callback_sse41+0x190>
+ .byte 68,15,40,21,15,34,0,0 // movaps 0x220f(%rip),%xmm10 # 4070 <_sk_callback_sse41+0x204>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,182,33,0,0 // movaps 0x21b6(%rip),%xmm11 # 4000 <_sk_callback_sse41+0x1a0>
+ .byte 68,15,40,29,19,34,0,0 // movaps 0x2213(%rip),%xmm11 # 4080 <_sk_callback_sse41+0x214>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,182,33,0,0 // mulps 0x21b6(%rip),%xmm11 # 4010 <_sk_callback_sse41+0x1b0>
+ .byte 68,15,89,29,19,34,0,0 // mulps 0x2213(%rip),%xmm11 # 4090 <_sk_callback_sse41+0x224>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -19755,31 +20018,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,37,33,0,0 // mulps 0x2125(%rip),%xmm12 # 4020 <_sk_callback_sse41+0x1c0>
- .byte 68,15,84,29,45,33,0,0 // andps 0x212d(%rip),%xmm11 # 4030 <_sk_callback_sse41+0x1d0>
- .byte 68,15,86,29,53,33,0,0 // orps 0x2135(%rip),%xmm11 # 4040 <_sk_callback_sse41+0x1e0>
- .byte 68,15,88,37,61,33,0,0 // addps 0x213d(%rip),%xmm12 # 4050 <_sk_callback_sse41+0x1f0>
- .byte 15,40,13,70,33,0,0 // movaps 0x2146(%rip),%xmm1 # 4060 <_sk_callback_sse41+0x200>
+ .byte 68,15,89,37,130,33,0,0 // mulps 0x2182(%rip),%xmm12 # 40a0 <_sk_callback_sse41+0x234>
+ .byte 68,15,84,29,138,33,0,0 // andps 0x218a(%rip),%xmm11 # 40b0 <_sk_callback_sse41+0x244>
+ .byte 68,15,86,29,146,33,0,0 // orps 0x2192(%rip),%xmm11 # 40c0 <_sk_callback_sse41+0x254>
+ .byte 68,15,88,37,154,33,0,0 // addps 0x219a(%rip),%xmm12 # 40d0 <_sk_callback_sse41+0x264>
+ .byte 15,40,13,163,33,0,0 // movaps 0x21a3(%rip),%xmm1 # 40e0 <_sk_callback_sse41+0x274>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,70,33,0,0 // addps 0x2146(%rip),%xmm11 # 4070 <_sk_callback_sse41+0x210>
- .byte 15,40,13,79,33,0,0 // movaps 0x214f(%rip),%xmm1 # 4080 <_sk_callback_sse41+0x220>
+ .byte 68,15,88,29,163,33,0,0 // addps 0x21a3(%rip),%xmm11 # 40f0 <_sk_callback_sse41+0x284>
+ .byte 15,40,13,172,33,0,0 // movaps 0x21ac(%rip),%xmm1 # 4100 <_sk_callback_sse41+0x294>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,60,33,0,0 // addps 0x213c(%rip),%xmm12 # 4090 <_sk_callback_sse41+0x230>
- .byte 15,40,13,69,33,0,0 // movaps 0x2145(%rip),%xmm1 # 40a0 <_sk_callback_sse41+0x240>
+ .byte 68,15,88,37,153,33,0,0 // addps 0x2199(%rip),%xmm12 # 4110 <_sk_callback_sse41+0x2a4>
+ .byte 15,40,13,162,33,0,0 // movaps 0x21a2(%rip),%xmm1 # 4120 <_sk_callback_sse41+0x2b4>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,69,33,0,0 // movaps 0x2145(%rip),%xmm10 # 40b0 <_sk_callback_sse41+0x250>
+ .byte 68,15,40,21,162,33,0,0 // movaps 0x21a2(%rip),%xmm10 # 4130 <_sk_callback_sse41+0x2c4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,74,33,0,0 // movaps 0x214a(%rip),%xmm1 # 40c0 <_sk_callback_sse41+0x260>
+ .byte 15,40,13,167,33,0,0 // movaps 0x21a7(%rip),%xmm1 # 4140 <_sk_callback_sse41+0x2d4>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,75,33,0,0 // mulps 0x214b(%rip),%xmm1 # 40d0 <_sk_callback_sse41+0x270>
+ .byte 15,89,13,168,33,0,0 // mulps 0x21a8(%rip),%xmm1 # 4150 <_sk_callback_sse41+0x2e4>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -19820,31 +20083,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,190,32,0,0 // mulps 0x20be(%rip),%xmm12 # 40e0 <_sk_callback_sse41+0x280>
- .byte 68,15,84,29,198,32,0,0 // andps 0x20c6(%rip),%xmm11 # 40f0 <_sk_callback_sse41+0x290>
- .byte 68,15,86,29,206,32,0,0 // orps 0x20ce(%rip),%xmm11 # 4100 <_sk_callback_sse41+0x2a0>
- .byte 68,15,88,37,214,32,0,0 // addps 0x20d6(%rip),%xmm12 # 4110 <_sk_callback_sse41+0x2b0>
- .byte 15,40,21,223,32,0,0 // movaps 0x20df(%rip),%xmm2 # 4120 <_sk_callback_sse41+0x2c0>
+ .byte 68,15,89,37,27,33,0,0 // mulps 0x211b(%rip),%xmm12 # 4160 <_sk_callback_sse41+0x2f4>
+ .byte 68,15,84,29,35,33,0,0 // andps 0x2123(%rip),%xmm11 # 4170 <_sk_callback_sse41+0x304>
+ .byte 68,15,86,29,43,33,0,0 // orps 0x212b(%rip),%xmm11 # 4180 <_sk_callback_sse41+0x314>
+ .byte 68,15,88,37,51,33,0,0 // addps 0x2133(%rip),%xmm12 # 4190 <_sk_callback_sse41+0x324>
+ .byte 15,40,21,60,33,0,0 // movaps 0x213c(%rip),%xmm2 # 41a0 <_sk_callback_sse41+0x334>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,223,32,0,0 // addps 0x20df(%rip),%xmm11 # 4130 <_sk_callback_sse41+0x2d0>
- .byte 15,40,21,232,32,0,0 // movaps 0x20e8(%rip),%xmm2 # 4140 <_sk_callback_sse41+0x2e0>
+ .byte 68,15,88,29,60,33,0,0 // addps 0x213c(%rip),%xmm11 # 41b0 <_sk_callback_sse41+0x344>
+ .byte 15,40,21,69,33,0,0 // movaps 0x2145(%rip),%xmm2 # 41c0 <_sk_callback_sse41+0x354>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,213,32,0,0 // addps 0x20d5(%rip),%xmm12 # 4150 <_sk_callback_sse41+0x2f0>
- .byte 15,40,21,222,32,0,0 // movaps 0x20de(%rip),%xmm2 # 4160 <_sk_callback_sse41+0x300>
+ .byte 68,15,88,37,50,33,0,0 // addps 0x2132(%rip),%xmm12 # 41d0 <_sk_callback_sse41+0x364>
+ .byte 15,40,21,59,33,0,0 // movaps 0x213b(%rip),%xmm2 # 41e0 <_sk_callback_sse41+0x374>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,222,32,0,0 // movaps 0x20de(%rip),%xmm10 # 4170 <_sk_callback_sse41+0x310>
+ .byte 68,15,40,21,59,33,0,0 // movaps 0x213b(%rip),%xmm10 # 41f0 <_sk_callback_sse41+0x384>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,227,32,0,0 // movaps 0x20e3(%rip),%xmm2 # 4180 <_sk_callback_sse41+0x320>
+ .byte 15,40,21,64,33,0,0 // movaps 0x2140(%rip),%xmm2 # 4200 <_sk_callback_sse41+0x394>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,228,32,0,0 // mulps 0x20e4(%rip),%xmm2 # 4190 <_sk_callback_sse41+0x330>
+ .byte 15,89,21,65,33,0,0 // mulps 0x2141(%rip),%xmm2 # 4210 <_sk_callback_sse41+0x3a4>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -19885,31 +20148,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,87,32,0,0 // mulps 0x2057(%rip),%xmm12 # 41a0 <_sk_callback_sse41+0x340>
- .byte 68,15,84,29,95,32,0,0 // andps 0x205f(%rip),%xmm11 # 41b0 <_sk_callback_sse41+0x350>
- .byte 68,15,86,29,103,32,0,0 // orps 0x2067(%rip),%xmm11 # 41c0 <_sk_callback_sse41+0x360>
- .byte 68,15,88,37,111,32,0,0 // addps 0x206f(%rip),%xmm12 # 41d0 <_sk_callback_sse41+0x370>
- .byte 15,40,29,120,32,0,0 // movaps 0x2078(%rip),%xmm3 # 41e0 <_sk_callback_sse41+0x380>
+ .byte 68,15,89,37,180,32,0,0 // mulps 0x20b4(%rip),%xmm12 # 4220 <_sk_callback_sse41+0x3b4>
+ .byte 68,15,84,29,188,32,0,0 // andps 0x20bc(%rip),%xmm11 # 4230 <_sk_callback_sse41+0x3c4>
+ .byte 68,15,86,29,196,32,0,0 // orps 0x20c4(%rip),%xmm11 # 4240 <_sk_callback_sse41+0x3d4>
+ .byte 68,15,88,37,204,32,0,0 // addps 0x20cc(%rip),%xmm12 # 4250 <_sk_callback_sse41+0x3e4>
+ .byte 15,40,29,213,32,0,0 // movaps 0x20d5(%rip),%xmm3 # 4260 <_sk_callback_sse41+0x3f4>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,120,32,0,0 // addps 0x2078(%rip),%xmm11 # 41f0 <_sk_callback_sse41+0x390>
- .byte 15,40,29,129,32,0,0 // movaps 0x2081(%rip),%xmm3 # 4200 <_sk_callback_sse41+0x3a0>
+ .byte 68,15,88,29,213,32,0,0 // addps 0x20d5(%rip),%xmm11 # 4270 <_sk_callback_sse41+0x404>
+ .byte 15,40,29,222,32,0,0 // movaps 0x20de(%rip),%xmm3 # 4280 <_sk_callback_sse41+0x414>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,110,32,0,0 // addps 0x206e(%rip),%xmm12 # 4210 <_sk_callback_sse41+0x3b0>
- .byte 15,40,29,119,32,0,0 // movaps 0x2077(%rip),%xmm3 # 4220 <_sk_callback_sse41+0x3c0>
+ .byte 68,15,88,37,203,32,0,0 // addps 0x20cb(%rip),%xmm12 # 4290 <_sk_callback_sse41+0x424>
+ .byte 15,40,29,212,32,0,0 // movaps 0x20d4(%rip),%xmm3 # 42a0 <_sk_callback_sse41+0x434>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,119,32,0,0 // movaps 0x2077(%rip),%xmm10 # 4230 <_sk_callback_sse41+0x3d0>
+ .byte 68,15,40,21,212,32,0,0 // movaps 0x20d4(%rip),%xmm10 # 42b0 <_sk_callback_sse41+0x444>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,124,32,0,0 // movaps 0x207c(%rip),%xmm3 # 4240 <_sk_callback_sse41+0x3e0>
+ .byte 15,40,29,217,32,0,0 // movaps 0x20d9(%rip),%xmm3 # 42c0 <_sk_callback_sse41+0x454>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,125,32,0,0 // mulps 0x207d(%rip),%xmm3 # 4250 <_sk_callback_sse41+0x3f0>
+ .byte 15,89,29,218,32,0,0 // mulps 0x20da(%rip),%xmm3 # 42d0 <_sk_callback_sse41+0x464>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -20143,9 +20406,9 @@ _sk_gather_i8_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 250a <_sk_gather_i8_sse41+0xf>
+ .byte 116,5 // je 252d <_sk_gather_i8_sse41+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 250c <_sk_gather_i8_sse41+0x11>
+ .byte 235,2 // jmp 252f <_sk_gather_i8_sse41+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -20176,23 +20439,19 @@ _sk_gather_i8_sse41:
.byte 102,15,58,34,28,8,1 // pinsrd $0x1,(%rax,%rcx,1),%xmm3
.byte 102,66,15,58,34,28,144,2 // pinsrd $0x2,(%rax,%r10,4),%xmm3
.byte 102,66,15,58,34,28,8,3 // pinsrd $0x3,(%rax,%r9,1),%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
+ .byte 102,15,111,5,17,29,0,0 // movdqa 0x1d11(%rip),%xmm0 # 42e0 <_sk_callback_sse41+0x474>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,56,0,13,250,28,0,0 // pshufb 0x1cfa(%rip),%xmm1 # 42f0 <_sk_callback_sse41+0x484>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,15,111,211 // movdqa %xmm3,%xmm2
+ .byte 102,15,56,0,21,246,28,0,0 // pshufb 0x1cf6(%rip),%xmm2 # 4300 <_sk_callback_sse41+0x494>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20474,24 +20733,20 @@ FUNCTION(_sk_load_8888_sse41)
_sk_load_8888_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 243,15,111,28,184 // movdqu (%rax,%rdi,4),%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,219,195 // pand %xmm3,%xmm0
+ .byte 15,16,28,184 // movups (%rax,%rdi,4),%xmm3
+ .byte 15,40,5,232,24,0,0 // movaps 0x18e8(%rip),%xmm0 # 4310 <_sk_callback_sse41+0x4a4>
+ .byte 15,84,195 // andps %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 15,40,203 // movaps %xmm3,%xmm1
+ .byte 102,15,56,0,13,211,24,0,0 // pshufb 0x18d3(%rip),%xmm1 # 4320 <_sk_callback_sse41+0x4b4>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 15,40,211 // movaps %xmm3,%xmm2
+ .byte 102,15,56,0,21,208,24,0,0 // pshufb 0x18d0(%rip),%xmm2 # 4330 <_sk_callback_sse41+0x4c4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20522,23 +20777,19 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,129,1 // pinsrd $0x1,(%r9,%rax,4),%xmm3
.byte 102,67,15,58,34,28,145,2 // pinsrd $0x2,(%r9,%r10,4),%xmm3
.byte 102,65,15,58,34,28,137,3 // pinsrd $0x3,(%r9,%rcx,4),%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
+ .byte 102,15,111,5,105,24,0,0 // movdqa 0x1869(%rip),%xmm0 # 4340 <_sk_callback_sse41+0x4d4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,15,111,203 // movdqa %xmm3,%xmm1
+ .byte 102,15,56,0,13,82,24,0,0 // pshufb 0x1852(%rip),%xmm1 # 4350 <_sk_callback_sse41+0x4e4>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
+ .byte 102,15,111,211 // movdqa %xmm3,%xmm2
+ .byte 102,15,56,0,21,78,24,0,0 // pshufb 0x184e(%rip),%xmm2 # 4360 <_sk_callback_sse41+0x4f4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -20592,18 +20843,18 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,216 // punpcklwd %xmm0,%xmm11
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,152,22,0,0 // movdqa 0x1698(%rip),%xmm8 # 4260 <_sk_callback_sse41+0x400>
+ .byte 102,68,15,111,5,156,23,0,0 // movdqa 0x179c(%rip),%xmm8 # 4370 <_sk_callback_sse41+0x504>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,147,22,0,0 // movdqa 0x1693(%rip),%xmm3 # 4270 <_sk_callback_sse41+0x410>
+ .byte 102,15,111,29,151,23,0,0 // movdqa 0x1797(%rip),%xmm3 # 4380 <_sk_callback_sse41+0x514>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,127,22,0,0 // movdqa 0x167f(%rip),%xmm10 # 4280 <_sk_callback_sse41+0x420>
+ .byte 102,68,15,111,21,131,23,0,0 // movdqa 0x1783(%rip),%xmm10 # 4390 <_sk_callback_sse41+0x524>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -20676,18 +20927,18 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,218 // punpcklwd %xmm2,%xmm11
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,203 // pmovzxwd %xmm11,%xmm1
- .byte 102,68,15,111,5,61,21,0,0 // movdqa 0x153d(%rip),%xmm8 # 4290 <_sk_callback_sse41+0x430>
+ .byte 102,68,15,111,5,65,22,0,0 // movdqa 0x1641(%rip),%xmm8 # 43a0 <_sk_callback_sse41+0x534>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,208 // pand %xmm8,%xmm2
.byte 102,15,239,202 // pxor %xmm2,%xmm1
- .byte 102,15,111,29,56,21,0,0 // movdqa 0x1538(%rip),%xmm3 # 42a0 <_sk_callback_sse41+0x440>
+ .byte 102,15,111,29,60,22,0,0 // movdqa 0x163c(%rip),%xmm3 # 43b0 <_sk_callback_sse41+0x544>
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,193 // pcmpeqd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,68,15,111,21,36,21,0,0 // movdqa 0x1524(%rip),%xmm10 # 42b0 <_sk_callback_sse41+0x450>
+ .byte 102,68,15,111,21,40,22,0,0 // movdqa 0x1628(%rip),%xmm10 # 43c0 <_sk_callback_sse41+0x554>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,219,193 // pand %xmm1,%xmm0
.byte 102,65,15,115,219,8 // psrldq $0x8,%xmm11
@@ -20735,17 +20986,17 @@ FUNCTION(_sk_store_f16_sse41)
_sk_store_f16_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 102,68,15,111,21,90,20,0,0 // movdqa 0x145a(%rip),%xmm10 # 42c0 <_sk_callback_sse41+0x460>
+ .byte 102,68,15,111,21,94,21,0,0 // movdqa 0x155e(%rip),%xmm10 # 43d0 <_sk_callback_sse41+0x564>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,234 // pand %xmm10,%xmm13
.byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,68,15,111,13,77,20,0,0 // movdqa 0x144d(%rip),%xmm9 # 42d0 <_sk_callback_sse41+0x470>
+ .byte 102,68,15,111,13,81,21,0,0 // movdqa 0x1551(%rip),%xmm9 # 43e0 <_sk_callback_sse41+0x574>
.byte 102,65,15,114,213,16 // psrld $0x10,%xmm13
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,196 // pcmpgtd %xmm12,%xmm8
.byte 102,65,15,114,212,13 // psrld $0xd,%xmm12
- .byte 102,68,15,111,29,62,20,0,0 // movdqa 0x143e(%rip),%xmm11 # 42e0 <_sk_callback_sse41+0x480>
+ .byte 102,68,15,111,29,66,21,0,0 // movdqa 0x1542(%rip),%xmm11 # 43f0 <_sk_callback_sse41+0x584>
.byte 102,69,15,235,235 // por %xmm11,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,223,197 // pandn %xmm13,%xmm8
@@ -21368,7 +21619,7 @@ _sk_linear_gradient_sse41:
.byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
.byte 72,139,8 // mov (%rax),%rcx
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,132,254,0,0,0 // je 38e2 <_sk_linear_gradient_sse41+0x138>
+ .byte 15,132,254,0,0,0 // je 38ee <_sk_linear_gradient_sse41+0x138>
.byte 15,41,100,36,168 // movaps %xmm4,-0x58(%rsp)
.byte 15,41,108,36,184 // movaps %xmm5,-0x48(%rsp)
.byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp)
@@ -21418,12 +21669,12 @@ _sk_linear_gradient_sse41:
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 72,131,192,36 // add $0x24,%rax
.byte 72,255,201 // dec %rcx
- .byte 15,133,65,255,255,255 // jne 380d <_sk_linear_gradient_sse41+0x63>
+ .byte 15,133,65,255,255,255 // jne 3819 <_sk_linear_gradient_sse41+0x63>
.byte 15,40,124,36,216 // movaps -0x28(%rsp),%xmm7
.byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6
.byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5
.byte 15,40,100,36,168 // movaps -0x58(%rsp),%xmm4
- .byte 235,13 // jmp 38ef <_sk_linear_gradient_sse41+0x145>
+ .byte 235,13 // jmp 38fb <_sk_linear_gradient_sse41+0x145>
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -21910,9 +22161,67 @@ BALIGN16
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 128,63,255 // cmpb $0xff,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,1 // add %al,(%rcx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a003f88 <_sk_callback_sse41+0xa00011c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3003f90 <_sk_callback_sse41+0x3000124>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 8,255 // or %bh,%bh
+ .byte 10,255 // or %bh,%bh
+ .byte 12,255 // or $0xff,%al
+ .byte 14 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 52,0 // xor $0x0,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,8 // add %cl,(%rax)
+ .byte 128,10,128 // orb $0x80,(%rdx)
+ .byte 12,128 // or $0x80,%al
+ .byte 14 // (bad)
+ .byte 128,0,0 // addb $0x0,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,52,0 // add %dh,(%rax,%rax,1)
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -21920,16 +22229,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 3f74 <.literal16+0x34>
+ .byte 127,0 // jg 3ff4 <.literal16+0xa4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3f78 <.literal16+0x38>
+ .byte 127,0 // jg 3ff8 <.literal16+0xa8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3f7c <.literal16+0x3c>
+ .byte 127,0 // jg 3ffc <.literal16+0xac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 3f80 <.literal16+0x40>
+ .byte 127,0 // jg 4000 <.literal16+0xb0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -21938,7 +22247,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4005 <.literal16+0xc5>
+ .byte 119,115 // ja 4085 <.literal16+0x135>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -21949,7 +22258,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 3f69 <.literal16+0x29>
+ .byte 117,191 // jne 3fe9 <.literal16+0x99>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -21961,7 +22270,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a37faa <_sk_callback_sse41+0xffffffffe9a3414a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3802a <_sk_callback_sse41+0xffffffffe9a341be>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22010,16 +22319,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4034 <.literal16+0xf4>
+ .byte 127,0 // jg 40b4 <.literal16+0x164>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4038 <.literal16+0xf8>
+ .byte 127,0 // jg 40b8 <.literal16+0x168>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 403c <.literal16+0xfc>
+ .byte 127,0 // jg 40bc <.literal16+0x16c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4040 <.literal16+0x100>
+ .byte 127,0 // jg 40c0 <.literal16+0x170>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22028,7 +22337,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 40c5 <.literal16+0x185>
+ .byte 119,115 // ja 4145 <.literal16+0x1f5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22039,7 +22348,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4029 <.literal16+0xe9>
+ .byte 117,191 // jne 40a9 <.literal16+0x159>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22051,7 +22360,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3806a <_sk_callback_sse41+0xffffffffe9a3420a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a380ea <_sk_callback_sse41+0xffffffffe9a3427e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22100,16 +22409,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 40f4 <.literal16+0x1b4>
+ .byte 127,0 // jg 4174 <.literal16+0x224>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 40f8 <.literal16+0x1b8>
+ .byte 127,0 // jg 4178 <.literal16+0x228>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 40fc <.literal16+0x1bc>
+ .byte 127,0 // jg 417c <.literal16+0x22c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4100 <.literal16+0x1c0>
+ .byte 127,0 // jg 4180 <.literal16+0x230>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22118,7 +22427,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4185 <.literal16+0x245>
+ .byte 119,115 // ja 4205 <.literal16+0x2b5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22129,7 +22438,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 40e9 <.literal16+0x1a9>
+ .byte 117,191 // jne 4169 <.literal16+0x219>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22141,7 +22450,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3812a <_sk_callback_sse41+0xffffffffe9a342ca>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a381aa <_sk_callback_sse41+0xffffffffe9a3433e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22190,16 +22499,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 41b4 <.literal16+0x274>
+ .byte 127,0 // jg 4234 <.literal16+0x2e4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41b8 <.literal16+0x278>
+ .byte 127,0 // jg 4238 <.literal16+0x2e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41bc <.literal16+0x27c>
+ .byte 127,0 // jg 423c <.literal16+0x2ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 41c0 <.literal16+0x280>
+ .byte 127,0 // jg 4240 <.literal16+0x2f0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -22208,7 +22517,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4245 <.literal16+0x305>
+ .byte 119,115 // ja 42c5 <.literal16+0x375>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -22219,7 +22528,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 41a9 <.literal16+0x269>
+ .byte 117,191 // jne 4229 <.literal16+0x2d9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -22231,7 +22540,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a381ea <_sk_callback_sse41+0xffffffffe9a3438a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3826a <_sk_callback_sse41+0xffffffffe9a343fe>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -22271,13 +22580,90 @@ BALIGN16
.byte 75,0,0 // rex.WXB add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
- .byte 75,0,128,0,0,0,128 // rex.WXB add %al,-0x80000000(%r8)
+ .byte 75,255,0 // rex.WXB incq (%r8)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0042f8 <_sk_callback_sse41+0xa00048c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3004300 <_sk_callback_sse41+0x3000494>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004328 <_sk_callback_sse41+0xa0004bc>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3004330 <_sk_callback_sse41+0x30004c4>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,255 // add %edi,%edi
+ .byte 255 // (bad)
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a004358 <_sk_callback_sse41+0xa0004ec>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3004360 <_sk_callback_sse41+0x30004f4>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,6 // incl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,10 // decl (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,14 // decl (%rsi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,0 // incl (%rax)
+ .byte 128,0,0 // addb $0x0,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
+ .byte 0,128,0,0,0,4 // add %al,0x4000000(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
+ .byte 0,4,0 // add %al,(%rax,%rax,1)
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -22387,7 +22773,7 @@ _sk_seed_shader_sse2:
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,40,21,212,66,0,0 // movaps 0x42d4(%rip),%xmm2 # 4350 <_sk_callback_sse2+0xe0>
+ .byte 15,40,21,196,66,0,0 // movaps 0x42c4(%rip),%xmm2 # 4340 <_sk_callback_sse2+0xe2>
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,16,2 // movups (%rdx),%xmm0
.byte 15,88,193 // addps %xmm1,%xmm0
@@ -22396,7 +22782,7 @@ _sk_seed_shader_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,195,66,0,0 // movaps 0x42c3(%rip),%xmm2 # 4360 <_sk_callback_sse2+0xf0>
+ .byte 15,40,21,179,66,0,0 // movaps 0x42b3(%rip),%xmm2 # 4350 <_sk_callback_sse2+0xf2>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -24030,67 +24416,64 @@ HIDDEN _sk_load_tables_sse2
FUNCTION(_sk_load_tables_sse2)
_sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,8 // mov (%rax),%rcx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 243,68,15,111,4,185 // movdqu (%rcx,%rdi,4),%xmm8
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,65,15,114,209,8 // psrld $0x8,%xmm9
- .byte 102,68,15,219,200 // pand %xmm0,%xmm9
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,68,15,219,208 // pand %xmm0,%xmm10
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 76,139,72,8 // mov 0x8(%rax),%r9
+ .byte 243,69,15,111,12,184 // movdqu (%r8,%rdi,4),%xmm9
+ .byte 102,68,15,111,5,129,45,0,0 // movdqa 0x2d81(%rip),%xmm8 # 4360 <_sk_callback_sse2+0x102>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,72,15,126,217 // movq %xmm3,%rcx
- .byte 65,137,201 // mov %ecx,%r9d
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 243,65,15,16,4,136 // movss (%r8,%rcx,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 243,67,15,16,12,136 // movss (%r8,%r9,4),%xmm1
+ .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
+ .byte 102,73,15,126,200 // movq %xmm1,%r8
+ .byte 102,72,15,126,193 // movq %xmm0,%rcx
+ .byte 68,15,182,209 // movzbl %cl,%r10d
+ .byte 72,193,233,30 // shr $0x1e,%rcx
+ .byte 69,15,182,216 // movzbl %r8b,%r11d
+ .byte 73,193,232,30 // shr $0x1e,%r8
+ .byte 243,65,15,16,12,9 // movss (%r9,%rcx,1),%xmm1
+ .byte 243,67,15,16,4,1 // movss (%r9,%r8,1),%xmm0
+ .byte 15,20,200 // unpcklps %xmm0,%xmm1
+ .byte 243,67,15,16,4,145 // movss (%r9,%r10,4),%xmm0
+ .byte 243,67,15,16,20,153 // movss (%r9,%r11,4),%xmm2
+ .byte 15,20,194 // unpcklps %xmm2,%xmm0
.byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
.byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 102,65,15,112,201,78 // pshufd $0x4e,%xmm9,%xmm1
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 77,137,209 // mov %r10,%r9
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 102,76,15,126,201 // movq %xmm9,%rcx
- .byte 65,137,203 // mov %ecx,%r11d
- .byte 65,129,227,255,255,255,0 // and $0xffffff,%r11d
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,8 // psrld $0x8,%xmm1
+ .byte 102,65,15,219,200 // pand %xmm8,%xmm1
+ .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
+ .byte 102,73,15,126,209 // movq %xmm2,%r9
+ .byte 102,72,15,126,201 // movq %xmm1,%rcx
+ .byte 68,15,182,209 // movzbl %cl,%r10d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 65,129,226,255,255,255,0 // and $0xffffff,%r10d
- .byte 243,65,15,16,28,8 // movss (%r8,%rcx,1),%xmm3
- .byte 243,67,15,16,12,136 // movss (%r8,%r9,4),%xmm1
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,67,15,16,12,152 // movss (%r8,%r11,4),%xmm1
- .byte 243,67,15,16,20,144 // movss (%r8,%r10,4),%xmm2
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
+ .byte 69,15,182,217 // movzbl %r9b,%r11d
+ .byte 73,193,233,30 // shr $0x1e,%r9
+ .byte 243,65,15,16,20,8 // movss (%r8,%rcx,1),%xmm2
+ .byte 243,67,15,16,12,8 // movss (%r8,%r9,1),%xmm1
+ .byte 15,20,209 // unpcklps %xmm1,%xmm2
+ .byte 243,67,15,16,12,144 // movss (%r8,%r10,4),%xmm1
+ .byte 243,67,15,16,28,152 // movss (%r8,%r11,4),%xmm3
.byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 102,65,15,112,210,78 // pshufd $0x4e,%xmm10,%xmm2
- .byte 102,72,15,126,209 // movq %xmm2,%rcx
- .byte 68,15,183,193 // movzwl %cx,%r8d
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 102,76,15,126,208 // movq %xmm10,%rax
- .byte 68,15,183,208 // movzwl %ax,%r10d
+ .byte 15,20,202 // unpcklps %xmm2,%xmm1
+ .byte 76,139,64,24 // mov 0x18(%rax),%r8
+ .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
+ .byte 102,15,114,210,16 // psrld $0x10,%xmm2
+ .byte 102,65,15,219,208 // pand %xmm8,%xmm2
+ .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
+ .byte 102,72,15,126,217 // movq %xmm3,%rcx
+ .byte 102,72,15,126,208 // movq %xmm2,%rax
+ .byte 68,15,182,200 // movzbl %al,%r9d
.byte 72,193,232,30 // shr $0x1e,%rax
- .byte 243,69,15,16,12,1 // movss (%r9,%rax,1),%xmm9
- .byte 243,65,15,16,20,137 // movss (%r9,%rcx,4),%xmm2
- .byte 68,15,20,202 // unpcklps %xmm2,%xmm9
- .byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2
- .byte 243,67,15,16,28,129 // movss (%r9,%r8,4),%xmm3
+ .byte 68,15,182,209 // movzbl %cl,%r10d
+ .byte 72,193,233,30 // shr $0x1e,%rcx
+ .byte 243,69,15,16,4,0 // movss (%r8,%rax,1),%xmm8
+ .byte 243,65,15,16,20,8 // movss (%r8,%rcx,1),%xmm2
+ .byte 68,15,20,194 // unpcklps %xmm2,%xmm8
+ .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
+ .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
.byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 65,15,20,209 // unpcklps %xmm9,%xmm2
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
+ .byte 65,15,20,208 // unpcklps %xmm8,%xmm2
+ .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
+ .byte 69,15,91,193 // cvtdq2ps %xmm9,%xmm8
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,15,110,216 // movd %eax,%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -24107,25 +24490,23 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 243,15,111,4,249 // movdqu (%rcx,%rdi,8),%xmm0
.byte 243,15,111,76,249,16 // movdqu 0x10(%rcx,%rdi,8),%xmm1
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,68,15,97,209 // punpcklwd %xmm1,%xmm10
+ .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
+ .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,68,15,105,208 // punpckhwd %xmm0,%xmm10
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
+ .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
+ .byte 102,68,15,111,21,71,44,0,0 // movdqa 0x2c47(%rip),%xmm10 # 4370 <_sk_callback_sse2+0x112>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
+ .byte 102,65,15,219,194 // pand %xmm10,%xmm0
+ .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,68,15,112,203,0 // pshufd $0x0,%xmm3,%xmm9
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
.byte 102,72,15,126,217 // movq %xmm3,%rcx
- .byte 68,15,183,201 // movzwl %cx,%r9d
+ .byte 68,15,182,201 // movzbl %cl,%r9d
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,15,183,218 // movzwl %r10w,%r11d
+ .byte 69,15,182,218 // movzbl %r10b,%r11d
.byte 73,193,234,30 // shr $0x1e,%r10
.byte 243,67,15,16,28,16 // movss (%r8,%r10,1),%xmm3
.byte 243,65,15,16,4,136 // movss (%r8,%rcx,4),%xmm0
@@ -24136,14 +24517,14 @@ _sk_load_tables_u16_be_sse2:
.byte 15,20,195 // unpcklps %xmm3,%xmm0
.byte 76,139,80,16 // mov 0x10(%rax),%r10
.byte 102,15,115,217,8 // psrldq $0x8,%xmm1
+ .byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,65,15,219,201 // pand %xmm9,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,15,183,200 // movzwl %r8w,%r9d
+ .byte 69,15,182,200 // movzbl %r8b,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
.byte 102,72,15,126,201 // movq %xmm1,%rcx
- .byte 68,15,183,217 // movzwl %cx,%r11d
+ .byte 68,15,182,217 // movzbl %cl,%r11d
.byte 72,193,233,30 // shr $0x1e,%rcx
.byte 243,65,15,16,20,10 // movss (%r10,%rcx,1),%xmm2
.byte 243,67,15,16,12,130 // movss (%r10,%r8,4),%xmm1
@@ -24153,33 +24534,33 @@ _sk_load_tables_u16_be_sse2:
.byte 15,20,203 // unpcklps %xmm3,%xmm1
.byte 15,20,202 // unpcklps %xmm2,%xmm1
.byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 102,69,15,112,218,78 // pshufd $0x4e,%xmm10,%xmm11
- .byte 102,69,15,97,208 // punpcklwd %xmm8,%xmm10
.byte 102,69,15,219,209 // pand %xmm9,%xmm10
+ .byte 102,69,15,97,208 // punpcklwd %xmm8,%xmm10
.byte 102,65,15,112,210,78 // pshufd $0x4e,%xmm10,%xmm2
.byte 102,72,15,126,209 // movq %xmm2,%rcx
- .byte 68,15,183,193 // movzwl %cx,%r8d
+ .byte 68,15,182,193 // movzbl %cl,%r8d
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,76,15,126,208 // movq %xmm10,%rax
- .byte 68,15,183,208 // movzwl %ax,%r10d
+ .byte 68,15,182,208 // movzbl %al,%r10d
.byte 72,193,232,30 // shr $0x1e,%rax
- .byte 243,69,15,16,12,1 // movss (%r9,%rax,1),%xmm9
+ .byte 243,69,15,16,20,1 // movss (%r9,%rax,1),%xmm10
.byte 243,65,15,16,20,137 // movss (%r9,%rcx,4),%xmm2
- .byte 68,15,20,202 // unpcklps %xmm2,%xmm9
+ .byte 68,15,20,210 // unpcklps %xmm2,%xmm10
.byte 243,67,15,16,20,145 // movss (%r9,%r10,4),%xmm2
.byte 243,67,15,16,28,129 // movss (%r9,%r8,4),%xmm3
.byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 65,15,20,209 // unpcklps %xmm9,%xmm2
+ .byte 65,15,20,210 // unpcklps %xmm10,%xmm2
.byte 184,128,0,128,55 // mov $0x37800080,%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,235,219 // por %xmm3,%xmm11
- .byte 102,69,15,97,216 // punpcklwd %xmm8,%xmm11
- .byte 65,15,91,219 // cvtdq2ps %xmm11,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
+ .byte 102,68,15,110,208 // movd %eax,%xmm10
+ .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
+ .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
+ .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
+ .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
+ .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
+ .byte 102,65,15,235,217 // por %xmm9,%xmm3
+ .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
+ .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -24194,61 +24575,59 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 243,70,15,111,28,73 // movdqu (%rcx,%r9,2),%xmm11
.byte 243,66,15,111,68,73,8 // movdqu 0x8(%rcx,%r9,2),%xmm0
.byte 102,15,115,216,4 // psrldq $0x4,%xmm0
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 102,15,115,219,6 // psrldq $0x6,%xmm3
+ .byte 102,69,15,111,211 // movdqa %xmm11,%xmm10
+ .byte 102,65,15,115,218,6 // psrldq $0x6,%xmm10
.byte 102,68,15,97,216 // punpcklwd %xmm0,%xmm11
.byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
+ .byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,68,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm10
- .byte 102,68,15,105,219 // punpckhwd %xmm3,%xmm11
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 185,255,0,0,0 // mov $0xff,%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,68,15,112,203,0 // pshufd $0x0,%xmm3,%xmm9
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
+ .byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
+ .byte 102,68,15,111,5,218,42,0,0 // movdqa 0x2ada(%rip),%xmm8 # 4380 <_sk_callback_sse2+0x122>
+ .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
+ .byte 102,65,15,219,192 // pand %xmm8,%xmm0
+ .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
+ .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
.byte 102,72,15,126,217 // movq %xmm3,%rcx
- .byte 68,15,183,201 // movzwl %cx,%r9d
+ .byte 68,15,182,201 // movzbl %cl,%r9d
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,15,183,218 // movzwl %r10w,%r11d
+ .byte 69,15,182,218 // movzbl %r10b,%r11d
.byte 73,193,234,30 // shr $0x1e,%r10
.byte 243,67,15,16,28,16 // movss (%r8,%r10,1),%xmm3
.byte 243,65,15,16,4,136 // movss (%r8,%rcx,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 243,67,15,16,12,136 // movss (%r8,%r9,4),%xmm1
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
+ .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
+ .byte 15,20,194 // unpcklps %xmm2,%xmm0
.byte 15,20,195 // unpcklps %xmm3,%xmm0
.byte 76,139,80,16 // mov 0x10(%rax),%r10
- .byte 102,69,15,97,208 // punpcklwd %xmm8,%xmm10
- .byte 102,69,15,219,209 // pand %xmm9,%xmm10
- .byte 102,65,15,112,202,78 // pshufd $0x4e,%xmm10,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 69,15,183,200 // movzwl %r8w,%r9d
+ .byte 102,65,15,219,200 // pand %xmm8,%xmm1
+ .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
+ .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
+ .byte 102,73,15,126,208 // movq %xmm2,%r8
+ .byte 69,15,182,200 // movzbl %r8b,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,76,15,126,209 // movq %xmm10,%rcx
- .byte 68,15,183,217 // movzwl %cx,%r11d
+ .byte 102,72,15,126,201 // movq %xmm1,%rcx
+ .byte 68,15,182,217 // movzbl %cl,%r11d
.byte 72,193,233,30 // shr $0x1e,%rcx
- .byte 243,65,15,16,28,10 // movss (%r10,%rcx,1),%xmm3
+ .byte 243,65,15,16,20,10 // movss (%r10,%rcx,1),%xmm2
.byte 243,67,15,16,12,130 // movss (%r10,%r8,4),%xmm1
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
+ .byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 243,67,15,16,12,154 // movss (%r10,%r11,4),%xmm1
- .byte 243,67,15,16,20,138 // movss (%r10,%r9,4),%xmm2
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
+ .byte 243,67,15,16,28,138 // movss (%r10,%r9,4),%xmm3
.byte 15,20,203 // unpcklps %xmm3,%xmm1
+ .byte 15,20,202 // unpcklps %xmm2,%xmm1
.byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 102,69,15,97,216 // punpcklwd %xmm8,%xmm11
- .byte 102,69,15,219,217 // pand %xmm9,%xmm11
+ .byte 102,69,15,105,218 // punpckhwd %xmm10,%xmm11
+ .byte 102,69,15,219,216 // pand %xmm8,%xmm11
+ .byte 102,69,15,97,217 // punpcklwd %xmm9,%xmm11
.byte 102,65,15,112,211,78 // pshufd $0x4e,%xmm11,%xmm2
.byte 102,72,15,126,209 // movq %xmm2,%rcx
- .byte 68,15,183,193 // movzwl %cx,%r8d
+ .byte 68,15,182,193 // movzbl %cl,%r8d
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 102,76,15,126,216 // movq %xmm11,%rax
- .byte 68,15,183,208 // movzwl %ax,%r10d
+ .byte 68,15,182,208 // movzbl %al,%r10d
.byte 72,193,232,30 // shr $0x1e,%rax
.byte 243,69,15,16,4,1 // movss (%r9,%rax,1),%xmm8
.byte 243,65,15,16,20,137 // movss (%r9,%rcx,4),%xmm2
@@ -24616,15 +24995,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,131,36,0,0 // mulps 0x2483(%rip),%xmm9 # 4370 <_sk_callback_sse2+0x100>
- .byte 68,15,84,21,139,36,0,0 // andps 0x248b(%rip),%xmm10 # 4380 <_sk_callback_sse2+0x110>
- .byte 68,15,86,21,147,36,0,0 // orps 0x2493(%rip),%xmm10 # 4390 <_sk_callback_sse2+0x120>
- .byte 68,15,88,13,155,36,0,0 // addps 0x249b(%rip),%xmm9 # 43a0 <_sk_callback_sse2+0x130>
- .byte 68,15,40,37,163,36,0,0 // movaps 0x24a3(%rip),%xmm12 # 43b0 <_sk_callback_sse2+0x140>
+ .byte 68,15,89,13,189,36,0,0 // mulps 0x24bd(%rip),%xmm9 # 4390 <_sk_callback_sse2+0x132>
+ .byte 68,15,84,21,197,36,0,0 // andps 0x24c5(%rip),%xmm10 # 43a0 <_sk_callback_sse2+0x142>
+ .byte 68,15,86,21,205,36,0,0 // orps 0x24cd(%rip),%xmm10 # 43b0 <_sk_callback_sse2+0x152>
+ .byte 68,15,88,13,213,36,0,0 // addps 0x24d5(%rip),%xmm9 # 43c0 <_sk_callback_sse2+0x162>
+ .byte 68,15,40,37,221,36,0,0 // movaps 0x24dd(%rip),%xmm12 # 43d0 <_sk_callback_sse2+0x172>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,163,36,0,0 // addps 0x24a3(%rip),%xmm10 # 43c0 <_sk_callback_sse2+0x150>
- .byte 68,15,40,37,171,36,0,0 // movaps 0x24ab(%rip),%xmm12 # 43d0 <_sk_callback_sse2+0x160>
+ .byte 68,15,88,21,221,36,0,0 // addps 0x24dd(%rip),%xmm10 # 43e0 <_sk_callback_sse2+0x182>
+ .byte 68,15,40,37,229,36,0,0 // movaps 0x24e5(%rip),%xmm12 # 43f0 <_sk_callback_sse2+0x192>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -24632,21 +25011,21 @@ _sk_parametric_r_sse2:
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,149,36,0,0 // andps 0x2495(%rip),%xmm12 # 43e0 <_sk_callback_sse2+0x170>
+ .byte 68,15,84,37,207,36,0,0 // andps 0x24cf(%rip),%xmm12 # 4400 <_sk_callback_sse2+0x1a2>
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,92,220 // subps %xmm12,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,141,36,0,0 // addps 0x248d(%rip),%xmm9 # 43f0 <_sk_callback_sse2+0x180>
- .byte 68,15,40,29,149,36,0,0 // movaps 0x2495(%rip),%xmm11 # 4400 <_sk_callback_sse2+0x190>
+ .byte 68,15,88,13,199,36,0,0 // addps 0x24c7(%rip),%xmm9 # 4410 <_sk_callback_sse2+0x1b2>
+ .byte 68,15,40,29,207,36,0,0 // movaps 0x24cf(%rip),%xmm11 # 4420 <_sk_callback_sse2+0x1c2>
.byte 69,15,89,220 // mulps %xmm12,%xmm11
.byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,149,36,0,0 // movaps 0x2495(%rip),%xmm11 # 4410 <_sk_callback_sse2+0x1a0>
+ .byte 68,15,40,29,207,36,0,0 // movaps 0x24cf(%rip),%xmm11 # 4430 <_sk_callback_sse2+0x1d2>
.byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,153,36,0,0 // movaps 0x2499(%rip),%xmm12 # 4420 <_sk_callback_sse2+0x1b0>
+ .byte 68,15,40,37,211,36,0,0 // movaps 0x24d3(%rip),%xmm12 # 4440 <_sk_callback_sse2+0x1e2>
.byte 69,15,94,227 // divps %xmm11,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,153,36,0,0 // mulps 0x2499(%rip),%xmm12 # 4430 <_sk_callback_sse2+0x1c0>
+ .byte 68,15,89,37,211,36,0,0 // mulps 0x24d3(%rip),%xmm12 # 4450 <_sk_callback_sse2+0x1f2>
.byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
.byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
@@ -24685,15 +25064,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,10,36,0,0 // mulps 0x240a(%rip),%xmm9 # 4440 <_sk_callback_sse2+0x1d0>
- .byte 68,15,84,21,18,36,0,0 // andps 0x2412(%rip),%xmm10 # 4450 <_sk_callback_sse2+0x1e0>
- .byte 68,15,86,21,26,36,0,0 // orps 0x241a(%rip),%xmm10 # 4460 <_sk_callback_sse2+0x1f0>
- .byte 68,15,88,13,34,36,0,0 // addps 0x2422(%rip),%xmm9 # 4470 <_sk_callback_sse2+0x200>
- .byte 68,15,40,37,42,36,0,0 // movaps 0x242a(%rip),%xmm12 # 4480 <_sk_callback_sse2+0x210>
+ .byte 68,15,89,13,68,36,0,0 // mulps 0x2444(%rip),%xmm9 # 4460 <_sk_callback_sse2+0x202>
+ .byte 68,15,84,21,76,36,0,0 // andps 0x244c(%rip),%xmm10 # 4470 <_sk_callback_sse2+0x212>
+ .byte 68,15,86,21,84,36,0,0 // orps 0x2454(%rip),%xmm10 # 4480 <_sk_callback_sse2+0x222>
+ .byte 68,15,88,13,92,36,0,0 // addps 0x245c(%rip),%xmm9 # 4490 <_sk_callback_sse2+0x232>
+ .byte 68,15,40,37,100,36,0,0 // movaps 0x2464(%rip),%xmm12 # 44a0 <_sk_callback_sse2+0x242>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,42,36,0,0 // addps 0x242a(%rip),%xmm10 # 4490 <_sk_callback_sse2+0x220>
- .byte 68,15,40,37,50,36,0,0 // movaps 0x2432(%rip),%xmm12 # 44a0 <_sk_callback_sse2+0x230>
+ .byte 68,15,88,21,100,36,0,0 // addps 0x2464(%rip),%xmm10 # 44b0 <_sk_callback_sse2+0x252>
+ .byte 68,15,40,37,108,36,0,0 // movaps 0x246c(%rip),%xmm12 # 44c0 <_sk_callback_sse2+0x262>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -24701,21 +25080,21 @@ _sk_parametric_g_sse2:
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,28,36,0,0 // andps 0x241c(%rip),%xmm12 # 44b0 <_sk_callback_sse2+0x240>
+ .byte 68,15,84,37,86,36,0,0 // andps 0x2456(%rip),%xmm12 # 44d0 <_sk_callback_sse2+0x272>
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,92,220 // subps %xmm12,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,20,36,0,0 // addps 0x2414(%rip),%xmm9 # 44c0 <_sk_callback_sse2+0x250>
- .byte 68,15,40,29,28,36,0,0 // movaps 0x241c(%rip),%xmm11 # 44d0 <_sk_callback_sse2+0x260>
+ .byte 68,15,88,13,78,36,0,0 // addps 0x244e(%rip),%xmm9 # 44e0 <_sk_callback_sse2+0x282>
+ .byte 68,15,40,29,86,36,0,0 // movaps 0x2456(%rip),%xmm11 # 44f0 <_sk_callback_sse2+0x292>
.byte 69,15,89,220 // mulps %xmm12,%xmm11
.byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,28,36,0,0 // movaps 0x241c(%rip),%xmm11 # 44e0 <_sk_callback_sse2+0x270>
+ .byte 68,15,40,29,86,36,0,0 // movaps 0x2456(%rip),%xmm11 # 4500 <_sk_callback_sse2+0x2a2>
.byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,32,36,0,0 // movaps 0x2420(%rip),%xmm12 # 44f0 <_sk_callback_sse2+0x280>
+ .byte 68,15,40,37,90,36,0,0 // movaps 0x245a(%rip),%xmm12 # 4510 <_sk_callback_sse2+0x2b2>
.byte 69,15,94,227 // divps %xmm11,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,32,36,0,0 // mulps 0x2420(%rip),%xmm12 # 4500 <_sk_callback_sse2+0x290>
+ .byte 68,15,89,37,90,36,0,0 // mulps 0x245a(%rip),%xmm12 # 4520 <_sk_callback_sse2+0x2c2>
.byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
.byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
@@ -24754,15 +25133,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,145,35,0,0 // mulps 0x2391(%rip),%xmm9 # 4510 <_sk_callback_sse2+0x2a0>
- .byte 68,15,84,21,153,35,0,0 // andps 0x2399(%rip),%xmm10 # 4520 <_sk_callback_sse2+0x2b0>
- .byte 68,15,86,21,161,35,0,0 // orps 0x23a1(%rip),%xmm10 # 4530 <_sk_callback_sse2+0x2c0>
- .byte 68,15,88,13,169,35,0,0 // addps 0x23a9(%rip),%xmm9 # 4540 <_sk_callback_sse2+0x2d0>
- .byte 68,15,40,37,177,35,0,0 // movaps 0x23b1(%rip),%xmm12 # 4550 <_sk_callback_sse2+0x2e0>
+ .byte 68,15,89,13,203,35,0,0 // mulps 0x23cb(%rip),%xmm9 # 4530 <_sk_callback_sse2+0x2d2>
+ .byte 68,15,84,21,211,35,0,0 // andps 0x23d3(%rip),%xmm10 # 4540 <_sk_callback_sse2+0x2e2>
+ .byte 68,15,86,21,219,35,0,0 // orps 0x23db(%rip),%xmm10 # 4550 <_sk_callback_sse2+0x2f2>
+ .byte 68,15,88,13,227,35,0,0 // addps 0x23e3(%rip),%xmm9 # 4560 <_sk_callback_sse2+0x302>
+ .byte 68,15,40,37,235,35,0,0 // movaps 0x23eb(%rip),%xmm12 # 4570 <_sk_callback_sse2+0x312>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,177,35,0,0 // addps 0x23b1(%rip),%xmm10 # 4560 <_sk_callback_sse2+0x2f0>
- .byte 68,15,40,37,185,35,0,0 // movaps 0x23b9(%rip),%xmm12 # 4570 <_sk_callback_sse2+0x300>
+ .byte 68,15,88,21,235,35,0,0 // addps 0x23eb(%rip),%xmm10 # 4580 <_sk_callback_sse2+0x322>
+ .byte 68,15,40,37,243,35,0,0 // movaps 0x23f3(%rip),%xmm12 # 4590 <_sk_callback_sse2+0x332>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -24770,21 +25149,21 @@ _sk_parametric_b_sse2:
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,163,35,0,0 // andps 0x23a3(%rip),%xmm12 # 4580 <_sk_callback_sse2+0x310>
+ .byte 68,15,84,37,221,35,0,0 // andps 0x23dd(%rip),%xmm12 # 45a0 <_sk_callback_sse2+0x342>
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,92,220 // subps %xmm12,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,155,35,0,0 // addps 0x239b(%rip),%xmm9 # 4590 <_sk_callback_sse2+0x320>
- .byte 68,15,40,29,163,35,0,0 // movaps 0x23a3(%rip),%xmm11 # 45a0 <_sk_callback_sse2+0x330>
+ .byte 68,15,88,13,213,35,0,0 // addps 0x23d5(%rip),%xmm9 # 45b0 <_sk_callback_sse2+0x352>
+ .byte 68,15,40,29,221,35,0,0 // movaps 0x23dd(%rip),%xmm11 # 45c0 <_sk_callback_sse2+0x362>
.byte 69,15,89,220 // mulps %xmm12,%xmm11
.byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,163,35,0,0 // movaps 0x23a3(%rip),%xmm11 # 45b0 <_sk_callback_sse2+0x340>
+ .byte 68,15,40,29,221,35,0,0 // movaps 0x23dd(%rip),%xmm11 # 45d0 <_sk_callback_sse2+0x372>
.byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,167,35,0,0 // movaps 0x23a7(%rip),%xmm12 # 45c0 <_sk_callback_sse2+0x350>
+ .byte 68,15,40,37,225,35,0,0 // movaps 0x23e1(%rip),%xmm12 # 45e0 <_sk_callback_sse2+0x382>
.byte 69,15,94,227 // divps %xmm11,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,167,35,0,0 // mulps 0x23a7(%rip),%xmm12 # 45d0 <_sk_callback_sse2+0x360>
+ .byte 68,15,89,37,225,35,0,0 // mulps 0x23e1(%rip),%xmm12 # 45f0 <_sk_callback_sse2+0x392>
.byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
.byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
@@ -24823,15 +25202,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,24,35,0,0 // mulps 0x2318(%rip),%xmm9 # 45e0 <_sk_callback_sse2+0x370>
- .byte 68,15,84,21,32,35,0,0 // andps 0x2320(%rip),%xmm10 # 45f0 <_sk_callback_sse2+0x380>
- .byte 68,15,86,21,40,35,0,0 // orps 0x2328(%rip),%xmm10 # 4600 <_sk_callback_sse2+0x390>
- .byte 68,15,88,13,48,35,0,0 // addps 0x2330(%rip),%xmm9 # 4610 <_sk_callback_sse2+0x3a0>
- .byte 68,15,40,37,56,35,0,0 // movaps 0x2338(%rip),%xmm12 # 4620 <_sk_callback_sse2+0x3b0>
+ .byte 68,15,89,13,82,35,0,0 // mulps 0x2352(%rip),%xmm9 # 4600 <_sk_callback_sse2+0x3a2>
+ .byte 68,15,84,21,90,35,0,0 // andps 0x235a(%rip),%xmm10 # 4610 <_sk_callback_sse2+0x3b2>
+ .byte 68,15,86,21,98,35,0,0 // orps 0x2362(%rip),%xmm10 # 4620 <_sk_callback_sse2+0x3c2>
+ .byte 68,15,88,13,106,35,0,0 // addps 0x236a(%rip),%xmm9 # 4630 <_sk_callback_sse2+0x3d2>
+ .byte 68,15,40,37,114,35,0,0 // movaps 0x2372(%rip),%xmm12 # 4640 <_sk_callback_sse2+0x3e2>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,56,35,0,0 // addps 0x2338(%rip),%xmm10 # 4630 <_sk_callback_sse2+0x3c0>
- .byte 68,15,40,37,64,35,0,0 // movaps 0x2340(%rip),%xmm12 # 4640 <_sk_callback_sse2+0x3d0>
+ .byte 68,15,88,21,114,35,0,0 // addps 0x2372(%rip),%xmm10 # 4650 <_sk_callback_sse2+0x3f2>
+ .byte 68,15,40,37,122,35,0,0 // movaps 0x237a(%rip),%xmm12 # 4660 <_sk_callback_sse2+0x402>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -24839,21 +25218,21 @@ _sk_parametric_a_sse2:
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 68,15,84,37,42,35,0,0 // andps 0x232a(%rip),%xmm12 # 4650 <_sk_callback_sse2+0x3e0>
+ .byte 68,15,84,37,100,35,0,0 // andps 0x2364(%rip),%xmm12 # 4670 <_sk_callback_sse2+0x412>
.byte 69,15,87,210 // xorps %xmm10,%xmm10
.byte 69,15,92,220 // subps %xmm12,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,88,13,34,35,0,0 // addps 0x2322(%rip),%xmm9 # 4660 <_sk_callback_sse2+0x3f0>
- .byte 68,15,40,29,42,35,0,0 // movaps 0x232a(%rip),%xmm11 # 4670 <_sk_callback_sse2+0x400>
+ .byte 68,15,88,13,92,35,0,0 // addps 0x235c(%rip),%xmm9 # 4680 <_sk_callback_sse2+0x422>
+ .byte 68,15,40,29,100,35,0,0 // movaps 0x2364(%rip),%xmm11 # 4690 <_sk_callback_sse2+0x432>
.byte 69,15,89,220 // mulps %xmm12,%xmm11
.byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 68,15,40,29,42,35,0,0 // movaps 0x232a(%rip),%xmm11 # 4680 <_sk_callback_sse2+0x410>
+ .byte 68,15,40,29,100,35,0,0 // movaps 0x2364(%rip),%xmm11 # 46a0 <_sk_callback_sse2+0x442>
.byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 68,15,40,37,46,35,0,0 // movaps 0x232e(%rip),%xmm12 # 4690 <_sk_callback_sse2+0x420>
+ .byte 68,15,40,37,104,35,0,0 // movaps 0x2368(%rip),%xmm12 # 46b0 <_sk_callback_sse2+0x452>
.byte 69,15,94,227 // divps %xmm11,%xmm12
.byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,89,37,46,35,0,0 // mulps 0x232e(%rip),%xmm12 # 46a0 <_sk_callback_sse2+0x430>
+ .byte 68,15,89,37,104,35,0,0 // mulps 0x2368(%rip),%xmm12 # 46c0 <_sk_callback_sse2+0x462>
.byte 102,69,15,91,204 // cvtps2dq %xmm12,%xmm9
.byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
@@ -25123,9 +25502,9 @@ _sk_gather_i8_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,192 // mov %rax,%r8
.byte 77,133,192 // test %r8,%r8
- .byte 116,5 // je 2718 <_sk_gather_i8_sse2+0xf>
+ .byte 116,5 // je 26fe <_sk_gather_i8_sse2+0xf>
.byte 76,137,192 // mov %r8,%rax
- .byte 235,2 // jmp 271a <_sk_gather_i8_sse2+0x11>
+ .byte 235,2 // jmp 2700 <_sk_gather_i8_sse2+0x11>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,16 // mov (%rax),%r10
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -25170,31 +25549,30 @@ _sk_gather_i8_sse2:
.byte 102,65,15,110,4,8 // movd (%r8,%rcx,1),%xmm0
.byte 102,65,15,110,12,128 // movd (%r8,%rax,4),%xmm1
.byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,67,15,110,28,144 // movd (%r8,%r10,4),%xmm3
+ .byte 102,71,15,110,12,144 // movd (%r8,%r10,4),%xmm9
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,98,216 // punpckldq %xmm0,%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,219,195 // pand %xmm3,%xmm0
+ .byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
+ .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
+ .byte 102,15,111,21,248,30,0,0 // movdqa 0x1ef8(%rip),%xmm2 # 46d0 <_sk_callback_sse2+0x472>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,8 // psrld $0x8,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,16 // psrld $0x10,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
.byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25494,28 +25872,27 @@ FUNCTION(_sk_load_8888_sse2)
_sk_load_8888_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 243,15,111,28,184 // movdqu (%rax,%rdi,4),%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,219,195 // pand %xmm3,%xmm0
+ .byte 68,15,16,12,184 // movups (%rax,%rdi,4),%xmm9
+ .byte 15,40,21,70,26,0,0 // movaps 0x1a46(%rip),%xmm2 # 46e0 <_sk_callback_sse2+0x482>
+ .byte 65,15,40,193 // movaps %xmm9,%xmm0
+ .byte 15,84,194 // andps %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 65,15,40,201 // movaps %xmm9,%xmm1
+ .byte 102,15,114,209,8 // psrld $0x8,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 65,15,40,217 // movaps %xmm9,%xmm3
+ .byte 102,15,114,211,16 // psrld $0x10,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
.byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25547,31 +25924,30 @@ _sk_gather_8888_sse2:
.byte 102,65,15,110,4,137 // movd (%r9,%rcx,4),%xmm0
.byte 102,65,15,110,12,129 // movd (%r9,%rax,4),%xmm1
.byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,67,15,110,28,145 // movd (%r9,%r10,4),%xmm3
+ .byte 102,71,15,110,12,145 // movd (%r9,%r10,4),%xmm9
.byte 102,67,15,110,12,129 // movd (%r9,%r8,4),%xmm1
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,98,216 // punpckldq %xmm0,%xmm3
- .byte 184,255,0,0,0 // mov $0xff,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,219,195 // pand %xmm3,%xmm0
+ .byte 102,68,15,98,201 // punpckldq %xmm1,%xmm9
+ .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
+ .byte 102,15,111,21,126,25,0,0 // movdqa 0x197e(%rip),%xmm2 # 46f0 <_sk_callback_sse2+0x492>
+ .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
+ .byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 184,129,128,128,59 // mov $0x3b808081,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
+ .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
+ .byte 102,15,114,209,8 // psrld $0x8,%xmm1
+ .byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
+ .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
+ .byte 102,15,114,211,16 // psrld $0x10,%xmm3
+ .byte 102,15,219,218 // pand %xmm2,%xmm3
+ .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
+ .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
+ .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
.byte 65,15,89,216 // mulps %xmm8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25623,7 +25999,7 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,29,24,0,0 // movdqa 0x181d(%rip),%xmm9 # 46b0 <_sk_callback_sse2+0x440>
+ .byte 102,68,15,111,13,127,24,0,0 // movdqa 0x187f(%rip),%xmm9 # 4700 <_sk_callback_sse2+0x4a2>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -25631,11 +26007,11 @@ _sk_load_f16_sse2:
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,2,24,0,0 // movdqa 0x1802(%rip),%xmm11 # 46c0 <_sk_callback_sse2+0x450>
+ .byte 102,68,15,111,29,100,24,0,0 // movdqa 0x1864(%rip),%xmm11 # 4710 <_sk_callback_sse2+0x4b2>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,4,24,0,0 // movdqa 0x1804(%rip),%xmm12 # 46d0 <_sk_callback_sse2+0x460>
+ .byte 102,68,15,111,37,102,24,0,0 // movdqa 0x1866(%rip),%xmm12 # 4720 <_sk_callback_sse2+0x4c2>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,7,24,0,0 // movdqa 0x1807(%rip),%xmm3 # 46e0 <_sk_callback_sse2+0x470>
+ .byte 102,15,111,29,105,24,0,0 // movdqa 0x1869(%rip),%xmm3 # 4730 <_sk_callback_sse2+0x4d2>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -25721,7 +26097,7 @@ _sk_gather_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,149,22,0,0 // movdqa 0x1695(%rip),%xmm9 # 46f0 <_sk_callback_sse2+0x480>
+ .byte 102,68,15,111,13,247,22,0,0 // movdqa 0x16f7(%rip),%xmm9 # 4740 <_sk_callback_sse2+0x4e2>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,239,200 // pxor %xmm0,%xmm1
@@ -25729,11 +26105,11 @@ _sk_gather_f16_sse2:
.byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
.byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
.byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,68,15,111,29,122,22,0,0 // movdqa 0x167a(%rip),%xmm11 # 4700 <_sk_callback_sse2+0x490>
+ .byte 102,68,15,111,29,220,22,0,0 // movdqa 0x16dc(%rip),%xmm11 # 4750 <_sk_callback_sse2+0x4f2>
.byte 102,69,15,254,235 // paddd %xmm11,%xmm13
- .byte 102,68,15,111,37,124,22,0,0 // movdqa 0x167c(%rip),%xmm12 # 4710 <_sk_callback_sse2+0x4a0>
+ .byte 102,68,15,111,37,222,22,0,0 // movdqa 0x16de(%rip),%xmm12 # 4760 <_sk_callback_sse2+0x502>
.byte 102,65,15,239,204 // pxor %xmm12,%xmm1
- .byte 102,15,111,29,127,22,0,0 // movdqa 0x167f(%rip),%xmm3 # 4720 <_sk_callback_sse2+0x4b0>
+ .byte 102,15,111,29,225,22,0,0 // movdqa 0x16e1(%rip),%xmm3 # 4770 <_sk_callback_sse2+0x512>
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,65,15,223,197 // pandn %xmm13,%xmm0
@@ -25786,17 +26162,17 @@ FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 72,139,0 // mov (%rax),%rax
- .byte 102,68,15,111,21,167,21,0,0 // movdqa 0x15a7(%rip),%xmm10 # 4730 <_sk_callback_sse2+0x4c0>
+ .byte 102,68,15,111,21,9,22,0,0 // movdqa 0x1609(%rip),%xmm10 # 4780 <_sk_callback_sse2+0x522>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,234 // pand %xmm10,%xmm13
.byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,68,15,111,13,154,21,0,0 // movdqa 0x159a(%rip),%xmm9 # 4740 <_sk_callback_sse2+0x4d0>
+ .byte 102,68,15,111,13,252,21,0,0 // movdqa 0x15fc(%rip),%xmm9 # 4790 <_sk_callback_sse2+0x532>
.byte 102,65,15,114,213,16 // psrld $0x10,%xmm13
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,69,15,102,196 // pcmpgtd %xmm12,%xmm8
.byte 102,65,15,114,212,13 // psrld $0xd,%xmm12
- .byte 102,68,15,111,29,139,21,0,0 // movdqa 0x158b(%rip),%xmm11 # 4750 <_sk_callback_sse2+0x4e0>
+ .byte 102,68,15,111,29,237,21,0,0 // movdqa 0x15ed(%rip),%xmm11 # 47a0 <_sk_callback_sse2+0x542>
.byte 102,69,15,235,235 // por %xmm11,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
@@ -26112,7 +26488,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,188,16,0,0 // andps 0x10bc(%rip),%xmm9 # 4760 <_sk_callback_sse2+0x4f0>
+ .byte 68,15,84,13,30,17,0,0 // andps 0x111e(%rip),%xmm9 # 47b0 <_sk_callback_sse2+0x552>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,92,194 // subps %xmm10,%xmm0
@@ -26134,7 +26510,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,132,16,0,0 // andps 0x1084(%rip),%xmm9 # 4770 <_sk_callback_sse2+0x500>
+ .byte 68,15,84,13,230,16,0,0 // andps 0x10e6(%rip),%xmm9 # 47c0 <_sk_callback_sse2+0x562>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,92,202 // subps %xmm10,%xmm1
@@ -26160,7 +26536,7 @@ _sk_mirror_x_sse2:
.byte 243,69,15,91,218 // cvttps2dq %xmm10,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,58,16,0,0 // andps 0x103a(%rip),%xmm10 # 4780 <_sk_callback_sse2+0x510>
+ .byte 68,15,84,21,156,16,0,0 // andps 0x109c(%rip),%xmm10 # 47d0 <_sk_callback_sse2+0x572>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -26190,7 +26566,7 @@ _sk_mirror_y_sse2:
.byte 243,69,15,91,218 // cvttps2dq %xmm10,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,84,21,224,15,0,0 // andps 0xfe0(%rip),%xmm10 # 4790 <_sk_callback_sse2+0x520>
+ .byte 68,15,84,21,66,16,0,0 // andps 0x1042(%rip),%xmm10 # 47e0 <_sk_callback_sse2+0x582>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -26453,7 +26829,7 @@ _sk_linear_gradient_sse2:
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
.byte 72,139,8 // mov (%rax),%rcx
.byte 72,133,201 // test %rcx,%rcx
- .byte 15,132,15,1,0,0 // je 3cc4 <_sk_linear_gradient_sse2+0x149>
+ .byte 15,132,15,1,0,0 // je 3cb2 <_sk_linear_gradient_sse2+0x149>
.byte 72,139,64,8 // mov 0x8(%rax),%rax
.byte 72,131,192,32 // add $0x20,%rax
.byte 69,15,87,192 // xorps %xmm8,%xmm8
@@ -26514,8 +26890,8 @@ _sk_linear_gradient_sse2:
.byte 69,15,86,231 // orps %xmm15,%xmm12
.byte 72,131,192,36 // add $0x24,%rax
.byte 72,255,201 // dec %rcx
- .byte 15,133,8,255,255,255 // jne 3bca <_sk_linear_gradient_sse2+0x4f>
- .byte 235,13 // jmp 3cd1 <_sk_linear_gradient_sse2+0x156>
+ .byte 15,133,8,255,255,255 // jne 3bb8 <_sk_linear_gradient_sse2+0x4f>
+ .byte 235,13 // jmp 3cbf <_sk_linear_gradient_sse2+0x156>
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
@@ -26579,7 +26955,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,7,10,0,0 // movaps 0xa07(%rip),%xmm12 # 47a0 <_sk_callback_sse2+0x530>
+ .byte 68,15,40,37,105,10,0,0 // movaps 0xa69(%rip),%xmm12 # 47f0 <_sk_callback_sse2+0x592>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -27013,7 +27389,31 @@ BALIGN16
.byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
.byte 63 // (bad)
.byte 0,0 // add %al,(%rax)
- .byte 128,63,0 // cmpb $0x0,(%rdi)
+ .byte 128,63,255 // cmpb $0xff,(%rdi)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,255 // add %bh,%bh
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
.byte 52,0 // xor $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -27023,16 +27423,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4384 <.literal16+0x34>
+ .byte 127,0 // jg 43a4 <.literal16+0x64>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4388 <.literal16+0x38>
+ .byte 127,0 // jg 43a8 <.literal16+0x68>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 438c <.literal16+0x3c>
+ .byte 127,0 // jg 43ac <.literal16+0x6c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4390 <.literal16+0x40>
+ .byte 127,0 // jg 43b0 <.literal16+0x70>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27041,7 +27441,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4415 <.literal16+0xc5>
+ .byte 119,115 // ja 4435 <.literal16+0xf5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27052,7 +27452,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4379 <.literal16+0x29>
+ .byte 117,191 // jne 4399 <.literal16+0x59>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27064,7 +27464,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a383ba <_sk_callback_sse2+0xffffffffe9a3414a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a383da <_sk_callback_sse2+0xffffffffe9a3417c>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27118,16 +27518,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4454 <.literal16+0x104>
+ .byte 127,0 // jg 4474 <.literal16+0x134>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4458 <.literal16+0x108>
+ .byte 127,0 // jg 4478 <.literal16+0x138>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 445c <.literal16+0x10c>
+ .byte 127,0 // jg 447c <.literal16+0x13c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4460 <.literal16+0x110>
+ .byte 127,0 // jg 4480 <.literal16+0x140>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27136,7 +27536,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 44e5 <.literal16+0x195>
+ .byte 119,115 // ja 4505 <.literal16+0x1c5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27147,7 +27547,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4449 <.literal16+0xf9>
+ .byte 117,191 // jne 4469 <.literal16+0x129>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27159,7 +27559,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3848a <_sk_callback_sse2+0xffffffffe9a3421a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a384aa <_sk_callback_sse2+0xffffffffe9a3424c>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27213,16 +27613,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 4524 <.literal16+0x1d4>
+ .byte 127,0 // jg 4544 <.literal16+0x204>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4528 <.literal16+0x1d8>
+ .byte 127,0 // jg 4548 <.literal16+0x208>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 452c <.literal16+0x1dc>
+ .byte 127,0 // jg 454c <.literal16+0x20c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4530 <.literal16+0x1e0>
+ .byte 127,0 // jg 4550 <.literal16+0x210>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27231,7 +27631,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 45b5 <.literal16+0x265>
+ .byte 119,115 // ja 45d5 <.literal16+0x295>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27242,7 +27642,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 4519 <.literal16+0x1c9>
+ .byte 117,191 // jne 4539 <.literal16+0x1f9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27254,7 +27654,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3855a <_sk_callback_sse2+0xffffffffe9a342ea>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3857a <_sk_callback_sse2+0xffffffffe9a3431c>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27308,16 +27708,16 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 45f4 <.literal16+0x2a4>
+ .byte 127,0 // jg 4614 <.literal16+0x2d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 45f8 <.literal16+0x2a8>
+ .byte 127,0 // jg 4618 <.literal16+0x2d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 45fc <.literal16+0x2ac>
+ .byte 127,0 // jg 461c <.literal16+0x2dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 4600 <.literal16+0x2b0>
+ .byte 127,0 // jg 4620 <.literal16+0x2e0>
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
@@ -27326,7 +27726,7 @@ BALIGN16
.byte 0,63 // add %bh,(%rdi)
.byte 0,0 // add %al,(%rax)
.byte 0,63 // add %bh,(%rdi)
- .byte 119,115 // ja 4685 <.literal16+0x335>
+ .byte 119,115 // ja 46a5 <.literal16+0x365>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -27337,7 +27737,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 45e9 <.literal16+0x299>
+ .byte 117,191 // jne 4609 <.literal16+0x2c9>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -27349,7 +27749,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a3862a <_sk_callback_sse2+0xffffffffe9a343ba>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a3864a <_sk_callback_sse2+0xffffffffe9a343ec>
.byte 220,63 // fdivrl (%rdi)
.byte 0,0 // add %al,(%rax)
.byte 128,63,0 // cmpb $0x0,(%rdi)
@@ -27394,7 +27794,31 @@ BALIGN16
.byte 75,0,0 // rex.WXB add %al,(%r8)
.byte 0,75,0 // add %cl,0x0(%rbx)
.byte 0,0 // add %al,(%rax)
- .byte 75,0,128,0,0,0,128 // rex.WXB add %al,-0x80000000(%r8)
+ .byte 75,255,0 // rex.WXB incq (%r8)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 255,0 // incl (%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)