aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-07-18 13:01:56 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-07-18 17:30:23 +0000
commit140635504c40b99debb0e714aca8d90652aa6aff (patch)
tree49d52e2091f1f30b0ce33055028d69bb7d8bc386 /src/jumper/SkJumper_generated.S
parent863ffef38578ee19b6599aa03bf93bc9d0da330e (diff)
minor fixes to start_pipeline_lowp
- in _lowp.cpp, JUMPER is always defined, so no need to check. - the return type of this function has been void for a while. Change-Id: I5271e8dab784f46c7ffa9cfba6eb55b5e399b537 Reviewed-on: https://skia-review.googlesource.com/24326 Reviewed-by: Mike Reed <reed@google.com> Commit-Queue: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S467
1 files changed, 236 insertions, 231 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index c2614c95e8..a53ca11411 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -43187,38 +43187,37 @@ _sk_start_pipeline_hsw_lowp:
.byte 83 // push %rbx
.byte 80 // push %rax
.byte 77,137,196 // mov %r8,%r12
- .byte 73,137,215 // mov %rdx,%r15
+ .byte 73,137,208 // mov %rdx,%r8
.byte 72,137,243 // mov %rsi,%rbx
.byte 73,137,254 // mov %rdi,%r14
.byte 72,137,206 // mov %rcx,%rsi
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 73,137,197 // mov %rax,%r13
+ .byte 73,137,247 // mov %rsi,%r15
.byte 73,141,78,16 // lea 0x10(%r14),%rcx
- .byte 76,57,249 // cmp %r15,%rcx
- .byte 118,5 // jbe 30 <_sk_start_pipeline_hsw_lowp+0x30>
+ .byte 76,57,193 // cmp %r8,%rcx
+ .byte 118,5 // jbe 33 <_sk_start_pipeline_hsw_lowp+0x33>
.byte 76,137,242 // mov %r14,%rdx
- .byte 235,45 // jmp 5d <_sk_start_pipeline_hsw_lowp+0x5d>
- .byte 76,137,125,208 // mov %r15,-0x30(%rbp)
+ .byte 235,42 // jmp 5d <_sk_start_pipeline_hsw_lowp+0x5d>
+ .byte 76,137,69,208 // mov %r8,-0x30(%rbp)
.byte 69,49,192 // xor %r8d,%r8d
.byte 76,137,231 // mov %r12,%rdi
- .byte 73,137,247 // mov %rsi,%r15
+ .byte 76,137,254 // mov %r15,%rsi
.byte 76,137,242 // mov %r14,%rdx
.byte 72,137,217 // mov %rbx,%rcx
.byte 65,255,213 // callq *%r13
- .byte 76,137,254 // mov %r15,%rsi
- .byte 76,139,125,208 // mov -0x30(%rbp),%r15
+ .byte 76,139,69,208 // mov -0x30(%rbp),%r8
.byte 73,141,86,16 // lea 0x10(%r14),%rdx
.byte 73,131,198,32 // add $0x20,%r14
- .byte 77,57,254 // cmp %r15,%r14
+ .byte 77,57,198 // cmp %r8,%r14
.byte 73,137,214 // mov %rdx,%r14
- .byte 118,215 // jbe 34 <_sk_start_pipeline_hsw_lowp+0x34>
- .byte 77,137,248 // mov %r15,%r8
+ .byte 118,218 // jbe 37 <_sk_start_pipeline_hsw_lowp+0x37>
.byte 73,41,208 // sub %rdx,%r8
- .byte 116,9 // je 6e <_sk_start_pipeline_hsw_lowp+0x6e>
+ .byte 116,12 // je 6e <_sk_start_pipeline_hsw_lowp+0x6e>
.byte 76,137,231 // mov %r12,%rdi
+ .byte 76,137,254 // mov %r15,%rsi
.byte 72,137,217 // mov %rbx,%rcx
.byte 65,255,213 // callq *%r13
- .byte 76,137,248 // mov %r15,%rax
.byte 72,131,196,8 // add $0x8,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -43240,7 +43239,7 @@ HIDDEN _sk_uniform_color_hsw_lowp
FUNCTION(_sk_uniform_color_hsw_lowp)
_sk_uniform_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,121,24,5,29,33,0,0 // vbroadcastss 0x211d(%rip),%xmm0 # 21ac <_sk_xor__hsw_lowp+0x78>
+ .byte 196,226,121,24,5,32,33,0,0 // vbroadcastss 0x2120(%rip),%xmm0 # 21ac <_sk_xor__hsw_lowp+0x78>
.byte 197,248,88,24 // vaddps (%rax),%xmm0,%xmm3
.byte 196,226,125,121,195 // vpbroadcastw %xmm3,%ymm0
.byte 197,251,112,203,234 // vpshuflw $0xea,%xmm3,%xmm1
@@ -43259,7 +43258,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,239,32,0,0 // vpbroadcastw 0x20ef(%rip),%ymm3 # 21c0 <_sk_xor__hsw_lowp+0x8c>
+ .byte 196,226,125,121,29,242,32,0,0 // vpbroadcastw 0x20f2(%rip),%ymm3 # 21c0 <_sk_xor__hsw_lowp+0x8c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43270,7 +43269,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,216,32,0,0 // vpbroadcastw 0x20d8(%rip),%ymm0 # 21c2 <_sk_xor__hsw_lowp+0x8e>
+ .byte 196,226,125,121,5,219,32,0,0 // vpbroadcastw 0x20db(%rip),%ymm0 # 21c2 <_sk_xor__hsw_lowp+0x8e>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -43281,7 +43280,7 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,250,16,21,174,32,0,0 // vmovss 0x20ae(%rip),%xmm2 # 21b0 <_sk_xor__hsw_lowp+0x7c>
+ .byte 197,250,16,21,177,32,0,0 // vmovss 0x20b1(%rip),%xmm2 # 21b0 <_sk_xor__hsw_lowp+0x7c>
.byte 197,234,88,0 // vaddss (%rax),%xmm2,%xmm0
.byte 196,193,121,126,193 // vmovd %xmm0,%r9d
.byte 196,193,121,110,193 // vmovd %r9d,%xmm0
@@ -43317,19 +43316,19 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,210,0,0,0 // jne 241 <_sk_load_8888_hsw_lowp+0xe0>
+ .byte 15,133,210,0,0,0 // jne 23e <_sk_load_8888_hsw_lowp+0xe0>
.byte 196,193,126,111,92,147,32 // vmovdqu 0x20(%r11,%rdx,4),%ymm3
.byte 196,65,126,111,4,147 // vmovdqu (%r11,%rdx,4),%ymm8
- .byte 197,253,111,5,92,32,0,0 // vmovdqa 0x205c(%rip),%ymm0 # 21e0 <_sk_xor__hsw_lowp+0xac>
+ .byte 197,253,111,5,95,32,0,0 // vmovdqa 0x205f(%rip),%ymm0 # 21e0 <_sk_xor__hsw_lowp+0xac>
.byte 196,226,61,0,200 // vpshufb %ymm0,%ymm8,%ymm1
.byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
.byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0
.byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,98,125,121,13,82,32,0,0 // vpbroadcastw 0x2052(%rip),%ymm9 # 2200 <_sk_xor__hsw_lowp+0xcc>
+ .byte 196,98,125,121,13,85,32,0,0 // vpbroadcastw 0x2055(%rip),%ymm9 # 2200 <_sk_xor__hsw_lowp+0xcc>
.byte 196,193,125,228,193 // vpmulhuw %ymm9,%ymm0,%ymm0
- .byte 197,253,111,13,101,32,0,0 // vmovdqa 0x2065(%rip),%ymm1 # 2220 <_sk_xor__hsw_lowp+0xec>
+ .byte 197,253,111,13,104,32,0,0 // vmovdqa 0x2068(%rip),%ymm1 # 2220 <_sk_xor__hsw_lowp+0xec>
.byte 196,226,61,0,209 // vpshufb %ymm1,%ymm8,%ymm2
.byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
.byte 196,226,101,0,201 // vpshufb %ymm1,%ymm3,%ymm1
@@ -43337,7 +43336,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 197,245,113,241,8 // vpsllw $0x8,%ymm1,%ymm1
.byte 196,193,117,228,201 // vpmulhuw %ymm9,%ymm1,%ymm1
- .byte 197,253,111,21,87,32,0,0 // vmovdqa 0x2057(%rip),%ymm2 # 2240 <_sk_xor__hsw_lowp+0x10c>
+ .byte 197,253,111,21,90,32,0,0 // vmovdqa 0x205a(%rip),%ymm2 # 2240 <_sk_xor__hsw_lowp+0x10c>
.byte 196,98,61,0,210 // vpshufb %ymm2,%ymm8,%ymm10
.byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10
.byte 196,226,101,0,210 // vpshufb %ymm2,%ymm3,%ymm2
@@ -43345,7 +43344,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,45,56,210,1 // vinserti128 $0x1,%xmm2,%ymm10,%ymm2
.byte 197,237,113,242,8 // vpsllw $0x8,%ymm2,%ymm2
.byte 196,193,109,228,209 // vpmulhuw %ymm9,%ymm2,%ymm2
- .byte 197,125,111,21,73,32,0,0 // vmovdqa 0x2049(%rip),%ymm10 # 2260 <_sk_xor__hsw_lowp+0x12c>
+ .byte 197,125,111,21,76,32,0,0 // vmovdqa 0x204c(%rip),%ymm10 # 2260 <_sk_xor__hsw_lowp+0x12c>
.byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
.byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
.byte 196,194,101,0,218 // vpshufb %ymm10,%ymm3,%ymm3
@@ -43361,14 +43360,14 @@ _sk_load_8888_hsw_lowp:
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,14 // cmp $0xe,%r9b
- .byte 15,135,30,255,255,255 // ja 17c <_sk_load_8888_hsw_lowp+0x1b>
+ .byte 15,135,30,255,255,255 // ja 179 <_sk_load_8888_hsw_lowp+0x1b>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,27,1,0,0 // lea 0x11b(%rip),%r10 # 384 <_sk_load_8888_hsw_lowp+0x223>
+ .byte 76,141,21,30,1,0,0 // lea 0x11e(%rip),%r10 # 384 <_sk_load_8888_hsw_lowp+0x226>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,110,4,147 // vmovd (%r11,%rdx,4),%xmm8
- .byte 233,255,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b>
+ .byte 233,255,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b>
.byte 196,193,121,110,68,147,8 // vmovd 0x8(%r11,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -43376,7 +43375,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,194,121,53,4,147 // vpmovzxdq (%r11,%rdx,4),%xmm0
.byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
.byte 196,99,61,2,192,3 // vpblendd $0x3,%ymm0,%ymm8,%ymm8
- .byte 233,211,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b>
+ .byte 233,211,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b>
.byte 196,193,121,110,68,147,24 // vmovd 0x18(%r11,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -43389,7 +43388,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8
.byte 196,193,122,111,4,147 // vmovdqu (%r11,%rdx,4),%xmm0
.byte 196,67,125,2,192,240 // vpblendd $0xf0,%ymm8,%ymm0,%ymm8
- .byte 233,132,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b>
+ .byte 233,132,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b>
.byte 196,193,121,110,68,147,40 // vmovd 0x28(%r11,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43398,7 +43397,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,2,216,15 // vpblendd $0xf,%ymm0,%ymm3,%ymm3
.byte 196,193,121,110,68,147,32 // vmovd 0x20(%r11,%rdx,4),%xmm0
.byte 196,227,101,2,216,1 // vpblendd $0x1,%ymm0,%ymm3,%ymm3
- .byte 233,72,254,255,255 // jmpq 176 <_sk_load_8888_hsw_lowp+0x15>
+ .byte 233,72,254,255,255 // jmpq 173 <_sk_load_8888_hsw_lowp+0x15>
.byte 196,193,121,110,68,147,56 // vmovd 0x38(%r11,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -43412,40 +43411,41 @@ _sk_load_8888_hsw_lowp:
.byte 196,65,126,111,4,147 // vmovdqu (%r11,%rdx,4),%ymm8
.byte 196,193,122,111,68,147,32 // vmovdqu 0x20(%r11,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,248,253,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b>
- .byte 238 // out %al,(%dx)
- .byte 254 // (bad)
+ .byte 233,248,253,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 235,254 // jmp 384 <_sk_load_8888_hsw_lowp+0x226>
.byte 255 // (bad)
- .byte 255,15 // decl (%rdi)
+ .byte 255,12,255 // decl (%rdi,%rdi,8)
.byte 255 // (bad)
+ .byte 255,246 // push %rsi
+ .byte 254 // (bad)
.byte 255 // (bad)
+ .byte 255,96,255 // jmpq *-0x1(%rax)
.byte 255 // (bad)
- .byte 249 // stc
- .byte 254 // (bad)
+ .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
+ .byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
+ .byte 255,34 // jmpq *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,37,255,255,255,242 // jmpq *-0xd000001(%rip) # fffffffff30003a0 <_sk_xor__hsw_lowp+0xfffffffff2ffe26c>
+ .byte 239 // out %eax,(%dx)
.byte 253 // std
.byte 255 // (bad)
- .byte 255,152,255,255,255,138 // lcall *-0x75000001(%rax)
+ .byte 255,149,255,255,255,135 // callq *-0x78000001(%rbp)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
+ .byte 255,113,255 // pushq -0x1(%rcx)
.byte 255 // (bad)
- .byte 232,255,255,255,212 // callq ffffffffd50003b4 <_sk_xor__hsw_lowp+0xffffffffd4ffe280>
+ .byte 255,229 // jmpq *%rbp
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,192 // inc %eax
+ .byte 255,209 // callq *%rcx
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 170 // stos %al,%es:(%rdi)
+ .byte 255 // (bad)
+ .byte 189,255,255,255,167 // mov $0xa7ffffff,%ebp
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -45941,38 +45941,45 @@ _sk_start_pipeline_ssse3_lowp:
.byte 83 // push %rbx
.byte 80 // push %rax
.byte 77,137,196 // mov %r8,%r12
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 73,137,254 // mov %rdi,%r14
+ .byte 73,137,208 // mov %rdx,%r8
+ .byte 73,137,247 // mov %rsi,%r15
+ .byte 72,137,251 // mov %rdi,%rbx
.byte 72,137,206 // mov %rcx,%rsi
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,141,78,8 // lea 0x8(%r14),%rcx
- .byte 76,57,249 // cmp %r15,%rcx
+ .byte 73,137,245 // mov %rsi,%r13
+ .byte 72,141,75,8 // lea 0x8(%rbx),%rcx
+ .byte 76,57,193 // cmp %r8,%rcx
.byte 118,5 // jbe 30 <_sk_start_pipeline_ssse3_lowp+0x30>
- .byte 76,137,242 // mov %r14,%rdx
- .byte 235,45 // jmp 5d <_sk_start_pipeline_ssse3_lowp+0x5d>
- .byte 76,137,125,208 // mov %r15,-0x30(%rbp)
+ .byte 72,137,218 // mov %rbx,%rdx
+ .byte 235,48 // jmp 60 <_sk_start_pipeline_ssse3_lowp+0x60>
+ .byte 76,137,69,208 // mov %r8,-0x30(%rbp)
.byte 69,49,192 // xor %r8d,%r8d
.byte 76,137,231 // mov %r12,%rdi
- .byte 73,137,247 // mov %rsi,%r15
- .byte 76,137,242 // mov %r14,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 76,137,254 // mov %r15,%rsi
- .byte 76,139,125,208 // mov -0x30(%rbp),%r15
- .byte 73,141,86,8 // lea 0x8(%r14),%rdx
- .byte 73,131,198,16 // add $0x10,%r14
- .byte 77,57,254 // cmp %r15,%r14
- .byte 73,137,214 // mov %rdx,%r14
- .byte 118,215 // jbe 34 <_sk_start_pipeline_ssse3_lowp+0x34>
- .byte 77,137,248 // mov %r15,%r8
+ .byte 76,137,238 // mov %r13,%rsi
+ .byte 72,137,218 // mov %rbx,%rdx
+ .byte 76,137,249 // mov %r15,%rcx
+ .byte 73,137,198 // mov %rax,%r14
+ .byte 65,255,214 // callq *%r14
+ .byte 76,139,69,208 // mov -0x30(%rbp),%r8
+ .byte 76,137,240 // mov %r14,%rax
+ .byte 72,141,83,8 // lea 0x8(%rbx),%rdx
+ .byte 72,131,195,16 // add $0x10,%rbx
+ .byte 76,57,195 // cmp %r8,%rbx
+ .byte 72,137,211 // mov %rdx,%rbx
+ .byte 118,212 // jbe 34 <_sk_start_pipeline_ssse3_lowp+0x34>
.byte 73,41,208 // sub %rdx,%r8
- .byte 116,9 // je 6e <_sk_start_pipeline_ssse3_lowp+0x6e>
+ .byte 116,25 // je 7e <_sk_start_pipeline_ssse3_lowp+0x7e>
.byte 76,137,231 // mov %r12,%rdi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 76,137,248 // mov %r15,%rax
+ .byte 76,137,238 // mov %r13,%rsi
+ .byte 76,137,249 // mov %r15,%rcx
+ .byte 72,131,196,8 // add $0x8,%rsp
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,93 // pop %r13
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 93 // pop %rbp
+ .byte 255,224 // jmpq *%rax
.byte 72,131,196,8 // add $0x8,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -45994,7 +46001,7 @@ FUNCTION(_sk_uniform_color_ssse3_lowp)
_sk_uniform_color_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,24 // movups (%rax),%xmm3
- .byte 15,88,29,227,25,0,0 // addps 0x19e3(%rip),%xmm3 # 1a70 <_sk_xor__ssse3_lowp+0xa7>
+ .byte 15,88,29,230,25,0,0 // addps 0x19e6(%rip),%xmm3 # 1a80 <_sk_xor__ssse3_lowp+0xa7>
.byte 242,15,112,195,0 // pshuflw $0x0,%xmm3,%xmm0
.byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
.byte 242,15,112,203,170 // pshuflw $0xaa,%xmm3,%xmm1
@@ -46011,7 +46018,7 @@ HIDDEN _sk_black_color_ssse3_lowp
FUNCTION(_sk_black_color_ssse3_lowp)
_sk_black_color_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,190,25,0,0 // movaps 0x19be(%rip),%xmm3 # 1a80 <_sk_xor__ssse3_lowp+0xb7>
+ .byte 15,40,29,193,25,0,0 // movaps 0x19c1(%rip),%xmm3 # 1a90 <_sk_xor__ssse3_lowp+0xb7>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -46022,7 +46029,7 @@ HIDDEN _sk_white_color_ssse3_lowp
FUNCTION(_sk_white_color_ssse3_lowp)
_sk_white_color_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,186,25,0,0 // movaps 0x19ba(%rip),%xmm0 # 1a90 <_sk_xor__ssse3_lowp+0xc7>
+ .byte 15,40,5,189,25,0,0 // movaps 0x19bd(%rip),%xmm0 # 1aa0 <_sk_xor__ssse3_lowp+0xc7>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -46033,7 +46040,7 @@ HIDDEN _sk_set_rgb_ssse3_lowp
FUNCTION(_sk_set_rgb_ssse3_lowp)
_sk_set_rgb_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,213,28,0,0 // movss 0x1cd5(%rip),%xmm2 # 1dc0 <_sk_xor__ssse3_lowp+0x3f7>
+ .byte 243,15,16,21,216,28,0,0 // movss 0x1cd8(%rip),%xmm2 # 1dd0 <_sk_xor__ssse3_lowp+0x3f7>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,88,194 // addss %xmm2,%xmm0
.byte 102,65,15,126,193 // movd %xmm0,%r9d
@@ -46074,19 +46081,19 @@ _sk_load_8888_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,191,0,0,0 // jne 22e <_sk_load_8888_ssse3_lowp+0xcd>
+ .byte 15,133,191,0,0,0 // jne 23b <_sk_load_8888_ssse3_lowp+0xcd>
.byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8
.byte 102,65,15,16,28,147 // movupd (%r11,%rdx,4),%xmm3
- .byte 102,15,111,13,29,25,0,0 // movdqa 0x191d(%rip),%xmm1 # 1aa0 <_sk_xor__ssse3_lowp+0xd7>
+ .byte 102,15,111,13,32,25,0,0 // movdqa 0x1920(%rip),%xmm1 # 1ab0 <_sk_xor__ssse3_lowp+0xd7>
.byte 102,15,40,195 // movapd %xmm3,%xmm0
.byte 102,15,56,0,193 // pshufb %xmm1,%xmm0
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
.byte 102,15,56,0,209 // pshufb %xmm1,%xmm2
.byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,68,15,111,13,8,25,0,0 // movdqa 0x1908(%rip),%xmm9 # 1ab0 <_sk_xor__ssse3_lowp+0xe7>
+ .byte 102,68,15,111,13,11,25,0,0 // movdqa 0x190b(%rip),%xmm9 # 1ac0 <_sk_xor__ssse3_lowp+0xe7>
.byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0
- .byte 102,68,15,111,21,10,25,0,0 // movdqa 0x190a(%rip),%xmm10 # 1ac0 <_sk_xor__ssse3_lowp+0xf7>
+ .byte 102,68,15,111,21,13,25,0,0 // movdqa 0x190d(%rip),%xmm10 # 1ad0 <_sk_xor__ssse3_lowp+0xf7>
.byte 102,15,40,203 // movapd %xmm3,%xmm1
.byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
@@ -46094,7 +46101,7 @@ _sk_load_8888_ssse3_lowp:
.byte 102,15,108,202 // punpcklqdq %xmm2,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
.byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1
- .byte 102,68,15,111,21,238,24,0,0 // movdqa 0x18ee(%rip),%xmm10 # 1ad0 <_sk_xor__ssse3_lowp+0x107>
+ .byte 102,68,15,111,21,241,24,0,0 // movdqa 0x18f1(%rip),%xmm10 # 1ae0 <_sk_xor__ssse3_lowp+0x107>
.byte 102,15,40,211 // movapd %xmm3,%xmm2
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
@@ -46102,7 +46109,7 @@ _sk_load_8888_ssse3_lowp:
.byte 102,65,15,108,211 // punpcklqdq %xmm11,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
.byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2
- .byte 102,68,15,111,21,209,24,0,0 // movdqa 0x18d1(%rip),%xmm10 # 1ae0 <_sk_xor__ssse3_lowp+0x117>
+ .byte 102,68,15,111,21,212,24,0,0 // movdqa 0x18d4(%rip),%xmm10 # 1af0 <_sk_xor__ssse3_lowp+0x117>
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3
@@ -46116,18 +46123,18 @@ _sk_load_8888_ssse3_lowp:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,48,255,255,255 // ja 17b <_sk_load_8888_ssse3_lowp+0x1a>
+ .byte 15,135,48,255,255,255 // ja 188 <_sk_load_8888_ssse3_lowp+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,94,0,0,0 // lea 0x5e(%rip),%r10 # 2b4 <_sk_load_8888_ssse3_lowp+0x153>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 2c4 <_sk_load_8888_ssse3_lowp+0x156>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,147 // movss (%r11,%rdx,4),%xmm3
- .byte 233,17,255,255,255 // jmpq 17b <_sk_load_8888_ssse3_lowp+0x1a>
+ .byte 233,17,255,255,255 // jmpq 188 <_sk_load_8888_ssse3_lowp+0x1a>
.byte 102,65,15,110,68,147,8 // movd 0x8(%r11,%rdx,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,65,15,18,28,147 // movlpd (%r11,%rdx,4),%xmm3
- .byte 233,250,254,255,255 // jmpq 17b <_sk_load_8888_ssse3_lowp+0x1a>
+ .byte 233,250,254,255,255 // jmpq 188 <_sk_load_8888_ssse3_lowp+0x1a>
.byte 102,65,15,110,68,147,24 // movd 0x18(%r11,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,147,20 // movss 0x14(%r11,%rdx,4),%xmm0
@@ -46136,24 +46143,22 @@ _sk_load_8888_ssse3_lowp:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 243,65,15,16,68,147,16 // movss 0x10(%r11,%rdx,4),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 233,193,254,255,255 // jmpq 175 <_sk_load_8888_ssse3_lowp+0x14>
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 255 // (bad)
+ .byte 233,193,254,255,255 // jmpq 182 <_sk_load_8888_ssse3_lowp+0x14>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 168,255 // test $0xff,%al
.byte 255 // (bad)
- .byte 255,194 // inc %edx
.byte 255 // (bad)
+ .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
.byte 255 // (bad)
- .byte 255,182,255,255,255,193 // pushq -0x3e000001(%rsi)
- .byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
+ .byte 190,254,255,255,236 // mov $0xecfffffe,%esi
.byte 255 // (bad)
.byte 255 // (bad)
+ .byte 255,215 // callq *%rdi
.byte 255 // (bad)
- .byte 218,255 // (bad)
.byte 255 // (bad)
- .byte 255,205 // dec %ebp
+ .byte 255,202 // dec %edx
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -46165,19 +46170,19 @@ _sk_load_8888_dst_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,191,0,0,0 // jne 39d <_sk_load_8888_dst_ssse3_lowp+0xcd>
+ .byte 15,133,191,0,0,0 // jne 3ad <_sk_load_8888_dst_ssse3_lowp+0xcd>
.byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8
.byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7
- .byte 102,15,111,45,254,23,0,0 // movdqa 0x17fe(%rip),%xmm5 # 1af0 <_sk_xor__ssse3_lowp+0x127>
+ .byte 102,15,111,45,254,23,0,0 // movdqa 0x17fe(%rip),%xmm5 # 1b00 <_sk_xor__ssse3_lowp+0x127>
.byte 102,15,40,231 // movapd %xmm7,%xmm4
.byte 102,15,56,0,229 // pshufb %xmm5,%xmm4
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,56,0,245 // pshufb %xmm5,%xmm6
.byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4
.byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,68,15,111,13,233,23,0,0 // movdqa 0x17e9(%rip),%xmm9 # 1b00 <_sk_xor__ssse3_lowp+0x137>
+ .byte 102,68,15,111,13,233,23,0,0 // movdqa 0x17e9(%rip),%xmm9 # 1b10 <_sk_xor__ssse3_lowp+0x137>
.byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,235,23,0,0 // movdqa 0x17eb(%rip),%xmm10 # 1b10 <_sk_xor__ssse3_lowp+0x147>
+ .byte 102,68,15,111,21,235,23,0,0 // movdqa 0x17eb(%rip),%xmm10 # 1b20 <_sk_xor__ssse3_lowp+0x147>
.byte 102,15,40,239 // movapd %xmm7,%xmm5
.byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -46185,7 +46190,7 @@ _sk_load_8888_dst_ssse3_lowp:
.byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5
.byte 102,15,113,245,8 // psllw $0x8,%xmm5
.byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,207,23,0,0 // movdqa 0x17cf(%rip),%xmm10 # 1b20 <_sk_xor__ssse3_lowp+0x157>
+ .byte 102,68,15,111,21,207,23,0,0 // movdqa 0x17cf(%rip),%xmm10 # 1b30 <_sk_xor__ssse3_lowp+0x157>
.byte 102,15,40,247 // movapd %xmm7,%xmm6
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
@@ -46193,7 +46198,7 @@ _sk_load_8888_dst_ssse3_lowp:
.byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6
.byte 102,15,113,246,8 // psllw $0x8,%xmm6
.byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,178,23,0,0 // movdqa 0x17b2(%rip),%xmm10 # 1b30 <_sk_xor__ssse3_lowp+0x167>
+ .byte 102,68,15,111,21,178,23,0,0 // movdqa 0x17b2(%rip),%xmm10 # 1b40 <_sk_xor__ssse3_lowp+0x167>
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
@@ -46207,18 +46212,18 @@ _sk_load_8888_dst_ssse3_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,48,255,255,255 // ja 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a>
+ .byte 15,135,48,255,255,255 // ja 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 424 <_sk_load_8888_dst_ssse3_lowp+0x154>
+ .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 434 <_sk_load_8888_dst_ssse3_lowp+0x154>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7
- .byte 233,17,255,255,255 // jmpq 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a>
+ .byte 233,17,255,255,255 // jmpq 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a>
.byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7
- .byte 233,250,254,255,255 // jmpq 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a>
+ .byte 233,250,254,255,255 // jmpq 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a>
.byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4
@@ -46227,7 +46232,7 @@ _sk_load_8888_dst_ssse3_lowp:
.byte 68,15,40,196 // movaps %xmm4,%xmm8
.byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,193,254,255,255 // jmpq 2e4 <_sk_load_8888_dst_ssse3_lowp+0x14>
+ .byte 233,193,254,255,255 // jmpq 2f4 <_sk_load_8888_dst_ssse3_lowp+0x14>
.byte 144 // nop
.byte 170 // stos %al,%es:(%rdi)
.byte 255 // (bad)
@@ -46258,7 +46263,7 @@ _sk_store_8888_ssse3_lowp:
.byte 76,139,24 // mov (%rax),%r11
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,68,15,111,21,231,22,0,0 // movdqa 0x16e7(%rip),%xmm10 # 1b40 <_sk_xor__ssse3_lowp+0x177>
+ .byte 102,68,15,111,21,231,22,0,0 // movdqa 0x16e7(%rip),%xmm10 # 1b50 <_sk_xor__ssse3_lowp+0x177>
.byte 102,69,15,234,194 // pminsw %xmm10,%xmm8
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
@@ -46295,7 +46300,7 @@ _sk_store_8888_ssse3_lowp:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,17 // jne 527 <_sk_store_8888_ssse3_lowp+0xe7>
+ .byte 117,17 // jne 537 <_sk_store_8888_ssse3_lowp+0xe7>
.byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4)
.byte 243,69,15,127,84,147,16 // movdqu %xmm10,0x10(%r11,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46304,25 +46309,25 @@ _sk_store_8888_ssse3_lowp:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 523 <_sk_store_8888_ssse3_lowp+0xe3>
+ .byte 119,236 // ja 533 <_sk_store_8888_ssse3_lowp+0xe3>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # 594 <_sk_store_8888_ssse3_lowp+0x154>
+ .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # 5a4 <_sk_store_8888_ssse3_lowp+0x154>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,147 // movd %xmm8,(%r11,%rdx,4)
- .byte 235,208 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3>
+ .byte 235,208 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,147,8 // movd %xmm9,0x8(%r11,%rdx,4)
.byte 102,69,15,214,4,147 // movq %xmm8,(%r11,%rdx,4)
- .byte 235,187 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3>
+ .byte 235,187 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3>
.byte 102,69,15,112,202,78 // pshufd $0x4e,%xmm10,%xmm9
.byte 102,69,15,126,76,147,24 // movd %xmm9,0x18(%r11,%rdx,4)
.byte 102,69,15,112,202,229 // pshufd $0xe5,%xmm10,%xmm9
.byte 102,69,15,126,76,147,20 // movd %xmm9,0x14(%r11,%rdx,4)
.byte 102,69,15,126,84,147,16 // movd %xmm10,0x10(%r11,%rdx,4)
.byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4)
- .byte 235,146 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3>
+ .byte 235,146 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3>
.byte 15,31,0 // nopl (%rax)
.byte 183,255 // mov $0xff,%bh
.byte 255 // (bad)
@@ -46352,19 +46357,19 @@ _sk_load_bgra_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,191,0,0,0 // jne 67d <_sk_load_bgra_ssse3_lowp+0xcd>
+ .byte 15,133,191,0,0,0 // jne 68d <_sk_load_bgra_ssse3_lowp+0xcd>
.byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8
.byte 102,65,15,16,28,147 // movupd (%r11,%rdx,4),%xmm3
- .byte 102,15,111,5,126,21,0,0 // movdqa 0x157e(%rip),%xmm0 # 1b50 <_sk_xor__ssse3_lowp+0x187>
+ .byte 102,15,111,5,126,21,0,0 // movdqa 0x157e(%rip),%xmm0 # 1b60 <_sk_xor__ssse3_lowp+0x187>
.byte 102,15,40,211 // movapd %xmm3,%xmm2
.byte 102,15,56,0,208 // pshufb %xmm0,%xmm2
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,15,108,209 // punpcklqdq %xmm1,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,68,15,111,13,105,21,0,0 // movdqa 0x1569(%rip),%xmm9 # 1b60 <_sk_xor__ssse3_lowp+0x197>
+ .byte 102,68,15,111,13,105,21,0,0 // movdqa 0x1569(%rip),%xmm9 # 1b70 <_sk_xor__ssse3_lowp+0x197>
.byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2
- .byte 102,68,15,111,21,107,21,0,0 // movdqa 0x156b(%rip),%xmm10 # 1b70 <_sk_xor__ssse3_lowp+0x1a7>
+ .byte 102,68,15,111,21,107,21,0,0 // movdqa 0x156b(%rip),%xmm10 # 1b80 <_sk_xor__ssse3_lowp+0x1a7>
.byte 102,15,40,203 // movapd %xmm3,%xmm1
.byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
@@ -46372,7 +46377,7 @@ _sk_load_bgra_ssse3_lowp:
.byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
.byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1
- .byte 102,68,15,111,21,79,21,0,0 // movdqa 0x154f(%rip),%xmm10 # 1b80 <_sk_xor__ssse3_lowp+0x1b7>
+ .byte 102,68,15,111,21,79,21,0,0 // movdqa 0x154f(%rip),%xmm10 # 1b90 <_sk_xor__ssse3_lowp+0x1b7>
.byte 102,15,40,195 // movapd %xmm3,%xmm0
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
@@ -46380,7 +46385,7 @@ _sk_load_bgra_ssse3_lowp:
.byte 102,65,15,108,195 // punpcklqdq %xmm11,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
.byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0
- .byte 102,68,15,111,21,50,21,0,0 // movdqa 0x1532(%rip),%xmm10 # 1b90 <_sk_xor__ssse3_lowp+0x1c7>
+ .byte 102,68,15,111,21,50,21,0,0 // movdqa 0x1532(%rip),%xmm10 # 1ba0 <_sk_xor__ssse3_lowp+0x1c7>
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3
@@ -46394,18 +46399,18 @@ _sk_load_bgra_ssse3_lowp:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,48,255,255,255 // ja 5ca <_sk_load_bgra_ssse3_lowp+0x1a>
+ .byte 15,135,48,255,255,255 // ja 5da <_sk_load_bgra_ssse3_lowp+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 704 <_sk_load_bgra_ssse3_lowp+0x154>
+ .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 714 <_sk_load_bgra_ssse3_lowp+0x154>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,147 // movss (%r11,%rdx,4),%xmm3
- .byte 233,17,255,255,255 // jmpq 5ca <_sk_load_bgra_ssse3_lowp+0x1a>
+ .byte 233,17,255,255,255 // jmpq 5da <_sk_load_bgra_ssse3_lowp+0x1a>
.byte 102,65,15,110,68,147,8 // movd 0x8(%r11,%rdx,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,65,15,18,28,147 // movlpd (%r11,%rdx,4),%xmm3
- .byte 233,250,254,255,255 // jmpq 5ca <_sk_load_bgra_ssse3_lowp+0x1a>
+ .byte 233,250,254,255,255 // jmpq 5da <_sk_load_bgra_ssse3_lowp+0x1a>
.byte 102,65,15,110,68,147,24 // movd 0x18(%r11,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,147,20 // movss 0x14(%r11,%rdx,4),%xmm0
@@ -46414,7 +46419,7 @@ _sk_load_bgra_ssse3_lowp:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 243,65,15,16,68,147,16 // movss 0x10(%r11,%rdx,4),%xmm0
.byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 233,193,254,255,255 // jmpq 5c4 <_sk_load_bgra_ssse3_lowp+0x14>
+ .byte 233,193,254,255,255 // jmpq 5d4 <_sk_load_bgra_ssse3_lowp+0x14>
.byte 144 // nop
.byte 170 // stos %al,%es:(%rdi)
.byte 255 // (bad)
@@ -46444,19 +46449,19 @@ _sk_load_bgra_dst_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,191,0,0,0 // jne 7ed <_sk_load_bgra_dst_ssse3_lowp+0xcd>
+ .byte 15,133,191,0,0,0 // jne 7fd <_sk_load_bgra_dst_ssse3_lowp+0xcd>
.byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8
.byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7
- .byte 102,15,111,37,94,20,0,0 // movdqa 0x145e(%rip),%xmm4 # 1ba0 <_sk_xor__ssse3_lowp+0x1d7>
+ .byte 102,15,111,37,94,20,0,0 // movdqa 0x145e(%rip),%xmm4 # 1bb0 <_sk_xor__ssse3_lowp+0x1d7>
.byte 102,15,40,247 // movapd %xmm7,%xmm6
.byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
.byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,15,108,245 // punpcklqdq %xmm5,%xmm6
.byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,68,15,111,13,73,20,0,0 // movdqa 0x1449(%rip),%xmm9 # 1bb0 <_sk_xor__ssse3_lowp+0x1e7>
+ .byte 102,68,15,111,13,73,20,0,0 // movdqa 0x1449(%rip),%xmm9 # 1bc0 <_sk_xor__ssse3_lowp+0x1e7>
.byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,75,20,0,0 // movdqa 0x144b(%rip),%xmm10 # 1bc0 <_sk_xor__ssse3_lowp+0x1f7>
+ .byte 102,68,15,111,21,75,20,0,0 // movdqa 0x144b(%rip),%xmm10 # 1bd0 <_sk_xor__ssse3_lowp+0x1f7>
.byte 102,15,40,239 // movapd %xmm7,%xmm5
.byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
@@ -46464,7 +46469,7 @@ _sk_load_bgra_dst_ssse3_lowp:
.byte 102,15,108,236 // punpcklqdq %xmm4,%xmm5
.byte 102,15,113,245,8 // psllw $0x8,%xmm5
.byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,47,20,0,0 // movdqa 0x142f(%rip),%xmm10 # 1bd0 <_sk_xor__ssse3_lowp+0x207>
+ .byte 102,68,15,111,21,47,20,0,0 // movdqa 0x142f(%rip),%xmm10 # 1be0 <_sk_xor__ssse3_lowp+0x207>
.byte 102,15,40,231 // movapd %xmm7,%xmm4
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
@@ -46472,7 +46477,7 @@ _sk_load_bgra_dst_ssse3_lowp:
.byte 102,65,15,108,227 // punpcklqdq %xmm11,%xmm4
.byte 102,15,113,244,8 // psllw $0x8,%xmm4
.byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,18,20,0,0 // movdqa 0x1412(%rip),%xmm10 # 1be0 <_sk_xor__ssse3_lowp+0x217>
+ .byte 102,68,15,111,21,18,20,0,0 // movdqa 0x1412(%rip),%xmm10 # 1bf0 <_sk_xor__ssse3_lowp+0x217>
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
@@ -46486,18 +46491,18 @@ _sk_load_bgra_dst_ssse3_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,48,255,255,255 // ja 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
+ .byte 15,135,48,255,255,255 // ja 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 874 <_sk_load_bgra_dst_ssse3_lowp+0x154>
+ .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 884 <_sk_load_bgra_dst_ssse3_lowp+0x154>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7
- .byte 233,17,255,255,255 // jmpq 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
+ .byte 233,17,255,255,255 // jmpq 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
.byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7
- .byte 233,250,254,255,255 // jmpq 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
+ .byte 233,250,254,255,255 // jmpq 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a>
.byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4
@@ -46506,7 +46511,7 @@ _sk_load_bgra_dst_ssse3_lowp:
.byte 68,15,40,196 // movaps %xmm4,%xmm8
.byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,193,254,255,255 // jmpq 734 <_sk_load_bgra_dst_ssse3_lowp+0x14>
+ .byte 233,193,254,255,255 // jmpq 744 <_sk_load_bgra_dst_ssse3_lowp+0x14>
.byte 144 // nop
.byte 170 // stos %al,%es:(%rdi)
.byte 255 // (bad)
@@ -46536,7 +46541,7 @@ _sk_store_bgra_ssse3_lowp:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
.byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
.byte 102,65,15,113,210,7 // psrlw $0x7,%xmm10
- .byte 102,68,15,111,13,71,19,0,0 // movdqa 0x1347(%rip),%xmm9 # 1bf0 <_sk_xor__ssse3_lowp+0x227>
+ .byte 102,68,15,111,13,71,19,0,0 // movdqa 0x1347(%rip),%xmm9 # 1c00 <_sk_xor__ssse3_lowp+0x227>
.byte 102,69,15,234,209 // pminsw %xmm9,%xmm10
.byte 102,69,15,239,246 // pxor %xmm14,%xmm14
.byte 102,65,15,111,250 // movdqa %xmm10,%xmm7
@@ -46575,7 +46580,7 @@ _sk_store_bgra_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,22 // jne 981 <_sk_store_bgra_ssse3_lowp+0xf1>
+ .byte 117,22 // jne 991 <_sk_store_bgra_ssse3_lowp+0xf1>
.byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4)
.byte 243,69,15,127,92,147,16 // movdqu %xmm11,0x10(%r11,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46585,25 +46590,25 @@ _sk_store_bgra_ssse3_lowp:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,231 // ja 978 <_sk_store_bgra_ssse3_lowp+0xe8>
+ .byte 119,231 // ja 988 <_sk_store_bgra_ssse3_lowp+0xe8>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 9ec <_sk_store_bgra_ssse3_lowp+0x15c>
+ .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 9fc <_sk_store_bgra_ssse3_lowp+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,147 // movd %xmm8,(%r11,%rdx,4)
- .byte 235,203 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8>
+ .byte 235,203 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8>
.byte 102,65,15,112,248,78 // pshufd $0x4e,%xmm8,%xmm7
.byte 102,65,15,126,124,147,8 // movd %xmm7,0x8(%r11,%rdx,4)
.byte 102,69,15,214,4,147 // movq %xmm8,(%r11,%rdx,4)
- .byte 235,182 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8>
+ .byte 235,182 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8>
.byte 102,65,15,112,251,78 // pshufd $0x4e,%xmm11,%xmm7
.byte 102,65,15,126,124,147,24 // movd %xmm7,0x18(%r11,%rdx,4)
.byte 102,65,15,112,251,229 // pshufd $0xe5,%xmm11,%xmm7
.byte 102,65,15,126,124,147,20 // movd %xmm7,0x14(%r11,%rdx,4)
.byte 102,69,15,126,92,147,16 // movd %xmm11,0x10(%r11,%rdx,4)
.byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4)
- .byte 235,141 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8>
+ .byte 235,141 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8>
.byte 144 // nop
.byte 185,255,255,255,206 // mov $0xceffffff,%ecx
.byte 255 // (bad)
@@ -46632,11 +46637,11 @@ _sk_load_a8_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,37 // jne a37 <_sk_load_a8_ssse3_lowp+0x2f>
+ .byte 117,37 // jne a47 <_sk_load_a8_ssse3_lowp+0x2f>
.byte 243,65,15,126,28,19 // movq (%r11,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
.byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,228,29,215,17,0,0 // pmulhuw 0x11d7(%rip),%xmm3 # 1c00 <_sk_xor__ssse3_lowp+0x237>
+ .byte 102,15,228,29,215,17,0,0 // pmulhuw 0x11d7(%rip),%xmm3 # 1c10 <_sk_xor__ssse3_lowp+0x237>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,87,192 // xorpd %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
@@ -46647,15 +46652,15 @@ _sk_load_a8_ssse3_lowp:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,209 // ja a1c <_sk_load_a8_ssse3_lowp+0x14>
+ .byte 119,209 // ja a2c <_sk_load_a8_ssse3_lowp+0x14>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # ac4 <_sk_load_a8_ssse3_lowp+0xbc>
+ .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # ad4 <_sk_load_a8_ssse3_lowp+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,178 // jmp a1c <_sk_load_a8_ssse3_lowp+0x14>
+ .byte 235,178 // jmp a2c <_sk_load_a8_ssse3_lowp+0x14>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -46663,7 +46668,7 @@ _sk_load_a8_ssse3_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,144 // jmp a1c <_sk_load_a8_ssse3_lowp+0x14>
+ .byte 235,144 // jmp a2c <_sk_load_a8_ssse3_lowp+0x14>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -46674,7 +46679,7 @@ _sk_load_a8_ssse3_lowp:
.byte 102,65,15,110,4,19 // movd (%r11,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,88,255,255,255 // jmpq a1c <_sk_load_a8_ssse3_lowp+0x14>
+ .byte 233,88,255,255,255 // jmpq a2c <_sk_load_a8_ssse3_lowp+0x14>
.byte 155 // fwait
.byte 255 // (bad)
.byte 255 // (bad)
@@ -46703,11 +46708,11 @@ _sk_load_a8_dst_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,37 // jne b0f <_sk_load_a8_dst_ssse3_lowp+0x2f>
+ .byte 117,37 // jne b1f <_sk_load_a8_dst_ssse3_lowp+0x2f>
.byte 243,65,15,126,60,19 // movq (%r11,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
.byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,228,61,15,17,0,0 // pmulhuw 0x110f(%rip),%xmm7 # 1c10 <_sk_xor__ssse3_lowp+0x247>
+ .byte 102,15,228,61,15,17,0,0 // pmulhuw 0x110f(%rip),%xmm7 # 1c20 <_sk_xor__ssse3_lowp+0x247>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,87,228 // xorpd %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -46718,15 +46723,15 @@ _sk_load_a8_dst_ssse3_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,209 // ja af4 <_sk_load_a8_dst_ssse3_lowp+0x14>
+ .byte 119,209 // ja b04 <_sk_load_a8_dst_ssse3_lowp+0x14>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # b9c <_sk_load_a8_dst_ssse3_lowp+0xbc>
+ .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # bac <_sk_load_a8_dst_ssse3_lowp+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,178 // jmp af4 <_sk_load_a8_dst_ssse3_lowp+0x14>
+ .byte 235,178 // jmp b04 <_sk_load_a8_dst_ssse3_lowp+0x14>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -46734,7 +46739,7 @@ _sk_load_a8_dst_ssse3_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,144 // jmp af4 <_sk_load_a8_dst_ssse3_lowp+0x14>
+ .byte 235,144 // jmp b04 <_sk_load_a8_dst_ssse3_lowp+0x14>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -46745,7 +46750,7 @@ _sk_load_a8_dst_ssse3_lowp:
.byte 102,65,15,110,36,19 // movd (%r11,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,88,255,255,255 // jmpq af4 <_sk_load_a8_dst_ssse3_lowp+0x14>
+ .byte 233,88,255,255,255 // jmpq b04 <_sk_load_a8_dst_ssse3_lowp+0x14>
.byte 155 // fwait
.byte 255 // (bad)
.byte 255 // (bad)
@@ -46777,7 +46782,7 @@ _sk_store_a8_ssse3_lowp:
.byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 77,133,192 // test %r8,%r8
- .byte 117,10 // jne bdc <_sk_store_a8_ssse3_lowp+0x24>
+ .byte 117,10 // jne bec <_sk_store_a8_ssse3_lowp+0x24>
.byte 242,69,15,17,4,19 // movsd %xmm8,(%r11,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46785,24 +46790,24 @@ _sk_store_a8_ssse3_lowp:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bd8 <_sk_store_a8_ssse3_lowp+0x20>
+ .byte 119,236 // ja be8 <_sk_store_a8_ssse3_lowp+0x20>
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,136,0,0,0 // lea 0x88(%rip),%r10 # c84 <_sk_store_a8_ssse3_lowp+0xcc>
+ .byte 76,141,21,136,0,0,0 // lea 0x88(%rip),%r10 # c94 <_sk_store_a8_ssse3_lowp+0xcc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,127,68,36,168 // movdqa %xmm8,-0x58(%rsp)
.byte 138,68,36,168 // mov -0x58(%rsp),%al
.byte 65,136,4,19 // mov %al,(%r11,%rdx,1)
- .byte 235,194 // jmp bd8 <_sk_store_a8_ssse3_lowp+0x20>
+ .byte 235,194 // jmp be8 <_sk_store_a8_ssse3_lowp+0x20>
.byte 102,68,15,127,68,36,184 // movdqa %xmm8,-0x48(%rsp)
.byte 138,68,36,188 // mov -0x44(%rsp),%al
.byte 65,136,68,19,2 // mov %al,0x2(%r11,%rdx,1)
- .byte 102,68,15,56,0,5,0,16,0,0 // pshufb 0x1000(%rip),%xmm8 # 1c30 <_sk_xor__ssse3_lowp+0x267>
+ .byte 102,68,15,56,0,5,0,16,0,0 // pshufb 0x1000(%rip),%xmm8 # 1c40 <_sk_xor__ssse3_lowp+0x267>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,19 // mov %ax,(%r11,%rdx,1)
- .byte 235,156 // jmp bd8 <_sk_store_a8_ssse3_lowp+0x20>
+ .byte 235,156 // jmp be8 <_sk_store_a8_ssse3_lowp+0x20>
.byte 102,68,15,127,68,36,232 // movdqa %xmm8,-0x18(%rsp)
.byte 138,68,36,244 // mov -0xc(%rsp),%al
.byte 65,136,68,19,6 // mov %al,0x6(%r11,%rdx,1)
@@ -46812,9 +46817,9 @@ _sk_store_a8_ssse3_lowp:
.byte 102,68,15,127,68,36,200 // movdqa %xmm8,-0x38(%rsp)
.byte 138,68,36,208 // mov -0x30(%rsp),%al
.byte 65,136,68,19,4 // mov %al,0x4(%r11,%rdx,1)
- .byte 102,68,15,56,0,5,170,15,0,0 // pshufb 0xfaa(%rip),%xmm8 # 1c20 <_sk_xor__ssse3_lowp+0x257>
+ .byte 102,68,15,56,0,5,170,15,0,0 // pshufb 0xfaa(%rip),%xmm8 # 1c30 <_sk_xor__ssse3_lowp+0x257>
.byte 102,69,15,126,4,19 // movd %xmm8,(%r11,%rdx,1)
- .byte 233,87,255,255,255 // jmpq bd8 <_sk_store_a8_ssse3_lowp+0x20>
+ .byte 233,87,255,255,255 // jmpq be8 <_sk_store_a8_ssse3_lowp+0x20>
.byte 15,31,0 // nopl (%rax)
.byte 129,255,255,255,162,255 // cmp $0xffa2ffff,%edi
.byte 255 // (bad)
@@ -46840,13 +46845,13 @@ _sk_load_g8_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,42 // jne cd4 <_sk_load_g8_ssse3_lowp+0x34>
+ .byte 117,42 // jne ce4 <_sk_load_g8_ssse3_lowp+0x34>
.byte 243,65,15,126,4,19 // movq (%r11,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,228,5,127,15,0,0 // pmulhuw 0xf7f(%rip),%xmm0 # 1c40 <_sk_xor__ssse3_lowp+0x277>
+ .byte 102,15,228,5,127,15,0,0 // pmulhuw 0xf7f(%rip),%xmm0 # 1c50 <_sk_xor__ssse3_lowp+0x277>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,134,15,0,0 // movaps 0xf86(%rip),%xmm3 # 1c50 <_sk_xor__ssse3_lowp+0x287>
+ .byte 15,40,29,134,15,0,0 // movaps 0xf86(%rip),%xmm3 # 1c60 <_sk_xor__ssse3_lowp+0x287>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -46855,15 +46860,15 @@ _sk_load_g8_ssse3_lowp:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,204 // ja cb4 <_sk_load_g8_ssse3_lowp+0x14>
+ .byte 119,204 // ja cc4 <_sk_load_g8_ssse3_lowp+0x14>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # d64 <_sk_load_g8_ssse3_lowp+0xc4>
+ .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # d74 <_sk_load_g8_ssse3_lowp+0xc4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,173 // jmp cb4 <_sk_load_g8_ssse3_lowp+0x14>
+ .byte 235,173 // jmp cc4 <_sk_load_g8_ssse3_lowp+0x14>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -46871,7 +46876,7 @@ _sk_load_g8_ssse3_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,139 // jmp cb4 <_sk_load_g8_ssse3_lowp+0x14>
+ .byte 235,139 // jmp cc4 <_sk_load_g8_ssse3_lowp+0x14>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -46882,7 +46887,7 @@ _sk_load_g8_ssse3_lowp:
.byte 102,65,15,110,12,19 // movd (%r11,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,83,255,255,255 // jmpq cb4 <_sk_load_g8_ssse3_lowp+0x14>
+ .byte 233,83,255,255,255 // jmpq cc4 <_sk_load_g8_ssse3_lowp+0x14>
.byte 15,31,0 // nopl (%rax)
.byte 152 // cwtl
.byte 255 // (bad)
@@ -46912,13 +46917,13 @@ _sk_load_g8_dst_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,42 // jne db4 <_sk_load_g8_dst_ssse3_lowp+0x34>
+ .byte 117,42 // jne dc4 <_sk_load_g8_dst_ssse3_lowp+0x34>
.byte 243,65,15,126,36,19 // movq (%r11,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,228,37,191,14,0,0 // pmulhuw 0xebf(%rip),%xmm4 # 1c60 <_sk_xor__ssse3_lowp+0x297>
+ .byte 102,15,228,37,191,14,0,0 // pmulhuw 0xebf(%rip),%xmm4 # 1c70 <_sk_xor__ssse3_lowp+0x297>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,198,14,0,0 // movaps 0xec6(%rip),%xmm7 # 1c70 <_sk_xor__ssse3_lowp+0x2a7>
+ .byte 15,40,61,198,14,0,0 // movaps 0xec6(%rip),%xmm7 # 1c80 <_sk_xor__ssse3_lowp+0x2a7>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
@@ -46927,15 +46932,15 @@ _sk_load_g8_dst_ssse3_lowp:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,204 // ja d94 <_sk_load_g8_dst_ssse3_lowp+0x14>
+ .byte 119,204 // ja da4 <_sk_load_g8_dst_ssse3_lowp+0x14>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # e44 <_sk_load_g8_dst_ssse3_lowp+0xc4>
+ .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # e54 <_sk_load_g8_dst_ssse3_lowp+0xc4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,173 // jmp d94 <_sk_load_g8_dst_ssse3_lowp+0x14>
+ .byte 235,173 // jmp da4 <_sk_load_g8_dst_ssse3_lowp+0x14>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -46943,7 +46948,7 @@ _sk_load_g8_dst_ssse3_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,139 // jmp d94 <_sk_load_g8_dst_ssse3_lowp+0x14>
+ .byte 235,139 // jmp da4 <_sk_load_g8_dst_ssse3_lowp+0x14>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -46954,7 +46959,7 @@ _sk_load_g8_dst_ssse3_lowp:
.byte 102,65,15,110,44,19 // movd (%r11,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,83,255,255,255 // jmpq d94 <_sk_load_g8_dst_ssse3_lowp+0x14>
+ .byte 233,83,255,255,255 // jmpq da4 <_sk_load_g8_dst_ssse3_lowp+0x14>
.byte 15,31,0 // nopl (%rax)
.byte 152 // cwtl
.byte 255 // (bad)
@@ -46985,20 +46990,20 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,11,2,0,0 // jne 107e <_sk_srcover_rgba_8888_ssse3_lowp+0x21e>
+ .byte 15,133,11,2,0,0 // jne 108e <_sk_srcover_rgba_8888_ssse3_lowp+0x21e>
.byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8
.byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7
- .byte 102,15,111,45,249,13,0,0 // movdqa 0xdf9(%rip),%xmm5 # 1c80 <_sk_xor__ssse3_lowp+0x2b7>
+ .byte 102,15,111,45,249,13,0,0 // movdqa 0xdf9(%rip),%xmm5 # 1c90 <_sk_xor__ssse3_lowp+0x2b7>
.byte 102,15,40,231 // movapd %xmm7,%xmm4
.byte 102,15,56,0,229 // pshufb %xmm5,%xmm4
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
.byte 102,15,56,0,245 // pshufb %xmm5,%xmm6
.byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4
- .byte 102,15,111,13,234,13,0,0 // movdqa 0xdea(%rip),%xmm1 # 1c90 <_sk_xor__ssse3_lowp+0x2c7>
+ .byte 102,15,111,13,234,13,0,0 // movdqa 0xdea(%rip),%xmm1 # 1ca0 <_sk_xor__ssse3_lowp+0x2c7>
.byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,68,15,111,13,236,13,0,0 // movdqa 0xdec(%rip),%xmm9 # 1ca0 <_sk_xor__ssse3_lowp+0x2d7>
+ .byte 102,68,15,111,13,236,13,0,0 // movdqa 0xdec(%rip),%xmm9 # 1cb0 <_sk_xor__ssse3_lowp+0x2d7>
.byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,238,13,0,0 // movdqa 0xdee(%rip),%xmm10 # 1cb0 <_sk_xor__ssse3_lowp+0x2e7>
+ .byte 102,68,15,111,21,238,13,0,0 // movdqa 0xdee(%rip),%xmm10 # 1cc0 <_sk_xor__ssse3_lowp+0x2e7>
.byte 102,15,40,239 // movapd %xmm7,%xmm5
.byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -47006,7 +47011,7 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5
.byte 102,15,113,245,8 // psllw $0x8,%xmm5
.byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,210,13,0,0 // movdqa 0xdd2(%rip),%xmm10 # 1cc0 <_sk_xor__ssse3_lowp+0x2f7>
+ .byte 102,68,15,111,21,210,13,0,0 // movdqa 0xdd2(%rip),%xmm10 # 1cd0 <_sk_xor__ssse3_lowp+0x2f7>
.byte 102,15,40,247 // movapd %xmm7,%xmm6
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
@@ -47014,13 +47019,13 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6
.byte 102,15,113,246,8 // psllw $0x8,%xmm6
.byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,181,13,0,0 // movdqa 0xdb5(%rip),%xmm10 # 1cd0 <_sk_xor__ssse3_lowp+0x307>
+ .byte 102,68,15,111,21,181,13,0,0 // movdqa 0xdb5(%rip),%xmm10 # 1ce0 <_sk_xor__ssse3_lowp+0x307>
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
.byte 102,15,113,247,8 // psllw $0x8,%xmm7
.byte 102,65,15,228,249 // pmulhuw %xmm9,%xmm7
- .byte 102,68,15,111,29,161,13,0,0 // movdqa 0xda1(%rip),%xmm11 # 1ce0 <_sk_xor__ssse3_lowp+0x317>
+ .byte 102,68,15,111,29,161,13,0,0 // movdqa 0xda1(%rip),%xmm11 # 1cf0 <_sk_xor__ssse3_lowp+0x317>
.byte 102,68,15,249,219 // psubw %xmm3,%xmm11
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,69,15,56,11,195 // pmulhrsw %xmm11,%xmm8
@@ -47076,7 +47081,7 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 102,65,15,235,192 // por %xmm8,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 77,133,192 // test %r8,%r8
- .byte 117,97 // jne 10ba <_sk_srcover_rgba_8888_ssse3_lowp+0x25a>
+ .byte 117,97 // jne 10ca <_sk_srcover_rgba_8888_ssse3_lowp+0x25a>
.byte 243,65,15,127,4,147 // movdqu %xmm0,(%r11,%rdx,4)
.byte 243,65,15,127,76,147,16 // movdqu %xmm1,0x10(%r11,%rdx,4)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -47091,30 +47096,30 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,228,253,255,255 // ja e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
+ .byte 15,135,228,253,255,255 // ja e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,206,0,0,0 // lea 0xce(%rip),%r10 # 1174 <_sk_srcover_rgba_8888_ssse3_lowp+0x314>
+ .byte 76,141,21,206,0,0,0 // lea 0xce(%rip),%r10 # 1184 <_sk_srcover_rgba_8888_ssse3_lowp+0x314>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7
- .byte 233,197,253,255,255 // jmpq e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
+ .byte 233,197,253,255,255 // jmpq e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
.byte 69,137,193 // mov %r8d,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
+ .byte 119,156 // ja 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,187,0,0,0 // lea 0xbb(%rip),%r9 # 1190 <_sk_srcover_rgba_8888_ssse3_lowp+0x330>
+ .byte 76,141,13,187,0,0,0 // lea 0xbb(%rip),%r9 # 11a0 <_sk_srcover_rgba_8888_ssse3_lowp+0x330>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,147 // movd %xmm0,(%r11,%rdx,4)
- .byte 235,128 // jmp 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
+ .byte 235,128 // jmp 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
.byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7
- .byte 233,130,253,255,255 // jmpq e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
+ .byte 233,130,253,255,255 // jmpq e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f>
.byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4
@@ -47123,27 +47128,27 @@ _sk_srcover_rgba_8888_ssse3_lowp:
.byte 68,15,40,196 // movaps %xmm4,%xmm8
.byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4
.byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,73,253,255,255 // jmpq e79 <_sk_srcover_rgba_8888_ssse3_lowp+0x19>
+ .byte 233,73,253,255,255 // jmpq e89 <_sk_srcover_rgba_8888_ssse3_lowp+0x19>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,147,8 // movd %xmm1,0x8(%r11,%rdx,4)
.byte 102,65,15,214,4,147 // movq %xmm0,(%r11,%rdx,4)
- .byte 233,31,255,255,255 // jmpq 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
+ .byte 233,31,255,255,255 // jmpq 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,65,15,126,84,147,24 // movd %xmm2,0x18(%r11,%rdx,4)
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,65,15,126,84,147,20 // movd %xmm2,0x14(%r11,%rdx,4)
.byte 102,65,15,126,76,147,16 // movd %xmm1,0x10(%r11,%rdx,4)
.byte 243,65,15,127,4,147 // movdqu %xmm0,(%r11,%rdx,4)
- .byte 233,245,254,255,255 // jmpq 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
+ .byte 233,245,254,255,255 // jmpq 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206>
.byte 15,31,0 // nopl (%rax)
.byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 1179 <_sk_srcover_rgba_8888_ssse3_lowp+0x319>
+ .byte 126,255 // jle 1189 <_sk_srcover_rgba_8888_ssse3_lowp+0x319>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
- .byte 255,5,253,255,255,171 // incl -0x54000003(%rip) # ffffffffac001182 <_sk_xor__ssse3_lowp+0xffffffffabfff7b9>
+ .byte 255,5,253,255,255,171 // incl -0x54000003(%rip) # ffffffffac001192 <_sk_xor__ssse3_lowp+0xffffffffabfff7b9>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,150,255,255,255,137 // callq *-0x76000001(%rsi)
@@ -47173,7 +47178,7 @@ FUNCTION(_sk_scale_1_float_ssse3_lowp)
_sk_scale_1_float_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,88,5,8,12,0,0 // addss 0xc08(%rip),%xmm8 # 1dc4 <_sk_xor__ssse3_lowp+0x3fb>
+ .byte 243,68,15,88,5,8,12,0,0 // addss 0xc08(%rip),%xmm8 # 1dd4 <_sk_xor__ssse3_lowp+0x3fb>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
@@ -47196,11 +47201,11 @@ _sk_scale_u8_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 117,74 // jne 1256 <_sk_scale_u8_ssse3_lowp+0x54>
+ .byte 117,74 // jne 1266 <_sk_scale_u8_ssse3_lowp+0x54>
.byte 243,69,15,126,4,19 // movq (%r11,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,228,5,202,10,0,0 // pmulhuw 0xaca(%rip),%xmm8 # 1cf0 <_sk_xor__ssse3_lowp+0x327>
+ .byte 102,68,15,228,5,202,10,0,0 // pmulhuw 0xaca(%rip),%xmm8 # 1d00 <_sk_xor__ssse3_lowp+0x327>
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
.byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
.byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
@@ -47216,15 +47221,15 @@ _sk_scale_u8_ssse3_lowp:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,172 // ja 1217 <_sk_scale_u8_ssse3_lowp+0x15>
+ .byte 119,172 // ja 1227 <_sk_scale_u8_ssse3_lowp+0x15>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12f4 <_sk_scale_u8_ssse3_lowp+0xf2>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 1304 <_sk_scale_u8_ssse3_lowp+0xf2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,140 // jmp 1217 <_sk_scale_u8_ssse3_lowp+0x15>
+ .byte 235,140 // jmp 1227 <_sk_scale_u8_ssse3_lowp+0x15>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -47232,7 +47237,7 @@ _sk_scale_u8_ssse3_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 233,98,255,255,255 // jmpq 1217 <_sk_scale_u8_ssse3_lowp+0x15>
+ .byte 233,98,255,255,255 // jmpq 1227 <_sk_scale_u8_ssse3_lowp+0x15>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -47243,7 +47248,7 @@ _sk_scale_u8_ssse3_lowp:
.byte 102,69,15,110,12,19 // movd (%r11,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,36,255,255,255 // jmpq 1217 <_sk_scale_u8_ssse3_lowp+0x15>
+ .byte 233,36,255,255,255 // jmpq 1227 <_sk_scale_u8_ssse3_lowp+0x15>
.byte 144 // nop
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -47271,14 +47276,14 @@ FUNCTION(_sk_lerp_1_float_ssse3_lowp)
_sk_lerp_1_float_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,88,5,168,10,0,0 // addss 0xaa8(%rip),%xmm8 # 1dc8 <_sk_xor__ssse3_lowp+0x3ff>
+ .byte 243,68,15,88,5,168,10,0,0 // addss 0xaa8(%rip),%xmm8 # 1dd8 <_sk_xor__ssse3_lowp+0x3ff>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
.byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9
- .byte 102,68,15,111,21,181,9,0,0 // movdqa 0x9b5(%rip),%xmm10 # 1d00 <_sk_xor__ssse3_lowp+0x337>
+ .byte 102,68,15,111,21,181,9,0,0 // movdqa 0x9b5(%rip),%xmm10 # 1d10 <_sk_xor__ssse3_lowp+0x337>
.byte 102,69,15,249,208 // psubw %xmm8,%xmm10
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0
@@ -47311,14 +47316,14 @@ _sk_lerp_u8_ssse3_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,24 // mov (%rax),%r11
.byte 77,133,192 // test %r8,%r8
- .byte 15,133,169,0,0,0 // jne 147c <_sk_lerp_u8_ssse3_lowp+0xb7>
+ .byte 15,133,169,0,0,0 // jne 148c <_sk_lerp_u8_ssse3_lowp+0xb7>
.byte 243,69,15,126,4,19 // movq (%r11,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,228,5,35,9,0,0 // pmulhuw 0x923(%rip),%xmm8 # 1d10 <_sk_xor__ssse3_lowp+0x347>
+ .byte 102,68,15,228,5,35,9,0,0 // pmulhuw 0x923(%rip),%xmm8 # 1d20 <_sk_xor__ssse3_lowp+0x347>
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
.byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9
- .byte 102,68,15,111,21,30,9,0,0 // movdqa 0x91e(%rip),%xmm10 # 1d20 <_sk_xor__ssse3_lowp+0x357>
+ .byte 102,68,15,111,21,30,9,0,0 // movdqa 0x91e(%rip),%xmm10 # 1d30 <_sk_xor__ssse3_lowp+0x357>
.byte 102,69,15,249,208 // psubw %xmm8,%xmm10
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0
@@ -47348,15 +47353,15 @@ _sk_lerp_u8_ssse3_lowp:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,73,255,255,255 // ja 13de <_sk_lerp_u8_ssse3_lowp+0x19>
+ .byte 15,135,73,255,255,255 // ja 13ee <_sk_lerp_u8_ssse3_lowp+0x19>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,128,0,0,0 // lea 0x80(%rip),%r10 # 1520 <_sk_lerp_u8_ssse3_lowp+0x15b>
+ .byte 76,141,21,128,0,0,0 // lea 0x80(%rip),%r10 # 1530 <_sk_lerp_u8_ssse3_lowp+0x15b>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,38,255,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19>
+ .byte 233,38,255,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19>
.byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -47364,7 +47369,7 @@ _sk_lerp_u8_ssse3_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 233,252,254,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19>
+ .byte 233,252,254,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19>
.byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -47375,14 +47380,14 @@ _sk_lerp_u8_ssse3_lowp:
.byte 102,69,15,110,12,19 // movd (%r11,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,190,254,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19>
+ .byte 233,190,254,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19>
.byte 137,255 // mov %edi,%edi
.byte 255 // (bad)
.byte 255,169,255,255,255,152 // ljmp *-0x67000001(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 152d <_sk_lerp_u8_ssse3_lowp+0x168>
+ .byte 235,255 // jmp 153d <_sk_lerp_u8_ssse3_lowp+0x168>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 223,255 // (bad)
@@ -47444,7 +47449,7 @@ FUNCTION(_sk_srcatop_ssse3_lowp)
_sk_srcatop_ssse3_lowp:
.byte 102,15,56,11,199 // pmulhrsw %xmm7,%xmm0
.byte 102,68,15,56,29,192 // pabsw %xmm0,%xmm8
- .byte 102,68,15,111,13,161,7,0,0 // movdqa 0x7a1(%rip),%xmm9 # 1d30 <_sk_xor__ssse3_lowp+0x367>
+ .byte 102,68,15,111,13,161,7,0,0 // movdqa 0x7a1(%rip),%xmm9 # 1d40 <_sk_xor__ssse3_lowp+0x367>
.byte 102,68,15,249,203 // psubw %xmm3,%xmm9
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
@@ -47477,7 +47482,7 @@ _sk_dstatop_ssse3_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
.byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,68,15,111,13,32,7,0,0 // movdqa 0x720(%rip),%xmm9 # 1d40 <_sk_xor__ssse3_lowp+0x377>
+ .byte 102,68,15,111,13,32,7,0,0 // movdqa 0x720(%rip),%xmm9 # 1d50 <_sk_xor__ssse3_lowp+0x377>
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
.byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
@@ -47540,7 +47545,7 @@ HIDDEN _sk_srcout_ssse3_lowp
.globl _sk_srcout_ssse3_lowp
FUNCTION(_sk_srcout_ssse3_lowp)
_sk_srcout_ssse3_lowp:
- .byte 102,68,15,111,5,70,6,0,0 // movdqa 0x646(%rip),%xmm8 # 1d50 <_sk_xor__ssse3_lowp+0x387>
+ .byte 102,68,15,111,5,70,6,0,0 // movdqa 0x646(%rip),%xmm8 # 1d60 <_sk_xor__ssse3_lowp+0x387>
.byte 102,68,15,249,199 // psubw %xmm7,%xmm8
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
.byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
@@ -47557,7 +47562,7 @@ HIDDEN _sk_dstout_ssse3_lowp
.globl _sk_dstout_ssse3_lowp
FUNCTION(_sk_dstout_ssse3_lowp)
_sk_dstout_ssse3_lowp:
- .byte 102,68,15,111,5,23,6,0,0 // movdqa 0x617(%rip),%xmm8 # 1d60 <_sk_xor__ssse3_lowp+0x397>
+ .byte 102,68,15,111,5,23,6,0,0 // movdqa 0x617(%rip),%xmm8 # 1d70 <_sk_xor__ssse3_lowp+0x397>
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
@@ -47577,7 +47582,7 @@ HIDDEN _sk_srcover_ssse3_lowp
.globl _sk_srcover_ssse3_lowp
FUNCTION(_sk_srcover_ssse3_lowp)
_sk_srcover_ssse3_lowp:
- .byte 102,68,15,111,5,220,5,0,0 // movdqa 0x5dc(%rip),%xmm8 # 1d70 <_sk_xor__ssse3_lowp+0x3a7>
+ .byte 102,68,15,111,5,220,5,0,0 // movdqa 0x5dc(%rip),%xmm8 # 1d80 <_sk_xor__ssse3_lowp+0x3a7>
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
.byte 102,69,15,56,11,200 // pmulhrsw %xmm8,%xmm9
@@ -47601,7 +47606,7 @@ HIDDEN _sk_dstover_ssse3_lowp
.globl _sk_dstover_ssse3_lowp
FUNCTION(_sk_dstover_ssse3_lowp)
_sk_dstover_ssse3_lowp:
- .byte 102,68,15,111,5,135,5,0,0 // movdqa 0x587(%rip),%xmm8 # 1d80 <_sk_xor__ssse3_lowp+0x3b7>
+ .byte 102,68,15,111,5,135,5,0,0 // movdqa 0x587(%rip),%xmm8 # 1d90 <_sk_xor__ssse3_lowp+0x3b7>
.byte 102,68,15,249,199 // psubw %xmm7,%xmm8
.byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
.byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
@@ -47637,7 +47642,7 @@ HIDDEN _sk_multiply_ssse3_lowp
.globl _sk_multiply_ssse3_lowp
FUNCTION(_sk_multiply_ssse3_lowp)
_sk_multiply_ssse3_lowp:
- .byte 102,68,15,111,5,28,5,0,0 // movdqa 0x51c(%rip),%xmm8 # 1d90 <_sk_xor__ssse3_lowp+0x3c7>
+ .byte 102,68,15,111,5,28,5,0,0 // movdqa 0x51c(%rip),%xmm8 # 1da0 <_sk_xor__ssse3_lowp+0x3c7>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
@@ -47686,7 +47691,7 @@ HIDDEN _sk_screen_ssse3_lowp
.globl _sk_screen_ssse3_lowp
FUNCTION(_sk_screen_ssse3_lowp)
_sk_screen_ssse3_lowp:
- .byte 102,68,15,111,5,66,4,0,0 // movdqa 0x442(%rip),%xmm8 # 1da0 <_sk_xor__ssse3_lowp+0x3d7>
+ .byte 102,68,15,111,5,66,4,0,0 // movdqa 0x442(%rip),%xmm8 # 1db0 <_sk_xor__ssse3_lowp+0x3d7>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,68,15,56,11,204 // pmulhrsw %xmm4,%xmm9
@@ -47713,7 +47718,7 @@ HIDDEN _sk_xor__ssse3_lowp
.globl _sk_xor__ssse3_lowp
FUNCTION(_sk_xor__ssse3_lowp)
_sk_xor__ssse3_lowp:
- .byte 102,68,15,111,5,222,3,0,0 // movdqa 0x3de(%rip),%xmm8 # 1db0 <_sk_xor__ssse3_lowp+0x3e7>
+ .byte 102,68,15,111,5,222,3,0,0 // movdqa 0x3de(%rip),%xmm8 # 1dc0 <_sk_xor__ssse3_lowp+0x3e7>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
@@ -47762,7 +47767,7 @@ BALIGN16
.byte 12,13 // or $0xd,%al
.byte 12,13 // or $0xd,%al
.byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809c35 <_sk_xor__ssse3_lowp+0xffffffff8180826c>
+ .byte 15,129,128,129,128,129 // jno ffffffff81809c45 <_sk_xor__ssse3_lowp+0xffffffff8180826c>
.byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
.byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
.byte 13,14,9,10,13 // or $0xd0a090e,%eax
@@ -47791,7 +47796,7 @@ BALIGN16
.byte 12,13 // or $0xd,%al
.byte 12,13 // or $0xd,%al
.byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809c85 <_sk_xor__ssse3_lowp+0xffffffff818082bc>
+ .byte 15,129,128,129,128,129 // jno ffffffff81809c95 <_sk_xor__ssse3_lowp+0xffffffff818082bc>
.byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
.byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
.byte 13,14,9,10,13 // or $0xd0a090e,%eax
@@ -47831,7 +47836,7 @@ BALIGN16
.byte 12,13 // or $0xd,%al
.byte 12,13 // or $0xd,%al
.byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809ce5 <_sk_xor__ssse3_lowp+0xffffffff8180831c>
+ .byte 15,129,128,129,128,129 // jno ffffffff81809cf5 <_sk_xor__ssse3_lowp+0xffffffff8180831c>
.byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
.byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
.byte 13,14,9,10,13 // or $0xd0a090e,%eax
@@ -47860,7 +47865,7 @@ BALIGN16
.byte 12,13 // or $0xd,%al
.byte 12,13 // or $0xd,%al
.byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809d35 <_sk_xor__ssse3_lowp+0xffffffff8180836c>
+ .byte 15,129,128,129,128,129 // jno ffffffff81809d45 <_sk_xor__ssse3_lowp+0xffffffff8180836c>
.byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
.byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
.byte 13,14,9,10,13 // or $0xd0a090e,%eax