diff options
author | 2017-07-18 13:01:56 -0400 | |
---|---|---|
committer | 2017-07-18 17:30:23 +0000 | |
commit | 140635504c40b99debb0e714aca8d90652aa6aff (patch) | |
tree | 49d52e2091f1f30b0ce33055028d69bb7d8bc386 /src/jumper/SkJumper_generated.S | |
parent | 863ffef38578ee19b6599aa03bf93bc9d0da330e (diff) |
minor fixes to start_pipeline_lowp
- in _lowp.cpp, JUMPER is always defined, so no need to check.
- the return type of this function has been void for a while.
Change-Id: I5271e8dab784f46c7ffa9cfba6eb55b5e399b537
Reviewed-on: https://skia-review.googlesource.com/24326
Reviewed-by: Mike Reed <reed@google.com>
Commit-Queue: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r-- | src/jumper/SkJumper_generated.S | 467 |
1 files changed, 236 insertions, 231 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S index c2614c95e8..a53ca11411 100644 --- a/src/jumper/SkJumper_generated.S +++ b/src/jumper/SkJumper_generated.S @@ -43187,38 +43187,37 @@ _sk_start_pipeline_hsw_lowp: .byte 83 // push %rbx .byte 80 // push %rax .byte 77,137,196 // mov %r8,%r12 - .byte 73,137,215 // mov %rdx,%r15 + .byte 73,137,208 // mov %rdx,%r8 .byte 72,137,243 // mov %rsi,%rbx .byte 73,137,254 // mov %rdi,%r14 .byte 72,137,206 // mov %rcx,%rsi .byte 72,173 // lods %ds:(%rsi),%rax .byte 73,137,197 // mov %rax,%r13 + .byte 73,137,247 // mov %rsi,%r15 .byte 73,141,78,16 // lea 0x10(%r14),%rcx - .byte 76,57,249 // cmp %r15,%rcx - .byte 118,5 // jbe 30 <_sk_start_pipeline_hsw_lowp+0x30> + .byte 76,57,193 // cmp %r8,%rcx + .byte 118,5 // jbe 33 <_sk_start_pipeline_hsw_lowp+0x33> .byte 76,137,242 // mov %r14,%rdx - .byte 235,45 // jmp 5d <_sk_start_pipeline_hsw_lowp+0x5d> - .byte 76,137,125,208 // mov %r15,-0x30(%rbp) + .byte 235,42 // jmp 5d <_sk_start_pipeline_hsw_lowp+0x5d> + .byte 76,137,69,208 // mov %r8,-0x30(%rbp) .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,231 // mov %r12,%rdi - .byte 73,137,247 // mov %rsi,%r15 + .byte 76,137,254 // mov %r15,%rsi .byte 76,137,242 // mov %r14,%rdx .byte 72,137,217 // mov %rbx,%rcx .byte 65,255,213 // callq *%r13 - .byte 76,137,254 // mov %r15,%rsi - .byte 76,139,125,208 // mov -0x30(%rbp),%r15 + .byte 76,139,69,208 // mov -0x30(%rbp),%r8 .byte 73,141,86,16 // lea 0x10(%r14),%rdx .byte 73,131,198,32 // add $0x20,%r14 - .byte 77,57,254 // cmp %r15,%r14 + .byte 77,57,198 // cmp %r8,%r14 .byte 73,137,214 // mov %rdx,%r14 - .byte 118,215 // jbe 34 <_sk_start_pipeline_hsw_lowp+0x34> - .byte 77,137,248 // mov %r15,%r8 + .byte 118,218 // jbe 37 <_sk_start_pipeline_hsw_lowp+0x37> .byte 73,41,208 // sub %rdx,%r8 - .byte 116,9 // je 6e <_sk_start_pipeline_hsw_lowp+0x6e> + .byte 116,12 // je 6e <_sk_start_pipeline_hsw_lowp+0x6e> .byte 76,137,231 // mov %r12,%rdi + .byte 76,137,254 // mov %r15,%rsi .byte 72,137,217 // mov %rbx,%rcx .byte 65,255,213 // callq *%r13 - .byte 76,137,248 // mov %r15,%rax .byte 72,131,196,8 // add $0x8,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -43240,7 +43239,7 @@ HIDDEN _sk_uniform_color_hsw_lowp FUNCTION(_sk_uniform_color_hsw_lowp) _sk_uniform_color_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,121,24,5,29,33,0,0 // vbroadcastss 0x211d(%rip),%xmm0 # 21ac <_sk_xor__hsw_lowp+0x78> + .byte 196,226,121,24,5,32,33,0,0 // vbroadcastss 0x2120(%rip),%xmm0 # 21ac <_sk_xor__hsw_lowp+0x78> .byte 197,248,88,24 // vaddps (%rax),%xmm0,%xmm3 .byte 196,226,125,121,195 // vpbroadcastw %xmm3,%ymm0 .byte 197,251,112,203,234 // vpshuflw $0xea,%xmm3,%xmm1 @@ -43259,7 +43258,7 @@ HIDDEN _sk_black_color_hsw_lowp FUNCTION(_sk_black_color_hsw_lowp) _sk_black_color_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,29,239,32,0,0 // vpbroadcastw 0x20ef(%rip),%ymm3 # 21c0 <_sk_xor__hsw_lowp+0x8c> + .byte 196,226,125,121,29,242,32,0,0 // vpbroadcastw 0x20f2(%rip),%ymm3 # 21c0 <_sk_xor__hsw_lowp+0x8c> .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0 .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1 .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2 @@ -43270,7 +43269,7 @@ HIDDEN _sk_white_color_hsw_lowp FUNCTION(_sk_white_color_hsw_lowp) _sk_white_color_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 196,226,125,121,5,216,32,0,0 // vpbroadcastw 0x20d8(%rip),%ymm0 # 21c2 <_sk_xor__hsw_lowp+0x8e> + .byte 196,226,125,121,5,219,32,0,0 // vpbroadcastw 0x20db(%rip),%ymm0 # 21c2 <_sk_xor__hsw_lowp+0x8e> .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1 .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2 .byte 197,253,111,216 // vmovdqa %ymm0,%ymm3 @@ -43281,7 +43280,7 @@ HIDDEN _sk_set_rgb_hsw_lowp FUNCTION(_sk_set_rgb_hsw_lowp) _sk_set_rgb_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 197,250,16,21,174,32,0,0 // vmovss 0x20ae(%rip),%xmm2 # 21b0 <_sk_xor__hsw_lowp+0x7c> + .byte 197,250,16,21,177,32,0,0 // vmovss 0x20b1(%rip),%xmm2 # 21b0 <_sk_xor__hsw_lowp+0x7c> .byte 197,234,88,0 // vaddss (%rax),%xmm2,%xmm0 .byte 196,193,121,126,193 // vmovd %xmm0,%r9d .byte 196,193,121,110,193 // vmovd %r9d,%xmm0 @@ -43317,19 +43316,19 @@ _sk_load_8888_hsw_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,210,0,0,0 // jne 241 <_sk_load_8888_hsw_lowp+0xe0> + .byte 15,133,210,0,0,0 // jne 23e <_sk_load_8888_hsw_lowp+0xe0> .byte 196,193,126,111,92,147,32 // vmovdqu 0x20(%r11,%rdx,4),%ymm3 .byte 196,65,126,111,4,147 // vmovdqu (%r11,%rdx,4),%ymm8 - .byte 197,253,111,5,92,32,0,0 // vmovdqa 0x205c(%rip),%ymm0 # 21e0 <_sk_xor__hsw_lowp+0xac> + .byte 197,253,111,5,95,32,0,0 // vmovdqa 0x205f(%rip),%ymm0 # 21e0 <_sk_xor__hsw_lowp+0xac> .byte 196,226,61,0,200 // vpshufb %ymm0,%ymm8,%ymm1 .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1 .byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0 .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0 .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0 .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0 - .byte 196,98,125,121,13,82,32,0,0 // vpbroadcastw 0x2052(%rip),%ymm9 # 2200 <_sk_xor__hsw_lowp+0xcc> + .byte 196,98,125,121,13,85,32,0,0 // vpbroadcastw 0x2055(%rip),%ymm9 # 2200 <_sk_xor__hsw_lowp+0xcc> .byte 196,193,125,228,193 // vpmulhuw %ymm9,%ymm0,%ymm0 - .byte 197,253,111,13,101,32,0,0 // vmovdqa 0x2065(%rip),%ymm1 # 2220 <_sk_xor__hsw_lowp+0xec> + .byte 197,253,111,13,104,32,0,0 // vmovdqa 0x2068(%rip),%ymm1 # 2220 <_sk_xor__hsw_lowp+0xec> .byte 196,226,61,0,209 // vpshufb %ymm1,%ymm8,%ymm2 .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2 .byte 196,226,101,0,201 // vpshufb %ymm1,%ymm3,%ymm1 @@ -43337,7 +43336,7 @@ _sk_load_8888_hsw_lowp: .byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1 .byte 197,245,113,241,8 // vpsllw $0x8,%ymm1,%ymm1 .byte 196,193,117,228,201 // vpmulhuw %ymm9,%ymm1,%ymm1 - .byte 197,253,111,21,87,32,0,0 // vmovdqa 0x2057(%rip),%ymm2 # 2240 <_sk_xor__hsw_lowp+0x10c> + .byte 197,253,111,21,90,32,0,0 // vmovdqa 0x205a(%rip),%ymm2 # 2240 <_sk_xor__hsw_lowp+0x10c> .byte 196,98,61,0,210 // vpshufb %ymm2,%ymm8,%ymm10 .byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10 .byte 196,226,101,0,210 // vpshufb %ymm2,%ymm3,%ymm2 @@ -43345,7 +43344,7 @@ _sk_load_8888_hsw_lowp: .byte 196,227,45,56,210,1 // vinserti128 $0x1,%xmm2,%ymm10,%ymm2 .byte 197,237,113,242,8 // vpsllw $0x8,%ymm2,%ymm2 .byte 196,193,109,228,209 // vpmulhuw %ymm9,%ymm2,%ymm2 - .byte 197,125,111,21,73,32,0,0 // vmovdqa 0x2049(%rip),%ymm10 # 2260 <_sk_xor__hsw_lowp+0x12c> + .byte 197,125,111,21,76,32,0,0 // vmovdqa 0x204c(%rip),%ymm10 # 2260 <_sk_xor__hsw_lowp+0x12c> .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8 .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8 .byte 196,194,101,0,218 // vpshufb %ymm10,%ymm3,%ymm3 @@ -43361,14 +43360,14 @@ _sk_load_8888_hsw_lowp: .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,14 // cmp $0xe,%r9b - .byte 15,135,30,255,255,255 // ja 17c <_sk_load_8888_hsw_lowp+0x1b> + .byte 15,135,30,255,255,255 // ja 179 <_sk_load_8888_hsw_lowp+0x1b> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,27,1,0,0 // lea 0x11b(%rip),%r10 # 384 <_sk_load_8888_hsw_lowp+0x223> + .byte 76,141,21,30,1,0,0 // lea 0x11e(%rip),%r10 # 384 <_sk_load_8888_hsw_lowp+0x226> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 196,65,121,110,4,147 // vmovd (%r11,%rdx,4),%xmm8 - .byte 233,255,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b> + .byte 233,255,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b> .byte 196,193,121,110,68,147,8 // vmovd 0x8(%r11,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 @@ -43376,7 +43375,7 @@ _sk_load_8888_hsw_lowp: .byte 196,194,121,53,4,147 // vpmovzxdq (%r11,%rdx,4),%xmm0 .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0 .byte 196,99,61,2,192,3 // vpblendd $0x3,%ymm0,%ymm8,%ymm8 - .byte 233,211,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b> + .byte 233,211,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b> .byte 196,193,121,110,68,147,24 // vmovd 0x18(%r11,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3 @@ -43389,7 +43388,7 @@ _sk_load_8888_hsw_lowp: .byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8 .byte 196,193,122,111,4,147 // vmovdqu (%r11,%rdx,4),%xmm0 .byte 196,67,125,2,192,240 // vpblendd $0xf0,%ymm8,%ymm0,%ymm8 - .byte 233,132,254,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b> + .byte 233,132,254,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b> .byte 196,193,121,110,68,147,40 // vmovd 0x28(%r11,%rdx,4),%xmm0 .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43398,7 +43397,7 @@ _sk_load_8888_hsw_lowp: .byte 196,227,101,2,216,15 // vpblendd $0xf,%ymm0,%ymm3,%ymm3 .byte 196,193,121,110,68,147,32 // vmovd 0x20(%r11,%rdx,4),%xmm0 .byte 196,227,101,2,216,1 // vpblendd $0x1,%ymm0,%ymm3,%ymm3 - .byte 233,72,254,255,255 // jmpq 176 <_sk_load_8888_hsw_lowp+0x15> + .byte 233,72,254,255,255 // jmpq 173 <_sk_load_8888_hsw_lowp+0x15> .byte 196,193,121,110,68,147,56 // vmovd 0x38(%r11,%rdx,4),%xmm0 .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0 .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1 @@ -43412,40 +43411,41 @@ _sk_load_8888_hsw_lowp: .byte 196,65,126,111,4,147 // vmovdqu (%r11,%rdx,4),%ymm8 .byte 196,193,122,111,68,147,32 // vmovdqu 0x20(%r11,%rdx,4),%xmm0 .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3 - .byte 233,248,253,255,255 // jmpq 17c <_sk_load_8888_hsw_lowp+0x1b> - .byte 238 // out %al,(%dx) - .byte 254 // (bad) + .byte 233,248,253,255,255 // jmpq 179 <_sk_load_8888_hsw_lowp+0x1b> + .byte 15,31,0 // nopl (%rax) + .byte 235,254 // jmp 384 <_sk_load_8888_hsw_lowp+0x226> .byte 255 // (bad) - .byte 255,15 // decl (%rdi) + .byte 255,12,255 // decl (%rdi,%rdi,8) .byte 255 // (bad) + .byte 255,246 // push %rsi + .byte 254 // (bad) .byte 255 // (bad) + .byte 255,96,255 // jmpq *-0x1(%rax) .byte 255 // (bad) - .byte 249 // stc - .byte 254 // (bad) + .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8) .byte 255 // (bad) - .byte 255,99,255 // jmpq *-0x1(%rbx) + .byte 56,255 // cmp %bh,%bh .byte 255 // (bad) - .byte 255,79,255 // decl -0x1(%rdi) + .byte 255,34 // jmpq *(%rdx) .byte 255 // (bad) .byte 255 // (bad) - .byte 59,255 // cmp %edi,%edi .byte 255 // (bad) - .byte 255,37,255,255,255,242 // jmpq *-0xd000001(%rip) # fffffffff30003a0 <_sk_xor__hsw_lowp+0xfffffffff2ffe26c> + .byte 239 // out %eax,(%dx) .byte 253 // std .byte 255 // (bad) - .byte 255,152,255,255,255,138 // lcall *-0x75000001(%rax) + .byte 255,149,255,255,255,135 // callq *-0x78000001(%rbp) .byte 255 // (bad) .byte 255 // (bad) - .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8) + .byte 255,113,255 // pushq -0x1(%rcx) .byte 255 // (bad) - .byte 232,255,255,255,212 // callq ffffffffd50003b4 <_sk_xor__hsw_lowp+0xffffffffd4ffe280> + .byte 255,229 // jmpq *%rbp .byte 255 // (bad) .byte 255 // (bad) - .byte 255,192 // inc %eax + .byte 255,209 // callq *%rcx .byte 255 // (bad) .byte 255 // (bad) - .byte 255 // .byte 0xff - .byte 170 // stos %al,%es:(%rdi) + .byte 255 // (bad) + .byte 189,255,255,255,167 // mov $0xa7ffffff,%ebp .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -45941,38 +45941,45 @@ _sk_start_pipeline_ssse3_lowp: .byte 83 // push %rbx .byte 80 // push %rax .byte 77,137,196 // mov %r8,%r12 - .byte 73,137,215 // mov %rdx,%r15 - .byte 72,137,243 // mov %rsi,%rbx - .byte 73,137,254 // mov %rdi,%r14 + .byte 73,137,208 // mov %rdx,%r8 + .byte 73,137,247 // mov %rsi,%r15 + .byte 72,137,251 // mov %rdi,%rbx .byte 72,137,206 // mov %rcx,%rsi .byte 72,173 // lods %ds:(%rsi),%rax - .byte 73,137,197 // mov %rax,%r13 - .byte 73,141,78,8 // lea 0x8(%r14),%rcx - .byte 76,57,249 // cmp %r15,%rcx + .byte 73,137,245 // mov %rsi,%r13 + .byte 72,141,75,8 // lea 0x8(%rbx),%rcx + .byte 76,57,193 // cmp %r8,%rcx .byte 118,5 // jbe 30 <_sk_start_pipeline_ssse3_lowp+0x30> - .byte 76,137,242 // mov %r14,%rdx - .byte 235,45 // jmp 5d <_sk_start_pipeline_ssse3_lowp+0x5d> - .byte 76,137,125,208 // mov %r15,-0x30(%rbp) + .byte 72,137,218 // mov %rbx,%rdx + .byte 235,48 // jmp 60 <_sk_start_pipeline_ssse3_lowp+0x60> + .byte 76,137,69,208 // mov %r8,-0x30(%rbp) .byte 69,49,192 // xor %r8d,%r8d .byte 76,137,231 // mov %r12,%rdi - .byte 73,137,247 // mov %rsi,%r15 - .byte 76,137,242 // mov %r14,%rdx - .byte 72,137,217 // mov %rbx,%rcx - .byte 65,255,213 // callq *%r13 - .byte 76,137,254 // mov %r15,%rsi - .byte 76,139,125,208 // mov -0x30(%rbp),%r15 - .byte 73,141,86,8 // lea 0x8(%r14),%rdx - .byte 73,131,198,16 // add $0x10,%r14 - .byte 77,57,254 // cmp %r15,%r14 - .byte 73,137,214 // mov %rdx,%r14 - .byte 118,215 // jbe 34 <_sk_start_pipeline_ssse3_lowp+0x34> - .byte 77,137,248 // mov %r15,%r8 + .byte 76,137,238 // mov %r13,%rsi + .byte 72,137,218 // mov %rbx,%rdx + .byte 76,137,249 // mov %r15,%rcx + .byte 73,137,198 // mov %rax,%r14 + .byte 65,255,214 // callq *%r14 + .byte 76,139,69,208 // mov -0x30(%rbp),%r8 + .byte 76,137,240 // mov %r14,%rax + .byte 72,141,83,8 // lea 0x8(%rbx),%rdx + .byte 72,131,195,16 // add $0x10,%rbx + .byte 76,57,195 // cmp %r8,%rbx + .byte 72,137,211 // mov %rdx,%rbx + .byte 118,212 // jbe 34 <_sk_start_pipeline_ssse3_lowp+0x34> .byte 73,41,208 // sub %rdx,%r8 - .byte 116,9 // je 6e <_sk_start_pipeline_ssse3_lowp+0x6e> + .byte 116,25 // je 7e <_sk_start_pipeline_ssse3_lowp+0x7e> .byte 76,137,231 // mov %r12,%rdi - .byte 72,137,217 // mov %rbx,%rcx - .byte 65,255,213 // callq *%r13 - .byte 76,137,248 // mov %r15,%rax + .byte 76,137,238 // mov %r13,%rsi + .byte 76,137,249 // mov %r15,%rcx + .byte 72,131,196,8 // add $0x8,%rsp + .byte 91 // pop %rbx + .byte 65,92 // pop %r12 + .byte 65,93 // pop %r13 + .byte 65,94 // pop %r14 + .byte 65,95 // pop %r15 + .byte 93 // pop %rbp + .byte 255,224 // jmpq *%rax .byte 72,131,196,8 // add $0x8,%rsp .byte 91 // pop %rbx .byte 65,92 // pop %r12 @@ -45994,7 +46001,7 @@ FUNCTION(_sk_uniform_color_ssse3_lowp) _sk_uniform_color_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 15,16,24 // movups (%rax),%xmm3 - .byte 15,88,29,227,25,0,0 // addps 0x19e3(%rip),%xmm3 # 1a70 <_sk_xor__ssse3_lowp+0xa7> + .byte 15,88,29,230,25,0,0 // addps 0x19e6(%rip),%xmm3 # 1a80 <_sk_xor__ssse3_lowp+0xa7> .byte 242,15,112,195,0 // pshuflw $0x0,%xmm3,%xmm0 .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0 .byte 242,15,112,203,170 // pshuflw $0xaa,%xmm3,%xmm1 @@ -46011,7 +46018,7 @@ HIDDEN _sk_black_color_ssse3_lowp FUNCTION(_sk_black_color_ssse3_lowp) _sk_black_color_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,190,25,0,0 // movaps 0x19be(%rip),%xmm3 # 1a80 <_sk_xor__ssse3_lowp+0xb7> + .byte 15,40,29,193,25,0,0 // movaps 0x19c1(%rip),%xmm3 # 1a90 <_sk_xor__ssse3_lowp+0xb7> .byte 15,87,192 // xorps %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 .byte 15,87,210 // xorps %xmm2,%xmm2 @@ -46022,7 +46029,7 @@ HIDDEN _sk_white_color_ssse3_lowp FUNCTION(_sk_white_color_ssse3_lowp) _sk_white_color_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,5,186,25,0,0 // movaps 0x19ba(%rip),%xmm0 # 1a90 <_sk_xor__ssse3_lowp+0xc7> + .byte 15,40,5,189,25,0,0 // movaps 0x19bd(%rip),%xmm0 # 1aa0 <_sk_xor__ssse3_lowp+0xc7> .byte 15,40,200 // movaps %xmm0,%xmm1 .byte 15,40,208 // movaps %xmm0,%xmm2 .byte 15,40,216 // movaps %xmm0,%xmm3 @@ -46033,7 +46040,7 @@ HIDDEN _sk_set_rgb_ssse3_lowp FUNCTION(_sk_set_rgb_ssse3_lowp) _sk_set_rgb_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax - .byte 243,15,16,21,213,28,0,0 // movss 0x1cd5(%rip),%xmm2 # 1dc0 <_sk_xor__ssse3_lowp+0x3f7> + .byte 243,15,16,21,216,28,0,0 // movss 0x1cd8(%rip),%xmm2 # 1dd0 <_sk_xor__ssse3_lowp+0x3f7> .byte 243,15,16,0 // movss (%rax),%xmm0 .byte 243,15,88,194 // addss %xmm2,%xmm0 .byte 102,65,15,126,193 // movd %xmm0,%r9d @@ -46074,19 +46081,19 @@ _sk_load_8888_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,191,0,0,0 // jne 22e <_sk_load_8888_ssse3_lowp+0xcd> + .byte 15,133,191,0,0,0 // jne 23b <_sk_load_8888_ssse3_lowp+0xcd> .byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8 .byte 102,65,15,16,28,147 // movupd (%r11,%rdx,4),%xmm3 - .byte 102,15,111,13,29,25,0,0 // movdqa 0x191d(%rip),%xmm1 # 1aa0 <_sk_xor__ssse3_lowp+0xd7> + .byte 102,15,111,13,32,25,0,0 // movdqa 0x1920(%rip),%xmm1 # 1ab0 <_sk_xor__ssse3_lowp+0xd7> .byte 102,15,40,195 // movapd %xmm3,%xmm0 .byte 102,15,56,0,193 // pshufb %xmm1,%xmm0 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 .byte 102,15,56,0,209 // pshufb %xmm1,%xmm2 .byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 - .byte 102,68,15,111,13,8,25,0,0 // movdqa 0x1908(%rip),%xmm9 # 1ab0 <_sk_xor__ssse3_lowp+0xe7> + .byte 102,68,15,111,13,11,25,0,0 // movdqa 0x190b(%rip),%xmm9 # 1ac0 <_sk_xor__ssse3_lowp+0xe7> .byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0 - .byte 102,68,15,111,21,10,25,0,0 // movdqa 0x190a(%rip),%xmm10 # 1ac0 <_sk_xor__ssse3_lowp+0xf7> + .byte 102,68,15,111,21,13,25,0,0 // movdqa 0x190d(%rip),%xmm10 # 1ad0 <_sk_xor__ssse3_lowp+0xf7> .byte 102,15,40,203 // movapd %xmm3,%xmm1 .byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1 .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2 @@ -46094,7 +46101,7 @@ _sk_load_8888_ssse3_lowp: .byte 102,15,108,202 // punpcklqdq %xmm2,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1 - .byte 102,68,15,111,21,238,24,0,0 // movdqa 0x18ee(%rip),%xmm10 # 1ad0 <_sk_xor__ssse3_lowp+0x107> + .byte 102,68,15,111,21,241,24,0,0 // movdqa 0x18f1(%rip),%xmm10 # 1ae0 <_sk_xor__ssse3_lowp+0x107> .byte 102,15,40,211 // movapd %xmm3,%xmm2 .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 @@ -46102,7 +46109,7 @@ _sk_load_8888_ssse3_lowp: .byte 102,65,15,108,211 // punpcklqdq %xmm11,%xmm2 .byte 102,15,113,242,8 // psllw $0x8,%xmm2 .byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2 - .byte 102,68,15,111,21,209,24,0,0 // movdqa 0x18d1(%rip),%xmm10 # 1ae0 <_sk_xor__ssse3_lowp+0x117> + .byte 102,68,15,111,21,212,24,0,0 // movdqa 0x18d4(%rip),%xmm10 # 1af0 <_sk_xor__ssse3_lowp+0x117> .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3 @@ -46116,18 +46123,18 @@ _sk_load_8888_ssse3_lowp: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,48,255,255,255 // ja 17b <_sk_load_8888_ssse3_lowp+0x1a> + .byte 15,135,48,255,255,255 // ja 188 <_sk_load_8888_ssse3_lowp+0x1a> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,94,0,0,0 // lea 0x5e(%rip),%r10 # 2b4 <_sk_load_8888_ssse3_lowp+0x153> + .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 2c4 <_sk_load_8888_ssse3_lowp+0x156> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 243,65,15,16,28,147 // movss (%r11,%rdx,4),%xmm3 - .byte 233,17,255,255,255 // jmpq 17b <_sk_load_8888_ssse3_lowp+0x1a> + .byte 233,17,255,255,255 // jmpq 188 <_sk_load_8888_ssse3_lowp+0x1a> .byte 102,65,15,110,68,147,8 // movd 0x8(%r11,%rdx,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,65,15,18,28,147 // movlpd (%r11,%rdx,4),%xmm3 - .byte 233,250,254,255,255 // jmpq 17b <_sk_load_8888_ssse3_lowp+0x1a> + .byte 233,250,254,255,255 // jmpq 188 <_sk_load_8888_ssse3_lowp+0x1a> .byte 102,65,15,110,68,147,24 // movd 0x18(%r11,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,16,68,147,20 // movss 0x14(%r11,%rdx,4),%xmm0 @@ -46136,24 +46143,22 @@ _sk_load_8888_ssse3_lowp: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 243,65,15,16,68,147,16 // movss 0x10(%r11,%rdx,4),%xmm0 .byte 243,68,15,16,192 // movss %xmm0,%xmm8 - .byte 233,193,254,255,255 // jmpq 175 <_sk_load_8888_ssse3_lowp+0x14> - .byte 171 // stos %eax,%es:(%rdi) - .byte 255 // (bad) + .byte 233,193,254,255,255 // jmpq 182 <_sk_load_8888_ssse3_lowp+0x14> + .byte 15,31,0 // nopl (%rax) + .byte 168,255 // test $0xff,%al .byte 255 // (bad) - .byte 255,194 // inc %edx .byte 255 // (bad) + .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi .byte 255 // (bad) - .byte 255,182,255,255,255,193 // pushq -0x3e000001(%rsi) - .byte 254 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 239 // out %eax,(%dx) + .byte 190,254,255,255,236 // mov $0xecfffffe,%esi .byte 255 // (bad) .byte 255 // (bad) + .byte 255,215 // callq *%rdi .byte 255 // (bad) - .byte 218,255 // (bad) .byte 255 // (bad) - .byte 255,205 // dec %ebp + .byte 255,202 // dec %edx .byte 255 // (bad) .byte 255 // (bad) .byte 255 // .byte 0xff @@ -46165,19 +46170,19 @@ _sk_load_8888_dst_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,191,0,0,0 // jne 39d <_sk_load_8888_dst_ssse3_lowp+0xcd> + .byte 15,133,191,0,0,0 // jne 3ad <_sk_load_8888_dst_ssse3_lowp+0xcd> .byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8 .byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7 - .byte 102,15,111,45,254,23,0,0 // movdqa 0x17fe(%rip),%xmm5 # 1af0 <_sk_xor__ssse3_lowp+0x127> + .byte 102,15,111,45,254,23,0,0 // movdqa 0x17fe(%rip),%xmm5 # 1b00 <_sk_xor__ssse3_lowp+0x127> .byte 102,15,40,231 // movapd %xmm7,%xmm4 .byte 102,15,56,0,229 // pshufb %xmm5,%xmm4 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 .byte 102,15,56,0,245 // pshufb %xmm5,%xmm6 .byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4 .byte 102,15,113,244,8 // psllw $0x8,%xmm4 - .byte 102,68,15,111,13,233,23,0,0 // movdqa 0x17e9(%rip),%xmm9 # 1b00 <_sk_xor__ssse3_lowp+0x137> + .byte 102,68,15,111,13,233,23,0,0 // movdqa 0x17e9(%rip),%xmm9 # 1b10 <_sk_xor__ssse3_lowp+0x137> .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4 - .byte 102,68,15,111,21,235,23,0,0 // movdqa 0x17eb(%rip),%xmm10 # 1b10 <_sk_xor__ssse3_lowp+0x147> + .byte 102,68,15,111,21,235,23,0,0 // movdqa 0x17eb(%rip),%xmm10 # 1b20 <_sk_xor__ssse3_lowp+0x147> .byte 102,15,40,239 // movapd %xmm7,%xmm5 .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 @@ -46185,7 +46190,7 @@ _sk_load_8888_dst_ssse3_lowp: .byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5 - .byte 102,68,15,111,21,207,23,0,0 // movdqa 0x17cf(%rip),%xmm10 # 1b20 <_sk_xor__ssse3_lowp+0x157> + .byte 102,68,15,111,21,207,23,0,0 // movdqa 0x17cf(%rip),%xmm10 # 1b30 <_sk_xor__ssse3_lowp+0x157> .byte 102,15,40,247 // movapd %xmm7,%xmm6 .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 @@ -46193,7 +46198,7 @@ _sk_load_8888_dst_ssse3_lowp: .byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6 .byte 102,15,113,246,8 // psllw $0x8,%xmm6 .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6 - .byte 102,68,15,111,21,178,23,0,0 // movdqa 0x17b2(%rip),%xmm10 # 1b30 <_sk_xor__ssse3_lowp+0x167> + .byte 102,68,15,111,21,178,23,0,0 // movdqa 0x17b2(%rip),%xmm10 # 1b40 <_sk_xor__ssse3_lowp+0x167> .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7 @@ -46207,18 +46212,18 @@ _sk_load_8888_dst_ssse3_lowp: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,48,255,255,255 // ja 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a> + .byte 15,135,48,255,255,255 // ja 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 424 <_sk_load_8888_dst_ssse3_lowp+0x154> + .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 434 <_sk_load_8888_dst_ssse3_lowp+0x154> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7 - .byte 233,17,255,255,255 // jmpq 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a> + .byte 233,17,255,255,255 // jmpq 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a> .byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7 - .byte 233,250,254,255,255 // jmpq 2ea <_sk_load_8888_dst_ssse3_lowp+0x1a> + .byte 233,250,254,255,255 // jmpq 2fa <_sk_load_8888_dst_ssse3_lowp+0x1a> .byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4 @@ -46227,7 +46232,7 @@ _sk_load_8888_dst_ssse3_lowp: .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4 .byte 243,68,15,16,196 // movss %xmm4,%xmm8 - .byte 233,193,254,255,255 // jmpq 2e4 <_sk_load_8888_dst_ssse3_lowp+0x14> + .byte 233,193,254,255,255 // jmpq 2f4 <_sk_load_8888_dst_ssse3_lowp+0x14> .byte 144 // nop .byte 170 // stos %al,%es:(%rdi) .byte 255 // (bad) @@ -46258,7 +46263,7 @@ _sk_store_8888_ssse3_lowp: .byte 76,139,24 // mov (%rax),%r11 .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8 .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8 - .byte 102,68,15,111,21,231,22,0,0 // movdqa 0x16e7(%rip),%xmm10 # 1b40 <_sk_xor__ssse3_lowp+0x177> + .byte 102,68,15,111,21,231,22,0,0 // movdqa 0x16e7(%rip),%xmm10 # 1b50 <_sk_xor__ssse3_lowp+0x177> .byte 102,69,15,234,194 // pminsw %xmm10,%xmm8 .byte 102,69,15,239,219 // pxor %xmm11,%xmm11 .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13 @@ -46295,7 +46300,7 @@ _sk_store_8888_ssse3_lowp: .byte 102,69,15,235,198 // por %xmm14,%xmm8 .byte 102,69,15,235,193 // por %xmm9,%xmm8 .byte 77,133,192 // test %r8,%r8 - .byte 117,17 // jne 527 <_sk_store_8888_ssse3_lowp+0xe7> + .byte 117,17 // jne 537 <_sk_store_8888_ssse3_lowp+0xe7> .byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4) .byte 243,69,15,127,84,147,16 // movdqu %xmm10,0x10(%r11,%rdx,4) .byte 72,173 // lods %ds:(%rsi),%rax @@ -46304,25 +46309,25 @@ _sk_store_8888_ssse3_lowp: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja 523 <_sk_store_8888_ssse3_lowp+0xe3> + .byte 119,236 // ja 533 <_sk_store_8888_ssse3_lowp+0xe3> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # 594 <_sk_store_8888_ssse3_lowp+0x154> + .byte 76,141,21,82,0,0,0 // lea 0x52(%rip),%r10 # 5a4 <_sk_store_8888_ssse3_lowp+0x154> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,4,147 // movd %xmm8,(%r11,%rdx,4) - .byte 235,208 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3> + .byte 235,208 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3> .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9 .byte 102,69,15,126,76,147,8 // movd %xmm9,0x8(%r11,%rdx,4) .byte 102,69,15,214,4,147 // movq %xmm8,(%r11,%rdx,4) - .byte 235,187 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3> + .byte 235,187 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3> .byte 102,69,15,112,202,78 // pshufd $0x4e,%xmm10,%xmm9 .byte 102,69,15,126,76,147,24 // movd %xmm9,0x18(%r11,%rdx,4) .byte 102,69,15,112,202,229 // pshufd $0xe5,%xmm10,%xmm9 .byte 102,69,15,126,76,147,20 // movd %xmm9,0x14(%r11,%rdx,4) .byte 102,69,15,126,84,147,16 // movd %xmm10,0x10(%r11,%rdx,4) .byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4) - .byte 235,146 // jmp 523 <_sk_store_8888_ssse3_lowp+0xe3> + .byte 235,146 // jmp 533 <_sk_store_8888_ssse3_lowp+0xe3> .byte 15,31,0 // nopl (%rax) .byte 183,255 // mov $0xff,%bh .byte 255 // (bad) @@ -46352,19 +46357,19 @@ _sk_load_bgra_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,191,0,0,0 // jne 67d <_sk_load_bgra_ssse3_lowp+0xcd> + .byte 15,133,191,0,0,0 // jne 68d <_sk_load_bgra_ssse3_lowp+0xcd> .byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8 .byte 102,65,15,16,28,147 // movupd (%r11,%rdx,4),%xmm3 - .byte 102,15,111,5,126,21,0,0 // movdqa 0x157e(%rip),%xmm0 # 1b50 <_sk_xor__ssse3_lowp+0x187> + .byte 102,15,111,5,126,21,0,0 // movdqa 0x157e(%rip),%xmm0 # 1b60 <_sk_xor__ssse3_lowp+0x187> .byte 102,15,40,211 // movapd %xmm3,%xmm2 .byte 102,15,56,0,208 // pshufb %xmm0,%xmm2 .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1 .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1 .byte 102,15,108,209 // punpcklqdq %xmm1,%xmm2 .byte 102,15,113,242,8 // psllw $0x8,%xmm2 - .byte 102,68,15,111,13,105,21,0,0 // movdqa 0x1569(%rip),%xmm9 # 1b60 <_sk_xor__ssse3_lowp+0x197> + .byte 102,68,15,111,13,105,21,0,0 // movdqa 0x1569(%rip),%xmm9 # 1b70 <_sk_xor__ssse3_lowp+0x197> .byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2 - .byte 102,68,15,111,21,107,21,0,0 // movdqa 0x156b(%rip),%xmm10 # 1b70 <_sk_xor__ssse3_lowp+0x1a7> + .byte 102,68,15,111,21,107,21,0,0 // movdqa 0x156b(%rip),%xmm10 # 1b80 <_sk_xor__ssse3_lowp+0x1a7> .byte 102,15,40,203 // movapd %xmm3,%xmm1 .byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1 .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0 @@ -46372,7 +46377,7 @@ _sk_load_bgra_ssse3_lowp: .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1 .byte 102,15,113,241,8 // psllw $0x8,%xmm1 .byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1 - .byte 102,68,15,111,21,79,21,0,0 // movdqa 0x154f(%rip),%xmm10 # 1b80 <_sk_xor__ssse3_lowp+0x1b7> + .byte 102,68,15,111,21,79,21,0,0 // movdqa 0x154f(%rip),%xmm10 # 1b90 <_sk_xor__ssse3_lowp+0x1b7> .byte 102,15,40,195 // movapd %xmm3,%xmm0 .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 @@ -46380,7 +46385,7 @@ _sk_load_bgra_ssse3_lowp: .byte 102,65,15,108,195 // punpcklqdq %xmm11,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 .byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0 - .byte 102,68,15,111,21,50,21,0,0 // movdqa 0x1532(%rip),%xmm10 # 1b90 <_sk_xor__ssse3_lowp+0x1c7> + .byte 102,68,15,111,21,50,21,0,0 // movdqa 0x1532(%rip),%xmm10 # 1ba0 <_sk_xor__ssse3_lowp+0x1c7> .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3 @@ -46394,18 +46399,18 @@ _sk_load_bgra_ssse3_lowp: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,48,255,255,255 // ja 5ca <_sk_load_bgra_ssse3_lowp+0x1a> + .byte 15,135,48,255,255,255 // ja 5da <_sk_load_bgra_ssse3_lowp+0x1a> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 704 <_sk_load_bgra_ssse3_lowp+0x154> + .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 714 <_sk_load_bgra_ssse3_lowp+0x154> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 243,65,15,16,28,147 // movss (%r11,%rdx,4),%xmm3 - .byte 233,17,255,255,255 // jmpq 5ca <_sk_load_bgra_ssse3_lowp+0x1a> + .byte 233,17,255,255,255 // jmpq 5da <_sk_load_bgra_ssse3_lowp+0x1a> .byte 102,65,15,110,68,147,8 // movd 0x8(%r11,%rdx,4),%xmm0 .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3 .byte 102,65,15,18,28,147 // movlpd (%r11,%rdx,4),%xmm3 - .byte 233,250,254,255,255 // jmpq 5ca <_sk_load_bgra_ssse3_lowp+0x1a> + .byte 233,250,254,255,255 // jmpq 5da <_sk_load_bgra_ssse3_lowp+0x1a> .byte 102,65,15,110,68,147,24 // movd 0x18(%r11,%rdx,4),%xmm0 .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8 .byte 243,65,15,16,68,147,20 // movss 0x14(%r11,%rdx,4),%xmm0 @@ -46414,7 +46419,7 @@ _sk_load_bgra_ssse3_lowp: .byte 68,15,40,192 // movaps %xmm0,%xmm8 .byte 243,65,15,16,68,147,16 // movss 0x10(%r11,%rdx,4),%xmm0 .byte 243,68,15,16,192 // movss %xmm0,%xmm8 - .byte 233,193,254,255,255 // jmpq 5c4 <_sk_load_bgra_ssse3_lowp+0x14> + .byte 233,193,254,255,255 // jmpq 5d4 <_sk_load_bgra_ssse3_lowp+0x14> .byte 144 // nop .byte 170 // stos %al,%es:(%rdi) .byte 255 // (bad) @@ -46444,19 +46449,19 @@ _sk_load_bgra_dst_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,191,0,0,0 // jne 7ed <_sk_load_bgra_dst_ssse3_lowp+0xcd> + .byte 15,133,191,0,0,0 // jne 7fd <_sk_load_bgra_dst_ssse3_lowp+0xcd> .byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8 .byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7 - .byte 102,15,111,37,94,20,0,0 // movdqa 0x145e(%rip),%xmm4 # 1ba0 <_sk_xor__ssse3_lowp+0x1d7> + .byte 102,15,111,37,94,20,0,0 // movdqa 0x145e(%rip),%xmm4 # 1bb0 <_sk_xor__ssse3_lowp+0x1d7> .byte 102,15,40,247 // movapd %xmm7,%xmm6 .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6 .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5 .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5 .byte 102,15,108,245 // punpcklqdq %xmm5,%xmm6 .byte 102,15,113,246,8 // psllw $0x8,%xmm6 - .byte 102,68,15,111,13,73,20,0,0 // movdqa 0x1449(%rip),%xmm9 # 1bb0 <_sk_xor__ssse3_lowp+0x1e7> + .byte 102,68,15,111,13,73,20,0,0 // movdqa 0x1449(%rip),%xmm9 # 1bc0 <_sk_xor__ssse3_lowp+0x1e7> .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6 - .byte 102,68,15,111,21,75,20,0,0 // movdqa 0x144b(%rip),%xmm10 # 1bc0 <_sk_xor__ssse3_lowp+0x1f7> + .byte 102,68,15,111,21,75,20,0,0 // movdqa 0x144b(%rip),%xmm10 # 1bd0 <_sk_xor__ssse3_lowp+0x1f7> .byte 102,15,40,239 // movapd %xmm7,%xmm5 .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5 .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4 @@ -46464,7 +46469,7 @@ _sk_load_bgra_dst_ssse3_lowp: .byte 102,15,108,236 // punpcklqdq %xmm4,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5 - .byte 102,68,15,111,21,47,20,0,0 // movdqa 0x142f(%rip),%xmm10 # 1bd0 <_sk_xor__ssse3_lowp+0x207> + .byte 102,68,15,111,21,47,20,0,0 // movdqa 0x142f(%rip),%xmm10 # 1be0 <_sk_xor__ssse3_lowp+0x207> .byte 102,15,40,231 // movapd %xmm7,%xmm4 .byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 @@ -46472,7 +46477,7 @@ _sk_load_bgra_dst_ssse3_lowp: .byte 102,65,15,108,227 // punpcklqdq %xmm11,%xmm4 .byte 102,15,113,244,8 // psllw $0x8,%xmm4 .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4 - .byte 102,68,15,111,21,18,20,0,0 // movdqa 0x1412(%rip),%xmm10 # 1be0 <_sk_xor__ssse3_lowp+0x217> + .byte 102,68,15,111,21,18,20,0,0 // movdqa 0x1412(%rip),%xmm10 # 1bf0 <_sk_xor__ssse3_lowp+0x217> .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7 @@ -46486,18 +46491,18 @@ _sk_load_bgra_dst_ssse3_lowp: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,48,255,255,255 // ja 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a> + .byte 15,135,48,255,255,255 // ja 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 874 <_sk_load_bgra_dst_ssse3_lowp+0x154> + .byte 76,141,21,95,0,0,0 // lea 0x5f(%rip),%r10 # 884 <_sk_load_bgra_dst_ssse3_lowp+0x154> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7 - .byte 233,17,255,255,255 // jmpq 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a> + .byte 233,17,255,255,255 // jmpq 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a> .byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7 - .byte 233,250,254,255,255 // jmpq 73a <_sk_load_bgra_dst_ssse3_lowp+0x1a> + .byte 233,250,254,255,255 // jmpq 74a <_sk_load_bgra_dst_ssse3_lowp+0x1a> .byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4 @@ -46506,7 +46511,7 @@ _sk_load_bgra_dst_ssse3_lowp: .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4 .byte 243,68,15,16,196 // movss %xmm4,%xmm8 - .byte 233,193,254,255,255 // jmpq 734 <_sk_load_bgra_dst_ssse3_lowp+0x14> + .byte 233,193,254,255,255 // jmpq 744 <_sk_load_bgra_dst_ssse3_lowp+0x14> .byte 144 // nop .byte 170 // stos %al,%es:(%rdi) .byte 255 // (bad) @@ -46536,7 +46541,7 @@ _sk_store_bgra_ssse3_lowp: .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp) .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10 .byte 102,65,15,113,210,7 // psrlw $0x7,%xmm10 - .byte 102,68,15,111,13,71,19,0,0 // movdqa 0x1347(%rip),%xmm9 # 1bf0 <_sk_xor__ssse3_lowp+0x227> + .byte 102,68,15,111,13,71,19,0,0 // movdqa 0x1347(%rip),%xmm9 # 1c00 <_sk_xor__ssse3_lowp+0x227> .byte 102,69,15,234,209 // pminsw %xmm9,%xmm10 .byte 102,69,15,239,246 // pxor %xmm14,%xmm14 .byte 102,65,15,111,250 // movdqa %xmm10,%xmm7 @@ -46575,7 +46580,7 @@ _sk_store_bgra_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,22 // jne 981 <_sk_store_bgra_ssse3_lowp+0xf1> + .byte 117,22 // jne 991 <_sk_store_bgra_ssse3_lowp+0xf1> .byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4) .byte 243,69,15,127,92,147,16 // movdqu %xmm11,0x10(%r11,%rdx,4) .byte 72,173 // lods %ds:(%rsi),%rax @@ -46585,25 +46590,25 @@ _sk_store_bgra_ssse3_lowp: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,231 // ja 978 <_sk_store_bgra_ssse3_lowp+0xe8> + .byte 119,231 // ja 988 <_sk_store_bgra_ssse3_lowp+0xe8> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 9ec <_sk_store_bgra_ssse3_lowp+0x15c> + .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 9fc <_sk_store_bgra_ssse3_lowp+0x15c> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,69,15,126,4,147 // movd %xmm8,(%r11,%rdx,4) - .byte 235,203 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8> + .byte 235,203 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8> .byte 102,65,15,112,248,78 // pshufd $0x4e,%xmm8,%xmm7 .byte 102,65,15,126,124,147,8 // movd %xmm7,0x8(%r11,%rdx,4) .byte 102,69,15,214,4,147 // movq %xmm8,(%r11,%rdx,4) - .byte 235,182 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8> + .byte 235,182 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8> .byte 102,65,15,112,251,78 // pshufd $0x4e,%xmm11,%xmm7 .byte 102,65,15,126,124,147,24 // movd %xmm7,0x18(%r11,%rdx,4) .byte 102,65,15,112,251,229 // pshufd $0xe5,%xmm11,%xmm7 .byte 102,65,15,126,124,147,20 // movd %xmm7,0x14(%r11,%rdx,4) .byte 102,69,15,126,92,147,16 // movd %xmm11,0x10(%r11,%rdx,4) .byte 243,69,15,127,4,147 // movdqu %xmm8,(%r11,%rdx,4) - .byte 235,141 // jmp 978 <_sk_store_bgra_ssse3_lowp+0xe8> + .byte 235,141 // jmp 988 <_sk_store_bgra_ssse3_lowp+0xe8> .byte 144 // nop .byte 185,255,255,255,206 // mov $0xceffffff,%ecx .byte 255 // (bad) @@ -46632,11 +46637,11 @@ _sk_load_a8_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,37 // jne a37 <_sk_load_a8_ssse3_lowp+0x2f> + .byte 117,37 // jne a47 <_sk_load_a8_ssse3_lowp+0x2f> .byte 243,65,15,126,28,19 // movq (%r11,%rdx,1),%xmm3 .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3 .byte 102,15,113,243,8 // psllw $0x8,%xmm3 - .byte 102,15,228,29,215,17,0,0 // pmulhuw 0x11d7(%rip),%xmm3 # 1c00 <_sk_xor__ssse3_lowp+0x237> + .byte 102,15,228,29,215,17,0,0 // pmulhuw 0x11d7(%rip),%xmm3 # 1c10 <_sk_xor__ssse3_lowp+0x237> .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,87,192 // xorpd %xmm0,%xmm0 .byte 15,87,201 // xorps %xmm1,%xmm1 @@ -46647,15 +46652,15 @@ _sk_load_a8_ssse3_lowp: .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,209 // ja a1c <_sk_load_a8_ssse3_lowp+0x14> + .byte 119,209 // ja a2c <_sk_load_a8_ssse3_lowp+0x14> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # ac4 <_sk_load_a8_ssse3_lowp+0xbc> + .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # ad4 <_sk_load_a8_ssse3_lowp+0xbc> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,15,110,216 // movd %eax,%xmm3 - .byte 235,178 // jmp a1c <_sk_load_a8_ssse3_lowp+0x14> + .byte 235,178 // jmp a2c <_sk_load_a8_ssse3_lowp+0x14> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3 @@ -46663,7 +46668,7 @@ _sk_load_a8_ssse3_lowp: .byte 102,15,110,192 // movd %eax,%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 243,15,16,216 // movss %xmm0,%xmm3 - .byte 235,144 // jmp a1c <_sk_load_a8_ssse3_lowp+0x14> + .byte 235,144 // jmp a2c <_sk_load_a8_ssse3_lowp+0x14> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,15,239,219 // pxor %xmm3,%xmm3 .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3 @@ -46674,7 +46679,7 @@ _sk_load_a8_ssse3_lowp: .byte 102,65,15,110,4,19 // movd (%r11,%rdx,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 242,15,16,216 // movsd %xmm0,%xmm3 - .byte 233,88,255,255,255 // jmpq a1c <_sk_load_a8_ssse3_lowp+0x14> + .byte 233,88,255,255,255 // jmpq a2c <_sk_load_a8_ssse3_lowp+0x14> .byte 155 // fwait .byte 255 // (bad) .byte 255 // (bad) @@ -46703,11 +46708,11 @@ _sk_load_a8_dst_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,37 // jne b0f <_sk_load_a8_dst_ssse3_lowp+0x2f> + .byte 117,37 // jne b1f <_sk_load_a8_dst_ssse3_lowp+0x2f> .byte 243,65,15,126,60,19 // movq (%r11,%rdx,1),%xmm7 .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7 .byte 102,15,113,247,8 // psllw $0x8,%xmm7 - .byte 102,15,228,61,15,17,0,0 // pmulhuw 0x110f(%rip),%xmm7 # 1c10 <_sk_xor__ssse3_lowp+0x247> + .byte 102,15,228,61,15,17,0,0 // pmulhuw 0x110f(%rip),%xmm7 # 1c20 <_sk_xor__ssse3_lowp+0x247> .byte 72,173 // lods %ds:(%rsi),%rax .byte 102,15,87,228 // xorpd %xmm4,%xmm4 .byte 15,87,237 // xorps %xmm5,%xmm5 @@ -46718,15 +46723,15 @@ _sk_load_a8_dst_ssse3_lowp: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,209 // ja af4 <_sk_load_a8_dst_ssse3_lowp+0x14> + .byte 119,209 // ja b04 <_sk_load_a8_dst_ssse3_lowp+0x14> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # b9c <_sk_load_a8_dst_ssse3_lowp+0xbc> + .byte 76,141,21,110,0,0,0 // lea 0x6e(%rip),%r10 # bac <_sk_load_a8_dst_ssse3_lowp+0xbc> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,15,110,248 // movd %eax,%xmm7 - .byte 235,178 // jmp af4 <_sk_load_a8_dst_ssse3_lowp+0x14> + .byte 235,178 // jmp b04 <_sk_load_a8_dst_ssse3_lowp+0x14> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7 @@ -46734,7 +46739,7 @@ _sk_load_a8_dst_ssse3_lowp: .byte 102,15,110,224 // movd %eax,%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 243,15,16,252 // movss %xmm4,%xmm7 - .byte 235,144 // jmp af4 <_sk_load_a8_dst_ssse3_lowp+0x14> + .byte 235,144 // jmp b04 <_sk_load_a8_dst_ssse3_lowp+0x14> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7 @@ -46745,7 +46750,7 @@ _sk_load_a8_dst_ssse3_lowp: .byte 102,65,15,110,36,19 // movd (%r11,%rdx,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 242,15,16,252 // movsd %xmm4,%xmm7 - .byte 233,88,255,255,255 // jmpq af4 <_sk_load_a8_dst_ssse3_lowp+0x14> + .byte 233,88,255,255,255 // jmpq b04 <_sk_load_a8_dst_ssse3_lowp+0x14> .byte 155 // fwait .byte 255 // (bad) .byte 255 // (bad) @@ -46777,7 +46782,7 @@ _sk_store_a8_ssse3_lowp: .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8 .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8 .byte 77,133,192 // test %r8,%r8 - .byte 117,10 // jne bdc <_sk_store_a8_ssse3_lowp+0x24> + .byte 117,10 // jne bec <_sk_store_a8_ssse3_lowp+0x24> .byte 242,69,15,17,4,19 // movsd %xmm8,(%r11,%rdx,1) .byte 72,173 // lods %ds:(%rsi),%rax .byte 255,224 // jmpq *%rax @@ -46785,24 +46790,24 @@ _sk_store_a8_ssse3_lowp: .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,236 // ja bd8 <_sk_store_a8_ssse3_lowp+0x20> + .byte 119,236 // ja be8 <_sk_store_a8_ssse3_lowp+0x20> .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,136,0,0,0 // lea 0x88(%rip),%r10 # c84 <_sk_store_a8_ssse3_lowp+0xcc> + .byte 76,141,21,136,0,0,0 // lea 0x88(%rip),%r10 # c94 <_sk_store_a8_ssse3_lowp+0xcc> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 102,68,15,127,68,36,168 // movdqa %xmm8,-0x58(%rsp) .byte 138,68,36,168 // mov -0x58(%rsp),%al .byte 65,136,4,19 // mov %al,(%r11,%rdx,1) - .byte 235,194 // jmp bd8 <_sk_store_a8_ssse3_lowp+0x20> + .byte 235,194 // jmp be8 <_sk_store_a8_ssse3_lowp+0x20> .byte 102,68,15,127,68,36,184 // movdqa %xmm8,-0x48(%rsp) .byte 138,68,36,188 // mov -0x44(%rsp),%al .byte 65,136,68,19,2 // mov %al,0x2(%r11,%rdx,1) - .byte 102,68,15,56,0,5,0,16,0,0 // pshufb 0x1000(%rip),%xmm8 # 1c30 <_sk_xor__ssse3_lowp+0x267> + .byte 102,68,15,56,0,5,0,16,0,0 // pshufb 0x1000(%rip),%xmm8 # 1c40 <_sk_xor__ssse3_lowp+0x267> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,65,137,4,19 // mov %ax,(%r11,%rdx,1) - .byte 235,156 // jmp bd8 <_sk_store_a8_ssse3_lowp+0x20> + .byte 235,156 // jmp be8 <_sk_store_a8_ssse3_lowp+0x20> .byte 102,68,15,127,68,36,232 // movdqa %xmm8,-0x18(%rsp) .byte 138,68,36,244 // mov -0xc(%rsp),%al .byte 65,136,68,19,6 // mov %al,0x6(%r11,%rdx,1) @@ -46812,9 +46817,9 @@ _sk_store_a8_ssse3_lowp: .byte 102,68,15,127,68,36,200 // movdqa %xmm8,-0x38(%rsp) .byte 138,68,36,208 // mov -0x30(%rsp),%al .byte 65,136,68,19,4 // mov %al,0x4(%r11,%rdx,1) - .byte 102,68,15,56,0,5,170,15,0,0 // pshufb 0xfaa(%rip),%xmm8 # 1c20 <_sk_xor__ssse3_lowp+0x257> + .byte 102,68,15,56,0,5,170,15,0,0 // pshufb 0xfaa(%rip),%xmm8 # 1c30 <_sk_xor__ssse3_lowp+0x257> .byte 102,69,15,126,4,19 // movd %xmm8,(%r11,%rdx,1) - .byte 233,87,255,255,255 // jmpq bd8 <_sk_store_a8_ssse3_lowp+0x20> + .byte 233,87,255,255,255 // jmpq be8 <_sk_store_a8_ssse3_lowp+0x20> .byte 15,31,0 // nopl (%rax) .byte 129,255,255,255,162,255 // cmp $0xffa2ffff,%edi .byte 255 // (bad) @@ -46840,13 +46845,13 @@ _sk_load_g8_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,42 // jne cd4 <_sk_load_g8_ssse3_lowp+0x34> + .byte 117,42 // jne ce4 <_sk_load_g8_ssse3_lowp+0x34> .byte 243,65,15,126,4,19 // movq (%r11,%rdx,1),%xmm0 .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0 .byte 102,15,113,240,8 // psllw $0x8,%xmm0 - .byte 102,15,228,5,127,15,0,0 // pmulhuw 0xf7f(%rip),%xmm0 # 1c40 <_sk_xor__ssse3_lowp+0x277> + .byte 102,15,228,5,127,15,0,0 // pmulhuw 0xf7f(%rip),%xmm0 # 1c50 <_sk_xor__ssse3_lowp+0x277> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,29,134,15,0,0 // movaps 0xf86(%rip),%xmm3 # 1c50 <_sk_xor__ssse3_lowp+0x287> + .byte 15,40,29,134,15,0,0 // movaps 0xf86(%rip),%xmm3 # 1c60 <_sk_xor__ssse3_lowp+0x287> .byte 102,15,111,200 // movdqa %xmm0,%xmm1 .byte 102,15,111,208 // movdqa %xmm0,%xmm2 .byte 255,224 // jmpq *%rax @@ -46855,15 +46860,15 @@ _sk_load_g8_ssse3_lowp: .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,204 // ja cb4 <_sk_load_g8_ssse3_lowp+0x14> + .byte 119,204 // ja cc4 <_sk_load_g8_ssse3_lowp+0x14> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # d64 <_sk_load_g8_ssse3_lowp+0xc4> + .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # d74 <_sk_load_g8_ssse3_lowp+0xc4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,15,110,192 // movd %eax,%xmm0 - .byte 235,173 // jmp cb4 <_sk_load_g8_ssse3_lowp+0x14> + .byte 235,173 // jmp cc4 <_sk_load_g8_ssse3_lowp+0x14> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0 @@ -46871,7 +46876,7 @@ _sk_load_g8_ssse3_lowp: .byte 102,15,110,200 // movd %eax,%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 243,15,16,193 // movss %xmm1,%xmm0 - .byte 235,139 // jmp cb4 <_sk_load_g8_ssse3_lowp+0x14> + .byte 235,139 // jmp cc4 <_sk_load_g8_ssse3_lowp+0x14> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,15,239,192 // pxor %xmm0,%xmm0 .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0 @@ -46882,7 +46887,7 @@ _sk_load_g8_ssse3_lowp: .byte 102,65,15,110,12,19 // movd (%r11,%rdx,1),%xmm1 .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1 .byte 242,15,16,193 // movsd %xmm1,%xmm0 - .byte 233,83,255,255,255 // jmpq cb4 <_sk_load_g8_ssse3_lowp+0x14> + .byte 233,83,255,255,255 // jmpq cc4 <_sk_load_g8_ssse3_lowp+0x14> .byte 15,31,0 // nopl (%rax) .byte 152 // cwtl .byte 255 // (bad) @@ -46912,13 +46917,13 @@ _sk_load_g8_dst_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,42 // jne db4 <_sk_load_g8_dst_ssse3_lowp+0x34> + .byte 117,42 // jne dc4 <_sk_load_g8_dst_ssse3_lowp+0x34> .byte 243,65,15,126,36,19 // movq (%r11,%rdx,1),%xmm4 .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4 .byte 102,15,113,244,8 // psllw $0x8,%xmm4 - .byte 102,15,228,37,191,14,0,0 // pmulhuw 0xebf(%rip),%xmm4 # 1c60 <_sk_xor__ssse3_lowp+0x297> + .byte 102,15,228,37,191,14,0,0 // pmulhuw 0xebf(%rip),%xmm4 # 1c70 <_sk_xor__ssse3_lowp+0x297> .byte 72,173 // lods %ds:(%rsi),%rax - .byte 15,40,61,198,14,0,0 // movaps 0xec6(%rip),%xmm7 # 1c70 <_sk_xor__ssse3_lowp+0x2a7> + .byte 15,40,61,198,14,0,0 // movaps 0xec6(%rip),%xmm7 # 1c80 <_sk_xor__ssse3_lowp+0x2a7> .byte 102,15,111,236 // movdqa %xmm4,%xmm5 .byte 102,15,111,244 // movdqa %xmm4,%xmm6 .byte 255,224 // jmpq *%rax @@ -46927,15 +46932,15 @@ _sk_load_g8_dst_ssse3_lowp: .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,204 // ja d94 <_sk_load_g8_dst_ssse3_lowp+0x14> + .byte 119,204 // ja da4 <_sk_load_g8_dst_ssse3_lowp+0x14> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # e44 <_sk_load_g8_dst_ssse3_lowp+0xc4> + .byte 76,141,21,113,0,0,0 // lea 0x71(%rip),%r10 # e54 <_sk_load_g8_dst_ssse3_lowp+0xc4> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,15,110,224 // movd %eax,%xmm4 - .byte 235,173 // jmp d94 <_sk_load_g8_dst_ssse3_lowp+0x14> + .byte 235,173 // jmp da4 <_sk_load_g8_dst_ssse3_lowp+0x14> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4 @@ -46943,7 +46948,7 @@ _sk_load_g8_dst_ssse3_lowp: .byte 102,15,110,232 // movd %eax,%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 243,15,16,229 // movss %xmm5,%xmm4 - .byte 235,139 // jmp d94 <_sk_load_g8_dst_ssse3_lowp+0x14> + .byte 235,139 // jmp da4 <_sk_load_g8_dst_ssse3_lowp+0x14> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,15,239,228 // pxor %xmm4,%xmm4 .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4 @@ -46954,7 +46959,7 @@ _sk_load_g8_dst_ssse3_lowp: .byte 102,65,15,110,44,19 // movd (%r11,%rdx,1),%xmm5 .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5 .byte 242,15,16,229 // movsd %xmm5,%xmm4 - .byte 233,83,255,255,255 // jmpq d94 <_sk_load_g8_dst_ssse3_lowp+0x14> + .byte 233,83,255,255,255 // jmpq da4 <_sk_load_g8_dst_ssse3_lowp+0x14> .byte 15,31,0 // nopl (%rax) .byte 152 // cwtl .byte 255 // (bad) @@ -46985,20 +46990,20 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,11,2,0,0 // jne 107e <_sk_srcover_rgba_8888_ssse3_lowp+0x21e> + .byte 15,133,11,2,0,0 // jne 108e <_sk_srcover_rgba_8888_ssse3_lowp+0x21e> .byte 69,15,16,68,147,16 // movups 0x10(%r11,%rdx,4),%xmm8 .byte 102,65,15,16,60,147 // movupd (%r11,%rdx,4),%xmm7 - .byte 102,15,111,45,249,13,0,0 // movdqa 0xdf9(%rip),%xmm5 # 1c80 <_sk_xor__ssse3_lowp+0x2b7> + .byte 102,15,111,45,249,13,0,0 // movdqa 0xdf9(%rip),%xmm5 # 1c90 <_sk_xor__ssse3_lowp+0x2b7> .byte 102,15,40,231 // movapd %xmm7,%xmm4 .byte 102,15,56,0,229 // pshufb %xmm5,%xmm4 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 .byte 102,15,56,0,245 // pshufb %xmm5,%xmm6 .byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4 - .byte 102,15,111,13,234,13,0,0 // movdqa 0xdea(%rip),%xmm1 # 1c90 <_sk_xor__ssse3_lowp+0x2c7> + .byte 102,15,111,13,234,13,0,0 // movdqa 0xdea(%rip),%xmm1 # 1ca0 <_sk_xor__ssse3_lowp+0x2c7> .byte 102,15,113,244,8 // psllw $0x8,%xmm4 - .byte 102,68,15,111,13,236,13,0,0 // movdqa 0xdec(%rip),%xmm9 # 1ca0 <_sk_xor__ssse3_lowp+0x2d7> + .byte 102,68,15,111,13,236,13,0,0 // movdqa 0xdec(%rip),%xmm9 # 1cb0 <_sk_xor__ssse3_lowp+0x2d7> .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4 - .byte 102,68,15,111,21,238,13,0,0 // movdqa 0xdee(%rip),%xmm10 # 1cb0 <_sk_xor__ssse3_lowp+0x2e7> + .byte 102,68,15,111,21,238,13,0,0 // movdqa 0xdee(%rip),%xmm10 # 1cc0 <_sk_xor__ssse3_lowp+0x2e7> .byte 102,15,40,239 // movapd %xmm7,%xmm5 .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5 .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6 @@ -47006,7 +47011,7 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5 .byte 102,15,113,245,8 // psllw $0x8,%xmm5 .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5 - .byte 102,68,15,111,21,210,13,0,0 // movdqa 0xdd2(%rip),%xmm10 # 1cc0 <_sk_xor__ssse3_lowp+0x2f7> + .byte 102,68,15,111,21,210,13,0,0 // movdqa 0xdd2(%rip),%xmm10 # 1cd0 <_sk_xor__ssse3_lowp+0x2f7> .byte 102,15,40,247 // movapd %xmm7,%xmm6 .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6 .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11 @@ -47014,13 +47019,13 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6 .byte 102,15,113,246,8 // psllw $0x8,%xmm6 .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6 - .byte 102,68,15,111,21,181,13,0,0 // movdqa 0xdb5(%rip),%xmm10 # 1cd0 <_sk_xor__ssse3_lowp+0x307> + .byte 102,68,15,111,21,181,13,0,0 // movdqa 0xdb5(%rip),%xmm10 # 1ce0 <_sk_xor__ssse3_lowp+0x307> .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7 .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8 .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7 .byte 102,15,113,247,8 // psllw $0x8,%xmm7 .byte 102,65,15,228,249 // pmulhuw %xmm9,%xmm7 - .byte 102,68,15,111,29,161,13,0,0 // movdqa 0xda1(%rip),%xmm11 # 1ce0 <_sk_xor__ssse3_lowp+0x317> + .byte 102,68,15,111,29,161,13,0,0 // movdqa 0xda1(%rip),%xmm11 # 1cf0 <_sk_xor__ssse3_lowp+0x317> .byte 102,68,15,249,219 // psubw %xmm3,%xmm11 .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 .byte 102,69,15,56,11,195 // pmulhrsw %xmm11,%xmm8 @@ -47076,7 +47081,7 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 102,65,15,235,192 // por %xmm8,%xmm0 .byte 102,15,235,194 // por %xmm2,%xmm0 .byte 77,133,192 // test %r8,%r8 - .byte 117,97 // jne 10ba <_sk_srcover_rgba_8888_ssse3_lowp+0x25a> + .byte 117,97 // jne 10ca <_sk_srcover_rgba_8888_ssse3_lowp+0x25a> .byte 243,65,15,127,4,147 // movdqu %xmm0,(%r11,%rdx,4) .byte 243,65,15,127,76,147,16 // movdqu %xmm1,0x10(%r11,%rdx,4) .byte 72,173 // lods %ds:(%rsi),%rax @@ -47091,30 +47096,30 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 102,15,239,255 // pxor %xmm7,%xmm7 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,228,253,255,255 // ja e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> + .byte 15,135,228,253,255,255 // ja e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,206,0,0,0 // lea 0xce(%rip),%r10 # 1174 <_sk_srcover_rgba_8888_ssse3_lowp+0x314> + .byte 76,141,21,206,0,0,0 // lea 0xce(%rip),%r10 # 1184 <_sk_srcover_rgba_8888_ssse3_lowp+0x314> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 243,65,15,16,60,147 // movss (%r11,%rdx,4),%xmm7 - .byte 233,197,253,255,255 // jmpq e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> + .byte 233,197,253,255,255 // jmpq e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> .byte 69,137,193 // mov %r8d,%r9d .byte 65,128,225,7 // and $0x7,%r9b .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,156 // ja 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> + .byte 119,156 // ja 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> .byte 65,15,182,193 // movzbl %r9b,%eax - .byte 76,141,13,187,0,0,0 // lea 0xbb(%rip),%r9 # 1190 <_sk_srcover_rgba_8888_ssse3_lowp+0x330> + .byte 76,141,13,187,0,0,0 // lea 0xbb(%rip),%r9 # 11a0 <_sk_srcover_rgba_8888_ssse3_lowp+0x330> .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax .byte 76,1,200 // add %r9,%rax .byte 255,224 // jmpq *%rax .byte 102,65,15,126,4,147 // movd %xmm0,(%r11,%rdx,4) - .byte 235,128 // jmp 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> + .byte 235,128 // jmp 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> .byte 102,65,15,110,100,147,8 // movd 0x8(%r11,%rdx,4),%xmm4 .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7 .byte 102,65,15,18,60,147 // movlpd (%r11,%rdx,4),%xmm7 - .byte 233,130,253,255,255 // jmpq e7f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> + .byte 233,130,253,255,255 // jmpq e8f <_sk_srcover_rgba_8888_ssse3_lowp+0x1f> .byte 102,65,15,110,100,147,24 // movd 0x18(%r11,%rdx,4),%xmm4 .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8 .byte 243,65,15,16,100,147,20 // movss 0x14(%r11,%rdx,4),%xmm4 @@ -47123,27 +47128,27 @@ _sk_srcover_rgba_8888_ssse3_lowp: .byte 68,15,40,196 // movaps %xmm4,%xmm8 .byte 243,65,15,16,100,147,16 // movss 0x10(%r11,%rdx,4),%xmm4 .byte 243,68,15,16,196 // movss %xmm4,%xmm8 - .byte 233,73,253,255,255 // jmpq e79 <_sk_srcover_rgba_8888_ssse3_lowp+0x19> + .byte 233,73,253,255,255 // jmpq e89 <_sk_srcover_rgba_8888_ssse3_lowp+0x19> .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1 .byte 102,65,15,126,76,147,8 // movd %xmm1,0x8(%r11,%rdx,4) .byte 102,65,15,214,4,147 // movq %xmm0,(%r11,%rdx,4) - .byte 233,31,255,255,255 // jmpq 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> + .byte 233,31,255,255,255 // jmpq 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2 .byte 102,65,15,126,84,147,24 // movd %xmm2,0x18(%r11,%rdx,4) .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2 .byte 102,65,15,126,84,147,20 // movd %xmm2,0x14(%r11,%rdx,4) .byte 102,65,15,126,76,147,16 // movd %xmm1,0x10(%r11,%rdx,4) .byte 243,65,15,127,4,147 // movdqu %xmm0,(%r11,%rdx,4) - .byte 233,245,254,255,255 // jmpq 1066 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> + .byte 233,245,254,255,255 // jmpq 1076 <_sk_srcover_rgba_8888_ssse3_lowp+0x206> .byte 15,31,0 // nopl (%rax) .byte 59,255 // cmp %edi,%edi .byte 255 // (bad) .byte 255 // (bad) - .byte 126,255 // jle 1179 <_sk_srcover_rgba_8888_ssse3_lowp+0x319> + .byte 126,255 // jle 1189 <_sk_srcover_rgba_8888_ssse3_lowp+0x319> .byte 255 // (bad) .byte 255,114,255 // pushq -0x1(%rdx) .byte 255 // (bad) - .byte 255,5,253,255,255,171 // incl -0x54000003(%rip) # ffffffffac001182 <_sk_xor__ssse3_lowp+0xffffffffabfff7b9> + .byte 255,5,253,255,255,171 // incl -0x54000003(%rip) # ffffffffac001192 <_sk_xor__ssse3_lowp+0xffffffffabfff7b9> .byte 255 // (bad) .byte 255 // (bad) .byte 255,150,255,255,255,137 // callq *-0x76000001(%rsi) @@ -47173,7 +47178,7 @@ FUNCTION(_sk_scale_1_float_ssse3_lowp) _sk_scale_1_float_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,88,5,8,12,0,0 // addss 0xc08(%rip),%xmm8 # 1dc4 <_sk_xor__ssse3_lowp+0x3fb> + .byte 243,68,15,88,5,8,12,0,0 // addss 0xc08(%rip),%xmm8 # 1dd4 <_sk_xor__ssse3_lowp+0x3fb> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 @@ -47196,11 +47201,11 @@ _sk_scale_u8_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 117,74 // jne 1256 <_sk_scale_u8_ssse3_lowp+0x54> + .byte 117,74 // jne 1266 <_sk_scale_u8_ssse3_lowp+0x54> .byte 243,69,15,126,4,19 // movq (%r11,%rdx,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,228,5,202,10,0,0 // pmulhuw 0xaca(%rip),%xmm8 # 1cf0 <_sk_xor__ssse3_lowp+0x327> + .byte 102,68,15,228,5,202,10,0,0 // pmulhuw 0xaca(%rip),%xmm8 # 1d00 <_sk_xor__ssse3_lowp+0x327> .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0 .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1 @@ -47216,15 +47221,15 @@ _sk_scale_u8_ssse3_lowp: .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 119,172 // ja 1217 <_sk_scale_u8_ssse3_lowp+0x15> + .byte 119,172 // ja 1227 <_sk_scale_u8_ssse3_lowp+0x15> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 12f4 <_sk_scale_u8_ssse3_lowp+0xf2> + .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 1304 <_sk_scale_u8_ssse3_lowp+0xf2> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 235,140 // jmp 1217 <_sk_scale_u8_ssse3_lowp+0x15> + .byte 235,140 // jmp 1227 <_sk_scale_u8_ssse3_lowp+0x15> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8 @@ -47232,7 +47237,7 @@ _sk_scale_u8_ssse3_lowp: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 243,69,15,16,193 // movss %xmm9,%xmm8 - .byte 233,98,255,255,255 // jmpq 1217 <_sk_scale_u8_ssse3_lowp+0x15> + .byte 233,98,255,255,255 // jmpq 1227 <_sk_scale_u8_ssse3_lowp+0x15> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8 @@ -47243,7 +47248,7 @@ _sk_scale_u8_ssse3_lowp: .byte 102,69,15,110,12,19 // movd (%r11,%rdx,1),%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 233,36,255,255,255 // jmpq 1217 <_sk_scale_u8_ssse3_lowp+0x15> + .byte 233,36,255,255,255 // jmpq 1227 <_sk_scale_u8_ssse3_lowp+0x15> .byte 144 // nop .byte 139,255 // mov %edi,%edi .byte 255 // (bad) @@ -47271,14 +47276,14 @@ FUNCTION(_sk_lerp_1_float_ssse3_lowp) _sk_lerp_1_float_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 243,68,15,16,0 // movss (%rax),%xmm8 - .byte 243,68,15,88,5,168,10,0,0 // addss 0xaa8(%rip),%xmm8 # 1dc8 <_sk_xor__ssse3_lowp+0x3ff> + .byte 243,68,15,88,5,168,10,0,0 // addss 0xaa8(%rip),%xmm8 # 1dd8 <_sk_xor__ssse3_lowp+0x3ff> .byte 102,68,15,126,192 // movd %xmm8,%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8 .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8 .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 .byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9 - .byte 102,68,15,111,21,181,9,0,0 // movdqa 0x9b5(%rip),%xmm10 # 1d00 <_sk_xor__ssse3_lowp+0x337> + .byte 102,68,15,111,21,181,9,0,0 // movdqa 0x9b5(%rip),%xmm10 # 1d10 <_sk_xor__ssse3_lowp+0x337> .byte 102,69,15,249,208 // psubw %xmm8,%xmm10 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0 @@ -47311,14 +47316,14 @@ _sk_lerp_u8_ssse3_lowp: .byte 72,173 // lods %ds:(%rsi),%rax .byte 76,139,24 // mov (%rax),%r11 .byte 77,133,192 // test %r8,%r8 - .byte 15,133,169,0,0,0 // jne 147c <_sk_lerp_u8_ssse3_lowp+0xb7> + .byte 15,133,169,0,0,0 // jne 148c <_sk_lerp_u8_ssse3_lowp+0xb7> .byte 243,69,15,126,4,19 // movq (%r11,%rdx,1),%xmm8 .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8 .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8 - .byte 102,68,15,228,5,35,9,0,0 // pmulhuw 0x923(%rip),%xmm8 # 1d10 <_sk_xor__ssse3_lowp+0x347> + .byte 102,68,15,228,5,35,9,0,0 // pmulhuw 0x923(%rip),%xmm8 # 1d20 <_sk_xor__ssse3_lowp+0x347> .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 .byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9 - .byte 102,68,15,111,21,30,9,0,0 // movdqa 0x91e(%rip),%xmm10 # 1d20 <_sk_xor__ssse3_lowp+0x357> + .byte 102,68,15,111,21,30,9,0,0 // movdqa 0x91e(%rip),%xmm10 # 1d30 <_sk_xor__ssse3_lowp+0x357> .byte 102,69,15,249,208 // psubw %xmm8,%xmm10 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0 @@ -47348,15 +47353,15 @@ _sk_lerp_u8_ssse3_lowp: .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 65,254,201 // dec %r9b .byte 65,128,249,6 // cmp $0x6,%r9b - .byte 15,135,73,255,255,255 // ja 13de <_sk_lerp_u8_ssse3_lowp+0x19> + .byte 15,135,73,255,255,255 // ja 13ee <_sk_lerp_u8_ssse3_lowp+0x19> .byte 69,15,182,201 // movzbl %r9b,%r9d - .byte 76,141,21,128,0,0,0 // lea 0x80(%rip),%r10 # 1520 <_sk_lerp_u8_ssse3_lowp+0x15b> + .byte 76,141,21,128,0,0,0 // lea 0x80(%rip),%r10 # 1530 <_sk_lerp_u8_ssse3_lowp+0x15b> .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax .byte 76,1,208 // add %r10,%rax .byte 255,224 // jmpq *%rax .byte 65,15,182,4,19 // movzbl (%r11,%rdx,1),%eax .byte 102,68,15,110,192 // movd %eax,%xmm8 - .byte 233,38,255,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19> + .byte 233,38,255,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19> .byte 65,15,182,68,19,2 // movzbl 0x2(%r11,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8 @@ -47364,7 +47369,7 @@ _sk_lerp_u8_ssse3_lowp: .byte 102,68,15,110,200 // movd %eax,%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 243,69,15,16,193 // movss %xmm9,%xmm8 - .byte 233,252,254,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19> + .byte 233,252,254,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19> .byte 65,15,182,68,19,6 // movzbl 0x6(%r11,%rdx,1),%eax .byte 102,69,15,239,192 // pxor %xmm8,%xmm8 .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8 @@ -47375,14 +47380,14 @@ _sk_lerp_u8_ssse3_lowp: .byte 102,69,15,110,12,19 // movd (%r11,%rdx,1),%xmm9 .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9 .byte 242,69,15,16,193 // movsd %xmm9,%xmm8 - .byte 233,190,254,255,255 // jmpq 13de <_sk_lerp_u8_ssse3_lowp+0x19> + .byte 233,190,254,255,255 // jmpq 13ee <_sk_lerp_u8_ssse3_lowp+0x19> .byte 137,255 // mov %edi,%edi .byte 255 // (bad) .byte 255,169,255,255,255,152 // ljmp *-0x67000001(%rcx) .byte 255 // (bad) .byte 255 // (bad) .byte 255 // (bad) - .byte 235,255 // jmp 152d <_sk_lerp_u8_ssse3_lowp+0x168> + .byte 235,255 // jmp 153d <_sk_lerp_u8_ssse3_lowp+0x168> .byte 255 // (bad) .byte 255 // (bad) .byte 223,255 // (bad) @@ -47444,7 +47449,7 @@ FUNCTION(_sk_srcatop_ssse3_lowp) _sk_srcatop_ssse3_lowp: .byte 102,15,56,11,199 // pmulhrsw %xmm7,%xmm0 .byte 102,68,15,56,29,192 // pabsw %xmm0,%xmm8 - .byte 102,68,15,111,13,161,7,0,0 // movdqa 0x7a1(%rip),%xmm9 # 1d30 <_sk_xor__ssse3_lowp+0x367> + .byte 102,68,15,111,13,161,7,0,0 // movdqa 0x7a1(%rip),%xmm9 # 1d40 <_sk_xor__ssse3_lowp+0x367> .byte 102,68,15,249,203 // psubw %xmm3,%xmm9 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0 @@ -47477,7 +47482,7 @@ _sk_dstatop_ssse3_lowp: .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8 .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8 .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8 - .byte 102,68,15,111,13,32,7,0,0 // movdqa 0x720(%rip),%xmm9 # 1d40 <_sk_xor__ssse3_lowp+0x377> + .byte 102,68,15,111,13,32,7,0,0 // movdqa 0x720(%rip),%xmm9 # 1d50 <_sk_xor__ssse3_lowp+0x377> .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0 .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0 @@ -47540,7 +47545,7 @@ HIDDEN _sk_srcout_ssse3_lowp .globl _sk_srcout_ssse3_lowp FUNCTION(_sk_srcout_ssse3_lowp) _sk_srcout_ssse3_lowp: - .byte 102,68,15,111,5,70,6,0,0 // movdqa 0x646(%rip),%xmm8 # 1d50 <_sk_xor__ssse3_lowp+0x387> + .byte 102,68,15,111,5,70,6,0,0 // movdqa 0x646(%rip),%xmm8 # 1d60 <_sk_xor__ssse3_lowp+0x387> .byte 102,68,15,249,199 // psubw %xmm7,%xmm8 .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0 @@ -47557,7 +47562,7 @@ HIDDEN _sk_dstout_ssse3_lowp .globl _sk_dstout_ssse3_lowp FUNCTION(_sk_dstout_ssse3_lowp) _sk_dstout_ssse3_lowp: - .byte 102,68,15,111,5,23,6,0,0 // movdqa 0x617(%rip),%xmm8 # 1d60 <_sk_xor__ssse3_lowp+0x397> + .byte 102,68,15,111,5,23,6,0,0 // movdqa 0x617(%rip),%xmm8 # 1d70 <_sk_xor__ssse3_lowp+0x397> .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,15,111,196 // movdqa %xmm4,%xmm0 .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 @@ -47577,7 +47582,7 @@ HIDDEN _sk_srcover_ssse3_lowp .globl _sk_srcover_ssse3_lowp FUNCTION(_sk_srcover_ssse3_lowp) _sk_srcover_ssse3_lowp: - .byte 102,68,15,111,5,220,5,0,0 // movdqa 0x5dc(%rip),%xmm8 # 1d70 <_sk_xor__ssse3_lowp+0x3a7> + .byte 102,68,15,111,5,220,5,0,0 // movdqa 0x5dc(%rip),%xmm8 # 1d80 <_sk_xor__ssse3_lowp+0x3a7> .byte 102,68,15,249,195 // psubw %xmm3,%xmm8 .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9 .byte 102,69,15,56,11,200 // pmulhrsw %xmm8,%xmm9 @@ -47601,7 +47606,7 @@ HIDDEN _sk_dstover_ssse3_lowp .globl _sk_dstover_ssse3_lowp FUNCTION(_sk_dstover_ssse3_lowp) _sk_dstover_ssse3_lowp: - .byte 102,68,15,111,5,135,5,0,0 // movdqa 0x587(%rip),%xmm8 # 1d80 <_sk_xor__ssse3_lowp+0x3b7> + .byte 102,68,15,111,5,135,5,0,0 // movdqa 0x587(%rip),%xmm8 # 1d90 <_sk_xor__ssse3_lowp+0x3b7> .byte 102,68,15,249,199 // psubw %xmm7,%xmm8 .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0 .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0 @@ -47637,7 +47642,7 @@ HIDDEN _sk_multiply_ssse3_lowp .globl _sk_multiply_ssse3_lowp FUNCTION(_sk_multiply_ssse3_lowp) _sk_multiply_ssse3_lowp: - .byte 102,68,15,111,5,28,5,0,0 // movdqa 0x51c(%rip),%xmm8 # 1d90 <_sk_xor__ssse3_lowp+0x3c7> + .byte 102,68,15,111,5,28,5,0,0 // movdqa 0x51c(%rip),%xmm8 # 1da0 <_sk_xor__ssse3_lowp+0x3c7> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10 @@ -47686,7 +47691,7 @@ HIDDEN _sk_screen_ssse3_lowp .globl _sk_screen_ssse3_lowp FUNCTION(_sk_screen_ssse3_lowp) _sk_screen_ssse3_lowp: - .byte 102,68,15,111,5,66,4,0,0 // movdqa 0x442(%rip),%xmm8 # 1da0 <_sk_xor__ssse3_lowp+0x3d7> + .byte 102,68,15,111,5,66,4,0,0 // movdqa 0x442(%rip),%xmm8 # 1db0 <_sk_xor__ssse3_lowp+0x3d7> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,200 // psubw %xmm0,%xmm9 .byte 102,68,15,56,11,204 // pmulhrsw %xmm4,%xmm9 @@ -47713,7 +47718,7 @@ HIDDEN _sk_xor__ssse3_lowp .globl _sk_xor__ssse3_lowp FUNCTION(_sk_xor__ssse3_lowp) _sk_xor__ssse3_lowp: - .byte 102,68,15,111,5,222,3,0,0 // movdqa 0x3de(%rip),%xmm8 # 1db0 <_sk_xor__ssse3_lowp+0x3e7> + .byte 102,68,15,111,5,222,3,0,0 // movdqa 0x3de(%rip),%xmm8 # 1dc0 <_sk_xor__ssse3_lowp+0x3e7> .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9 .byte 102,68,15,249,207 // psubw %xmm7,%xmm9 .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0 @@ -47762,7 +47767,7 @@ BALIGN16 .byte 12,13 // or $0xd,%al .byte 12,13 // or $0xd,%al .byte 14 // (bad) - .byte 15,129,128,129,128,129 // jno ffffffff81809c35 <_sk_xor__ssse3_lowp+0xffffffff8180826c> + .byte 15,129,128,129,128,129 // jno ffffffff81809c45 <_sk_xor__ssse3_lowp+0xffffffff8180826c> .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx) .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax) .byte 13,14,9,10,13 // or $0xd0a090e,%eax @@ -47791,7 +47796,7 @@ BALIGN16 .byte 12,13 // or $0xd,%al .byte 12,13 // or $0xd,%al .byte 14 // (bad) - .byte 15,129,128,129,128,129 // jno ffffffff81809c85 <_sk_xor__ssse3_lowp+0xffffffff818082bc> + .byte 15,129,128,129,128,129 // jno ffffffff81809c95 <_sk_xor__ssse3_lowp+0xffffffff818082bc> .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx) .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax) .byte 13,14,9,10,13 // or $0xd0a090e,%eax @@ -47831,7 +47836,7 @@ BALIGN16 .byte 12,13 // or $0xd,%al .byte 12,13 // or $0xd,%al .byte 14 // (bad) - .byte 15,129,128,129,128,129 // jno ffffffff81809ce5 <_sk_xor__ssse3_lowp+0xffffffff8180831c> + .byte 15,129,128,129,128,129 // jno ffffffff81809cf5 <_sk_xor__ssse3_lowp+0xffffffff8180831c> .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx) .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax) .byte 13,14,9,10,13 // or $0xd0a090e,%eax @@ -47860,7 +47865,7 @@ BALIGN16 .byte 12,13 // or $0xd,%al .byte 12,13 // or $0xd,%al .byte 14 // (bad) - .byte 15,129,128,129,128,129 // jno ffffffff81809d35 <_sk_xor__ssse3_lowp+0xffffffff8180836c> + .byte 15,129,128,129,128,129 // jno ffffffff81809d45 <_sk_xor__ssse3_lowp+0xffffffff8180836c> .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx) .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax) .byte 13,14,9,10,13 // or $0xd0a090e,%eax |