aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-08-03 22:12:32 -0400
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-08-04 05:19:38 +0000
commit5910ed347a638ded8cd4c06dbfda086695df1112 (patch)
treec17a722b06451d269cd4a867e1959998bcfa718d /src/jumper/SkJumper_generated.S
parent0e914eb7259557a74b15f8a433df287ef4e5a077 (diff)
15-bit lowp is dead, long live 8-bit lowp
Change-Id: Icc4b06094aeba3af99b534746f66286d776ef78a Reviewed-on: https://skia-review.googlesource.com/30920 Reviewed-by: Florin Malita <fmalita@chromium.org> Commit-Queue: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S5032
1 files changed, 0 insertions, 5032 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 0e39cf728f..a30e5df8ee 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -45339,5038 +45339,6 @@ BALIGN4
.byte 0,63 // add %bh,(%rdi)
BALIGN32
-HIDDEN _sk_start_pipeline_hsw_lowp
-.globl _sk_start_pipeline_hsw_lowp
-FUNCTION(_sk_start_pipeline_hsw_lowp)
-_sk_start_pipeline_hsw_lowp:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,40 // sub $0x28,%rsp
- .byte 72,137,211 // mov %rdx,%rbx
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,194 // mov %rax,%rdx
- .byte 72,137,77,176 // mov %rcx,-0x50(%rbp)
- .byte 73,57,206 // cmp %rcx,%r14
- .byte 115,117 // jae a1 <_sk_start_pipeline_hsw_lowp+0xa1>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,16 // lea 0x10(%rax),%rax
- .byte 72,137,69,184 // mov %rax,-0x48(%rbp)
- .byte 76,137,77,192 // mov %r9,-0x40(%rbp)
- .byte 72,137,85,200 // mov %rdx,-0x38(%rbp)
- .byte 73,137,221 // mov %rbx,%r13
- .byte 73,137,244 // mov %rsi,%r12
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp)
- .byte 119,45 // ja 7d <_sk_start_pipeline_hsw_lowp+0x7d>
- .byte 76,139,125,208 // mov -0x30(%rbp),%r15
- .byte 69,49,192 // xor %r8d,%r8d
- .byte 76,137,207 // mov %r9,%rdi
- .byte 76,137,230 // mov %r12,%rsi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 255,85,200 // callq *-0x38(%rbp)
- .byte 76,137,235 // mov %r13,%rbx
- .byte 76,139,77,192 // mov -0x40(%rbp),%r9
- .byte 73,141,87,16 // lea 0x10(%r15),%rdx
- .byte 73,131,199,32 // add $0x20,%r15
- .byte 73,57,223 // cmp %rbx,%r15
- .byte 73,137,215 // mov %rdx,%r15
- .byte 118,215 // jbe 54 <_sk_start_pipeline_hsw_lowp+0x54>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,41,208 // sub %rdx,%r8
- .byte 116,19 // je 98 <_sk_start_pipeline_hsw_lowp+0x98>
- .byte 76,137,207 // mov %r9,%rdi
- .byte 76,137,230 // mov %r12,%rsi
- .byte 76,137,241 // mov %r14,%rcx
- .byte 255,85,200 // callq *-0x38(%rbp)
- .byte 76,137,235 // mov %r13,%rbx
- .byte 76,139,77,192 // mov -0x40(%rbp),%r9
- .byte 73,255,198 // inc %r14
- .byte 76,59,117,176 // cmp -0x50(%rbp),%r14
- .byte 117,165 // jne 46 <_sk_start_pipeline_hsw_lowp+0x46>
- .byte 72,131,196,40 // add $0x28,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_hsw_lowp
-.globl _sk_just_return_hsw_lowp
-FUNCTION(_sk_just_return_hsw_lowp)
-_sk_just_return_hsw_lowp:
- .byte 195 // retq
-
-HIDDEN _sk_uniform_color_hsw_lowp
-.globl _sk_uniform_color_hsw_lowp
-FUNCTION(_sk_uniform_color_hsw_lowp)
-_sk_uniform_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,121,24,5,25,34,0,0 // vbroadcastss 0x2219(%rip),%xmm0 # 22d8 <_sk_xor__hsw_lowp+0x78>
- .byte 197,248,88,24 // vaddps (%rax),%xmm0,%xmm3
- .byte 196,226,125,121,195 // vpbroadcastw %xmm3,%ymm0
- .byte 197,251,112,203,234 // vpshuflw $0xea,%xmm3,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
- .byte 196,227,121,4,211,230 // vpermilps $0xe6,%xmm3,%xmm2
- .byte 197,251,112,210,224 // vpshuflw $0xe0,%xmm2,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 196,227,121,4,219,236 // vpermilps $0xec,%xmm3,%xmm3
- .byte 197,251,112,219,234 // vpshuflw $0xea,%xmm3,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_hsw_lowp
-.globl _sk_black_color_hsw_lowp
-FUNCTION(_sk_black_color_hsw_lowp)
-_sk_black_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,255,33,0,0 // vpbroadcastw 0x21ff(%rip),%ymm3 # 2300 <_sk_xor__hsw_lowp+0xa0>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_hsw_lowp
-.globl _sk_white_color_hsw_lowp
-FUNCTION(_sk_white_color_hsw_lowp)
-_sk_white_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,232,33,0,0 // vpbroadcastw 0x21e8(%rip),%ymm0 # 2302 <_sk_xor__hsw_lowp+0xa2>
- .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
- .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
- .byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_hsw_lowp
-.globl _sk_set_rgb_hsw_lowp
-FUNCTION(_sk_set_rgb_hsw_lowp)
-_sk_set_rgb_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,250,16,21,170,33,0,0 // vmovss 0x21aa(%rip),%xmm2 # 22dc <_sk_xor__hsw_lowp+0x7c>
- .byte 197,234,88,0 // vaddss (%rax),%xmm2,%xmm0
- .byte 196,193,121,126,193 // vmovd %xmm0,%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,226,125,121,192 // vpbroadcastw %xmm0,%ymm0
- .byte 197,234,88,72,4 // vaddss 0x4(%rax),%xmm2,%xmm1
- .byte 196,193,121,126,201 // vmovd %xmm1,%r9d
- .byte 196,193,121,110,201 // vmovd %r9d,%xmm1
- .byte 196,226,125,121,201 // vpbroadcastw %xmm1,%ymm1
- .byte 197,234,88,80,8 // vaddss 0x8(%rax),%xmm2,%xmm2
- .byte 197,249,126,208 // vmovd %xmm2,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,121,210 // vpbroadcastw %xmm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_hsw_lowp
-.globl _sk_premul_hsw_lowp
-FUNCTION(_sk_premul_hsw_lowp)
-_sk_premul_hsw_lowp:
- .byte 196,226,125,11,195 // vpmulhrsw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,226,117,11,203 // vpmulhrsw %ymm3,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,226,109,11,211 // vpmulhrsw %ymm3,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_hsw_lowp
-.globl _sk_load_8888_hsw_lowp
-FUNCTION(_sk_load_8888_hsw_lowp)
-_sk_load_8888_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,211,0,0,0 // jne 285 <_sk_load_8888_hsw_lowp+0xf4>
- .byte 196,193,126,111,92,153,32 // vmovdqu 0x20(%r9,%rbx,4),%ymm3
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 197,253,111,5,89,33,0,0 // vmovdqa 0x2159(%rip),%ymm0 # 2320 <_sk_xor__hsw_lowp+0xc0>
- .byte 196,226,61,0,200 // vpshufb %ymm0,%ymm8,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,98,125,121,13,79,33,0,0 // vpbroadcastw 0x214f(%rip),%ymm9 # 2340 <_sk_xor__hsw_lowp+0xe0>
- .byte 196,193,125,228,193 // vpmulhuw %ymm9,%ymm0,%ymm0
- .byte 197,253,111,13,98,33,0,0 // vmovdqa 0x2162(%rip),%ymm1 # 2360 <_sk_xor__hsw_lowp+0x100>
- .byte 196,226,61,0,209 // vpshufb %ymm1,%ymm8,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,226,101,0,201 // vpshufb %ymm1,%ymm3,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 197,245,113,241,8 // vpsllw $0x8,%ymm1,%ymm1
- .byte 196,193,117,228,201 // vpmulhuw %ymm9,%ymm1,%ymm1
- .byte 197,253,111,21,84,33,0,0 // vmovdqa 0x2154(%rip),%ymm2 # 2380 <_sk_xor__hsw_lowp+0x120>
- .byte 196,98,61,0,210 // vpshufb %ymm2,%ymm8,%ymm10
- .byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10
- .byte 196,226,101,0,210 // vpshufb %ymm2,%ymm3,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,227,45,56,210,1 // vinserti128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 197,237,113,242,8 // vpsllw $0x8,%ymm2,%ymm2
- .byte 196,193,109,228,209 // vpmulhuw %ymm9,%ymm2,%ymm2
- .byte 197,125,111,21,70,33,0,0 // vmovdqa 0x2146(%rip),%ymm10 # 23a0 <_sk_xor__hsw_lowp+0x140>
- .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 196,194,101,0,218 // vpshufb %ymm10,%ymm3,%ymm3
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,61,56,219,1 // vinserti128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,229,113,243,8 // vpsllw $0x8,%ymm3,%ymm3
- .byte 196,193,101,228,217 // vpmulhuw %ymm9,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,29,255,255,255 // ja 1bf <_sk_load_8888_hsw_lowp+0x2e>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,27,1,0,0 // lea 0x11b(%rip),%r11 # 3c8 <_sk_load_8888_hsw_lowp+0x237>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,4,153 // vmovd (%r9,%rbx,4),%xmm8
- .byte 233,254,254,255,255 // jmpq 1bf <_sk_load_8888_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,99,101,2,192,4 // vpblendd $0x4,%ymm0,%ymm3,%ymm8
- .byte 196,194,121,53,4,153 // vpmovzxdq (%r9,%rbx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,99,61,2,192,3 // vpblendd $0x3,%ymm0,%ymm8,%ymm8
- .byte 233,210,254,255,255 // jmpq 1bf <_sk_load_8888_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,99,101,2,192,64 // vpblendd $0x40,%ymm0,%ymm3,%ymm8
- .byte 196,99,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm0
- .byte 196,195,121,34,68,153,20,1 // vpinsrd $0x1,0x14(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8
- .byte 196,99,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm0
- .byte 196,195,121,34,68,153,16,0 // vpinsrd $0x0,0x10(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8
- .byte 196,193,122,111,4,153 // vmovdqu (%r9,%rbx,4),%xmm0
- .byte 196,67,125,2,192,240 // vpblendd $0xf0,%ymm8,%ymm0,%ymm8
- .byte 233,131,254,255,255 // jmpq 1bf <_sk_load_8888_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,40 // vmovd 0x28(%r9,%rbx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,195,97,34,68,153,36,1 // vpinsrd $0x1,0x24(%r9,%rbx,4),%xmm3,%xmm0
- .byte 196,227,101,2,216,15 // vpblendd $0xf,%ymm0,%ymm3,%ymm3
- .byte 196,193,121,110,68,153,32 // vmovd 0x20(%r9,%rbx,4),%xmm0
- .byte 196,227,101,2,216,1 // vpblendd $0x1,%ymm0,%ymm3,%ymm3
- .byte 233,71,254,255,255 // jmpq 1b9 <_sk_load_8888_hsw_lowp+0x28>
- .byte 196,193,121,110,68,153,56 // vmovd 0x38(%r9,%rbx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,153,52,1 // vpinsrd $0x1,0x34(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,153,48,0 // vpinsrd $0x0,0x30(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 196,193,122,111,68,153,32 // vmovdqu 0x20(%r9,%rbx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,247,253,255,255 // jmpq 1bf <_sk_load_8888_hsw_lowp+0x2e>
- .byte 238 // out %al,(%dx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 249 // stc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,79,255 // decl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,37,255,255,255,241 // jmpq *-0xe000001(%rip) # fffffffff20003e4 <_sk_xor__hsw_lowp+0xfffffffff1ffe184>
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,152,255,255,255,138 // lcall *-0x75000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 232,255,255,255,212 // callq ffffffffd50003f8 <_sk_xor__hsw_lowp+0xffffffffd4ffe198>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_hsw_lowp
-.globl _sk_load_8888_dst_hsw_lowp
-FUNCTION(_sk_load_8888_dst_hsw_lowp)
-_sk_load_8888_dst_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,211,0,0,0 // jne 4f8 <_sk_load_8888_dst_hsw_lowp+0xf4>
- .byte 196,193,126,111,124,153,32 // vmovdqu 0x20(%r9,%rbx,4),%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 197,253,111,37,134,31,0,0 // vmovdqa 0x1f86(%rip),%ymm4 # 23c0 <_sk_xor__hsw_lowp+0x160>
- .byte 196,226,61,0,236 // vpshufb %ymm4,%ymm8,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,226,69,0,228 // vpshufb %ymm4,%ymm7,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,98,125,121,13,124,31,0,0 // vpbroadcastw 0x1f7c(%rip),%ymm9 # 23e0 <_sk_xor__hsw_lowp+0x180>
- .byte 196,193,93,228,225 // vpmulhuw %ymm9,%ymm4,%ymm4
- .byte 197,253,111,45,143,31,0,0 // vmovdqa 0x1f8f(%rip),%ymm5 # 2400 <_sk_xor__hsw_lowp+0x1a0>
- .byte 196,226,61,0,245 // vpshufb %ymm5,%ymm8,%ymm6
- .byte 196,227,253,0,246,232 // vpermq $0xe8,%ymm6,%ymm6
- .byte 196,226,69,0,237 // vpshufb %ymm5,%ymm7,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 197,213,113,245,8 // vpsllw $0x8,%ymm5,%ymm5
- .byte 196,193,85,228,233 // vpmulhuw %ymm9,%ymm5,%ymm5
- .byte 197,253,111,53,129,31,0,0 // vmovdqa 0x1f81(%rip),%ymm6 # 2420 <_sk_xor__hsw_lowp+0x1c0>
- .byte 196,98,61,0,214 // vpshufb %ymm6,%ymm8,%ymm10
- .byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10
- .byte 196,226,69,0,246 // vpshufb %ymm6,%ymm7,%ymm6
- .byte 196,227,253,0,246,232 // vpermq $0xe8,%ymm6,%ymm6
- .byte 196,227,45,56,246,1 // vinserti128 $0x1,%xmm6,%ymm10,%ymm6
- .byte 197,205,113,246,8 // vpsllw $0x8,%ymm6,%ymm6
- .byte 196,193,77,228,241 // vpmulhuw %ymm9,%ymm6,%ymm6
- .byte 197,125,111,21,115,31,0,0 // vmovdqa 0x1f73(%rip),%ymm10 # 2440 <_sk_xor__hsw_lowp+0x1e0>
- .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 196,194,69,0,250 // vpshufb %ymm10,%ymm7,%ymm7
- .byte 196,227,253,0,255,232 // vpermq $0xe8,%ymm7,%ymm7
- .byte 196,227,61,56,255,1 // vinserti128 $0x1,%xmm7,%ymm8,%ymm7
- .byte 197,197,113,247,8 // vpsllw $0x8,%ymm7,%ymm7
- .byte 196,193,69,228,249 // vpmulhuw %ymm9,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,29,255,255,255 // ja 432 <_sk_load_8888_dst_hsw_lowp+0x2e>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,28,1,0,0 // lea 0x11c(%rip),%r11 # 63c <_sk_load_8888_dst_hsw_lowp+0x238>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,4,153 // vmovd (%r9,%rbx,4),%xmm8
- .byte 233,254,254,255,255 // jmpq 432 <_sk_load_8888_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm8
- .byte 196,194,121,53,36,153 // vpmovzxdq (%r9,%rbx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,99,61,2,196,3 // vpblendd $0x3,%ymm4,%ymm8,%ymm8
- .byte 233,210,254,255,255 // jmpq 432 <_sk_load_8888_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,64 // vpblendd $0x40,%ymm4,%ymm7,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,20,1 // vpinsrd $0x1,0x14(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,16,0 // vpinsrd $0x0,0x10(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
- .byte 196,67,93,2,192,240 // vpblendd $0xf0,%ymm8,%ymm4,%ymm8
- .byte 233,131,254,255,255 // jmpq 432 <_sk_load_8888_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,40 // vmovd 0x28(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,195,65,34,100,153,36,1 // vpinsrd $0x1,0x24(%r9,%rbx,4),%xmm7,%xmm4
- .byte 196,227,69,2,252,15 // vpblendd $0xf,%ymm4,%ymm7,%ymm7
- .byte 196,193,121,110,100,153,32 // vmovd 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,69,2,252,1 // vpblendd $0x1,%ymm4,%ymm7,%ymm7
- .byte 233,71,254,255,255 // jmpq 42c <_sk_load_8888_dst_hsw_lowp+0x28>
- .byte 196,193,121,110,100,153,56 // vmovd 0x38(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,52,1 // vpinsrd $0x1,0x34(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,48,0 // vpinsrd $0x0,0x30(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 196,193,122,111,100,153,32 // vmovdqu 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,247,253,255,255 // jmpq 432 <_sk_load_8888_dst_hsw_lowp+0x2e>
- .byte 144 // nop
- .byte 237 // in (%dx),%eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,151,255,255,255,137 // callq *-0x76000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,169 // mov $0xa9ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_hsw_lowp
-.globl _sk_store_8888_hsw_lowp
-FUNCTION(_sk_store_8888_hsw_lowp)
-_sk_store_8888_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 197,189,113,208,7 // vpsrlw $0x7,%ymm0,%ymm8
- .byte 196,98,125,121,13,194,29,0,0 // vpbroadcastw 0x1dc2(%rip),%ymm9 # 2460 <_sk_xor__hsw_lowp+0x200>
- .byte 196,65,61,234,193 // vpminsw %ymm9,%ymm8,%ymm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 197,165,113,209,7 // vpsrlw $0x7,%ymm1,%ymm11
- .byte 196,65,37,234,217 // vpminsw %ymm9,%ymm11,%ymm11
- .byte 196,67,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm12
- .byte 196,66,125,51,228 // vpmovzxwd %xmm12,%ymm12
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,37,235,210 // vpor %ymm10,%ymm11,%ymm10
- .byte 197,165,113,210,7 // vpsrlw $0x7,%ymm2,%ymm11
- .byte 196,65,37,234,217 // vpminsw %ymm9,%ymm11,%ymm11
- .byte 196,66,125,51,227 // vpmovzxwd %xmm11,%ymm12
- .byte 196,67,125,57,219,1 // vextracti128 $0x1,%ymm11,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
- .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
- .byte 197,149,113,211,7 // vpsrlw $0x7,%ymm3,%ymm13
- .byte 196,65,21,234,201 // vpminsw %ymm9,%ymm13,%ymm9
- .byte 196,67,125,57,205,1 // vextracti128 $0x1,%ymm9,%xmm13
- .byte 196,66,125,51,237 // vpmovzxwd %xmm13,%ymm13
- .byte 196,66,125,51,201 // vpmovzxwd %xmm9,%ymm9
- .byte 196,193,13,114,241,24 // vpslld $0x18,%ymm9,%ymm14
- .byte 196,193,53,114,245,24 // vpslld $0x18,%ymm13,%ymm9
- .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
- .byte 196,65,61,235,201 // vpor %ymm9,%ymm8,%ymm9
- .byte 196,65,29,235,198 // vpor %ymm14,%ymm12,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,18 // jne 75a <_sk_store_8888_hsw_lowp+0xe2>
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,126,127,76,153,32 // vmovdqu %ymm9,0x20(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,235 // ja 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,175,0,0,0 // lea 0xaf(%rip),%r11 # 824 <_sk_store_8888_hsw_lowp+0x1ac>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
- .byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,20,1 // vpextrd $0x1,%xmm9,0x14(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
- .byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 196,67,121,22,76,153,40,2 // vpextrd $0x2,%xmm9,0x28(%r9,%rbx,4)
- .byte 196,67,121,22,76,153,36,1 // vpextrd $0x1,%xmm9,0x24(%r9,%rbx,4)
- .byte 196,65,121,126,76,153,32 // vmovd %xmm9,0x20(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 233,108,255,255,255 // jmpq 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,153,56,2 // vpextrd $0x2,%xmm10,0x38(%r9,%rbx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,153,52,1 // vpextrd $0x1,%xmm10,0x34(%r9,%rbx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,65,121,126,84,153,48 // vmovd %xmm10,0x30(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,122,127,76,153,32 // vmovdqu %xmm9,0x20(%r9,%rbx,4)
- .byte 233,49,255,255,255 // jmpq 755 <_sk_store_8888_hsw_lowp+0xdd>
- .byte 90 // pop %rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,106,255 // ljmp *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,155,255,255,255,142 // lcall *-0x71000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,128,255,255,255,114 // incl 0x72ffffff(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,179 // mov $0xb3ffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,171,255,255,255,163 // ljmp *-0x5c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_hsw_lowp
-.globl _sk_load_bgra_hsw_lowp
-FUNCTION(_sk_load_bgra_hsw_lowp)
-_sk_load_bgra_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,211,0,0,0 // jne 954 <_sk_load_bgra_hsw_lowp+0xf4>
- .byte 196,193,126,111,92,153,32 // vmovdqu 0x20(%r9,%rbx,4),%ymm3
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 197,253,111,5,234,27,0,0 // vmovdqa 0x1bea(%rip),%ymm0 # 2480 <_sk_xor__hsw_lowp+0x220>
- .byte 196,226,61,0,200 // vpshufb %ymm0,%ymm8,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,98,125,121,13,224,27,0,0 // vpbroadcastw 0x1be0(%rip),%ymm9 # 24a0 <_sk_xor__hsw_lowp+0x240>
- .byte 196,193,125,228,209 // vpmulhuw %ymm9,%ymm0,%ymm2
- .byte 197,253,111,5,243,27,0,0 // vmovdqa 0x1bf3(%rip),%ymm0 # 24c0 <_sk_xor__hsw_lowp+0x260>
- .byte 196,226,61,0,200 // vpshufb %ymm0,%ymm8,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,193,125,228,201 // vpmulhuw %ymm9,%ymm0,%ymm1
- .byte 197,253,111,5,229,27,0,0 // vmovdqa 0x1be5(%rip),%ymm0 # 24e0 <_sk_xor__hsw_lowp+0x280>
- .byte 196,98,61,0,208 // vpshufb %ymm0,%ymm8,%ymm10
- .byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10
- .byte 196,226,101,0,192 // vpshufb %ymm0,%ymm3,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 196,227,45,56,192,1 // vinserti128 $0x1,%xmm0,%ymm10,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,193,125,228,193 // vpmulhuw %ymm9,%ymm0,%ymm0
- .byte 197,125,111,21,215,27,0,0 // vmovdqa 0x1bd7(%rip),%ymm10 # 2500 <_sk_xor__hsw_lowp+0x2a0>
- .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 196,194,101,0,218 // vpshufb %ymm10,%ymm3,%ymm3
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,61,56,219,1 // vinserti128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,229,113,243,8 // vpsllw $0x8,%ymm3,%ymm3
- .byte 196,193,101,228,217 // vpmulhuw %ymm9,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,29,255,255,255 // ja 88e <_sk_load_bgra_hsw_lowp+0x2e>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,28,1,0,0 // lea 0x11c(%rip),%r11 # a98 <_sk_load_bgra_hsw_lowp+0x238>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,4,153 // vmovd (%r9,%rbx,4),%xmm8
- .byte 233,254,254,255,255 // jmpq 88e <_sk_load_bgra_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,99,101,2,192,4 // vpblendd $0x4,%ymm0,%ymm3,%ymm8
- .byte 196,194,121,53,4,153 // vpmovzxdq (%r9,%rbx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,99,61,2,192,3 // vpblendd $0x3,%ymm0,%ymm8,%ymm8
- .byte 233,210,254,255,255 // jmpq 88e <_sk_load_bgra_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,99,101,2,192,64 // vpblendd $0x40,%ymm0,%ymm3,%ymm8
- .byte 196,99,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm0
- .byte 196,195,121,34,68,153,20,1 // vpinsrd $0x1,0x14(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8
- .byte 196,99,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm0
- .byte 196,195,121,34,68,153,16,0 // vpinsrd $0x0,0x10(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,99,61,56,192,1 // vinserti128 $0x1,%xmm0,%ymm8,%ymm8
- .byte 196,193,122,111,4,153 // vmovdqu (%r9,%rbx,4),%xmm0
- .byte 196,67,125,2,192,240 // vpblendd $0xf0,%ymm8,%ymm0,%ymm8
- .byte 233,131,254,255,255 // jmpq 88e <_sk_load_bgra_hsw_lowp+0x2e>
- .byte 196,193,121,110,68,153,40 // vmovd 0x28(%r9,%rbx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,195,97,34,68,153,36,1 // vpinsrd $0x1,0x24(%r9,%rbx,4),%xmm3,%xmm0
- .byte 196,227,101,2,216,15 // vpblendd $0xf,%ymm0,%ymm3,%ymm3
- .byte 196,193,121,110,68,153,32 // vmovd 0x20(%r9,%rbx,4),%xmm0
- .byte 196,227,101,2,216,1 // vpblendd $0x1,%ymm0,%ymm3,%ymm3
- .byte 233,71,254,255,255 // jmpq 888 <_sk_load_bgra_hsw_lowp+0x28>
- .byte 196,193,121,110,68,153,56 // vmovd 0x38(%r9,%rbx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,153,52,1 // vpinsrd $0x1,0x34(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,153,48,0 // vpinsrd $0x0,0x30(%r9,%rbx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 196,193,122,111,68,153,32 // vmovdqu 0x20(%r9,%rbx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,247,253,255,255 // jmpq 88e <_sk_load_bgra_hsw_lowp+0x2e>
- .byte 144 // nop
- .byte 237 // in (%dx),%eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,151,255,255,255,137 // callq *-0x76000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,169 // mov $0xa9ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_hsw_lowp
-.globl _sk_load_bgra_dst_hsw_lowp
-FUNCTION(_sk_load_bgra_dst_hsw_lowp)
-_sk_load_bgra_dst_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,211,0,0,0 // jne bc8 <_sk_load_bgra_dst_hsw_lowp+0xf4>
- .byte 196,193,126,111,124,153,32 // vmovdqu 0x20(%r9,%rbx,4),%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 197,253,111,37,22,26,0,0 // vmovdqa 0x1a16(%rip),%ymm4 # 2520 <_sk_xor__hsw_lowp+0x2c0>
- .byte 196,226,61,0,236 // vpshufb %ymm4,%ymm8,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,226,69,0,228 // vpshufb %ymm4,%ymm7,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,98,125,121,13,12,26,0,0 // vpbroadcastw 0x1a0c(%rip),%ymm9 # 2540 <_sk_xor__hsw_lowp+0x2e0>
- .byte 196,193,93,228,241 // vpmulhuw %ymm9,%ymm4,%ymm6
- .byte 197,253,111,37,31,26,0,0 // vmovdqa 0x1a1f(%rip),%ymm4 # 2560 <_sk_xor__hsw_lowp+0x300>
- .byte 196,226,61,0,236 // vpshufb %ymm4,%ymm8,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,226,69,0,228 // vpshufb %ymm4,%ymm7,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,193,93,228,233 // vpmulhuw %ymm9,%ymm4,%ymm5
- .byte 197,253,111,37,17,26,0,0 // vmovdqa 0x1a11(%rip),%ymm4 # 2580 <_sk_xor__hsw_lowp+0x320>
- .byte 196,98,61,0,212 // vpshufb %ymm4,%ymm8,%ymm10
- .byte 196,67,253,0,210,232 // vpermq $0xe8,%ymm10,%ymm10
- .byte 196,226,69,0,228 // vpshufb %ymm4,%ymm7,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,45,56,228,1 // vinserti128 $0x1,%xmm4,%ymm10,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,193,93,228,225 // vpmulhuw %ymm9,%ymm4,%ymm4
- .byte 197,125,111,21,3,26,0,0 // vmovdqa 0x1a03(%rip),%ymm10 # 25a0 <_sk_xor__hsw_lowp+0x340>
- .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 196,194,69,0,250 // vpshufb %ymm10,%ymm7,%ymm7
- .byte 196,227,253,0,255,232 // vpermq $0xe8,%ymm7,%ymm7
- .byte 196,227,61,56,255,1 // vinserti128 $0x1,%xmm7,%ymm8,%ymm7
- .byte 197,197,113,247,8 // vpsllw $0x8,%ymm7,%ymm7
- .byte 196,193,69,228,249 // vpmulhuw %ymm9,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,29,255,255,255 // ja b02 <_sk_load_bgra_dst_hsw_lowp+0x2e>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,28,1,0,0 // lea 0x11c(%rip),%r11 # d0c <_sk_load_bgra_dst_hsw_lowp+0x238>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,4,153 // vmovd (%r9,%rbx,4),%xmm8
- .byte 233,254,254,255,255 // jmpq b02 <_sk_load_bgra_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm8
- .byte 196,194,121,53,36,153 // vpmovzxdq (%r9,%rbx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,99,61,2,196,3 // vpblendd $0x3,%ymm4,%ymm8,%ymm8
- .byte 233,210,254,255,255 // jmpq b02 <_sk_load_bgra_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,64 // vpblendd $0x40,%ymm4,%ymm7,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,20,1 // vpinsrd $0x1,0x14(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,16,0 // vpinsrd $0x0,0x10(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
- .byte 196,67,93,2,192,240 // vpblendd $0xf0,%ymm8,%ymm4,%ymm8
- .byte 233,131,254,255,255 // jmpq b02 <_sk_load_bgra_dst_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,40 // vmovd 0x28(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,195,65,34,100,153,36,1 // vpinsrd $0x1,0x24(%r9,%rbx,4),%xmm7,%xmm4
- .byte 196,227,69,2,252,15 // vpblendd $0xf,%ymm4,%ymm7,%ymm7
- .byte 196,193,121,110,100,153,32 // vmovd 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,69,2,252,1 // vpblendd $0x1,%ymm4,%ymm7,%ymm7
- .byte 233,71,254,255,255 // jmpq afc <_sk_load_bgra_dst_hsw_lowp+0x28>
- .byte 196,193,121,110,100,153,56 // vmovd 0x38(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,52,1 // vpinsrd $0x1,0x34(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,48,0 // vpinsrd $0x0,0x30(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 196,193,122,111,100,153,32 // vmovdqu 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,247,253,255,255 // jmpq b02 <_sk_load_bgra_dst_hsw_lowp+0x2e>
- .byte 144 // nop
- .byte 237 // in (%dx),%eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,151,255,255,255,137 // callq *-0x76000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,169 // mov $0xa9ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_hsw_lowp
-.globl _sk_store_bgra_hsw_lowp
-FUNCTION(_sk_store_bgra_hsw_lowp)
-_sk_store_bgra_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 197,189,113,210,7 // vpsrlw $0x7,%ymm2,%ymm8
- .byte 196,98,125,121,13,82,24,0,0 // vpbroadcastw 0x1852(%rip),%ymm9 # 25c0 <_sk_xor__hsw_lowp+0x360>
- .byte 196,65,61,234,193 // vpminsw %ymm9,%ymm8,%ymm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 197,165,113,209,7 // vpsrlw $0x7,%ymm1,%ymm11
- .byte 196,65,37,234,217 // vpminsw %ymm9,%ymm11,%ymm11
- .byte 196,66,125,51,227 // vpmovzxwd %xmm11,%ymm12
- .byte 196,67,125,57,219,1 // vextracti128 $0x1,%ymm11,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 197,149,113,208,7 // vpsrlw $0x7,%ymm0,%ymm13
- .byte 196,65,21,234,233 // vpminsw %ymm9,%ymm13,%ymm13
- .byte 196,67,125,57,238,1 // vextracti128 $0x1,%ymm13,%xmm14
- .byte 196,66,125,51,246 // vpmovzxwd %xmm14,%ymm14
- .byte 196,66,125,51,237 // vpmovzxwd %xmm13,%ymm13
- .byte 196,193,21,114,245,16 // vpslld $0x10,%ymm13,%ymm13
- .byte 196,193,13,114,246,16 // vpslld $0x10,%ymm14,%ymm14
- .byte 197,133,113,211,7 // vpsrlw $0x7,%ymm3,%ymm15
- .byte 196,65,5,234,201 // vpminsw %ymm9,%ymm15,%ymm9
- .byte 196,67,125,57,207,1 // vextracti128 $0x1,%ymm9,%xmm15
- .byte 196,66,125,51,255 // vpmovzxwd %xmm15,%ymm15
- .byte 196,66,125,51,201 // vpmovzxwd %xmm9,%ymm9
- .byte 196,193,53,114,241,24 // vpslld $0x18,%ymm9,%ymm9
- .byte 196,193,5,114,247,24 // vpslld $0x18,%ymm15,%ymm15
- .byte 196,65,61,235,198 // vpor %ymm14,%ymm8,%ymm8
- .byte 196,65,45,235,237 // vpor %ymm13,%ymm10,%ymm13
- .byte 196,65,37,235,215 // vpor %ymm15,%ymm11,%ymm10
- .byte 196,65,61,235,210 // vpor %ymm10,%ymm8,%ymm10
- .byte 196,65,29,235,193 // vpor %ymm9,%ymm12,%ymm8
- .byte 196,65,21,235,192 // vpor %ymm8,%ymm13,%ymm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,18 // jne e2a <_sk_store_bgra_hsw_lowp+0xe2>
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,126,127,84,153,32 // vmovdqu %ymm10,0x20(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,235 // ja e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,175,0,0,0 // lea 0xaf(%rip),%r11 # ef4 <_sk_store_bgra_hsw_lowp+0x1ac>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
- .byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 235,191 // jmp e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,20,1 // vpextrd $0x1,%xmm9,0x14(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
- .byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 235,142 // jmp e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 196,67,121,22,84,153,40,2 // vpextrd $0x2,%xmm10,0x28(%r9,%rbx,4)
- .byte 196,67,121,22,84,153,36,1 // vpextrd $0x1,%xmm10,0x24(%r9,%rbx,4)
- .byte 196,65,121,126,84,153,32 // vmovd %xmm10,0x20(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 233,108,255,255,255 // jmpq e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,67,121,22,76,153,56,2 // vpextrd $0x2,%xmm9,0x38(%r9,%rbx,4)
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,67,121,22,76,153,52,1 // vpextrd $0x1,%xmm9,0x34(%r9,%rbx,4)
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,65,121,126,76,153,48 // vmovd %xmm9,0x30(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,122,127,84,153,32 // vmovdqu %xmm10,0x20(%r9,%rbx,4)
- .byte 233,49,255,255,255 // jmpq e25 <_sk_store_bgra_hsw_lowp+0xdd>
- .byte 90 // pop %rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,106,255 // ljmp *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,155,255,255,255,142 // lcall *-0x71000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,128,255,255,255,114 // incl 0x72ffffff(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,179 // mov $0xb3ffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,171,255,255,255,163 // ljmp *-0x5c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_hsw_lowp
-.globl _sk_load_a8_hsw_lowp
-FUNCTION(_sk_load_a8_hsw_lowp)
-_sk_load_a8_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,46 // jne f77 <_sk_load_a8_hsw_lowp+0x47>
- .byte 196,193,122,111,4,25 // vmovdqu (%r9,%rbx,1),%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,226,125,121,13,96,22,0,0 // vpbroadcastw 0x1660(%rip),%ymm1 # 25c2 <_sk_xor__hsw_lowp+0x362>
- .byte 197,253,228,217 // vpmulhuw %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,196 // ja f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,194,0,0,0 // lea 0xc2(%rip),%r11 # 1058 <_sk_load_a8_hsw_lowp+0x128>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,165 // jmp f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm0,%xmm0
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,136 // jmp f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,91,255,255,255 // jmpq f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,46,255,255,255 // jmpq f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm1
- .byte 196,195,113,34,76,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 233,249,254,255,255 // jmpq f4f <_sk_load_a8_hsw_lowp+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 71,255 // rex.RXB (bad)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 106d <_sk_load_a8_hsw_lowp+0x13d>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_hsw_lowp
-.globl _sk_load_a8_dst_hsw_lowp
-FUNCTION(_sk_load_a8_dst_hsw_lowp)
-_sk_load_a8_dst_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,46 // jne 10db <_sk_load_a8_dst_hsw_lowp+0x47>
- .byte 196,193,122,111,36,25 // vmovdqu (%r9,%rbx,1),%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,226,125,121,45,254,20,0,0 // vpbroadcastw 0x14fe(%rip),%ymm5 # 25c4 <_sk_xor__hsw_lowp+0x364>
- .byte 197,221,228,253 // vpmulhuw %ymm5,%ymm4,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,196 // ja 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,194,0,0,0 // lea 0xc2(%rip),%r11 # 11bc <_sk_load_a8_dst_hsw_lowp+0x128>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,165 // jmp 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm4,%xmm4
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,136 // jmp 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,91,255,255,255 // jmpq 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,25 // vmovq (%r9,%rbx,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,46,255,255,255 // jmpq 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,25 // vmovq (%r9,%rbx,1),%xmm5
- .byte 196,195,81,34,108,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 233,249,254,255,255 // jmpq 10b3 <_sk_load_a8_dst_hsw_lowp+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 71,255 // rex.RXB (bad)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,139,255,255,255,131 // decl -0x7c000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 11d1 <_sk_load_a8_dst_hsw_lowp+0x13d>
- .byte 255 // (bad)
- .byte 255,111,255 // ljmp *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_hsw_lowp
-.globl _sk_store_a8_hsw_lowp
-FUNCTION(_sk_store_a8_hsw_lowp)
-_sk_store_a8_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 197,189,113,211,7 // vpsrlw $0x7,%ymm3,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,57,103,193 // vpackuswb %xmm9,%xmm8,%xmm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne 122c <_sk_store_a8_hsw_lowp+0x34>
- .byte 196,65,122,127,4,25 // vmovdqu %xmm8,(%r9,%rbx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,235 // ja 1227 <_sk_store_a8_hsw_lowp+0x2f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,137,0,0,0 // lea 0x89(%rip),%r11 # 12d0 <_sk_store_a8_hsw_lowp+0xd8>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,4,25,0 // vpextrb $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,206 // jmp 1227 <_sk_store_a8_hsw_lowp+0x2f>
- .byte 196,67,121,20,68,25,2,2 // vpextrb $0x2,%xmm8,0x2(%r9,%rbx,1)
- .byte 196,67,121,21,4,25,0 // vpextrw $0x0,%xmm8,(%r9,%rbx,1)
- .byte 235,189 // jmp 1227 <_sk_store_a8_hsw_lowp+0x2f>
- .byte 196,67,121,20,68,25,6,6 // vpextrb $0x6,%xmm8,0x6(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,5,5 // vpextrb $0x5,%xmm8,0x5(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,4,4 // vpextrb $0x4,%xmm8,0x4(%r9,%rbx,1)
- .byte 196,65,121,126,4,25 // vmovd %xmm8,(%r9,%rbx,1)
- .byte 235,157 // jmp 1227 <_sk_store_a8_hsw_lowp+0x2f>
- .byte 196,67,121,20,68,25,10,10 // vpextrb $0xa,%xmm8,0xa(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,9,9 // vpextrb $0x9,%xmm8,0x9(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,8,8 // vpextrb $0x8,%xmm8,0x8(%r9,%rbx,1)
- .byte 235,32 // jmp 12c4 <_sk_store_a8_hsw_lowp+0xcc>
- .byte 196,67,121,20,68,25,14,14 // vpextrb $0xe,%xmm8,0xe(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,13,13 // vpextrb $0xd,%xmm8,0xd(%r9,%rbx,1)
- .byte 196,67,121,20,68,25,12,12 // vpextrb $0xc,%xmm8,0xc(%r9,%rbx,1)
- .byte 196,67,121,22,68,25,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,1)
- .byte 196,65,121,214,4,25 // vmovq %xmm8,(%r9,%rbx,1)
- .byte 233,88,255,255,255 // jmpq 1227 <_sk_store_a8_hsw_lowp+0x2f>
- .byte 144 // nop
- .byte 128,255,255 // cmp $0xff,%bh
- .byte 255,145,255,255,255,137 // callq *-0x76000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,170 // pushq -0x55000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,162,255,255,255,154 // jmpq *-0x65000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,244 // push %rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,236 // mov $0xecffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_hsw_lowp
-.globl _sk_load_g8_hsw_lowp
-FUNCTION(_sk_load_g8_hsw_lowp)
-_sk_load_g8_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,51 // jne 1358 <_sk_load_g8_hsw_lowp+0x4c>
- .byte 196,193,122,111,4,25 // vmovdqu (%r9,%rbx,1),%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 197,253,113,240,8 // vpsllw $0x8,%ymm0,%ymm0
- .byte 196,226,125,121,13,136,18,0,0 // vpbroadcastw 0x1288(%rip),%ymm1 # 25c6 <_sk_xor__hsw_lowp+0x366>
- .byte 197,253,228,193 // vpmulhuw %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,123,18,0,0 // vpbroadcastw 0x127b(%rip),%ymm3 # 25c8 <_sk_xor__hsw_lowp+0x368>
- .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
- .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,191 // ja 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,193,0,0,0 // lea 0xc1(%rip),%r11 # 1438 <_sk_load_g8_hsw_lowp+0x12c>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,160 // jmp 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm0,%xmm0
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,131 // jmp 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,86,255,255,255 // jmpq 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,41,255,255,255 // jmpq 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm1
- .byte 196,195,113,34,76,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 233,244,254,255,255 // jmpq 132b <_sk_load_g8_hsw_lowp+0x1f>
- .byte 144 // nop
- .byte 72,255 // rex.W (bad)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,140,255,255,255,132,255 // decl -0x7b0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 124,255 // jl 144d <_sk_load_g8_hsw_lowp+0x141>
- .byte 255 // (bad)
- .byte 255,112,255 // pushq -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 185,255,255,255,177 // mov $0xb1ffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,169,255,255,255,157 // ljmp *-0x62000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_hsw_lowp
-.globl _sk_load_g8_dst_hsw_lowp
-FUNCTION(_sk_load_g8_dst_hsw_lowp)
-_sk_load_g8_dst_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,51 // jne 14c0 <_sk_load_g8_dst_hsw_lowp+0x4c>
- .byte 196,193,122,111,36,25 // vmovdqu (%r9,%rbx,1),%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,226,125,121,45,36,17,0,0 // vpbroadcastw 0x1124(%rip),%ymm5 # 25ca <_sk_xor__hsw_lowp+0x36a>
- .byte 197,221,228,229 // vpmulhuw %ymm5,%ymm4,%ymm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,23,17,0,0 // vpbroadcastw 0x1117(%rip),%ymm7 # 25cc <_sk_xor__hsw_lowp+0x36c>
- .byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
- .byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,191 // ja 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,193,0,0,0 // lea 0xc1(%rip),%r11 # 15a0 <_sk_load_g8_dst_hsw_lowp+0x12c>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,160 // jmp 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm4,%xmm4
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,131 // jmp 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,121,110,44,25 // vmovd (%r9,%rbx,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,86,255,255,255 // jmpq 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,25 // vmovq (%r9,%rbx,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,41,255,255,255 // jmpq 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,25 // vmovq (%r9,%rbx,1),%xmm5
- .byte 196,195,81,34,108,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 233,244,254,255,255 // jmpq 1493 <_sk_load_g8_dst_hsw_lowp+0x1f>
- .byte 144 // nop
- .byte 72,255 // rex.W (bad)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,140,255,255,255,132,255 // decl -0x7b0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 124,255 // jl 15b5 <_sk_load_g8_dst_hsw_lowp+0x141>
- .byte 255 // (bad)
- .byte 255,112,255 // pushq -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 185,255,255,255,177 // mov $0xb1ffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,169,255,255,255,157 // ljmp *-0x62000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_rgba_8888_hsw_lowp
-.globl _sk_srcover_rgba_8888_hsw_lowp
-FUNCTION(_sk_srcover_rgba_8888_hsw_lowp)
-_sk_srcover_rgba_8888_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,221,1,0,0 // jne 17da <_sk_srcover_rgba_8888_hsw_lowp+0x1fe>
- .byte 196,193,126,111,124,153,32 // vmovdqu 0x20(%r9,%rbx,4),%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 197,253,111,37,206,15,0,0 // vmovdqa 0xfce(%rip),%ymm4 # 25e0 <_sk_xor__hsw_lowp+0x380>
- .byte 196,226,61,0,236 // vpshufb %ymm4,%ymm8,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,226,69,0,228 // vpshufb %ymm4,%ymm7,%ymm4
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,98,125,121,13,201,15,0,0 // vpbroadcastw 0xfc9(%rip),%ymm9 # 2600 <_sk_xor__hsw_lowp+0x3a0>
- .byte 197,221,113,244,8 // vpsllw $0x8,%ymm4,%ymm4
- .byte 196,98,125,121,21,189,15,0,0 // vpbroadcastw 0xfbd(%rip),%ymm10 # 2602 <_sk_xor__hsw_lowp+0x3a2>
- .byte 196,193,93,228,226 // vpmulhuw %ymm10,%ymm4,%ymm4
- .byte 197,253,111,45,206,15,0,0 // vmovdqa 0xfce(%rip),%ymm5 # 2620 <_sk_xor__hsw_lowp+0x3c0>
- .byte 196,226,61,0,245 // vpshufb %ymm5,%ymm8,%ymm6
- .byte 196,227,253,0,246,232 // vpermq $0xe8,%ymm6,%ymm6
- .byte 196,226,69,0,237 // vpshufb %ymm5,%ymm7,%ymm5
- .byte 196,227,253,0,237,232 // vpermq $0xe8,%ymm5,%ymm5
- .byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 197,213,113,245,8 // vpsllw $0x8,%ymm5,%ymm5
- .byte 196,193,85,228,234 // vpmulhuw %ymm10,%ymm5,%ymm5
- .byte 197,253,111,53,192,15,0,0 // vmovdqa 0xfc0(%rip),%ymm6 # 2640 <_sk_xor__hsw_lowp+0x3e0>
- .byte 196,98,61,0,222 // vpshufb %ymm6,%ymm8,%ymm11
- .byte 196,67,253,0,219,232 // vpermq $0xe8,%ymm11,%ymm11
- .byte 196,226,69,0,246 // vpshufb %ymm6,%ymm7,%ymm6
- .byte 196,227,253,0,246,232 // vpermq $0xe8,%ymm6,%ymm6
- .byte 196,227,37,56,246,1 // vinserti128 $0x1,%xmm6,%ymm11,%ymm6
- .byte 197,205,113,246,8 // vpsllw $0x8,%ymm6,%ymm6
- .byte 196,193,77,228,242 // vpmulhuw %ymm10,%ymm6,%ymm6
- .byte 197,125,111,29,178,15,0,0 // vmovdqa 0xfb2(%rip),%ymm11 # 2660 <_sk_xor__hsw_lowp+0x400>
- .byte 196,66,61,0,195 // vpshufb %ymm11,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 196,194,69,0,251 // vpshufb %ymm11,%ymm7,%ymm7
- .byte 196,227,253,0,255,232 // vpermq $0xe8,%ymm7,%ymm7
- .byte 196,227,61,56,255,1 // vinserti128 $0x1,%xmm7,%ymm8,%ymm7
- .byte 197,197,113,247,8 // vpsllw $0x8,%ymm7,%ymm7
- .byte 196,193,69,228,250 // vpmulhuw %ymm10,%ymm7,%ymm7
- .byte 196,98,125,121,5,163,15,0,0 // vpbroadcastw 0xfa3(%rip),%ymm8 # 2680 <_sk_xor__hsw_lowp+0x420>
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,66,93,11,208 // vpmulhrsw %ymm8,%ymm4,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,66,85,11,208 // vpmulhrsw %ymm8,%ymm5,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,66,77,11,208 // vpmulhrsw %ymm8,%ymm6,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,66,69,11,192 // vpmulhrsw %ymm8,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,189,113,208,7 // vpsrlw $0x7,%ymm0,%ymm8
- .byte 196,65,61,234,193 // vpminsw %ymm9,%ymm8,%ymm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 197,165,113,209,7 // vpsrlw $0x7,%ymm1,%ymm11
- .byte 196,65,37,234,217 // vpminsw %ymm9,%ymm11,%ymm11
- .byte 196,67,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm12
- .byte 196,66,125,51,228 // vpmovzxwd %xmm12,%ymm12
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 197,149,113,210,7 // vpsrlw $0x7,%ymm2,%ymm13
- .byte 196,65,21,234,233 // vpminsw %ymm9,%ymm13,%ymm13
- .byte 196,66,125,51,245 // vpmovzxwd %xmm13,%ymm14
- .byte 196,67,125,57,237,1 // vextracti128 $0x1,%ymm13,%xmm13
- .byte 196,66,125,51,237 // vpmovzxwd %xmm13,%ymm13
- .byte 196,193,21,114,245,16 // vpslld $0x10,%ymm13,%ymm13
- .byte 196,193,13,114,246,16 // vpslld $0x10,%ymm14,%ymm14
- .byte 197,133,113,211,7 // vpsrlw $0x7,%ymm3,%ymm15
- .byte 196,65,5,234,201 // vpminsw %ymm9,%ymm15,%ymm9
- .byte 196,67,125,57,207,1 // vextracti128 $0x1,%ymm9,%xmm15
- .byte 196,66,125,51,255 // vpmovzxwd %xmm15,%ymm15
- .byte 196,66,125,51,201 // vpmovzxwd %xmm9,%ymm9
- .byte 196,193,53,114,241,24 // vpslld $0x18,%ymm9,%ymm9
- .byte 196,193,5,114,247,24 // vpslld $0x18,%ymm15,%ymm15
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,37,235,218 // vpor %ymm10,%ymm11,%ymm11
- .byte 196,65,21,235,215 // vpor %ymm15,%ymm13,%ymm10
- .byte 196,65,61,235,210 // vpor %ymm10,%ymm8,%ymm10
- .byte 196,65,13,235,193 // vpor %ymm9,%ymm14,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,78 // jne 1816 <_sk_srcover_rgba_8888_hsw_lowp+0x23a>
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,126,127,84,153,32 // vmovdqu %ymm10,0x20(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,19,254,255,255 // ja 160a <_sk_srcover_rgba_8888_hsw_lowp+0x2e>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,238,1,0,0 // lea 0x1ee(%rip),%r11 # 19f0 <_sk_srcover_rgba_8888_hsw_lowp+0x414>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,110,4,153 // vmovd (%r9,%rbx,4),%xmm8
- .byte 233,244,253,255,255 // jmpq 160a <_sk_srcover_rgba_8888_hsw_lowp+0x2e>
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,175 // ja 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 65,15,182,194 // movzbl %r10b,%eax
- .byte 76,141,21,251,1,0,0 // lea 0x1fb(%rip),%r10 # 1a2c <_sk_srcover_rgba_8888_hsw_lowp+0x450>
- .byte 73,99,4,130 // movslq (%r10,%rax,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,153 // vmovd %xmm8,(%r9,%rbx,4)
- .byte 235,147 // jmp 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 196,193,121,110,100,153,8 // vmovd 0x8(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm8
- .byte 196,194,121,53,36,153 // vpmovzxdq (%r9,%rbx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,99,61,2,196,3 // vpblendd $0x3,%ymm4,%ymm8,%ymm8
- .byte 233,156,253,255,255 // jmpq 160a <_sk_srcover_rgba_8888_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,24 // vmovd 0x18(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,99,69,2,196,64 // vpblendd $0x40,%ymm4,%ymm7,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,20,1 // vpinsrd $0x1,0x14(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,99,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm4
- .byte 196,195,89,34,100,153,16,0 // vpinsrd $0x0,0x10(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,99,61,56,196,1 // vinserti128 $0x1,%xmm4,%ymm8,%ymm8
- .byte 196,193,122,111,36,153 // vmovdqu (%r9,%rbx,4),%xmm4
- .byte 196,67,93,2,192,240 // vpblendd $0xf0,%ymm8,%ymm4,%ymm8
- .byte 233,77,253,255,255 // jmpq 160a <_sk_srcover_rgba_8888_hsw_lowp+0x2e>
- .byte 196,193,121,110,100,153,40 // vmovd 0x28(%r9,%rbx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,195,65,34,100,153,36,1 // vpinsrd $0x1,0x24(%r9,%rbx,4),%xmm7,%xmm4
- .byte 196,227,69,2,252,15 // vpblendd $0xf,%ymm4,%ymm7,%ymm7
- .byte 196,193,121,110,100,153,32 // vmovd 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,69,2,252,1 // vpblendd $0x1,%ymm4,%ymm7,%ymm7
- .byte 233,17,253,255,255 // jmpq 1604 <_sk_srcover_rgba_8888_hsw_lowp+0x28>
- .byte 196,193,121,110,100,153,56 // vmovd 0x38(%r9,%rbx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,52,1 // vpinsrd $0x1,0x34(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,153,48,0 // vpinsrd $0x0,0x30(%r9,%rbx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,65,126,111,4,153 // vmovdqu (%r9,%rbx,4),%ymm8
- .byte 196,193,122,111,100,153,32 // vmovdqu 0x20(%r9,%rbx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,193,252,255,255 // jmpq 160a <_sk_srcover_rgba_8888_hsw_lowp+0x2e>
- .byte 196,67,121,22,68,153,8,2 // vpextrd $0x2,%xmm8,0x8(%r9,%rbx,4)
- .byte 196,65,121,214,4,153 // vmovq %xmm8,(%r9,%rbx,4)
- .byte 233,121,254,255,255 // jmpq 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,24,2 // vpextrd $0x2,%xmm9,0x18(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,153,20,1 // vpextrd $0x1,%xmm9,0x14(%r9,%rbx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,153,16 // vmovd %xmm9,0x10(%r9,%rbx,4)
- .byte 196,65,122,127,4,153 // vmovdqu %xmm8,(%r9,%rbx,4)
- .byte 233,69,254,255,255 // jmpq 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 196,67,121,22,84,153,40,2 // vpextrd $0x2,%xmm10,0x28(%r9,%rbx,4)
- .byte 196,67,121,22,84,153,36,1 // vpextrd $0x1,%xmm10,0x24(%r9,%rbx,4)
- .byte 196,65,121,126,84,153,32 // vmovd %xmm10,0x20(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 233,35,254,255,255 // jmpq 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,67,121,22,76,153,56,2 // vpextrd $0x2,%xmm9,0x38(%r9,%rbx,4)
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,67,121,22,76,153,52,1 // vpextrd $0x1,%xmm9,0x34(%r9,%rbx,4)
- .byte 196,67,125,57,209,1 // vextracti128 $0x1,%ymm10,%xmm9
- .byte 196,65,121,126,76,153,48 // vmovd %xmm9,0x30(%r9,%rbx,4)
- .byte 196,65,126,127,4,153 // vmovdqu %ymm8,(%r9,%rbx,4)
- .byte 196,65,122,127,84,153,32 // vmovdqu %xmm10,0x20(%r9,%rbx,4)
- .byte 233,232,253,255,255 // jmpq 17d5 <_sk_srcover_rgba_8888_hsw_lowp+0x1f9>
- .byte 15,31,0 // nopl (%rax)
- .byte 27,254 // sbb %esi,%edi
- .byte 255 // (bad)
- .byte 255,104,254 // ljmp *-0x2(%rax)
- .byte 255 // (bad)
- .byte 255,82,254 // callq *-0x2(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,254,255,255,168 // mov $0xa8fffffe,%esp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,148,254,255,255,126,254 // callq *-0x1810001(%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,20,252 // callq *(%rsp,%rdi,8)
- .byte 255 // (bad)
- .byte 255,241 // push %rcx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,45,255,255,255,25 // ljmp *0x19ffffff(%rip) # 1a001a24 <_sk_xor__hsw_lowp+0x19fff7c4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,37,255,255,255,29 // jmpq *0x1dffffff(%rip) # 1e001a34 <_sk_xor__hsw_lowp+0x1dfff7d4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 62,255 // ds (bad)
- .byte 255 // (bad)
- .byte 255,48 // pushq (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 1a49 <_sk_srcover_rgba_8888_hsw_lowp+0x46d>
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,175,255,255,255,162 // ljmp *-0x5d000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,148,255,255,255,134,255 // callq *-0x790001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_1_float_hsw_lowp
-.globl _sk_scale_1_float_hsw_lowp
-FUNCTION(_sk_scale_1_float_hsw_lowp)
-_sk_scale_1_float_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,58,88,5,106,8,0,0 // vaddss 0x86a(%rip),%xmm8,%xmm8 # 22e0 <_sk_xor__hsw_lowp+0x80>
- .byte 197,121,126,192 // vmovd %xmm8,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_hsw_lowp
-.globl _sk_scale_u8_hsw_lowp
-FUNCTION(_sk_scale_u8_hsw_lowp)
-_sk_scale_u8_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,76 // jne 1b14 <_sk_scale_u8_hsw_lowp+0x65>
- .byte 196,65,122,111,4,25 // vmovdqu (%r9,%rbx,1),%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,193,61,113,240,8 // vpsllw $0x8,%ymm8,%ymm8
- .byte 196,98,125,121,13,160,11,0,0 // vpbroadcastw 0xba0(%rip),%ymm9 # 2682 <_sk_xor__hsw_lowp+0x422>
- .byte 196,65,61,228,193 // vpmulhuw %ymm9,%ymm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,165 // ja 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,200,0,0,0 // lea 0xc8(%rip),%r11 # 1bfc <_sk_scale_u8_hsw_lowp+0x14d>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,134 // jmp 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm8,%xmm8
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,101,255,255,255 // jmpq 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,9,255,255,255 // jmpq 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm9
- .byte 196,67,49,34,76,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm9,%xmm9
- .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
- .byte 233,211,254,255,255 // jmpq 1ace <_sk_scale_u8_hsw_lowp+0x1f>
- .byte 144 // nop
- .byte 65,255 // rex.B (bad)
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8)
- .byte 255,138,255,255,255,130 // decl -0x7d000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 122,255 // jp 1c11 <_sk_scale_u8_hsw_lowp+0x162>
- .byte 255 // (bad)
- .byte 255,109,255 // ljmp *-0x1(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184,255,255,255,176 // mov $0xb0ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,155 // ljmp *-0x64000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_hsw_lowp
-.globl _sk_lerp_1_float_hsw_lowp
-FUNCTION(_sk_lerp_1_float_hsw_lowp)
-_sk_lerp_1_float_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,58,88,5,158,6,0,0 // vaddss 0x69e(%rip),%xmm8,%xmm8 # 22e4 <_sk_xor__hsw_lowp+0x84>
- .byte 197,121,126,192 // vmovd %xmm8,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,98,125,121,13,30,10,0,0 // vpbroadcastw 0xa1e(%rip),%ymm9 # 2684 <_sk_xor__hsw_lowp+0x424>
- .byte 196,65,53,249,200 // vpsubw %ymm8,%ymm9,%ymm9
- .byte 196,66,93,11,209 // vpmulhrsw %ymm9,%ymm4,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,66,85,11,209 // vpmulhrsw %ymm9,%ymm5,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,66,77,11,209 // vpmulhrsw %ymm9,%ymm6,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 196,66,69,11,193 // vpmulhrsw %ymm9,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_hsw_lowp
-.globl _sk_lerp_u8_hsw_lowp
-FUNCTION(_sk_lerp_u8_hsw_lowp)
-_sk_lerp_u8_hsw_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,146,0,0,0 // jne 1d74 <_sk_lerp_u8_hsw_lowp+0xaf>
- .byte 196,65,122,111,4,25 // vmovdqu (%r9,%rbx,1),%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,193,61,113,240,8 // vpsllw $0x8,%ymm8,%ymm8
- .byte 196,98,125,121,13,138,9,0,0 // vpbroadcastw 0x98a(%rip),%ymm9 # 2686 <_sk_xor__hsw_lowp+0x426>
- .byte 196,65,61,228,193 // vpmulhuw %ymm9,%ymm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,98,125,121,13,116,9,0,0 // vpbroadcastw 0x974(%rip),%ymm9 # 2688 <_sk_xor__hsw_lowp+0x428>
- .byte 196,65,53,249,200 // vpsubw %ymm8,%ymm9,%ymm9
- .byte 196,66,93,11,209 // vpmulhrsw %ymm9,%ymm4,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,66,85,11,209 // vpmulhrsw %ymm9,%ymm5,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,66,77,11,209 // vpmulhrsw %ymm9,%ymm6,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 196,66,69,11,193 // vpmulhrsw %ymm9,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 15,135,91,255,255,255 // ja 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,204,0,0,0 // lea 0xcc(%rip),%r11 # 1e64 <_sk_lerp_u8_hsw_lowp+0x19f>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,57,255,255,255 // jmpq 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,2,2 // vpinsrb $0x2,0x2(%r9,%rbx,1),%xmm8,%xmm8
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,24,255,255,255 // jmpq 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,6,6 // vpinsrb $0x6,0x6(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,5,5 // vpinsrb $0x5,0x5(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,4,4 // vpinsrb $0x4,0x4(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,121,110,12,25 // vmovd (%r9,%rbx,1),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,234,254,255,255 // jmpq 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,10,10 // vpinsrb $0xa,0xa(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,9,9 // vpinsrb $0x9,0x9(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,8,8 // vpinsrb $0x8,0x8(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,188,254,255,255 // jmpq 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,25,14,14 // vpinsrb $0xe,0xe(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,13,13 // vpinsrb $0xd,0xd(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,25,12,12 // vpinsrb $0xc,0xc(%r9,%rbx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,25 // vmovq (%r9,%rbx,1),%xmm9
- .byte 196,67,49,34,76,25,8,2 // vpinsrd $0x2,0x8(%r9,%rbx,1),%xmm9,%xmm9
- .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
- .byte 233,134,254,255,255 // jmpq 1ce8 <_sk_lerp_u8_hsw_lowp+0x23>
- .byte 102,144 // xchg %ax,%ax
- .byte 61,255,255,255,88 // cmp $0x58ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,75,255 // decl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,137,255,255,255,129 // decl -0x7e000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 121,255 // jns 1e79 <_sk_lerp_u8_hsw_lowp+0x1b4>
- .byte 255 // (bad)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,183,255,255,255,175 // pushq -0x50000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,167,255,255,255,154 // jmpq *-0x65000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_swap_rb_hsw_lowp
-.globl _sk_swap_rb_hsw_lowp
-FUNCTION(_sk_swap_rb_hsw_lowp)
-_sk_swap_rb_hsw_lowp:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_hsw_lowp
-.globl _sk_move_src_dst_hsw_lowp
-FUNCTION(_sk_move_src_dst_hsw_lowp)
-_sk_move_src_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_hsw_lowp
-.globl _sk_move_dst_src_hsw_lowp
-FUNCTION(_sk_move_dst_src_hsw_lowp)
-_sk_move_dst_src_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
- .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_hsw_lowp
-.globl _sk_clear_hsw_lowp
-FUNCTION(_sk_clear_hsw_lowp)
-_sk_clear_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_hsw_lowp
-.globl _sk_srcatop_hsw_lowp
-FUNCTION(_sk_srcatop_hsw_lowp)
-_sk_srcatop_hsw_lowp:
- .byte 196,226,125,11,199 // vpmulhrsw %ymm7,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,98,125,121,5,139,7,0,0 // vpbroadcastw 0x78b(%rip),%ymm8 # 268a <_sk_xor__hsw_lowp+0x42a>
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,66,93,11,200 // vpmulhrsw %ymm8,%ymm4,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 196,226,117,11,207 // vpmulhrsw %ymm7,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,66,85,11,200 // vpmulhrsw %ymm8,%ymm5,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,201 // vpaddw %ymm1,%ymm9,%ymm1
- .byte 196,226,109,11,215 // vpmulhrsw %ymm7,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,66,77,11,200 // vpmulhrsw %ymm8,%ymm6,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,210 // vpaddw %ymm2,%ymm9,%ymm2
- .byte 196,226,101,11,223 // vpmulhrsw %ymm7,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 196,66,69,11,192 // vpmulhrsw %ymm8,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_hsw_lowp
-.globl _sk_dstatop_hsw_lowp
-FUNCTION(_sk_dstatop_hsw_lowp)
-_sk_dstatop_hsw_lowp:
- .byte 196,98,93,11,195 // vpmulhrsw %ymm3,%ymm4,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 196,98,125,121,13,28,7,0,0 // vpbroadcastw 0x71c(%rip),%ymm9 # 268c <_sk_xor__hsw_lowp+0x42c>
- .byte 197,53,249,207 // vpsubw %ymm7,%ymm9,%ymm9
- .byte 196,194,125,11,193 // vpmulhrsw %ymm9,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 196,98,85,11,195 // vpmulhrsw %ymm3,%ymm5,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 196,194,117,11,201 // vpmulhrsw %ymm9,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 196,98,77,11,195 // vpmulhrsw %ymm3,%ymm6,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 196,194,109,11,209 // vpmulhrsw %ymm9,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 196,98,69,11,195 // vpmulhrsw %ymm3,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 196,194,101,11,217 // vpmulhrsw %ymm9,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_hsw_lowp
-.globl _sk_srcin_hsw_lowp
-FUNCTION(_sk_srcin_hsw_lowp)
-_sk_srcin_hsw_lowp:
- .byte 196,226,125,11,199 // vpmulhrsw %ymm7,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,226,117,11,207 // vpmulhrsw %ymm7,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,226,109,11,215 // vpmulhrsw %ymm7,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,226,101,11,223 // vpmulhrsw %ymm7,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_hsw_lowp
-.globl _sk_dstin_hsw_lowp
-FUNCTION(_sk_dstin_hsw_lowp)
-_sk_dstin_hsw_lowp:
- .byte 196,226,93,11,195 // vpmulhrsw %ymm3,%ymm4,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,226,85,11,203 // vpmulhrsw %ymm3,%ymm5,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,226,77,11,211 // vpmulhrsw %ymm3,%ymm6,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,226,69,11,219 // vpmulhrsw %ymm3,%ymm7,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_hsw_lowp
-.globl _sk_srcout_hsw_lowp
-FUNCTION(_sk_srcout_hsw_lowp)
-_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,91,6,0,0 // vpbroadcastw 0x65b(%rip),%ymm8 # 268e <_sk_xor__hsw_lowp+0x42e>
- .byte 197,61,249,199 // vpsubw %ymm7,%ymm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_hsw_lowp
-.globl _sk_dstout_hsw_lowp
-FUNCTION(_sk_dstout_hsw_lowp)
-_sk_dstout_hsw_lowp:
- .byte 196,226,125,121,5,36,6,0,0 // vpbroadcastw 0x624(%rip),%ymm0 # 2690 <_sk_xor__hsw_lowp+0x430>
- .byte 197,253,249,219 // vpsubw %ymm3,%ymm0,%ymm3
- .byte 196,226,93,11,195 // vpmulhrsw %ymm3,%ymm4,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,226,85,11,203 // vpmulhrsw %ymm3,%ymm5,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,226,77,11,211 // vpmulhrsw %ymm3,%ymm6,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,226,69,11,219 // vpmulhrsw %ymm3,%ymm7,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_hsw_lowp
-.globl _sk_srcover_hsw_lowp
-FUNCTION(_sk_srcover_hsw_lowp)
-_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,237,5,0,0 // vpbroadcastw 0x5ed(%rip),%ymm8 # 2692 <_sk_xor__hsw_lowp+0x432>
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,66,93,11,200 // vpmulhrsw %ymm8,%ymm4,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 196,66,85,11,200 // vpmulhrsw %ymm8,%ymm5,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,201 // vpaddw %ymm1,%ymm9,%ymm1
- .byte 196,66,77,11,200 // vpmulhrsw %ymm8,%ymm6,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,210 // vpaddw %ymm2,%ymm9,%ymm2
- .byte 196,66,69,11,192 // vpmulhrsw %ymm8,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_hsw_lowp
-.globl _sk_dstover_hsw_lowp
-FUNCTION(_sk_dstover_hsw_lowp)
-_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,166,5,0,0 // vpbroadcastw 0x5a6(%rip),%ymm8 # 2694 <_sk_xor__hsw_lowp+0x434>
- .byte 197,61,249,199 // vpsubw %ymm7,%ymm8,%ymm8
- .byte 196,194,125,11,192 // vpmulhrsw %ymm8,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 197,253,253,196 // vpaddw %ymm4,%ymm0,%ymm0
- .byte 196,194,117,11,200 // vpmulhrsw %ymm8,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 197,245,253,205 // vpaddw %ymm5,%ymm1,%ymm1
- .byte 196,194,109,11,208 // vpmulhrsw %ymm8,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 197,237,253,214 // vpaddw %ymm6,%ymm2,%ymm2
- .byte 196,194,101,11,216 // vpmulhrsw %ymm8,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 197,229,253,223 // vpaddw %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_hsw_lowp
-.globl _sk_modulate_hsw_lowp
-FUNCTION(_sk_modulate_hsw_lowp)
-_sk_modulate_hsw_lowp:
- .byte 196,226,125,11,196 // vpmulhrsw %ymm4,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 196,226,117,11,205 // vpmulhrsw %ymm5,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,226,109,11,214 // vpmulhrsw %ymm6,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,226,101,11,223 // vpmulhrsw %ymm7,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_hsw_lowp
-.globl _sk_multiply_hsw_lowp
-FUNCTION(_sk_multiply_hsw_lowp)
-_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,51,5,0,0 // vpbroadcastw 0x533(%rip),%ymm8 # 2696 <_sk_xor__hsw_lowp+0x436>
- .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
- .byte 196,66,125,11,209 // vpmulhrsw %ymm9,%ymm0,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,66,93,11,216 // vpmulhrsw %ymm8,%ymm4,%ymm11
- .byte 196,66,125,29,219 // vpabsw %ymm11,%ymm11
- .byte 196,65,37,253,210 // vpaddw %ymm10,%ymm11,%ymm10
- .byte 196,226,125,11,196 // vpmulhrsw %ymm4,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,66,117,11,209 // vpmulhrsw %ymm9,%ymm1,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 196,66,85,11,216 // vpmulhrsw %ymm8,%ymm5,%ymm11
- .byte 196,66,125,29,219 // vpabsw %ymm11,%ymm11
- .byte 196,65,37,253,210 // vpaddw %ymm10,%ymm11,%ymm10
- .byte 196,226,117,11,205 // vpmulhrsw %ymm5,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,66,109,11,209 // vpmulhrsw %ymm9,%ymm2,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 196,66,77,11,216 // vpmulhrsw %ymm8,%ymm6,%ymm11
- .byte 196,66,125,29,219 // vpabsw %ymm11,%ymm11
- .byte 196,65,37,253,210 // vpaddw %ymm10,%ymm11,%ymm10
- .byte 196,226,109,11,214 // vpmulhrsw %ymm6,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,66,101,11,201 // vpmulhrsw %ymm9,%ymm3,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 196,66,69,11,192 // vpmulhrsw %ymm8,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,226,101,11,223 // vpmulhrsw %ymm7,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_hsw_lowp
-.globl _sk_screen_hsw_lowp
-FUNCTION(_sk_screen_hsw_lowp)
-_sk_screen_hsw_lowp:
- .byte 196,98,125,121,5,132,4,0,0 // vpbroadcastw 0x484(%rip),%ymm8 # 2698 <_sk_xor__hsw_lowp+0x438>
- .byte 197,61,249,200 // vpsubw %ymm0,%ymm8,%ymm9
- .byte 196,98,53,11,204 // vpmulhrsw %ymm4,%ymm9,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 197,61,249,201 // vpsubw %ymm1,%ymm8,%ymm9
- .byte 196,98,53,11,205 // vpmulhrsw %ymm5,%ymm9,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,201 // vpaddw %ymm1,%ymm9,%ymm1
- .byte 197,61,249,202 // vpsubw %ymm2,%ymm8,%ymm9
- .byte 196,98,53,11,206 // vpmulhrsw %ymm6,%ymm9,%ymm9
- .byte 196,66,125,29,201 // vpabsw %ymm9,%ymm9
- .byte 197,181,253,210 // vpaddw %ymm2,%ymm9,%ymm2
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,98,61,11,199 // vpmulhrsw %ymm7,%ymm8,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__hsw_lowp
-.globl _sk_xor__hsw_lowp
-FUNCTION(_sk_xor__hsw_lowp)
-_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,49,4,0,0 // vpbroadcastw 0x431(%rip),%ymm8 # 269a <_sk_xor__hsw_lowp+0x43a>
- .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
- .byte 196,194,125,11,193 // vpmulhrsw %ymm9,%ymm0,%ymm0
- .byte 196,226,125,29,192 // vpabsw %ymm0,%ymm0
- .byte 197,61,249,195 // vpsubw %ymm3,%ymm8,%ymm8
- .byte 196,66,93,11,208 // vpmulhrsw %ymm8,%ymm4,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,194,117,11,201 // vpmulhrsw %ymm9,%ymm1,%ymm1
- .byte 196,226,125,29,201 // vpabsw %ymm1,%ymm1
- .byte 196,66,85,11,208 // vpmulhrsw %ymm8,%ymm5,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,194,109,11,209 // vpmulhrsw %ymm9,%ymm2,%ymm2
- .byte 196,226,125,29,210 // vpabsw %ymm2,%ymm2
- .byte 196,66,77,11,208 // vpmulhrsw %ymm8,%ymm6,%ymm10
- .byte 196,66,125,29,210 // vpabsw %ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,194,101,11,217 // vpmulhrsw %ymm9,%ymm3,%ymm3
- .byte 196,226,125,29,219 // vpabsw %ymm3,%ymm3
- .byte 196,66,69,11,192 // vpmulhrsw %ymm8,%ymm7,%ymm8
- .byte 196,66,125,29,192 // vpabsw %ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-BALIGN4
- .byte 0,0 // add %al,(%rax)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128 // .byte 0x80
- .byte 67 // rex.XB
-
-BALIGN32
- .byte 0,128,0,128,0,0 // add %al,0x8000(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,0,1 // addb $0x1,(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,129,128,0,0,0,0 // addb $0x0,0x80(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,2 // add %eax,(%rdx)
- .byte 5,6,9,10,13 // add $0xd0a0906,%eax
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 18,21,22,25,26,29 // adc 0x1d1a1916(%rip),%dl # 1d1a3c8d <_sk_xor__hsw_lowp+0x1d1a1a2d>
- .byte 30 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 19,22 // adc (%rsi),%edx
- .byte 23 // (bad)
- .byte 26,27 // sbb (%rbx),%bl
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 1,4,5,8,9,12,13 // add %eax,0xd0c0908(,%rax,1)
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,0,1 // addb $0x1,(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,129,128,0,0,0,0 // addb $0x0,0x80(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,2 // add %eax,(%rdx)
- .byte 5,6,9,10,13 // add $0xd0a0906,%eax
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 18,21,22,25,26,29 // adc 0x1d1a1916(%rip),%dl # 1d1a3d2d <_sk_xor__hsw_lowp+0x1d1a1acd>
- .byte 30 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 19,22 // adc (%rsi),%edx
- .byte 23 // (bad)
- .byte 26,27 // sbb (%rbx),%bl
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,0,1 // addb $0x1,(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,129,128,0,0,0,0 // addb $0x0,0x80(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,2 // add %eax,(%rdx)
- .byte 5,6,9,10,13 // add $0xd0a0906,%eax
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 18,21,22,25,26,29 // adc 0x1d1a1916(%rip),%dl # 1d1a3ded <_sk_xor__hsw_lowp+0x1d1a1b8d>
- .byte 30 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 19,22 // adc (%rsi),%edx
- .byte 23 // (bad)
- .byte 26,27 // sbb (%rbx),%bl
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 1,4,5,8,9,12,13 // add %eax,0xd0c0908(,%rax,1)
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,0,1 // addb $0x1,(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,129,128,0,0,0,0 // addb $0x0,0x80(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,2 // add %eax,(%rdx)
- .byte 5,6,9,10,13 // add $0xd0a0906,%eax
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 18,21,22,25,26,29 // adc 0x1d1a1916(%rip),%dl # 1d1a3e8d <_sk_xor__hsw_lowp+0x1d1a1c2d>
- .byte 30 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 19,22 // adc (%rsi),%edx
- .byte 23 // (bad)
- .byte 26,27 // sbb (%rbx),%bl
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 129,128,129,128,129,128,0,128,129,128// addl $0x80818000,-0x7f7e7f7f(%rax)
- .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,0,1 // addb $0x1,(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 128,128,128,128,128,128,128 // addb $0x80,-0x7f7f7f80(%rax)
- .byte 128,255,0 // cmp $0x0,%bh
- .byte 129,128,0,0,0,0,0,0,0,0 // addl $0x0,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,2 // add %eax,(%rdx)
- .byte 5,6,9,10,13 // add $0xd0a0906,%eax
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 18,21,22,25,26,29 // adc 0x1d1a1916(%rip),%dl # 1d1a3f4d <_sk_xor__hsw_lowp+0x1d1a1ced>
- .byte 30 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 19,22 // adc (%rsi),%edx
- .byte 23 // (bad)
- .byte 26,27 // sbb (%rbx),%bl
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255,23 // callq *(%rdi)
- .byte 255,27 // lcall *(%rbx)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 128,129,128,0,128,129,128 // addb $0x80,-0x7e7fff80(%rcx)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0 // .byte 0x0
- .byte 128 // .byte 0x80
-BALIGN32
-
-HIDDEN _sk_start_pipeline_ssse3_lowp
-.globl _sk_start_pipeline_ssse3_lowp
-FUNCTION(_sk_start_pipeline_ssse3_lowp)
-_sk_start_pipeline_ssse3_lowp:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,40 // sub $0x28,%rsp
- .byte 72,137,211 // mov %rdx,%rbx
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,194 // mov %rax,%rdx
- .byte 72,137,77,176 // mov %rcx,-0x50(%rbp)
- .byte 73,57,206 // cmp %rcx,%r14
- .byte 115,117 // jae a1 <_sk_start_pipeline_ssse3_lowp+0xa1>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,184 // mov %rax,-0x48(%rbp)
- .byte 76,137,77,192 // mov %r9,-0x40(%rbp)
- .byte 72,137,85,200 // mov %rdx,-0x38(%rbp)
- .byte 73,137,221 // mov %rbx,%r13
- .byte 73,137,244 // mov %rsi,%r12
- .byte 72,57,93,184 // cmp %rbx,-0x48(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,45 // ja 7d <_sk_start_pipeline_ssse3_lowp+0x7d>
- .byte 76,139,125,208 // mov -0x30(%rbp),%r15
- .byte 69,49,192 // xor %r8d,%r8d
- .byte 76,137,207 // mov %r9,%rdi
- .byte 76,137,230 // mov %r12,%rsi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 255,85,200 // callq *-0x38(%rbp)
- .byte 76,137,235 // mov %r13,%rbx
- .byte 76,139,77,192 // mov -0x40(%rbp),%r9
- .byte 73,141,87,8 // lea 0x8(%r15),%rdx
- .byte 73,131,199,16 // add $0x10,%r15
- .byte 73,57,223 // cmp %rbx,%r15
- .byte 73,137,215 // mov %rdx,%r15
- .byte 118,215 // jbe 54 <_sk_start_pipeline_ssse3_lowp+0x54>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,41,208 // sub %rdx,%r8
- .byte 116,19 // je 98 <_sk_start_pipeline_ssse3_lowp+0x98>
- .byte 76,137,207 // mov %r9,%rdi
- .byte 76,137,230 // mov %r12,%rsi
- .byte 76,137,241 // mov %r14,%rcx
- .byte 255,85,200 // callq *-0x38(%rbp)
- .byte 76,137,235 // mov %r13,%rbx
- .byte 76,139,77,192 // mov -0x40(%rbp),%r9
- .byte 73,255,198 // inc %r14
- .byte 76,59,117,176 // cmp -0x50(%rbp),%r14
- .byte 117,165 // jne 46 <_sk_start_pipeline_ssse3_lowp+0x46>
- .byte 72,131,196,40 // add $0x28,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_ssse3_lowp
-.globl _sk_just_return_ssse3_lowp
-FUNCTION(_sk_just_return_ssse3_lowp)
-_sk_just_return_ssse3_lowp:
- .byte 195 // retq
-
-HIDDEN _sk_uniform_color_ssse3_lowp
-.globl _sk_uniform_color_ssse3_lowp
-FUNCTION(_sk_uniform_color_ssse3_lowp)
-_sk_uniform_color_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,24 // movups (%rax),%xmm3
- .byte 15,88,29,211,26,0,0 // addps 0x1ad3(%rip),%xmm3 # 1b90 <_sk_xor__ssse3_lowp+0x9b>
- .byte 242,15,112,195,0 // pshuflw $0x0,%xmm3,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 242,15,112,203,170 // pshuflw $0xaa,%xmm3,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 243,15,112,211,0 // pshufhw $0x0,%xmm3,%xmm2
- .byte 102,15,112,210,250 // pshufd $0xfa,%xmm2,%xmm2
- .byte 243,15,112,219,170 // pshufhw $0xaa,%xmm3,%xmm3
- .byte 102,15,112,219,250 // pshufd $0xfa,%xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_ssse3_lowp
-.globl _sk_black_color_ssse3_lowp
-FUNCTION(_sk_black_color_ssse3_lowp)
-_sk_black_color_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,174,26,0,0 // movaps 0x1aae(%rip),%xmm3 # 1ba0 <_sk_xor__ssse3_lowp+0xab>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_ssse3_lowp
-.globl _sk_white_color_ssse3_lowp
-FUNCTION(_sk_white_color_ssse3_lowp)
-_sk_white_color_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,170,26,0,0 // movaps 0x1aaa(%rip),%xmm0 # 1bb0 <_sk_xor__ssse3_lowp+0xbb>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_ssse3_lowp
-.globl _sk_set_rgb_ssse3_lowp
-FUNCTION(_sk_set_rgb_ssse3_lowp)
-_sk_set_rgb_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,197,29,0,0 // movss 0x1dc5(%rip),%xmm2 # 1ee0 <_sk_xor__ssse3_lowp+0x3eb>
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,88,194 // addss %xmm2,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,65,15,110,193 // movd %r9d,%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 243,15,88,202 // addss %xmm2,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,65,15,110,201 // movd %r9d,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 243,15,88,80,8 // addss 0x8(%rax),%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_ssse3_lowp
-.globl _sk_premul_ssse3_lowp
-FUNCTION(_sk_premul_ssse3_lowp)
-_sk_premul_ssse3_lowp:
- .byte 102,15,56,11,195 // pmulhrsw %xmm3,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,56,11,203 // pmulhrsw %xmm3,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,56,11,211 // pmulhrsw %xmm3,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_ssse3_lowp
-.globl _sk_load_8888_ssse3_lowp
-FUNCTION(_sk_load_8888_ssse3_lowp)
-_sk_load_8888_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,192,0,0,0 // jne 272 <_sk_load_8888_ssse3_lowp+0xe1>
- .byte 69,15,16,68,153,16 // movups 0x10(%r9,%rbx,4),%xmm8
- .byte 102,65,15,16,28,153 // movupd (%r9,%rbx,4),%xmm3
- .byte 102,15,111,13,250,25,0,0 // movdqa 0x19fa(%rip),%xmm1 # 1bc0 <_sk_xor__ssse3_lowp+0xcb>
- .byte 102,15,40,195 // movapd %xmm3,%xmm0
- .byte 102,15,56,0,193 // pshufb %xmm1,%xmm0
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,209 // pshufb %xmm1,%xmm2
- .byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,68,15,111,13,229,25,0,0 // movdqa 0x19e5(%rip),%xmm9 # 1bd0 <_sk_xor__ssse3_lowp+0xdb>
- .byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0
- .byte 102,68,15,111,21,231,25,0,0 // movdqa 0x19e7(%rip),%xmm10 # 1be0 <_sk_xor__ssse3_lowp+0xeb>
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
- .byte 102,15,108,202 // punpcklqdq %xmm2,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1
- .byte 102,68,15,111,21,203,25,0,0 // movdqa 0x19cb(%rip),%xmm10 # 1bf0 <_sk_xor__ssse3_lowp+0xfb>
- .byte 102,15,40,211 // movapd %xmm3,%xmm2
- .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,211 // punpcklqdq %xmm11,%xmm2
- .byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2
- .byte 102,68,15,111,21,174,25,0,0 // movdqa 0x19ae(%rip),%xmm10 # 1c00 <_sk_xor__ssse3_lowp+0x10b>
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,65,15,228,217 // pmulhuw %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,47,255,255,255 // ja 1be <_sk_load_8888_ssse3_lowp+0x2d>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,94,0,0,0 // lea 0x5e(%rip),%r11 # 2f8 <_sk_load_8888_ssse3_lowp+0x167>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,28,153 // movss (%r9,%rbx,4),%xmm3
- .byte 233,16,255,255,255 // jmpq 1be <_sk_load_8888_ssse3_lowp+0x2d>
- .byte 102,65,15,110,68,153,8 // movd 0x8(%r9,%rbx,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,65,15,18,28,153 // movlpd (%r9,%rbx,4),%xmm3
- .byte 233,249,254,255,255 // jmpq 1be <_sk_load_8888_ssse3_lowp+0x2d>
- .byte 102,65,15,110,68,153,24 // movd 0x18(%r9,%rbx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 243,65,15,16,68,153,20 // movss 0x14(%r9,%rbx,4),%xmm0
- .byte 65,15,198,192,0 // shufps $0x0,%xmm8,%xmm0
- .byte 65,15,198,192,226 // shufps $0xe2,%xmm8,%xmm0
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 243,65,15,16,68,153,16 // movss 0x10(%r9,%rbx,4),%xmm0
- .byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 233,192,254,255,255 // jmpq 1b8 <_sk_load_8888_ssse3_lowp+0x27>
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,192 // pushq -0x3f000001(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_ssse3_lowp
-.globl _sk_load_8888_dst_ssse3_lowp
-FUNCTION(_sk_load_8888_dst_ssse3_lowp)
-_sk_load_8888_dst_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,192,0,0,0 // jne 3f5 <_sk_load_8888_dst_ssse3_lowp+0xe1>
- .byte 69,15,16,68,153,16 // movups 0x10(%r9,%rbx,4),%xmm8
- .byte 102,65,15,16,60,153 // movupd (%r9,%rbx,4),%xmm7
- .byte 102,15,111,45,199,24,0,0 // movdqa 0x18c7(%rip),%xmm5 # 1c10 <_sk_xor__ssse3_lowp+0x11b>
- .byte 102,15,40,231 // movapd %xmm7,%xmm4
- .byte 102,15,56,0,229 // pshufb %xmm5,%xmm4
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,56,0,245 // pshufb %xmm5,%xmm6
- .byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,68,15,111,13,178,24,0,0 // movdqa 0x18b2(%rip),%xmm9 # 1c20 <_sk_xor__ssse3_lowp+0x12b>
- .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,180,24,0,0 // movdqa 0x18b4(%rip),%xmm10 # 1c30 <_sk_xor__ssse3_lowp+0x13b>
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,152,24,0,0 // movdqa 0x1898(%rip),%xmm10 # 1c40 <_sk_xor__ssse3_lowp+0x14b>
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6
- .byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,123,24,0,0 // movdqa 0x187b(%rip),%xmm10 # 1c50 <_sk_xor__ssse3_lowp+0x15b>
- .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,65,15,228,249 // pmulhuw %xmm9,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,47,255,255,255 // ja 341 <_sk_load_8888_dst_ssse3_lowp+0x2d>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,95,0,0,0 // lea 0x5f(%rip),%r11 # 47c <_sk_load_8888_dst_ssse3_lowp+0x168>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,153 // movss (%r9,%rbx,4),%xmm7
- .byte 233,16,255,255,255 // jmpq 341 <_sk_load_8888_dst_ssse3_lowp+0x2d>
- .byte 102,65,15,110,100,153,8 // movd 0x8(%r9,%rbx,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 102,65,15,18,60,153 // movlpd (%r9,%rbx,4),%xmm7
- .byte 233,249,254,255,255 // jmpq 341 <_sk_load_8888_dst_ssse3_lowp+0x2d>
- .byte 102,65,15,110,100,153,24 // movd 0x18(%r9,%rbx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,153,20 // movss 0x14(%r9,%rbx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,153,16 // movss 0x10(%r9,%rbx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,192,254,255,255 // jmpq 33b <_sk_load_8888_dst_ssse3_lowp+0x27>
- .byte 144 // nop
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,191 // pushq -0x40000001(%rbp)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_ssse3_lowp
-.globl _sk_store_8888_ssse3_lowp
-FUNCTION(_sk_store_8888_ssse3_lowp)
-_sk_store_8888_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,68,15,111,21,156,23,0,0 // movdqa 0x179c(%rip),%xmm10 # 1c60 <_sk_xor__ssse3_lowp+0x16b>
- .byte 102,69,15,234,194 // pminsw %xmm10,%xmm8
- .byte 102,69,15,239,219 // pxor %xmm11,%xmm11
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,69,15,97,235 // punpcklwd %xmm11,%xmm13
- .byte 102,69,15,105,195 // punpckhwd %xmm11,%xmm8
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,65,15,113,209,7 // psrlw $0x7,%xmm9
- .byte 102,69,15,234,202 // pminsw %xmm10,%xmm9
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,69,15,105,227 // punpckhwd %xmm11,%xmm12
- .byte 102,69,15,97,203 // punpcklwd %xmm11,%xmm9
- .byte 102,65,15,114,241,8 // pslld $0x8,%xmm9
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,224 // por %xmm8,%xmm12
- .byte 102,69,15,235,205 // por %xmm13,%xmm9
- .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
- .byte 102,65,15,113,213,7 // psrlw $0x7,%xmm13
- .byte 102,69,15,234,234 // pminsw %xmm10,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,97,243 // punpcklwd %xmm11,%xmm14
- .byte 102,69,15,105,235 // punpckhwd %xmm11,%xmm13
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,65,15,114,246,16 // pslld $0x10,%xmm14
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,69,15,234,194 // pminsw %xmm10,%xmm8
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,69,15,105,211 // punpckhwd %xmm11,%xmm10
- .byte 102,69,15,97,195 // punpcklwd %xmm11,%xmm8
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,65,15,114,242,24 // pslld $0x18,%xmm10
- .byte 102,69,15,235,213 // por %xmm13,%xmm10
- .byte 102,69,15,235,212 // por %xmm12,%xmm10
- .byte 102,69,15,235,198 // por %xmm14,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,18 // jne 593 <_sk_store_8888_ssse3_lowp+0xfb>
- .byte 243,69,15,127,4,153 // movdqu %xmm8,(%r9,%rbx,4)
- .byte 243,69,15,127,84,153,16 // movdqu %xmm10,0x10(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja 58e <_sk_store_8888_ssse3_lowp+0xf6>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,82,0,0,0 // lea 0x52(%rip),%r11 # 600 <_sk_store_8888_ssse3_lowp+0x168>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,4,153 // movd %xmm8,(%r9,%rbx,4)
- .byte 235,207 // jmp 58e <_sk_store_8888_ssse3_lowp+0xf6>
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,126,76,153,8 // movd %xmm9,0x8(%r9,%rbx,4)
- .byte 102,69,15,214,4,153 // movq %xmm8,(%r9,%rbx,4)
- .byte 235,186 // jmp 58e <_sk_store_8888_ssse3_lowp+0xf6>
- .byte 102,69,15,112,202,78 // pshufd $0x4e,%xmm10,%xmm9
- .byte 102,69,15,126,76,153,24 // movd %xmm9,0x18(%r9,%rbx,4)
- .byte 102,69,15,112,202,229 // pshufd $0xe5,%xmm10,%xmm9
- .byte 102,69,15,126,76,153,20 // movd %xmm9,0x14(%r9,%rbx,4)
- .byte 102,69,15,126,84,153,16 // movd %xmm10,0x10(%r9,%rbx,4)
- .byte 243,69,15,127,4,153 // movdqu %xmm8,(%r9,%rbx,4)
- .byte 235,145 // jmp 58e <_sk_store_8888_ssse3_lowp+0xf6>
- .byte 15,31,0 // nopl (%rax)
- .byte 183,255 // mov $0xff,%bh
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,245 // mov $0xf5ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_ssse3_lowp
-.globl _sk_load_bgra_ssse3_lowp
-FUNCTION(_sk_load_bgra_ssse3_lowp)
-_sk_load_bgra_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,192,0,0,0 // jne 6fd <_sk_load_bgra_ssse3_lowp+0xe1>
- .byte 69,15,16,68,153,16 // movups 0x10(%r9,%rbx,4),%xmm8
- .byte 102,65,15,16,28,153 // movupd (%r9,%rbx,4),%xmm3
- .byte 102,15,111,5,31,22,0,0 // movdqa 0x161f(%rip),%xmm0 # 1c70 <_sk_xor__ssse3_lowp+0x17b>
- .byte 102,15,40,211 // movapd %xmm3,%xmm2
- .byte 102,15,56,0,208 // pshufb %xmm0,%xmm2
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
- .byte 102,15,108,209 // punpcklqdq %xmm1,%xmm2
- .byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,68,15,111,13,10,22,0,0 // movdqa 0x160a(%rip),%xmm9 # 1c80 <_sk_xor__ssse3_lowp+0x18b>
- .byte 102,65,15,228,209 // pmulhuw %xmm9,%xmm2
- .byte 102,68,15,111,21,12,22,0,0 // movdqa 0x160c(%rip),%xmm10 # 1c90 <_sk_xor__ssse3_lowp+0x19b>
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,65,15,56,0,202 // pshufb %xmm10,%xmm1
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
- .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,65,15,228,201 // pmulhuw %xmm9,%xmm1
- .byte 102,68,15,111,21,240,21,0,0 // movdqa 0x15f0(%rip),%xmm10 # 1ca0 <_sk_xor__ssse3_lowp+0x1ab>
- .byte 102,15,40,195 // movapd %xmm3,%xmm0
- .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,195 // punpcklqdq %xmm11,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,65,15,228,193 // pmulhuw %xmm9,%xmm0
- .byte 102,68,15,111,21,211,21,0,0 // movdqa 0x15d3(%rip),%xmm10 # 1cb0 <_sk_xor__ssse3_lowp+0x1bb>
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,216 // punpcklqdq %xmm8,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,65,15,228,217 // pmulhuw %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,47,255,255,255 // ja 649 <_sk_load_bgra_ssse3_lowp+0x2d>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,95,0,0,0 // lea 0x5f(%rip),%r11 # 784 <_sk_load_bgra_ssse3_lowp+0x168>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,28,153 // movss (%r9,%rbx,4),%xmm3
- .byte 233,16,255,255,255 // jmpq 649 <_sk_load_bgra_ssse3_lowp+0x2d>
- .byte 102,65,15,110,68,153,8 // movd 0x8(%r9,%rbx,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,65,15,18,28,153 // movlpd (%r9,%rbx,4),%xmm3
- .byte 233,249,254,255,255 // jmpq 649 <_sk_load_bgra_ssse3_lowp+0x2d>
- .byte 102,65,15,110,68,153,24 // movd 0x18(%r9,%rbx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 243,65,15,16,68,153,20 // movss 0x14(%r9,%rbx,4),%xmm0
- .byte 65,15,198,192,0 // shufps $0x0,%xmm8,%xmm0
- .byte 65,15,198,192,226 // shufps $0xe2,%xmm8,%xmm0
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 243,65,15,16,68,153,16 // movss 0x10(%r9,%rbx,4),%xmm0
- .byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 233,192,254,255,255 // jmpq 643 <_sk_load_bgra_ssse3_lowp+0x27>
- .byte 144 // nop
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,191 // pushq -0x40000001(%rbp)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_ssse3_lowp
-.globl _sk_load_bgra_dst_ssse3_lowp
-FUNCTION(_sk_load_bgra_dst_ssse3_lowp)
-_sk_load_bgra_dst_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,192,0,0,0 // jne 881 <_sk_load_bgra_dst_ssse3_lowp+0xe1>
- .byte 69,15,16,68,153,16 // movups 0x10(%r9,%rbx,4),%xmm8
- .byte 102,65,15,16,60,153 // movupd (%r9,%rbx,4),%xmm7
- .byte 102,15,111,37,235,20,0,0 // movdqa 0x14eb(%rip),%xmm4 # 1cc0 <_sk_xor__ssse3_lowp+0x1cb>
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,15,56,0,244 // pshufb %xmm4,%xmm6
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,15,108,245 // punpcklqdq %xmm5,%xmm6
- .byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,68,15,111,13,214,20,0,0 // movdqa 0x14d6(%rip),%xmm9 # 1cd0 <_sk_xor__ssse3_lowp+0x1db>
- .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,216,20,0,0 // movdqa 0x14d8(%rip),%xmm10 # 1ce0 <_sk_xor__ssse3_lowp+0x1eb>
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
- .byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
- .byte 102,15,108,236 // punpcklqdq %xmm4,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,188,20,0,0 // movdqa 0x14bc(%rip),%xmm10 # 1cf0 <_sk_xor__ssse3_lowp+0x1fb>
- .byte 102,15,40,231 // movapd %xmm7,%xmm4
- .byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,227 // punpcklqdq %xmm11,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,159,20,0,0 // movdqa 0x149f(%rip),%xmm10 # 1d00 <_sk_xor__ssse3_lowp+0x20b>
- .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,65,15,228,249 // pmulhuw %xmm9,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,47,255,255,255 // ja 7cd <_sk_load_bgra_dst_ssse3_lowp+0x2d>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,95,0,0,0 // lea 0x5f(%rip),%r11 # 908 <_sk_load_bgra_dst_ssse3_lowp+0x168>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,153 // movss (%r9,%rbx,4),%xmm7
- .byte 233,16,255,255,255 // jmpq 7cd <_sk_load_bgra_dst_ssse3_lowp+0x2d>
- .byte 102,65,15,110,100,153,8 // movd 0x8(%r9,%rbx,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 102,65,15,18,60,153 // movlpd (%r9,%rbx,4),%xmm7
- .byte 233,249,254,255,255 // jmpq 7cd <_sk_load_bgra_dst_ssse3_lowp+0x2d>
- .byte 102,65,15,110,100,153,24 // movd 0x18(%r9,%rbx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,153,20 // movss 0x14(%r9,%rbx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,153,16 // movss 0x10(%r9,%rbx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,192,254,255,255 // jmpq 7c7 <_sk_load_bgra_dst_ssse3_lowp+0x27>
- .byte 144 // nop
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,191 // pushq -0x40000001(%rbp)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_ssse3_lowp
-.globl _sk_store_bgra_ssse3_lowp
-FUNCTION(_sk_store_bgra_ssse3_lowp)
-_sk_store_bgra_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 15,41,124,36,240 // movaps %xmm7,-0x10(%rsp)
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,65,15,113,210,7 // psrlw $0x7,%xmm10
- .byte 102,68,15,111,13,210,19,0,0 // movdqa 0x13d2(%rip),%xmm9 # 1d10 <_sk_xor__ssse3_lowp+0x21b>
- .byte 102,69,15,234,209 // pminsw %xmm9,%xmm10
- .byte 102,69,15,239,246 // pxor %xmm14,%xmm14
- .byte 102,65,15,111,250 // movdqa %xmm10,%xmm7
- .byte 102,65,15,97,254 // punpcklwd %xmm14,%xmm7
- .byte 102,69,15,105,214 // punpckhwd %xmm14,%xmm10
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,65,15,113,212,7 // psrlw $0x7,%xmm12
- .byte 102,69,15,234,225 // pminsw %xmm9,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,69,15,97,238 // punpcklwd %xmm14,%xmm13
- .byte 102,69,15,105,230 // punpckhwd %xmm14,%xmm12
- .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,65,15,113,215,7 // psrlw $0x7,%xmm15
- .byte 102,69,15,234,249 // pminsw %xmm9,%xmm15
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,69,15,234,193 // pminsw %xmm9,%xmm8
- .byte 102,69,15,111,207 // movdqa %xmm15,%xmm9
- .byte 102,69,15,105,206 // punpckhwd %xmm14,%xmm9
- .byte 102,69,15,97,254 // punpcklwd %xmm14,%xmm15
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,105,222 // punpckhwd %xmm14,%xmm11
- .byte 102,69,15,97,198 // punpcklwd %xmm14,%xmm8
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,65,15,114,247,16 // pslld $0x10,%xmm15
- .byte 102,68,15,235,255 // por %xmm7,%xmm15
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,65,15,114,243,24 // pslld $0x18,%xmm11
- .byte 102,69,15,235,220 // por %xmm12,%xmm11
- .byte 102,69,15,235,217 // por %xmm9,%xmm11
- .byte 102,65,15,114,245,8 // pslld $0x8,%xmm13
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,69,15,235,197 // por %xmm13,%xmm8
- .byte 102,69,15,235,199 // por %xmm15,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,23 // jne a29 <_sk_store_bgra_ssse3_lowp+0x105>
- .byte 243,69,15,127,4,153 // movdqu %xmm8,(%r9,%rbx,4)
- .byte 243,69,15,127,92,153,16 // movdqu %xmm11,0x10(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,124,36,240 // movaps -0x10(%rsp),%xmm7
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,230 // ja a1f <_sk_store_bgra_ssse3_lowp+0xfb>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,80,0,0,0 // lea 0x50(%rip),%r11 # a94 <_sk_store_bgra_ssse3_lowp+0x170>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,4,153 // movd %xmm8,(%r9,%rbx,4)
- .byte 235,202 // jmp a1f <_sk_store_bgra_ssse3_lowp+0xfb>
- .byte 102,65,15,112,248,78 // pshufd $0x4e,%xmm8,%xmm7
- .byte 102,65,15,126,124,153,8 // movd %xmm7,0x8(%r9,%rbx,4)
- .byte 102,69,15,214,4,153 // movq %xmm8,(%r9,%rbx,4)
- .byte 235,181 // jmp a1f <_sk_store_bgra_ssse3_lowp+0xfb>
- .byte 102,65,15,112,251,78 // pshufd $0x4e,%xmm11,%xmm7
- .byte 102,65,15,126,124,153,24 // movd %xmm7,0x18(%r9,%rbx,4)
- .byte 102,65,15,112,251,229 // pshufd $0xe5,%xmm11,%xmm7
- .byte 102,65,15,126,124,153,20 // movd %xmm7,0x14(%r9,%rbx,4)
- .byte 102,69,15,126,92,153,16 // movd %xmm11,0x10(%r9,%rbx,4)
- .byte 243,69,15,127,4,153 // movdqu %xmm8,(%r9,%rbx,4)
- .byte 235,140 // jmp a1f <_sk_store_bgra_ssse3_lowp+0xfb>
- .byte 144 // nop
- .byte 185,255,255,255,206 // mov $0xceffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_ssse3_lowp
-.globl _sk_load_a8_ssse3_lowp
-FUNCTION(_sk_load_a8_ssse3_lowp)
-_sk_load_a8_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,38 // jne aef <_sk_load_a8_ssse3_lowp+0x3f>
- .byte 243,65,15,126,28,25 // movq (%r9,%rbx,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,228,29,64,18,0,0 // pmulhuw 0x1240(%rip),%xmm3 # 1d20 <_sk_xor__ssse3_lowp+0x22b>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,87,192 // xorpd %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,208 // ja ad3 <_sk_load_a8_ssse3_lowp+0x23>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,110,0,0,0 // lea 0x6e(%rip),%r11 # b7c <_sk_load_a8_ssse3_lowp+0xcc>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,177 // jmp ad3 <_sk_load_a8_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,143 // jmp ad3 <_sk_load_a8_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,15,196,216,5 // pinsrw $0x5,%eax,%xmm3
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,15,196,216,4 // pinsrw $0x4,%eax,%xmm3
- .byte 102,65,15,110,4,25 // movd (%r9,%rbx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,87,255,255,255 // jmpq ad3 <_sk_load_a8_ssse3_lowp+0x23>
- .byte 155 // fwait
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,166 // pushq -0x59000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_ssse3_lowp
-.globl _sk_load_a8_dst_ssse3_lowp
-FUNCTION(_sk_load_a8_dst_ssse3_lowp)
-_sk_load_a8_dst_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,38 // jne bd7 <_sk_load_a8_dst_ssse3_lowp+0x3f>
- .byte 243,65,15,126,60,25 // movq (%r9,%rbx,1),%xmm7
- .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,228,61,104,17,0,0 // pmulhuw 0x1168(%rip),%xmm7 # 1d30 <_sk_xor__ssse3_lowp+0x23b>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,87,228 // xorpd %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,208 // ja bbb <_sk_load_a8_dst_ssse3_lowp+0x23>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,110,0,0,0 // lea 0x6e(%rip),%r11 # c64 <_sk_load_a8_dst_ssse3_lowp+0xcc>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,177 // jmp bbb <_sk_load_a8_dst_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,143 // jmp bbb <_sk_load_a8_dst_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,15,196,248,5 // pinsrw $0x5,%eax,%xmm7
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,15,196,248,4 // pinsrw $0x4,%eax,%xmm7
- .byte 102,65,15,110,36,25 // movd (%r9,%rbx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,87,255,255,255 // jmpq bbb <_sk_load_a8_dst_ssse3_lowp+0x23>
- .byte 155 // fwait
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,166 // pushq -0x59000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_ssse3_lowp
-.globl _sk_store_a8_ssse3_lowp
-FUNCTION(_sk_store_a8_ssse3_lowp)
-_sk_store_a8_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 77,133,192 // test %r8,%r8
- .byte 117,11 // jne cb4 <_sk_store_a8_ssse3_lowp+0x34>
- .byte 242,69,15,17,4,25 // movsd %xmm8,(%r9,%rbx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,235 // ja caf <_sk_store_a8_ssse3_lowp+0x2f>
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,136,0,0,0 // lea 0x88(%rip),%r11 # d5c <_sk_store_a8_ssse3_lowp+0xdc>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,127,68,36,176 // movdqa %xmm8,-0x50(%rsp)
- .byte 138,68,36,176 // mov -0x50(%rsp),%al
- .byte 65,136,4,25 // mov %al,(%r9,%rbx,1)
- .byte 235,193 // jmp caf <_sk_store_a8_ssse3_lowp+0x2f>
- .byte 102,68,15,127,68,36,192 // movdqa %xmm8,-0x40(%rsp)
- .byte 138,68,36,196 // mov -0x3c(%rsp),%al
- .byte 65,136,68,25,2 // mov %al,0x2(%r9,%rbx,1)
- .byte 102,68,15,56,0,5,72,16,0,0 // pshufb 0x1048(%rip),%xmm8 # 1d50 <_sk_xor__ssse3_lowp+0x25b>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,25 // mov %ax,(%r9,%rbx,1)
- .byte 235,155 // jmp caf <_sk_store_a8_ssse3_lowp+0x2f>
- .byte 102,68,15,127,68,36,240 // movdqa %xmm8,-0x10(%rsp)
- .byte 138,68,36,252 // mov -0x4(%rsp),%al
- .byte 65,136,68,25,6 // mov %al,0x6(%r9,%rbx,1)
- .byte 102,68,15,127,68,36,224 // movdqa %xmm8,-0x20(%rsp)
- .byte 138,68,36,234 // mov -0x16(%rsp),%al
- .byte 65,136,68,25,5 // mov %al,0x5(%r9,%rbx,1)
- .byte 102,68,15,127,68,36,208 // movdqa %xmm8,-0x30(%rsp)
- .byte 138,68,36,216 // mov -0x28(%rsp),%al
- .byte 65,136,68,25,4 // mov %al,0x4(%r9,%rbx,1)
- .byte 102,68,15,56,0,5,242,15,0,0 // pshufb 0xff2(%rip),%xmm8 # 1d40 <_sk_xor__ssse3_lowp+0x24b>
- .byte 102,69,15,126,4,25 // movd %xmm8,(%r9,%rbx,1)
- .byte 233,86,255,255,255 // jmpq caf <_sk_store_a8_ssse3_lowp+0x2f>
- .byte 15,31,0 // nopl (%rax)
- .byte 129,255,255,255,162,255 // cmp $0xffa2ffff,%edi
- .byte 255 // (bad)
- .byte 255,146,255,255,255,232 // callq *-0x17000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184 // .byte 0xb8
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_ssse3_lowp
-.globl _sk_load_g8_ssse3_lowp
-FUNCTION(_sk_load_g8_ssse3_lowp)
-_sk_load_g8_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,43 // jne dbc <_sk_load_g8_ssse3_lowp+0x44>
- .byte 243,65,15,126,4,25 // movq (%r9,%rbx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,228,5,184,15,0,0 // pmulhuw 0xfb8(%rip),%xmm0 # 1d60 <_sk_xor__ssse3_lowp+0x26b>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,15,0,0 // movaps 0xfbf(%rip),%xmm3 # 1d70 <_sk_xor__ssse3_lowp+0x27b>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,203 // ja d9b <_sk_load_g8_ssse3_lowp+0x23>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,113,0,0,0 // lea 0x71(%rip),%r11 # e4c <_sk_load_g8_ssse3_lowp+0xd4>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,172 // jmp d9b <_sk_load_g8_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,138 // jmp d9b <_sk_load_g8_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,15,196,192,5 // pinsrw $0x5,%eax,%xmm0
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,15,196,192,4 // pinsrw $0x4,%eax,%xmm0
- .byte 102,65,15,110,12,25 // movd (%r9,%rbx,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 233,82,255,255,255 // jmpq d9b <_sk_load_g8_ssse3_lowp+0x23>
- .byte 15,31,0 // nopl (%rax)
- .byte 152 // cwtl
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,163 // pushq -0x5c000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_ssse3_lowp
-.globl _sk_load_g8_dst_ssse3_lowp
-FUNCTION(_sk_load_g8_dst_ssse3_lowp)
-_sk_load_g8_dst_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,43 // jne eac <_sk_load_g8_dst_ssse3_lowp+0x44>
- .byte 243,65,15,126,36,25 // movq (%r9,%rbx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,228,37,232,14,0,0 // pmulhuw 0xee8(%rip),%xmm4 # 1d80 <_sk_xor__ssse3_lowp+0x28b>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,239,14,0,0 // movaps 0xeef(%rip),%xmm7 # 1d90 <_sk_xor__ssse3_lowp+0x29b>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,203 // ja e8b <_sk_load_g8_dst_ssse3_lowp+0x23>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,113,0,0,0 // lea 0x71(%rip),%r11 # f3c <_sk_load_g8_dst_ssse3_lowp+0xd4>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,172 // jmp e8b <_sk_load_g8_dst_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,138 // jmp e8b <_sk_load_g8_dst_ssse3_lowp+0x23>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,65,15,110,44,25 // movd (%r9,%rbx,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,82,255,255,255 // jmpq e8b <_sk_load_g8_dst_ssse3_lowp+0x23>
- .byte 15,31,0 // nopl (%rax)
- .byte 152 // cwtl
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,178,255,255,255,163 // pushq -0x5c000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_rgba_8888_ssse3_lowp
-.globl _sk_srcover_rgba_8888_ssse3_lowp
-FUNCTION(_sk_srcover_rgba_8888_ssse3_lowp)
-_sk_srcover_rgba_8888_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,12,2,0,0 // jne 118a <_sk_srcover_rgba_8888_ssse3_lowp+0x232>
- .byte 69,15,16,68,153,16 // movups 0x10(%r9,%rbx,4),%xmm8
- .byte 102,65,15,16,60,153 // movupd (%r9,%rbx,4),%xmm7
- .byte 102,15,111,45,14,14,0,0 // movdqa 0xe0e(%rip),%xmm5 # 1da0 <_sk_xor__ssse3_lowp+0x2ab>
- .byte 102,15,40,231 // movapd %xmm7,%xmm4
- .byte 102,15,56,0,229 // pshufb %xmm5,%xmm4
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,56,0,245 // pshufb %xmm5,%xmm6
- .byte 102,15,108,230 // punpcklqdq %xmm6,%xmm4
- .byte 102,15,111,13,255,13,0,0 // movdqa 0xdff(%rip),%xmm1 # 1db0 <_sk_xor__ssse3_lowp+0x2bb>
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,68,15,111,13,1,14,0,0 // movdqa 0xe01(%rip),%xmm9 # 1dc0 <_sk_xor__ssse3_lowp+0x2cb>
- .byte 102,65,15,228,225 // pmulhuw %xmm9,%xmm4
- .byte 102,68,15,111,21,3,14,0,0 // movdqa 0xe03(%rip),%xmm10 # 1dd0 <_sk_xor__ssse3_lowp+0x2db>
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,65,15,56,0,234 // pshufb %xmm10,%xmm5
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,65,15,228,233 // pmulhuw %xmm9,%xmm5
- .byte 102,68,15,111,21,231,13,0,0 // movdqa 0xde7(%rip),%xmm10 # 1de0 <_sk_xor__ssse3_lowp+0x2eb>
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,243 // punpcklqdq %xmm11,%xmm6
- .byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,65,15,228,241 // pmulhuw %xmm9,%xmm6
- .byte 102,68,15,111,21,202,13,0,0 // movdqa 0xdca(%rip),%xmm10 # 1df0 <_sk_xor__ssse3_lowp+0x2fb>
- .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,248 // punpcklqdq %xmm8,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,65,15,228,249 // pmulhuw %xmm9,%xmm7
- .byte 102,68,15,111,29,182,13,0,0 // movdqa 0xdb6(%rip),%xmm11 # 1e00 <_sk_xor__ssse3_lowp+0x30b>
- .byte 102,68,15,249,219 // psubw %xmm3,%xmm11
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 102,69,15,56,11,195 // pmulhrsw %xmm11,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,68,15,253,192 // paddw %xmm0,%xmm8
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,65,15,56,11,195 // pmulhrsw %xmm11,%xmm0
- .byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9
- .byte 102,69,15,253,204 // paddw %xmm12,%xmm9
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,65,15,56,11,195 // pmulhrsw %xmm11,%xmm0
- .byte 102,68,15,56,29,224 // pabsw %xmm0,%xmm12
- .byte 102,68,15,253,226 // paddw %xmm2,%xmm12
- .byte 102,68,15,56,11,223 // pmulhrsw %xmm7,%xmm11
- .byte 102,69,15,56,29,219 // pabsw %xmm11,%xmm11
- .byte 102,68,15,253,219 // paddw %xmm3,%xmm11
- .byte 102,68,15,127,68,36,240 // movdqa %xmm8,-0x10(%rsp)
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,211,7 // psrlw $0x7,%xmm3
- .byte 102,15,234,217 // pminsw %xmm1,%xmm3
- .byte 102,69,15,239,255 // pxor %xmm15,%xmm15
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,69,15,97,239 // punpcklwd %xmm15,%xmm13
- .byte 102,65,15,105,223 // punpckhwd %xmm15,%xmm3
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,234,209 // pminsw %xmm1,%xmm2
- .byte 102,68,15,111,242 // movdqa %xmm2,%xmm14
- .byte 102,69,15,105,247 // punpckhwd %xmm15,%xmm14
- .byte 102,65,15,97,215 // punpcklwd %xmm15,%xmm2
- .byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
- .byte 102,65,15,113,210,7 // psrlw $0x7,%xmm10
- .byte 102,68,15,234,209 // pminsw %xmm1,%xmm10
- .byte 102,69,15,111,194 // movdqa %xmm10,%xmm8
- .byte 102,69,15,97,199 // punpcklwd %xmm15,%xmm8
- .byte 102,69,15,105,215 // punpckhwd %xmm15,%xmm10
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,113,208,7 // psrlw $0x7,%xmm0
- .byte 102,15,234,193 // pminsw %xmm1,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,105,207 // punpckhwd %xmm15,%xmm1
- .byte 102,65,15,97,199 // punpcklwd %xmm15,%xmm0
- .byte 102,65,15,114,246,8 // pslld $0x8,%xmm14
- .byte 102,68,15,235,243 // por %xmm3,%xmm14
- .byte 102,15,114,242,8 // pslld $0x8,%xmm2
- .byte 102,65,15,235,213 // por %xmm13,%xmm2
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,65,15,235,202 // por %xmm10,%xmm1
- .byte 102,65,15,235,206 // por %xmm14,%xmm1
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,15,114,240,24 // pslld $0x18,%xmm0
- .byte 102,65,15,235,192 // por %xmm8,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 77,133,192 // test %r8,%r8
- .byte 117,98 // jne 11c6 <_sk_srcover_rgba_8888_ssse3_lowp+0x26e>
- .byte 243,65,15,127,4,153 // movdqu %xmm0,(%r9,%rbx,4)
- .byte 243,65,15,127,76,153,16 // movdqu %xmm1,0x10(%r9,%rbx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,68,36,240 // movaps -0x10(%rsp),%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,227,253,255,255 // ja f8a <_sk_srcover_rgba_8888_ssse3_lowp+0x32>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,206,0,0,0 // lea 0xce(%rip),%r11 # 1280 <_sk_srcover_rgba_8888_ssse3_lowp+0x328>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,153 // movss (%r9,%rbx,4),%xmm7
- .byte 233,196,253,255,255 // jmpq f8a <_sk_srcover_rgba_8888_ssse3_lowp+0x32>
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,155 // ja 1171 <_sk_srcover_rgba_8888_ssse3_lowp+0x219>
- .byte 65,15,182,194 // movzbl %r10b,%eax
- .byte 76,141,21,187,0,0,0 // lea 0xbb(%rip),%r10 # 129c <_sk_srcover_rgba_8888_ssse3_lowp+0x344>
- .byte 73,99,4,130 // movslq (%r10,%rax,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,126,4,153 // movd %xmm0,(%r9,%rbx,4)
- .byte 233,124,255,255,255 // jmpq 1171 <_sk_srcover_rgba_8888_ssse3_lowp+0x219>
- .byte 102,65,15,110,100,153,8 // movd 0x8(%r9,%rbx,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 102,65,15,18,60,153 // movlpd (%r9,%rbx,4),%xmm7
- .byte 233,126,253,255,255 // jmpq f8a <_sk_srcover_rgba_8888_ssse3_lowp+0x32>
- .byte 102,65,15,110,100,153,24 // movd 0x18(%r9,%rbx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,153,20 // movss 0x14(%r9,%rbx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,153,16 // movss 0x10(%r9,%rbx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 233,69,253,255,255 // jmpq f84 <_sk_srcover_rgba_8888_ssse3_lowp+0x2c>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,76,153,8 // movd %xmm1,0x8(%r9,%rbx,4)
- .byte 102,65,15,214,4,153 // movq %xmm0,(%r9,%rbx,4)
- .byte 233,27,255,255,255 // jmpq 1171 <_sk_srcover_rgba_8888_ssse3_lowp+0x219>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,65,15,126,84,153,24 // movd %xmm2,0x18(%r9,%rbx,4)
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,65,15,126,84,153,20 // movd %xmm2,0x14(%r9,%rbx,4)
- .byte 102,65,15,126,76,153,16 // movd %xmm1,0x10(%r9,%rbx,4)
- .byte 243,65,15,127,4,153 // movdqu %xmm0,(%r9,%rbx,4)
- .byte 233,241,254,255,255 // jmpq 1171 <_sk_srcover_rgba_8888_ssse3_lowp+0x219>
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,129,255,255,255,117 // incl 0x75ffffff(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,4,253,255,255,174,255 // incl -0x510001(,%rdi,8)
- .byte 255 // (bad)
- .byte 255,153,255,255,255,140 // lcall *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,175,255,255,255,163 // ljmp *-0x5c000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186 // .byte 0xba
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_1_float_ssse3_lowp
-.globl _sk_scale_1_float_ssse3_lowp
-FUNCTION(_sk_scale_1_float_ssse3_lowp)
-_sk_scale_1_float_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,88,5,28,12,0,0 // addss 0xc1c(%rip),%xmm8 # 1ee4 <_sk_xor__ssse3_lowp+0x3ef>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,56,11,216 // pmulhrsw %xmm8,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_ssse3_lowp
-.globl _sk_scale_u8_ssse3_lowp
-FUNCTION(_sk_scale_u8_ssse3_lowp)
-_sk_scale_u8_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 117,75 // jne 1372 <_sk_scale_u8_ssse3_lowp+0x64>
- .byte 243,69,15,126,4,25 // movq (%r9,%rbx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,228,5,207,10,0,0 // pmulhuw 0xacf(%rip),%xmm8 # 1e10 <_sk_xor__ssse3_lowp+0x31b>
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,56,11,216 // pmulhrsw %xmm8,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,171 // ja 1332 <_sk_scale_u8_ssse3_lowp+0x24>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,126,0,0,0 // lea 0x7e(%rip),%r11 # 1410 <_sk_scale_u8_ssse3_lowp+0x102>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,139 // jmp 1332 <_sk_scale_u8_ssse3_lowp+0x24>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 233,97,255,255,255 // jmpq 1332 <_sk_scale_u8_ssse3_lowp+0x24>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,68,15,196,192,5 // pinsrw $0x5,%eax,%xmm8
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,68,15,196,192,4 // pinsrw $0x4,%eax,%xmm8
- .byte 102,69,15,110,12,25 // movd (%r9,%rbx,1),%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,35,255,255,255 // jmpq 1332 <_sk_scale_u8_ssse3_lowp+0x24>
- .byte 144 // nop
- .byte 139,255 // mov %edi,%edi
- .byte 255 // (bad)
- .byte 255,168,255,255,255,151 // ljmp *-0x68000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_ssse3_lowp
-.globl _sk_lerp_1_float_ssse3_lowp
-FUNCTION(_sk_lerp_1_float_ssse3_lowp)
-_sk_lerp_1_float_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,88,5,172,10,0,0 // addss 0xaac(%rip),%xmm8 # 1ee8 <_sk_xor__ssse3_lowp+0x3f3>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9
- .byte 102,68,15,111,21,185,9,0,0 // movdqa 0x9b9(%rip),%xmm10 # 1e20 <_sk_xor__ssse3_lowp+0x32b>
- .byte 102,69,15,249,208 // psubw %xmm8,%xmm10
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,68,15,56,29,201 // pabsw %xmm1,%xmm9
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,56,11,202 // pmulhrsw %xmm10,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,68,15,56,29,202 // pabsw %xmm2,%xmm9
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,56,11,210 // pmulhrsw %xmm10,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,65,15,56,11,216 // pmulhrsw %xmm8,%xmm3
- .byte 102,68,15,56,29,195 // pabsw %xmm3,%xmm8
- .byte 102,68,15,56,11,215 // pmulhrsw %xmm7,%xmm10
- .byte 102,65,15,56,29,218 // pabsw %xmm10,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_ssse3_lowp
-.globl _sk_lerp_u8_ssse3_lowp
-FUNCTION(_sk_lerp_u8_ssse3_lowp)
-_sk_lerp_u8_ssse3_lowp:
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,80,8 // movslq 0x8(%rax),%r10
- .byte 76,99,201 // movslq %ecx,%r9
- .byte 77,15,175,202 // imul %r10,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,99,218 // movslq %edx,%rbx
- .byte 77,133,192 // test %r8,%r8
- .byte 15,133,170,0,0,0 // jne 15a8 <_sk_lerp_u8_ssse3_lowp+0xc7>
- .byte 243,69,15,126,4,25 // movq (%r9,%rbx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,228,5,24,9,0,0 // pmulhuw 0x918(%rip),%xmm8 # 1e30 <_sk_xor__ssse3_lowp+0x33b>
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,68,15,56,29,200 // pabsw %xmm0,%xmm9
- .byte 102,68,15,111,21,19,9,0,0 // movdqa 0x913(%rip),%xmm10 # 1e40 <_sk_xor__ssse3_lowp+0x34b>
- .byte 102,69,15,249,208 // psubw %xmm8,%xmm10
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,56,11,194 // pmulhrsw %xmm10,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,68,15,56,29,201 // pabsw %xmm1,%xmm9
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,56,11,202 // pmulhrsw %xmm10,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,68,15,56,29,202 // pabsw %xmm2,%xmm9
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,56,11,210 // pmulhrsw %xmm10,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,65,15,56,11,216 // pmulhrsw %xmm8,%xmm3
- .byte 102,68,15,56,29,195 // pabsw %xmm3,%xmm8
- .byte 102,68,15,56,11,215 // pmulhrsw %xmm7,%xmm10
- .byte 102,65,15,56,29,218 // pabsw %xmm10,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 65,254,202 // dec %r10b
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 15,135,72,255,255,255 // ja 1509 <_sk_lerp_u8_ssse3_lowp+0x28>
- .byte 69,15,182,210 // movzbl %r10b,%r10d
- .byte 76,141,29,128,0,0,0 // lea 0x80(%rip),%r11 # 164c <_sk_lerp_u8_ssse3_lowp+0x16b>
- .byte 75,99,4,147 // movslq (%r11,%r10,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,25 // movzbl (%r9,%rbx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,37,255,255,255 // jmpq 1509 <_sk_lerp_u8_ssse3_lowp+0x28>
- .byte 65,15,182,68,25,2 // movzbl 0x2(%r9,%rbx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
- .byte 65,15,183,4,25 // movzwl (%r9,%rbx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 1509 <_sk_lerp_u8_ssse3_lowp+0x28>
- .byte 65,15,182,68,25,6 // movzbl 0x6(%r9,%rbx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
- .byte 65,15,182,68,25,5 // movzbl 0x5(%r9,%rbx,1),%eax
- .byte 102,68,15,196,192,5 // pinsrw $0x5,%eax,%xmm8
- .byte 65,15,182,68,25,4 // movzbl 0x4(%r9,%rbx,1),%eax
- .byte 102,68,15,196,192,4 // pinsrw $0x4,%eax,%xmm8
- .byte 102,69,15,110,12,25 // movd (%r9,%rbx,1),%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,189,254,255,255 // jmpq 1509 <_sk_lerp_u8_ssse3_lowp+0x28>
- .byte 137,255 // mov %edi,%edi
- .byte 255 // (bad)
- .byte 255,169,255,255,255,152 // ljmp *-0x67000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 1659 <_sk_lerp_u8_ssse3_lowp+0x178>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_swap_rb_ssse3_lowp
-.globl _sk_swap_rb_ssse3_lowp
-FUNCTION(_sk_swap_rb_ssse3_lowp)
-_sk_swap_rb_ssse3_lowp:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_ssse3_lowp
-.globl _sk_move_src_dst_ssse3_lowp
-FUNCTION(_sk_move_src_dst_ssse3_lowp)
-_sk_move_src_dst_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_ssse3_lowp
-.globl _sk_move_dst_src_ssse3_lowp
-FUNCTION(_sk_move_dst_src_ssse3_lowp)
-_sk_move_dst_src_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_ssse3_lowp
-.globl _sk_clear_ssse3_lowp
-FUNCTION(_sk_clear_ssse3_lowp)
-_sk_clear_ssse3_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_ssse3_lowp
-.globl _sk_srcatop_ssse3_lowp
-FUNCTION(_sk_srcatop_ssse3_lowp)
-_sk_srcatop_ssse3_lowp:
- .byte 102,15,56,11,199 // pmulhrsw %xmm7,%xmm0
- .byte 102,68,15,56,29,192 // pabsw %xmm0,%xmm8
- .byte 102,68,15,111,13,149,7,0,0 // movdqa 0x795(%rip),%xmm9 # 1e50 <_sk_xor__ssse3_lowp+0x35b>
- .byte 102,68,15,249,203 // psubw %xmm3,%xmm9
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,56,11,207 // pmulhrsw %xmm7,%xmm1
- .byte 102,68,15,56,29,193 // pabsw %xmm1,%xmm8
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,56,11,201 // pmulhrsw %xmm9,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,56,11,215 // pmulhrsw %xmm7,%xmm2
- .byte 102,68,15,56,29,194 // pabsw %xmm2,%xmm8
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,56,11,209 // pmulhrsw %xmm9,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,56,11,223 // pmulhrsw %xmm7,%xmm3
- .byte 102,68,15,56,29,195 // pabsw %xmm3,%xmm8
- .byte 102,68,15,56,11,207 // pmulhrsw %xmm7,%xmm9
- .byte 102,65,15,56,29,217 // pabsw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_ssse3_lowp
-.globl _sk_dstatop_ssse3_lowp
-FUNCTION(_sk_dstatop_ssse3_lowp)
-_sk_dstatop_ssse3_lowp:
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,68,15,111,13,20,7,0,0 // movdqa 0x714(%rip),%xmm9 # 1e60 <_sk_xor__ssse3_lowp+0x36b>
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,65,15,56,11,201 // pmulhrsw %xmm9,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,65,15,56,11,209 // pmulhrsw %xmm9,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,68,15,56,11,203 // pmulhrsw %xmm3,%xmm9
- .byte 102,65,15,56,29,217 // pabsw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_ssse3_lowp
-.globl _sk_srcin_ssse3_lowp
-FUNCTION(_sk_srcin_ssse3_lowp)
-_sk_srcin_ssse3_lowp:
- .byte 102,15,56,11,199 // pmulhrsw %xmm7,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,56,11,207 // pmulhrsw %xmm7,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,56,11,215 // pmulhrsw %xmm7,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,15,56,11,223 // pmulhrsw %xmm7,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_ssse3_lowp
-.globl _sk_dstin_ssse3_lowp
-FUNCTION(_sk_dstin_ssse3_lowp)
-_sk_dstin_ssse3_lowp:
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,56,11,195 // pmulhrsw %xmm3,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,56,11,203 // pmulhrsw %xmm3,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,56,11,211 // pmulhrsw %xmm3,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,15,56,11,223 // pmulhrsw %xmm7,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_ssse3_lowp
-.globl _sk_srcout_ssse3_lowp
-FUNCTION(_sk_srcout_ssse3_lowp)
-_sk_srcout_ssse3_lowp:
- .byte 102,68,15,111,5,58,6,0,0 // movdqa 0x63a(%rip),%xmm8 # 1e70 <_sk_xor__ssse3_lowp+0x37b>
- .byte 102,68,15,249,199 // psubw %xmm7,%xmm8
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,65,15,56,29,216 // pabsw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_ssse3_lowp
-.globl _sk_dstout_ssse3_lowp
-FUNCTION(_sk_dstout_ssse3_lowp)
-_sk_dstout_ssse3_lowp:
- .byte 102,68,15,111,5,11,6,0,0 // movdqa 0x60b(%rip),%xmm8 # 1e80 <_sk_xor__ssse3_lowp+0x38b>
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,68,15,56,11,199 // pmulhrsw %xmm7,%xmm8
- .byte 102,65,15,56,29,216 // pabsw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_ssse3_lowp
-.globl _sk_srcover_ssse3_lowp
-FUNCTION(_sk_srcover_ssse3_lowp)
-_sk_srcover_ssse3_lowp:
- .byte 102,68,15,111,5,208,5,0,0 // movdqa 0x5d0(%rip),%xmm8 # 1e90 <_sk_xor__ssse3_lowp+0x39b>
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,56,11,200 // pmulhrsw %xmm8,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,68,15,111,205 // movdqa %xmm5,%xmm9
- .byte 102,69,15,56,11,200 // pmulhrsw %xmm8,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
- .byte 102,69,15,56,11,200 // pmulhrsw %xmm8,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,68,15,56,11,199 // pmulhrsw %xmm7,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_ssse3_lowp
-.globl _sk_dstover_ssse3_lowp
-FUNCTION(_sk_dstover_ssse3_lowp)
-_sk_dstover_ssse3_lowp:
- .byte 102,68,15,111,5,123,5,0,0 // movdqa 0x57b(%rip),%xmm8 # 1ea0 <_sk_xor__ssse3_lowp+0x3ab>
- .byte 102,68,15,249,199 // psubw %xmm7,%xmm8
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,68,15,56,11,195 // pmulhrsw %xmm3,%xmm8
- .byte 102,65,15,56,29,216 // pabsw %xmm8,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_ssse3_lowp
-.globl _sk_modulate_ssse3_lowp
-FUNCTION(_sk_modulate_ssse3_lowp)
-_sk_modulate_ssse3_lowp:
- .byte 102,15,56,11,196 // pmulhrsw %xmm4,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,15,56,11,205 // pmulhrsw %xmm5,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,15,56,11,214 // pmulhrsw %xmm6,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,15,56,11,223 // pmulhrsw %xmm7,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_ssse3_lowp
-.globl _sk_multiply_ssse3_lowp
-FUNCTION(_sk_multiply_ssse3_lowp)
-_sk_multiply_ssse3_lowp:
- .byte 102,68,15,111,5,16,5,0,0 // movdqa 0x510(%rip),%xmm8 # 1eb0 <_sk_xor__ssse3_lowp+0x3bb>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,69,15,56,11,209 // pmulhrsw %xmm9,%xmm10
- .byte 102,69,15,56,29,210 // pabsw %xmm10,%xmm10
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,15,56,11,196 // pmulhrsw %xmm4,%xmm0
- .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,69,15,56,11,216 // pmulhrsw %xmm8,%xmm11
- .byte 102,69,15,56,29,219 // pabsw %xmm11,%xmm11
- .byte 102,69,15,253,218 // paddw %xmm10,%xmm11
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,69,15,56,11,209 // pmulhrsw %xmm9,%xmm10
- .byte 102,69,15,56,29,210 // pabsw %xmm10,%xmm10
- .byte 102,15,56,11,205 // pmulhrsw %xmm5,%xmm1
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,69,15,56,11,216 // pmulhrsw %xmm8,%xmm11
- .byte 102,69,15,56,29,219 // pabsw %xmm11,%xmm11
- .byte 102,69,15,253,218 // paddw %xmm10,%xmm11
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,69,15,56,11,209 // pmulhrsw %xmm9,%xmm10
- .byte 102,69,15,56,29,210 // pabsw %xmm10,%xmm10
- .byte 102,15,56,11,214 // pmulhrsw %xmm6,%xmm2
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,56,11,216 // pmulhrsw %xmm8,%xmm11
- .byte 102,69,15,56,29,219 // pabsw %xmm11,%xmm11
- .byte 102,69,15,253,218 // paddw %xmm10,%xmm11
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,68,15,56,11,203 // pmulhrsw %xmm3,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,68,15,56,11,199 // pmulhrsw %xmm7,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,15,56,11,223 // pmulhrsw %xmm7,%xmm3
- .byte 102,15,56,29,219 // pabsw %xmm3,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_ssse3_lowp
-.globl _sk_screen_ssse3_lowp
-FUNCTION(_sk_screen_ssse3_lowp)
-_sk_screen_ssse3_lowp:
- .byte 102,68,15,111,5,54,4,0,0 // movdqa 0x436(%rip),%xmm8 # 1ec0 <_sk_xor__ssse3_lowp+0x3cb>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,200 // psubw %xmm0,%xmm9
- .byte 102,68,15,56,11,204 // pmulhrsw %xmm4,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,201 // psubw %xmm1,%xmm9
- .byte 102,68,15,56,11,205 // pmulhrsw %xmm5,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,202 // psubw %xmm2,%xmm9
- .byte 102,68,15,56,11,206 // pmulhrsw %xmm6,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,56,11,199 // pmulhrsw %xmm7,%xmm8
- .byte 102,69,15,56,29,192 // pabsw %xmm8,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__ssse3_lowp
-.globl _sk_xor__ssse3_lowp
-FUNCTION(_sk_xor__ssse3_lowp)
-_sk_xor__ssse3_lowp:
- .byte 102,68,15,111,5,210,3,0,0 // movdqa 0x3d2(%rip),%xmm8 # 1ed0 <_sk_xor__ssse3_lowp+0x3db>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,56,11,193 // pmulhrsw %xmm9,%xmm0
- .byte 102,68,15,56,29,208 // pabsw %xmm0,%xmm10
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,56,11,192 // pmulhrsw %xmm8,%xmm0
- .byte 102,15,56,29,192 // pabsw %xmm0,%xmm0
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,56,11,201 // pmulhrsw %xmm9,%xmm1
- .byte 102,68,15,56,29,209 // pabsw %xmm1,%xmm10
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,56,11,200 // pmulhrsw %xmm8,%xmm1
- .byte 102,15,56,29,201 // pabsw %xmm1,%xmm1
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,56,11,209 // pmulhrsw %xmm9,%xmm2
- .byte 102,68,15,56,29,210 // pabsw %xmm2,%xmm10
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,56,11,208 // pmulhrsw %xmm8,%xmm2
- .byte 102,15,56,29,210 // pabsw %xmm2,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,68,15,56,11,203 // pmulhrsw %xmm3,%xmm9
- .byte 102,69,15,56,29,201 // pabsw %xmm9,%xmm9
- .byte 102,68,15,56,11,199 // pmulhrsw %xmm7,%xmm8
- .byte 102,65,15,56,29,216 // pabsw %xmm8,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-BALIGN16
- .byte 0,0 // add %al,(%rax)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,128 // addb $0x80,0x0(%rbx)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809d55 <_sk_xor__ssse3_lowp+0xffffffff81808260>
- .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
- .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
- .byte 13,14,9,10,13 // or $0xd0a090e,%eax
- .byte 14 // (bad)
- .byte 13,14,15,255,2 // or $0x2ff0f0e,%eax
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 1,4,5,8,9,12,13 // add %eax,0xd0c0908(,%rax,1)
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809da5 <_sk_xor__ssse3_lowp+0xffffffff818082b0>
- .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
- .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
- .byte 13,14,9,10,13 // or $0xd0a090e,%eax
- .byte 14 // (bad)
- .byte 13,14,15,255,2 // or $0x2ff0f0e,%eax
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809e05 <_sk_xor__ssse3_lowp+0xffffffff81808310>
- .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
- .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
- .byte 13,14,9,10,13 // or $0xd0a090e,%eax
- .byte 14 // (bad)
- .byte 13,14,15,255,2 // or $0x2ff0f0e,%eax
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 1,4,5,8,9,12,13 // add %eax,0xd0c0908(,%rax,1)
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,129,128,129,128,129 // jno ffffffff81809e55 <_sk_xor__ssse3_lowp+0xffffffff81808360>
- .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
- .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
- .byte 13,14,9,10,13 // or $0xd0a090e,%eax
- .byte 14 // (bad)
- .byte 13,14,15,255,2 // or $0x2ff0f0e,%eax
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,0,2,4,6,0,0,0,0 // addl $0x0,0x6040200(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,2 // add %al,(%rdx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,0,128,0,128 // addl $0x80008000,-0x7f7e7f7f(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,0,128,0,128 // addl $0x80008000,-0x7f7e7f7f(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,255 // (bad)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,129,128,129,128,129 // add %al,-0x7e7f7e80(%rcx)
- .byte 128,129,128,129,128,129,128 // addb $0x80,-0x7e7f7e80(%rcx)
- .byte 129,128,129,128,1,2,5,6,9,10 // addl $0xa090605,0x2018081(%rax)
- .byte 13,14,9,10,13 // or $0xd0a090e,%eax
- .byte 14 // (bad)
- .byte 13,14,15,255,2 // or $0x2ff0f0e,%eax
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255,3 // incl (%rbx)
- .byte 255,7 // incl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 128,0,128 // addb $0x80,(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,0,128,0,128 // addl $0x80008000,-0x7f7e7f7f(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 129,128,129,128,129,128,129,128,129,128// addl $0x80818081,-0x7f7e7f7f(%rax)
- .byte 129,128,129,128,129,128,0,128,0,128 // addl $0x80008000,-0x7f7e7f7f(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
-
-BALIGN4
- .byte 0,0 // add %al,(%rax)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128,67,0,0 // addb $0x0,0x0(%rbx)
- .byte 128 // .byte 0x80
- .byte 67 // rex.XB
-BALIGN32
-
HIDDEN _sk_start_pipeline_hsw_8bit
.globl _sk_start_pipeline_hsw_8bit
FUNCTION(_sk_start_pipeline_hsw_8bit)