aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2017-10-02 11:43:20 -0700
committerGravatar Skia Commit-Bot <skia-commit-bot@chromium.org>2017-10-02 22:05:49 +0000
commitb437351d880fd17ea2bb8fd0997da7754a32903c (patch)
treeee6f99644debae9e8e643ad49977084ee2ac8502 /src/jumper
parent099fa0fb9801a138f12cf7cdf46b6581d81acce8 (diff)
add _skx stages
This just makes sure all the plumbing is in place to use the Skylake Xeon subset of AVX-512 instructions. So far, - no Windows - no lowp - nothing explicitly making use of AVX-512 registers or instructions This initial pass should run essentially identically to the _hsw AVX2 code we've been using previously. Clang _does_ use AVX-512-only instructions to implement some of the higher-level concepts we've coded, but it's really a pretty subtle difference. Next steps will bump N from 8 to 16 and start threading through an AVX-512-friendly mask instead of tail. I'll also want to take a harder look at how we do blending like if_then_else()... the default codegen here doesn't really take advantage of AVX-512 the way I'd like here. CQ_INCLUDE_TRYBOTS=skia.primary:Test-Debian9-Clang-GCE-CPU-AVX512-x86_64-Debug Change-Id: I6c9442488a449ea4770617bb22b2669859cc92e2 Reviewed-on: https://skia-review.googlesource.com/54062 Commit-Queue: Mike Klein <mtklein@chromium.org> Reviewed-by: Herb Derby <herb@google.com>
Diffstat (limited to 'src/jumper')
-rw-r--r--src/jumper/SkJumper.cpp20
-rw-r--r--src/jumper/SkJumper_generated.S13669
-rw-r--r--src/jumper/SkJumper_stages.cpp11
-rw-r--r--src/jumper/SkJumper_vectors.h12
-rwxr-xr-xsrc/jumper/build_stages.py7
5 files changed, 10454 insertions, 3265 deletions
diff --git a/src/jumper/SkJumper.cpp b/src/jumper/SkJumper.cpp
index 5dc55742ec..ef4881e5f7 100644
--- a/src/jumper/SkJumper.cpp
+++ b/src/jumper/SkJumper.cpp
@@ -127,7 +127,8 @@ extern "C" {
#undef M
#elif defined(__x86_64__) || defined(_M_X64)
- StartPipelineFn ASM(start_pipeline, hsw),
+ StartPipelineFn ASM(start_pipeline, skx),
+ ASM(start_pipeline, hsw),
ASM(start_pipeline, avx),
ASM(start_pipeline, sse41),
ASM(start_pipeline, sse2),
@@ -135,7 +136,8 @@ extern "C" {
ASM(start_pipeline,sse41_lowp),
ASM(start_pipeline, sse2_lowp);
- StageFn ASM(just_return, hsw),
+ StageFn ASM(just_return, skx),
+ ASM(just_return, hsw),
ASM(just_return, avx),
ASM(just_return, sse41),
ASM(just_return, sse2),
@@ -143,7 +145,8 @@ extern "C" {
ASM(just_return,sse41_lowp),
ASM(just_return, sse2_lowp);
- #define M(st) StageFn ASM(st, hsw), \
+ #define M(st) StageFn ASM(st, skx), \
+ ASM(st, hsw), \
ASM(st, avx), \
ASM(st,sse41), \
ASM(st, sse2);
@@ -268,6 +271,17 @@ static SkJumper_Engine choose_engine() {
}
#elif defined(__x86_64__) || defined(_M_X64)
+ #if !defined(_MSC_VER) // No _skx stages for Windows yet.
+ if (1 && SkCpu::Supports(SkCpu::SKX)) {
+ return {
+ #define M(stage) ASM(stage, skx),
+ { SK_RASTER_PIPELINE_STAGES(M) },
+ M(start_pipeline)
+ M(just_return)
+ #undef M
+ };
+ }
+ #endif
if (1 && SkCpu::Supports(SkCpu::HSW)) {
return {
#define M(stage) ASM(stage, hsw),
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index 337703b096..a0a38fc757 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -9365,6 +9365,7132 @@ _sk_clut_4D_vfp4:
#elif defined(__x86_64__)
BALIGN32
+HIDDEN _sk_start_pipeline_skx
+.globl _sk_start_pipeline_skx
+FUNCTION(_sk_start_pipeline_skx)
+_sk_start_pipeline_skx:
+ .byte 85 // push %rbp
+ .byte 72,137,229 // mov %rsp,%rbp
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,85 // push %r13
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,131,236,24 // sub $0x18,%rsp
+ .byte 73,137,215 // mov %rdx,%r15
+ .byte 72,137,243 // mov %rsi,%rbx
+ .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
+ .byte 76,137,198 // mov %r8,%rsi
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 73,137,197 // mov %rax,%r13
+ .byte 73,137,246 // mov %rsi,%r14
+ .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
+ .byte 72,57,203 // cmp %rcx,%rbx
+ .byte 15,131,152,0,0,0 // jae cb <_sk_start_pipeline_skx+0xcb>
+ .byte 72,139,69,208 // mov -0x30(%rbp),%rax
+ .byte 72,141,64,8 // lea 0x8(%rax),%rax
+ .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
+ .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
+ .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
+ .byte 119,67 // ja 8c <_sk_start_pipeline_skx+0x8c>
+ .byte 76,139,101,208 // mov -0x30(%rbp),%r12
+ .byte 49,255 // xor %edi,%edi
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
+ .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
+ .byte 76,137,246 // mov %r14,%rsi
+ .byte 76,137,226 // mov %r12,%rdx
+ .byte 72,137,217 // mov %rbx,%rcx
+ .byte 65,255,213 // callq *%r13
+ .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
+ .byte 73,131,196,16 // add $0x10,%r12
+ .byte 77,57,252 // cmp %r15,%r12
+ .byte 73,137,212 // mov %rdx,%r12
+ .byte 118,193 // jbe 4d <_sk_start_pipeline_skx+0x4d>
+ .byte 76,137,255 // mov %r15,%rdi
+ .byte 72,41,215 // sub %rdx,%rdi
+ .byte 116,41 // je bd <_sk_start_pipeline_skx+0xbd>
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
+ .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
+ .byte 76,137,246 // mov %r14,%rsi
+ .byte 72,137,217 // mov %rbx,%rcx
+ .byte 65,255,213 // callq *%r13
+ .byte 72,131,195,1 // add $0x1,%rbx
+ .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
+ .byte 15,133,116,255,255,255 // jne 3f <_sk_start_pipeline_skx+0x3f>
+ .byte 72,131,196,24 // add $0x18,%rsp
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,93 // pop %r13
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 93 // pop %rbp
+ .byte 197,248,119 // vzeroupper
+ .byte 195 // retq
+
+HIDDEN _sk_just_return_skx
+.globl _sk_just_return_skx
+FUNCTION(_sk_just_return_skx)
+_sk_just_return_skx:
+ .byte 195 // retq
+
+HIDDEN _sk_seed_shader_skx
+.globl _sk_seed_shader_skx
+FUNCTION(_sk_seed_shader_skx)
+_sk_seed_shader_skx:
+ .byte 98,242,125,40,124,194 // vpbroadcastd %edx,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 197,252,88,5,80,34,3,0 // vaddps 0x32250(%rip),%ymm0,%ymm0 # 32340 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
+ .byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,241,116,56,88,13,0,40,3,0 // vaddps 0x32800(%rip){1to8},%ymm1,%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,21,249,39,3,0 // vbroadcastss 0x327f9(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
+ .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
+ .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
+ .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_dither_skx
+.globl _sk_dither_skx
+FUNCTION(_sk_dither_skx)
+_sk_dither_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
+ .byte 197,61,254,5,43,34,3,0 // vpaddd 0x3222b(%rip),%ymm8,%ymm8 # 32360 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
+ .byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
+ .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
+ .byte 196,98,125,88,21,195,39,3,0 // vpbroadcastd 0x327c3(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
+ .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
+ .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
+ .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
+ .byte 196,98,125,88,37,168,39,3,0 // vpbroadcastd 0x327a8(%rip),%ymm12 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,45,163,39,3,0 // vpbroadcastd 0x327a3(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
+ .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
+ .byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
+ .byte 196,65,61,219,237 // vpand %ymm13,%ymm8,%ymm13
+ .byte 196,65,21,254,237 // vpaddd %ymm13,%ymm13,%ymm13
+ .byte 196,65,21,235,210 // vpor %ymm10,%ymm13,%ymm10
+ .byte 196,65,53,219,204 // vpand %ymm12,%ymm9,%ymm9
+ .byte 196,193,53,114,209,1 // vpsrld $0x1,%ymm9,%ymm9
+ .byte 196,65,61,219,196 // vpand %ymm12,%ymm8,%ymm8
+ .byte 196,193,61,114,208,2 // vpsrld $0x2,%ymm8,%ymm8
+ .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
+ .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 196,98,125,24,13,85,39,3,0 // vbroadcastss 0x32755(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 98,114,61,56,168,13,79,39,3,0 // vfmadd213ps 0x3274f(%rip){1to8},%ymm8,%ymm9 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
+ .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
+ .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
+ .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
+ .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
+ .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_uniform_color_skx
+.globl _sk_uniform_color_skx
+FUNCTION(_sk_uniform_color_skx)
+_sk_uniform_color_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
+ .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
+ .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
+ .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_black_color_skx
+.globl _sk_black_color_skx
+FUNCTION(_sk_black_color_skx)
+_sk_black_color_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,220,38,3,0 // vbroadcastss 0x326dc(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_white_color_skx
+.globl _sk_white_color_skx
+FUNCTION(_sk_white_color_skx)
+_sk_white_color_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,5,195,38,3,0 // vbroadcastss 0x326c3(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
+ .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
+ .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_load_rgba_skx
+.globl _sk_load_rgba_skx
+FUNCTION(_sk_load_rgba_skx)
+_sk_load_rgba_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2
+ .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_rgba_skx
+.globl _sk_store_rgba_skx
+FUNCTION(_sk_store_rgba_skx)
+_sk_store_rgba_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,17,0 // vmovups %ymm0,(%rax)
+ .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax)
+ .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax)
+ .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clear_skx
+.globl _sk_clear_skx
+FUNCTION(_sk_clear_skx)
+_sk_clear_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_srcatop_skx
+.globl _sk_srcatop_skx
+FUNCTION(_sk_srcatop_skx)
+_sk_srcatop_skx:
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 196,98,125,24,5,98,38,3,0 // vbroadcastss 0x32662(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
+ .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
+ .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_dstatop_skx
+.globl _sk_dstatop_skx
+FUNCTION(_sk_dstatop_skx)
+_sk_dstatop_skx:
+ .byte 196,98,125,24,5,49,38,3,0 // vbroadcastss 0x32631(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 196,226,101,184,205 // vfmadd231ps %ymm5,%ymm3,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 196,226,101,184,214 // vfmadd231ps %ymm6,%ymm3,%ymm2
+ .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
+ .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_srcin_skx
+.globl _sk_srcin_skx
+FUNCTION(_sk_srcin_skx)
+_sk_srcin_skx:
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_dstin_skx
+.globl _sk_dstin_skx
+FUNCTION(_sk_dstin_skx)
+_sk_dstin_skx:
+ .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
+ .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
+ .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
+ .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_srcout_skx
+.globl _sk_srcout_skx
+FUNCTION(_sk_srcout_skx)
+_sk_srcout_skx:
+ .byte 196,98,125,24,5,212,37,3,0 // vbroadcastss 0x325d4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_dstout_skx
+.globl _sk_dstout_skx
+FUNCTION(_sk_dstout_skx)
+_sk_dstout_skx:
+ .byte 196,226,125,24,5,179,37,3,0 // vbroadcastss 0x325b3(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
+ .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
+ .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
+ .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
+ .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_srcover_skx
+.globl _sk_srcover_skx
+FUNCTION(_sk_srcover_skx)
+_sk_srcover_skx:
+ .byte 196,98,125,24,5,146,37,3,0 // vbroadcastss 0x32592(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
+ .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
+ .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_dstover_skx
+.globl _sk_dstover_skx
+FUNCTION(_sk_dstover_skx)
+_sk_dstover_skx:
+ .byte 196,98,125,24,5,109,37,3,0 // vbroadcastss 0x3256d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
+ .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
+ .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
+ .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
+ .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_modulate_skx
+.globl _sk_modulate_skx
+FUNCTION(_sk_modulate_skx)
+_sk_modulate_skx:
+ .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
+ .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
+ .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
+ .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_multiply_skx
+.globl _sk_multiply_skx
+FUNCTION(_sk_multiply_skx)
+_sk_multiply_skx:
+ .byte 196,98,125,24,5,52,37,3,0 // vbroadcastss 0x32534(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
+ .byte 196,194,93,168,194 // vfmadd213ps %ymm10,%ymm4,%ymm0
+ .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
+ .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
+ .byte 196,194,85,168,202 // vfmadd213ps %ymm10,%ymm5,%ymm1
+ .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10
+ .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
+ .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
+ .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9
+ .byte 196,66,69,168,193 // vfmadd213ps %ymm9,%ymm7,%ymm8
+ .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_plus__skx
+.globl _sk_plus__skx
+FUNCTION(_sk_plus__skx)
+_sk_plus__skx:
+ .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
+ .byte 196,98,125,24,5,227,36,3,0 // vbroadcastss 0x324e3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
+ .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
+ .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
+ .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
+ .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
+ .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
+ .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_screen_skx
+.globl _sk_screen_skx
+FUNCTION(_sk_screen_skx)
+_sk_screen_skx:
+ .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
+ .byte 196,194,93,172,192 // vfnmadd213ps %ymm8,%ymm4,%ymm0
+ .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
+ .byte 196,194,85,172,200 // vfnmadd213ps %ymm8,%ymm5,%ymm1
+ .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
+ .byte 196,194,77,172,208 // vfnmadd213ps %ymm8,%ymm6,%ymm2
+ .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8
+ .byte 196,194,69,172,216 // vfnmadd213ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xor__skx
+.globl _sk_xor__skx
+FUNCTION(_sk_xor__skx)
+_sk_xor__skx:
+ .byte 196,98,125,24,5,142,36,3,0 // vbroadcastss 0x3248e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
+ .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
+ .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
+ .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
+ .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
+ .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
+ .byte 196,98,69,168,195 // vfmadd213ps %ymm3,%ymm7,%ymm8
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_darken_skx
+.globl _sk_darken_skx
+FUNCTION(_sk_darken_skx)
+_sk_darken_skx:
+ .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
+ .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
+ .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1
+ .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
+ .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
+ .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,5,18,36,3,0 // vbroadcastss 0x32412(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_lighten_skx
+.globl _sk_lighten_skx
+FUNCTION(_sk_lighten_skx)
+_sk_lighten_skx:
+ .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
+ .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
+ .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
+ .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
+ .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
+ .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,5,189,35,3,0 // vbroadcastss 0x323bd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_difference_skx
+.globl _sk_difference_skx
+FUNCTION(_sk_difference_skx)
+_sk_difference_skx:
+ .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
+ .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
+ .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
+ .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
+ .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
+ .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
+ .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
+ .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
+ .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
+ .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
+ .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
+ .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
+ .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
+ .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
+ .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,5,92,35,3,0 // vbroadcastss 0x3235c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_exclusion_skx
+.globl _sk_exclusion_skx
+FUNCTION(_sk_exclusion_skx)
+_sk_exclusion_skx:
+ .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
+ .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
+ .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
+ .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
+ .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
+ .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
+ .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
+ .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
+ .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 196,98,125,24,5,22,35,3,0 // vbroadcastss 0x32316(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_colorburn_skx
+.globl _sk_colorburn_skx
+FUNCTION(_sk_colorburn_skx)
+_sk_colorburn_skx:
+ .byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,98,125,24,13,243,34,3,0 // vbroadcastss 0x322f3(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
+ .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
+ .byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
+ .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
+ .byte 98,209,124,40,194,197,0 // vcmpeqps %ymm13,%ymm0,%k0
+ .byte 98,114,126,40,56,240 // vpmovm2d %k0,%ymm14
+ .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
+ .byte 197,52,89,252 // vmulps %ymm4,%ymm9,%ymm15
+ .byte 98,225,68,40,92,196 // vsubps %ymm4,%ymm7,%ymm16
+ .byte 98,225,124,32,89,195 // vmulps %ymm3,%ymm16,%ymm16
+ .byte 98,242,125,40,76,192 // vrcp14ps %ymm0,%ymm0
+ .byte 98,241,124,32,89,192 // vmulps %ymm0,%ymm16,%ymm0
+ .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
+ .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
+ .byte 196,194,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm0
+ .byte 197,132,88,192 // vaddps %ymm0,%ymm15,%ymm0
+ .byte 196,195,125,74,199,224 // vblendvps %ymm14,%ymm15,%ymm0,%ymm0
+ .byte 196,195,125,74,196,128 // vblendvps %ymm8,%ymm12,%ymm0,%ymm0
+ .byte 98,241,84,40,194,199,0 // vcmpeqps %ymm7,%ymm5,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
+ .byte 197,36,88,229 // vaddps %ymm5,%ymm11,%ymm12
+ .byte 98,209,116,40,194,197,0 // vcmpeqps %ymm13,%ymm1,%k0
+ .byte 98,114,126,40,56,240 // vpmovm2d %k0,%ymm14
+ .byte 197,52,89,253 // vmulps %ymm5,%ymm9,%ymm15
+ .byte 98,225,68,40,92,197 // vsubps %ymm5,%ymm7,%ymm16
+ .byte 98,225,124,32,89,195 // vmulps %ymm3,%ymm16,%ymm16
+ .byte 98,242,125,40,76,201 // vrcp14ps %ymm1,%ymm1
+ .byte 98,241,124,32,89,201 // vmulps %ymm1,%ymm16,%ymm1
+ .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
+ .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
+ .byte 196,194,101,168,203 // vfmadd213ps %ymm11,%ymm3,%ymm1
+ .byte 197,132,88,201 // vaddps %ymm1,%ymm15,%ymm1
+ .byte 196,195,117,74,207,224 // vblendvps %ymm14,%ymm15,%ymm1,%ymm1
+ .byte 196,195,117,74,204,128 // vblendvps %ymm8,%ymm12,%ymm1,%ymm1
+ .byte 98,241,76,40,194,199,0 // vcmpeqps %ymm7,%ymm6,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
+ .byte 197,44,88,222 // vaddps %ymm6,%ymm10,%ymm11
+ .byte 98,209,108,40,194,197,0 // vcmpeqps %ymm13,%ymm2,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 197,52,89,238 // vmulps %ymm6,%ymm9,%ymm13
+ .byte 197,68,92,246 // vsubps %ymm6,%ymm7,%ymm14
+ .byte 197,12,89,243 // vmulps %ymm3,%ymm14,%ymm14
+ .byte 98,242,125,40,76,210 // vrcp14ps %ymm2,%ymm2
+ .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2
+ .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
+ .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
+ .byte 196,194,101,168,210 // vfmadd213ps %ymm10,%ymm3,%ymm2
+ .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2
+ .byte 196,195,109,74,213,192 // vblendvps %ymm12,%ymm13,%ymm2,%ymm2
+ .byte 196,195,109,74,211,128 // vblendvps %ymm8,%ymm11,%ymm2,%ymm2
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_colordodge_skx
+.globl _sk_colordodge_skx
+FUNCTION(_sk_colordodge_skx)
+_sk_colordodge_skx:
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,98,125,24,21,196,33,3,0 // vbroadcastss 0x321c4(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
+ .byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
+ .byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 197,44,92,211 // vsubps %ymm3,%ymm10,%ymm10
+ .byte 197,44,89,244 // vmulps %ymm4,%ymm10,%ymm14
+ .byte 197,12,88,248 // vaddps %ymm0,%ymm14,%ymm15
+ .byte 98,225,100,40,89,196 // vmulps %ymm4,%ymm3,%ymm16
+ .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
+ .byte 98,242,125,40,76,192 // vrcp14ps %ymm0,%ymm0
+ .byte 98,241,124,32,89,192 // vmulps %ymm0,%ymm16,%ymm0
+ .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
+ .byte 196,194,101,168,196 // vfmadd213ps %ymm12,%ymm3,%ymm0
+ .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
+ .byte 196,195,125,74,199,208 // vblendvps %ymm13,%ymm15,%ymm0,%ymm0
+ .byte 196,195,125,74,196,144 // vblendvps %ymm9,%ymm12,%ymm0,%ymm0
+ .byte 98,209,84,40,194,192,0 // vcmpeqps %ymm8,%ymm5,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 197,36,89,225 // vmulps %ymm1,%ymm11,%ymm12
+ .byte 98,241,116,40,194,195,0 // vcmpeqps %ymm3,%ymm1,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 197,44,89,245 // vmulps %ymm5,%ymm10,%ymm14
+ .byte 197,12,88,249 // vaddps %ymm1,%ymm14,%ymm15
+ .byte 98,225,100,40,89,197 // vmulps %ymm5,%ymm3,%ymm16
+ .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
+ .byte 98,242,125,40,76,201 // vrcp14ps %ymm1,%ymm1
+ .byte 98,241,124,32,89,201 // vmulps %ymm1,%ymm16,%ymm1
+ .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
+ .byte 196,194,101,168,204 // vfmadd213ps %ymm12,%ymm3,%ymm1
+ .byte 197,140,88,201 // vaddps %ymm1,%ymm14,%ymm1
+ .byte 196,195,117,74,207,208 // vblendvps %ymm13,%ymm15,%ymm1,%ymm1
+ .byte 196,195,117,74,204,144 // vblendvps %ymm9,%ymm12,%ymm1,%ymm1
+ .byte 98,209,76,40,194,192,0 // vcmpeqps %ymm8,%ymm6,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 197,36,89,202 // vmulps %ymm2,%ymm11,%ymm9
+ .byte 98,241,108,40,194,195,0 // vcmpeqps %ymm3,%ymm2,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,44,89,230 // vmulps %ymm6,%ymm10,%ymm12
+ .byte 197,28,88,234 // vaddps %ymm2,%ymm12,%ymm13
+ .byte 197,100,89,246 // vmulps %ymm6,%ymm3,%ymm14
+ .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
+ .byte 98,242,125,40,76,210 // vrcp14ps %ymm2,%ymm2
+ .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2
+ .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
+ .byte 196,194,101,168,209 // vfmadd213ps %ymm9,%ymm3,%ymm2
+ .byte 197,156,88,210 // vaddps %ymm2,%ymm12,%ymm2
+ .byte 196,195,109,74,213,176 // vblendvps %ymm11,%ymm13,%ymm2,%ymm2
+ .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
+ .byte 196,194,69,184,218 // vfmadd231ps %ymm10,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_hardlight_skx
+.globl _sk_hardlight_skx
+FUNCTION(_sk_hardlight_skx)
+_sk_hardlight_skx:
+ .byte 196,98,125,24,5,188,32,3,0 // vbroadcastss 0x320bc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
+ .byte 197,124,88,216 // vaddps %ymm0,%ymm0,%ymm11
+ .byte 98,241,36,40,194,195,2 // vcmpleps %ymm3,%ymm11,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,124,89,228 // vmulps %ymm4,%ymm0,%ymm12
+ .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
+ .byte 197,100,89,239 // vmulps %ymm7,%ymm3,%ymm13
+ .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
+ .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
+ .byte 197,148,92,192 // vsubps %ymm0,%ymm13,%ymm0
+ .byte 196,195,125,74,196,176 // vblendvps %ymm11,%ymm12,%ymm0,%ymm0
+ .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
+ .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
+ .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
+ .byte 197,116,88,217 // vaddps %ymm1,%ymm1,%ymm11
+ .byte 98,241,36,40,194,195,2 // vcmpleps %ymm3,%ymm11,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,116,89,229 // vmulps %ymm5,%ymm1,%ymm12
+ .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
+ .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
+ .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
+ .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
+ .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
+ .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
+ .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
+ .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
+ .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
+ .byte 196,98,61,184,206 // vfmadd231ps %ymm6,%ymm8,%ymm9
+ .byte 197,108,88,210 // vaddps %ymm2,%ymm2,%ymm10
+ .byte 98,241,44,40,194,195,2 // vcmpleps %ymm3,%ymm10,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 197,108,89,222 // vmulps %ymm6,%ymm2,%ymm11
+ .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
+ .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
+ .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
+ .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
+ .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
+ .byte 197,148,92,210 // vsubps %ymm2,%ymm13,%ymm2
+ .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
+ .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_overlay_skx
+.globl _sk_overlay_skx
+FUNCTION(_sk_overlay_skx)
+_sk_overlay_skx:
+ .byte 196,98,125,24,5,216,31,3,0 // vbroadcastss 0x31fd8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
+ .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
+ .byte 197,92,88,220 // vaddps %ymm4,%ymm4,%ymm11
+ .byte 98,241,36,40,194,199,2 // vcmpleps %ymm7,%ymm11,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,124,89,228 // vmulps %ymm4,%ymm0,%ymm12
+ .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
+ .byte 197,100,89,239 // vmulps %ymm7,%ymm3,%ymm13
+ .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
+ .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
+ .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
+ .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
+ .byte 197,148,92,192 // vsubps %ymm0,%ymm13,%ymm0
+ .byte 196,195,125,74,196,176 // vblendvps %ymm11,%ymm12,%ymm0,%ymm0
+ .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
+ .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
+ .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
+ .byte 197,84,88,221 // vaddps %ymm5,%ymm5,%ymm11
+ .byte 98,241,36,40,194,199,2 // vcmpleps %ymm7,%ymm11,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,116,89,229 // vmulps %ymm5,%ymm1,%ymm12
+ .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
+ .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
+ .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
+ .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
+ .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
+ .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
+ .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
+ .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
+ .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
+ .byte 196,98,61,184,206 // vfmadd231ps %ymm6,%ymm8,%ymm9
+ .byte 197,76,88,214 // vaddps %ymm6,%ymm6,%ymm10
+ .byte 98,241,44,40,194,199,2 // vcmpleps %ymm7,%ymm10,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 197,108,89,222 // vmulps %ymm6,%ymm2,%ymm11
+ .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
+ .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
+ .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
+ .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
+ .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
+ .byte 197,148,92,210 // vsubps %ymm2,%ymm13,%ymm2
+ .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
+ .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_softlight_skx
+.globl _sk_softlight_skx
+FUNCTION(_sk_softlight_skx)
+_sk_softlight_skx:
+ .byte 98,225,124,40,40,194 // vmovaps %ymm2,%ymm16
+ .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 98,241,108,40,194,199,1 // vcmpltps %ymm7,%ymm2,%k0
+ .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
+ .byte 197,92,94,207 // vdivps %ymm7,%ymm4,%ymm9
+ .byte 196,67,109,74,201,16 // vblendvps %ymm1,%ymm9,%ymm2,%ymm9
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 197,124,88,248 // vaddps %ymm0,%ymm0,%ymm15
+ .byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
+ .byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
+ .byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
+ .byte 196,98,125,24,29,182,30,3,0 // vbroadcastss 0x31eb6(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
+ .byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
+ .byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
+ .byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
+ .byte 98,226,125,40,24,21,177,30,3,0 // vbroadcastss 0x31eb1(%rip),%ymm18 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
+ .byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
+ .byte 98,226,125,40,24,29,159,30,3,0 // vbroadcastss 0x31e9f(%rip),%ymm19 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
+ .byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
+ .byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
+ .byte 98,81,116,32,92,201 // vsubps %ymm9,%ymm17,%ymm9
+ .byte 197,12,89,247 // vmulps %ymm7,%ymm14,%ymm14
+ .byte 98,225,92,40,88,204 // vaddps %ymm4,%ymm4,%ymm17
+ .byte 98,161,116,32,88,201 // vaddps %ymm17,%ymm17,%ymm17
+ .byte 98,241,116,32,194,199,2 // vcmpleps %ymm7,%ymm17,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,67,53,74,196,128 // vblendvps %ymm8,%ymm12,%ymm9,%ymm8
+ .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
+ .byte 196,98,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm8
+ .byte 197,36,92,247 // vsubps %ymm7,%ymm11,%ymm14
+ .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0
+ .byte 197,36,92,203 // vsubps %ymm3,%ymm11,%ymm9
+ .byte 196,226,53,184,196 // vfmadd231ps %ymm4,%ymm9,%ymm0
+ .byte 98,241,4,40,194,195,2 // vcmpleps %ymm3,%ymm15,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 196,227,61,74,210,192 // vblendvps %ymm12,%ymm2,%ymm8,%ymm2
+ .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
+ .byte 197,212,94,215 // vdivps %ymm7,%ymm5,%ymm2
+ .byte 196,227,45,74,210,16 // vblendvps %ymm1,%ymm2,%ymm10,%ymm2
+ .byte 98,49,92,32,88,196 // vaddps %ymm20,%ymm20,%ymm8
+ .byte 197,108,88,226 // vaddps %ymm2,%ymm2,%ymm12
+ .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
+ .byte 197,60,92,251 // vsubps %ymm3,%ymm8,%ymm15
+ .byte 98,225,36,40,92,202 // vsubps %ymm2,%ymm11,%ymm17
+ .byte 98,226,5,40,168,203 // vfmadd213ps %ymm3,%ymm15,%ymm17
+ .byte 98,113,116,32,89,237 // vmulps %ymm5,%ymm17,%ymm13
+ .byte 196,66,29,168,228 // vfmadd213ps %ymm12,%ymm12,%ymm12
+ .byte 98,161,108,40,88,202 // vaddps %ymm18,%ymm2,%ymm17
+ .byte 98,81,116,32,89,228 // vmulps %ymm12,%ymm17,%ymm12
+ .byte 98,50,109,40,184,227 // vfmadd231ps %ymm19,%ymm2,%ymm12
+ .byte 98,226,125,40,78,202 // vrsqrt14ps %ymm2,%ymm17
+ .byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
+ .byte 98,241,116,32,92,210 // vsubps %ymm2,%ymm17,%ymm2
+ .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
+ .byte 98,225,84,40,88,205 // vaddps %ymm5,%ymm5,%ymm17
+ .byte 98,161,116,32,88,201 // vaddps %ymm17,%ymm17,%ymm17
+ .byte 98,241,116,32,194,199,2 // vcmpleps %ymm7,%ymm17,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 196,195,109,74,212,160 // vblendvps %ymm10,%ymm12,%ymm2,%ymm2
+ .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
+ .byte 196,226,101,184,213 // vfmadd231ps %ymm5,%ymm3,%ymm2
+ .byte 98,49,12,40,89,212 // vmulps %ymm20,%ymm14,%ymm10
+ .byte 196,98,53,184,213 // vfmadd231ps %ymm5,%ymm9,%ymm10
+ .byte 98,241,60,40,194,195,2 // vcmpleps %ymm3,%ymm8,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,195,109,74,213,128 // vblendvps %ymm8,%ymm13,%ymm2,%ymm2
+ .byte 197,44,88,194 // vaddps %ymm2,%ymm10,%ymm8
+ .byte 197,204,94,215 // vdivps %ymm7,%ymm6,%ymm2
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,227,45,74,202,16 // vblendvps %ymm1,%ymm2,%ymm10,%ymm1
+ .byte 98,177,124,32,88,208 // vaddps %ymm16,%ymm16,%ymm2
+ .byte 197,116,88,209 // vaddps %ymm1,%ymm1,%ymm10
+ .byte 196,65,44,88,210 // vaddps %ymm10,%ymm10,%ymm10
+ .byte 197,108,92,227 // vsubps %ymm3,%ymm2,%ymm12
+ .byte 197,36,92,217 // vsubps %ymm1,%ymm11,%ymm11
+ .byte 196,98,29,168,219 // vfmadd213ps %ymm3,%ymm12,%ymm11
+ .byte 197,36,89,222 // vmulps %ymm6,%ymm11,%ymm11
+ .byte 196,66,45,168,210 // vfmadd213ps %ymm10,%ymm10,%ymm10
+ .byte 98,49,116,40,88,234 // vaddps %ymm18,%ymm1,%ymm13
+ .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
+ .byte 98,50,117,40,184,211 // vfmadd231ps %ymm19,%ymm1,%ymm10
+ .byte 98,114,125,40,78,233 // vrsqrt14ps %ymm1,%ymm13
+ .byte 98,82,125,40,76,237 // vrcp14ps %ymm13,%ymm13
+ .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
+ .byte 197,28,89,231 // vmulps %ymm7,%ymm12,%ymm12
+ .byte 197,76,88,238 // vaddps %ymm6,%ymm6,%ymm13
+ .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
+ .byte 98,241,20,40,194,199,2 // vcmpleps %ymm7,%ymm13,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 196,195,117,74,202,208 // vblendvps %ymm13,%ymm10,%ymm1,%ymm1
+ .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
+ .byte 196,226,101,184,206 // vfmadd231ps %ymm6,%ymm3,%ymm1
+ .byte 98,49,12,40,89,208 // vmulps %ymm16,%ymm14,%ymm10
+ .byte 196,98,53,184,214 // vfmadd231ps %ymm6,%ymm9,%ymm10
+ .byte 98,241,108,40,194,195,2 // vcmpleps %ymm3,%ymm2,%k0
+ .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
+ .byte 196,195,117,74,203,32 // vblendvps %ymm2,%ymm11,%ymm1,%ymm1
+ .byte 197,172,88,209 // vaddps %ymm1,%ymm10,%ymm2
+ .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_hue_skx
+.globl _sk_hue_skx
+FUNCTION(_sk_hue_skx)
+_sk_hue_skx:
+ .byte 98,225,124,40,40,210 // vmovaps %ymm2,%ymm18
+ .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
+ .byte 197,124,89,203 // vmulps %ymm3,%ymm0,%ymm9
+ .byte 98,113,92,32,89,211 // vmulps %ymm3,%ymm20,%ymm10
+ .byte 98,113,108,32,89,219 // vmulps %ymm3,%ymm18,%ymm11
+ .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8
+ .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8
+ .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12
+ .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12
+ .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
+ .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12
+ .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
+ .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
+ .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
+ .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
+ .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 98,241,12,40,194,193,0 // vcmpeqps %ymm1,%ymm14,%k0
+ .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
+ .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
+ .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
+ .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
+ .byte 196,99,53,74,201,240 // vblendvps %ymm15,%ymm1,%ymm9,%ymm9
+ .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
+ .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
+ .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
+ .byte 196,99,45,74,209,240 // vblendvps %ymm15,%ymm1,%ymm10,%ymm10
+ .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
+ .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
+ .byte 196,98,125,24,45,58,28,3,0 // vbroadcastss 0x31c3a(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,53,28,3,0 // vbroadcastss 0x31c35(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
+ .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
+ .byte 98,226,125,40,24,5,37,28,3,0 // vbroadcastss 0x31c25(%rip),%ymm16 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
+ .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
+ .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
+ .byte 98,50,29,40,184,216 // vfmadd231ps %ymm16,%ymm12,%ymm11
+ .byte 196,66,101,170,251 // vfmsub213ps %ymm11,%ymm3,%ymm15
+ .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
+ .byte 196,65,44,88,223 // vaddps %ymm15,%ymm10,%ymm11
+ .byte 196,65,28,88,215 // vaddps %ymm15,%ymm12,%ymm10
+ .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
+ .byte 196,65,36,93,250 // vminps %ymm10,%ymm11,%ymm15
+ .byte 196,65,52,93,255 // vminps %ymm15,%ymm9,%ymm15
+ .byte 98,193,36,40,95,202 // vmaxps %ymm10,%ymm11,%ymm17
+ .byte 98,161,52,40,95,201 // vmaxps %ymm17,%ymm9,%ymm17
+ .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
+ .byte 196,66,53,184,245 // vfmadd231ps %ymm13,%ymm9,%ymm14
+ .byte 98,50,45,40,184,240 // vfmadd231ps %ymm16,%ymm10,%ymm14
+ .byte 98,209,116,40,194,199,2 // vcmpleps %ymm15,%ymm1,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 98,193,52,40,92,198 // vsubps %ymm14,%ymm9,%ymm16
+ .byte 98,161,12,40,89,192 // vmulps %ymm16,%ymm14,%ymm16
+ .byte 196,65,12,92,255 // vsubps %ymm15,%ymm14,%ymm15
+ .byte 98,193,124,32,94,199 // vdivps %ymm15,%ymm16,%ymm16
+ .byte 98,49,12,40,88,192 // vaddps %ymm16,%ymm14,%ymm8
+ .byte 196,67,61,74,193,208 // vblendvps %ymm13,%ymm9,%ymm8,%ymm8
+ .byte 98,177,28,40,194,193,1 // vcmpltps %ymm17,%ymm12,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 98,193,60,40,92,198 // vsubps %ymm14,%ymm8,%ymm16
+ .byte 98,193,28,40,92,222 // vsubps %ymm14,%ymm12,%ymm19
+ .byte 98,161,100,32,89,192 // vmulps %ymm16,%ymm19,%ymm16
+ .byte 98,193,116,32,92,206 // vsubps %ymm14,%ymm17,%ymm17
+ .byte 98,161,124,32,94,193 // vdivps %ymm17,%ymm16,%ymm16
+ .byte 98,177,12,40,88,208 // vaddps %ymm16,%ymm14,%ymm2
+ .byte 196,227,61,74,210,144 // vblendvps %ymm9,%ymm2,%ymm8,%ymm2
+ .byte 197,236,95,209 // vmaxps %ymm1,%ymm2,%ymm2
+ .byte 196,65,36,92,198 // vsubps %ymm14,%ymm11,%ymm8
+ .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
+ .byte 196,65,60,94,199 // vdivps %ymm15,%ymm8,%ymm8
+ .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
+ .byte 196,67,61,74,195,208 // vblendvps %ymm13,%ymm11,%ymm8,%ymm8
+ .byte 196,65,60,92,222 // vsubps %ymm14,%ymm8,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,61,74,195,144 // vblendvps %ymm9,%ymm11,%ymm8,%ymm8
+ .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8
+ .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
+ .byte 196,65,12,89,219 // vmulps %ymm11,%ymm14,%ymm11
+ .byte 196,65,36,94,223 // vdivps %ymm15,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,37,74,210,208 // vblendvps %ymm13,%ymm10,%ymm11,%ymm10
+ .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
+ .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
+ .byte 196,226,125,24,13,193,26,3,0 // vbroadcastss 0x31ac1(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
+ .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
+ .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
+ .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
+ .byte 98,177,44,40,89,204 // vmulps %ymm20,%ymm10,%ymm1
+ .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
+ .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
+ .byte 98,177,44,40,89,210 // vmulps %ymm18,%ymm10,%ymm2
+ .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
+ .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
+ .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
+ .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_saturation_skx
+.globl _sk_saturation_skx
+FUNCTION(_sk_saturation_skx)
+_sk_saturation_skx:
+ .byte 98,225,124,40,40,210 // vmovaps %ymm2,%ymm18
+ .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
+ .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
+ .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
+ .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
+ .byte 98,49,92,32,95,194 // vmaxps %ymm18,%ymm20,%ymm8
+ .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
+ .byte 98,49,92,32,93,226 // vminps %ymm18,%ymm20,%ymm12
+ .byte 196,65,124,93,228 // vminps %ymm12,%ymm0,%ymm12
+ .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
+ .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12
+ .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
+ .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
+ .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
+ .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
+ .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 98,241,12,40,194,193,0 // vcmpeqps %ymm1,%ymm14,%k0
+ .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
+ .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
+ .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
+ .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
+ .byte 196,99,53,74,201,240 // vblendvps %ymm15,%ymm1,%ymm9,%ymm9
+ .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
+ .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
+ .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
+ .byte 196,99,45,74,209,240 // vblendvps %ymm15,%ymm1,%ymm10,%ymm10
+ .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
+ .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
+ .byte 196,98,125,24,45,246,25,3,0 // vbroadcastss 0x319f6(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,241,25,3,0 // vbroadcastss 0x319f1(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
+ .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
+ .byte 98,226,125,40,24,5,225,25,3,0 // vbroadcastss 0x319e1(%rip),%ymm16 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
+ .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
+ .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
+ .byte 98,50,29,40,184,216 // vfmadd231ps %ymm16,%ymm12,%ymm11
+ .byte 196,66,101,170,251 // vfmsub213ps %ymm11,%ymm3,%ymm15
+ .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
+ .byte 196,65,44,88,223 // vaddps %ymm15,%ymm10,%ymm11
+ .byte 196,65,28,88,215 // vaddps %ymm15,%ymm12,%ymm10
+ .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
+ .byte 196,65,36,93,250 // vminps %ymm10,%ymm11,%ymm15
+ .byte 196,65,52,93,255 // vminps %ymm15,%ymm9,%ymm15
+ .byte 98,193,36,40,95,202 // vmaxps %ymm10,%ymm11,%ymm17
+ .byte 98,161,52,40,95,201 // vmaxps %ymm17,%ymm9,%ymm17
+ .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
+ .byte 196,66,53,184,245 // vfmadd231ps %ymm13,%ymm9,%ymm14
+ .byte 98,50,45,40,184,240 // vfmadd231ps %ymm16,%ymm10,%ymm14
+ .byte 98,209,116,40,194,199,2 // vcmpleps %ymm15,%ymm1,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 98,193,52,40,92,198 // vsubps %ymm14,%ymm9,%ymm16
+ .byte 98,161,12,40,89,192 // vmulps %ymm16,%ymm14,%ymm16
+ .byte 196,65,12,92,255 // vsubps %ymm15,%ymm14,%ymm15
+ .byte 98,193,124,32,94,199 // vdivps %ymm15,%ymm16,%ymm16
+ .byte 98,49,12,40,88,192 // vaddps %ymm16,%ymm14,%ymm8
+ .byte 196,67,61,74,193,208 // vblendvps %ymm13,%ymm9,%ymm8,%ymm8
+ .byte 98,177,28,40,194,193,1 // vcmpltps %ymm17,%ymm12,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 98,193,60,40,92,198 // vsubps %ymm14,%ymm8,%ymm16
+ .byte 98,193,28,40,92,222 // vsubps %ymm14,%ymm12,%ymm19
+ .byte 98,161,100,32,89,192 // vmulps %ymm16,%ymm19,%ymm16
+ .byte 98,193,116,32,92,206 // vsubps %ymm14,%ymm17,%ymm17
+ .byte 98,161,124,32,94,193 // vdivps %ymm17,%ymm16,%ymm16
+ .byte 98,177,12,40,88,208 // vaddps %ymm16,%ymm14,%ymm2
+ .byte 196,227,61,74,210,144 // vblendvps %ymm9,%ymm2,%ymm8,%ymm2
+ .byte 197,236,95,209 // vmaxps %ymm1,%ymm2,%ymm2
+ .byte 196,65,36,92,198 // vsubps %ymm14,%ymm11,%ymm8
+ .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
+ .byte 196,65,60,94,199 // vdivps %ymm15,%ymm8,%ymm8
+ .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
+ .byte 196,67,61,74,195,208 // vblendvps %ymm13,%ymm11,%ymm8,%ymm8
+ .byte 196,65,60,92,222 // vsubps %ymm14,%ymm8,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,61,74,195,144 // vblendvps %ymm9,%ymm11,%ymm8,%ymm8
+ .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8
+ .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
+ .byte 196,65,12,89,219 // vmulps %ymm11,%ymm14,%ymm11
+ .byte 196,65,36,94,223 // vdivps %ymm15,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,37,74,210,208 // vblendvps %ymm13,%ymm10,%ymm11,%ymm10
+ .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
+ .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
+ .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
+ .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
+ .byte 196,226,125,24,13,125,24,3,0 // vbroadcastss 0x3187d(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
+ .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
+ .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
+ .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
+ .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
+ .byte 98,177,44,40,89,204 // vmulps %ymm20,%ymm10,%ymm1
+ .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
+ .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
+ .byte 98,177,44,40,89,210 // vmulps %ymm18,%ymm10,%ymm2
+ .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
+ .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
+ .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
+ .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_color_skx
+.globl _sk_color_skx
+FUNCTION(_sk_color_skx)
+_sk_color_skx:
+ .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
+ .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
+ .byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
+ .byte 196,98,125,24,37,70,24,3,0 // vbroadcastss 0x31846(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,65,24,3,0 // vbroadcastss 0x31841(%rip),%ymm13 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
+ .byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
+ .byte 196,98,125,24,61,50,24,3,0 // vbroadcastss 0x31832(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
+ .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
+ .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
+ .byte 196,66,37,184,215 // vfmadd231ps %ymm15,%ymm11,%ymm10
+ .byte 196,66,101,170,242 // vfmsub213ps %ymm10,%ymm3,%ymm14
+ .byte 196,65,60,88,198 // vaddps %ymm14,%ymm8,%ymm8
+ .byte 196,65,52,88,214 // vaddps %ymm14,%ymm9,%ymm10
+ .byte 196,65,36,88,206 // vaddps %ymm14,%ymm11,%ymm9
+ .byte 98,225,100,40,89,231 // vmulps %ymm7,%ymm3,%ymm20
+ .byte 196,65,44,93,241 // vminps %ymm9,%ymm10,%ymm14
+ .byte 196,65,60,93,246 // vminps %ymm14,%ymm8,%ymm14
+ .byte 98,193,44,40,95,193 // vmaxps %ymm9,%ymm10,%ymm16
+ .byte 98,161,60,40,95,192 // vmaxps %ymm16,%ymm8,%ymm16
+ .byte 196,65,44,89,237 // vmulps %ymm13,%ymm10,%ymm13
+ .byte 196,66,61,184,236 // vfmadd231ps %ymm12,%ymm8,%ymm13
+ .byte 196,66,53,184,239 // vfmadd231ps %ymm15,%ymm9,%ymm13
+ .byte 98,161,108,32,87,210 // vxorps %ymm18,%ymm18,%ymm18
+ .byte 98,209,108,32,194,198,2 // vcmpleps %ymm14,%ymm18,%k0
+ .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
+ .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
+ .byte 98,161,20,40,89,201 // vmulps %ymm17,%ymm13,%ymm17
+ .byte 196,65,20,92,246 // vsubps %ymm14,%ymm13,%ymm14
+ .byte 98,193,116,32,94,206 // vdivps %ymm14,%ymm17,%ymm17
+ .byte 98,49,20,40,88,225 // vaddps %ymm17,%ymm13,%ymm12
+ .byte 196,67,29,74,192,240 // vblendvps %ymm15,%ymm8,%ymm12,%ymm8
+ .byte 98,177,92,32,194,192,1 // vcmpltps %ymm16,%ymm20,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
+ .byte 98,193,92,32,92,221 // vsubps %ymm13,%ymm20,%ymm19
+ .byte 98,161,100,32,89,201 // vmulps %ymm17,%ymm19,%ymm17
+ .byte 98,193,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm16
+ .byte 98,161,116,32,94,200 // vdivps %ymm16,%ymm17,%ymm17
+ .byte 98,49,20,40,88,217 // vaddps %ymm17,%ymm13,%ymm11
+ .byte 196,67,61,74,195,192 // vblendvps %ymm12,%ymm11,%ymm8,%ymm8
+ .byte 98,49,60,40,95,194 // vmaxps %ymm18,%ymm8,%ymm8
+ .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
+ .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,37,74,210,240 // vblendvps %ymm15,%ymm10,%ymm11,%ymm10
+ .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,45,74,211,192 // vblendvps %ymm12,%ymm11,%ymm10,%ymm10
+ .byte 98,49,44,40,95,210 // vmaxps %ymm18,%ymm10,%ymm10
+ .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
+ .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,37,74,201,240 // vblendvps %ymm15,%ymm9,%ymm11,%ymm9
+ .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
+ .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
+ .byte 196,98,125,24,29,195,22,3,0 // vbroadcastss 0x316c3(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
+ .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
+ .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
+ .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
+ .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
+ .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
+ .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
+ .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
+ .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
+ .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
+ .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
+ .byte 98,177,100,40,92,220 // vsubps %ymm20,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_luminosity_skx
+.globl _sk_luminosity_skx
+FUNCTION(_sk_luminosity_skx)
+_sk_luminosity_skx:
+ .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
+ .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
+ .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
+ .byte 196,98,125,24,37,142,22,3,0 // vbroadcastss 0x3168e(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,137,22,3,0 // vbroadcastss 0x31689(%rip),%ymm13 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
+ .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
+ .byte 196,98,125,24,61,122,22,3,0 // vbroadcastss 0x3167a(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
+ .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
+ .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
+ .byte 196,66,37,184,215 // vfmadd231ps %ymm15,%ymm11,%ymm10
+ .byte 196,66,69,170,242 // vfmsub213ps %ymm10,%ymm7,%ymm14
+ .byte 196,65,60,88,198 // vaddps %ymm14,%ymm8,%ymm8
+ .byte 196,65,52,88,214 // vaddps %ymm14,%ymm9,%ymm10
+ .byte 196,65,36,88,206 // vaddps %ymm14,%ymm11,%ymm9
+ .byte 98,225,100,40,89,231 // vmulps %ymm7,%ymm3,%ymm20
+ .byte 196,65,44,93,241 // vminps %ymm9,%ymm10,%ymm14
+ .byte 196,65,60,93,246 // vminps %ymm14,%ymm8,%ymm14
+ .byte 98,193,44,40,95,193 // vmaxps %ymm9,%ymm10,%ymm16
+ .byte 98,161,60,40,95,192 // vmaxps %ymm16,%ymm8,%ymm16
+ .byte 196,65,44,89,237 // vmulps %ymm13,%ymm10,%ymm13
+ .byte 196,66,61,184,236 // vfmadd231ps %ymm12,%ymm8,%ymm13
+ .byte 196,66,53,184,239 // vfmadd231ps %ymm15,%ymm9,%ymm13
+ .byte 98,161,108,32,87,210 // vxorps %ymm18,%ymm18,%ymm18
+ .byte 98,209,108,32,194,198,2 // vcmpleps %ymm14,%ymm18,%k0
+ .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
+ .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
+ .byte 98,161,20,40,89,201 // vmulps %ymm17,%ymm13,%ymm17
+ .byte 196,65,20,92,246 // vsubps %ymm14,%ymm13,%ymm14
+ .byte 98,193,116,32,94,206 // vdivps %ymm14,%ymm17,%ymm17
+ .byte 98,49,20,40,88,225 // vaddps %ymm17,%ymm13,%ymm12
+ .byte 196,67,29,74,192,240 // vblendvps %ymm15,%ymm8,%ymm12,%ymm8
+ .byte 98,177,92,32,194,192,1 // vcmpltps %ymm16,%ymm20,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
+ .byte 98,193,92,32,92,221 // vsubps %ymm13,%ymm20,%ymm19
+ .byte 98,161,100,32,89,201 // vmulps %ymm17,%ymm19,%ymm17
+ .byte 98,193,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm16
+ .byte 98,161,116,32,94,200 // vdivps %ymm16,%ymm17,%ymm17
+ .byte 98,49,20,40,88,217 // vaddps %ymm17,%ymm13,%ymm11
+ .byte 196,67,61,74,195,192 // vblendvps %ymm12,%ymm11,%ymm8,%ymm8
+ .byte 98,49,60,40,95,194 // vmaxps %ymm18,%ymm8,%ymm8
+ .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
+ .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,37,74,210,240 // vblendvps %ymm15,%ymm10,%ymm11,%ymm10
+ .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,45,74,211,192 // vblendvps %ymm12,%ymm11,%ymm10,%ymm10
+ .byte 98,49,44,40,95,210 // vmaxps %ymm18,%ymm10,%ymm10
+ .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
+ .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
+ .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,37,74,201,240 // vblendvps %ymm15,%ymm9,%ymm11,%ymm9
+ .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
+ .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
+ .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
+ .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
+ .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
+ .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
+ .byte 196,98,125,24,29,11,21,3,0 // vbroadcastss 0x3150b(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
+ .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
+ .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
+ .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
+ .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
+ .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
+ .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
+ .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
+ .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
+ .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
+ .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
+ .byte 98,177,100,40,92,220 // vsubps %ymm20,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_srcover_rgba_8888_skx
+.globl _sk_srcover_rgba_8888_skx
+FUNCTION(_sk_srcover_rgba_8888_skx)
+_sk_srcover_rgba_8888_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,190,0,0,0 // jne 151b <_sk_srcover_rgba_8888_skx+0xde>
+ .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
+ .byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6
+ .byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z}
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 196,98,125,24,5,98,20,3,0 // vbroadcastss 0x31462(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
+ .byte 196,98,125,24,13,129,20,3,0 // vbroadcastss 0x31481(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
+ .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
+ .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
+ .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
+ .byte 197,125,91,201 // vcvtps2dq %ymm1,%ymm9
+ .byte 196,193,53,114,241,8 // vpslld $0x8,%ymm9,%ymm9
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 197,125,91,202 // vcvtps2dq %ymm2,%ymm9
+ .byte 196,193,53,114,241,16 // vpslld $0x10,%ymm9,%ymm9
+ .byte 197,125,91,211 // vcvtps2dq %ymm3,%ymm10
+ .byte 196,193,45,114,242,24 // vpslld $0x18,%ymm10,%ymm10
+ .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
+ .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,66 // jne 1553 <_sk_srcover_rgba_8888_skx+0x116>
+ .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 15,135,47,255,255,255 // ja 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,5,1,0,0 // lea 0x105(%rip),%r10 # 1644 <_sk_srcover_rgba_8888_skx+0x207>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
+ .byte 233,16,255,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,179 // ja 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 65,15,182,193 // movzbl %r9b,%eax
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 1660 <_sk_srcover_rgba_8888_skx+0x223>
+ .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
+ .byte 76,1,200 // add %r9,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
+ .byte 235,151 // jmp 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
+ .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
+ .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
+ .byte 233,186,254,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
+ .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
+ .byte 233,110,254,255,255 // jmpq 1463 <_sk_srcover_rgba_8888_skx+0x26>
+ .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
+ .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
+ .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
+ .byte 233,9,255,255,255 // jmpq 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
+ .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
+ .byte 233,213,254,255,255 // jmpq 1517 <_sk_srcover_rgba_8888_skx+0xda>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 4,255 // add $0xff,%al
+ .byte 255 // (bad)
+ .byte 255,79,255 // decl -0x1(%rdi)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 60,255 // cmp $0xff,%al
+ .byte 255 // (bad)
+ .byte 255,160,255,255,255,140 // jmpq *-0x73000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 120,255 // js 1659 <_sk_srcover_rgba_8888_skx+0x21c>
+ .byte 255 // (bad)
+ .byte 255,101,255 // jmpq *-0x1(%rbp)
+ .byte 255 // (bad)
+ .byte 255,24 // lcall *(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,157,255,255,255,149 // lcall *-0x6a000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,215 // callq *%rdi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,202 // dec %edx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_clamp_0_skx
+.globl _sk_clamp_0_skx
+FUNCTION(_sk_clamp_0_skx)
+_sk_clamp_0_skx:
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
+ .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
+ .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
+ .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clamp_1_skx
+.globl _sk_clamp_1_skx
+FUNCTION(_sk_clamp_1_skx)
+_sk_clamp_1_skx:
+ .byte 196,98,125,24,5,102,18,3,0 // vbroadcastss 0x31266(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
+ .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
+ .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
+ .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clamp_a_skx
+.globl _sk_clamp_a_skx
+FUNCTION(_sk_clamp_a_skx)
+_sk_clamp_a_skx:
+ .byte 98,241,100,56,93,29,68,18,3,0 // vminps 0x31244(%rip){1to8},%ymm3,%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
+ .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
+ .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clamp_a_dst_skx
+.globl _sk_clamp_a_dst_skx
+FUNCTION(_sk_clamp_a_dst_skx)
+_sk_clamp_a_dst_skx:
+ .byte 98,241,68,56,93,61,42,18,3,0 // vminps 0x3122a(%rip){1to8},%ymm7,%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
+ .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
+ .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_set_rgb_skx
+.globl _sk_set_rgb_skx
+FUNCTION(_sk_set_rgb_skx)
+_sk_set_rgb_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
+ .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
+ .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_swap_rb_skx
+.globl _sk_swap_rb_skx
+FUNCTION(_sk_swap_rb_skx)
+_sk_swap_rb_skx:
+ .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
+ .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_invert_skx
+.globl _sk_invert_skx
+FUNCTION(_sk_invert_skx)
+_sk_invert_skx:
+ .byte 196,98,125,24,5,234,17,3,0 // vbroadcastss 0x311ea(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
+ .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_move_src_dst_skx
+.globl _sk_move_src_dst_skx
+FUNCTION(_sk_move_src_dst_skx)
+_sk_move_src_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
+ .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
+ .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
+ .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_move_dst_src_skx
+.globl _sk_move_dst_src_skx
+FUNCTION(_sk_move_dst_src_skx)
+_sk_move_dst_src_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
+ .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
+ .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
+ .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_premul_skx
+.globl _sk_premul_skx
+FUNCTION(_sk_premul_skx)
+_sk_premul_skx:
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
+ .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_premul_dst_skx
+.globl _sk_premul_dst_skx
+FUNCTION(_sk_premul_dst_skx)
+_sk_premul_dst_skx:
+ .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4
+ .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
+ .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_unpremul_skx
+.globl _sk_unpremul_skx
+FUNCTION(_sk_unpremul_skx)
+_sk_unpremul_skx:
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 98,209,100,40,194,192,0 // vcmpeqps %ymm8,%ymm3,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,98,125,24,21,115,17,3,0 // vbroadcastss 0x31173(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
+ .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_from_srgb_skx
+.globl _sk_from_srgb_skx
+FUNCTION(_sk_from_srgb_skx)
+_sk_from_srgb_skx:
+ .byte 196,98,125,24,5,128,17,3,0 // vbroadcastss 0x31180(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
+ .byte 196,98,125,24,29,114,17,3,0 // vbroadcastss 0x31172(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,85,17,3,0 // vbroadcastss 0x31155(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
+ .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
+ .byte 196,98,125,24,53,90,17,3,0 // vbroadcastss 0x3115a(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
+ .byte 196,98,125,24,21,80,17,3,0 // vbroadcastss 0x31150(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
+ .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
+ .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
+ .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
+ .byte 197,116,89,233 // vmulps %ymm1,%ymm1,%ymm13
+ .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
+ .byte 196,66,117,168,251 // vfmadd213ps %ymm11,%ymm1,%ymm15
+ .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
+ .byte 98,209,116,40,194,194,1 // vcmpltps %ymm10,%ymm1,%k0
+ .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
+ .byte 196,195,5,74,201,16 // vblendvps %ymm1,%ymm9,%ymm15,%ymm1
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
+ .byte 196,66,109,168,227 // vfmadd213ps %ymm11,%ymm2,%ymm12
+ .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
+ .byte 98,209,108,40,194,194,1 // vcmpltps %ymm10,%ymm2,%k0
+ .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
+ .byte 196,195,29,74,208,32 // vblendvps %ymm2,%ymm8,%ymm12,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_from_srgb_dst_skx
+.globl _sk_from_srgb_dst_skx
+FUNCTION(_sk_from_srgb_dst_skx)
+_sk_from_srgb_dst_skx:
+ .byte 196,98,125,24,5,211,16,3,0 // vbroadcastss 0x310d3(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
+ .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
+ .byte 196,98,125,24,29,197,16,3,0 // vbroadcastss 0x310c5(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,168,16,3,0 // vbroadcastss 0x310a8(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
+ .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
+ .byte 196,98,125,24,53,173,16,3,0 // vbroadcastss 0x310ad(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
+ .byte 196,98,125,24,21,163,16,3,0 // vbroadcastss 0x310a3(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
+ .byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
+ .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
+ .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
+ .byte 197,84,89,237 // vmulps %ymm5,%ymm5,%ymm13
+ .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
+ .byte 196,66,85,168,251 // vfmadd213ps %ymm11,%ymm5,%ymm15
+ .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
+ .byte 98,209,84,40,194,194,1 // vcmpltps %ymm10,%ymm5,%k0
+ .byte 98,242,126,40,56,232 // vpmovm2d %k0,%ymm5
+ .byte 196,195,5,74,233,80 // vblendvps %ymm5,%ymm9,%ymm15,%ymm5
+ .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8
+ .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9
+ .byte 196,66,77,168,227 // vfmadd213ps %ymm11,%ymm6,%ymm12
+ .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
+ .byte 98,209,76,40,194,194,1 // vcmpltps %ymm10,%ymm6,%k0
+ .byte 98,242,126,40,56,240 // vpmovm2d %k0,%ymm6
+ .byte 196,195,29,74,240,96 // vblendvps %ymm6,%ymm8,%ymm12,%ymm6
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_to_srgb_skx
+.globl _sk_to_srgb_skx
+FUNCTION(_sk_to_srgb_skx)
+_sk_to_srgb_skx:
+ .byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
+ .byte 196,98,125,24,13,48,16,3,0 // vbroadcastss 0x31030(%rip),%ymm9 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
+ .byte 196,98,125,24,29,38,16,3,0 // vbroadcastss 0x31026(%rip),%ymm11 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,33,16,3,0 // vbroadcastss 0x31021(%rip),%ymm12 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
+ .byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
+ .byte 196,98,125,24,53,18,16,3,0 // vbroadcastss 0x31012(%rip),%ymm14 # 32954 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
+ .byte 196,98,125,24,61,8,16,3,0 // vbroadcastss 0x31008(%rip),%ymm15 # 32958 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
+ .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
+ .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
+ .byte 196,98,125,24,45,243,15,3,0 // vbroadcastss 0x30ff3(%rip),%ymm13 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
+ .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
+ .byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
+ .byte 98,114,125,40,78,193 // vrsqrt14ps %ymm1,%ymm8
+ .byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
+ .byte 98,193,124,40,40,196 // vmovaps %ymm12,%ymm16
+ .byte 98,194,61,40,168,195 // vfmadd213ps %ymm11,%ymm8,%ymm16
+ .byte 98,194,61,40,168,198 // vfmadd213ps %ymm14,%ymm8,%ymm16
+ .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
+ .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
+ .byte 98,81,124,32,89,192 // vmulps %ymm8,%ymm16,%ymm8
+ .byte 98,209,116,40,194,197,1 // vcmpltps %ymm13,%ymm1,%k0
+ .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
+ .byte 196,195,61,74,202,16 // vblendvps %ymm1,%ymm10,%ymm8,%ymm1
+ .byte 98,114,125,40,78,194 // vrsqrt14ps %ymm2,%ymm8
+ .byte 196,65,108,89,201 // vmulps %ymm9,%ymm2,%ymm9
+ .byte 196,66,61,168,227 // vfmadd213ps %ymm11,%ymm8,%ymm12
+ .byte 196,66,61,168,230 // vfmadd213ps %ymm14,%ymm8,%ymm12
+ .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
+ .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
+ .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
+ .byte 98,209,108,40,194,197,1 // vcmpltps %ymm13,%ymm2,%k0
+ .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
+ .byte 196,195,61,74,209,32 // vblendvps %ymm2,%ymm9,%ymm8,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_rgb_to_hsl_skx
+.globl _sk_rgb_to_hsl_skx
+FUNCTION(_sk_rgb_to_hsl_skx)
+_sk_rgb_to_hsl_skx:
+ .byte 98,225,124,40,40,207 // vmovaps %ymm7,%ymm17
+ .byte 197,116,95,194 // vmaxps %ymm2,%ymm1,%ymm8
+ .byte 196,65,124,95,200 // vmaxps %ymm8,%ymm0,%ymm9
+ .byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
+ .byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
+ .byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
+ .byte 196,98,125,24,5,232,14,3,0 // vbroadcastss 0x30ee8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
+ .byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 98,241,52,40,194,192,0 // vcmpeqps %ymm0,%ymm9,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
+ .byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
+ .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
+ .byte 196,98,125,24,29,6,15,3,0 // vbroadcastss 0x30f06(%rip),%ymm11 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
+ .byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
+ .byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
+ .byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
+ .byte 196,98,125,24,61,225,14,3,0 // vbroadcastss 0x30ee1(%rip),%ymm15 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
+ .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
+ .byte 98,242,29,56,168,5,210,14,3,0 // vfmadd213ps 0x30ed2(%rip){1to8},%ymm12,%ymm0 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
+ .byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
+ .byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
+ .byte 98,241,124,56,89,5,186,14,3,0 // vmulps 0x30eba(%rip){1to8},%ymm0,%ymm0 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
+ .byte 196,98,125,24,29,68,14,3,0 // vbroadcastss 0x30e44(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
+ .byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 196,65,4,92,201 // vsubps %ymm9,%ymm15,%ymm9
+ .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
+ .byte 196,195,117,74,201,176 // vblendvps %ymm11,%ymm9,%ymm1,%ymm1
+ .byte 98,241,124,32,94,201 // vdivps %ymm1,%ymm16,%ymm1
+ .byte 196,227,117,74,207,128 // vblendvps %ymm8,%ymm7,%ymm1,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,177,124,40,40,249 // vmovaps %ymm17,%ymm7
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_hsl_to_rgb_skx
+.globl _sk_hsl_to_rgb_skx
+FUNCTION(_sk_hsl_to_rgb_skx)
+_sk_hsl_to_rgb_skx:
+ .byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
+ .byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
+ .byte 98,226,125,40,24,5,246,13,3,0 // vbroadcastss 0x30df6(%rip),%ymm16 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
+ .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10
+ .byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
+ .byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
+ .byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
+ .byte 98,114,109,56,186,13,39,14,3,0 // vfmsub231ps 0x30e27(%rip){1to8},%ymm2,%ymm9 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
+ .byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
+ .byte 98,241,124,56,88,13,23,14,3,0 // vaddps 0x30e17(%rip){1to8},%ymm0,%ymm1 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
+ .byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
+ .byte 98,226,125,40,24,29,6,14,3,0 // vbroadcastss 0x30e06(%rip),%ymm19 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
+ .byte 196,98,125,24,61,215,13,3,0 // vbroadcastss 0x30dd7(%rip),%ymm15 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
+ .byte 98,226,125,40,24,13,208,13,3,0 // vbroadcastss 0x30dd0(%rip),%ymm17 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
+ .byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
+ .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
+ .byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
+ .byte 196,98,125,24,21,167,13,3,0 // vbroadcastss 0x30da7(%rip),%ymm10 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
+ .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
+ .byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
+ .byte 196,195,29,74,200,16 // vblendvps %ymm1,%ymm8,%ymm12,%ymm1
+ .byte 196,227,117,74,242,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm6
+ .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
+ .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
+ .byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 196,65,116,89,239 // vmulps %ymm15,%ymm1,%ymm13
+ .byte 98,81,116,32,92,197 // vsubps %ymm13,%ymm17,%ymm8
+ .byte 196,66,13,168,193 // vfmadd213ps %ymm9,%ymm14,%ymm8
+ .byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
+ .byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
+ .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
+ .byte 196,67,37,74,192,192 // vblendvps %ymm12,%ymm8,%ymm11,%ymm8
+ .byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
+ .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
+ .byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
+ .byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
+ .byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
+ .byte 98,241,124,56,88,5,45,13,3,0 // vaddps 0x30d2d(%rip){1to8},%ymm0,%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
+ .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
+ .byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,65,124,89,231 // vmulps %ymm15,%ymm0,%ymm12
+ .byte 98,81,116,32,92,236 // vsubps %ymm12,%ymm17,%ymm13
+ .byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
+ .byte 196,67,21,74,193,128 // vblendvps %ymm8,%ymm9,%ymm13,%ymm8
+ .byte 98,241,124,32,194,192,2 // vcmpleps %ymm0,%ymm16,%k0
+ .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
+ .byte 196,67,37,74,192,208 // vblendvps %ymm13,%ymm8,%ymm11,%ymm8
+ .byte 98,241,44,40,194,192,2 // vcmpleps %ymm0,%ymm10,%k0
+ .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
+ .byte 196,66,13,184,204 // vfmadd231ps %ymm12,%ymm14,%ymm9
+ .byte 196,195,53,74,192,0 // vblendvps %ymm0,%ymm8,%ymm9,%ymm0
+ .byte 196,227,125,74,210,112 // vblendvps %ymm7,%ymm2,%ymm0,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,198 // vmovaps %ymm6,%ymm0
+ .byte 98,177,124,40,40,244 // vmovaps %ymm20,%ymm6
+ .byte 98,177,124,40,40,250 // vmovaps %ymm18,%ymm7
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_scale_1_float_skx
+.globl _sk_scale_1_float_skx
+FUNCTION(_sk_scale_1_float_skx)
+_sk_scale_1_float_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_scale_u8_skx
+.globl _sk_scale_u8_skx
+FUNCTION(_sk_scale_u8_skx)
+_sk_scale_u8_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,54 // jne 1d27 <_sk_scale_u8_skx+0x4e>
+ .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
+ .byte 197,57,219,5,161,13,3,0 // vpand 0x30da1(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 98,113,60,56,89,5,105,12,3,0 // vmulps 0x30c69(%rip){1to8},%ymm8,%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,186 // ja 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,140,0,0,0 // lea 0x8c(%rip),%r10 # 1dd4 <_sk_scale_u8_skx+0xfb>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,121,110,192 // vmovd %eax,%xmm8
+ .byte 235,155 // jmp 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
+ .byte 196,2,121,50,12,24 // vpmovzxbq (%r8,%r11,1),%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
+ .byte 233,110,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
+ .byte 196,2,121,49,12,24 // vpmovzxbd (%r8,%r11,1),%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
+ .byte 233,37,255,255,255 // jmpq 1cf7 <_sk_scale_u8_skx+0x1e>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 125,255 // jge 1dd5 <_sk_scale_u8_skx+0xfc>
+ .byte 255 // (bad)
+ .byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 181,255 // mov $0xff,%ch
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_scale_565_skx
+.globl _sk_scale_565_skx
+FUNCTION(_sk_scale_565_skx)
+_sk_scale_565_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,145,0,0,0 // jne 1ea0 <_sk_scale_565_skx+0xb0>
+ .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
+ .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
+ .byte 98,113,61,56,219,13,92,11,3,0 // vpandd 0x30b5c(%rip){1to8},%ymm8,%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
+ .byte 98,113,52,56,89,13,81,11,3,0 // vmulps 0x30b51(%rip){1to8},%ymm9,%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,61,56,219,21,75,11,3,0 // vpandd 0x30b4b(%rip){1to8},%ymm8,%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
+ .byte 98,113,44,56,89,21,64,11,3,0 // vmulps 0x30b40(%rip){1to8},%ymm10,%ymm10 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,113,61,56,219,5,58,11,3,0 // vpandd 0x30b3a(%rip){1to8},%ymm8,%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 98,113,60,56,89,5,47,11,3,0 // vmulps 0x30b2f(%rip){1to8},%ymm8,%ymm8 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
+ .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
+ .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
+ .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
+ .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
+ .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
+ .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 15,135,91,255,255,255 // ja 1e15 <_sk_scale_565_skx+0x25>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 1f48 <_sk_scale_565_skx+0x158>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,121,110,192 // vmovd %eax,%xmm8
+ .byte 233,57,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
+ .byte 233,15,255,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,2,121,51,12,88 // vpmovzxwd (%r8,%r11,2),%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
+ .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
+ .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
+ .byte 233,208,254,255,255 // jmpq 1e15 <_sk_scale_565_skx+0x25>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 134,255 // xchg %bh,%bh
+ .byte 255 // (bad)
+ .byte 255,161,255,255,255,148 // jmpq *-0x6b000001(%rcx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,211 // callq *%rbx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,203 // dec %ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 190 // .byte 0xbe
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_lerp_1_float_skx
+.globl _sk_lerp_1_float_skx
+FUNCTION(_sk_lerp_1_float_skx)
+_sk_lerp_1_float_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
+ .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
+ .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
+ .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
+ .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
+ .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
+ .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
+ .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
+ .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_lerp_u8_skx
+.globl _sk_lerp_u8_skx
+FUNCTION(_sk_lerp_u8_skx)
+_sk_lerp_u8_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,74 // jne 1ff5 <_sk_lerp_u8_skx+0x62>
+ .byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
+ .byte 197,57,219,5,231,10,3,0 // vpand 0x30ae7(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 98,113,60,56,89,5,175,9,3,0 // vmulps 0x309af(%rip){1to8},%ymm8,%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
+ .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
+ .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
+ .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
+ .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
+ .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
+ .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
+ .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,166 // ja 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,138,0,0,0 // lea 0x8a(%rip),%r10 # 20a0 <_sk_lerp_u8_skx+0x10d>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,121,110,192 // vmovd %eax,%xmm8
+ .byte 235,135 // jmp 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
+ .byte 196,2,121,50,12,24 // vpmovzxbq (%r8,%r11,1),%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
+ .byte 233,90,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
+ .byte 196,2,121,49,12,24 // vpmovzxbd (%r8,%r11,1),%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
+ .byte 233,17,255,255,255 // jmpq 1fb1 <_sk_lerp_u8_skx+0x1e>
+ .byte 127,255 // jg 20a1 <_sk_lerp_u8_skx+0x10e>
+ .byte 255 // (bad)
+ .byte 255,154,255,255,255,138 // lcall *-0x75000001(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,210 // callq *%rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 183,255 // mov $0xff,%bh
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_lerp_565_skx
+.globl _sk_lerp_565_skx
+FUNCTION(_sk_lerp_565_skx)
+_sk_lerp_565_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,165,0,0,0 // jne 2180 <_sk_lerp_565_skx+0xc4>
+ .byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
+ .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
+ .byte 98,113,61,56,219,13,144,8,3,0 // vpandd 0x30890(%rip){1to8},%ymm8,%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
+ .byte 98,113,52,56,89,13,133,8,3,0 // vmulps 0x30885(%rip){1to8},%ymm9,%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,113,61,56,219,21,127,8,3,0 // vpandd 0x3087f(%rip){1to8},%ymm8,%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
+ .byte 98,113,44,56,89,21,116,8,3,0 // vmulps 0x30874(%rip){1to8},%ymm10,%ymm10 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,113,61,56,219,5,110,8,3,0 // vpandd 0x3086e(%rip){1to8},%ymm8,%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 98,113,60,56,89,5,99,8,3,0 // vmulps 0x30863(%rip){1to8},%ymm8,%ymm8 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
+ .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
+ .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
+ .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
+ .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
+ .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
+ .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
+ .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
+ .byte 196,226,53,168,196 // vfmadd213ps %ymm4,%ymm9,%ymm0
+ .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
+ .byte 196,226,45,168,205 // vfmadd213ps %ymm5,%ymm10,%ymm1
+ .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
+ .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
+ .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
+ .byte 196,226,37,168,223 // vfmadd213ps %ymm7,%ymm11,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 15,135,71,255,255,255 // ja 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 2228 <_sk_lerp_565_skx+0x16c>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,121,110,192 // vmovd %eax,%xmm8
+ .byte 233,37,255,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,2,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm9
+ .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
+ .byte 233,251,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
+ .byte 196,2,121,51,12,88 // vpmovzxwd (%r8,%r11,2),%xmm9
+ .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
+ .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
+ .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
+ .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
+ .byte 233,188,254,255,255 // jmpq 20e1 <_sk_lerp_565_skx+0x25>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 134,255 // xchg %bh,%bh
+ .byte 255 // (bad)
+ .byte 255,161,255,255,255,148 // jmpq *-0x6b000001(%rcx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,211 // callq *%rbx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,203 // dec %ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 190 // .byte 0xbe
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_tables_skx
+.globl _sk_load_tables_skx
+FUNCTION(_sk_load_tables_skx)
+_sk_load_tables_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,124 // jne 22ca <_sk_load_tables_skx+0x86>
+ .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
+ .byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
+ .byte 196,193,123,146,200 // kmovd %r8d,%k1
+ .byte 98,241,127,169,111,203 // vmovdqu8 %ymm3,%ymm1{%k1}{z}
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 76,139,72,16 // mov 0x10(%rax),%r9
+ .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
+ .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
+ .byte 98,241,127,169,111,209 // vmovdqu8 %ymm1,%ymm2{%k1}{z}
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,194,61,146,12,145 // vgatherdps %ymm8,(%r9,%ymm2,4),%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 72,139,64,24 // mov 0x18(%rax),%rax
+ .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
+ .byte 98,81,127,169,111,201 // vmovdqu8 %ymm9,%ymm9{%k1}{z}
+ .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
+ .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,182,6,3,0 // vmulps 0x306b6(%rip){1to8},%ymm3,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 15,135,113,255,255,255 // ja 2254 <_sk_load_tables_skx+0x10>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 237c <_sk_load_tables_skx+0x138>
+ .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
+ .byte 77,1,209 // add %r10,%r9
+ .byte 65,255,225 // jmpq *%r9
+ .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
+ .byte 233,81,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
+ .byte 65,177,4 // mov $0x4,%r9b
+ .byte 196,193,123,146,201 // kmovd %r9d,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
+ .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
+ .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
+ .byte 233,38,255,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
+ .byte 65,177,64 // mov $0x40,%r9b
+ .byte 196,193,123,146,201 // kmovd %r9d,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
+ .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
+ .byte 233,216,254,255,255 // jmpq 2254 <_sk_load_tables_skx+0x10>
+ .byte 124,255 // jl 237d <_sk_load_tables_skx+0x139>
+ .byte 255 // (bad)
+ .byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 239 // out %eax,(%dx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 219,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 178,255 // mov $0xff,%dl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_tables_u16_be_skx
+.globl _sk_load_tables_u16_be_skx
+FUNCTION(_sk_load_tables_u16_be_skx)
+_sk_load_tables_u16_be_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,210,0,0,0 // jne 2480 <_sk_load_tables_u16_be_skx+0xe8>
+ .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
+ .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
+ .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
+ .byte 196,1,122,111,76,72,48 // vmovdqu 0x30(%r8,%r9,2),%xmm9
+ .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
+ .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
+ .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
+ .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
+ .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
+ .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
+ .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
+ .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
+ .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
+ .byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
+ .byte 197,121,111,21,165,6,3,0 // vmovdqa 0x306a5(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
+ .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 76,139,72,16 // mov 0x10(%rax),%r9
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
+ .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
+ .byte 196,193,49,108,219 // vpunpcklqdq %xmm11,%xmm9,%xmm3
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,193,57,219,202 // vpand %xmm10,%xmm8,%xmm1
+ .byte 196,98,125,51,193 // vpmovzxwd %xmm1,%ymm8
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,130,21,146,12,129 // vgatherdps %ymm13,(%r9,%ymm8,4),%ymm1
+ .byte 72,139,64,24 // mov 0x18(%rax),%rax
+ .byte 196,193,97,219,218 // vpand %xmm10,%xmm3,%xmm3
+ .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
+ .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
+ .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
+ .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
+ .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
+ .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
+ .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,28,5,3,0 // vmulps 0x3051c(%rip){1to8},%ymm3,%ymm3 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
+ .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,85 // je 24e6 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,72 // jb 24e6 <_sk_load_tables_u16_be_skx+0x14e>
+ .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 116,72 // je 24f3 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,59 // jb 24f3 <_sk_load_tables_u16_be_skx+0x15b>
+ .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 15,132,0,255,255,255 // je 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,130,239,254,255,255 // jb 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
+ .byte 233,227,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
+ .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
+ .byte 233,214,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+ .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
+ .byte 233,205,254,255,255 // jmpq 23c9 <_sk_load_tables_u16_be_skx+0x31>
+
+HIDDEN _sk_load_tables_rgb_u16_be_skx
+.globl _sk_load_tables_rgb_u16_be_skx
+FUNCTION(_sk_load_tables_rgb_u16_be_skx)
+_sk_load_tables_rgb_u16_be_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,203,0,0,0 // jne 25d9 <_sk_load_tables_rgb_u16_be_skx+0xdd>
+ .byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
+ .byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
+ .byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
+ .byte 98,145,125,8,115,92,72,2,4 // vpsrldq $0x4,0x20(%r8,%r9,2),%xmm0
+ .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
+ .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
+ .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
+ .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
+ .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
+ .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
+ .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
+ .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
+ .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
+ .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
+ .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
+ .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
+ .byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
+ .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
+ .byte 197,121,111,21,46,5,3,0 // vmovdqa 0x3052e(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
+ .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 76,139,72,16 // mov 0x10(%rax),%r9
+ .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
+ .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,193,113,219,202 // vpand %xmm10,%xmm1,%xmm1
+ .byte 196,98,125,51,193 // vpmovzxwd %xmm1,%ymm8
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,130,37,146,12,129 // vgatherdps %ymm11,(%r9,%ymm8,4),%ymm1
+ .byte 72,139,64,24 // mov 0x18(%rax),%rax
+ .byte 196,193,49,219,218 // vpand %xmm10,%xmm9,%xmm3
+ .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
+ .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,49,3,3,0 // vbroadcastss 0x30331(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 117,31 // jne 2611 <_sk_load_tables_rgb_u16_be_skx+0x115>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 233,47,255,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,48 // jb 265b <_sk_load_tables_rgb_u16_be_skx+0x15f>
+ .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 117,48 // jne 2675 <_sk_load_tables_rgb_u16_be_skx+0x179>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 233,229,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
+ .byte 233,203,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,39 // jb 26b6 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
+ .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 117,30 // jne 26c7 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 233,138,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 233,121,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 114,25 // jb 26fa <_sk_load_tables_rgb_u16_be_skx+0x1fe>
+ .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
+ .byte 233,70,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 233,61,254,255,255 // jmpq 2540 <_sk_load_tables_rgb_u16_be_skx+0x44>
+
+HIDDEN _sk_byte_tables_skx
+.globl _sk_byte_tables_skx
+FUNCTION(_sk_byte_tables_skx)
+_sk_byte_tables_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,5,38,2,3,0 // vbroadcastss 0x30226(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
+ .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
+ .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 69,137,200 // mov %r9d,%r8d
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 69,137,200 // mov %r9d,%r8d
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
+ .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
+ .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
+ .byte 76,139,64,16 // mov 0x10(%rax),%r8
+ .byte 196,193,108,89,192 // vmulps %ymm8,%ymm2,%ymm0
+ .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
+ .byte 196,193,249,126,209 // vmovq %xmm2,%r9
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 196,193,249,126,209 // vmovq %xmm2,%r9
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
+ .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
+ .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10
+ .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 196,193,100,89,192 // vmulps %ymm8,%ymm3,%ymm0
+ .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
+ .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 68,137,192 // mov %r8d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
+ .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 68,137,208 // mov %r10d,%eax
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
+ .byte 196,193,249,126,208 // vmovq %xmm2,%r8
+ .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
+ .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 68,137,192 // mov %r8d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
+ .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
+ .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 68,137,208 // mov %r10d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
+ .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,244,255,2,0 // vbroadcastss 0x2fff4(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,194,125,49,210 // vpmovzxbd %xmm10,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3
+ .byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_byte_tables_rgb_skx
+.globl _sk_byte_tables_rgb_skx
+FUNCTION(_sk_byte_tables_rgb_skx)
+_sk_byte_tables_rgb_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,139,64,24 // mov 0x18(%rax),%r8d
+ .byte 65,131,192,255 // add $0xffffffff,%r8d
+ .byte 98,82,125,40,124,192 // vpbroadcastd %r8d,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
+ .byte 196,65,249,126,200 // vmovq %xmm9,%r8
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 76,139,16 // mov (%rax),%r10
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
+ .byte 196,67,249,22,201,1 // vpextrq $0x1,%xmm9,%r9
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,67,121,32,208,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm10
+ .byte 69,137,200 // mov %r9d,%r8d
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 196,99,125,57,200,1 // vextracti128 $0x1,%ymm9,%xmm0
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,67,41,32,200,2 // vpinsrb $0x2,%r8d,%xmm10,%xmm9
+ .byte 196,193,249,126,192 // vmovq %xmm0,%r8
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,49,32,201,3 // vpinsrb $0x3,%r9d,%xmm9,%xmm9
+ .byte 69,137,193 // mov %r8d,%r9d
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,49,32,201,4 // vpinsrb $0x4,%r9d,%xmm9,%xmm9
+ .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,195,49,32,192,5 // vpinsrb $0x5,%r8d,%xmm9,%xmm0
+ .byte 69,137,200 // mov %r9d,%r8d
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
+ .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
+ .byte 196,67,121,32,201,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm9
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 196,193,249,126,201 // vmovq %xmm1,%r9
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
+ .byte 69,137,202 // mov %r9d,%r10d
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,233,32 // shr $0x20,%r9
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
+ .byte 69,137,209 // mov %r10d,%r9d
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
+ .byte 196,67,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm10
+ .byte 76,139,72,16 // mov 0x10(%rax),%r9
+ .byte 197,188,89,194 // vmulps %ymm2,%ymm8,%ymm0
+ .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
+ .byte 196,193,249,126,200 // vmovq %xmm1,%r8
+ .byte 68,137,192 // mov %r8d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
+ .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
+ .byte 68,137,208 // mov %r10d,%eax
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
+ .byte 196,193,249,126,200 // vmovq %xmm1,%r8
+ .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
+ .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 68,137,192 // mov %r8d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
+ .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
+ .byte 73,193,232,32 // shr $0x20,%r8
+ .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
+ .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 68,137,208 // mov %r10d,%eax
+ .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
+ .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
+ .byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,203,253,2,0 // vbroadcastss 0x2fdcb(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2
+ .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_table_r_skx
+.globl _sk_table_r_skx
+FUNCTION(_sk_table_r_skx)
+_sk_table_r_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 139,64,8 // mov 0x8(%rax),%eax
+ .byte 131,192,255 // add $0xffffffff,%eax
+ .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 197,125,91,192 // vcvtps2dq %ymm0,%ymm8
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 196,130,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_table_g_skx
+.globl _sk_table_g_skx
+FUNCTION(_sk_table_g_skx)
+_sk_table_g_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 139,64,8 // mov 0x8(%rax),%eax
+ .byte 131,192,255 // add $0xffffffff,%eax
+ .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
+ .byte 197,125,91,193 // vcvtps2dq %ymm1,%ymm8
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,130,53,146,12,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_table_b_skx
+.globl _sk_table_b_skx
+FUNCTION(_sk_table_b_skx)
+_sk_table_b_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 139,64,8 // mov 0x8(%rax),%eax
+ .byte 131,192,255 // add $0xffffffff,%eax
+ .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,125,91,194 // vcvtps2dq %ymm2,%ymm8
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,130,53,146,20,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_table_a_skx
+.globl _sk_table_a_skx
+FUNCTION(_sk_table_a_skx)
+_sk_table_a_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 139,64,8 // mov 0x8(%rax),%eax
+ .byte 131,192,255 // add $0xffffffff,%eax
+ .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,125,91,195 // vcvtps2dq %ymm3,%ymm8
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 196,130,53,146,28,128 // vgatherdps %ymm9,(%r8,%ymm8,4),%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_parametric_r_skx
+.globl _sk_parametric_r_skx
+FUNCTION(_sk_parametric_r_skx)
+_sk_parametric_r_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,124,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm0,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
+ .byte 98,114,125,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm0,%ymm9
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
+ .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
+ .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
+ .byte 196,98,125,24,37,191,252,2,0 // vbroadcastss 0x2fcbf(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,114,37,56,168,37,189,252,2,0 // vfmadd213ps 0x2fcbd(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,84,21,175,252,2,0 // vandps 0x2fcaf(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,86,21,9,252,2,0 // vorps 0x2fc09(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,163,252,2,0 // vfnmadd231ps 0x2fca3(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,88,21,157,252,2,0 // vaddps 0x2fc9d(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,152,252,2,0 // vbroadcastss 0x2fc98(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
+ .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
+ .byte 98,241,124,56,88,5,120,252,2,0 // vaddps 0x2fc78(%rip){1to8},%ymm0,%ymm0 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,242,45,56,188,5,114,252,2,0 // vfnmadd231ps 0x2fc72(%rip){1to8},%ymm10,%ymm0 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,109,252,2,0 // vbroadcastss 0x2fc6d(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
+ .byte 196,98,125,24,29,99,252,2,0 // vbroadcastss 0x2fc63(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
+ .byte 98,241,124,56,89,5,83,252,2,0 // vmulps 0x2fc53(%rip){1to8},%ymm0,%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
+ .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
+ .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
+ .byte 98,241,124,56,93,5,111,251,2,0 // vminps 0x2fb6f(%rip){1to8},%ymm0,%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_parametric_g_skx
+.globl _sk_parametric_g_skx
+FUNCTION(_sk_parametric_g_skx)
+_sk_parametric_g_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,116,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm1,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
+ .byte 98,114,117,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm1,%ymm9
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
+ .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
+ .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
+ .byte 196,98,125,24,37,194,251,2,0 // vbroadcastss 0x2fbc2(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,114,37,56,168,37,192,251,2,0 // vfmadd213ps 0x2fbc0(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,84,21,178,251,2,0 // vandps 0x2fbb2(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,86,21,12,251,2,0 // vorps 0x2fb0c(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,166,251,2,0 // vfnmadd231ps 0x2fba6(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,88,21,160,251,2,0 // vaddps 0x2fba0(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,155,251,2,0 // vbroadcastss 0x2fb9b(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
+ .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
+ .byte 98,241,116,56,88,13,123,251,2,0 // vaddps 0x2fb7b(%rip){1to8},%ymm1,%ymm1 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,242,45,56,188,13,117,251,2,0 // vfnmadd231ps 0x2fb75(%rip){1to8},%ymm10,%ymm1 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,112,251,2,0 // vbroadcastss 0x2fb70(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
+ .byte 196,98,125,24,29,102,251,2,0 // vbroadcastss 0x2fb66(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
+ .byte 98,241,116,56,89,13,86,251,2,0 // vmulps 0x2fb56(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
+ .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
+ .byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
+ .byte 98,241,116,56,93,13,114,250,2,0 // vminps 0x2fa72(%rip){1to8},%ymm1,%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_parametric_b_skx
+.globl _sk_parametric_b_skx
+FUNCTION(_sk_parametric_b_skx)
+_sk_parametric_b_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,108,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm2,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
+ .byte 98,114,109,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm2,%ymm9
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
+ .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
+ .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
+ .byte 196,98,125,24,37,197,250,2,0 // vbroadcastss 0x2fac5(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,114,37,56,168,37,195,250,2,0 // vfmadd213ps 0x2fac3(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,84,21,181,250,2,0 // vandps 0x2fab5(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,86,21,15,250,2,0 // vorps 0x2fa0f(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,169,250,2,0 // vfnmadd231ps 0x2faa9(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,88,21,163,250,2,0 // vaddps 0x2faa3(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,158,250,2,0 // vbroadcastss 0x2fa9e(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
+ .byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
+ .byte 98,241,108,56,88,21,126,250,2,0 // vaddps 0x2fa7e(%rip){1to8},%ymm2,%ymm2 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,242,45,56,188,21,120,250,2,0 // vfnmadd231ps 0x2fa78(%rip){1to8},%ymm10,%ymm2 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,115,250,2,0 // vbroadcastss 0x2fa73(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
+ .byte 196,98,125,24,29,105,250,2,0 // vbroadcastss 0x2fa69(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
+ .byte 98,241,108,56,89,21,89,250,2,0 // vmulps 0x2fa59(%rip){1to8},%ymm2,%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
+ .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
+ .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
+ .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
+ .byte 98,241,108,56,93,21,117,249,2,0 // vminps 0x2f975(%rip){1to8},%ymm2,%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_parametric_a_skx
+.globl _sk_parametric_a_skx
+FUNCTION(_sk_parametric_a_skx)
+_sk_parametric_a_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,100,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm3,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
+ .byte 98,114,101,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm3,%ymm9
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
+ .byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
+ .byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
+ .byte 196,98,125,24,37,200,249,2,0 // vbroadcastss 0x2f9c8(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,114,37,56,168,37,198,249,2,0 // vfmadd213ps 0x2f9c6(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,84,21,184,249,2,0 // vandps 0x2f9b8(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,86,21,18,249,2,0 // vorps 0x2f912(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,45,56,188,37,172,249,2,0 // vfnmadd231ps 0x2f9ac(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 98,113,44,56,88,21,166,249,2,0 // vaddps 0x2f9a6(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,161,249,2,0 // vbroadcastss 0x2f9a1(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
+ .byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
+ .byte 98,241,100,56,88,29,129,249,2,0 // vaddps 0x2f981(%rip){1to8},%ymm3,%ymm3 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,242,45,56,188,29,123,249,2,0 // vfnmadd231ps 0x2f97b(%rip){1to8},%ymm10,%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,118,249,2,0 // vbroadcastss 0x2f976(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
+ .byte 196,98,125,24,29,108,249,2,0 // vbroadcastss 0x2f96c(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
+ .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
+ .byte 98,241,100,56,89,29,92,249,2,0 // vmulps 0x2f95c(%rip){1to8},%ymm3,%ymm3 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
+ .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
+ .byte 197,172,88,219 // vaddps %ymm3,%ymm10,%ymm3
+ .byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
+ .byte 98,241,100,56,93,29,120,248,2,0 // vminps 0x2f878(%rip){1to8},%ymm3,%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_gamma_skx
+.globl _sk_gamma_skx
+FUNCTION(_sk_gamma_skx)
+_sk_gamma_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
+ .byte 197,124,91,200 // vcvtdq2ps %ymm0,%ymm9
+ .byte 196,98,125,24,21,243,248,2,0 // vbroadcastss 0x2f8f3(%rip),%ymm10 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,29,238,248,2,0 // vbroadcastss 0x2f8ee(%rip),%ymm11 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
+ .byte 196,98,125,24,37,68,248,2,0 // vbroadcastss 0x2f844(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
+ .byte 196,98,125,24,45,214,248,2,0 // vbroadcastss 0x2f8d6(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
+ .byte 196,98,125,24,53,204,248,2,0 // vbroadcastss 0x2f8cc(%rip),%ymm14 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,66,125,188,206 // vfnmadd231ps %ymm14,%ymm0,%ymm9
+ .byte 196,98,125,24,61,194,248,2,0 // vbroadcastss 0x2f8c2(%rip),%ymm15 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
+ .byte 98,226,125,40,24,5,183,248,2,0 // vbroadcastss 0x2f8b7(%rip),%ymm16 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,241,124,32,94,192 // vdivps %ymm0,%ymm16,%ymm0
+ .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
+ .byte 98,177,124,40,89,198 // vmulps %ymm22,%ymm0,%ymm0
+ .byte 196,99,125,8,200,1 // vroundps $0x1,%ymm0,%ymm9
+ .byte 196,65,124,92,201 // vsubps %ymm9,%ymm0,%ymm9
+ .byte 98,226,125,40,24,13,150,248,2,0 // vbroadcastss 0x2f896(%rip),%ymm17 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,177,124,40,88,193 // vaddps %ymm17,%ymm0,%ymm0
+ .byte 98,226,125,40,24,21,138,248,2,0 // vbroadcastss 0x2f88a(%rip),%ymm18 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,178,53,40,188,194 // vfnmadd231ps %ymm18,%ymm9,%ymm0
+ .byte 98,226,125,40,24,29,126,248,2,0 // vbroadcastss 0x2f87e(%rip),%ymm19 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
+ .byte 98,226,125,40,24,37,114,248,2,0 // vbroadcastss 0x2f872(%rip),%ymm20 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
+ .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
+ .byte 196,98,125,24,13,98,248,2,0 // vbroadcastss 0x2f862(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
+ .byte 98,225,124,40,91,233 // vcvtdq2ps %ymm1,%ymm21
+ .byte 196,193,116,84,203 // vandps %ymm11,%ymm1,%ymm1
+ .byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
+ .byte 98,194,45,40,168,237 // vfmadd213ps %ymm13,%ymm10,%ymm21
+ .byte 98,194,117,40,188,238 // vfnmadd231ps %ymm14,%ymm1,%ymm21
+ .byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
+ .byte 98,241,124,32,94,201 // vdivps %ymm1,%ymm16,%ymm1
+ .byte 98,241,84,32,92,201 // vsubps %ymm1,%ymm21,%ymm1
+ .byte 98,177,116,40,89,206 // vmulps %ymm22,%ymm1,%ymm1
+ .byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
+ .byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
+ .byte 98,177,116,40,88,201 // vaddps %ymm17,%ymm1,%ymm1
+ .byte 98,178,61,40,188,202 // vfnmadd231ps %ymm18,%ymm8,%ymm1
+ .byte 98,81,100,32,92,192 // vsubps %ymm8,%ymm19,%ymm8
+ .byte 98,81,92,32,94,192 // vdivps %ymm8,%ymm20,%ymm8
+ .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
+ .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
+ .byte 196,193,108,84,211 // vandps %ymm11,%ymm2,%ymm2
+ .byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
+ .byte 196,66,45,168,197 // vfmadd213ps %ymm13,%ymm10,%ymm8
+ .byte 196,66,109,188,198 // vfnmadd231ps %ymm14,%ymm2,%ymm8
+ .byte 196,193,108,88,215 // vaddps %ymm15,%ymm2,%ymm2
+ .byte 98,241,124,32,94,210 // vdivps %ymm2,%ymm16,%ymm2
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 98,177,108,40,89,214 // vmulps %ymm22,%ymm2,%ymm2
+ .byte 196,99,125,8,194,1 // vroundps $0x1,%ymm2,%ymm8
+ .byte 196,65,108,92,192 // vsubps %ymm8,%ymm2,%ymm8
+ .byte 98,177,108,40,88,209 // vaddps %ymm17,%ymm2,%ymm2
+ .byte 98,178,61,40,188,210 // vfnmadd231ps %ymm18,%ymm8,%ymm2
+ .byte 98,81,100,32,92,192 // vsubps %ymm8,%ymm19,%ymm8
+ .byte 98,81,92,32,94,192 // vdivps %ymm8,%ymm20,%ymm8
+ .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_lab_to_xyz_skx
+.globl _sk_lab_to_xyz_skx
+FUNCTION(_sk_lab_to_xyz_skx)
+_sk_lab_to_xyz_skx:
+ .byte 196,98,125,24,5,142,247,2,0 // vbroadcastss 0x2f78e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,13,241,246,2,0 // vbroadcastss 0x2f6f1(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,128,247,2,0 // vbroadcastss 0x2f780(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
+ .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
+ .byte 98,114,125,56,168,5,112,247,2,0 // vfmadd213ps 0x2f770(%rip){1to8},%ymm0,%ymm8 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 98,241,60,56,89,5,106,247,2,0 // vmulps 0x2f76a(%rip){1to8},%ymm8,%ymm0 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 98,242,125,56,152,13,100,247,2,0 // vfmadd132ps 0x2f764(%rip){1to8},%ymm0,%ymm1 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 98,242,125,56,156,21,94,247,2,0 // vfnmadd132ps 0x2f75e(%rip){1to8},%ymm0,%ymm2 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
+ .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
+ .byte 196,98,125,24,13,80,247,2,0 // vbroadcastss 0x2f750(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 196,98,125,24,29,62,247,2,0 // vbroadcastss 0x2f73e(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
+ .byte 196,98,125,24,37,52,247,2,0 // vbroadcastss 0x2f734(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
+ .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
+ .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
+ .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
+ .byte 98,241,52,40,194,193,1 // vcmpltps %ymm1,%ymm9,%k0
+ .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
+ .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
+ .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
+ .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
+ .byte 197,236,89,194 // vmulps %ymm2,%ymm2,%ymm0
+ .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
+ .byte 98,241,52,40,194,192,1 // vcmpltps %ymm0,%ymm9,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
+ .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
+ .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
+ .byte 98,241,60,56,89,5,217,246,2,0 // vmulps 0x2f6d9(%rip){1to8},%ymm8,%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 98,241,108,56,89,21,211,246,2,0 // vmulps 0x2f6d3(%rip){1to8},%ymm2,%ymm2 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_load_a8_skx
+.globl _sk_load_a8_skx
+FUNCTION(_sk_load_a8_skx)
+_sk_load_a8_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,49 // jne 336a <_sk_load_a8_skx+0x49>
+ .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
+ .byte 197,249,219,5,89,247,2,0 // vpand 0x2f759(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,29,34,246,2,0 // vmulps 0x2f622(%rip){1to8},%ymm0,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,192 // ja 333f <_sk_load_a8_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3410 <_sk_load_a8_skx+0xef>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 235,161 // jmp 333f <_sk_load_a8_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
+ .byte 196,130,121,50,12,24 // vpmovzxbq (%r8,%r11,1),%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
+ .byte 233,119,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
+ .byte 196,130,121,49,12,24 // vpmovzxbd (%r8,%r11,1),%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
+ .byte 233,50,255,255,255 // jmpq 333f <_sk_load_a8_skx+0x1e>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 131,255,255 // cmp $0xffffffff,%edi
+ .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,210 // callq *%rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 184 // .byte 0xb8
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_a8_dst_skx
+.globl _sk_load_a8_dst_skx
+FUNCTION(_sk_load_a8_dst_skx)
+_sk_load_a8_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,49 // jne 3475 <_sk_load_a8_dst_skx+0x49>
+ .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
+ .byte 197,217,219,37,78,246,2,0 // vpand 0x2f64e(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 98,241,92,56,89,61,23,245,2,0 // vmulps 0x2f517(%rip){1to8},%ymm4,%ymm7 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
+ .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
+ .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,192 // ja 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,131,0,0,0 // lea 0x83(%rip),%r10 # 3518 <_sk_load_a8_dst_skx+0xec>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,249,110,224 // vmovd %eax,%xmm4
+ .byte 235,161 // jmp 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
+ .byte 196,130,121,50,44,24 // vpmovzxbq (%r8,%r11,1),%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
+ .byte 233,119,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
+ .byte 196,130,121,49,44,24 // vpmovzxbd (%r8,%r11,1),%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
+ .byte 233,50,255,255,255 // jmpq 344a <_sk_load_a8_dst_skx+0x1e>
+ .byte 134,255 // xchg %bh,%bh
+ .byte 255 // (bad)
+ .byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,224 // jmpq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,213 // callq *%rbp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,202 // dec %edx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 187 // .byte 0xbb
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_a8_skx
+.globl _sk_gather_a8_skx
+FUNCTION(_sk_gather_a8_skx)
+_sk_gather_a8_skx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 196,193,249,126,194 // vmovq %xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
+ .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,249,126,199 // vmovq %xmm0,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
+ .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
+ .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
+ .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
+ .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
+ .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
+ .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
+ .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
+ .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
+ .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,29,90,243,2,0 // vmulps 0x2f35a(%rip){1to8},%ymm0,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_a8_skx
+.globl _sk_store_a8_skx
+FUNCTION(_sk_store_a8_skx)
+_sk_store_a8_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 98,113,100,56,89,5,222,242,2,0 // vmulps 0x2f2de(%rip){1to8},%ymm3,%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
+ .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 3679 <_sk_store_a8_skx+0x40>
+ .byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,235 // ja 3675 <_sk_store_a8_skx+0x3c>
+ .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,78,0,0,0 // lea 0x4e(%rip),%r10 # 36e8 <_sk_store_a8_skx+0xaf>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
+ .byte 235,201 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
+ .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
+ .byte 98,18,126,8,50,4,24 // vpmovqb %xmm8,(%r8,%r11,1)
+ .byte 235,179 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
+ .byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
+ .byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
+ .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
+ .byte 98,18,126,8,49,4,24 // vpmovdb %xmm8,(%r8,%r11,1)
+ .byte 235,141 // jmp 3675 <_sk_store_a8_skx+0x3c>
+ .byte 187,255,255,255,204 // mov $0xccffffff,%ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,242 // push %rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 234 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,226 // jmpq *%rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 218,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_g8_skx
+.globl _sk_load_g8_skx
+FUNCTION(_sk_load_g8_skx)
+_sk_load_g8_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,54 // jne 3752 <_sk_load_g8_skx+0x4e>
+ .byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
+ .byte 197,249,219,5,118,243,2,0 // vpand 0x2f376(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,63,242,2,0 // vmulps 0x2f23f(%rip){1to8},%ymm0,%ymm0 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,192,241,2,0 // vbroadcastss 0x2f1c0(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
+ .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,187 // ja 3722 <_sk_load_g8_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 37f8 <_sk_load_g8_skx+0xf4>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 235,156 // jmp 3722 <_sk_load_g8_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
+ .byte 196,130,121,50,12,24 // vpmovzxbq (%r8,%r11,1),%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
+ .byte 233,114,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
+ .byte 196,130,121,49,12,24 // vpmovzxbd (%r8,%r11,1),%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
+ .byte 233,45,255,255,255 // jmpq 3722 <_sk_load_g8_skx+0x1e>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 131,255,255 // cmp $0xffffffff,%edi
+ .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,210 // callq *%rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 184 // .byte 0xb8
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_g8_dst_skx
+.globl _sk_load_g8_dst_skx
+FUNCTION(_sk_load_g8_dst_skx)
+_sk_load_g8_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,54 // jne 3862 <_sk_load_g8_dst_skx+0x4e>
+ .byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
+ .byte 197,217,219,37,102,242,2,0 // vpand 0x2f266(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 98,241,92,56,89,37,47,241,2,0 // vmulps 0x2f12f(%rip){1to8},%ymm4,%ymm4 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,61,176,240,2,0 // vbroadcastss 0x2f0b0(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
+ .byte 197,252,40,244 // vmovaps %ymm4,%ymm6
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,187 // ja 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,134,0,0,0 // lea 0x86(%rip),%r10 # 3908 <_sk_load_g8_dst_skx+0xf4>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
+ .byte 197,249,110,224 // vmovd %eax,%xmm4
+ .byte 235,156 // jmp 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
+ .byte 196,130,121,50,44,24 // vpmovzxbq (%r8,%r11,1),%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
+ .byte 233,114,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
+ .byte 67,15,182,68,24,5 // movzbl 0x5(%r8,%r11,1),%eax
+ .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
+ .byte 67,15,182,68,24,4 // movzbl 0x4(%r8,%r11,1),%eax
+ .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
+ .byte 196,130,121,49,44,24 // vpmovzxbd (%r8,%r11,1),%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
+ .byte 233,45,255,255,255 // jmpq 3832 <_sk_load_g8_dst_skx+0x1e>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 131,255,255 // cmp $0xffffffff,%edi
+ .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 221,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,210 // callq *%rdx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,199 // inc %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 184 // .byte 0xb8
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_g8_skx
+.globl _sk_gather_g8_skx
+FUNCTION(_sk_gather_g8_skx)
+_sk_gather_g8_skx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 196,193,249,126,194 // vmovq %xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
+ .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,249,126,199 // vmovq %xmm0,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
+ .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
+ .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
+ .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
+ .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
+ .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
+ .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
+ .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
+ .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
+ .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
+ .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
+ .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
+ .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
+ .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,106,239,2,0 // vmulps 0x2ef6a(%rip){1to8},%ymm0,%ymm0 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,235,238,2,0 // vbroadcastss 0x2eeeb(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
+ .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_load_565_skx
+.globl _sk_load_565_skx
+FUNCTION(_sk_load_565_skx)
+_sk_load_565_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,96 // jne 3aa9 <_sk_load_565_skx+0x7b>
+ .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
+ .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
+ .byte 98,241,109,56,219,5,34,239,2,0 // vpandd 0x2ef22(%rip){1to8},%ymm2,%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,24,239,2,0 // vmulps 0x2ef18(%rip){1to8},%ymm0,%ymm0 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,109,56,219,13,18,239,2,0 // vpandd 0x2ef12(%rip){1to8},%ymm2,%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,241,116,56,89,13,8,239,2,0 // vmulps 0x2ef08(%rip){1to8},%ymm1,%ymm1 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,109,56,219,21,2,239,2,0 // vpandd 0x2ef02(%rip){1to8},%ymm2,%ymm2 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 98,241,108,56,89,21,248,238,2,0 // vmulps 0x2eef8(%rip){1to8},%ymm2,%ymm2 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,97,238,2,0 // vbroadcastss 0x2ee61(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,145 // ja 3a4f <_sk_load_565_skx+0x21>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 3b44 <_sk_load_565_skx+0x116>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 233,111,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
+ .byte 233,72,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,130,121,51,12,88 // vpmovzxwd (%r8,%r11,2),%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
+ .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
+ .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
+ .byte 233,14,255,255,255 // jmpq 3a4f <_sk_load_565_skx+0x21>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 142,255 // mov %edi,%?
+ .byte 255 // (bad)
+ .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 223,255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,215 // callq *%rdi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,207 // dec %edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,195 // inc %ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_565_dst_skx
+.globl _sk_load_565_dst_skx
+FUNCTION(_sk_load_565_dst_skx)
+_sk_load_565_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,96 // jne 3bdb <_sk_load_565_dst_skx+0x7b>
+ .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
+ .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
+ .byte 98,241,77,56,219,37,240,237,2,0 // vpandd 0x2edf0(%rip){1to8},%ymm6,%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 98,241,92,56,89,37,230,237,2,0 // vmulps 0x2ede6(%rip){1to8},%ymm4,%ymm4 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,77,56,219,45,224,237,2,0 // vpandd 0x2ede0(%rip){1to8},%ymm6,%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 98,241,84,56,89,45,214,237,2,0 // vmulps 0x2edd6(%rip){1to8},%ymm5,%ymm5 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,77,56,219,53,208,237,2,0 // vpandd 0x2edd0(%rip){1to8},%ymm6,%ymm6 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 98,241,76,56,89,53,198,237,2,0 // vmulps 0x2edc6(%rip){1to8},%ymm6,%ymm6 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,61,47,237,2,0 // vbroadcastss 0x2ed2f(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,145 // ja 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3c74 <_sk_load_565_dst_skx+0x114>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,249,110,224 // vmovd %eax,%xmm4
+ .byte 233,111,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
+ .byte 233,72,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,130,121,51,44,88 // vpmovzxwd (%r8,%r11,2),%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
+ .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
+ .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
+ .byte 233,14,255,255,255 // jmpq 3b81 <_sk_load_565_dst_skx+0x21>
+ .byte 144 // nop
+ .byte 144 // nop
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,170,255,255,255,158 // ljmp *-0x61000001(%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,225 // jmpq *%rcx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,209 // callq *%rcx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_565_skx
+.globl _sk_gather_565_skx
+FUNCTION(_sk_gather_565_skx)
+_sk_gather_565_skx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 196,193,249,126,194 // vmovq %xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
+ .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,249,126,199 // vmovq %xmm0,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
+ .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
+ .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
+ .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
+ .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
+ .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
+ .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
+ .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
+ .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
+ .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
+ .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
+ .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
+ .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
+ .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
+ .byte 98,241,109,56,219,5,11,236,2,0 // vpandd 0x2ec0b(%rip){1to8},%ymm2,%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,1,236,2,0 // vmulps 0x2ec01(%rip){1to8},%ymm0,%ymm0 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 98,241,109,56,219,13,251,235,2,0 // vpandd 0x2ebfb(%rip){1to8},%ymm2,%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,241,116,56,89,13,241,235,2,0 // vmulps 0x2ebf1(%rip){1to8},%ymm1,%ymm1 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 98,241,109,56,219,21,235,235,2,0 // vpandd 0x2ebeb(%rip){1to8},%ymm2,%ymm2 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 98,241,108,56,89,21,225,235,2,0 // vmulps 0x2ebe1(%rip){1to8},%ymm2,%ymm2 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,74,235,2,0 // vbroadcastss 0x2eb4a(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_565_skx
+.globl _sk_store_565_skx
+FUNCTION(_sk_store_565_skx)
+_sk_store_565_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 196,98,125,24,5,14,236,2,0 // vbroadcastss 0x2ec0e(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
+ .byte 98,113,116,56,89,21,248,235,2,0 // vmulps 0x2ebf8(%rip){1to8},%ymm1,%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
+ .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
+ .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 3e39 <_sk_store_565_skx+0x72>
+ .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,235 // ja 3e35 <_sk_store_565_skx+0x6e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,79,0,0,0 // lea 0x4f(%rip),%r10 # 3ea4 <_sk_store_565_skx+0xdd>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
+ .byte 235,206 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
+ .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
+ .byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
+ .byte 235,184 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
+ .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
+ .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
+ .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
+ .byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
+ .byte 235,146 // jmp 3e35 <_sk_store_565_skx+0x6e>
+ .byte 144 // nop
+ .byte 186,255,255,255,203 // mov $0xcbffffff,%edx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,195 // inc %ebx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,241 // push %rcx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1e3c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_4444_skx
+.globl _sk_load_4444_skx
+FUNCTION(_sk_load_4444_skx)
+_sk_load_4444_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,111 // jne 3f4a <_sk_load_4444_skx+0x8a>
+ .byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
+ .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
+ .byte 98,241,101,56,219,5,12,235,2,0 // vpandd 0x2eb0c(%rip){1to8},%ymm3,%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,2,235,2,0 // vmulps 0x2eb02(%rip){1to8},%ymm0,%ymm0 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,101,56,219,13,252,234,2,0 // vpandd 0x2eafc(%rip){1to8},%ymm3,%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,241,116,56,89,13,242,234,2,0 // vmulps 0x2eaf2(%rip){1to8},%ymm1,%ymm1 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,101,56,219,21,236,234,2,0 // vpandd 0x2eaec(%rip){1to8},%ymm3,%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 98,241,108,56,89,21,226,234,2,0 // vmulps 0x2eae2(%rip){1to8},%ymm2,%ymm2 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,101,56,219,29,220,234,2,0 // vpandd 0x2eadc(%rip){1to8},%ymm3,%ymm3 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,210,234,2,0 // vmulps 0x2ead2(%rip){1to8},%ymm3,%ymm3 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,130 // ja 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 3fe4 <_sk_load_4444_skx+0x124>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,249,110,192 // vmovd %eax,%xmm0
+ .byte 233,96,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,130,121,52,12,88 // vpmovzxwq (%r8,%r11,2),%xmm1
+ .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
+ .byte 233,57,255,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
+ .byte 196,130,121,51,12,88 // vpmovzxwd (%r8,%r11,2),%xmm1
+ .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
+ .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
+ .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
+ .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
+ .byte 233,255,254,255,255 // jmpq 3ee1 <_sk_load_4444_skx+0x21>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 143 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,169,255,255,255,157 // ljmp *-0x62000001(%rcx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,224 // jmpq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 216,255 // fdivr %st(7),%st
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_4444_dst_skx
+.globl _sk_load_4444_dst_skx
+FUNCTION(_sk_load_4444_dst_skx)
+_sk_load_4444_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,111 // jne 408a <_sk_load_4444_dst_skx+0x8a>
+ .byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
+ .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
+ .byte 98,241,69,56,219,37,204,233,2,0 // vpandd 0x2e9cc(%rip){1to8},%ymm7,%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 98,241,92,56,89,37,194,233,2,0 // vmulps 0x2e9c2(%rip){1to8},%ymm4,%ymm4 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,69,56,219,45,188,233,2,0 // vpandd 0x2e9bc(%rip){1to8},%ymm7,%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 98,241,84,56,89,45,178,233,2,0 // vmulps 0x2e9b2(%rip){1to8},%ymm5,%ymm5 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,69,56,219,53,172,233,2,0 // vpandd 0x2e9ac(%rip){1to8},%ymm7,%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 98,241,76,56,89,53,162,233,2,0 // vmulps 0x2e9a2(%rip){1to8},%ymm6,%ymm6 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,69,56,219,61,156,233,2,0 // vpandd 0x2e99c(%rip){1to8},%ymm7,%ymm7 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 98,241,68,56,89,61,146,233,2,0 // vmulps 0x2e992(%rip){1to8},%ymm7,%ymm7 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,130 // ja 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 4124 <_sk_load_4444_dst_skx+0x124>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
+ .byte 197,249,110,224 // vmovd %eax,%xmm4
+ .byte 233,96,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,130,121,52,44,88 // vpmovzxwq (%r8,%r11,2),%xmm5
+ .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
+ .byte 233,57,255,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
+ .byte 196,130,121,51,44,88 // vpmovzxwd (%r8,%r11,2),%xmm5
+ .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
+ .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
+ .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
+ .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
+ .byte 233,255,254,255,255 // jmpq 4021 <_sk_load_4444_dst_skx+0x21>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 143 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,169,255,255,255,157 // ljmp *-0x62000001(%rcx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,224 // jmpq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 216,255 // fdivr %st(7),%st
+ .byte 255 // (bad)
+ .byte 255,208 // callq *%rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,196 // inc %esp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_4444_skx
+.globl _sk_gather_4444_skx
+FUNCTION(_sk_gather_4444_skx)
+_sk_gather_4444_skx:
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
+ .byte 65,137,193 // mov %eax,%r9d
+ .byte 72,193,232,32 // shr $0x20,%rax
+ .byte 196,193,249,126,194 // vmovq %xmm0,%r10
+ .byte 69,137,211 // mov %r10d,%r11d
+ .byte 73,193,234,32 // shr $0x20,%r10
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
+ .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
+ .byte 65,137,222 // mov %ebx,%r14d
+ .byte 72,193,235,32 // shr $0x20,%rbx
+ .byte 196,193,249,126,199 // vmovq %xmm0,%r15
+ .byte 69,137,252 // mov %r15d,%r12d
+ .byte 73,193,239,32 // shr $0x20,%r15
+ .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
+ .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
+ .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
+ .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
+ .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
+ .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
+ .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
+ .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
+ .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
+ .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
+ .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
+ .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
+ .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
+ .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
+ .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
+ .byte 98,241,101,56,219,5,215,231,2,0 // vpandd 0x2e7d7(%rip){1to8},%ymm3,%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 98,241,124,56,89,5,205,231,2,0 // vmulps 0x2e7cd(%rip){1to8},%ymm0,%ymm0 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 98,241,101,56,219,13,199,231,2,0 // vpandd 0x2e7c7(%rip){1to8},%ymm3,%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,241,116,56,89,13,189,231,2,0 // vmulps 0x2e7bd(%rip){1to8},%ymm1,%ymm1 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 98,241,101,56,219,21,183,231,2,0 // vpandd 0x2e7b7(%rip){1to8},%ymm3,%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 98,241,108,56,89,21,173,231,2,0 // vmulps 0x2e7ad(%rip){1to8},%ymm2,%ymm2 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 98,241,101,56,219,29,167,231,2,0 // vpandd 0x2e7a7(%rip){1to8},%ymm3,%ymm3 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 98,241,100,56,89,29,157,231,2,0 // vmulps 0x2e79d(%rip){1to8},%ymm3,%ymm3 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_4444_skx
+.globl _sk_store_4444_skx
+FUNCTION(_sk_store_4444_skx)
+_sk_store_4444_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 196,98,125,24,5,119,231,2,0 // vbroadcastss 0x2e777(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
+ .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 4308 <_sk_store_4444_skx+0x82>
+ .byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,235 // ja 4304 <_sk_store_4444_skx+0x7e>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,80,0,0,0 // lea 0x50(%rip),%r10 # 4374 <_sk_store_4444_skx+0xee>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
+ .byte 235,206 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
+ .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
+ .byte 98,18,126,8,52,4,88 // vpmovqw %xmm8,(%r8,%r11,2)
+ .byte 235,184 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
+ .byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
+ .byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
+ .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
+ .byte 98,18,126,8,51,4,88 // vpmovdw %xmm8,(%r8,%r11,2)
+ .byte 235,146 // jmp 4304 <_sk_store_4444_skx+0x7e>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,194 // inc %edx
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,240 // push %rax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 232,255,255,255,224 // callq ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd230c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 216,255 // fdivr %st(7),%st
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_8888_skx
+.globl _sk_load_8888_skx
+FUNCTION(_sk_load_8888_skx)
+_sk_load_8888_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,97 // jne 440d <_sk_load_8888_skx+0x7d>
+ .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,174,229,2,0 // vbroadcastss 0x2e5ae(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
+ .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
+ .byte 197,237,114,211,16 // vpsrld $0x10,%ymm3,%ymm2
+ .byte 98,241,127,169,111,210 // vmovdqu8 %ymm2,%ymm2{%k1}{z}
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
+ .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,144 // ja 43b2 <_sk_load_8888_skx+0x22>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 44b8 <_sk_load_8888_skx+0x128>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
+ .byte 233,113,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
+ .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
+ .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
+ .byte 233,72,255,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,131,121,34,68,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,131,121,34,68,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
+ .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
+ .byte 233,252,254,255,255 // jmpq 43b2 <_sk_load_8888_skx+0x22>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 126,255 // jle 44b9 <_sk_load_8888_skx+0x129>
+ .byte 255 // (bad)
+ .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 178,255 // mov $0xff,%dl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_8888_dst_skx
+.globl _sk_load_8888_dst_skx
+FUNCTION(_sk_load_8888_dst_skx)
+_sk_load_8888_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,97 // jne 4551 <_sk_load_8888_dst_skx+0x7d>
+ .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,98,125,24,5,106,228,2,0 // vbroadcastss 0x2e46a(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
+ .byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
+ .byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
+ .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
+ .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
+ .byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6
+ .byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z}
+ .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
+ .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
+ .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,144 // ja 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 45fc <_sk_load_8888_dst_skx+0x128>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
+ .byte 233,113,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
+ .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
+ .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
+ .byte 233,72,255,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
+ .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
+ .byte 233,252,254,255,255 // jmpq 44f6 <_sk_load_8888_dst_skx+0x22>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 126,255 // jle 45fd <_sk_load_8888_dst_skx+0x129>
+ .byte 255 // (bad)
+ .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 178,255 // mov $0xff,%dl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_8888_skx
+.globl _sk_gather_8888_skx
+FUNCTION(_sk_gather_8888_skx)
+_sk_gather_8888_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,226,125,24,29,253,226,2,0 // vbroadcastss 0x2e2fd(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
+ .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
+ .byte 196,193,109,114,208,16 // vpsrld $0x10,%ymm8,%ymm2
+ .byte 98,241,127,169,111,210 // vmovdqu8 %ymm2,%ymm2{%k1}{z}
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
+ .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_8888_skx
+.globl _sk_store_8888_skx
+FUNCTION(_sk_store_8888_skx)
+_sk_store_8888_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 196,98,125,24,5,86,226,2,0 // vbroadcastss 0x2e256(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
+ .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
+ .byte 196,65,108,89,208 // vmulps %ymm8,%ymm2,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 4736 <_sk_store_8888_skx+0x78>
+ .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,235 // ja 4732 <_sk_store_8888_skx+0x74>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 47ac <_sk_store_8888_skx+0xee>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
+ .byte 235,207 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
+ .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
+ .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
+ .byte 235,185 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
+ .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
+ .byte 235,136 // jmp 4732 <_sk_store_8888_skx+0x74>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 175 // scas %es:(%rdi),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,246 // push %rsi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 233,255,255,255,219 // jmpq ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2744>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_bgra_skx
+.globl _sk_load_bgra_skx
+FUNCTION(_sk_load_bgra_skx)
+_sk_load_bgra_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,97 // jne 4845 <_sk_load_bgra_skx+0x7d>
+ .byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,5,118,225,2,0 // vbroadcastss 0x2e176(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
+ .byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
+ .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
+ .byte 197,253,114,211,16 // vpsrld $0x10,%ymm3,%ymm0
+ .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,144 // ja 47ea <_sk_load_bgra_skx+0x22>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 48f0 <_sk_load_bgra_skx+0x128>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
+ .byte 233,113,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,130,121,53,4,152 // vpmovzxdq (%r8,%r11,4),%xmm0
+ .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
+ .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
+ .byte 233,72,255,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,131,121,34,68,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
+ .byte 196,131,121,34,68,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm0,%xmm0
+ .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
+ .byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
+ .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
+ .byte 233,252,254,255,255 // jmpq 47ea <_sk_load_bgra_skx+0x22>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 126,255 // jle 48f1 <_sk_load_bgra_skx+0x129>
+ .byte 255 // (bad)
+ .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 178,255 // mov $0xff,%dl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_bgra_dst_skx
+.globl _sk_load_bgra_dst_skx
+FUNCTION(_sk_load_bgra_dst_skx)
+_sk_load_bgra_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,97 // jne 4989 <_sk_load_bgra_dst_skx+0x7d>
+ .byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,98,125,24,5,50,224,2,0 // vbroadcastss 0x2e032(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
+ .byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
+ .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
+ .byte 197,221,114,215,16 // vpsrld $0x10,%ymm7,%ymm4
+ .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
+ .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
+ .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
+ .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
+ .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
+ .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,144 // ja 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 4a34 <_sk_load_bgra_dst_skx+0x128>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
+ .byte 233,113,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
+ .byte 176,4 // mov $0x4,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,130,121,53,36,152 // vpmovzxdq (%r8,%r11,4),%xmm4
+ .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
+ .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
+ .byte 233,72,255,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
+ .byte 176,64 // mov $0x40,%al
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,20,1 // vpinsrd $0x1,0x14(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
+ .byte 196,131,89,34,100,152,16,0 // vpinsrd $0x0,0x10(%r8,%r11,4),%xmm4,%xmm4
+ .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
+ .byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
+ .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
+ .byte 233,252,254,255,255 // jmpq 492e <_sk_load_bgra_dst_skx+0x22>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 126,255 // jle 4a35 <_sk_load_bgra_dst_skx+0x129>
+ .byte 255 // (bad)
+ .byte 255,156,255,255,255,137,255 // lcall *-0x760001(%rdi,%rdi,8)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 237 // in (%dx),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 217,255 // fcos
+ .byte 255 // (bad)
+ .byte 255,197 // inc %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+ .byte 178,255 // mov $0xff,%dl
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_gather_bgra_skx
+.globl _sk_gather_bgra_skx
+FUNCTION(_sk_gather_bgra_skx)
+_sk_gather_bgra_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
+ .byte 184,17,17,17,17 // mov $0x11111111,%eax
+ .byte 197,251,146,200 // kmovd %eax,%k1
+ .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,226,125,24,29,197,222,2,0 // vbroadcastss 0x2dec5(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
+ .byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
+ .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
+ .byte 196,193,125,114,208,16 // vpsrld $0x10,%ymm8,%ymm0
+ .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
+ .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_bgra_skx
+.globl _sk_store_bgra_skx
+FUNCTION(_sk_store_bgra_skx)
+_sk_store_bgra_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 76,99,218 // movslq %edx,%r11
+ .byte 196,98,125,24,5,30,222,2,0 // vbroadcastss 0x2de1e(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,8 // vpslld $0x8,%ymm10,%ymm10
+ .byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
+ .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,193,45,114,242,16 // vpslld $0x10,%ymm10,%ymm10
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
+ .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
+ .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,10 // jne 4b6e <_sk_store_bgra_skx+0x78>
+ .byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 65,137,249 // mov %edi,%r9d
+ .byte 65,128,225,7 // and $0x7,%r9b
+ .byte 65,128,193,255 // add $0xff,%r9b
+ .byte 65,128,249,6 // cmp $0x6,%r9b
+ .byte 119,235 // ja 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 69,15,182,201 // movzbl %r9b,%r9d
+ .byte 76,141,21,90,0,0,0 // lea 0x5a(%rip),%r10 # 4be4 <_sk_store_bgra_skx+0xee>
+ .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
+ .byte 235,207 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
+ .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
+ .byte 98,18,126,8,53,4,152 // vpmovqd %xmm8,(%r8,%r11,4)
+ .byte 235,185 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,3,121,22,76,152,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%r11,4)
+ .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
+ .byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
+ .byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
+ .byte 235,136 // jmp 4b6a <_sk_store_bgra_skx+0x74>
+ .byte 102,144 // xchg %ax,%ax
+ .byte 175 // scas %es:(%rdi),%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,246 // push %rsi
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2b7c>
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,205 // dec %ebp
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_f16_skx
+.globl _sk_load_f16_skx
+FUNCTION(_sk_load_f16_skx)
+_sk_load_f16_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,3 // shl $0x3,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,99,194 // movslq %edx,%rax
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 4c81 <_sk_load_f16_skx+0x81>
+ .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
+ .byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
+ .byte 196,193,121,16,76,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm1
+ .byte 196,65,122,111,76,192,48 // vmovdqu 0x30(%r8,%rax,8),%xmm9
+ .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
+ .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
+ .byte 196,65,113,97,193 // vpunpcklwd %xmm9,%xmm1,%xmm8
+ .byte 196,193,113,105,217 // vpunpckhwd %xmm9,%xmm1,%xmm3
+ .byte 197,249,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm1
+ .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
+ .byte 197,185,97,195 // vpunpcklwd %xmm3,%xmm8,%xmm0
+ .byte 197,241,108,208 // vpunpcklqdq %xmm0,%xmm1,%xmm2
+ .byte 197,241,109,200 // vpunpckhqdq %xmm0,%xmm1,%xmm1
+ .byte 196,226,125,19,194 // vcvtph2ps %xmm2,%ymm0
+ .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
+ .byte 197,185,105,219 // vpunpckhwd %xmm3,%xmm8,%xmm3
+ .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2
+ .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
+ .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3
+ .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
+ .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,85 // je 4ce7 <_sk_load_f16_skx+0xe7>
+ .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,72 // jb 4ce7 <_sk_load_f16_skx+0xe7>
+ .byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 116,72 // je 4cf4 <_sk_load_f16_skx+0xf4>
+ .byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,59 // jb 4cf4 <_sk_load_f16_skx+0xf4>
+ .byte 196,193,123,16,76,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm1
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 15,132,109,255,255,255 // je 4c37 <_sk_load_f16_skx+0x37>
+ .byte 196,193,113,22,76,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm1,%xmm1
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,130,92,255,255,255 // jb 4c37 <_sk_load_f16_skx+0x37>
+ .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
+ .byte 233,80,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+ .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
+ .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
+ .byte 233,67,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+ .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
+ .byte 233,58,255,255,255 // jmpq 4c37 <_sk_load_f16_skx+0x37>
+
+HIDDEN _sk_load_f16_dst_skx
+.globl _sk_load_f16_dst_skx
+FUNCTION(_sk_load_f16_dst_skx)
+_sk_load_f16_dst_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,3 // shl $0x3,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,99,194 // movslq %edx,%rax
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,101 // jne 4d7e <_sk_load_f16_dst_skx+0x81>
+ .byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
+ .byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
+ .byte 196,193,121,16,108,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm5
+ .byte 196,65,122,111,76,192,48 // vmovdqu 0x30(%r8,%rax,8),%xmm9
+ .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4
+ .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6
+ .byte 196,65,81,97,193 // vpunpcklwd %xmm9,%xmm5,%xmm8
+ .byte 196,193,81,105,249 // vpunpckhwd %xmm9,%xmm5,%xmm7
+ .byte 197,217,97,238 // vpunpcklwd %xmm6,%xmm4,%xmm5
+ .byte 197,89,105,206 // vpunpckhwd %xmm6,%xmm4,%xmm9
+ .byte 197,185,97,231 // vpunpcklwd %xmm7,%xmm8,%xmm4
+ .byte 197,209,108,244 // vpunpcklqdq %xmm4,%xmm5,%xmm6
+ .byte 197,209,109,236 // vpunpckhqdq %xmm4,%xmm5,%xmm5
+ .byte 196,226,125,19,230 // vcvtph2ps %xmm6,%ymm4
+ .byte 196,226,125,19,237 // vcvtph2ps %xmm5,%ymm5
+ .byte 197,185,105,255 // vpunpckhwd %xmm7,%xmm8,%xmm7
+ .byte 197,177,108,247 // vpunpcklqdq %xmm7,%xmm9,%xmm6
+ .byte 196,226,125,19,246 // vcvtph2ps %xmm6,%ymm6
+ .byte 197,177,109,255 // vpunpckhqdq %xmm7,%xmm9,%xmm7
+ .byte 196,226,125,19,255 // vcvtph2ps %xmm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
+ .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,85 // je 4de4 <_sk_load_f16_dst_skx+0xe7>
+ .byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,72 // jb 4de4 <_sk_load_f16_dst_skx+0xe7>
+ .byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 116,72 // je 4df1 <_sk_load_f16_dst_skx+0xf4>
+ .byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,59 // jb 4df1 <_sk_load_f16_dst_skx+0xf4>
+ .byte 196,193,123,16,108,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm5
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 15,132,109,255,255,255 // je 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 196,193,81,22,108,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm5,%xmm5
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,130,92,255,255,255 // jb 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
+ .byte 233,80,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
+ .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
+ .byte 233,67,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+ .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
+ .byte 233,58,255,255,255 // jmpq 4d34 <_sk_load_f16_dst_skx+0x37>
+
+HIDDEN _sk_gather_f16_skx
+.globl _sk_gather_f16_skx
+FUNCTION(_sk_gather_f16_skx)
+_sk_gather_f16_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
+ .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
+ .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
+ .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
+ .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
+ .byte 196,194,245,144,20,192 // vpgatherdq %ymm1,(%r8,%xmm0,8),%ymm2
+ .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
+ .byte 196,66,229,144,4,192 // vpgatherdq %ymm3,(%r8,%xmm0,8),%ymm8
+ .byte 98,211,253,72,58,192,1 // vinserti64x4 $0x1,%ymm8,%zmm0,%zmm0
+ .byte 98,211,237,72,58,200,1 // vinserti64x4 $0x1,%ymm8,%zmm2,%zmm1
+ .byte 98,243,253,72,57,202,1 // vextracti64x2 $0x1,%zmm1,%xmm2
+ .byte 98,243,253,72,57,195,2 // vextracti64x2 $0x2,%zmm0,%xmm3
+ .byte 98,243,253,72,57,192,3 // vextracti64x2 $0x3,%zmm0,%xmm0
+ .byte 197,113,97,194 // vpunpcklwd %xmm2,%xmm1,%xmm8
+ .byte 197,241,105,202 // vpunpckhwd %xmm2,%xmm1,%xmm1
+ .byte 197,225,97,208 // vpunpcklwd %xmm0,%xmm3,%xmm2
+ .byte 197,225,105,216 // vpunpckhwd %xmm0,%xmm3,%xmm3
+ .byte 197,185,97,193 // vpunpcklwd %xmm1,%xmm8,%xmm0
+ .byte 197,57,105,193 // vpunpckhwd %xmm1,%xmm8,%xmm8
+ .byte 197,233,97,203 // vpunpcklwd %xmm3,%xmm2,%xmm1
+ .byte 197,121,108,201 // vpunpcklqdq %xmm1,%xmm0,%xmm9
+ .byte 197,249,109,201 // vpunpckhqdq %xmm1,%xmm0,%xmm1
+ .byte 196,194,125,19,193 // vcvtph2ps %xmm9,%ymm0
+ .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
+ .byte 197,233,105,219 // vpunpckhwd %xmm3,%xmm2,%xmm3
+ .byte 197,185,108,211 // vpunpcklqdq %xmm3,%xmm8,%xmm2
+ .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
+ .byte 197,185,109,219 // vpunpckhqdq %xmm3,%xmm8,%xmm3
+ .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_store_f16_skx
+.globl _sk_store_f16_skx
+FUNCTION(_sk_store_f16_skx)
+_sk_store_f16_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 73,193,224,3 // shl $0x3,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 196,195,125,29,192,4 // vcvtps2ph $0x4,%ymm0,%xmm8
+ .byte 196,195,125,29,201,4 // vcvtps2ph $0x4,%ymm1,%xmm9
+ .byte 196,195,125,29,210,4 // vcvtps2ph $0x4,%ymm2,%xmm10
+ .byte 72,99,194 // movslq %edx,%rax
+ .byte 196,195,125,29,219,4 // vcvtps2ph $0x4,%ymm3,%xmm11
+ .byte 196,65,57,97,225 // vpunpcklwd %xmm9,%xmm8,%xmm12
+ .byte 196,65,57,105,193 // vpunpckhwd %xmm9,%xmm8,%xmm8
+ .byte 196,65,41,97,203 // vpunpcklwd %xmm11,%xmm10,%xmm9
+ .byte 196,65,41,105,235 // vpunpckhwd %xmm11,%xmm10,%xmm13
+ .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
+ .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
+ .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
+ .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,31 // jne 4f3f <_sk_store_f16_skx+0x7b>
+ .byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
+ .byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
+ .byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
+ .byte 196,65,122,127,68,192,48 // vmovdqu %xmm8,0x30(%r8,%rax,8)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,240 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,227 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
+ .byte 116,218 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,205 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
+ .byte 116,196 // je 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 114,183 // jb 4f3b <_sk_store_f16_skx+0x77>
+ .byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
+ .byte 235,174 // jmp 4f3b <_sk_store_f16_skx+0x77>
+
+HIDDEN _sk_load_u16_be_skx
+.globl _sk_load_u16_be_skx
+FUNCTION(_sk_load_u16_be_skx)
+_sk_load_u16_be_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
+ .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,194 // imul %r10,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 73,99,193 // movslq %r9d,%rax
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,204,0,0,0 // jne 5080 <_sk_load_u16_be_skx+0xf3>
+ .byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
+ .byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
+ .byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
+ .byte 196,65,122,111,76,64,48 // vmovdqu 0x30(%r8,%rax,2),%xmm9
+ .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
+ .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
+ .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
+ .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
+ .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
+ .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
+ .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
+ .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
+ .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
+ .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
+ .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
+ .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
+ .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,21,131,217,2,0 // vbroadcastss 0x2d983(%rip),%ymm10 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
+ .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
+ .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
+ .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
+ .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
+ .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
+ .byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2
+ .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
+ .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
+ .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
+ .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
+ .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
+ .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
+ .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
+ .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
+ .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
+ .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
+ .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
+ .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,85 // je 50e6 <_sk_load_u16_be_skx+0x159>
+ .byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,72 // jb 50e6 <_sk_load_u16_be_skx+0x159>
+ .byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 116,72 // je 50f3 <_sk_load_u16_be_skx+0x166>
+ .byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,59 // jb 50f3 <_sk_load_u16_be_skx+0x166>
+ .byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 15,132,6,255,255,255 // je 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,130,245,254,255,255 // jb 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
+ .byte 233,233,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
+ .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
+ .byte 233,220,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+ .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
+ .byte 233,211,254,255,255 // jmpq 4fcf <_sk_load_u16_be_skx+0x42>
+
+HIDDEN _sk_load_rgb_u16_be_skx
+.globl _sk_load_rgb_u16_be_skx
+FUNCTION(_sk_load_rgb_u16_be_skx)
+_sk_load_rgb_u16_be_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,99,72,8 // movslq 0x8(%rax),%r9
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,193 // imul %r9,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 72,137,208 // mov %rdx,%rax
+ .byte 72,193,224,32 // shl $0x20,%rax
+ .byte 72,141,4,64 // lea (%rax,%rax,2),%rax
+ .byte 72,193,248,32 // sar $0x20,%rax
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 15,133,202,0,0,0 // jne 51f1 <_sk_load_rgb_u16_be_skx+0xf5>
+ .byte 196,65,121,16,28,64 // vmovupd (%r8,%rax,2),%xmm11
+ .byte 196,193,121,16,92,64,12 // vmovupd 0xc(%r8,%rax,2),%xmm3
+ .byte 196,193,121,16,84,64,24 // vmovupd 0x18(%r8,%rax,2),%xmm2
+ .byte 98,209,125,8,115,92,64,2,4 // vpsrldq $0x4,0x20(%r8,%rax,2),%xmm0
+ .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
+ .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
+ .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
+ .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
+ .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
+ .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
+ .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
+ .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
+ .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
+ .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
+ .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
+ .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
+ .byte 197,233,108,208 // vpunpcklqdq %xmm0,%xmm2,%xmm2
+ .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
+ .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
+ .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
+ .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
+ .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 196,98,125,24,13,245,215,2,0 // vbroadcastss 0x2d7f5(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
+ .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
+ .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
+ .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
+ .byte 197,225,235,201 // vpor %xmm1,%xmm3,%xmm1
+ .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
+ .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
+ .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
+ .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
+ .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,25,215,2,0 // vbroadcastss 0x2d719(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 255,224 // jmpq *%rax
+ .byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 117,31 // jne 5229 <_sk_load_rgb_u16_be_skx+0x12d>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
+ .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
+ .byte 233,48,255,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,48 // jb 5273 <_sk_load_rgb_u16_be_skx+0x177>
+ .byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 117,48 // jne 528d <_sk_load_rgb_u16_be_skx+0x191>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 233,230,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
+ .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
+ .byte 233,204,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,39 // jb 52ce <_sk_load_rgb_u16_be_skx+0x1d2>
+ .byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 117,30 // jne 52df <_sk_load_rgb_u16_be_skx+0x1e3>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 233,139,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
+ .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
+ .byte 233,122,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 114,25 // jb 5312 <_sk_load_rgb_u16_be_skx+0x216>
+ .byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
+ .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
+ .byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
+ .byte 233,71,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+ .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
+ .byte 233,62,254,255,255 // jmpq 5159 <_sk_load_rgb_u16_be_skx+0x5d>
+
+HIDDEN _sk_store_u16_be_skx
+.globl _sk_store_u16_be_skx
+FUNCTION(_sk_store_u16_be_skx)
+_sk_store_u16_be_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
+ .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,194 // imul %r10,%r8
+ .byte 77,1,192 // add %r8,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 73,99,193 // movslq %r9d,%rax
+ .byte 196,98,125,24,5,222,214,2,0 // vbroadcastss 0x2d6de(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
+ .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
+ .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
+ .byte 196,66,49,43,202 // vpackusdw %xmm10,%xmm9,%xmm9
+ .byte 196,193,41,113,241,8 // vpsllw $0x8,%xmm9,%xmm10
+ .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
+ .byte 196,65,41,235,201 // vpor %xmm9,%xmm10,%xmm9
+ .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
+ .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
+ .byte 196,67,125,57,211,1 // vextracti128 $0x1,%ymm10,%xmm11
+ .byte 196,66,41,43,211 // vpackusdw %xmm11,%xmm10,%xmm10
+ .byte 196,193,33,113,242,8 // vpsllw $0x8,%xmm10,%xmm11
+ .byte 196,193,41,113,210,8 // vpsrlw $0x8,%xmm10,%xmm10
+ .byte 196,65,33,235,210 // vpor %xmm10,%xmm11,%xmm10
+ .byte 196,65,108,89,216 // vmulps %ymm8,%ymm2,%ymm11
+ .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
+ .byte 196,67,125,57,220,1 // vextracti128 $0x1,%ymm11,%xmm12
+ .byte 196,66,33,43,220 // vpackusdw %xmm12,%xmm11,%xmm11
+ .byte 196,193,25,113,243,8 // vpsllw $0x8,%xmm11,%xmm12
+ .byte 196,193,33,113,211,8 // vpsrlw $0x8,%xmm11,%xmm11
+ .byte 196,65,25,235,219 // vpor %xmm11,%xmm12,%xmm11
+ .byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
+ .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
+ .byte 196,67,125,57,196,1 // vextracti128 $0x1,%ymm8,%xmm12
+ .byte 196,66,57,43,196 // vpackusdw %xmm12,%xmm8,%xmm8
+ .byte 196,193,25,113,240,8 // vpsllw $0x8,%xmm8,%xmm12
+ .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
+ .byte 196,65,25,235,192 // vpor %xmm8,%xmm12,%xmm8
+ .byte 196,65,49,97,226 // vpunpcklwd %xmm10,%xmm9,%xmm12
+ .byte 196,65,49,105,234 // vpunpckhwd %xmm10,%xmm9,%xmm13
+ .byte 196,65,33,97,200 // vpunpcklwd %xmm8,%xmm11,%xmm9
+ .byte 196,65,33,105,192 // vpunpckhwd %xmm8,%xmm11,%xmm8
+ .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
+ .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
+ .byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
+ .byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,31 // jne 5426 <_sk_store_u16_be_skx+0x10b>
+ .byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
+ .byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
+ .byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
+ .byte 196,65,122,127,68,64,48 // vmovdqu %xmm8,0x30(%r8,%rax,2)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,240 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,227 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
+ .byte 116,218 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,205 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
+ .byte 116,196 // je 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 114,183 // jb 5422 <_sk_store_u16_be_skx+0x107>
+ .byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
+ .byte 235,174 // jmp 5422 <_sk_store_u16_be_skx+0x107>
+
+HIDDEN _sk_load_f32_skx
+.globl _sk_load_f32_skx
+FUNCTION(_sk_load_f32_skx)
+_sk_load_f32_skx:
+ .byte 98,225,253,40,40,223 // vmovapd %ymm7,%ymm19
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,135,63,1,0,0 // ja 55c9 <_sk_load_f32_skx+0x155>
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
+ .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,194 // imul %r10,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 77,99,201 // movslq %r9d,%r9
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 55dc <_sk_load_f32_skx+0x168>
+ .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
+ .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
+ .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
+ .byte 98,161,253,32,87,192 // vxorpd %ymm16,%ymm16,%ymm16
+ .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
+ .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
+ .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
+ .byte 98,161,237,32,87,210 // vxorpd %ymm18,%ymm18,%ymm18
+ .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
+ .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
+ .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
+ .byte 98,161,245,32,87,201 // vxorpd %ymm17,%ymm17,%ymm17
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
+ .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
+ .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,16,68,136,112 // vmovupd 0x70(%r8,%r9,4),%xmm0
+ .byte 196,227,125,6,248,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm7
+ .byte 196,129,121,16,68,136,96 // vmovupd 0x60(%r8,%r9,4),%xmm0
+ .byte 196,227,125,6,200,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm1
+ .byte 196,129,121,16,68,136,80 // vmovupd 0x50(%r8,%r9,4),%xmm0
+ .byte 196,227,125,6,208,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm2
+ .byte 197,125,40,209 // vmovapd %ymm1,%ymm10
+ .byte 196,129,121,16,68,136,64 // vmovupd 0x40(%r8,%r9,4),%xmm0
+ .byte 196,227,125,6,216,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm3
+ .byte 98,193,253,40,40,194 // vmovapd %ymm10,%ymm16
+ .byte 197,125,40,226 // vmovapd %ymm2,%ymm12
+ .byte 196,129,121,16,68,136,48 // vmovupd 0x30(%r8,%r9,4),%xmm0
+ .byte 196,227,125,13,255,12 // vblendpd $0xc,%ymm7,%ymm0,%ymm7
+ .byte 98,49,253,40,40,216 // vmovapd %ymm16,%ymm11
+ .byte 98,193,253,40,40,212 // vmovapd %ymm12,%ymm18
+ .byte 197,125,40,251 // vmovapd %ymm3,%ymm15
+ .byte 196,129,121,16,68,136,32 // vmovupd 0x20(%r8,%r9,4),%xmm0
+ .byte 196,67,125,13,243,12 // vblendpd $0xc,%ymm11,%ymm0,%ymm14
+ .byte 98,49,253,40,40,234 // vmovapd %ymm18,%ymm13
+ .byte 98,193,253,40,40,207 // vmovapd %ymm15,%ymm17
+ .byte 196,129,121,16,68,136,16 // vmovupd 0x10(%r8,%r9,4),%xmm0
+ .byte 196,67,125,13,205,12 // vblendpd $0xc,%ymm13,%ymm0,%ymm9
+ .byte 196,65,125,40,198 // vmovapd %ymm14,%ymm8
+ .byte 98,177,253,40,40,193 // vmovapd %ymm17,%ymm0
+ .byte 196,129,121,16,12,136 // vmovupd (%r8,%r9,4),%xmm1
+ .byte 196,227,117,13,200,12 // vblendpd $0xc,%ymm0,%ymm1,%ymm1
+ .byte 196,193,116,20,209 // vunpcklps %ymm9,%ymm1,%ymm2
+ .byte 196,193,116,21,217 // vunpckhps %ymm9,%ymm1,%ymm3
+ .byte 197,188,20,207 // vunpcklps %ymm7,%ymm8,%ymm1
+ .byte 197,188,21,255 // vunpckhps %ymm7,%ymm8,%ymm7
+ .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0
+ .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1
+ .byte 197,229,20,215 // vunpcklpd %ymm7,%ymm3,%ymm2
+ .byte 197,229,21,223 // vunpckhpd %ymm7,%ymm3,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,177,124,40,40,251 // vmovaps %ymm19,%ymm7
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
+ .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
+ .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
+ .byte 235,196 // jmp 559d <_sk_load_f32_skx+0x129>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 37,255,255,255,181 // and $0xb5ffffff,%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,157,255,255,255,132 // lcall *-0x7b000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,103,255 // jmpq *-0x1(%rdi)
+ .byte 255 // (bad)
+ .byte 255,80,255 // callq *-0x1(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 63 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,50 // pushq (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_load_f32_dst_skx
+.globl _sk_load_f32_dst_skx
+FUNCTION(_sk_load_f32_dst_skx)
+_sk_load_f32_dst_skx:
+ .byte 98,225,253,40,40,219 // vmovapd %ymm3,%ymm19
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 15,135,63,1,0,0 // ja 5751 <_sk_load_f32_dst_skx+0x155>
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
+ .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,194 // imul %r10,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 77,99,201 // movslq %r9d,%r9
+ .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5764 <_sk_load_f32_dst_skx+0x168>
+ .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
+ .byte 76,1,208 // add %r10,%rax
+ .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
+ .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
+ .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
+ .byte 98,161,253,32,87,192 // vxorpd %ymm16,%ymm16,%ymm16
+ .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
+ .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
+ .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
+ .byte 98,161,237,32,87,210 // vxorpd %ymm18,%ymm18,%ymm18
+ .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
+ .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
+ .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
+ .byte 98,161,245,32,87,201 // vxorpd %ymm17,%ymm17,%ymm17
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
+ .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
+ .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
+ .byte 255,224 // jmpq *%rax
+ .byte 196,129,121,16,92,136,112 // vmovupd 0x70(%r8,%r9,4),%xmm3
+ .byte 196,227,125,6,219,40 // vperm2f128 $0x28,%ymm3,%ymm0,%ymm3
+ .byte 196,129,121,16,100,136,96 // vmovupd 0x60(%r8,%r9,4),%xmm4
+ .byte 196,227,125,6,236,40 // vperm2f128 $0x28,%ymm4,%ymm0,%ymm5
+ .byte 196,129,121,16,100,136,80 // vmovupd 0x50(%r8,%r9,4),%xmm4
+ .byte 196,227,125,6,244,40 // vperm2f128 $0x28,%ymm4,%ymm0,%ymm6
+ .byte 197,125,40,213 // vmovapd %ymm5,%ymm10
+ .byte 196,129,121,16,100,136,64 // vmovupd 0x40(%r8,%r9,4),%xmm4
+ .byte 196,227,125,6,252,40 // vperm2f128 $0x28,%ymm4,%ymm0,%ymm7
+ .byte 98,193,253,40,40,194 // vmovapd %ymm10,%ymm16
+ .byte 197,125,40,230 // vmovapd %ymm6,%ymm12
+ .byte 196,129,121,16,100,136,48 // vmovupd 0x30(%r8,%r9,4),%xmm4
+ .byte 196,227,93,13,219,12 // vblendpd $0xc,%ymm3,%ymm4,%ymm3
+ .byte 98,49,253,40,40,216 // vmovapd %ymm16,%ymm11
+ .byte 98,193,253,40,40,212 // vmovapd %ymm12,%ymm18
+ .byte 197,125,40,255 // vmovapd %ymm7,%ymm15
+ .byte 196,129,121,16,100,136,32 // vmovupd 0x20(%r8,%r9,4),%xmm4
+ .byte 196,67,93,13,243,12 // vblendpd $0xc,%ymm11,%ymm4,%ymm14
+ .byte 98,49,253,40,40,234 // vmovapd %ymm18,%ymm13
+ .byte 98,193,253,40,40,207 // vmovapd %ymm15,%ymm17
+ .byte 196,129,121,16,100,136,16 // vmovupd 0x10(%r8,%r9,4),%xmm4
+ .byte 196,67,93,13,205,12 // vblendpd $0xc,%ymm13,%ymm4,%ymm9
+ .byte 196,65,125,40,198 // vmovapd %ymm14,%ymm8
+ .byte 98,177,253,40,40,225 // vmovapd %ymm17,%ymm4
+ .byte 196,129,121,16,44,136 // vmovupd (%r8,%r9,4),%xmm5
+ .byte 196,227,85,13,236,12 // vblendpd $0xc,%ymm4,%ymm5,%ymm5
+ .byte 196,193,84,20,241 // vunpcklps %ymm9,%ymm5,%ymm6
+ .byte 196,193,84,21,249 // vunpckhps %ymm9,%ymm5,%ymm7
+ .byte 197,188,20,235 // vunpcklps %ymm3,%ymm8,%ymm5
+ .byte 197,188,21,219 // vunpckhps %ymm3,%ymm8,%ymm3
+ .byte 197,205,20,229 // vunpcklpd %ymm5,%ymm6,%ymm4
+ .byte 197,205,21,237 // vunpckhpd %ymm5,%ymm6,%ymm5
+ .byte 197,197,20,243 // vunpcklpd %ymm3,%ymm7,%ymm6
+ .byte 197,197,21,251 // vunpckhpd %ymm3,%ymm7,%ymm7
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,177,124,40,40,219 // vmovaps %ymm19,%ymm3
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
+ .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
+ .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
+ .byte 235,196 // jmp 5725 <_sk_load_f32_dst_skx+0x129>
+ .byte 15,31,0 // nopl (%rax)
+ .byte 37,255,255,255,181 // and $0xb5ffffff,%eax
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,157,255,255,255,132 // lcall *-0x7b000001(%rbp)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,103,255 // jmpq *-0x1(%rdi)
+ .byte 255 // (bad)
+ .byte 255,80,255 // callq *-0x1(%rax)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 63 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255,50 // pushq (%rdx)
+ .byte 255 // (bad)
+ .byte 255 // (bad)
+ .byte 255 // .byte 0xff
+
+HIDDEN _sk_store_f32_skx
+.globl _sk_store_f32_skx
+FUNCTION(_sk_store_f32_skx)
+_sk_store_f32_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9d
+ .byte 76,99,80,8 // movslq 0x8(%rax),%r10
+ .byte 76,99,193 // movslq %ecx,%r8
+ .byte 77,15,175,194 // imul %r10,%r8
+ .byte 73,193,224,2 // shl $0x2,%r8
+ .byte 76,3,0 // add (%rax),%r8
+ .byte 73,99,193 // movslq %r9d,%rax
+ .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8
+ .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11
+ .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9
+ .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12
+ .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10
+ .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9
+ .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
+ .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
+ .byte 72,133,255 // test %rdi,%rdi
+ .byte 117,55 // jne 5803 <_sk_store_f32_skx+0x7f>
+ .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
+ .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
+ .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
+ .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
+ .byte 196,65,125,17,36,128 // vmovupd %ymm12,(%r8,%rax,4)
+ .byte 196,65,125,17,108,128,32 // vmovupd %ymm13,0x20(%r8,%rax,4)
+ .byte 196,65,124,17,76,128,64 // vmovups %ymm9,0x40(%r8,%rax,4)
+ .byte 196,65,125,17,68,128,96 // vmovupd %ymm8,0x60(%r8,%rax,4)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+ .byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
+ .byte 72,131,255,1 // cmp $0x1,%rdi
+ .byte 116,240 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
+ .byte 72,131,255,3 // cmp $0x3,%rdi
+ .byte 114,227 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
+ .byte 116,218 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
+ .byte 72,131,255,5 // cmp $0x5,%rdi
+ .byte 114,205 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
+ .byte 116,195 // je 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
+ .byte 72,131,255,7 // cmp $0x7,%rdi
+ .byte 114,181 // jb 57ff <_sk_store_f32_skx+0x7b>
+ .byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
+ .byte 235,171 // jmp 57ff <_sk_store_f32_skx+0x7b>
+
+HIDDEN _sk_repeat_x_skx
+.globl _sk_repeat_x_skx
+FUNCTION(_sk_repeat_x_skx)
+_sk_repeat_x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,113,124,56,89,64,1 // vmulps 0x4(%rax){1to8},%ymm0,%ymm8
+ .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
+ .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
+ .byte 196,194,61,188,193 // vfnmadd231ps %ymm9,%ymm8,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_repeat_y_skx
+.globl _sk_repeat_y_skx
+FUNCTION(_sk_repeat_y_skx)
+_sk_repeat_y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,113,116,56,89,64,1 // vmulps 0x4(%rax){1to8},%ymm1,%ymm8
+ .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
+ .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
+ .byte 196,194,61,188,201 // vfnmadd231ps %ymm9,%ymm8,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_mirror_x_skx
+.globl _sk_mirror_x_skx
+FUNCTION(_sk_mirror_x_skx)
+_sk_mirror_x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,122,16,0 // vmovss (%rax),%xmm8
+ .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
+ .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
+ .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
+ .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
+ .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
+ .byte 197,178,89,5,79,208,2,0 // vmulss 0x2d04f(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
+ .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
+ .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
+ .byte 196,194,61,172,195 // vfnmadd213ps %ymm11,%ymm8,%ymm0
+ .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
+ .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_mirror_y_skx
+.globl _sk_mirror_y_skx
+FUNCTION(_sk_mirror_y_skx)
+_sk_mirror_y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,122,16,0 // vmovss (%rax),%xmm8
+ .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
+ .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
+ .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
+ .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
+ .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
+ .byte 197,178,89,13,254,207,2,0 // vmulss 0x2cffe(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
+ .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
+ .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
+ .byte 196,194,61,172,203 // vfnmadd213ps %ymm11,%ymm8,%ymm1
+ .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,92,193 // vsubps %ymm1,%ymm8,%ymm8
+ .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clamp_x_1_skx
+.globl _sk_clamp_x_1_skx
+FUNCTION(_sk_clamp_x_1_skx)
+_sk_clamp_x_1_skx:
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 98,241,124,56,93,5,197,207,2,0 // vminps 0x2cfc5(%rip){1to8},%ymm0,%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_repeat_x_1_skx
+.globl _sk_repeat_x_1_skx
+FUNCTION(_sk_repeat_x_1_skx)
+_sk_repeat_x_1_skx:
+ .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
+ .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_mirror_x_1_skx
+.globl _sk_mirror_x_1_skx
+FUNCTION(_sk_mirror_x_1_skx)
+_sk_mirror_x_1_skx:
+ .byte 196,98,125,24,5,193,207,2,0 // vbroadcastss 0x2cfc1(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
+ .byte 98,113,124,56,89,13,150,207,2,0 // vmulps 0x2cf96(%rip){1to8},%ymm0,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
+ .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
+ .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
+ .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
+ .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_luminance_to_alpha_skx
+.globl _sk_luminance_to_alpha_skx
+FUNCTION(_sk_luminance_to_alpha_skx)
+_sk_luminance_to_alpha_skx:
+ .byte 98,241,116,56,89,29,134,208,2,0 // vmulps 0x2d086(%rip){1to8},%ymm1,%ymm3 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 98,242,125,56,184,29,128,208,2,0 // vfmadd231ps 0x2d080(%rip){1to8},%ymm0,%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 98,242,109,56,184,29,122,208,2,0 // vfmadd231ps 0x2d07a(%rip){1to8},%ymm2,%ymm3 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_translate_skx
+.globl _sk_matrix_translate_skx
+FUNCTION(_sk_matrix_translate_skx)
+_sk_matrix_translate_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 98,241,124,56,88,0 // vaddps (%rax){1to8},%ymm0,%ymm0
+ .byte 98,241,116,56,88,72,1 // vaddps 0x4(%rax){1to8},%ymm1,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_scale_translate_skx
+.globl _sk_matrix_scale_translate_skx
+FUNCTION(_sk_matrix_scale_translate_skx)
+_sk_matrix_scale_translate_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm8
+ .byte 98,242,61,56,168,0 // vfmadd213ps (%rax){1to8},%ymm8,%ymm0
+ .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8
+ .byte 98,242,61,56,168,72,1 // vfmadd213ps 0x4(%rax){1to8},%ymm8,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_2x3_skx
+.globl _sk_matrix_2x3_skx
+FUNCTION(_sk_matrix_2x3_skx)
+_sk_matrix_2x3_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
+ .byte 196,98,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm8
+ .byte 98,114,117,56,168,64,4 // vfmadd213ps 0x10(%rax){1to8},%ymm1,%ymm8
+ .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
+ .byte 98,114,117,56,168,72,5 // vfmadd213ps 0x14(%rax){1to8},%ymm1,%ymm9
+ .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_3x4_skx
+.globl _sk_matrix_3x4_skx
+FUNCTION(_sk_matrix_3x4_skx)
+_sk_matrix_3x4_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
+ .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
+ .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8
+ .byte 98,114,109,56,168,64,9 // vfmadd213ps 0x24(%rax){1to8},%ymm2,%ymm8
+ .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
+ .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 196,98,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm11
+ .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
+ .byte 98,114,109,56,168,72,10 // vfmadd213ps 0x28(%rax){1to8},%ymm2,%ymm9
+ .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
+ .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
+ .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
+ .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12
+ .byte 196,98,125,24,80,32 // vbroadcastss 0x20(%rax),%ymm10
+ .byte 98,114,109,56,168,80,11 // vfmadd213ps 0x2c(%rax){1to8},%ymm2,%ymm10
+ .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
+ .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
+ .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_4x5_skx
+.globl _sk_matrix_4x5_skx
+FUNCTION(_sk_matrix_4x5_skx)
+_sk_matrix_4x5_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
+ .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
+ .byte 196,98,125,24,88,32 // vbroadcastss 0x20(%rax),%ymm11
+ .byte 196,98,125,24,64,48 // vbroadcastss 0x30(%rax),%ymm8
+ .byte 98,114,101,56,168,64,16 // vfmadd213ps 0x40(%rax){1to8},%ymm3,%ymm8
+ .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8
+ .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
+ .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
+ .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
+ .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
+ .byte 196,98,125,24,96,36 // vbroadcastss 0x24(%rax),%ymm12
+ .byte 196,98,125,24,72,52 // vbroadcastss 0x34(%rax),%ymm9
+ .byte 98,114,101,56,168,72,17 // vfmadd213ps 0x44(%rax){1to8},%ymm3,%ymm9
+ .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9
+ .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
+ .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
+ .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
+ .byte 196,98,125,24,96,24 // vbroadcastss 0x18(%rax),%ymm12
+ .byte 196,98,125,24,104,40 // vbroadcastss 0x28(%rax),%ymm13
+ .byte 196,98,125,24,80,56 // vbroadcastss 0x38(%rax),%ymm10
+ .byte 98,114,101,56,168,80,18 // vfmadd213ps 0x48(%rax){1to8},%ymm3,%ymm10
+ .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10
+ .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
+ .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
+ .byte 196,98,125,24,96,12 // vbroadcastss 0xc(%rax),%ymm12
+ .byte 196,98,125,24,104,28 // vbroadcastss 0x1c(%rax),%ymm13
+ .byte 196,98,125,24,112,44 // vbroadcastss 0x2c(%rax),%ymm14
+ .byte 196,98,125,24,88,60 // vbroadcastss 0x3c(%rax),%ymm11
+ .byte 98,114,101,56,168,88,19 // vfmadd213ps 0x4c(%rax){1to8},%ymm3,%ymm11
+ .byte 196,66,109,184,222 // vfmadd231ps %ymm14,%ymm2,%ymm11
+ .byte 196,66,117,184,221 // vfmadd231ps %ymm13,%ymm1,%ymm11
+ .byte 196,66,125,184,220 // vfmadd231ps %ymm12,%ymm0,%ymm11
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
+ .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
+ .byte 197,124,41,219 // vmovaps %ymm11,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_4x3_skx
+.globl _sk_matrix_4x3_skx
+FUNCTION(_sk_matrix_4x3_skx)
+_sk_matrix_4x3_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
+ .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
+ .byte 98,114,117,56,168,64,8 // vfmadd213ps 0x20(%rax){1to8},%ymm1,%ymm8
+ .byte 196,98,125,184,194 // vfmadd231ps %ymm2,%ymm0,%ymm8
+ .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
+ .byte 196,98,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm9
+ .byte 98,114,117,56,168,72,9 // vfmadd213ps 0x24(%rax){1to8},%ymm1,%ymm9
+ .byte 196,98,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm9
+ .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3
+ .byte 196,226,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm2
+ .byte 98,242,117,56,168,80,10 // vfmadd213ps 0x28(%rax){1to8},%ymm1,%ymm2
+ .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2
+ .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
+ .byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3
+ .byte 98,242,117,56,168,88,11 // vfmadd213ps 0x2c(%rax){1to8},%ymm1,%ymm3
+ .byte 196,194,125,184,218 // vfmadd231ps %ymm10,%ymm0,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_matrix_perspective_skx
+.globl _sk_matrix_perspective_skx
+FUNCTION(_sk_matrix_perspective_skx)
+_sk_matrix_perspective_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
+ .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
+ .byte 98,114,117,56,168,72,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm9
+ .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
+ .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8
+ .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
+ .byte 98,114,117,56,168,80,5 // vfmadd213ps 0x14(%rax){1to8},%ymm1,%ymm10
+ .byte 196,66,125,184,208 // vfmadd231ps %ymm8,%ymm0,%ymm10
+ .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8
+ .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11
+ .byte 98,114,117,56,168,88,8 // vfmadd213ps 0x20(%rax){1to8},%ymm1,%ymm11
+ .byte 196,66,125,184,216 // vfmadd231ps %ymm8,%ymm0,%ymm11
+ .byte 98,210,125,40,76,203 // vrcp14ps %ymm11,%ymm1
+ .byte 197,180,89,193 // vmulps %ymm1,%ymm9,%ymm0
+ .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_evenly_spaced_gradient_skx
+.globl _sk_evenly_spaced_gradient_skx
+FUNCTION(_sk_evenly_spaced_gradient_skx)
+_sk_evenly_spaced_gradient_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,8 // mov (%rax),%r9
+ .byte 76,139,64,8 // mov 0x8(%rax),%r8
+ .byte 77,141,81,255 // lea -0x1(%r9),%r10
+ .byte 98,210,253,72,124,202 // vpbroadcastq %r10,%zmm1
+ .byte 98,241,255,72,122,201 // vcvtuqq2ps %zmm1,%ymm1
+ .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
+ .byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
+ .byte 73,131,249,8 // cmp $0x8,%r9
+ .byte 119,73 // ja 5cb0 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
+ .byte 76,139,64,40 // mov 0x28(%rax),%r8
+ .byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
+ .byte 76,139,64,16 // mov 0x10(%rax),%r8
+ .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 196,194,45,22,8 // vpermps (%r8),%ymm10,%ymm1
+ .byte 76,139,64,48 // mov 0x30(%rax),%r8
+ .byte 196,66,45,22,24 // vpermps (%r8),%ymm10,%ymm11
+ .byte 196,194,45,22,17 // vpermps (%r9),%ymm10,%ymm2
+ .byte 76,139,64,56 // mov 0x38(%rax),%r8
+ .byte 196,66,45,22,32 // vpermps (%r8),%ymm10,%ymm12
+ .byte 76,139,64,32 // mov 0x20(%rax),%r8
+ .byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
+ .byte 72,139,64,64 // mov 0x40(%rax),%rax
+ .byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
+ .byte 233,147,0,0,0 // jmpq 5d43 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
+ .byte 76,139,64,40 // mov 0x28(%rax),%r8
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 196,2,117,146,12,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm9
+ .byte 76,139,64,16 // mov 0x10(%rax),%r8
+ .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,130,109,146,12,144 // vgatherdps %ymm2,(%r8,%ymm10,4),%ymm1
+ .byte 76,139,64,48 // mov 0x30(%rax),%r8
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
+ .byte 196,2,109,146,28,144 // vgatherdps %ymm2,(%r8,%ymm10,4),%ymm11
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,130,101,146,20,145 // vgatherdps %ymm3,(%r9,%ymm10,4),%ymm2
+ .byte 76,139,64,56 // mov 0x38(%rax),%r8
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
+ .byte 196,2,101,146,36,144 // vgatherdps %ymm3,(%r8,%ymm10,4),%ymm12
+ .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
+ .byte 76,139,64,32 // mov 0x20(%rax),%r8
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 196,130,21,146,28,144 // vgatherdps %ymm13,(%r8,%ymm10,4),%ymm3
+ .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
+ .byte 72,139,64,64 // mov 0x40(%rax),%rax
+ .byte 196,34,13,146,44,144 // vgatherdps %ymm14,(%rax,%ymm10,4),%ymm13
+ .byte 196,66,125,168,193 // vfmadd213ps %ymm9,%ymm0,%ymm8
+ .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1
+ .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2
+ .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_gauss_a_to_rgba_skx
+.globl _sk_gauss_a_to_rgba_skx
+FUNCTION(_sk_gauss_a_to_rgba_skx)
+_sk_gauss_a_to_rgba_skx:
+ .byte 196,226,125,24,5,200,204,2,0 // vbroadcastss 0x2ccc8(%rip),%ymm0 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 98,242,101,56,168,5,194,204,2,0 // vfmadd213ps 0x2ccc2(%rip){1to8},%ymm3,%ymm0 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 98,242,101,56,168,5,188,204,2,0 // vfmadd213ps 0x2ccbc(%rip){1to8},%ymm3,%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 98,242,101,56,168,5,182,204,2,0 // vfmadd213ps 0x2ccb6(%rip){1to8},%ymm3,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 98,242,101,56,168,5,176,204,2,0 // vfmadd213ps 0x2ccb0(%rip){1to8},%ymm3,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
+ .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
+ .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_gradient_skx
+.globl _sk_gradient_skx
+FUNCTION(_sk_gradient_skx)
+_sk_gradient_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,139,0 // mov (%rax),%r8
+ .byte 73,131,248,1 // cmp $0x1,%r8
+ .byte 15,134,229,0,0,0 // jbe 5e94 <_sk_gradient_skx+0xf4>
+ .byte 76,139,72,72 // mov 0x48(%rax),%r9
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 65,186,1,0,0,0 // mov $0x1,%r10d
+ .byte 196,226,125,24,21,70,203,2,0 // vbroadcastss 0x2cb46(%rip),%ymm2 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
+ .byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
+ .byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
+ .byte 98,242,126,40,56,216 // vpmovm2d %k0,%ymm3
+ .byte 196,227,117,74,218,48 // vblendvps %ymm3,%ymm2,%ymm1,%ymm3
+ .byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
+ .byte 73,131,194,1 // add $0x1,%r10
+ .byte 77,57,208 // cmp %r10,%r8
+ .byte 117,218 // jne 5dcb <_sk_gradient_skx+0x2b>
+ .byte 76,139,72,8 // mov 0x8(%rax),%r9
+ .byte 73,131,248,8 // cmp $0x8,%r8
+ .byte 15,134,158,0,0,0 // jbe 5e9d <_sk_gradient_skx+0xfd>
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
+ .byte 76,139,64,40 // mov 0x28(%rax),%r8
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,2,117,146,20,136 // vgatherdps %ymm1,(%r8,%ymm9,4),%ymm10
+ .byte 76,139,64,16 // mov 0x10(%rax),%r8
+ .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,130,109,146,12,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm1
+ .byte 76,139,64,48 // mov 0x30(%rax),%r8
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
+ .byte 196,2,109,146,28,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm11
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,130,101,146,20,137 // vgatherdps %ymm3,(%r9,%ymm9,4),%ymm2
+ .byte 76,139,64,56 // mov 0x38(%rax),%r8
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
+ .byte 196,2,101,146,36,136 // vgatherdps %ymm3,(%r8,%ymm9,4),%ymm12
+ .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
+ .byte 76,139,64,32 // mov 0x20(%rax),%r8
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 196,130,21,146,28,136 // vgatherdps %ymm13,(%r8,%ymm9,4),%ymm3
+ .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
+ .byte 72,139,64,64 // mov 0x40(%rax),%rax
+ .byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
+ .byte 235,77 // jmp 5ee1 <_sk_gradient_skx+0x141>
+ .byte 76,139,72,8 // mov 0x8(%rax),%r9
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
+ .byte 76,139,64,40 // mov 0x28(%rax),%r8
+ .byte 196,66,53,22,16 // vpermps (%r8),%ymm9,%ymm10
+ .byte 76,139,64,16 // mov 0x10(%rax),%r8
+ .byte 76,139,72,24 // mov 0x18(%rax),%r9
+ .byte 196,194,53,22,8 // vpermps (%r8),%ymm9,%ymm1
+ .byte 76,139,64,48 // mov 0x30(%rax),%r8
+ .byte 196,66,53,22,24 // vpermps (%r8),%ymm9,%ymm11
+ .byte 196,194,53,22,17 // vpermps (%r9),%ymm9,%ymm2
+ .byte 76,139,64,56 // mov 0x38(%rax),%r8
+ .byte 196,66,53,22,32 // vpermps (%r8),%ymm9,%ymm12
+ .byte 76,139,64,32 // mov 0x20(%rax),%r8
+ .byte 196,194,53,22,24 // vpermps (%r8),%ymm9,%ymm3
+ .byte 72,139,64,64 // mov 0x40(%rax),%rax
+ .byte 196,98,53,22,40 // vpermps (%rax),%ymm9,%ymm13
+ .byte 196,66,125,168,194 // vfmadd213ps %ymm10,%ymm0,%ymm8
+ .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1
+ .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2
+ .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_evenly_spaced_2_stop_gradient_skx
+.globl _sk_evenly_spaced_2_stop_gradient_skx
+FUNCTION(_sk_evenly_spaced_2_stop_gradient_skx)
+_sk_evenly_spaced_2_stop_gradient_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
+ .byte 98,114,125,56,168,64,4 // vfmadd213ps 0x10(%rax){1to8},%ymm0,%ymm8
+ .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
+ .byte 98,242,125,56,168,72,5 // vfmadd213ps 0x14(%rax){1to8},%ymm0,%ymm1
+ .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
+ .byte 98,242,125,56,168,80,6 // vfmadd213ps 0x18(%rax){1to8},%ymm0,%ymm2
+ .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
+ .byte 98,242,125,56,168,88,7 // vfmadd213ps 0x1c(%rax){1to8},%ymm0,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xy_to_unit_angle_skx
+.globl _sk_xy_to_unit_angle_skx
+FUNCTION(_sk_xy_to_unit_angle_skx)
+_sk_xy_to_unit_angle_skx:
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
+ .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9
+ .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10
+ .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10
+ .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11
+ .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
+ .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
+ .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
+ .byte 196,98,125,24,45,216,202,2,0 // vbroadcastss 0x2cad8(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 98,114,29,56,168,45,210,202,2,0 // vfmadd213ps 0x2cad2(%rip){1to8},%ymm12,%ymm13 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 98,114,29,56,168,45,204,202,2,0 // vfmadd213ps 0x2cacc(%rip){1to8},%ymm12,%ymm13 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 98,114,29,56,168,45,198,202,2,0 // vfmadd213ps 0x2cac6(%rip){1to8},%ymm12,%ymm13 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
+ .byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,98,125,24,21,175,202,2,0 // vbroadcastss 0x2caaf(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
+ .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
+ .byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
+ .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
+ .byte 196,98,125,24,21,62,201,2,0 // vbroadcastss 0x2c93e(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
+ .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
+ .byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,98,125,24,21,33,201,2,0 // vbroadcastss 0x2c921(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
+ .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
+ .byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
+ .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
+ .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xy_to_radius_skx
+.globl _sk_xy_to_radius_skx
+FUNCTION(_sk_xy_to_radius_skx)
+_sk_xy_to_radius_skx:
+ .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
+ .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
+ .byte 196,193,124,81,192 // vsqrtps %ymm8,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_quadratic_max_skx
+.globl _sk_xy_to_2pt_conical_quadratic_max_skx
+FUNCTION(_sk_xy_to_2pt_conical_quadratic_max_skx)
+_sk_xy_to_2pt_conical_quadratic_max_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8
+ .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9
+ .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
+ .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
+ .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
+ .byte 98,113,44,56,89,21,25,202,2,0 // vmulps 0x2ca19(%rip){1to8},%ymm10,%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
+ .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
+ .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
+ .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
+ .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
+ .byte 98,113,60,56,89,5,252,201,2,0 // vmulps 0x2c9fc(%rip){1to8},%ymm8,%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
+ .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
+ .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
+ .byte 98,113,44,56,87,13,227,201,2,0 // vxorps 0x2c9e3(%rip){1to8},%ymm10,%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
+ .byte 98,113,60,56,89,5,120,200,2,0 // vmulps 0x2c878(%rip){1to8},%ymm8,%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
+ .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,172,95,192 // vmaxps %ymm0,%ymm10,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_quadratic_min_skx
+.globl _sk_xy_to_2pt_conical_quadratic_min_skx
+FUNCTION(_sk_xy_to_2pt_conical_quadratic_min_skx)
+_sk_xy_to_2pt_conical_quadratic_min_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8
+ .byte 197,122,16,72,40 // vmovss 0x28(%rax),%xmm9
+ .byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
+ .byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
+ .byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
+ .byte 98,113,44,56,89,21,145,201,2,0 // vmulps 0x2c991(%rip){1to8},%ymm10,%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
+ .byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
+ .byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
+ .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
+ .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
+ .byte 98,113,60,56,89,5,116,201,2,0 // vmulps 0x2c974(%rip){1to8},%ymm8,%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
+ .byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
+ .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
+ .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
+ .byte 98,113,44,56,87,13,91,201,2,0 // vxorps 0x2c95b(%rip){1to8},%ymm10,%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
+ .byte 98,113,60,56,89,5,240,199,2,0 // vmulps 0x2c7f0(%rip){1to8},%ymm8,%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
+ .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
+ .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
+ .byte 197,172,93,192 // vminps %ymm0,%ymm10,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_xy_to_2pt_conical_linear_skx
+.globl _sk_xy_to_2pt_conical_linear_skx
+FUNCTION(_sk_xy_to_2pt_conical_linear_skx)
+_sk_xy_to_2pt_conical_linear_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,122,16,64,40 // vmovss 0x28(%rax),%xmm8
+ .byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
+ .byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
+ .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
+ .byte 98,113,52,56,89,13,15,201,2,0 // vmulps 0x2c90f(%rip){1to8},%ymm9,%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
+ .byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
+ .byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
+ .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
+ .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
+ .byte 98,241,124,56,87,5,246,200,2,0 // vxorps 0x2c8f6(%rip){1to8},%ymm0,%ymm0 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_mask_2pt_conical_degenerates_skx
+.globl _sk_mask_2pt_conical_degenerates_skx
+FUNCTION(_sk_mask_2pt_conical_degenerates_skx)
+_sk_mask_2pt_conical_degenerates_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,64,44 // vbroadcastss 0x2c(%rax),%ymm8
+ .byte 98,114,125,56,168,64,10 // vfmadd213ps 0x28(%rax){1to8},%ymm0,%ymm8
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 98,209,60,40,194,193,1 // vcmpltps %ymm9,%ymm8,%k0
+ .byte 98,209,124,40,194,201,3 // vcmpunordps %ymm9,%ymm0,%k1
+ .byte 197,253,69,193 // korb %k1,%k0,%k0
+ .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
+ .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
+ .byte 197,124,17,0 // vmovups %ymm8,(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_apply_vector_mask_skx
+.globl _sk_apply_vector_mask_skx
+FUNCTION(_sk_apply_vector_mask_skx)
+_sk_apply_vector_mask_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,16,0 // vmovups (%rax),%ymm8
+ .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
+ .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
+ .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_save_xy_skx
+.globl _sk_save_xy_skx
+FUNCTION(_sk_save_xy_skx)
+_sk_save_xy_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,5,39,199,2,0 // vbroadcastss 0x2c727(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
+ .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
+ .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
+ .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
+ .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
+ .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
+ .byte 197,252,17,0 // vmovups %ymm0,(%rax)
+ .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax)
+ .byte 197,124,17,72,64 // vmovups %ymm9,0x40(%rax)
+ .byte 197,124,17,64,96 // vmovups %ymm8,0x60(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_accumulate_skx
+.globl _sk_accumulate_skx
+FUNCTION(_sk_accumulate_skx)
+_sk_accumulate_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
+ .byte 197,60,89,128,160,0,0,0 // vmulps 0xa0(%rax),%ymm8,%ymm8
+ .byte 196,226,61,184,224 // vfmadd231ps %ymm0,%ymm8,%ymm4
+ .byte 196,226,61,184,233 // vfmadd231ps %ymm1,%ymm8,%ymm5
+ .byte 196,226,61,184,242 // vfmadd231ps %ymm2,%ymm8,%ymm6
+ .byte 196,98,101,168,199 // vfmadd213ps %ymm7,%ymm3,%ymm8
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,124,41,199 // vmovaps %ymm8,%ymm7
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bilinear_nx_skx
+.globl _sk_bilinear_nx_skx
+FUNCTION(_sk_bilinear_nx_skx)
+_sk_bilinear_nx_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 98,241,124,56,88,5,18,200,2,0 // vaddps 0x2c812(%rip){1to8},%ymm0,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,173,198,2,0 // vbroadcastss 0x2c6ad(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
+ .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bilinear_px_skx
+.globl _sk_bilinear_px_skx
+FUNCTION(_sk_bilinear_px_skx)
+_sk_bilinear_px_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
+ .byte 98,241,124,56,88,5,131,198,2,0 // vaddps 0x2c683(%rip){1to8},%ymm0,%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bilinear_ny_skx
+.globl _sk_bilinear_ny_skx
+FUNCTION(_sk_bilinear_ny_skx)
+_sk_bilinear_ny_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 98,241,116,56,88,13,198,199,2,0 // vaddps 0x2c7c6(%rip){1to8},%ymm1,%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,97,198,2,0 // vbroadcastss 0x2c661(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
+ .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bilinear_py_skx
+.globl _sk_bilinear_py_skx
+FUNCTION(_sk_bilinear_py_skx)
+_sk_bilinear_py_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
+ .byte 98,241,116,56,88,13,54,198,2,0 // vaddps 0x2c636(%rip){1to8},%ymm1,%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_n3x_skx
+.globl _sk_bicubic_n3x_skx
+FUNCTION(_sk_bicubic_n3x_skx)
+_sk_bicubic_n3x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 98,241,124,56,88,5,126,199,2,0 // vaddps 0x2c77e(%rip){1to8},%ymm0,%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,21,198,2,0 // vbroadcastss 0x2c615(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
+ .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
+ .byte 196,98,125,24,21,102,199,2,0 // vbroadcastss 0x2c766(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,21,104,198,2,0 // vfmadd213ps 0x2c668(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
+ .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_n1x_skx
+.globl _sk_bicubic_n1x_skx
+FUNCTION(_sk_bicubic_n1x_skx)
+_sk_bicubic_n1x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 98,241,124,56,88,5,51,199,2,0 // vaddps 0x2c733(%rip){1to8},%ymm0,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,206,197,2,0 // vbroadcastss 0x2c5ce(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
+ .byte 196,98,125,24,13,40,199,2,0 // vbroadcastss 0x2c728(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,13,34,199,2,0 // vfmadd213ps 0x2c722(%rip){1to8},%ymm8,%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,61,56,168,13,168,197,2,0 // vfmadd213ps 0x2c5a8(%rip){1to8},%ymm8,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,61,56,168,13,18,199,2,0 // vfmadd213ps 0x2c712(%rip){1to8},%ymm8,%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_p1x_skx
+.globl _sk_bicubic_p1x_skx
+FUNCTION(_sk_bicubic_p1x_skx)
+_sk_bicubic_p1x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,5,135,197,2,0 // vbroadcastss 0x2c587(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
+ .byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
+ .byte 196,98,125,24,21,225,198,2,0 // vbroadcastss 0x2c6e1(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,53,56,168,21,219,198,2,0 // vfmadd213ps 0x2c6db(%rip){1to8},%ymm9,%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
+ .byte 98,114,53,56,168,21,208,198,2,0 // vfmadd213ps 0x2c6d0(%rip){1to8},%ymm9,%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_p3x_skx
+.globl _sk_bicubic_p3x_skx
+FUNCTION(_sk_bicubic_p3x_skx)
+_sk_bicubic_p3x_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,0 // vmovups (%rax),%ymm0
+ .byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
+ .byte 98,241,124,56,88,5,171,198,2,0 // vaddps 0x2c6ab(%rip){1to8},%ymm0,%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
+ .byte 196,98,125,24,21,149,198,2,0 // vbroadcastss 0x2c695(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,21,151,197,2,0 // vfmadd213ps 0x2c597(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
+ .byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_n3y_skx
+.globl _sk_bicubic_n3y_skx
+FUNCTION(_sk_bicubic_n3y_skx)
+_sk_bicubic_n3y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 98,241,116,56,88,13,101,198,2,0 // vaddps 0x2c665(%rip){1to8},%ymm1,%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,98,125,24,5,252,196,2,0 // vbroadcastss 0x2c4fc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
+ .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
+ .byte 196,98,125,24,21,77,198,2,0 // vbroadcastss 0x2c64d(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,21,79,197,2,0 // vfmadd213ps 0x2c54f(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
+ .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_n1y_skx
+.globl _sk_bicubic_n1y_skx
+FUNCTION(_sk_bicubic_n1y_skx)
+_sk_bicubic_n1y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 98,241,116,56,88,13,25,198,2,0 // vaddps 0x2c619(%rip){1to8},%ymm1,%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,180,196,2,0 // vbroadcastss 0x2c4b4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
+ .byte 196,98,125,24,13,14,198,2,0 // vbroadcastss 0x2c60e(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,13,8,198,2,0 // vfmadd213ps 0x2c608(%rip){1to8},%ymm8,%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,114,61,56,168,13,142,196,2,0 // vfmadd213ps 0x2c48e(%rip){1to8},%ymm8,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,114,61,56,168,13,248,197,2,0 // vfmadd213ps 0x2c5f8(%rip){1to8},%ymm8,%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 197,124,17,136,160,0,0,0 // vmovups %ymm9,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_p1y_skx
+.globl _sk_bicubic_p1y_skx
+FUNCTION(_sk_bicubic_p1y_skx)
+_sk_bicubic_p1y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,98,125,24,5,109,196,2,0 // vbroadcastss 0x2c46d(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
+ .byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
+ .byte 196,98,125,24,21,198,197,2,0 // vbroadcastss 0x2c5c6(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,53,56,168,21,192,197,2,0 // vfmadd213ps 0x2c5c0(%rip){1to8},%ymm9,%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
+ .byte 98,114,53,56,168,21,181,197,2,0 // vfmadd213ps 0x2c5b5(%rip){1to8},%ymm9,%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_bicubic_p3y_skx
+.globl _sk_bicubic_p3y_skx
+FUNCTION(_sk_bicubic_p3y_skx)
+_sk_bicubic_p3y_skx:
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
+ .byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
+ .byte 98,241,116,56,88,13,143,197,2,0 // vaddps 0x2c58f(%rip){1to8},%ymm1,%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
+ .byte 196,98,125,24,21,121,197,2,0 // vbroadcastss 0x2c579(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,21,123,196,2,0 // vfmadd213ps 0x2c47b(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
+ .byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_callback_skx
+.globl _sk_callback_skx
+FUNCTION(_sk_callback_skx)
+_sk_callback_skx:
+ .byte 85 // push %rbp
+ .byte 72,137,229 // mov %rsp,%rbp
+ .byte 65,87 // push %r15
+ .byte 65,86 // push %r14
+ .byte 65,85 // push %r13
+ .byte 65,84 // push %r12
+ .byte 83 // push %rbx
+ .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
+ .byte 72,129,236,160,0,0,0 // sub $0xa0,%rsp
+ .byte 197,252,41,124,36,96 // vmovaps %ymm7,0x60(%rsp)
+ .byte 197,252,41,116,36,64 // vmovaps %ymm6,0x40(%rsp)
+ .byte 197,252,41,108,36,32 // vmovaps %ymm5,0x20(%rsp)
+ .byte 197,252,41,36,36 // vmovaps %ymm4,(%rsp)
+ .byte 73,137,206 // mov %rcx,%r14
+ .byte 73,137,215 // mov %rdx,%r15
+ .byte 73,137,253 // mov %rdi,%r13
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 72,137,195 // mov %rax,%rbx
+ .byte 73,137,244 // mov %rsi,%r12
+ .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
+ .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0
+ .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
+ .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2
+ .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3
+ .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
+ .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4
+ .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0
+ .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
+ .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
+ .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
+ .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
+ .byte 197,253,17,83,8 // vmovupd %ymm2,0x8(%rbx)
+ .byte 197,253,17,107,40 // vmovupd %ymm5,0x28(%rbx)
+ .byte 197,253,17,75,72 // vmovupd %ymm1,0x48(%rbx)
+ .byte 197,253,17,67,104 // vmovupd %ymm0,0x68(%rbx)
+ .byte 77,133,237 // test %r13,%r13
+ .byte 190,8,0,0,0 // mov $0x8,%esi
+ .byte 65,15,69,245 // cmovne %r13d,%esi
+ .byte 72,137,223 // mov %rbx,%rdi
+ .byte 197,248,119 // vzeroupper
+ .byte 255,19 // callq *(%rbx)
+ .byte 72,139,131,136,0,0,0 // mov 0x88(%rbx),%rax
+ .byte 197,248,16,0 // vmovups (%rax),%xmm0
+ .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1
+ .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2
+ .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3
+ .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
+ .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
+ .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
+ .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
+ .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
+ .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5
+ .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
+ .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3
+ .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0
+ .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
+ .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2
+ .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3
+ .byte 76,137,230 // mov %r12,%rsi
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 76,137,239 // mov %r13,%rdi
+ .byte 76,137,250 // mov %r15,%rdx
+ .byte 76,137,241 // mov %r14,%rcx
+ .byte 197,252,40,36,36 // vmovaps (%rsp),%ymm4
+ .byte 197,252,40,108,36,32 // vmovaps 0x20(%rsp),%ymm5
+ .byte 197,252,40,116,36,64 // vmovaps 0x40(%rsp),%ymm6
+ .byte 197,252,40,124,36,96 // vmovaps 0x60(%rsp),%ymm7
+ .byte 72,141,101,216 // lea -0x28(%rbp),%rsp
+ .byte 91 // pop %rbx
+ .byte 65,92 // pop %r12
+ .byte 65,93 // pop %r13
+ .byte 65,94 // pop %r14
+ .byte 65,95 // pop %r15
+ .byte 93 // pop %rbp
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clut_3D_skx
+.globl _sk_clut_3D_skx
+FUNCTION(_sk_clut_3D_skx)
+_sk_clut_3D_skx:
+ .byte 72,129,236,24,1,0,0 // sub $0x118,%rsp
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,139,64,16 // mov 0x10(%rax),%r8d
+ .byte 69,141,72,255 // lea -0x1(%r8),%r9d
+ .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
+ .byte 197,126,91,210 // vcvttps2dq %ymm2,%ymm10
+ .byte 197,124,40,242 // vmovaps %ymm2,%ymm14
+ .byte 197,124,17,116,36,224 // vmovups %ymm14,-0x20(%rsp)
+ .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
+ .byte 98,210,125,40,124,208 // vpbroadcastd %r8d,%ymm2
+ .byte 68,139,64,12 // mov 0xc(%rax),%r8d
+ .byte 69,141,72,255 // lea -0x1(%r8),%r9d
+ .byte 98,82,125,40,124,201 // vpbroadcastd %r9d,%ymm9
+ .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
+ .byte 98,97,52,40,89,225 // vmulps %ymm1,%ymm9,%ymm28
+ .byte 98,145,126,40,91,204 // vcvttps2dq %ymm28,%ymm1
+ .byte 197,254,127,140,36,128,0,0,0 // vmovdqu %ymm1,0x80(%rsp)
+ .byte 98,98,109,40,64,201 // vpmulld %ymm1,%ymm2,%ymm25
+ .byte 98,81,53,32,254,202 // vpaddd %ymm10,%ymm25,%ymm9
+ .byte 196,65,125,111,250 // vmovdqa %ymm10,%ymm15
+ .byte 197,126,127,124,36,160 // vmovdqu %ymm15,-0x60(%rsp)
+ .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
+ .byte 196,194,117,64,200 // vpmulld %ymm8,%ymm1,%ymm1
+ .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
+ .byte 68,139,64,8 // mov 0x8(%rax),%r8d
+ .byte 65,131,192,255 // add $0xffffffff,%r8d
+ .byte 98,210,125,40,124,200 // vpbroadcastd %r8d,%ymm1
+ .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
+ .byte 98,97,116,40,89,192 // vmulps %ymm0,%ymm1,%ymm24
+ .byte 98,145,126,40,91,192 // vcvttps2dq %ymm24,%ymm0
+ .byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp)
+ .byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
+ .byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
+ .byte 72,139,0 // mov (%rax),%rax
+ .byte 98,98,125,40,88,29,131,195,2,0 // vpbroadcastd 0x2c383(%rip),%ymm27 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
+ .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,98,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm10
+ .byte 98,193,124,40,40,210 // vmovaps %ymm10,%ymm18
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 197,125,250,209 // vpsubd %ymm1,%ymm0,%ymm10
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
+ .byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
+ .byte 196,98,125,24,21,57,195,2,0 // vbroadcastss 0x2c339(%rip),%ymm10 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
+ .byte 98,226,125,40,88,5,193,193,2,0 // vpbroadcastd 0x2c1c1(%rip),%ymm16 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,226,29,146,12,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm1
+ .byte 98,97,124,40,40,241 // vmovaps %ymm1,%ymm30
+ .byte 196,193,126,91,195 // vcvttps2dq %ymm11,%ymm0
+ .byte 98,226,61,40,64,232 // vpmulld %ymm0,%ymm8,%ymm21
+ .byte 98,209,85,32,254,193 // vpaddd %ymm9,%ymm21,%ymm0
+ .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,12,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm1
+ .byte 197,252,17,140,36,224,0,0,0 // vmovups %ymm1,0xe0(%rsp)
+ .byte 196,65,125,250,197 // vpsubd %ymm13,%ymm0,%ymm8
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm1
+ .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp)
+ .byte 98,81,28,32,88,194 // vaddps %ymm10,%ymm28,%ymm8
+ .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
+ .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,226,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm0,4),%ymm1
+ .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
+ .byte 98,66,109,40,64,208 // vpmulld %ymm8,%ymm2,%ymm26
+ .byte 98,209,45,32,254,199 // vpaddd %ymm15,%ymm26,%ymm0
+ .byte 98,177,125,40,254,212 // vpaddd %ymm20,%ymm0,%ymm2
+ .byte 98,146,109,40,64,211 // vpmulld %ymm27,%ymm2,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
+ .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
+ .byte 196,65,109,250,197 // vpsubd %ymm13,%ymm2,%ymm8
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm1
+ .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
+ .byte 98,177,109,40,254,208 // vpaddd %ymm16,%ymm2,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
+ .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp)
+ .byte 98,241,85,32,254,192 // vpaddd %ymm0,%ymm21,%ymm0
+ .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,12,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
+ .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
+ .byte 196,193,125,250,213 // vpsubd %ymm13,%ymm0,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
+ .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
+ .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,12,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
+ .byte 98,97,124,40,40,249 // vmovaps %ymm1,%ymm31
+ .byte 196,193,12,88,194 // vaddps %ymm10,%ymm14,%ymm0
+ .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
+ .byte 98,113,53,32,254,208 // vpaddd %ymm0,%ymm25,%ymm10
+ .byte 98,209,93,32,254,210 // vpaddd %ymm10,%ymm20,%ymm2
+ .byte 98,146,109,40,64,211 // vpmulld %ymm27,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,98,53,146,4,144 // vgatherdps %ymm9,(%rax,%ymm2,4),%ymm8
+ .byte 196,65,109,250,221 // vpsubd %ymm13,%ymm2,%ymm11
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,34,29,146,12,152 // vgatherdps %ymm12,(%rax,%ymm11,4),%ymm9
+ .byte 98,49,109,40,254,216 // vpaddd %ymm16,%ymm2,%ymm11
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,162,29,146,12,152 // vgatherdps %ymm12,(%rax,%ymm11,4),%ymm1
+ .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
+ .byte 98,81,85,32,254,210 // vpaddd %ymm10,%ymm21,%ymm10
+ .byte 98,18,45,40,64,211 // vpmulld %ymm27,%ymm10,%ymm10
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,162,29,146,12,144 // vgatherdps %ymm12,(%rax,%ymm10,4),%ymm1
+ .byte 98,225,124,40,40,201 // vmovaps %ymm1,%ymm17
+ .byte 196,65,45,250,245 // vpsubd %ymm13,%ymm10,%ymm14
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
+ .byte 196,162,5,146,12,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm1
+ .byte 98,225,124,40,40,241 // vmovaps %ymm1,%ymm22
+ .byte 98,49,45,40,254,240 // vpaddd %ymm16,%ymm10,%ymm14
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
+ .byte 196,162,5,146,12,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm1
+ .byte 98,225,124,40,40,217 // vmovaps %ymm1,%ymm19
+ .byte 98,97,45,32,254,200 // vpaddd %ymm0,%ymm26,%ymm25
+ .byte 98,177,53,32,254,196 // vpaddd %ymm20,%ymm25,%ymm0
+ .byte 98,18,125,40,64,243 // vpmulld %ymm27,%ymm0,%ymm14
+ .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
+ .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
+ .byte 196,162,5,146,4,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm0
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,193,13,250,202 // vpsubd %ymm10,%ymm14,%ymm1
+ .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,98,29,146,60,136 // vgatherdps %ymm12,(%rax,%ymm1,4),%ymm15
+ .byte 98,177,13,40,254,200 // vpaddd %ymm16,%ymm14,%ymm1
+ .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,98,29,146,52,136 // vgatherdps %ymm12,(%rax,%ymm1,4),%ymm14
+ .byte 98,145,85,32,254,201 // vpaddd %ymm25,%ymm21,%ymm1
+ .byte 98,146,117,40,64,203 // vpmulld %ymm27,%ymm1,%ymm1
+ .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,98,37,146,36,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm12
+ .byte 196,193,117,250,210 // vpsubd %ymm10,%ymm1,%ymm2
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,65,21,239,237 // vpxor %ymm13,%ymm13,%ymm13
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,98,45,146,44,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm13
+ .byte 98,177,117,40,254,200 // vpaddd %ymm16,%ymm1,%ymm1
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,98,37,146,20,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm10
+ .byte 197,252,16,140,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm1
+ .byte 98,177,116,40,92,202 // vsubps %ymm18,%ymm1,%ymm1
+ .byte 197,252,16,84,36,128 // vmovups -0x80(%rsp),%ymm2
+ .byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
+ .byte 98,81,60,32,92,219 // vsubps %ymm11,%ymm24,%ymm11
+ .byte 98,178,37,40,168,202 // vfmadd213ps %ymm18,%ymm11,%ymm1
+ .byte 197,252,16,148,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm2
+ .byte 98,129,108,40,92,197 // vsubps %ymm29,%ymm2,%ymm16
+ .byte 98,130,37,40,168,197 // vfmadd213ps %ymm29,%ymm11,%ymm16
+ .byte 197,252,16,148,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm2
+ .byte 98,129,108,40,92,214 // vsubps %ymm30,%ymm2,%ymm18
+ .byte 98,130,37,40,168,214 // vfmadd213ps %ymm30,%ymm11,%ymm18
+ .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
+ .byte 98,225,124,40,16,36,36 // vmovups (%rsp),%ymm20
+ .byte 98,225,92,32,92,226 // vsubps %ymm2,%ymm20,%ymm20
+ .byte 98,226,37,40,168,226 // vfmadd213ps %ymm2,%ymm11,%ymm20
+ .byte 197,252,16,84,36,64 // vmovups 0x40(%rsp),%ymm2
+ .byte 98,225,124,40,16,108,36,254 // vmovups -0x40(%rsp),%ymm21
+ .byte 98,225,84,32,92,234 // vsubps %ymm2,%ymm21,%ymm21
+ .byte 98,226,37,40,168,234 // vfmadd213ps %ymm2,%ymm11,%ymm21
+ .byte 197,252,16,84,36,32 // vmovups 0x20(%rsp),%ymm2
+ .byte 98,97,4,32,92,194 // vsubps %ymm2,%ymm31,%ymm24
+ .byte 98,98,37,40,168,194 // vfmadd213ps %ymm2,%ymm11,%ymm24
+ .byte 98,65,116,32,92,200 // vsubps %ymm8,%ymm17,%ymm25
+ .byte 98,66,37,40,168,200 // vfmadd213ps %ymm8,%ymm11,%ymm25
+ .byte 197,252,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm2
+ .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
+ .byte 98,81,28,32,92,192 // vsubps %ymm8,%ymm28,%ymm8
+ .byte 98,225,92,32,92,201 // vsubps %ymm1,%ymm20,%ymm17
+ .byte 98,226,61,40,168,201 // vfmadd213ps %ymm1,%ymm8,%ymm17
+ .byte 98,161,84,32,92,224 // vsubps %ymm16,%ymm21,%ymm20
+ .byte 98,162,61,40,168,224 // vfmadd213ps %ymm16,%ymm8,%ymm20
+ .byte 98,161,60,32,92,194 // vsubps %ymm18,%ymm24,%ymm16
+ .byte 98,162,61,40,168,194 // vfmadd213ps %ymm18,%ymm8,%ymm16
+ .byte 98,209,76,32,92,201 // vsubps %ymm9,%ymm22,%ymm1
+ .byte 196,194,37,168,201 // vfmadd213ps %ymm9,%ymm11,%ymm1
+ .byte 98,49,100,32,92,207 // vsubps %ymm23,%ymm19,%ymm9
+ .byte 98,50,37,40,168,207 // vfmadd213ps %ymm23,%ymm11,%ymm9
+ .byte 197,156,92,208 // vsubps %ymm0,%ymm12,%ymm2
+ .byte 196,226,37,168,208 // vfmadd213ps %ymm0,%ymm11,%ymm2
+ .byte 196,193,20,92,199 // vsubps %ymm15,%ymm13,%ymm0
+ .byte 196,194,37,168,199 // vfmadd213ps %ymm15,%ymm11,%ymm0
+ .byte 196,65,44,92,214 // vsubps %ymm14,%ymm10,%ymm10
+ .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
+ .byte 98,145,108,40,92,209 // vsubps %ymm25,%ymm2,%ymm2
+ .byte 98,146,61,40,168,209 // vfmadd213ps %ymm25,%ymm8,%ymm2
+ .byte 197,124,92,217 // vsubps %ymm1,%ymm0,%ymm11
+ .byte 196,98,61,168,217 // vfmadd213ps %ymm1,%ymm8,%ymm11
+ .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
+ .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
+ .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 197,252,16,76,36,224 // vmovups -0x20(%rsp),%ymm1
+ .byte 197,116,92,192 // vsubps %ymm0,%ymm1,%ymm8
+ .byte 98,177,108,40,92,193 // vsubps %ymm17,%ymm2,%ymm0
+ .byte 98,178,61,40,168,193 // vfmadd213ps %ymm17,%ymm8,%ymm0
+ .byte 98,177,36,40,92,204 // vsubps %ymm20,%ymm11,%ymm1
+ .byte 98,178,61,40,168,204 // vfmadd213ps %ymm20,%ymm8,%ymm1
+ .byte 98,177,44,40,92,208 // vsubps %ymm16,%ymm10,%ymm2
+ .byte 98,178,61,40,168,208 // vfmadd213ps %ymm16,%ymm8,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 72,129,196,24,1,0,0 // add $0x118,%rsp
+ .byte 255,224 // jmpq *%rax
+
+HIDDEN _sk_clut_4D_skx
+.globl _sk_clut_4D_skx
+FUNCTION(_sk_clut_4D_skx)
+_sk_clut_4D_skx:
+ .byte 72,129,236,88,5,0,0 // sub $0x558,%rsp
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 68,139,64,20 // mov 0x14(%rax),%r8d
+ .byte 69,141,72,255 // lea -0x1(%r8),%r9d
+ .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
+ .byte 197,126,91,211 // vcvttps2dq %ymm3,%ymm10
+ .byte 197,124,40,251 // vmovaps %ymm3,%ymm15
+ .byte 197,124,17,188,36,160,2,0,0 // vmovups %ymm15,0x2a0(%rsp)
+ .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
+ .byte 98,210,125,40,124,216 // vpbroadcastd %r8d,%ymm3
+ .byte 68,139,64,16 // mov 0x10(%rax),%r8d
+ .byte 69,141,72,255 // lea -0x1(%r8),%r9d
+ .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
+ .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
+ .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
+ .byte 196,193,126,91,208 // vcvttps2dq %ymm8,%ymm2
+ .byte 98,193,124,40,40,248 // vmovaps %ymm8,%ymm23
+ .byte 98,225,124,40,17,124,36,14 // vmovups %ymm23,0x1c0(%rsp)
+ .byte 197,254,127,148,36,32,5,0,0 // vmovdqu %ymm2,0x520(%rsp)
+ .byte 98,226,101,40,64,218 // vpmulld %ymm2,%ymm3,%ymm19
+ .byte 98,81,101,32,254,194 // vpaddd %ymm10,%ymm19,%ymm8
+ .byte 98,193,253,40,111,210 // vmovdqa64 %ymm10,%ymm18
+ .byte 98,225,254,40,127,84,36,33 // vmovdqu64 %ymm18,0x420(%rsp)
+ .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
+ .byte 196,66,45,64,209 // vpmulld %ymm9,%ymm10,%ymm10
+ .byte 196,66,125,88,202 // vpbroadcastd %xmm10,%ymm9
+ .byte 68,139,64,12 // mov 0xc(%rax),%r8d
+ .byte 69,141,72,255 // lea -0x1(%r8),%r9d
+ .byte 98,82,125,40,124,217 // vpbroadcastd %r9d,%ymm11
+ .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
+ .byte 197,164,89,209 // vmulps %ymm1,%ymm11,%ymm2
+ .byte 197,254,91,202 // vcvttps2dq %ymm2,%ymm1
+ .byte 98,97,124,40,40,202 // vmovaps %ymm2,%ymm25
+ .byte 98,97,124,40,17,76,36,13 // vmovups %ymm25,0x1a0(%rsp)
+ .byte 197,254,127,140,36,0,5,0,0 // vmovdqu %ymm1,0x500(%rsp)
+ .byte 98,98,53,40,64,193 // vpmulld %ymm1,%ymm9,%ymm24
+ .byte 98,209,61,32,254,200 // vpaddd %ymm8,%ymm24,%ymm1
+ .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
+ .byte 196,66,37,64,210 // vpmulld %ymm10,%ymm11,%ymm10
+ .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
+ .byte 68,139,64,8 // mov 0x8(%rax),%r8d
+ .byte 65,131,192,255 // add $0xffffffff,%r8d
+ .byte 98,82,125,40,124,216 // vpbroadcastd %r8d,%ymm11
+ .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
+ .byte 98,97,36,40,89,224 // vmulps %ymm0,%ymm11,%ymm28
+ .byte 98,129,126,40,91,236 // vcvttps2dq %ymm28,%ymm21
+ .byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
+ .byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
+ .byte 72,139,0 // mov (%rax),%rax
+ .byte 98,226,125,40,88,5,21,190,2,0 // vpbroadcastd 0x2be15(%rip),%ymm16 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
+ .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
+ .byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
+ .byte 196,34,125,146,36,152 // vgatherdps %ymm0,(%rax,%ymm11,4),%ymm12
+ .byte 197,124,17,164,36,224,4,0,0 // vmovups %ymm12,0x4e0(%rsp)
+ .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
+ .byte 196,193,37,250,198 // vpsubd %ymm14,%ymm11,%ymm0
+ .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
+ .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
+ .byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
+ .byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
+ .byte 196,226,125,24,5,199,189,2,0 // vbroadcastss 0x2bdc7(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
+ .byte 98,226,125,40,88,13,79,188,2,0 // vpbroadcastd 0x2bc4f(%rip),%ymm17 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 196,162,21,146,20,152 // vgatherdps %ymm13,(%rax,%ymm11,4),%ymm2
+ .byte 197,252,17,148,36,160,4,0,0 // vmovups %ymm2,0x4a0(%rsp)
+ .byte 196,65,126,91,220 // vcvttps2dq %ymm12,%ymm11
+ .byte 98,194,45,40,64,243 // vpmulld %ymm11,%ymm10,%ymm22
+ .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,226,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,128,4,0,0 // vmovups %ymm2,0x480(%rsp)
+ .byte 196,65,117,250,214 // vpsubd %ymm14,%ymm1,%ymm10
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,162,37,146,20,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm2
+ .byte 197,252,17,148,36,96,4,0,0 // vmovups %ymm2,0x460(%rsp)
+ .byte 98,113,52,32,88,208 // vaddps %ymm0,%ymm25,%ymm10
+ .byte 196,65,126,91,210 // vcvttps2dq %ymm10,%ymm10
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
+ .byte 196,226,37,146,20,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,64,4,0,0 // vmovups %ymm2,0x440(%rsp)
+ .byte 98,66,53,40,64,234 // vpmulld %ymm10,%ymm9,%ymm29
+ .byte 98,209,21,32,254,200 // vpaddd %ymm8,%ymm29,%ymm1
+ .byte 98,49,117,40,254,196 // vpaddd %ymm20,%ymm1,%ymm8
+ .byte 98,50,61,40,64,192 // vpmulld %ymm16,%ymm8,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,0,4,0,0 // vmovups %ymm2,0x400(%rsp)
+ .byte 196,65,61,250,206 // vpsubd %ymm14,%ymm8,%ymm9
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,162,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm9,4),%ymm2
+ .byte 197,252,17,148,36,224,3,0,0 // vmovups %ymm2,0x3e0(%rsp)
+ .byte 98,49,61,40,254,193 // vpaddd %ymm17,%ymm8,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,192,3,0,0 // vmovups %ymm2,0x3c0(%rsp)
+ .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,160,3,0,0 // vmovups %ymm2,0x3a0(%rsp)
+ .byte 196,65,117,250,198 // vpsubd %ymm14,%ymm1,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,128,3,0,0 // vmovups %ymm2,0x380(%rsp)
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,96,3,0,0 // vmovups %ymm2,0x360(%rsp)
+ .byte 98,241,68,32,88,200 // vaddps %ymm0,%ymm23,%ymm1
+ .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
+ .byte 98,98,101,40,64,249 // vpmulld %ymm1,%ymm3,%ymm31
+ .byte 98,177,5,32,254,202 // vpaddd %ymm18,%ymm31,%ymm1
+ .byte 98,145,117,40,254,216 // vpaddd %ymm24,%ymm1,%ymm3
+ .byte 98,49,101,40,254,196 // vpaddd %ymm20,%ymm3,%ymm8
+ .byte 98,50,61,40,64,192 // vpmulld %ymm16,%ymm8,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,64,3,0,0 // vmovups %ymm2,0x340(%rsp)
+ .byte 196,65,61,250,206 // vpsubd %ymm14,%ymm8,%ymm9
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,162,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm9,4),%ymm2
+ .byte 197,252,17,148,36,32,3,0,0 // vmovups %ymm2,0x320(%rsp)
+ .byte 98,49,61,40,254,193 // vpaddd %ymm17,%ymm8,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,0,3,0,0 // vmovups %ymm2,0x300(%rsp)
+ .byte 98,241,77,32,254,219 // vpaddd %ymm3,%ymm22,%ymm3
+ .byte 98,178,101,40,64,216 // vpmulld %ymm16,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
+ .byte 197,252,17,148,36,224,2,0,0 // vmovups %ymm2,0x2e0(%rsp)
+ .byte 196,65,101,250,198 // vpsubd %ymm14,%ymm3,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,192,2,0,0 // vmovups %ymm2,0x2c0(%rsp)
+ .byte 98,177,101,40,254,217 // vpaddd %ymm17,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
+ .byte 197,252,17,148,36,128,2,0,0 // vmovups %ymm2,0x280(%rsp)
+ .byte 98,241,21,32,254,201 // vpaddd %ymm1,%ymm29,%ymm1
+ .byte 98,177,117,40,254,220 // vpaddd %ymm20,%ymm1,%ymm3
+ .byte 98,178,101,40,64,216 // vpmulld %ymm16,%ymm3,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
+ .byte 197,252,17,148,36,96,2,0,0 // vmovups %ymm2,0x260(%rsp)
+ .byte 196,65,101,250,198 // vpsubd %ymm14,%ymm3,%ymm8
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
+ .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
+ .byte 197,252,17,148,36,64,2,0,0 // vmovups %ymm2,0x240(%rsp)
+ .byte 98,177,101,40,254,217 // vpaddd %ymm17,%ymm3,%ymm3
+ .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,98,61,146,12,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm9
+ .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,226,101,146,20,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,32,2,0,0 // vmovups %ymm2,0x220(%rsp)
+ .byte 196,193,117,250,222 // vpsubd %ymm14,%ymm1,%ymm3
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
+ .byte 197,252,17,148,36,0,2,0,0 // vmovups %ymm2,0x200(%rsp)
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,226,101,146,20,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm2
+ .byte 197,252,17,148,36,224,1,0,0 // vmovups %ymm2,0x1e0(%rsp)
+ .byte 197,132,88,192 // vaddps %ymm0,%ymm15,%ymm0
+ .byte 98,97,126,40,91,240 // vcvttps2dq %ymm0,%ymm30
+ .byte 98,145,101,32,254,198 // vpaddd %ymm30,%ymm19,%ymm0
+ .byte 98,241,61,32,254,200 // vpaddd %ymm0,%ymm24,%ymm1
+ .byte 98,241,93,32,254,209 // vpaddd %ymm1,%ymm20,%ymm2
+ .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,98,101,146,4,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm8
+ .byte 197,124,17,132,36,128,1,0,0 // vmovups %ymm8,0x180(%rsp)
+ .byte 196,193,109,250,222 // vpsubd %ymm14,%ymm2,%ymm3
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
+ .byte 196,98,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm10
+ .byte 197,124,17,148,36,96,1,0,0 // vmovups %ymm10,0x160(%rsp)
+ .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,98,101,146,4,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm8
+ .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,156,36,64,1,0,0 // vmovups %ymm3,0x140(%rsp)
+ .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
+ .byte 197,124,17,148,36,32,1,0,0 // vmovups %ymm10,0x120(%rsp)
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,156,36,0,1,0,0 // vmovups %ymm3,0x100(%rsp)
+ .byte 98,241,21,32,254,192 // vpaddd %ymm0,%ymm29,%ymm0
+ .byte 98,177,125,40,254,204 // vpaddd %ymm20,%ymm0,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,156,36,224,0,0,0 // vmovups %ymm3,0xe0(%rsp)
+ .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
+ .byte 197,124,17,148,36,192,0,0,0 // vmovups %ymm10,0xc0(%rsp)
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,156,36,160,0,0,0 // vmovups %ymm3,0xa0(%rsp)
+ .byte 98,241,77,32,254,192 // vpaddd %ymm0,%ymm22,%ymm0
+ .byte 98,178,125,40,64,192 // vpmulld %ymm16,%ymm0,%ymm0
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
+ .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
+ .byte 196,193,125,250,206 // vpsubd %ymm14,%ymm0,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,92,36,96 // vmovups %ymm3,0x60(%rsp)
+ .byte 98,177,125,40,254,193 // vpaddd %ymm17,%ymm0,%ymm0
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
+ .byte 197,252,17,84,36,64 // vmovups %ymm2,0x40(%rsp)
+ .byte 98,145,5,32,254,198 // vpaddd %ymm30,%ymm31,%ymm0
+ .byte 98,145,125,40,254,200 // vpaddd %ymm24,%ymm0,%ymm1
+ .byte 98,177,117,40,254,212 // vpaddd %ymm20,%ymm1,%ymm2
+ .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
+ .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
+ .byte 197,124,17,84,36,32 // vmovups %ymm10,0x20(%rsp)
+ .byte 196,193,109,250,222 // vpsubd %ymm14,%ymm2,%ymm3
+ .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,98,45,146,28,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm11
+ .byte 197,124,17,28,36 // vmovups %ymm11,(%rsp)
+ .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,226,45,146,28,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm3
+ .byte 98,225,124,40,40,251 // vmovaps %ymm3,%ymm23
+ .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
+ .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 197,252,17,92,36,192 // vmovups %ymm3,-0x40(%rsp)
+ .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,226,45,146,28,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm3
+ .byte 98,97,124,40,40,211 // vmovaps %ymm3,%ymm26
+ .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
+ .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
+ .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
+ .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
+ .byte 98,97,124,40,40,203 // vmovaps %ymm3,%ymm25
+ .byte 98,97,21,32,254,192 // vpaddd %ymm0,%ymm29,%ymm24
+ .byte 98,177,61,32,254,196 // vpaddd %ymm20,%ymm24,%ymm0
+ .byte 98,178,125,40,64,192 // vpmulld %ymm16,%ymm0,%ymm0
+ .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
+ .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
+ .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
+ .byte 98,225,124,40,40,218 // vmovaps %ymm2,%ymm19
+ .byte 196,193,125,250,214 // vpsubd %ymm14,%ymm0,%ymm2
+ .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
+ .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
+ .byte 196,226,5,146,12,144 // vgatherdps %ymm15,(%rax,%ymm2,4),%ymm1
+ .byte 98,225,124,40,40,209 // vmovaps %ymm1,%ymm18
+ .byte 98,177,125,40,254,209 // vpaddd %ymm17,%ymm0,%ymm2
+ .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
+ .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
+ .byte 196,98,5,146,36,144 // vgatherdps %ymm15,(%rax,%ymm2,4),%ymm12
+ .byte 98,145,77,32,254,208 // vpaddd %ymm24,%ymm22,%ymm2
+ .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
+ .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
+ .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
+ .byte 196,98,21,146,60,144 // vgatherdps %ymm13,(%rax,%ymm2,4),%ymm15
+ .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp)
+ .byte 197,252,17,116,36,160 // vmovups %ymm6,-0x60(%rsp)
+ .byte 197,252,17,108,36,128 // vmovups %ymm5,-0x80(%rsp)
+ .byte 98,97,124,40,40,220 // vmovaps %ymm4,%ymm27
+ .byte 196,65,109,250,238 // vpsubd %ymm14,%ymm2,%ymm13
+ .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
+ .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
+ .byte 196,34,45,146,28,168 // vgatherdps %ymm10,(%rax,%ymm13,4),%ymm11
+ .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
+ .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
+ .byte 196,98,13,146,20,144 // vgatherdps %ymm14,(%rax,%ymm2,4),%ymm10
+ .byte 197,252,16,132,36,224,4,0,0 // vmovups 0x4e0(%rsp),%ymm0
+ .byte 197,252,16,140,36,128,4,0,0 // vmovups 0x480(%rsp),%ymm1
+ .byte 197,244,92,240 // vsubps %ymm0,%ymm1,%ymm6
+ .byte 98,49,124,40,91,237 // vcvtdq2ps %ymm21,%ymm13
+ .byte 98,81,28,32,92,237 // vsubps %ymm13,%ymm28,%ymm13
+ .byte 196,226,21,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm6
+ .byte 197,252,16,132,36,192,4,0,0 // vmovups 0x4c0(%rsp),%ymm0
+ .byte 197,252,16,140,36,96,4,0,0 // vmovups 0x460(%rsp),%ymm1
+ .byte 197,116,92,240 // vsubps %ymm0,%ymm1,%ymm14
+ .byte 196,98,21,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm14
+ .byte 197,252,16,132,36,160,4,0,0 // vmovups 0x4a0(%rsp),%ymm0
+ .byte 197,252,16,140,36,64,4,0,0 // vmovups 0x440(%rsp),%ymm1
+ .byte 98,225,116,40,92,192 // vsubps %ymm0,%ymm1,%ymm16
+ .byte 98,226,21,40,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm16
+ .byte 197,252,16,132,36,0,4,0,0 // vmovups 0x400(%rsp),%ymm0
+ .byte 197,252,16,140,36,160,3,0,0 // vmovups 0x3a0(%rsp),%ymm1
+ .byte 98,225,116,40,92,200 // vsubps %ymm0,%ymm1,%ymm17
+ .byte 98,226,21,40,168,200 // vfmadd213ps %ymm0,%ymm13,%ymm17
+ .byte 197,252,16,132,36,224,3,0,0 // vmovups 0x3e0(%rsp),%ymm0
+ .byte 197,252,16,140,36,128,3,0,0 // vmovups 0x380(%rsp),%ymm1
+ .byte 98,225,116,40,92,224 // vsubps %ymm0,%ymm1,%ymm20
+ .byte 98,226,21,40,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm20
+ .byte 197,252,16,132,36,192,3,0,0 // vmovups 0x3c0(%rsp),%ymm0
+ .byte 197,252,16,140,36,96,3,0,0 // vmovups 0x360(%rsp),%ymm1
+ .byte 98,225,116,40,92,232 // vsubps %ymm0,%ymm1,%ymm21
+ .byte 98,226,21,40,168,232 // vfmadd213ps %ymm0,%ymm13,%ymm21
+ .byte 197,252,16,132,36,64,3,0,0 // vmovups 0x340(%rsp),%ymm0
+ .byte 197,252,16,140,36,224,2,0,0 // vmovups 0x2e0(%rsp),%ymm1
+ .byte 98,225,116,40,92,240 // vsubps %ymm0,%ymm1,%ymm22
+ .byte 98,226,21,40,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm22
+ .byte 197,252,16,132,36,32,3,0,0 // vmovups 0x320(%rsp),%ymm0
+ .byte 197,252,16,140,36,192,2,0,0 // vmovups 0x2c0(%rsp),%ymm1
+ .byte 98,97,116,40,92,192 // vsubps %ymm0,%ymm1,%ymm24
+ .byte 98,98,21,40,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm24
+ .byte 197,252,16,132,36,0,3,0,0 // vmovups 0x300(%rsp),%ymm0
+ .byte 197,252,16,140,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm1
+ .byte 98,97,116,40,92,224 // vsubps %ymm0,%ymm1,%ymm28
+ .byte 98,98,21,40,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm28
+ .byte 197,252,16,132,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm0
+ .byte 197,252,16,140,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm1
+ .byte 98,97,116,40,92,232 // vsubps %ymm0,%ymm1,%ymm29
+ .byte 98,98,21,40,168,232 // vfmadd213ps %ymm0,%ymm13,%ymm29
+ .byte 197,252,16,132,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm0
+ .byte 197,252,16,140,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm1
+ .byte 98,97,116,40,92,240 // vsubps %ymm0,%ymm1,%ymm30
+ .byte 98,98,21,40,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm30
+ .byte 197,252,16,132,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm0
+ .byte 98,65,124,40,92,249 // vsubps %ymm9,%ymm0,%ymm31
+ .byte 98,66,21,40,168,249 // vfmadd213ps %ymm9,%ymm13,%ymm31
+ .byte 197,252,16,132,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm0
+ .byte 197,252,16,140,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm1
+ .byte 197,244,92,216 // vsubps %ymm0,%ymm1,%ymm3
+ .byte 196,226,21,168,216 // vfmadd213ps %ymm0,%ymm13,%ymm3
+ .byte 197,252,16,132,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm0
+ .byte 197,252,16,140,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm1
+ .byte 197,244,92,224 // vsubps %ymm0,%ymm1,%ymm4
+ .byte 196,226,21,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm4
+ .byte 197,252,16,132,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm0
+ .byte 196,193,124,92,232 // vsubps %ymm8,%ymm0,%ymm5
+ .byte 196,194,21,168,232 // vfmadd213ps %ymm8,%ymm13,%ymm5
+ .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
+ .byte 197,252,16,140,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm1
+ .byte 197,244,92,248 // vsubps %ymm0,%ymm1,%ymm7
+ .byte 196,226,21,168,248 // vfmadd213ps %ymm0,%ymm13,%ymm7
+ .byte 197,252,16,132,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm0
+ .byte 197,252,16,76,36,96 // vmovups 0x60(%rsp),%ymm1
+ .byte 197,116,92,192 // vsubps %ymm0,%ymm1,%ymm8
+ .byte 196,98,21,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm8
+ .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
+ .byte 197,252,16,76,36,64 // vmovups 0x40(%rsp),%ymm1
+ .byte 197,116,92,200 // vsubps %ymm0,%ymm1,%ymm9
+ .byte 196,98,21,168,200 // vfmadd213ps %ymm0,%ymm13,%ymm9
+ .byte 197,252,16,76,36,32 // vmovups 0x20(%rsp),%ymm1
+ .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
+ .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
+ .byte 196,226,21,168,193 // vfmadd213ps %ymm1,%ymm13,%ymm0
+ .byte 197,252,16,20,36 // vmovups (%rsp),%ymm2
+ .byte 98,241,44,32,92,202 // vsubps %ymm2,%ymm26,%ymm1
+ .byte 196,226,21,168,202 // vfmadd213ps %ymm2,%ymm13,%ymm1
+ .byte 98,177,52,32,92,215 // vsubps %ymm23,%ymm25,%ymm2
+ .byte 98,178,21,40,168,215 // vfmadd213ps %ymm23,%ymm13,%ymm2
+ .byte 98,49,4,40,92,251 // vsubps %ymm19,%ymm15,%ymm15
+ .byte 98,50,21,40,168,251 // vfmadd213ps %ymm19,%ymm13,%ymm15
+ .byte 98,49,36,40,92,218 // vsubps %ymm18,%ymm11,%ymm11
+ .byte 98,50,21,40,168,218 // vfmadd213ps %ymm18,%ymm13,%ymm11
+ .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
+ .byte 196,66,21,168,212 // vfmadd213ps %ymm12,%ymm13,%ymm10
+ .byte 197,124,16,164,36,0,5,0,0 // vmovups 0x500(%rsp),%ymm12
+ .byte 196,65,124,91,228 // vcvtdq2ps %ymm12,%ymm12
+ .byte 197,124,16,172,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm13
+ .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
+ .byte 98,113,116,32,92,238 // vsubps %ymm6,%ymm17,%ymm13
+ .byte 196,98,29,168,238 // vfmadd213ps %ymm6,%ymm12,%ymm13
+ .byte 98,209,92,32,92,246 // vsubps %ymm14,%ymm20,%ymm6
+ .byte 196,194,29,168,246 // vfmadd213ps %ymm14,%ymm12,%ymm6
+ .byte 98,49,84,32,92,240 // vsubps %ymm16,%ymm21,%ymm14
+ .byte 98,50,29,40,168,240 // vfmadd213ps %ymm16,%ymm12,%ymm14
+ .byte 98,161,20,32,92,198 // vsubps %ymm22,%ymm29,%ymm16
+ .byte 98,162,29,40,168,198 // vfmadd213ps %ymm22,%ymm12,%ymm16
+ .byte 98,129,12,32,92,200 // vsubps %ymm24,%ymm30,%ymm17
+ .byte 98,130,29,40,168,200 // vfmadd213ps %ymm24,%ymm12,%ymm17
+ .byte 98,129,4,32,92,228 // vsubps %ymm28,%ymm31,%ymm20
+ .byte 98,130,29,40,168,228 // vfmadd213ps %ymm28,%ymm12,%ymm20
+ .byte 197,196,92,251 // vsubps %ymm3,%ymm7,%ymm7
+ .byte 196,226,29,168,251 // vfmadd213ps %ymm3,%ymm12,%ymm7
+ .byte 197,188,92,220 // vsubps %ymm4,%ymm8,%ymm3
+ .byte 196,226,29,168,220 // vfmadd213ps %ymm4,%ymm12,%ymm3
+ .byte 197,180,92,229 // vsubps %ymm5,%ymm9,%ymm4
+ .byte 196,226,29,168,229 // vfmadd213ps %ymm5,%ymm12,%ymm4
+ .byte 197,132,92,232 // vsubps %ymm0,%ymm15,%ymm5
+ .byte 196,226,29,168,232 // vfmadd213ps %ymm0,%ymm12,%ymm5
+ .byte 197,164,92,193 // vsubps %ymm1,%ymm11,%ymm0
+ .byte 196,226,29,168,193 // vfmadd213ps %ymm1,%ymm12,%ymm0
+ .byte 197,172,92,202 // vsubps %ymm2,%ymm10,%ymm1
+ .byte 196,226,29,168,202 // vfmadd213ps %ymm2,%ymm12,%ymm1
+ .byte 197,252,16,148,36,32,5,0,0 // vmovups 0x520(%rsp),%ymm2
+ .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
+ .byte 197,124,16,132,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm8
+ .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
+ .byte 98,81,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm8
+ .byte 196,66,109,168,197 // vfmadd213ps %ymm13,%ymm2,%ymm8
+ .byte 98,113,116,32,92,206 // vsubps %ymm6,%ymm17,%ymm9
+ .byte 196,98,109,168,206 // vfmadd213ps %ymm6,%ymm2,%ymm9
+ .byte 98,209,92,32,92,246 // vsubps %ymm14,%ymm20,%ymm6
+ .byte 196,194,109,168,246 // vfmadd213ps %ymm14,%ymm2,%ymm6
+ .byte 197,212,92,239 // vsubps %ymm7,%ymm5,%ymm5
+ .byte 196,226,109,168,239 // vfmadd213ps %ymm7,%ymm2,%ymm5
+ .byte 197,252,92,251 // vsubps %ymm3,%ymm0,%ymm7
+ .byte 196,226,109,168,251 // vfmadd213ps %ymm3,%ymm2,%ymm7
+ .byte 197,244,92,220 // vsubps %ymm4,%ymm1,%ymm3
+ .byte 196,226,109,168,220 // vfmadd213ps %ymm4,%ymm2,%ymm3
+ .byte 197,252,16,132,36,32,4,0,0 // vmovups 0x420(%rsp),%ymm0
+ .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
+ .byte 197,252,16,140,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm1
+ .byte 197,244,92,224 // vsubps %ymm0,%ymm1,%ymm4
+ .byte 196,193,84,92,192 // vsubps %ymm8,%ymm5,%ymm0
+ .byte 196,194,93,168,192 // vfmadd213ps %ymm8,%ymm4,%ymm0
+ .byte 196,193,68,92,201 // vsubps %ymm9,%ymm7,%ymm1
+ .byte 196,194,93,168,201 // vfmadd213ps %ymm9,%ymm4,%ymm1
+ .byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
+ .byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
+ .byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 196,226,125,24,29,237,178,2,0 // vbroadcastss 0x2b2ed(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
+ .byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
+ .byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
+ .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
+ .byte 72,129,196,88,5,0,0 // add $0x558,%rsp
+ .byte 255,224 // jmpq *%rax
+
HIDDEN _sk_start_pipeline_hsw
.globl _sk_start_pipeline_hsw
FUNCTION(_sk_start_pipeline_hsw)
@@ -9386,13 +16512,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae ca <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 7706 <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 8c <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 76c8 <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -9411,10 +16537,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 4d <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 7689 <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je bd <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 76f9 <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9428,7 +16554,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 3f <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 767b <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -9452,14 +16578,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,14,172,2,0 // vaddps 0x2ac0e(%rip),%ymm0,%ymm0 # 2ad00 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
+ .byte 197,252,88,5,82,172,2,0 // vaddps 0x2ac52(%rip),%ymm0,%ymm0 # 32380 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,124,177,2,0 // vbroadcastss 0x2b17c(%rip),%ymm2 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,21,192,177,2,0 // vbroadcastss 0x2b1c0(%rip),%ymm2 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,113,177,2,0 // vbroadcastss 0x2b171(%rip),%ymm2 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,21,181,177,2,0 // vbroadcastss 0x2b1b5(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9474,17 +16600,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,224,171,2,0 // vpaddd 0x2abe0(%rip),%ymm8,%ymm8 # 2ad20 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
+ .byte 197,61,254,5,36,172,2,0 // vpaddd 0x2ac24(%rip),%ymm8,%ymm8 # 323a0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,53,177,2,0 // vpbroadcastd 0x2b135(%rip),%ymm10 # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,88,21,121,177,2,0 // vpbroadcastd 0x2b179(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,26,177,2,0 // vpbroadcastd 0x2b11a(%rip),%ymm12 # 2b290 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
- .byte 196,98,125,88,45,21,177,2,0 // vpbroadcastd 0x2b115(%rip),%ymm13 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,88,37,94,177,2,0 // vpbroadcastd 0x2b15e(%rip),%ymm12 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,88,45,89,177,2,0 // vpbroadcastd 0x2b159(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9499,8 +16625,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,199,176,2,0 // vbroadcastss 0x2b0c7(%rip),%ymm9 # 2b298 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
- .byte 196,98,125,24,21,194,176,2,0 // vbroadcastss 0x2b0c2(%rip),%ymm10 # 2b29c <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,13,11,177,2,0 // vbroadcastss 0x2b10b(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,21,6,177,2,0 // vbroadcastss 0x2b106(%rip),%ymm10 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -9534,7 +16660,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,74,176,2,0 // vbroadcastss 0x2b04a(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,142,176,2,0 // vbroadcastss 0x2b08e(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9545,7 +16671,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,49,176,2,0 // vbroadcastss 0x2b031(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,117,176,2,0 // vbroadcastss 0x2b075(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9591,7 +16717,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,208,175,2,0 // vbroadcastss 0x2afd0(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,20,176,2,0 // vbroadcastss 0x2b014(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9607,7 +16733,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,159,175,2,0 // vbroadcastss 0x2af9f(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,227,175,2,0 // vbroadcastss 0x2afe3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9646,7 +16772,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,66,175,2,0 // vbroadcastss 0x2af42(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,134,175,2,0 // vbroadcastss 0x2af86(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9659,7 +16785,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,33,175,2,0 // vbroadcastss 0x2af21(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,101,175,2,0 // vbroadcastss 0x2af65(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9672,7 +16798,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,0,175,2,0 // vbroadcastss 0x2af00(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,68,175,2,0 // vbroadcastss 0x2af44(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9685,7 +16811,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,219,174,2,0 // vbroadcastss 0x2aedb(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,31,175,2,0 // vbroadcastss 0x2af1f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9709,7 +16835,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,162,174,2,0 // vbroadcastss 0x2aea2(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,230,174,2,0 // vbroadcastss 0x2aee6(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9732,7 +16858,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,81,174,2,0 // vbroadcastss 0x2ae51(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,149,174,2,0 // vbroadcastss 0x2ae95(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9762,7 +16888,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,252,173,2,0 // vbroadcastss 0x2adfc(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,64,174,2,0 // vbroadcastss 0x2ae40(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9796,7 +16922,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,128,173,2,0 // vbroadcastss 0x2ad80(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,196,173,2,0 // vbroadcastss 0x2adc4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9821,7 +16947,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,43,173,2,0 // vbroadcastss 0x2ad2b(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,111,173,2,0 // vbroadcastss 0x2ad6f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9849,7 +16975,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,202,172,2,0 // vbroadcastss 0x2acca(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,14,173,2,0 // vbroadcastss 0x2ad0e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9871,7 +16997,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,132,172,2,0 // vbroadcastss 0x2ac84(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,200,172,2,0 // vbroadcastss 0x2acc8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9881,7 +17007,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,110,172,2,0 // vbroadcastss 0x2ac6e(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,178,172,2,0 // vbroadcastss 0x2acb2(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -9939,7 +17065,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,126,171,2,0 // vbroadcastss 0x2ab7e(%rip),%ymm9 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,13,194,171,2,0 // vbroadcastss 0x2abc2(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -9992,7 +17118,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,152,170,2,0 // vbroadcastss 0x2aa98(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,220,170,2,0 // vbroadcastss 0x2aadc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10043,7 +17169,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,204,169,2,0 // vbroadcastss 0x2a9cc(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,16,170,2,0 // vbroadcastss 0x2aa10(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10104,10 +17230,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,231,168,2,0 // vbroadcastss 0x2a8e7(%rip),%ymm11 # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,29,43,169,2,0 // vbroadcastss 0x2a92b(%rip),%ymm11 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,216,168,2,0 // vbroadcastss 0x2a8d8(%rip),%ymm12 # 2b2a4 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,37,28,169,2,0 // vbroadcastss 0x2a91c(%rip),%ymm12 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -10117,7 +17243,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,135,168,2,0 // vbroadcastss 0x2a887(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,203,168,2,0 // vbroadcastss 0x2a8cb(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -10230,11 +17356,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,159,166,2,0 // vbroadcastss 0x2a69f(%rip),%ymm14 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
- .byte 196,98,125,24,61,154,166,2,0 // vbroadcastss 0x2a69a(%rip),%ymm15 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,53,227,166,2,0 // vbroadcastss 0x2a6e3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,222,166,2,0 // vbroadcastss 0x2a6de(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,139,166,2,0 // vbroadcastss 0x2a68b(%rip),%ymm0 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,226,125,24,5,207,166,2,0 // vbroadcastss 0x2a6cf(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10289,7 +17415,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,76,165,2,0 // vbroadcastss 0x2a54c(%rip),%ymm1 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,13,144,165,2,0 // vbroadcastss 0x2a590(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10343,11 +17469,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,127,164,2,0 // vbroadcastss 0x2a47f(%rip),%ymm14 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
- .byte 196,98,125,24,61,122,164,2,0 // vbroadcastss 0x2a47a(%rip),%ymm15 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,53,195,164,2,0 // vbroadcastss 0x2a4c3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,61,190,164,2,0 // vbroadcastss 0x2a4be(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,107,164,2,0 // vbroadcastss 0x2a46b(%rip),%ymm0 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,226,125,24,5,175,164,2,0 // vbroadcastss 0x2a4af(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -10402,7 +17528,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,44,163,2,0 // vbroadcastss 0x2a32c(%rip),%ymm1 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,13,112,163,2,0 // vbroadcastss 0x2a370(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10430,11 +17556,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,225,162,2,0 // vbroadcastss 0x2a2e1(%rip),%ymm13 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
- .byte 196,98,125,24,53,220,162,2,0 // vbroadcastss 0x2a2dc(%rip),%ymm14 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,45,37,163,2,0 // vbroadcastss 0x2a325(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,32,163,2,0 // vbroadcastss 0x2a320(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,205,162,2,0 // vbroadcastss 0x2a2cd(%rip),%ymm15 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,61,17,163,2,0 // vbroadcastss 0x2a311(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10490,7 +17616,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,131,161,2,0 // vbroadcastss 0x2a183(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,199,161,2,0 // vbroadcastss 0x2a1c7(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10518,11 +17644,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,56,161,2,0 // vbroadcastss 0x2a138(%rip),%ymm13 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
- .byte 196,98,125,24,53,51,161,2,0 // vbroadcastss 0x2a133(%rip),%ymm14 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,45,124,161,2,0 // vbroadcastss 0x2a17c(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,119,161,2,0 // vbroadcastss 0x2a177(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,36,161,2,0 // vbroadcastss 0x2a124(%rip),%ymm15 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,61,104,161,2,0 // vbroadcastss 0x2a168(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -10578,7 +17704,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,218,159,2,0 // vbroadcastss 0x29fda(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,30,160,2,0 // vbroadcastss 0x2a01e(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -10607,19 +17733,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 13c3 <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 89ff <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,34,154,2,0 // vpand 0x29a22(%rip),%ymm7,%ymm4 # 2ad40 <_sk_srcover_rgba_8888_sse2_lowp+0x300>
+ .byte 197,197,219,37,102,154,2,0 // vpand 0x29a66(%rip),%ymm7,%ymm4 # 323c0 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,53,154,2,0 // vpshufb 0x29a35(%rip),%ymm7,%ymm5 # 2ad60 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
+ .byte 196,226,69,0,45,121,154,2,0 // vpshufb 0x29a79(%rip),%ymm7,%ymm5 # 323e0 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,72,154,2,0 // vpshufb 0x29a48(%rip),%ymm7,%ymm6 # 2ad80 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
+ .byte 196,226,69,0,53,140,154,2,0 // vpshufb 0x29a8c(%rip),%ymm7,%ymm6 # 32400 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,58,159,2,0 // vbroadcastss 0x29f3a(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,126,159,2,0 // vbroadcastss 0x29f7e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,89,159,2,0 // vbroadcastss 0x29f59(%rip),%ymm9 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,13,157,159,2,0 // vbroadcastss 0x29f9d(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10639,7 +17765,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 13fa <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 8a36 <_sk_srcover_rgba_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -10648,33 +17774,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 1316 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 8952 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 14e4 <_sk_srcover_rgba_8888_hsw+0x1f4>
+ .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b20 <_sk_srcover_rgba_8888_hsw+0x1f4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 1316 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 1500 <_sk_srcover_rgba_8888_hsw+0x210>
+ .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b3c <_sk_srcover_rgba_8888_hsw+0x210>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 1316 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -10687,10 +17813,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 1316 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -10698,7 +17824,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 13bf <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,220,254,255,255 // jmpq 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 144 // nop
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -10710,7 +17836,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 14f9 <_sk_srcover_rgba_8888_hsw+0x209>
+ .byte 127,255 // jg 8b35 <_sk_srcover_rgba_8888_hsw+0x209>
.byte 255 // (bad)
.byte 255,105,255 // ljmp *-0x1(%rcx)
.byte 255 // (bad)
@@ -10747,7 +17873,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,70,157,2,0 // vbroadcastss 0x29d46(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,138,157,2,0 // vbroadcastss 0x29d8a(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10759,7 +17885,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,37,157,2,0 // vbroadcastss 0x29d25(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,105,157,2,0 // vbroadcastss 0x29d69(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -10771,7 +17897,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,7,157,2,0 // vbroadcastss 0x29d07(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,75,157,2,0 // vbroadcastss 0x29d4b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -10804,7 +17930,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,194,156,2,0 // vbroadcastss 0x29cc2(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,6,157,2,0 // vbroadcastss 0x29d06(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10860,7 +17986,7 @@ FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,82,156,2,0 // vbroadcastss 0x29c52(%rip),%ymm10 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,21,150,156,2,0 // vbroadcastss 0x29c96(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -10873,16 +17999,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,95,156,2,0 // vbroadcastss 0x29c5f(%rip),%ymm8 # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,163,156,2,0 // vbroadcastss 0x29ca3(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,81,156,2,0 // vbroadcastss 0x29c51(%rip),%ymm11 # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
- .byte 196,98,125,24,37,52,156,2,0 // vbroadcastss 0x29c34(%rip),%ymm12 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,29,149,156,2,0 // vbroadcastss 0x29c95(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,120,156,2,0 // vbroadcastss 0x29c78(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,57,156,2,0 // vbroadcastss 0x29c39(%rip),%ymm14 # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,53,125,156,2,0 // vbroadcastss 0x29c7d(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,47,156,2,0 // vbroadcastss 0x29c2f(%rip),%ymm10 # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,115,156,2,0 // vbroadcastss 0x29c73(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -10905,16 +18031,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,199,155,2,0 // vbroadcastss 0x29bc7(%rip),%ymm8 # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,11,156,2,0 // vbroadcastss 0x29c0b(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,185,155,2,0 // vbroadcastss 0x29bb9(%rip),%ymm11 # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
- .byte 196,98,125,24,37,156,155,2,0 // vbroadcastss 0x29b9c(%rip),%ymm12 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,29,253,155,2,0 // vbroadcastss 0x29bfd(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,37,224,155,2,0 // vbroadcastss 0x29be0(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,161,155,2,0 // vbroadcastss 0x29ba1(%rip),%ymm14 # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,53,229,155,2,0 // vbroadcastss 0x29be5(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,151,155,2,0 // vbroadcastss 0x29b97(%rip),%ymm10 # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,21,219,155,2,0 // vbroadcastss 0x29bdb(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -10938,19 +18064,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,59,155,2,0 // vbroadcastss 0x29b3b(%rip),%ymm8 # 2b2c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,127,155,2,0 // vbroadcastss 0x29b7f(%rip),%ymm8 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,49,155,2,0 // vbroadcastss 0x29b31(%rip),%ymm11 # 2b2cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
- .byte 196,98,125,24,37,44,155,2,0 // vbroadcastss 0x29b2c(%rip),%ymm12 # 2b2d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,29,117,155,2,0 // vbroadcastss 0x29b75(%rip),%ymm11 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,37,112,155,2,0 // vbroadcastss 0x29b70(%rip),%ymm12 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,29,155,2,0 // vbroadcastss 0x29b1d(%rip),%ymm14 # 2b2d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,53,145,156,2,0 // vbroadcastss 0x29c91(%rip),%ymm14 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,19,155,2,0 // vbroadcastss 0x29b13(%rip),%ymm15 # 2b2d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,61,135,156,2,0 // vbroadcastss 0x29c87(%rip),%ymm15 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,255,154,2,0 // vbroadcastss 0x29aff(%rip),%ymm13 # 2b2dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,45,67,155,2,0 // vbroadcastss 0x29b43(%rip),%ymm13 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -10984,26 +18110,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,26,154,2,0 // vbroadcastss 0x29a1a(%rip),%ymm11 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,29,94,154,2,0 // vbroadcastss 0x29a5e(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,91,154,2,0 // vbroadcastss 0x29a5b(%rip),%ymm14 # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,53,159,154,2,0 // vbroadcastss 0x29a9f(%rip),%ymm14 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,66,154,2,0 // vbroadcastss 0x29a42(%rip),%ymm14 # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,134,154,2,0 // vbroadcastss 0x29a86(%rip),%ymm14 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,48,154,2,0 // vbroadcastss 0x29a30(%rip),%ymm14 # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,53,116,154,2,0 // vbroadcastss 0x29a74(%rip),%ymm14 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,167,153,2,0 // vbroadcastss 0x299a7(%rip),%ymm11 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,235,153,2,0 // vbroadcastss 0x299eb(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -11013,7 +18139,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,214,153,2,0 // vbroadcastss 0x299d6(%rip),%ymm8 # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,5,26,154,2,0 // vbroadcastss 0x29a1a(%rip),%ymm8 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11030,30 +18156,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,51,153,2,0 // vbroadcastss 0x29933(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,119,153,2,0 // vbroadcastss 0x29977(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,114,153,2,0 // vbroadcastss 0x29972(%rip),%ymm9 # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,13,182,153,2,0 // vbroadcastss 0x299b6(%rip),%ymm9 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,112,153,2,0 // vbroadcastss 0x29970(%rip),%ymm11 # 2b2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,180,153,2,0 // vbroadcastss 0x299b4(%rip),%ymm11 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,66,153,2,0 // vbroadcastss 0x29942(%rip),%ymm13 # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,45,134,153,2,0 // vbroadcastss 0x29986(%rip),%ymm13 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,60,153,2,0 // vbroadcastss 0x2993c(%rip),%ymm14 # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,128,153,2,0 // vbroadcastss 0x29980(%rip),%ymm14 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,54,153,2,0 // vbroadcastss 0x29936(%rip),%ymm3 # 2b2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,29,122,153,2,0 // vbroadcastss 0x2997a(%rip),%ymm3 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,13,153,2,0 // vbroadcastss 0x2990d(%rip),%ymm12 # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,37,81,153,2,0 // vbroadcastss 0x29951(%rip),%ymm12 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -11069,7 +18195,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,193,152,2,0 // vbroadcastss 0x298c1(%rip),%ymm0 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,5,5,153,2,0 // vbroadcastss 0x29905(%rip),%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -11121,12 +18247,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 1b26 <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9162 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,38,153,2,0 // vpand 0x29926(%rip),%xmm8,%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,57,219,5,106,153,2,0 // vpand 0x2996a(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,239,151,2,0 // vbroadcastss 0x297ef(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,51,152,2,0 // vbroadcastss 0x29833(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -11139,15 +18265,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 1af2 <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 912e <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 1bc0 <_sk_scale_u8_hsw+0xec>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 91fc <_sk_scale_u8_hsw+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 1af2 <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 912e <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11155,7 +18281,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 1af2 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 912e <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11166,7 +18292,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 1af2 <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 912e <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 143 // (bad)
.byte 255 // (bad)
@@ -11175,7 +18301,7 @@ _sk_scale_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf001bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd7190>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00920c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd7190>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -11198,23 +18324,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 1c9c <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 92d8 <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,241,150,2,0 // vpbroadcastd 0x296f1(%rip),%ymm9 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,88,13,53,151,2,0 // vpbroadcastd 0x29735(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,226,150,2,0 // vbroadcastss 0x296e2(%rip),%ymm10 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,38,151,2,0 // vbroadcastss 0x29726(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,216,150,2,0 // vpbroadcastd 0x296d8(%rip),%ymm10 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,88,21,28,151,2,0 // vpbroadcastd 0x2971c(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,201,150,2,0 // vbroadcastss 0x296c9(%rip),%ymm11 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,13,151,2,0 // vbroadcastss 0x2970d(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,191,150,2,0 // vpbroadcastd 0x296bf(%rip),%ymm11 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,88,29,3,151,2,0 // vpbroadcastd 0x29703(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,176,150,2,0 // vbroadcastss 0x296b0(%rip),%ymm11 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,244,150,2,0 // vbroadcastss 0x296f4(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11233,27 +18359,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 1c01 <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 923d <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1d24 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9360 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 1c01 <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 1c01 <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 1c01 <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11303,12 +18429,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 1dd5 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9411 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,139,150,2,0 // vpand 0x2968b(%rip),%xmm8,%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,57,219,5,207,150,2,0 // vpand 0x296cf(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,84,149,2,0 // vbroadcastss 0x29554(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,152,149,2,0 // vbroadcastss 0x29598(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -11325,15 +18451,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 1d8d <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 93c9 <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 1e70 <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 94ac <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 1d8d <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 93c9 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -11341,7 +18467,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 1d8d <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 93c9 <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -11352,7 +18478,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 1d8d <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 93c9 <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -11360,7 +18486,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde001e80 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7440>
+ .byte 232,255,255,255,221 // callq ffffffffde0094bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7440>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -11383,23 +18509,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 1f60 <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 959c <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,65,148,2,0 // vpbroadcastd 0x29441(%rip),%ymm9 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,88,13,133,148,2,0 // vpbroadcastd 0x29485(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,50,148,2,0 // vbroadcastss 0x29432(%rip),%ymm10 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,118,148,2,0 // vbroadcastss 0x29476(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,40,148,2,0 // vpbroadcastd 0x29428(%rip),%ymm10 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,88,21,108,148,2,0 // vpbroadcastd 0x2946c(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,25,148,2,0 // vbroadcastss 0x29419(%rip),%ymm11 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,93,148,2,0 // vbroadcastss 0x2945d(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,15,148,2,0 // vpbroadcastd 0x2940f(%rip),%ymm11 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,88,29,83,148,2,0 // vpbroadcastd 0x29453(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,0,148,2,0 // vbroadcastss 0x29400(%rip),%ymm11 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,68,148,2,0 // vbroadcastss 0x29444(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11422,27 +18548,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 1eb1 <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 94ed <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1fe8 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9624 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 1eb1 <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 1eb1 <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 1eb1 <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -11471,9 +18597,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 2082 <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne 96be <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,132,141,2,0 // vpand 0x28d84(%rip),%ymm3,%ymm1 # 2ada0 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
+ .byte 197,229,219,13,200,141,2,0 // vpand 0x28dc8(%rip),%ymm3,%ymm1 # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -11481,16 +18607,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,123,141,2,0 // vpshufb 0x28d7b(%rip),%ymm3,%ymm9 # 2adc0 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
+ .byte 196,98,101,0,13,191,141,2,0 // vpshufb 0x28dbf(%rip),%ymm3,%ymm9 # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,127,141,2,0 // vpshufb 0x28d7f(%rip),%ymm3,%ymm9 # 2ade0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
+ .byte 196,98,101,0,13,195,141,2,0 // vpshufb 0x28dc3(%rip),%ymm3,%ymm9 # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,131,146,2,0 // vbroadcastss 0x29283(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,199,146,2,0 // vbroadcastss 0x292c7(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -11499,21 +18625,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 2014 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9650 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 2130 <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 976c <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 2014 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 2014 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -11526,8 +18652,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 2014 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 2131 <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg 976d <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -11555,7 +18681,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 2239 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne 9875 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -11571,7 +18697,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,108,146,2,0 // vmovdqa 0x2926c(%rip),%xmm11 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,121,111,29,176,146,2,0 // vmovdqa 0x292b0(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -11596,36 +18722,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,232,144,2,0 // vbroadcastss 0x290e8(%rip),%ymm8 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,5,44,145,2,0 // vbroadcastss 0x2912c(%rip),%ymm8 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 229f <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je 98db <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 229f <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb 98db <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 22ac <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je 98e8 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 22ac <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb 98e8 <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 217d <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je 97b9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 217d <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb 97b9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 217d <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 217d <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 217d <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -11635,7 +18761,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne 2395 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne 99d1 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -11656,7 +18782,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,236,144,2,0 // vmovdqa 0x290ec(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,249,111,29,48,145,2,0 // vmovdqa 0x29130(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -11676,76 +18802,76 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,245,142,2,0 // vbroadcastss 0x28ef5(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,57,143,2,0 // vbroadcastss 0x28f39(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 23cd <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne 9a09 <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 2417 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb 9a53 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 2431 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne 9a6d <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 2472 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb 9aae <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 2483 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne 9abf <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 24b6 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb 9af2 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 22fc <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,234,141,2,0 // vbroadcastss 0x28dea(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,46,142,2,0 // vbroadcastss 0x28e2e(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11875,7 +19001,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,184,139,2,0 // vbroadcastss 0x28bb8(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,252,139,2,0 // vbroadcastss 0x28bfc(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -11997,7 +19123,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,140,137,2,0 // vbroadcastss 0x2898c(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,208,137,2,0 // vbroadcastss 0x289d0(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12100,33 +19226,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,114,136,2,0 // vbroadcastss 0x28872(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
- .byte 196,98,125,24,45,109,136,2,0 // vbroadcastss 0x2886d(%rip),%ymm13 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,182,136,2,0 // vbroadcastss 0x288b6(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,45,177,136,2,0 // vbroadcastss 0x288b1(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,195,135,2,0 // vbroadcastss 0x287c3(%rip),%ymm13 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,45,7,136,2,0 // vbroadcastss 0x28807(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,85,136,2,0 // vbroadcastss 0x28855(%rip),%ymm13 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,153,136,2,0 // vbroadcastss 0x28899(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,75,136,2,0 // vbroadcastss 0x2884b(%rip),%ymm11 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,143,136,2,0 // vbroadcastss 0x2888f(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,65,136,2,0 // vbroadcastss 0x28841(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,133,136,2,0 // vbroadcastss 0x28885(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,55,136,2,0 // vbroadcastss 0x28837(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,123,136,2,0 // vbroadcastss 0x2887b(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,24,136,2,0 // vbroadcastss 0x28818(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,92,136,2,0 // vbroadcastss 0x2885c(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,14,136,2,0 // vbroadcastss 0x2880e(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,82,136,2,0 // vbroadcastss 0x28852(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,4,136,2,0 // vbroadcastss 0x28804(%rip),%ymm0 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,5,72,136,2,0 // vbroadcastss 0x28848(%rip),%ymm0 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,250,135,2,0 // vbroadcastss 0x287fa(%rip),%ymm10 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,237,135,2,0 // vbroadcastss 0x287ed(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,49,136,2,0 // vbroadcastss 0x28831(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12134,7 +19260,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,5,135,2,0 // vbroadcastss 0x28705(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,73,135,2,0 // vbroadcastss 0x28749(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12154,33 +19280,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,77,135,2,0 // vbroadcastss 0x2874d(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
- .byte 196,98,125,24,45,72,135,2,0 // vbroadcastss 0x28748(%rip),%ymm13 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,145,135,2,0 // vbroadcastss 0x28791(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,45,140,135,2,0 // vbroadcastss 0x2878c(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,158,134,2,0 // vbroadcastss 0x2869e(%rip),%ymm13 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,45,226,134,2,0 // vbroadcastss 0x286e2(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,48,135,2,0 // vbroadcastss 0x28730(%rip),%ymm13 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,116,135,2,0 // vbroadcastss 0x28774(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,38,135,2,0 // vbroadcastss 0x28726(%rip),%ymm11 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,106,135,2,0 // vbroadcastss 0x2876a(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,28,135,2,0 // vbroadcastss 0x2871c(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,96,135,2,0 // vbroadcastss 0x28760(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,18,135,2,0 // vbroadcastss 0x28712(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,86,135,2,0 // vbroadcastss 0x28756(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,243,134,2,0 // vbroadcastss 0x286f3(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,55,135,2,0 // vbroadcastss 0x28737(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,233,134,2,0 // vbroadcastss 0x286e9(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,45,135,2,0 // vbroadcastss 0x2872d(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,223,134,2,0 // vbroadcastss 0x286df(%rip),%ymm1 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,35,135,2,0 // vbroadcastss 0x28723(%rip),%ymm1 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,213,134,2,0 // vbroadcastss 0x286d5(%rip),%ymm10 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,25,135,2,0 // vbroadcastss 0x28719(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,200,134,2,0 // vbroadcastss 0x286c8(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,12,135,2,0 // vbroadcastss 0x2870c(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12188,7 +19314,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,224,133,2,0 // vbroadcastss 0x285e0(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,36,134,2,0 // vbroadcastss 0x28624(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12208,33 +19334,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,40,134,2,0 // vbroadcastss 0x28628(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
- .byte 196,98,125,24,45,35,134,2,0 // vbroadcastss 0x28623(%rip),%ymm13 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,108,134,2,0 // vbroadcastss 0x2866c(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,45,103,134,2,0 // vbroadcastss 0x28667(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,121,133,2,0 // vbroadcastss 0x28579(%rip),%ymm13 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,45,189,133,2,0 // vbroadcastss 0x285bd(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,11,134,2,0 // vbroadcastss 0x2860b(%rip),%ymm13 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,79,134,2,0 // vbroadcastss 0x2864f(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,1,134,2,0 // vbroadcastss 0x28601(%rip),%ymm11 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,69,134,2,0 // vbroadcastss 0x28645(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,247,133,2,0 // vbroadcastss 0x285f7(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,59,134,2,0 // vbroadcastss 0x2863b(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,237,133,2,0 // vbroadcastss 0x285ed(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,49,134,2,0 // vbroadcastss 0x28631(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,206,133,2,0 // vbroadcastss 0x285ce(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,18,134,2,0 // vbroadcastss 0x28612(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,196,133,2,0 // vbroadcastss 0x285c4(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,8,134,2,0 // vbroadcastss 0x28608(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,186,133,2,0 // vbroadcastss 0x285ba(%rip),%ymm2 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,21,254,133,2,0 // vbroadcastss 0x285fe(%rip),%ymm2 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,176,133,2,0 // vbroadcastss 0x285b0(%rip),%ymm10 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,244,133,2,0 // vbroadcastss 0x285f4(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,163,133,2,0 // vbroadcastss 0x285a3(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,231,133,2,0 // vbroadcastss 0x285e7(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12242,7 +19368,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,187,132,2,0 // vbroadcastss 0x284bb(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,255,132,2,0 // vbroadcastss 0x284ff(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12262,33 +19388,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,3,133,2,0 // vbroadcastss 0x28503(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
- .byte 196,98,125,24,45,254,132,2,0 // vbroadcastss 0x284fe(%rip),%ymm13 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,71,133,2,0 // vbroadcastss 0x28547(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,45,66,133,2,0 // vbroadcastss 0x28542(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,84,132,2,0 // vbroadcastss 0x28454(%rip),%ymm13 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,45,152,132,2,0 // vbroadcastss 0x28498(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,230,132,2,0 // vbroadcastss 0x284e6(%rip),%ymm13 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,42,133,2,0 // vbroadcastss 0x2852a(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,220,132,2,0 // vbroadcastss 0x284dc(%rip),%ymm11 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,32,133,2,0 // vbroadcastss 0x28520(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,210,132,2,0 // vbroadcastss 0x284d2(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,22,133,2,0 // vbroadcastss 0x28516(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,200,132,2,0 // vbroadcastss 0x284c8(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,12,133,2,0 // vbroadcastss 0x2850c(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,169,132,2,0 // vbroadcastss 0x284a9(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,237,132,2,0 // vbroadcastss 0x284ed(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,159,132,2,0 // vbroadcastss 0x2849f(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,227,132,2,0 // vbroadcastss 0x284e3(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,149,132,2,0 // vbroadcastss 0x28495(%rip),%ymm3 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,29,217,132,2,0 // vbroadcastss 0x284d9(%rip),%ymm3 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,139,132,2,0 // vbroadcastss 0x2848b(%rip),%ymm10 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,207,132,2,0 // vbroadcastss 0x284cf(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,126,132,2,0 // vbroadcastss 0x2847e(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,194,132,2,0 // vbroadcastss 0x284c2(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -12296,7 +19422,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,150,131,2,0 // vbroadcastss 0x28396(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,218,131,2,0 // vbroadcastss 0x283da(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12315,35 +19441,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,233,131,2,0 // vbroadcastss 0x283e9(%rip),%ymm11 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
- .byte 196,226,125,24,45,228,131,2,0 // vbroadcastss 0x283e4(%rip),%ymm5 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,29,45,132,2,0 // vbroadcastss 0x2842d(%rip),%ymm11 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,24,45,40,132,2,0 // vbroadcastss 0x28428(%rip),%ymm5 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,59,131,2,0 // vbroadcastss 0x2833b(%rip),%ymm4 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,37,127,131,2,0 // vbroadcastss 0x2837f(%rip),%ymm4 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,206,131,2,0 // vbroadcastss 0x283ce(%rip),%ymm13 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,18,132,2,0 // vbroadcastss 0x28412(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,196,131,2,0 // vbroadcastss 0x283c4(%rip),%ymm9 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,13,8,132,2,0 // vbroadcastss 0x28408(%rip),%ymm9 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,168,131,2,0 // vbroadcastss 0x283a8(%rip),%ymm11 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,29,236,131,2,0 // vbroadcastss 0x283ec(%rip),%ymm11 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,158,131,2,0 // vbroadcastss 0x2839e(%rip),%ymm13 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,45,226,131,2,0 // vbroadcastss 0x283e2(%rip),%ymm13 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,122,131,2,0 // vbroadcastss 0x2837a(%rip),%ymm2 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,226,125,24,21,190,131,2,0 // vbroadcastss 0x283be(%rip),%ymm2 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,113,131,2,0 // vbroadcastss 0x28371(%rip),%ymm3 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,29,181,131,2,0 // vbroadcastss 0x283b5(%rip),%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,103,131,2,0 // vbroadcastss 0x28367(%rip),%ymm1 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,13,171,131,2,0 // vbroadcastss 0x283ab(%rip),%ymm1 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,93,131,2,0 // vbroadcastss 0x2835d(%rip),%ymm0 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,5,161,131,2,0 // vbroadcastss 0x283a1(%rip),%ymm0 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -12374,7 +19500,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,206,130,2,0 // vbroadcastss 0x282ce(%rip),%ymm1 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,13,18,131,2,0 // vbroadcastss 0x28312(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -12394,26 +19520,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,140,130,2,0 // vbroadcastss 0x2828c(%rip),%ymm8 # 2b348 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 196,98,125,24,13,239,129,2,0 // vbroadcastss 0x281ef(%rip),%ymm9 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 196,98,125,24,21,126,130,2,0 // vbroadcastss 0x2827e(%rip),%ymm10 # 2b34c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,5,208,130,2,0 // vbroadcastss 0x282d0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,13,51,130,2,0 // vbroadcastss 0x28233(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,194,130,2,0 // vbroadcastss 0x282c2(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,111,130,2,0 // vbroadcastss 0x2826f(%rip),%ymm9 # 2b350 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,13,179,130,2,0 // vbroadcastss 0x282b3(%rip),%ymm9 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,101,130,2,0 // vbroadcastss 0x28265(%rip),%ymm0 # 2b354 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,5,169,130,2,0 // vbroadcastss 0x282a9(%rip),%ymm0 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,92,130,2,0 // vbroadcastss 0x2825c(%rip),%ymm8 # 2b358 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,5,160,130,2,0 // vbroadcastss 0x282a0(%rip),%ymm8 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,82,130,2,0 // vbroadcastss 0x28252(%rip),%ymm9 # 2b35c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,13,150,130,2,0 // vbroadcastss 0x28296(%rip),%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,63,130,2,0 // vbroadcastss 0x2823f(%rip),%ymm2 # 2b360 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,226,125,24,21,131,130,2,0 // vbroadcastss 0x28283(%rip),%ymm2 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,53,130,2,0 // vbroadcastss 0x28235(%rip),%ymm11 # 2b364 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,29,121,130,2,0 // vbroadcastss 0x28279(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,43,130,2,0 // vbroadcastss 0x2822b(%rip),%ymm12 # 2b368 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,111,130,2,0 // vbroadcastss 0x2826f(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12428,9 +19554,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,224,129,2,0 // vbroadcastss 0x281e0(%rip),%ymm0 # 2b36c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,5,36,130,2,0 // vbroadcastss 0x28224(%rip),%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,215,129,2,0 // vbroadcastss 0x281d7(%rip),%ymm8 # 2b370 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,5,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm8 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12446,12 +19572,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 31ee <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne a82a <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,88,130,2,0 // vpand 0x28258(%rip),%xmm0,%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,249,219,5,156,130,2,0 // vpand 0x2829c(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,34,129,2,0 // vbroadcastss 0x28122(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,102,129,2,0 // vbroadcastss 0x28166(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12463,15 +19589,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja 31c0 <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja a7fc <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # 3284 <_sk_load_a8_hsw+0xe2>
+ .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a8c0 <_sk_load_a8_hsw+0xe2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp 31c0 <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp a7fc <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12479,7 +19605,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq 31c0 <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a7fc <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12490,7 +19616,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq 31c0 <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a7fc <_sk_load_a8_hsw+0x1e>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -12522,12 +19648,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 32ec <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne a928 <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,90,129,2,0 // vpand 0x2815a(%rip),%xmm4,%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,217,219,37,158,129,2,0 // vpand 0x2819e(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,36,128,2,0 // vbroadcastss 0x28024(%rip),%ymm5 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,45,104,128,2,0 // vbroadcastss 0x28068(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -12539,15 +19665,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja 32be <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja a8fa <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 3384 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # a9c0 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp 32be <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp a8fa <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12555,7 +19681,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq 32be <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a8fa <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12566,7 +19692,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq 32be <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a8fa <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -12575,7 +19701,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde003394 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8954>
+ .byte 232,255,255,255,221 // callq ffffffffde00a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8954>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -12642,7 +19768,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,107,126,2,0 // vbroadcastss 0x27e6b(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,175,126,2,0 // vbroadcastss 0x27eaf(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -12664,14 +19790,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,236,125,2,0 // vbroadcastss 0x27dec(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,48,126,2,0 // vbroadcastss 0x27e30(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 34f0 <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne ab2c <_sk_store_a8_hsw+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12679,25 +19805,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 34ec <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja ab28 <_sk_store_a8_hsw+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # 3568 <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # aba4 <_sk_store_a8_hsw+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 34ec <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp ab28 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,253,126,2,0 // vpshufb 0x27efd(%rip),%xmm8,%xmm8 # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,57,0,5,65,127,2,0 // vpshufb 0x27f41(%rip),%xmm8,%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 34ec <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp ab28 <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,227,126,2,0 // vpshufb 0x27ee3(%rip),%xmm8,%xmm8 # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,57,0,5,39,127,2,0 // vpshufb 0x27f27(%rip),%xmm8,%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 34ec <_sk_store_a8_hsw+0x40>
+ .byte 235,135 // jmp ab28 <_sk_store_a8_hsw+0x40>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -12730,15 +19856,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne 35d5 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne ac11 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,118,126,2,0 // vpand 0x27e76(%rip),%xmm0,%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,249,219,5,186,126,2,0 // vpand 0x27eba(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,64,125,2,0 // vbroadcastss 0x27d40(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,132,125,2,0 // vbroadcastss 0x27d84(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,189,124,2,0 // vbroadcastss 0x27cbd(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,1,125,2,0 // vbroadcastss 0x27d01(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12747,15 +19873,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja 35a2 <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja abde <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 366c <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # aca8 <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp 35a2 <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp abde <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -12763,7 +19889,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq 35a2 <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq abde <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -12774,7 +19900,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq 35a2 <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq abde <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -12783,7 +19909,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00367c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c3c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00acb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c3c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12805,15 +19931,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne 36d9 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ad15 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,114,125,2,0 // vpand 0x27d72(%rip),%xmm4,%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,217,219,37,182,125,2,0 // vpand 0x27db6(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,60,124,2,0 // vbroadcastss 0x27c3c(%rip),%ymm5 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,45,128,124,2,0 // vbroadcastss 0x27c80(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,185,123,2,0 // vbroadcastss 0x27bb9(%rip),%ymm7 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,61,253,123,2,0 // vbroadcastss 0x27bfd(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12822,15 +19948,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja 36a6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ace2 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 3770 <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # adac <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp 36a6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ace2 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -12838,7 +19964,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq 36a6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ace2 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -12849,7 +19975,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq 36a6 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ace2 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -12858,7 +19984,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf003780 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8d40>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00adbc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8d40>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -12925,10 +20051,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,127,122,2,0 // vbroadcastss 0x27a7f(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,195,122,2,0 // vbroadcastss 0x27ac3(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,252,121,2,0 // vbroadcastss 0x279fc(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,64,122,2,0 // vbroadcastss 0x27a40(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12949,53 +20075,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne 392a <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne af66 <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,52,122,2,0 // vpbroadcastd 0x27a34(%rip),%ymm0 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,88,5,120,122,2,0 // vpbroadcastd 0x27a78(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,39,122,2,0 // vbroadcastss 0x27a27(%rip),%ymm1 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,13,107,122,2,0 // vbroadcastss 0x27a6b(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,30,122,2,0 // vpbroadcastd 0x27a1e(%rip),%ymm1 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,88,13,98,122,2,0 // vpbroadcastd 0x27a62(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,17,122,2,0 // vbroadcastss 0x27a11(%rip),%ymm3 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,29,85,122,2,0 // vbroadcastss 0x27a55(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,8,122,2,0 // vpbroadcastd 0x27a08(%rip),%ymm3 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,88,29,76,122,2,0 // vpbroadcastd 0x27a4c(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,251,121,2,0 // vbroadcastss 0x279fb(%rip),%ymm3 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,29,63,122,2,0 // vbroadcastss 0x27a3f(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,96,121,2,0 // vbroadcastss 0x27960(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,164,121,2,0 // vbroadcastss 0x279a4(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja 38be <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja aefa <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 39ac <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # afe8 <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq 38be <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq 38be <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq 38be <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -13028,53 +20154,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne 3a55 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne b091 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,9,121,2,0 // vpbroadcastd 0x27909(%rip),%ymm4 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,88,37,77,121,2,0 // vpbroadcastd 0x2794d(%rip),%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,252,120,2,0 // vbroadcastss 0x278fc(%rip),%ymm5 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,45,64,121,2,0 // vbroadcastss 0x27940(%rip),%ymm5 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,243,120,2,0 // vpbroadcastd 0x278f3(%rip),%ymm5 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,88,45,55,121,2,0 // vpbroadcastd 0x27937(%rip),%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,230,120,2,0 // vbroadcastss 0x278e6(%rip),%ymm7 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,61,42,121,2,0 // vbroadcastss 0x2792a(%rip),%ymm7 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,221,120,2,0 // vpbroadcastd 0x278dd(%rip),%ymm7 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,88,61,33,121,2,0 // vpbroadcastd 0x27921(%rip),%ymm7 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,208,120,2,0 // vbroadcastss 0x278d0(%rip),%ymm7 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,61,20,121,2,0 // vbroadcastss 0x27914(%rip),%ymm7 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,53,120,2,0 // vbroadcastss 0x27835(%rip),%ymm7 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,61,121,120,2,0 // vbroadcastss 0x27879(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja 39e9 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja b025 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 3ad8 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b114 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq 39e9 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq 39e9 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq 39e9 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -13153,23 +20279,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,36,119,2,0 // vpbroadcastd 0x27724(%rip),%ymm0 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,88,5,104,119,2,0 // vpbroadcastd 0x27768(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,23,119,2,0 // vbroadcastss 0x27717(%rip),%ymm1 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,13,91,119,2,0 // vbroadcastss 0x2775b(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,14,119,2,0 // vpbroadcastd 0x2770e(%rip),%ymm1 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,88,13,82,119,2,0 // vpbroadcastd 0x27752(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,1,119,2,0 // vbroadcastss 0x27701(%rip),%ymm3 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,29,69,119,2,0 // vbroadcastss 0x27745(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,248,118,2,0 // vpbroadcastd 0x276f8(%rip),%ymm3 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,88,29,60,119,2,0 // vpbroadcastd 0x2773c(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,235,118,2,0 // vbroadcastss 0x276eb(%rip),%ymm3 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,29,47,119,2,0 // vbroadcastss 0x2772f(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,80,118,2,0 // vbroadcastss 0x27650(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,148,118,2,0 // vbroadcastss 0x27694(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13187,11 +20313,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,20,119,2,0 // vbroadcastss 0x27714(%rip),%ymm8 # 2b374 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,88,119,2,0 // vbroadcastss 0x27758(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,255,118,2,0 // vbroadcastss 0x276ff(%rip),%ymm10 # 2b378 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,67,119,2,0 // vbroadcastss 0x27743(%rip),%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -13202,7 +20328,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3cb7 <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne b2f3 <_sk_store_565_hsw+0x76>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13210,22 +20336,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 3cb3 <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja b2ef <_sk_store_565_hsw+0x72>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 3d14 <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b350 <_sk_store_565_hsw+0xd3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 3cb3 <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp b2ef <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 3cb3 <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp b2ef <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 3cb3 <_sk_store_565_hsw+0x72>
+ .byte 235,159 // jmp b2ef <_sk_store_565_hsw+0x72>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13243,7 +20369,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1003d2c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd92ec>
+ .byte 232,255,255,255,224 // callq ffffffffe100b368 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd92ec>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13260,28 +20386,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne 3dd9 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b415 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,25,118,2,0 // vpbroadcastd 0x27619(%rip),%ymm0 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,88,5,93,118,2,0 // vpbroadcastd 0x2765d(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,12,118,2,0 // vbroadcastss 0x2760c(%rip),%ymm1 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,80,118,2,0 // vbroadcastss 0x27650(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,3,118,2,0 // vpbroadcastd 0x27603(%rip),%ymm1 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,88,13,71,118,2,0 // vpbroadcastd 0x27647(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,246,117,2,0 // vbroadcastss 0x275f6(%rip),%ymm2 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,21,58,118,2,0 // vbroadcastss 0x2763a(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,237,117,2,0 // vpbroadcastd 0x275ed(%rip),%ymm2 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,88,21,49,118,2,0 // vpbroadcastd 0x27631(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,224,117,2,0 // vbroadcastss 0x275e0(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,36,118,2,0 // vbroadcastss 0x27624(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,214,117,2,0 // vpbroadcastd 0x275d6(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,88,5,26,118,2,0 // vpbroadcastd 0x2761a(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,200,117,2,0 // vbroadcastss 0x275c8(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,12,118,2,0 // vbroadcastss 0x2760c(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13290,27 +20416,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja 3d55 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b391 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 3e60 <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b49c <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq 3d55 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq 3d55 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq 3d55 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -13346,28 +20472,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne 3f25 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b561 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,205,116,2,0 // vpbroadcastd 0x274cd(%rip),%ymm4 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,88,37,17,117,2,0 // vpbroadcastd 0x27511(%rip),%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,192,116,2,0 // vbroadcastss 0x274c0(%rip),%ymm5 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,45,4,117,2,0 // vbroadcastss 0x27504(%rip),%ymm5 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,183,116,2,0 // vpbroadcastd 0x274b7(%rip),%ymm5 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,88,45,251,116,2,0 // vpbroadcastd 0x274fb(%rip),%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,170,116,2,0 // vbroadcastss 0x274aa(%rip),%ymm6 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,53,238,116,2,0 // vbroadcastss 0x274ee(%rip),%ymm6 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,161,116,2,0 // vpbroadcastd 0x274a1(%rip),%ymm6 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,88,53,229,116,2,0 // vpbroadcastd 0x274e5(%rip),%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,148,116,2,0 // vbroadcastss 0x27494(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,216,116,2,0 // vbroadcastss 0x274d8(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,138,116,2,0 // vpbroadcastd 0x2748a(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,88,5,206,116,2,0 // vpbroadcastd 0x274ce(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,124,116,2,0 // vbroadcastss 0x2747c(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,192,116,2,0 // vbroadcastss 0x274c0(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13376,27 +20502,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja 3ea1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b4dd <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 3fac <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b5e8 <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq 3ea1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq 3ea1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq 3ea1 <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -13475,25 +20601,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,204,114,2,0 // vpbroadcastd 0x272cc(%rip),%ymm0 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,88,5,16,115,2,0 // vpbroadcastd 0x27310(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,191,114,2,0 // vbroadcastss 0x272bf(%rip),%ymm1 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,3,115,2,0 // vbroadcastss 0x27303(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,182,114,2,0 // vpbroadcastd 0x272b6(%rip),%ymm1 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,88,13,250,114,2,0 // vpbroadcastd 0x272fa(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,169,114,2,0 // vbroadcastss 0x272a9(%rip),%ymm2 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,21,237,114,2,0 // vbroadcastss 0x272ed(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,160,114,2,0 // vpbroadcastd 0x272a0(%rip),%ymm2 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,88,21,228,114,2,0 // vpbroadcastd 0x272e4(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,147,114,2,0 // vbroadcastss 0x27293(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,215,114,2,0 // vbroadcastss 0x272d7(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,137,114,2,0 // vpbroadcastd 0x27289(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,88,5,205,114,2,0 // vpbroadcastd 0x272cd(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,123,114,2,0 // vbroadcastss 0x2727b(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,191,114,2,0 // vbroadcastss 0x272bf(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -13513,7 +20639,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,80,114,2,0 // vbroadcastss 0x27250(%rip),%ymm8 # 2b39c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,5,148,114,2,0 // vbroadcastss 0x27294(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13531,7 +20657,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 41af <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne b7eb <_sk_store_4444_hsw+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13539,22 +20665,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 41ab <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja b7e7 <_sk_store_4444_hsw+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 420c <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b848 <_sk_store_4444_hsw+0xdf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 41ab <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 41ab <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 41ab <_sk_store_4444_hsw+0x7e>
+ .byte 235,159 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13572,7 +20698,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1004224 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd97e4>
+ .byte 232,255,255,255,224 // callq ffffffffe100b860 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd97e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -13589,16 +20715,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne 429a <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne b8d6 <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,174,107,2,0 // vpand 0x26bae(%rip),%ymm3,%ymm0 # 2ae00 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
+ .byte 197,229,219,5,242,107,2,0 // vpand 0x26bf2(%rip),%ymm3,%ymm0 # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,157,112,2,0 // vbroadcastss 0x2709d(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,225,112,2,0 // vbroadcastss 0x270e1(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,179,107,2,0 // vpshufb 0x26bb3(%rip),%ymm3,%ymm1 # 2ae20 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
+ .byte 196,226,101,0,13,247,107,2,0 // vpshufb 0x26bf7(%rip),%ymm3,%ymm1 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,193,107,2,0 // vpshufb 0x26bc1(%rip),%ymm3,%ymm2 # 2ae40 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
+ .byte 196,226,101,0,21,5,108,2,0 // vpshufb 0x26c05(%rip),%ymm3,%ymm2 # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13611,21 +20737,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja 424a <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja b886 <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4340 <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b97c <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp 424a <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp b886 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq 424a <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b886 <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -13638,7 +20764,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq 424a <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b886 <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13672,16 +20798,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne 43ce <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne ba0a <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,218,106,2,0 // vpand 0x26ada(%rip),%ymm7,%ymm4 # 2ae60 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
+ .byte 197,197,219,37,30,107,2,0 // vpand 0x26b1e(%rip),%ymm7,%ymm4 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,105,111,2,0 // vbroadcastss 0x26f69(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,173,111,2,0 // vbroadcastss 0x26fad(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,223,106,2,0 // vpshufb 0x26adf(%rip),%ymm7,%ymm5 # 2ae80 <_sk_srcover_rgba_8888_sse2_lowp+0x440>
+ .byte 196,226,69,0,45,35,107,2,0 // vpshufb 0x26b23(%rip),%ymm7,%ymm5 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,237,106,2,0 // vpshufb 0x26aed(%rip),%ymm7,%ymm6 # 2aea0 <_sk_srcover_rgba_8888_sse2_lowp+0x460>
+ .byte 196,226,69,0,53,49,107,2,0 // vpshufb 0x26b31(%rip),%ymm7,%ymm6 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13694,21 +20820,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja 437e <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja b9ba <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4474 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bab0 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp 437e <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp b9ba <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq 437e <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b9ba <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -13721,7 +20847,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq 437e <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b9ba <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13765,14 +20891,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,217,105,2,0 // vpand 0x269d9(%rip),%ymm8,%ymm0 # 2aec0 <_sk_srcover_rgba_8888_sse2_lowp+0x480>
+ .byte 197,189,219,5,29,106,2,0 // vpand 0x26a1d(%rip),%ymm8,%ymm0 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,8,110,2,0 // vbroadcastss 0x26e08(%rip),%ymm3 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,29,76,110,2,0 // vbroadcastss 0x26e4c(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,223,105,2,0 // vpshufb 0x269df(%rip),%ymm8,%ymm1 # 2aee0 <_sk_srcover_rgba_8888_sse2_lowp+0x4a0>
+ .byte 196,226,61,0,13,35,106,2,0 // vpshufb 0x26a23(%rip),%ymm8,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,238,105,2,0 // vpshufb 0x269ee(%rip),%ymm8,%ymm2 # 2af00 <_sk_srcover_rgba_8888_sse2_lowp+0x4c0>
+ .byte 196,226,61,0,21,50,106,2,0 // vpshufb 0x26a32(%rip),%ymm8,%ymm2 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -13792,7 +20918,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,103,109,2,0 // vbroadcastss 0x26d67(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,171,109,2,0 // vbroadcastss 0x26dab(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13808,7 +20934,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 45a5 <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne bbe1 <_sk_store_8888_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -13816,17 +20942,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 45a1 <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja bbdd <_sk_store_8888_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # 4614 <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bc50 <_sk_store_8888_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 45a1 <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp bbdd <_sk_store_8888_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 45a1 <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp bbdd <_sk_store_8888_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -13834,7 +20960,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 45a1 <_sk_store_8888_hsw+0x74>
+ .byte 235,143 // jmp bbdd <_sk_store_8888_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -13846,7 +20972,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004628 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9be8>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00bc64 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9be8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -13866,16 +20992,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne 46a2 <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne bcde <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,198,104,2,0 // vpand 0x268c6(%rip),%ymm3,%ymm0 # 2af20 <_sk_srcover_rgba_8888_sse2_lowp+0x4e0>
+ .byte 197,229,219,5,10,105,2,0 // vpand 0x2690a(%rip),%ymm3,%ymm0 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,149,108,2,0 // vbroadcastss 0x26c95(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,217,108,2,0 // vbroadcastss 0x26cd9(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,203,104,2,0 // vpshufb 0x268cb(%rip),%ymm3,%ymm0 # 2af40 <_sk_srcover_rgba_8888_sse2_lowp+0x500>
+ .byte 196,226,101,0,5,15,105,2,0 // vpshufb 0x2690f(%rip),%ymm3,%ymm0 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,217,104,2,0 // vpshufb 0x268d9(%rip),%ymm3,%ymm0 # 2af60 <_sk_srcover_rgba_8888_sse2_lowp+0x520>
+ .byte 196,226,101,0,5,29,105,2,0 // vpshufb 0x2691d(%rip),%ymm3,%ymm0 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -13888,21 +21014,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja 4652 <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja bc8e <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 4748 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bd84 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp 4652 <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp bc8e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq 4652 <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bc8e <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -13915,7 +21041,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq 4652 <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bc8e <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13949,16 +21075,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne 47d6 <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne be12 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,242,103,2,0 // vpand 0x267f2(%rip),%ymm7,%ymm4 # 2af80 <_sk_srcover_rgba_8888_sse2_lowp+0x540>
+ .byte 197,197,219,37,54,104,2,0 // vpand 0x26836(%rip),%ymm7,%ymm4 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,97,107,2,0 // vbroadcastss 0x26b61(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,165,107,2,0 // vbroadcastss 0x26ba5(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,247,103,2,0 // vpshufb 0x267f7(%rip),%ymm7,%ymm4 # 2afa0 <_sk_srcover_rgba_8888_sse2_lowp+0x560>
+ .byte 196,226,69,0,37,59,104,2,0 // vpshufb 0x2683b(%rip),%ymm7,%ymm4 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,5,104,2,0 // vpshufb 0x26805(%rip),%ymm7,%ymm4 # 2afc0 <_sk_srcover_rgba_8888_sse2_lowp+0x580>
+ .byte 196,226,69,0,37,73,104,2,0 // vpshufb 0x26849(%rip),%ymm7,%ymm4 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -13971,21 +21097,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja 4786 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja bdc2 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 487c <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # beb8 <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp 4786 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp bdc2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq 4786 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bdc2 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -13998,7 +21124,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq 4786 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bdc2 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -14042,14 +21168,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,241,102,2,0 // vpand 0x266f1(%rip),%ymm8,%ymm0 # 2afe0 <_sk_srcover_rgba_8888_sse2_lowp+0x5a0>
+ .byte 197,189,219,5,53,103,2,0 // vpand 0x26735(%rip),%ymm8,%ymm0 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,0,106,2,0 // vbroadcastss 0x26a00(%rip),%ymm3 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,29,68,106,2,0 // vbroadcastss 0x26a44(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,247,102,2,0 // vpshufb 0x266f7(%rip),%ymm8,%ymm0 # 2b000 <_sk_srcover_rgba_8888_sse2_lowp+0x5c0>
+ .byte 196,226,61,0,5,59,103,2,0 // vpshufb 0x2673b(%rip),%ymm8,%ymm0 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,6,103,2,0 // vpshufb 0x26706(%rip),%ymm8,%ymm0 # 2b020 <_sk_srcover_rgba_8888_sse2_lowp+0x5e0>
+ .byte 196,226,61,0,5,74,103,2,0 // vpshufb 0x2674a(%rip),%ymm8,%ymm0 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -14069,7 +21195,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,95,105,2,0 // vbroadcastss 0x2695f(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,163,105,2,0 // vbroadcastss 0x269a3(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14085,7 +21211,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 49ad <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne bfe9 <_sk_store_bgra_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14093,17 +21219,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 49a9 <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja bfe5 <_sk_store_bgra_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # 4a1c <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c058 <_sk_store_bgra_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 49a9 <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 49a9 <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -14111,7 +21237,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 49a9 <_sk_store_bgra_hsw+0x74>
+ .byte 235,143 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -14123,7 +21249,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004a30 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9ff0>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c06c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9ff0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -14143,7 +21269,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4ab9 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne c0f5 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -14169,29 +21295,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4b1f <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je c15b <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4b1f <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb c15b <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4b2c <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je c168 <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4b2c <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb c168 <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4a6f <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c0ab <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4a6f <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c0ab <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4a6f <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 4a6f <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq 4a6f <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -14205,7 +21331,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 4bb6 <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne c1f2 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -14231,29 +21357,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4c1c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je c258 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4c1c <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb c258 <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4c29 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je c265 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4c29 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb c265 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 4b6c <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c1a8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 4b6c <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c1a8 <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 4b6c <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 4b6c <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq 4b6c <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -14326,7 +21452,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 4d66 <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne c3a2 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -14335,22 +21461,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb c39e <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp 4d62 <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp c39e <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -14365,7 +21491,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 4ea7 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne c4e3 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -14384,7 +21510,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,220,100,2,0 // vbroadcastss 0x264dc(%rip),%ymm10 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,21,32,101,2,0 // vbroadcastss 0x26520(%rip),%ymm10 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14412,29 +21538,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 4f0d <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je c549 <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 4f0d <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb c549 <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 4f1a <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je c556 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 4f1a <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb c556 <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 4df6 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je c432 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 4df6 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb c432 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 4df6 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 4df6 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 4df6 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -14451,7 +21577,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne 501b <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne c657 <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -14476,7 +21602,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,75,99,2,0 // vbroadcastss 0x2634b(%rip),%ymm9 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,13,143,99,2,0 // vbroadcastss 0x2638f(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14492,69 +21618,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,111,98,2,0 // vbroadcastss 0x2626f(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,179,98,2,0 // vbroadcastss 0x262b3(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 5053 <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne c68f <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 509d <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb c6d9 <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 50b7 <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne c6f3 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 50f8 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb c734 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 5109 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne c745 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 513c <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb c778 <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 4f83 <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -14568,7 +21694,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,52,98,2,0 // vbroadcastss 0x26234(%rip),%ymm8 # 2b3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,5,120,98,2,0 // vbroadcastss 0x26278(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -14606,7 +21732,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5250 <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne c88c <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -14615,22 +21741,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb c888 <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 524c <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp c888 <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -14639,7 +21765,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 540f <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja ca4b <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -14652,7 +21778,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 5420 <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # ca5c <_sk_load_f32_hsw+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -14715,7 +21841,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 53e9 <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp ca25 <_sk_load_f32_hsw+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -14727,7 +21853,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900543c <_sk_srcover_rgba_8888_sse2_lowp+0x28fda9fc>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900ca78 <_sk_srcover_rgba_8888_sse2_lowp+0x28fda9fc>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -14739,7 +21865,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 55b1 <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja cbed <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -14752,7 +21878,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 55c0 <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cbfc <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -14815,7 +21941,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 558b <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp cbc7 <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -14855,7 +21981,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 565f <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne cc9b <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -14868,22 +21994,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 565b <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 565b <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 565b <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 565b <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 565b <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 565b <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb cc97 <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 565b <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp cc97 <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -14922,7 +22048,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,109,91,2,0 // vmulss 0x25b6d(%rip),%xmm9,%xmm0 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,178,89,5,177,91,2,0 // vmulss 0x25bb1(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14945,7 +22071,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,28,91,2,0 // vmulss 0x25b1c(%rip),%xmm9,%xmm1 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,178,89,13,96,91,2,0 // vmulss 0x25b60(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14963,7 +22089,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,228,90,2,0 // vbroadcastss 0x25ae4(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,40,91,2,0 // vbroadcastss 0x25b28(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14981,9 +22107,9 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,219,90,2,0 // vbroadcastss 0x25adb(%rip),%ymm8 # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,5,31,91,2,0 // vbroadcastss 0x25b1f(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,177,90,2,0 // vbroadcastss 0x25ab1(%rip),%ymm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,13,245,90,2,0 // vbroadcastss 0x25af5(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -14999,11 +22125,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,157,91,2,0 // vbroadcastss 0x25b9d(%rip),%ymm3 # 2b3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
- .byte 196,98,125,24,5,152,91,2,0 // vbroadcastss 0x25b98(%rip),%ymm8 # 2b3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,226,125,24,29,229,91,2,0 // vbroadcastss 0x25be5(%rip),%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,5,216,91,2,0 // vbroadcastss 0x25bd8(%rip),%ymm8 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,137,91,2,0 // vbroadcastss 0x25b89(%rip),%ymm3 # 2b3ac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,226,125,24,29,205,91,2,0 // vbroadcastss 0x25bcd(%rip),%ymm3 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -15202,9 +22328,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js 5b1b <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js d157 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp 5b31 <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp d16d <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -15215,7 +22341,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 5b8d <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja d1c9 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -15231,7 +22357,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq 5c20 <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq d25c <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -15275,14 +22401,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,107,87,2,0 // vbroadcastss 0x2576b(%rip),%ymm0 # 2b3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
- .byte 196,226,125,24,13,102,87,2,0 // vbroadcastss 0x25766(%rip),%ymm1 # 2b3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,24,5,179,87,2,0 // vbroadcastss 0x257b3(%rip),%ymm0 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,13,166,87,2,0 // vbroadcastss 0x257a6(%rip),%ymm1 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,92,87,2,0 // vbroadcastss 0x2575c(%rip),%ymm0 # 2b3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,5,160,87,2,0 // vbroadcastss 0x257a0(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,82,87,2,0 // vbroadcastss 0x25752(%rip),%ymm1 # 2b3bc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,13,150,87,2,0 // vbroadcastss 0x25796(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,72,87,2,0 // vbroadcastss 0x25748(%rip),%ymm0 # 2b3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,5,140,87,2,0 // vbroadcastss 0x2578c(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -15297,11 +22423,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe 5d78 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe d3b4 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,217,85,2,0 // vbroadcastss 0x255d9(%rip),%ymm2 # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,226,125,24,21,29,86,2,0 // vbroadcastss 0x2561d(%rip),%ymm2 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -15309,10 +22435,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne 5cb8 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne d2f4 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 5d81 <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe d3bd <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -15344,7 +22470,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp 5dc5 <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp d401 <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -15404,24 +22530,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,100,85,2,0 // vbroadcastss 0x25564(%rip),%ymm13 # 2b3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
- .byte 196,98,125,24,53,95,85,2,0 // vbroadcastss 0x2555f(%rip),%ymm14 # 2b3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,45,168,85,2,0 // vbroadcastss 0x255a8(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,53,163,85,2,0 // vbroadcastss 0x255a3(%rip),%ymm14 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,85,85,2,0 // vbroadcastss 0x25555(%rip),%ymm13 # 2b3cc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,45,153,85,2,0 // vbroadcastss 0x25599(%rip),%ymm13 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,75,85,2,0 // vbroadcastss 0x2554b(%rip),%ymm14 # 2b3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,53,143,85,2,0 // vbroadcastss 0x2558f(%rip),%ymm14 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,54,85,2,0 // vbroadcastss 0x25536(%rip),%ymm10 # 2b3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,122,85,2,0 // vbroadcastss 0x2557a(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,204,83,2,0 // vbroadcastss 0x253cc(%rip),%ymm10 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,21,16,84,2,0 // vbroadcastss 0x25410(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,182,83,2,0 // vbroadcastss 0x253b6(%rip),%ymm10 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,21,250,83,2,0 // vbroadcastss 0x253fa(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -15449,23 +22575,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,182,84,2,0 // vbroadcastss 0x254b6(%rip),%ymm11 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,29,250,84,2,0 // vbroadcastss 0x254fa(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,149,84,2,0 // vbroadcastss 0x25495(%rip),%ymm9 # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,217,84,2,0 // vbroadcastss 0x254d9(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,120,84,2,0 // vbroadcastss 0x25478(%rip),%ymm9 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,13,188,84,2,0 // vbroadcastss 0x254bc(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,9,83,2,0 // vbroadcastss 0x25309(%rip),%ymm11 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,77,83,2,0 // vbroadcastss 0x2534d(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15484,23 +22610,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,30,84,2,0 // vbroadcastss 0x2541e(%rip),%ymm11 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,29,98,84,2,0 // vbroadcastss 0x25462(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,253,83,2,0 // vbroadcastss 0x253fd(%rip),%ymm9 # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,65,84,2,0 // vbroadcastss 0x25441(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,224,83,2,0 // vbroadcastss 0x253e0(%rip),%ymm9 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,13,36,84,2,0 // vbroadcastss 0x25424(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,113,82,2,0 // vbroadcastss 0x25271(%rip),%ymm11 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,181,82,2,0 // vbroadcastss 0x252b5(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -15518,14 +22644,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,140,83,2,0 // vbroadcastss 0x2538c(%rip),%ymm10 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,208,83,2,0 // vbroadcastss 0x253d0(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,111,83,2,0 // vbroadcastss 0x2536f(%rip),%ymm8 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,179,83,2,0 // vbroadcastss 0x253b3(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15568,7 +22694,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,158,81,2,0 // vbroadcastss 0x2519e(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,226,81,2,0 // vbroadcastss 0x251e2(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15602,9 +22728,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,142,82,2,0 // vbroadcastss 0x2528e(%rip),%ymm0 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,5,210,82,2,0 // vbroadcastss 0x252d2(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,37,81,2,0 // vbroadcastss 0x25125(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,105,81,2,0 // vbroadcastss 0x25169(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15615,7 +22741,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,5,81,2,0 // vbroadcastss 0x25105(%rip),%ymm0 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,5,73,81,2,0 // vbroadcastss 0x25149(%rip),%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15627,9 +22753,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,69,82,2,0 // vbroadcastss 0x25245(%rip),%ymm1 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,13,137,82,2,0 // vbroadcastss 0x25289(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,219,80,2,0 // vbroadcastss 0x250db(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,31,81,2,0 // vbroadcastss 0x2511f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15640,7 +22766,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,187,80,2,0 // vbroadcastss 0x250bb(%rip),%ymm1 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,13,255,80,2,0 // vbroadcastss 0x250ff(%rip),%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15652,13 +22778,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,254,81,2,0 // vbroadcastss 0x251fe(%rip),%ymm0 # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,5,66,82,2,0 // vbroadcastss 0x25242(%rip),%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,145,80,2,0 // vbroadcastss 0x25091(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,238,80,2,0 // vbroadcastss 0x250ee(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,29,217,81,2,0 // vbroadcastss 0x251d9(%rip),%ymm11 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,50,81,2,0 // vbroadcastss 0x25132(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,29,82,2,0 // vbroadcastss 0x2521d(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15670,16 +22796,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,176,81,2,0 // vbroadcastss 0x251b0(%rip),%ymm0 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,5,244,81,2,0 // vbroadcastss 0x251f4(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,71,80,2,0 // vbroadcastss 0x25047(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,139,80,2,0 // vbroadcastss 0x2508b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,161,81,2,0 // vbroadcastss 0x251a1(%rip),%ymm9 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 196,98,125,24,21,156,81,2,0 // vbroadcastss 0x2519c(%rip),%ymm10 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,13,233,81,2,0 // vbroadcastss 0x251e9(%rip),%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,220,81,2,0 // vbroadcastss 0x251dc(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,30,80,2,0 // vbroadcastss 0x2501e(%rip),%ymm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,13,98,80,2,0 // vbroadcastss 0x25062(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,132,81,2,0 // vbroadcastss 0x25184(%rip),%ymm10 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,21,200,81,2,0 // vbroadcastss 0x251c8(%rip),%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15690,14 +22816,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,244,79,2,0 // vbroadcastss 0x24ff4(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,56,80,2,0 // vbroadcastss 0x25038(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,78,81,2,0 // vbroadcastss 0x2514e(%rip),%ymm10 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 196,98,125,24,29,73,81,2,0 // vbroadcastss 0x25149(%rip),%ymm11 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,21,150,81,2,0 // vbroadcastss 0x25196(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,29,137,81,2,0 // vbroadcastss 0x25189(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,58,81,2,0 // vbroadcastss 0x2513a(%rip),%ymm8 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,5,126,81,2,0 // vbroadcastss 0x2517e(%rip),%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15708,12 +22834,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,22,81,2,0 // vbroadcastss 0x25116(%rip),%ymm0 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,5,94,81,2,0 // vbroadcastss 0x2515e(%rip),%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,7,80,2,0 // vbroadcastss 0x25007(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,29,242,80,2,0 // vbroadcastss 0x250f2(%rip),%ymm11 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,75,80,2,0 // vbroadcastss 0x2504b(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,54,81,2,0 // vbroadcastss 0x25136(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -15725,13 +22851,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,205,80,2,0 // vbroadcastss 0x250cd(%rip),%ymm1 # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,13,17,81,2,0 // vbroadcastss 0x25111(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,95,79,2,0 // vbroadcastss 0x24f5f(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,163,79,2,0 // vbroadcastss 0x24fa3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,188,79,2,0 // vbroadcastss 0x24fbc(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,29,167,80,2,0 // vbroadcastss 0x250a7(%rip),%ymm11 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,0,80,2,0 // vbroadcastss 0x25000(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,235,80,2,0 // vbroadcastss 0x250eb(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15743,16 +22869,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,126,80,2,0 // vbroadcastss 0x2507e(%rip),%ymm1 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,13,194,80,2,0 // vbroadcastss 0x250c2(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,20,79,2,0 // vbroadcastss 0x24f14(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,88,79,2,0 // vbroadcastss 0x24f58(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,110,80,2,0 // vbroadcastss 0x2506e(%rip),%ymm9 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 196,98,125,24,21,105,80,2,0 // vbroadcastss 0x25069(%rip),%ymm10 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,13,182,80,2,0 // vbroadcastss 0x250b6(%rip),%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,169,80,2,0 // vbroadcastss 0x250a9(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,235,78,2,0 // vbroadcastss 0x24eeb(%rip),%ymm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,13,47,79,2,0 // vbroadcastss 0x24f2f(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,81,80,2,0 // vbroadcastss 0x25051(%rip),%ymm10 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,21,149,80,2,0 // vbroadcastss 0x25095(%rip),%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15763,14 +22889,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,193,78,2,0 // vbroadcastss 0x24ec1(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,5,79,2,0 // vbroadcastss 0x24f05(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,26,80,2,0 // vbroadcastss 0x2501a(%rip),%ymm10 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
- .byte 196,98,125,24,29,21,80,2,0 // vbroadcastss 0x25015(%rip),%ymm11 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,21,98,80,2,0 // vbroadcastss 0x25062(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,29,85,80,2,0 // vbroadcastss 0x25055(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,6,80,2,0 // vbroadcastss 0x25006(%rip),%ymm8 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,5,74,80,2,0 // vbroadcastss 0x2504a(%rip),%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15781,12 +22907,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,226,79,2,0 // vbroadcastss 0x24fe2(%rip),%ymm1 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,13,42,80,2,0 // vbroadcastss 0x2502a(%rip),%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,210,78,2,0 // vbroadcastss 0x24ed2(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,29,189,79,2,0 // vbroadcastss 0x24fbd(%rip),%ymm11 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,22,79,2,0 // vbroadcastss 0x24f16(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,1,80,2,0 // vbroadcastss 0x25001(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -15926,7 +23052,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,127,77,2,0 // vpbroadcastd 0x24d7f(%rip),%ymm15 # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,98,125,88,61,195,77,2,0 // vpbroadcastd 0x24dc3(%rip),%ymm15 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -15938,13 +23064,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,205,75,2,0 // vpbroadcastd 0x24bcd(%rip),%ymm7 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,226,125,88,61,17,76,2,0 // vpbroadcastd 0x24c11(%rip),%ymm7 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,17,77,2,0 // vbroadcastss 0x24d11(%rip),%ymm0 # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,5,85,77,2,0 // vbroadcastss 0x24d55(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -16206,7 +23332,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,170,71,2,0 // vpbroadcastd 0x247aa(%rip),%ymm10 # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,98,125,88,21,238,71,2,0 // vpbroadcastd 0x247ee(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -16218,13 +23344,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,245,69,2,0 // vpbroadcastd 0x245f5(%rip),%ymm11 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,88,29,57,70,2,0 // vpbroadcastd 0x24639(%rip),%ymm11 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,58,71,2,0 // vbroadcastss 0x2473a(%rip),%ymm0 # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,5,126,71,2,0 // vbroadcastss 0x2477e(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -16657,7 +23783,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,24,60,2,0 // vbroadcastss 0x23c18(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,92,60,2,0 // vbroadcastss 0x23c5c(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -16689,13 +23815,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 776a <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae eda6 <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 772c <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja ed68 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -16714,10 +23840,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 76ed <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe ed29 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 775d <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je ed99 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16731,7 +23857,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 76df <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne ed1b <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -16756,15 +23882,15 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,168,56,2,0 // vaddps 0x238a8(%rip),%ymm0,%ymm0 # 2b040 <_sk_srcover_rgba_8888_sse2_lowp+0x600>
+ .byte 197,252,88,5,236,56,2,0 // vaddps 0x238ec(%rip),%ymm0,%ymm0 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,208,58,2,0 // vbroadcastss 0x23ad0(%rip),%ymm2 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,21,20,59,2,0 // vbroadcastss 0x23b14(%rip),%ymm2 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,197,58,2,0 // vbroadcastss 0x23ac5(%rip),%ymm2 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,21,9,59,2,0 // vbroadcastss 0x23b09(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16778,46 +23904,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,101,60,2,0 // vpaddd 0x23c65(%rip),%xmm8,%xmm9 # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
- .byte 197,57,254,5,109,60,2,0 // vpaddd 0x23c6d(%rip),%xmm8,%xmm8 # 2b460 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 197,57,254,13,169,60,2,0 // vpaddd 0x23ca9(%rip),%xmm8,%xmm9 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 197,57,254,5,177,60,2,0 // vpaddd 0x23cb1(%rip),%xmm8,%xmm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,117,58,2,0 // vbroadcastss 0x23a75(%rip),%ymm10 # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,21,185,58,2,0 // vbroadcastss 0x23ab9(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,36,68,2,0 // vmovddup 0x24424(%rip),%xmm12 # 2bc60 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
+ .byte 197,123,18,37,104,68,2,0 // vmovddup 0x24468(%rip),%xmm12 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,51,58,2,0 // vbroadcastss 0x23a33(%rip),%ymm13 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,24,45,119,58,2,0 // vbroadcastss 0x23a77(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,226,67,2,0 // vmovddup 0x243e2(%rip),%xmm14 # 2bc68 <_sk_srcover_rgba_8888_sse2_lowp+0x1228>
+ .byte 197,123,18,53,38,68,2,0 // vmovddup 0x24426(%rip),%xmm14 # 332e8 <_sk_srcover_rgba_8888_sse2_lowp+0x126c>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,226,57,2,0 // vbroadcastss 0x239e2(%rip),%ymm14 # 2b290 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,24,53,38,58,2,0 // vbroadcastss 0x23a26(%rip),%ymm14 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,152,67,2,0 // vmovddup 0x24398(%rip),%xmm13 # 2bc70 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
+ .byte 197,123,18,45,220,67,2,0 // vmovddup 0x243dc(%rip),%xmm13 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -16828,9 +23954,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,133,57,2,0 // vbroadcastss 0x23985(%rip),%ymm9 # 2b298 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,24,13,201,57,2,0 // vbroadcastss 0x239c9(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,123,57,2,0 // vbroadcastss 0x2397b(%rip),%ymm9 # 2b29c <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,24,13,191,57,2,0 // vbroadcastss 0x239bf(%rip),%ymm9 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -16864,7 +23990,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,3,57,2,0 // vbroadcastss 0x23903(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,71,57,2,0 // vbroadcastss 0x23947(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16875,7 +24001,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,234,56,2,0 // vbroadcastss 0x238ea(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,46,57,2,0 // vbroadcastss 0x2392e(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16921,7 +24047,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,137,56,2,0 // vbroadcastss 0x23889(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,205,56,2,0 // vbroadcastss 0x238cd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -16942,7 +24068,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,71,56,2,0 // vbroadcastss 0x23847(%rip),%ymm9 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,13,139,56,2,0 // vbroadcastss 0x2388b(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -16984,7 +24110,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,226,55,2,0 // vbroadcastss 0x237e2(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,38,56,2,0 // vbroadcastss 0x23826(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16997,7 +24123,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,193,55,2,0 // vbroadcastss 0x237c1(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,5,56,2,0 // vbroadcastss 0x23805(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -17010,7 +24136,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,160,55,2,0 // vbroadcastss 0x237a0(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,228,55,2,0 // vbroadcastss 0x237e4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -17027,7 +24153,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,111,55,2,0 // vbroadcastss 0x2376f(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,179,55,2,0 // vbroadcastss 0x237b3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -17055,7 +24181,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,42,55,2,0 // vbroadcastss 0x2372a(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,110,55,2,0 // vbroadcastss 0x2376e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17086,7 +24212,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,185,54,2,0 // vbroadcastss 0x236b9(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,253,54,2,0 // vbroadcastss 0x236fd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -17120,7 +24246,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,88,54,2,0 // vbroadcastss 0x23658(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,156,54,2,0 // vbroadcastss 0x2369c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17157,7 +24283,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,212,53,2,0 // vbroadcastss 0x235d4(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,24,54,2,0 // vbroadcastss 0x23618(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17183,7 +24309,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,124,53,2,0 // vbroadcastss 0x2357c(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,192,53,2,0 // vbroadcastss 0x235c0(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17212,7 +24338,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,24,53,2,0 // vbroadcastss 0x23518(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,92,53,2,0 // vbroadcastss 0x2355c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17235,7 +24361,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,207,52,2,0 // vbroadcastss 0x234cf(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,19,53,2,0 // vbroadcastss 0x23513(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -17246,7 +24372,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,182,52,2,0 // vbroadcastss 0x234b6(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,250,52,2,0 // vbroadcastss 0x234fa(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17308,7 +24434,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,186,51,2,0 // vbroadcastss 0x233ba(%rip),%ymm9 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,13,254,51,2,0 // vbroadcastss 0x233fe(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17365,7 +24491,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,197,50,2,0 // vbroadcastss 0x232c5(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,9,51,2,0 // vbroadcastss 0x23309(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17420,7 +24546,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,234,49,2,0 // vbroadcastss 0x231ea(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,46,50,2,0 // vbroadcastss 0x2322e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17486,10 +24612,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,241,48,2,0 // vbroadcastss 0x230f1(%rip),%ymm11 # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,29,53,49,2,0 // vbroadcastss 0x23135(%rip),%ymm11 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,226,48,2,0 // vbroadcastss 0x230e2(%rip),%ymm13 # 2b2a4 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 196,98,125,24,45,38,49,2,0 // vbroadcastss 0x23126(%rip),%ymm13 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -17500,7 +24626,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,140,48,2,0 // vbroadcastss 0x2308c(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,208,48,2,0 // vbroadcastss 0x230d0(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -17627,12 +24753,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,111,46,2,0 // vbroadcastss 0x22e6f(%rip),%ymm14 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,53,179,46,2,0 // vbroadcastss 0x22eb3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,101,46,2,0 // vbroadcastss 0x22e65(%rip),%ymm15 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,61,169,46,2,0 // vbroadcastss 0x22ea9(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,86,46,2,0 // vbroadcastss 0x22e56(%rip),%ymm0 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,226,125,24,5,154,46,2,0 // vbroadcastss 0x22e9a(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17693,7 +24819,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,3,45,2,0 // vbroadcastss 0x22d03(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,71,45,2,0 // vbroadcastss 0x22d47(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17750,12 +24876,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,45,44,2,0 // vbroadcastss 0x22c2d(%rip),%ymm14 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,53,113,44,2,0 // vbroadcastss 0x22c71(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,35,44,2,0 // vbroadcastss 0x22c23(%rip),%ymm15 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,61,103,44,2,0 // vbroadcastss 0x22c67(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,20,44,2,0 // vbroadcastss 0x22c14(%rip),%ymm0 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,226,125,24,5,88,44,2,0 // vbroadcastss 0x22c58(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -17816,7 +24942,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,193,42,2,0 // vbroadcastss 0x22ac1(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,5,43,2,0 // vbroadcastss 0x22b05(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17845,12 +24971,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,115,42,2,0 // vbroadcastss 0x22a73(%rip),%ymm13 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,45,183,42,2,0 // vbroadcastss 0x22ab7(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,105,42,2,0 // vbroadcastss 0x22a69(%rip),%ymm14 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,53,173,42,2,0 // vbroadcastss 0x22aad(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,90,42,2,0 // vbroadcastss 0x22a5a(%rip),%ymm15 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,61,158,42,2,0 // vbroadcastss 0x22a9e(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -17913,7 +25039,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,245,40,2,0 // vbroadcastss 0x228f5(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,57,41,2,0 // vbroadcastss 0x22939(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17943,12 +25069,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,163,40,2,0 // vbroadcastss 0x228a3(%rip),%ymm13 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,45,231,40,2,0 // vbroadcastss 0x228e7(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,153,40,2,0 // vbroadcastss 0x22899(%rip),%ymm14 # 2b2ac <_sk_srcover_rgba_8888_sse2_lowp+0x86c>
+ .byte 196,98,125,24,53,221,40,2,0 // vbroadcastss 0x228dd(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,138,40,2,0 // vbroadcastss 0x2288a(%rip),%ymm15 # 2b2b0 <_sk_srcover_rgba_8888_sse2_lowp+0x870>
+ .byte 196,98,125,24,61,206,40,2,0 // vbroadcastss 0x228ce(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -18011,7 +25137,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,37,39,2,0 // vbroadcastss 0x22725(%rip),%ymm0 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,5,105,39,2,0 // vbroadcastss 0x22769(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -18043,9 +25169,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 8cf8 <_sk_srcover_rgba_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 10334 <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,132,36,2,0 // vmovapd 0x22484(%rip),%ymm9 # 2b060 <_sk_srcover_rgba_8888_sse2_lowp+0x620>
+ .byte 197,125,40,13,200,36,2,0 // vmovapd 0x224c8(%rip),%ymm9 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -18063,9 +25189,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,75,38,2,0 // vbroadcastss 0x2264b(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,143,38,2,0 // vbroadcastss 0x2268f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,106,38,2,0 // vbroadcastss 0x2266a(%rip),%ymm9 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,13,174,38,2,0 // vbroadcastss 0x226ae(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -18098,7 +25224,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 8d30 <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 1036c <_sk_srcover_rgba_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18107,33 +25233,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 10210 <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 8e20 <_sk_srcover_rgba_8888_avx+0x272>
+ .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 1045c <_sk_srcover_rgba_8888_avx+0x272>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 10330 <_sk_srcover_rgba_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 8e3c <_sk_srcover_rgba_8888_avx+0x28e>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 10478 <_sk_srcover_rgba_8888_avx+0x28e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 10330 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -18147,10 +25273,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 8bd4 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 10330 <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -18158,7 +25284,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 8cf4 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,213,254,255,255 // jmpq 10330 <_sk_srcover_rgba_8888_avx+0x146>
.byte 144 // nop
.byte 5,255,255,255,82 // add $0x52ffffff,%eax
.byte 255 // (bad)
@@ -18170,7 +25296,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 8e35 <_sk_srcover_rgba_8888_avx+0x287>
+ .byte 127,255 // jg 10471 <_sk_srcover_rgba_8888_avx+0x287>
.byte 255 // (bad)
.byte 255,99,255 // jmpq *-0x1(%rbx)
.byte 255 // (bad)
@@ -18207,7 +25333,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,10,36,2,0 // vbroadcastss 0x2240a(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,78,36,2,0 // vbroadcastss 0x2244e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -18219,7 +25345,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,233,35,2,0 // vbroadcastss 0x223e9(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,45,36,2,0 // vbroadcastss 0x2242d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -18231,7 +25357,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,203,35,2,0 // vbroadcastss 0x223cb(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,15,36,2,0 // vbroadcastss 0x2240f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -18264,7 +25390,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,134,35,2,0 // vbroadcastss 0x22386(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,202,35,2,0 // vbroadcastss 0x223ca(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -18320,7 +25446,7 @@ FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,22,35,2,0 // vbroadcastss 0x22316(%rip),%ymm10 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,21,90,35,2,0 // vbroadcastss 0x2235a(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -18333,17 +25459,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,35,35,2,0 // vbroadcastss 0x22323(%rip),%ymm8 # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,103,35,2,0 // vbroadcastss 0x22367(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,1,35,2,0 // vbroadcastss 0x22301(%rip),%ymm11 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,29,69,35,2,0 // vbroadcastss 0x22345(%rip),%ymm11 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,7,35,2,0 // vbroadcastss 0x22307(%rip),%ymm13 # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,45,75,35,2,0 // vbroadcastss 0x2234b(%rip),%ymm13 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,248,34,2,0 // vbroadcastss 0x222f8(%rip),%ymm12 # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,37,60,35,2,0 // vbroadcastss 0x2233c(%rip),%ymm12 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,238,34,2,0 // vbroadcastss 0x222ee(%rip),%ymm14 # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,53,50,35,2,0 // vbroadcastss 0x22332(%rip),%ymm14 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18369,17 +25495,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,119,34,2,0 // vbroadcastss 0x22277(%rip),%ymm8 # 2b2b8 <_sk_srcover_rgba_8888_sse2_lowp+0x878>
+ .byte 196,98,125,24,5,187,34,2,0 // vbroadcastss 0x222bb(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,85,34,2,0 // vbroadcastss 0x22255(%rip),%ymm11 # 2b2a8 <_sk_srcover_rgba_8888_sse2_lowp+0x868>
+ .byte 196,98,125,24,29,153,34,2,0 // vbroadcastss 0x22299(%rip),%ymm11 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,91,34,2,0 // vbroadcastss 0x2225b(%rip),%ymm13 # 2b2bc <_sk_srcover_rgba_8888_sse2_lowp+0x87c>
+ .byte 196,98,125,24,45,159,34,2,0 // vbroadcastss 0x2229f(%rip),%ymm13 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,76,34,2,0 // vbroadcastss 0x2224c(%rip),%ymm12 # 2b2c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
+ .byte 196,98,125,24,37,144,34,2,0 // vbroadcastss 0x22290(%rip),%ymm12 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,66,34,2,0 // vbroadcastss 0x22242(%rip),%ymm14 # 2b2c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,24,53,134,34,2,0 // vbroadcastss 0x22286(%rip),%ymm14 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18406,20 +25532,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,215,33,2,0 // vbroadcastss 0x221d7(%rip),%ymm8 # 2b2c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,27,34,2,0 // vbroadcastss 0x2221b(%rip),%ymm8 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,209,33,2,0 // vbroadcastss 0x221d1(%rip),%ymm11 # 2b2d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,29,21,34,2,0 // vbroadcastss 0x22215(%rip),%ymm11 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,191,33,2,0 // vbroadcastss 0x221bf(%rip),%ymm13 # 2b2cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,45,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm13 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,180,33,2,0 // vbroadcastss 0x221b4(%rip),%ymm14 # 2b2d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,53,40,35,2,0 // vbroadcastss 0x22328(%rip),%ymm14 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,170,33,2,0 // vbroadcastss 0x221aa(%rip),%ymm15 # 2b2d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,61,30,35,2,0 // vbroadcastss 0x2231e(%rip),%ymm15 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,150,33,2,0 // vbroadcastss 0x22196(%rip),%ymm12 # 2b2dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,37,218,33,2,0 // vbroadcastss 0x221da(%rip),%ymm12 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18456,7 +25582,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,162,32,2,0 // vbroadcastss 0x220a2(%rip),%ymm11 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,29,230,32,2,0 // vbroadcastss 0x220e6(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -18466,19 +25592,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,207,32,2,0 // vbroadcastss 0x220cf(%rip),%ymm11 # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,29,19,33,2,0 // vbroadcastss 0x22113(%rip),%ymm11 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,189,32,2,0 // vbroadcastss 0x220bd(%rip),%ymm11 # 2b2e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,29,1,33,2,0 // vbroadcastss 0x22101(%rip),%ymm11 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,165,32,2,0 // vbroadcastss 0x220a5(%rip),%ymm2 # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,226,125,24,21,233,32,2,0 // vbroadcastss 0x220e9(%rip),%ymm2 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,32,32,2,0 // vbroadcastss 0x22020(%rip),%ymm12 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,37,100,32,2,0 // vbroadcastss 0x22064(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -18488,7 +25614,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,79,32,2,0 // vbroadcastss 0x2204f(%rip),%ymm8 # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,5,147,32,2,0 // vbroadcastss 0x22093(%rip),%ymm8 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18505,7 +25631,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,172,31,2,0 // vbroadcastss 0x21fac(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,240,31,2,0 // vbroadcastss 0x21ff0(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -18513,23 +25639,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,238,31,2,0 // vbroadcastss 0x21fee(%rip),%ymm11 # 2b2f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,29,50,32,2,0 // vbroadcastss 0x22032(%rip),%ymm11 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,192,31,2,0 // vbroadcastss 0x21fc0(%rip),%ymm12 # 2b2e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,37,4,32,2,0 // vbroadcastss 0x22004(%rip),%ymm12 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,186,31,2,0 // vbroadcastss 0x21fba(%rip),%ymm13 # 2b2e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,254,31,2,0 // vbroadcastss 0x21ffe(%rip),%ymm13 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,175,31,2,0 // vbroadcastss 0x21faf(%rip),%ymm1 # 2b2f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,13,243,31,2,0 // vbroadcastss 0x21ff3(%rip),%ymm1 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,134,31,2,0 // vbroadcastss 0x21f86(%rip),%ymm14 # 2b2ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,202,31,2,0 // vbroadcastss 0x21fca(%rip),%ymm14 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -18548,7 +25674,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,48,31,2,0 // vbroadcastss 0x21f30(%rip),%ymm0 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,226,125,24,5,116,31,2,0 // vbroadcastss 0x21f74(%rip),%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -18602,15 +25728,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 94ce <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 10b0a <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,143,31,2,0 // vpand 0x21f8f(%rip),%xmm8,%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,57,219,5,211,31,2,0 // vpand 0x21fd3(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,71,30,2,0 // vbroadcastss 0x21e47(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,139,30,2,0 // vbroadcastss 0x21e8b(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18623,15 +25749,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 9489 <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 10ac5 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 9568 <_sk_scale_u8_avx+0xfd>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 10ba4 <_sk_scale_u8_avx+0xfd>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 9489 <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 10ac5 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18639,7 +25765,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 9489 <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 10ac5 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18650,7 +25776,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 9489 <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 10ac5 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 143 // (bad)
.byte 255 // (bad)
@@ -18659,7 +25785,7 @@ _sk_scale_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf009578 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeb38>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf010bb4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeb38>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18682,26 +25808,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 9655 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 10c91 <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,56,29,2,0 // vbroadcastss 0x21d38(%rip),%ymm9 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,13,124,29,2,0 // vbroadcastss 0x21d7c(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,41,29,2,0 // vbroadcastss 0x21d29(%rip),%ymm10 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,109,29,2,0 // vbroadcastss 0x21d6d(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,31,29,2,0 // vbroadcastss 0x21d1f(%rip),%ymm10 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,99,29,2,0 // vbroadcastss 0x21d63(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,16,29,2,0 // vbroadcastss 0x21d10(%rip),%ymm11 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,84,29,2,0 // vbroadcastss 0x21d54(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,6,29,2,0 // vbroadcastss 0x21d06(%rip),%ymm11 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,74,29,2,0 // vbroadcastss 0x21d4a(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,247,28,2,0 // vbroadcastss 0x21cf7(%rip),%ymm11 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,59,29,2,0 // vbroadcastss 0x21d3b(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18720,27 +25846,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 95a9 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 10be5 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 96dc <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10d18 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 95a9 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 95a9 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 95a9 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -18792,15 +25918,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 97be <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 10dfa <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,195,28,2,0 // vpand 0x21cc3(%rip),%xmm8,%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,57,219,5,7,29,2,0 // vpand 0x21d07(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,123,27,2,0 // vbroadcastss 0x21b7b(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,191,27,2,0 // vbroadcastss 0x21bbf(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -18821,15 +25947,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 9755 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 10d91 <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 985c <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10e98 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 9755 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18837,7 +25963,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 9755 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18848,7 +25974,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 9755 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -18856,7 +25982,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00986c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdee2c>
+ .byte 232,255,255,255,221 // callq ffffffffde010ea8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdee2c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18879,26 +26005,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 996d <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 10fa9 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,68,26,2,0 // vbroadcastss 0x21a44(%rip),%ymm9 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,13,136,26,2,0 // vbroadcastss 0x21a88(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,53,26,2,0 // vbroadcastss 0x21a35(%rip),%ymm10 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,21,121,26,2,0 // vbroadcastss 0x21a79(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,43,26,2,0 // vbroadcastss 0x21a2b(%rip),%ymm10 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,111,26,2,0 // vbroadcastss 0x21a6f(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,28,26,2,0 // vbroadcastss 0x21a1c(%rip),%ymm11 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,29,96,26,2,0 // vbroadcastss 0x21a60(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,18,26,2,0 // vbroadcastss 0x21a12(%rip),%ymm11 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,29,86,26,2,0 // vbroadcastss 0x21a56(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,3,26,2,0 // vbroadcastss 0x21a03(%rip),%ymm11 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,71,26,2,0 // vbroadcastss 0x21a47(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18925,27 +26051,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 989d <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 10ed9 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 99f4 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11030 <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 989d <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 989d <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 989d <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -18973,9 +26099,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 9c28 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 11264 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,78,22,2,0 // vmovapd 0x2164e(%rip),%ymm9 # 2b080 <_sk_srcover_rgba_8888_sse2_lowp+0x640>
+ .byte 197,125,40,13,146,22,2,0 // vmovapd 0x21692(%rip),%ymm9 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -19067,7 +26193,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,226,22,2,0 // vbroadcastss 0x216e2(%rip),%ymm7 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,61,38,23,2,0 // vbroadcastss 0x21726(%rip),%ymm7 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -19077,21 +26203,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 9a2a <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 11066 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 9ce0 <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 1131c <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 9a2a <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 9a2a <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -19105,9 +26231,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 9a2a <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 9ce1 <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 1131d <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -19137,7 +26263,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 9f69 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 115a5 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -19153,7 +26279,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,176,22,2,0 // vmovdqa 0x216b0(%rip),%xmm11 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,121,111,29,244,22,2,0 // vmovdqa 0x216f4(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -19247,7 +26373,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,195,19,2,0 // vbroadcastss 0x213c3(%rip),%ymm6 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,226,125,24,53,7,20,2,0 // vbroadcastss 0x21407(%rip),%ymm6 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -19256,29 +26382,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 9fcf <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 1160b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 9fcf <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 1160b <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 9fdc <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 11618 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 9fdc <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 11618 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 9d39 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 11375 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 9d39 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 11375 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 9d39 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 9d39 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 9d39 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -19290,7 +26416,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne a239 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 11875 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -19311,7 +26437,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,176,19,2,0 // vmovdqa 0x213b0(%rip),%xmm14 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,121,111,53,244,19,2,0 // vmovdqa 0x213f4(%rip),%xmm14 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -19397,7 +26523,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,93,16,2,0 // vbroadcastss 0x2105d(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,161,16,2,0 // vbroadcastss 0x210a1(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -19405,70 +26531,70 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a271 <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 118ad <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a2bb <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 118f7 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a2d5 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 11911 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a316 <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 11952 <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a327 <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 11963 <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a35a <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 11996 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq a038 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,70,15,2,0 // vbroadcastss 0x20f46(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,138,15,2,0 // vbroadcastss 0x20f8a(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19603,7 +26729,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,254,12,2,0 // vbroadcastss 0x20cfe(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,66,13,2,0 // vbroadcastss 0x20d42(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -19731,7 +26857,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,179,10,2,0 // vbroadcastss 0x20ab3(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,247,10,2,0 // vbroadcastss 0x20af7(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -19968,36 +27094,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,68,7,2,0 // vbroadcastss 0x20744(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,37,136,7,2,0 // vbroadcastss 0x20788(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,58,7,2,0 // vbroadcastss 0x2073a(%rip),%ymm12 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,126,7,2,0 // vbroadcastss 0x2077e(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,144,6,2,0 // vbroadcastss 0x20690(%rip),%ymm12 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,37,212,6,2,0 // vbroadcastss 0x206d4(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,34,7,2,0 // vbroadcastss 0x20722(%rip),%ymm12 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,102,7,2,0 // vbroadcastss 0x20766(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,24,7,2,0 // vbroadcastss 0x20718(%rip),%ymm12 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,37,92,7,2,0 // vbroadcastss 0x2075c(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,9,7,2,0 // vbroadcastss 0x20709(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,77,7,2,0 // vbroadcastss 0x2074d(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,255,6,2,0 // vbroadcastss 0x206ff(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,67,7,2,0 // vbroadcastss 0x20743(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,227,6,2,0 // vbroadcastss 0x206e3(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,39,7,2,0 // vbroadcastss 0x20727(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,217,6,2,0 // vbroadcastss 0x206d9(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,29,7,2,0 // vbroadcastss 0x2071d(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,202,6,2,0 // vbroadcastss 0x206ca(%rip),%ymm11 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,14,7,2,0 // vbroadcastss 0x2070e(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,192,6,2,0 // vbroadcastss 0x206c0(%rip),%ymm11 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,4,7,2,0 // vbroadcastss 0x20704(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,177,6,2,0 // vbroadcastss 0x206b1(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,245,6,2,0 // vbroadcastss 0x206f5(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20005,7 +27131,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,201,5,2,0 // vbroadcastss 0x205c9(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,13,6,2,0 // vbroadcastss 0x2060d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20027,36 +27153,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,10,6,2,0 // vbroadcastss 0x2060a(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,37,78,6,2,0 // vbroadcastss 0x2064e(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,0,6,2,0 // vbroadcastss 0x20600(%rip),%ymm12 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,68,6,2,0 // vbroadcastss 0x20644(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,86,5,2,0 // vbroadcastss 0x20556(%rip),%ymm12 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,37,154,5,2,0 // vbroadcastss 0x2059a(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,232,5,2,0 // vbroadcastss 0x205e8(%rip),%ymm12 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,44,6,2,0 // vbroadcastss 0x2062c(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,222,5,2,0 // vbroadcastss 0x205de(%rip),%ymm12 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,37,34,6,2,0 // vbroadcastss 0x20622(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,207,5,2,0 // vbroadcastss 0x205cf(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,19,6,2,0 // vbroadcastss 0x20613(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,197,5,2,0 // vbroadcastss 0x205c5(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,9,6,2,0 // vbroadcastss 0x20609(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,169,5,2,0 // vbroadcastss 0x205a9(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,237,5,2,0 // vbroadcastss 0x205ed(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,159,5,2,0 // vbroadcastss 0x2059f(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,227,5,2,0 // vbroadcastss 0x205e3(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,144,5,2,0 // vbroadcastss 0x20590(%rip),%ymm11 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,212,5,2,0 // vbroadcastss 0x205d4(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,134,5,2,0 // vbroadcastss 0x20586(%rip),%ymm11 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,202,5,2,0 // vbroadcastss 0x205ca(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,119,5,2,0 // vbroadcastss 0x20577(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,187,5,2,0 // vbroadcastss 0x205bb(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20064,7 +27190,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,143,4,2,0 // vbroadcastss 0x2048f(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,211,4,2,0 // vbroadcastss 0x204d3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20086,36 +27212,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,208,4,2,0 // vbroadcastss 0x204d0(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,37,20,5,2,0 // vbroadcastss 0x20514(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,198,4,2,0 // vbroadcastss 0x204c6(%rip),%ymm12 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,10,5,2,0 // vbroadcastss 0x2050a(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,28,4,2,0 // vbroadcastss 0x2041c(%rip),%ymm12 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,37,96,4,2,0 // vbroadcastss 0x20460(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,174,4,2,0 // vbroadcastss 0x204ae(%rip),%ymm12 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,242,4,2,0 // vbroadcastss 0x204f2(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,164,4,2,0 // vbroadcastss 0x204a4(%rip),%ymm12 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,37,232,4,2,0 // vbroadcastss 0x204e8(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,149,4,2,0 // vbroadcastss 0x20495(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,217,4,2,0 // vbroadcastss 0x204d9(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,139,4,2,0 // vbroadcastss 0x2048b(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,207,4,2,0 // vbroadcastss 0x204cf(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,111,4,2,0 // vbroadcastss 0x2046f(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,179,4,2,0 // vbroadcastss 0x204b3(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,101,4,2,0 // vbroadcastss 0x20465(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,169,4,2,0 // vbroadcastss 0x204a9(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,86,4,2,0 // vbroadcastss 0x20456(%rip),%ymm11 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,154,4,2,0 // vbroadcastss 0x2049a(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,76,4,2,0 // vbroadcastss 0x2044c(%rip),%ymm11 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,144,4,2,0 // vbroadcastss 0x20490(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,61,4,2,0 // vbroadcastss 0x2043d(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,129,4,2,0 // vbroadcastss 0x20481(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20123,7 +27249,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,85,3,2,0 // vbroadcastss 0x20355(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,153,3,2,0 // vbroadcastss 0x20399(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20145,36 +27271,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,150,3,2,0 // vbroadcastss 0x20396(%rip),%ymm12 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,37,218,3,2,0 // vbroadcastss 0x203da(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,140,3,2,0 // vbroadcastss 0x2038c(%rip),%ymm12 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,208,3,2,0 // vbroadcastss 0x203d0(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,226,2,2,0 // vbroadcastss 0x202e2(%rip),%ymm12 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,37,38,3,2,0 // vbroadcastss 0x20326(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,116,3,2,0 // vbroadcastss 0x20374(%rip),%ymm12 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,184,3,2,0 // vbroadcastss 0x203b8(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,106,3,2,0 // vbroadcastss 0x2036a(%rip),%ymm12 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,37,174,3,2,0 // vbroadcastss 0x203ae(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,91,3,2,0 // vbroadcastss 0x2035b(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,159,3,2,0 // vbroadcastss 0x2039f(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,81,3,2,0 // vbroadcastss 0x20351(%rip),%ymm12 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,149,3,2,0 // vbroadcastss 0x20395(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,53,3,2,0 // vbroadcastss 0x20335(%rip),%ymm11 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,121,3,2,0 // vbroadcastss 0x20379(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,43,3,2,0 // vbroadcastss 0x2032b(%rip),%ymm11 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,111,3,2,0 // vbroadcastss 0x2036f(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,28,3,2,0 // vbroadcastss 0x2031c(%rip),%ymm11 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,29,96,3,2,0 // vbroadcastss 0x20360(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,18,3,2,0 // vbroadcastss 0x20312(%rip),%ymm11 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,29,86,3,2,0 // vbroadcastss 0x20356(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,3,3,2,0 // vbroadcastss 0x20303(%rip),%ymm10 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,21,71,3,2,0 // vbroadcastss 0x20347(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -20182,7 +27308,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,27,2,2,0 // vbroadcastss 0x2021b(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,95,2,2,0 // vbroadcastss 0x2025f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20201,34 +27327,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,110,2,2,0 // vbroadcastss 0x2026e(%rip),%ymm8 # 2b31c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,5,178,2,2,0 // vbroadcastss 0x202b2(%rip),%ymm8 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,100,2,2,0 // vbroadcastss 0x20264(%rip),%ymm9 # 2b320 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,13,168,2,2,0 // vbroadcastss 0x202a8(%rip),%ymm9 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,186,1,2,0 // vbroadcastss 0x201ba(%rip),%ymm4 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,37,254,1,2,0 // vbroadcastss 0x201fe(%rip),%ymm4 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,77,2,2,0 // vbroadcastss 0x2024d(%rip),%ymm10 # 2b324 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,21,145,2,2,0 // vbroadcastss 0x20291(%rip),%ymm10 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,67,2,2,0 // vbroadcastss 0x20243(%rip),%ymm11 # 2b328 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,135,2,2,0 // vbroadcastss 0x20287(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,53,2,2,0 // vbroadcastss 0x20235(%rip),%ymm12 # 2b32c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,37,121,2,2,0 // vbroadcastss 0x20279(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,43,2,2,0 // vbroadcastss 0x2022b(%rip),%ymm13 # 2b330 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,45,111,2,2,0 // vbroadcastss 0x2026f(%rip),%ymm13 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,10,2,2,0 // vbroadcastss 0x2020a(%rip),%ymm15 # 2b334 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,61,78,2,2,0 // vbroadcastss 0x2024e(%rip),%ymm15 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,0,2,2,0 // vbroadcastss 0x20200(%rip),%ymm3 # 2b338 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,29,68,2,2,0 // vbroadcastss 0x20244(%rip),%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,243,1,2,0 // vbroadcastss 0x201f3(%rip),%ymm2 # 2b33c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,21,55,2,2,0 // vbroadcastss 0x20237(%rip),%ymm2 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,234,1,2,0 // vbroadcastss 0x201ea(%rip),%ymm6 # 2b340 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,53,46,2,2,0 // vbroadcastss 0x2022e(%rip),%ymm6 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -20270,7 +27396,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,45,1,2,0 // vbroadcastss 0x2012d(%rip),%ymm2 # 2b344 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,21,113,1,2,0 // vbroadcastss 0x20171(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -20290,31 +27416,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,233,0,2,0 // vbroadcastss 0x200e9(%rip),%ymm8 # 2b348 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,5,45,1,2,0 // vbroadcastss 0x2012d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,71,0,2,0 // vbroadcastss 0x20047(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,139,0,2,0 // vbroadcastss 0x2008b(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,209,0,2,0 // vbroadcastss 0x200d1(%rip),%ymm9 # 2b34c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,13,21,1,2,0 // vbroadcastss 0x20115(%rip),%ymm9 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,189,0,2,0 // vbroadcastss 0x200bd(%rip),%ymm8 # 2b350 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,5,1,1,2,0 // vbroadcastss 0x20101(%rip),%ymm8 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,179,0,2,0 // vbroadcastss 0x200b3(%rip),%ymm8 # 2b354 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,5,247,0,2,0 // vbroadcastss 0x200f7(%rip),%ymm8 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,169,0,2,0 // vbroadcastss 0x200a9(%rip),%ymm8 # 2b358 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,5,237,0,2,0 // vbroadcastss 0x200ed(%rip),%ymm8 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,155,0,2,0 // vbroadcastss 0x2009b(%rip),%ymm8 # 2b35c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,5,223,0,2,0 // vbroadcastss 0x200df(%rip),%ymm8 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,132,0,2,0 // vbroadcastss 0x20084(%rip),%ymm9 # 2b360 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,13,200,0,2,0 // vbroadcastss 0x200c8(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,121,0,2,0 // vbroadcastss 0x20079(%rip),%ymm11 # 2b364 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,29,189,0,2,0 // vbroadcastss 0x200bd(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,111,0,2,0 // vbroadcastss 0x2006f(%rip),%ymm12 # 2b368 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,179,0,2,0 // vbroadcastss 0x200b3(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -20329,9 +27455,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,37,0,2,0 // vbroadcastss 0x20025(%rip),%ymm0 # 2b36c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,226,125,24,5,105,0,2,0 // vbroadcastss 0x20069(%rip),%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,28,0,2,0 // vbroadcastss 0x2001c(%rip),%ymm8 # 2b370 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,5,96,0,2,0 // vbroadcastss 0x20060(%rip),%ymm8 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20347,15 +27473,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne b3b9 <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 129f5 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,157,0,2,0 // vpand 0x2009d(%rip),%xmm0,%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,249,219,5,225,0,2,0 // vpand 0x200e1(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,87,255,1,0 // vbroadcastss 0x1ff57(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,155,255,1,0 // vbroadcastss 0x1ff9b(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20367,15 +27493,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja b37b <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 129b7 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b450 <_sk_load_a8_avx+0xf3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12a8c <_sk_load_a8_avx+0xf3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp b37b <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 129b7 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -20383,7 +27509,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq b37b <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 129b7 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -20394,7 +27520,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq b37b <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 129b7 <_sk_load_a8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -20403,7 +27529,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b460 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0a20>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012a9c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0a20>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20425,15 +27551,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne b4c8 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 12b04 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,142,255,1,0 // vpand 0x1ff8e(%rip),%xmm4,%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,217,219,37,210,255,1,0 // vpand 0x1ffd2(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,72,254,1,0 // vbroadcastss 0x1fe48(%rip),%ymm5 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,45,140,254,1,0 // vbroadcastss 0x1fe8c(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -20445,15 +27571,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja b48a <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 12ac6 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # b560 <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12b9c <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp b48a <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 12ac6 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -20461,7 +27587,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq b48a <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12ac6 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -20472,7 +27598,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq b48a <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12ac6 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -20481,7 +27607,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00b570 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0b30>
+ .byte 232,255,255,255,221 // callq ffffffffde012bac <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0b30>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -20561,7 +27687,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,78,252,1,0 // vbroadcastss 0x1fc4e(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,146,252,1,0 // vbroadcastss 0x1fc92(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -20584,14 +27710,14 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,206,251,1,0 // vbroadcastss 0x1fbce(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,18,252,1,0 // vbroadcastss 0x1fc12(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b70e <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 12d4a <_sk_store_a8_avx+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20599,25 +27725,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b70a <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 12d46 <_sk_store_a8_avx+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # b784 <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12dc0 <_sk_store_a8_avx+0xba>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp b70a <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 12d46 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,223,252,1,0 // vpshufb 0x1fcdf(%rip),%xmm8,%xmm8 # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,57,0,5,35,253,1,0 // vpshufb 0x1fd23(%rip),%xmm8,%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp b70a <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 12d46 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,197,252,1,0 // vpshufb 0x1fcc5(%rip),%xmm8,%xmm8 # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,57,0,5,9,253,1,0 // vpshufb 0x1fd09(%rip),%xmm8,%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp b70a <_sk_store_a8_avx+0x40>
+ .byte 235,135 // jmp 12d46 <_sk_store_a8_avx+0x40>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -20650,18 +27776,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne b801 <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 12e3d <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,90,252,1,0 // vpand 0x1fc5a(%rip),%xmm0,%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,249,219,5,158,252,1,0 // vpand 0x1fc9e(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,20,251,1,0 // vbroadcastss 0x1fb14(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,88,251,1,0 // vbroadcastss 0x1fb58(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,145,250,1,0 // vbroadcastss 0x1fa91(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,213,250,1,0 // vbroadcastss 0x1fad5(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -20670,15 +27796,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja b7be <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 12dfa <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b898 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12ed4 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp b7be <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 12dfa <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -20686,7 +27812,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq b7be <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12dfa <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -20697,7 +27823,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq b7be <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12dfa <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -20706,7 +27832,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b8a8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e68>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012ee4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e68>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20728,18 +27854,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne b915 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 12f51 <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,70,251,1,0 // vpand 0x1fb46(%rip),%xmm4,%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 197,217,219,37,138,251,1,0 // vpand 0x1fb8a(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,0,250,1,0 // vbroadcastss 0x1fa00(%rip),%ymm5 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,45,68,250,1,0 // vbroadcastss 0x1fa44(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,125,249,1,0 // vbroadcastss 0x1f97d(%rip),%ymm7 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,61,193,249,1,0 // vbroadcastss 0x1f9c1(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -20748,15 +27874,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja b8d2 <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 12f0e <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # b9ac <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12fe8 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp b8d2 <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 12f0e <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -20764,7 +27890,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq b8d2 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12f0e <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -20775,7 +27901,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq b8d2 <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12f0e <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -20784,7 +27910,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00b9bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f7c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012ff8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f7c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20864,10 +27990,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,2,248,1,0 // vbroadcastss 0x1f802(%rip),%ymm1 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,226,125,24,13,70,248,1,0 // vbroadcastss 0x1f846(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,127,247,1,0 // vbroadcastss 0x1f77f(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,195,247,1,0 // vbroadcastss 0x1f7c3(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20889,56 +28015,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne bbbc <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 131f8 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,162,247,1,0 // vbroadcastss 0x1f7a2(%rip),%ymm0 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,24,5,230,247,1,0 // vbroadcastss 0x1f7e6(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,149,247,1,0 // vbroadcastss 0x1f795(%rip),%ymm1 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,13,217,247,1,0 // vbroadcastss 0x1f7d9(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,140,247,1,0 // vbroadcastss 0x1f78c(%rip),%ymm1 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,24,13,208,247,1,0 // vbroadcastss 0x1f7d0(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,127,247,1,0 // vbroadcastss 0x1f77f(%rip),%ymm3 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,29,195,247,1,0 // vbroadcastss 0x1f7c3(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,118,247,1,0 // vbroadcastss 0x1f776(%rip),%ymm3 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,24,29,186,247,1,0 // vbroadcastss 0x1f7ba(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,105,247,1,0 // vbroadcastss 0x1f769(%rip),%ymm3 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,29,173,247,1,0 // vbroadcastss 0x1f7ad(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,206,246,1,0 // vbroadcastss 0x1f6ce(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,18,247,1,0 // vbroadcastss 0x1f712(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja bb40 <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 1317c <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # bc40 <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 1327c <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq bb40 <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq bb40 <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq bb40 <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -20970,56 +28096,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne bcfd <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13339 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,97,246,1,0 // vbroadcastss 0x1f661(%rip),%ymm4 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,24,37,165,246,1,0 // vbroadcastss 0x1f6a5(%rip),%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,84,246,1,0 // vbroadcastss 0x1f654(%rip),%ymm5 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,45,152,246,1,0 // vbroadcastss 0x1f698(%rip),%ymm5 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,75,246,1,0 // vbroadcastss 0x1f64b(%rip),%ymm5 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,24,45,143,246,1,0 // vbroadcastss 0x1f68f(%rip),%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,62,246,1,0 // vbroadcastss 0x1f63e(%rip),%ymm7 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,61,130,246,1,0 // vbroadcastss 0x1f682(%rip),%ymm7 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,53,246,1,0 // vbroadcastss 0x1f635(%rip),%ymm7 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,24,61,121,246,1,0 // vbroadcastss 0x1f679(%rip),%ymm7 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,40,246,1,0 // vbroadcastss 0x1f628(%rip),%ymm7 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,61,108,246,1,0 // vbroadcastss 0x1f66c(%rip),%ymm7 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,141,245,1,0 // vbroadcastss 0x1f58d(%rip),%ymm7 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,61,209,245,1,0 // vbroadcastss 0x1f5d1(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja bc81 <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 132bd <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # bd84 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 133c0 <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq bc81 <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq bc81 <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq bc81 <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -21112,23 +28238,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,49,244,1,0 // vbroadcastss 0x1f431(%rip),%ymm0 # 2b300 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,226,125,24,5,117,244,1,0 // vbroadcastss 0x1f475(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,36,244,1,0 // vbroadcastss 0x1f424(%rip),%ymm1 # 2b304 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,226,125,24,13,104,244,1,0 // vbroadcastss 0x1f468(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,27,244,1,0 // vbroadcastss 0x1f41b(%rip),%ymm1 # 2b308 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,226,125,24,13,95,244,1,0 // vbroadcastss 0x1f45f(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,14,244,1,0 // vbroadcastss 0x1f40e(%rip),%ymm3 # 2b30c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,226,125,24,29,82,244,1,0 // vbroadcastss 0x1f452(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,5,244,1,0 // vbroadcastss 0x1f405(%rip),%ymm3 # 2b310 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,226,125,24,29,73,244,1,0 // vbroadcastss 0x1f449(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,248,243,1,0 // vbroadcastss 0x1f3f8(%rip),%ymm3 # 2b314 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,226,125,24,29,60,244,1,0 // vbroadcastss 0x1f43c(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,93,243,1,0 // vbroadcastss 0x1f35d(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,161,243,1,0 // vbroadcastss 0x1f3a1(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -21147,14 +28273,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,32,244,1,0 // vbroadcastss 0x1f420(%rip),%ymm8 # 2b374 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,5,100,244,1,0 // vbroadcastss 0x1f464(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,249,243,1,0 // vbroadcastss 0x1f3f9(%rip),%ymm10 # 2b378 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,21,61,244,1,0 // vbroadcastss 0x1f43d(%rip),%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -21168,7 +28294,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bfcf <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 1360b <_sk_store_565_avx+0x9a>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21176,22 +28302,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bfcb <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 13607 <_sk_store_565_avx+0x96>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # c02c <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 13668 <_sk_store_565_avx+0xf7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp bfcb <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 13607 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp bfcb <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 13607 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp bfcb <_sk_store_565_avx+0x96>
+ .byte 235,159 // jmp 13607 <_sk_store_565_avx+0x96>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21209,7 +28335,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c044 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1604>
+ .byte 232,255,255,255,224 // callq ffffffffe1013680 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1604>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21226,31 +28352,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne c101 <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 1373d <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,241,242,1,0 // vbroadcastss 0x1f2f1(%rip),%ymm0 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,5,53,243,1,0 // vbroadcastss 0x1f335(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,228,242,1,0 // vbroadcastss 0x1f2e4(%rip),%ymm1 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,40,243,1,0 // vbroadcastss 0x1f328(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,219,242,1,0 // vbroadcastss 0x1f2db(%rip),%ymm1 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,13,31,243,1,0 // vbroadcastss 0x1f31f(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,206,242,1,0 // vbroadcastss 0x1f2ce(%rip),%ymm2 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,21,18,243,1,0 // vbroadcastss 0x1f312(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,197,242,1,0 // vbroadcastss 0x1f2c5(%rip),%ymm2 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,21,9,243,1,0 // vbroadcastss 0x1f309(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,184,242,1,0 // vbroadcastss 0x1f2b8(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,252,242,1,0 // vbroadcastss 0x1f2fc(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,174,242,1,0 // vbroadcastss 0x1f2ae(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,242,242,1,0 // vbroadcastss 0x1f2f2(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,160,242,1,0 // vbroadcastss 0x1f2a0(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,228,242,1,0 // vbroadcastss 0x1f2e4(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21259,27 +28385,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja c06d <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 136a9 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c188 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 137c4 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq c06d <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq c06d <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq c06d <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -21315,31 +28441,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne c25d <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 13899 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,149,241,1,0 // vbroadcastss 0x1f195(%rip),%ymm4 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,37,217,241,1,0 // vbroadcastss 0x1f1d9(%rip),%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,136,241,1,0 // vbroadcastss 0x1f188(%rip),%ymm5 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,45,204,241,1,0 // vbroadcastss 0x1f1cc(%rip),%ymm5 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,127,241,1,0 // vbroadcastss 0x1f17f(%rip),%ymm5 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,45,195,241,1,0 // vbroadcastss 0x1f1c3(%rip),%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,114,241,1,0 // vbroadcastss 0x1f172(%rip),%ymm6 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,53,182,241,1,0 // vbroadcastss 0x1f1b6(%rip),%ymm6 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,105,241,1,0 // vbroadcastss 0x1f169(%rip),%ymm6 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,53,173,241,1,0 // vbroadcastss 0x1f1ad(%rip),%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,92,241,1,0 // vbroadcastss 0x1f15c(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,160,241,1,0 // vbroadcastss 0x1f1a0(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,82,241,1,0 // vbroadcastss 0x1f152(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,150,241,1,0 // vbroadcastss 0x1f196(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,68,241,1,0 // vbroadcastss 0x1f144(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,136,241,1,0 // vbroadcastss 0x1f188(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21348,27 +28474,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja c1c9 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 13805 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # c2e4 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13920 <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq c1c9 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq c1c9 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq c1c9 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -21461,25 +28587,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,77,239,1,0 // vbroadcastss 0x1ef4d(%rip),%ymm0 # 2b37c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,5,145,239,1,0 // vbroadcastss 0x1ef91(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,64,239,1,0 // vbroadcastss 0x1ef40(%rip),%ymm1 # 2b380 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,132,239,1,0 // vbroadcastss 0x1ef84(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,55,239,1,0 // vbroadcastss 0x1ef37(%rip),%ymm1 # 2b384 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,13,123,239,1,0 // vbroadcastss 0x1ef7b(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,42,239,1,0 // vbroadcastss 0x1ef2a(%rip),%ymm2 # 2b388 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,21,110,239,1,0 // vbroadcastss 0x1ef6e(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,33,239,1,0 // vbroadcastss 0x1ef21(%rip),%ymm2 # 2b38c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,226,125,24,21,101,239,1,0 // vbroadcastss 0x1ef65(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,20,239,1,0 // vbroadcastss 0x1ef14(%rip),%ymm8 # 2b390 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,88,239,1,0 // vbroadcastss 0x1ef58(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,10,239,1,0 // vbroadcastss 0x1ef0a(%rip),%ymm8 # 2b394 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,78,239,1,0 // vbroadcastss 0x1ef4e(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,252,238,1,0 // vbroadcastss 0x1eefc(%rip),%ymm8 # 2b398 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,64,239,1,0 // vbroadcastss 0x1ef40(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -21500,7 +28626,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,208,238,1,0 // vbroadcastss 0x1eed0(%rip),%ymm8 # 2b39c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,5,20,239,1,0 // vbroadcastss 0x1ef14(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -21527,7 +28653,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c565 <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 13ba1 <_sk_store_4444_avx+0xb8>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21535,22 +28661,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja c561 <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 13b9d <_sk_store_4444_avx+0xb4>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # c5c4 <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13c00 <_sk_store_4444_avx+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp c561 <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 13b9d <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp c561 <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 13b9d <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp c561 <_sk_store_4444_avx+0xb4>
+ .byte 235,159 // jmp 13b9d <_sk_store_4444_avx+0xb4>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -21586,12 +28712,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne c687 <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13cc3 <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,146,234,1,0 // vmovapd 0x1ea92(%rip),%ymm10 # 2b0a0 <_sk_srcover_rgba_8888_sse2_lowp+0x660>
+ .byte 197,125,40,21,214,234,1,0 // vmovapd 0x1ead6(%rip),%ymm10 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,220,236,1,0 // vbroadcastss 0x1ecdc(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,32,237,1,0 // vbroadcastss 0x1ed20(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21618,21 +28744,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja c606 <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13c42 <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # c73c <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13d78 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq c606 <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq c606 <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -21646,9 +28772,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq c606 <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js c73d <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 13d79 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -21681,12 +28807,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne c7ff <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13e3b <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,58,233,1,0 // vmovapd 0x1e93a(%rip),%ymm10 # 2b0c0 <_sk_srcover_rgba_8888_sse2_lowp+0x680>
+ .byte 197,125,40,21,126,233,1,0 // vmovapd 0x1e97e(%rip),%ymm10 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,100,235,1,0 // vbroadcastss 0x1eb64(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,168,235,1,0 // vbroadcastss 0x1eba8(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -21713,21 +28839,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja c77e <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13dba <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # c8b4 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13ef0 <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq c77e <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq c77e <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -21741,9 +28867,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq c77e <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js c8b5 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 13ef1 <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -21821,10 +28947,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,12,231,1,0 // vmovaps 0x1e70c(%rip),%ymm10 # 2b0e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6a0>
+ .byte 197,124,40,21,80,231,1,0 // vmovaps 0x1e750(%rip),%ymm10 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,22,233,1,0 // vbroadcastss 0x1e916(%rip),%ymm9 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,13,90,233,1,0 // vbroadcastss 0x1e95a(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -21861,7 +28987,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,70,232,1,0 // vbroadcastss 0x1e846(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,138,232,1,0 // vbroadcastss 0x1e88a(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21886,7 +29012,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne cafc <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 14138 <_sk_store_8888_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21894,17 +29020,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja caf8 <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 14134 <_sk_store_8888_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # cb6c <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 141a8 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp caf8 <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 14134 <_sk_store_8888_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp caf8 <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 14134 <_sk_store_8888_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -21912,7 +29038,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp caf8 <_sk_store_8888_avx+0xaa>
+ .byte 235,143 // jmp 14134 <_sk_store_8888_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -21924,7 +29050,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb00cb80 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2140>
+ .byte 232,255,255,255,218 // callq ffffffffdb0141bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2140>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -21944,12 +29070,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne cc2f <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1426b <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,74,229,1,0 // vmovapd 0x1e54a(%rip),%ymm10 # 2b100 <_sk_srcover_rgba_8888_sse2_lowp+0x6c0>
+ .byte 197,125,40,21,142,229,1,0 // vmovapd 0x1e58e(%rip),%ymm10 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,52,231,1,0 // vbroadcastss 0x1e734(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,120,231,1,0 // vbroadcastss 0x1e778(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -21976,21 +29102,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja cbae <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 141ea <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # cce4 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14320 <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq cbae <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq cbae <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -22004,9 +29130,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq cbae <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js cce5 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 14321 <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -22039,12 +29165,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne cda7 <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 143e3 <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,242,227,1,0 // vmovapd 0x1e3f2(%rip),%ymm10 # 2b120 <_sk_srcover_rgba_8888_sse2_lowp+0x6e0>
+ .byte 197,125,40,21,54,228,1,0 // vmovapd 0x1e436(%rip),%ymm10 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,188,229,1,0 // vbroadcastss 0x1e5bc(%rip),%ymm8 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,0,230,1,0 // vbroadcastss 0x1e600(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -22071,21 +29197,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja cd26 <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 14362 <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # ce5c <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14498 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq cd26 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq cd26 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -22099,9 +29225,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq cd26 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js ce5d <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 14499 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -22179,10 +29305,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,196,225,1,0 // vmovaps 0x1e1c4(%rip),%ymm9 # 2b140 <_sk_srcover_rgba_8888_sse2_lowp+0x700>
+ .byte 197,124,40,13,8,226,1,0 // vmovaps 0x1e208(%rip),%ymm9 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,110,227,1,0 // vbroadcastss 0x1e36e(%rip),%ymm10 # 2b2fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,21,178,227,1,0 // vbroadcastss 0x1e3b2(%rip),%ymm10 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -22219,7 +29345,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,158,226,1,0 // vbroadcastss 0x1e29e(%rip),%ymm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 196,98,125,24,5,226,226,1,0 // vbroadcastss 0x1e2e2(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -22244,7 +29370,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne d0a4 <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 146e0 <_sk_store_bgra_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22252,17 +29378,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja d0a0 <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 146dc <_sk_store_bgra_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # d114 <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14750 <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp d0a0 <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 146dc <_sk_store_bgra_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp d0a0 <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 146dc <_sk_store_bgra_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -22270,7 +29396,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp d0a0 <_sk_store_bgra_avx+0xaa>
+ .byte 235,143 // jmp 146dc <_sk_store_bgra_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -22282,7 +29408,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb00d128 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe26e8>
+ .byte 232,255,255,255,218 // callq ffffffffdb014764 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe26e8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -22307,7 +29433,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne d38b <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 149c7 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -22324,14 +29450,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,179,234,1,0 // vmovddup 0x1eab3(%rip),%xmm10 # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+ .byte 197,123,18,21,247,234,1,0 // vmovddup 0x1eaf7(%rip),%xmm10 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,49,226,1,0 // vbroadcastss 0x1e231(%rip),%xmm11 # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,121,24,29,125,226,1,0 // vbroadcastss 0x1e27d(%rip),%xmm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,146,234,1,0 // vmovddup 0x1ea92(%rip),%xmm12 # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+ .byte 197,123,18,37,214,234,1,0 // vmovddup 0x1ead6(%rip),%xmm12 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -22340,7 +29466,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,235,225,1,0 // vbroadcastss 0x1e1eb(%rip),%xmm3 # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,226,121,24,29,55,226,1,0 // vbroadcastss 0x1e237(%rip),%xmm3 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22419,29 +29545,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d3f1 <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 14a2d <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d3f1 <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 14a2d <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d3fe <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 14a3a <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d3fe <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 14a3a <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je d187 <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 147c3 <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb d187 <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 147c3 <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq d187 <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq d187 <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq d187 <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -22460,7 +29586,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne d662 <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14c9e <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -22477,14 +29603,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,220,231,1,0 // vmovddup 0x1e7dc(%rip),%xmm10 # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+ .byte 197,123,18,21,32,232,1,0 // vmovddup 0x1e820(%rip),%xmm10 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,90,223,1,0 // vbroadcastss 0x1df5a(%rip),%xmm11 # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,121,24,29,166,223,1,0 // vbroadcastss 0x1dfa6(%rip),%xmm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,187,231,1,0 // vmovddup 0x1e7bb(%rip),%xmm12 # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+ .byte 197,123,18,37,255,231,1,0 // vmovddup 0x1e7ff(%rip),%xmm12 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -22493,7 +29619,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,20,223,1,0 // vbroadcastss 0x1df14(%rip),%xmm7 # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,226,121,24,61,96,223,1,0 // vbroadcastss 0x1df60(%rip),%xmm7 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -22572,29 +29698,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d6c8 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 14d04 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d6c8 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 14d04 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d6d5 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 14d11 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d6d5 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 14d11 <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je d45e <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 14a9a <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb d45e <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 14a9a <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq d45e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq d45e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq d45e <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -22673,14 +29799,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,66,228,1,0 // vmovddup 0x1e442(%rip),%xmm11 # 2bc78 <_sk_srcover_rgba_8888_sse2_lowp+0x1238>
+ .byte 197,123,18,29,134,228,1,0 // vmovddup 0x1e486(%rip),%xmm11 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,192,219,1,0 // vbroadcastss 0x1dbc0(%rip),%xmm12 # 2b404 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,121,24,37,12,220,1,0 // vbroadcastss 0x1dc0c(%rip),%xmm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,33,228,1,0 // vmovddup 0x1e421(%rip),%xmm13 # 2bc80 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
+ .byte 197,123,18,45,101,228,1,0 // vmovddup 0x1e465(%rip),%xmm13 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -22689,7 +29815,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,122,219,1,0 // vbroadcastss 0x1db7a(%rip),%xmm3 # 2b408 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,226,121,24,29,198,219,1,0 // vbroadcastss 0x1dbc6(%rip),%xmm3 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -22779,12 +29905,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,184,217,1,0 // vbroadcastss 0x1d9b8(%rip),%ymm8 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,252,217,1,0 // vbroadcastss 0x1d9fc(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,214,217,1,0 // vbroadcastss 0x1d9d6(%rip),%ymm10 # 2b40c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,21,34,218,1,0 // vbroadcastss 0x1da22(%rip),%ymm10 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,198,217,1,0 // vbroadcastss 0x1d9c6(%rip),%xmm9 # 2b410 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,121,24,13,18,218,1,0 // vbroadcastss 0x1da12(%rip),%xmm9 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -22795,7 +29921,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,137,217,1,0 // vbroadcastss 0x1d989(%rip),%xmm11 # 2b414 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,121,24,29,213,217,1,0 // vbroadcastss 0x1d9d5(%rip),%xmm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -22878,7 +30004,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne dc62 <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 1529e <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -22894,22 +30020,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je dc39 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb dc39 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je dc39 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb dc39 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je dc39 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb dc39 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 15275 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp dc39 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 15275 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -22924,7 +30050,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne dde3 <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 1541f <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -22946,7 +30072,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,208,213,1,0 // vbroadcastss 0x1d5d0(%rip),%ymm9 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,13,20,214,1,0 // vbroadcastss 0x1d614(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -22983,29 +30109,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je de49 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 15485 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb de49 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 15485 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je de56 <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 15492 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb de56 <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 15492 <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je dcf2 <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 1532e <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb dcf2 <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 1532e <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq dcf2 <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq dcf2 <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq dcf2 <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -23022,7 +30148,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne df87 <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 155c3 <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -23050,7 +30176,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,255,211,1,0 // vbroadcastss 0x1d3ff(%rip),%ymm9 # 2b318 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,13,67,212,1,0 // vbroadcastss 0x1d443(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -23072,69 +30198,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,3,211,1,0 // vbroadcastss 0x1d303(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,71,211,1,0 // vbroadcastss 0x1d347(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne dfbf <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 155fb <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb e009 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 15645 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne e023 <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 1565f <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb e064 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 156a0 <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne e075 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 156b1 <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb e0a8 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 156e4 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq debf <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -23148,7 +30274,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,200,210,1,0 // vbroadcastss 0x1d2c8(%rip),%ymm8 # 2b3a0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,5,12,211,1,0 // vbroadcastss 0x1d30c(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -23186,7 +30312,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne e1bc <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 157f8 <_sk_store_u16_be_avx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -23195,22 +30321,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 157f4 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp e1b8 <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 157f4 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -23219,7 +30345,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja e37b <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 159b7 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -23232,7 +30358,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # e38c <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 159c8 <_sk_load_f32_avx+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -23295,7 +30421,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp e355 <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 15991 <_sk_load_f32_avx+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -23307,7 +30433,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900e3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3968>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 290159e4 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3968>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -23319,7 +30445,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja e51d <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15b59 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -23332,7 +30458,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # e52c <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15b68 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -23395,7 +30521,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp e4f7 <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 15b33 <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -23435,7 +30561,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne e5cb <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 15c07 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -23448,22 +30574,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 15c03 <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp e5c7 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 15c03 <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -23506,7 +30632,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,233,203,1,0 // vmulss 0x1cbe9(%rip),%xmm9,%xmm0 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,178,89,5,45,204,1,0 // vmulss 0x1cc2d(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -23533,7 +30659,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,127,203,1,0 // vmulss 0x1cb7f(%rip),%xmm9,%xmm1 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,178,89,13,195,203,1,0 // vmulss 0x1cbc3(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -23553,7 +30679,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,60,203,1,0 // vbroadcastss 0x1cb3c(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,128,203,1,0 // vbroadcastss 0x1cb80(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -23571,9 +30697,9 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,51,203,1,0 // vbroadcastss 0x1cb33(%rip),%ymm8 # 2b2a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
+ .byte 196,98,125,24,5,119,203,1,0 // vbroadcastss 0x1cb77(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,9,203,1,0 // vbroadcastss 0x1cb09(%rip),%ymm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,13,77,203,1,0 // vbroadcastss 0x1cb4d(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
@@ -23589,12 +30715,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,245,203,1,0 // vbroadcastss 0x1cbf5(%rip),%ymm3 # 2b3a4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,29,61,204,1,0 // vbroadcastss 0x1cc3d(%rip),%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,236,203,1,0 // vbroadcastss 0x1cbec(%rip),%ymm3 # 2b3a8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,226,125,24,29,44,204,1,0 // vbroadcastss 0x1cc2c(%rip),%ymm3 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,223,203,1,0 // vbroadcastss 0x1cbdf(%rip),%ymm1 # 2b3ac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,226,125,24,13,35,204,1,0 // vbroadcastss 0x1cc23(%rip),%ymm1 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -23842,9 +30968,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js eb71 <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 161ad <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp eb86 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 161c2 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -24002,18 +31128,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,250,196,1,0 // vbroadcastss 0x1c4fa(%rip),%ymm0 # 2b3b4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,226,125,24,5,58,197,1,0 // vbroadcastss 0x1c53a(%rip),%ymm0 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,233,196,1,0 // vbroadcastss 0x1c4e9(%rip),%ymm1 # 2b3b0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,226,125,24,13,49,197,1,0 // vbroadcastss 0x1c531(%rip),%ymm1 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,224,196,1,0 // vbroadcastss 0x1c4e0(%rip),%ymm1 # 2b3b8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,226,125,24,13,36,197,1,0 // vbroadcastss 0x1c524(%rip),%ymm1 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,211,196,1,0 // vbroadcastss 0x1c4d3(%rip),%ymm1 # 2b3bc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,226,125,24,13,23,197,1,0 // vbroadcastss 0x1c517(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,198,196,1,0 // vbroadcastss 0x1c4c6(%rip),%ymm1 # 2b3c0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,13,10,197,1,0 // vbroadcastss 0x1c50a(%rip),%ymm1 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -24035,12 +31161,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb ef7d <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 165b9 <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,71,195,1,0 // vbroadcastss 0x1c347(%rip),%ymm10 # 2b28c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,24,21,139,195,1,0 // vbroadcastss 0x1c38b(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -24052,7 +31178,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne ef49 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 16585 <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -24234,27 +31360,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,113,192,1,0 // vbroadcastss 0x1c071(%rip),%ymm13 # 2b3c4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,98,125,24,45,181,192,1,0 // vbroadcastss 0x1c0b5(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,103,192,1,0 // vbroadcastss 0x1c067(%rip),%ymm14 # 2b3c8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,98,125,24,53,171,192,1,0 // vbroadcastss 0x1c0ab(%rip),%ymm14 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,88,192,1,0 // vbroadcastss 0x1c058(%rip),%ymm14 # 2b3cc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,98,125,24,53,156,192,1,0 // vbroadcastss 0x1c09c(%rip),%ymm14 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,73,192,1,0 // vbroadcastss 0x1c049(%rip),%ymm13 # 2b3d0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,98,125,24,45,141,192,1,0 // vbroadcastss 0x1c08d(%rip),%ymm13 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,52,192,1,0 // vbroadcastss 0x1c034(%rip),%ymm10 # 2b3d4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,21,120,192,1,0 // vbroadcastss 0x1c078(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,202,190,1,0 // vbroadcastss 0x1beca(%rip),%ymm10 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,21,14,191,1,0 // vbroadcastss 0x1bf0e(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,180,190,1,0 // vbroadcastss 0x1beb4(%rip),%ymm10 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,21,248,190,1,0 // vbroadcastss 0x1bef8(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -24284,7 +31410,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,170,191,1,0 // vbroadcastss 0x1bfaa(%rip),%ymm11 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,29,238,191,1,0 // vbroadcastss 0x1bfee(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24293,17 +31419,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,126,191,1,0 // vbroadcastss 0x1bf7e(%rip),%ymm9 # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,194,191,1,0 // vbroadcastss 0x1bfc2(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,92,191,1,0 // vbroadcastss 0x1bf5c(%rip),%ymm9 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,13,160,191,1,0 // vbroadcastss 0x1bfa0(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,237,189,1,0 // vbroadcastss 0x1bded(%rip),%ymm11 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,49,190,1,0 // vbroadcastss 0x1be31(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24323,7 +31449,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,252,190,1,0 // vbroadcastss 0x1befc(%rip),%ymm11 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,29,64,191,1,0 // vbroadcastss 0x1bf40(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -24332,17 +31458,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,208,190,1,0 // vbroadcastss 0x1bed0(%rip),%ymm9 # 2b3dc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,13,20,191,1,0 // vbroadcastss 0x1bf14(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,174,190,1,0 // vbroadcastss 0x1beae(%rip),%ymm9 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,13,242,190,1,0 // vbroadcastss 0x1bef2(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,63,189,1,0 // vbroadcastss 0x1bd3f(%rip),%ymm11 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,29,131,189,1,0 // vbroadcastss 0x1bd83(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -24361,7 +31487,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,84,190,1,0 // vbroadcastss 0x1be54(%rip),%ymm10 # 2b3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,21,152,190,1,0 // vbroadcastss 0x1be98(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -24370,7 +31496,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,44,190,1,0 // vbroadcastss 0x1be2c(%rip),%ymm8 # 2b3e0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,112,190,1,0 // vbroadcastss 0x1be70(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24414,7 +31540,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,86,188,1,0 // vbroadcastss 0x1bc56(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,154,188,1,0 // vbroadcastss 0x1bc9a(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -24451,9 +31577,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,62,189,1,0 // vbroadcastss 0x1bd3e(%rip),%ymm0 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,5,130,189,1,0 // vbroadcastss 0x1bd82(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,213,187,1,0 // vbroadcastss 0x1bbd5(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,25,188,1,0 // vbroadcastss 0x1bc19(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24464,7 +31590,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,181,187,1,0 // vbroadcastss 0x1bbb5(%rip),%ymm0 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,5,249,187,1,0 // vbroadcastss 0x1bbf9(%rip),%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24476,9 +31602,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,245,188,1,0 // vbroadcastss 0x1bcf5(%rip),%ymm1 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,13,57,189,1,0 // vbroadcastss 0x1bd39(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,139,187,1,0 // vbroadcastss 0x1bb8b(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,207,187,1,0 // vbroadcastss 0x1bbcf(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24489,7 +31615,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,107,187,1,0 // vbroadcastss 0x1bb6b(%rip),%ymm1 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,226,125,24,13,175,187,1,0 // vbroadcastss 0x1bbaf(%rip),%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24501,14 +31627,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,174,188,1,0 // vbroadcastss 0x1bcae(%rip),%ymm0 # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,5,242,188,1,0 // vbroadcastss 0x1bcf2(%rip),%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,65,187,1,0 // vbroadcastss 0x1bb41(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,133,187,1,0 // vbroadcastss 0x1bb85(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,146,188,1,0 // vbroadcastss 0x1bc92(%rip),%ymm10 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,214,188,1,0 // vbroadcastss 0x1bcd6(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,144,187,1,0 // vbroadcastss 0x1bb90(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,212,187,1,0 // vbroadcastss 0x1bbd4(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24520,19 +31646,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,91,188,1,0 // vbroadcastss 0x1bc5b(%rip),%ymm0 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,5,159,188,1,0 // vbroadcastss 0x1bc9f(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,242,186,1,0 // vbroadcastss 0x1baf2(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,54,187,1,0 // vbroadcastss 0x1bb36(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,80,188,1,0 // vbroadcastss 0x1bc50(%rip),%ymm9 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,13,144,188,1,0 // vbroadcastss 0x1bc90(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,62,188,1,0 // vbroadcastss 0x1bc3e(%rip),%ymm10 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,21,134,188,1,0 // vbroadcastss 0x1bc86(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,191,186,1,0 // vbroadcastss 0x1babf(%rip),%ymm10 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,21,3,187,1,0 // vbroadcastss 0x1bb03(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,32,188,1,0 // vbroadcastss 0x1bc20(%rip),%ymm9 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,13,100,188,1,0 // vbroadcastss 0x1bc64(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24543,17 +31669,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,144,186,1,0 // vbroadcastss 0x1ba90(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,212,186,1,0 // vbroadcastss 0x1bad4(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,238,187,1,0 // vbroadcastss 0x1bbee(%rip),%ymm10 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,21,46,188,1,0 // vbroadcastss 0x1bc2e(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,220,187,1,0 // vbroadcastss 0x1bbdc(%rip),%ymm11 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,29,36,188,1,0 // vbroadcastss 0x1bc24(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,199,187,1,0 // vbroadcastss 0x1bbc7(%rip),%ymm9 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,13,11,188,1,0 // vbroadcastss 0x1bc0b(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24564,13 +31690,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,163,187,1,0 // vbroadcastss 0x1bba3(%rip),%ymm0 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,5,235,187,1,0 // vbroadcastss 0x1bbeb(%rip),%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,136,187,1,0 // vbroadcastss 0x1bb88(%rip),%ymm10 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,204,187,1,0 // vbroadcastss 0x1bbcc(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,134,186,1,0 // vbroadcastss 0x1ba86(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,202,186,1,0 // vbroadcastss 0x1baca(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -24582,14 +31708,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,85,187,1,0 // vbroadcastss 0x1bb55(%rip),%ymm1 # 2b3e8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,13,153,187,1,0 // vbroadcastss 0x1bb99(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,231,185,1,0 // vbroadcastss 0x1b9e7(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,43,186,1,0 // vbroadcastss 0x1ba2b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,56,187,1,0 // vbroadcastss 0x1bb38(%rip),%ymm10 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,124,187,1,0 // vbroadcastss 0x1bb7c(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,54,186,1,0 // vbroadcastss 0x1ba36(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,122,186,1,0 // vbroadcastss 0x1ba7a(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24601,19 +31727,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,1,187,1,0 // vbroadcastss 0x1bb01(%rip),%ymm1 # 2b3e4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,226,125,24,13,69,187,1,0 // vbroadcastss 0x1bb45(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,151,185,1,0 // vbroadcastss 0x1b997(%rip),%ymm8 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,24,5,219,185,1,0 // vbroadcastss 0x1b9db(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,245,186,1,0 // vbroadcastss 0x1baf5(%rip),%ymm9 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,13,53,187,1,0 // vbroadcastss 0x1bb35(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,227,186,1,0 // vbroadcastss 0x1bae3(%rip),%ymm10 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,21,43,187,1,0 // vbroadcastss 0x1bb2b(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,100,185,1,0 // vbroadcastss 0x1b964(%rip),%ymm10 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,21,168,185,1,0 // vbroadcastss 0x1b9a8(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,197,186,1,0 // vbroadcastss 0x1bac5(%rip),%ymm9 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,13,9,187,1,0 // vbroadcastss 0x1bb09(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24624,17 +31750,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,53,185,1,0 // vbroadcastss 0x1b935(%rip),%ymm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,24,5,121,185,1,0 // vbroadcastss 0x1b979(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,146,186,1,0 // vbroadcastss 0x1ba92(%rip),%ymm10 # 2b3f4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,98,125,24,21,210,186,1,0 // vbroadcastss 0x1bad2(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,128,186,1,0 // vbroadcastss 0x1ba80(%rip),%ymm11 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,98,125,24,29,200,186,1,0 // vbroadcastss 0x1bac8(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,107,186,1,0 // vbroadcastss 0x1ba6b(%rip),%ymm9 # 2b3f8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,98,125,24,13,175,186,1,0 // vbroadcastss 0x1baaf(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -24645,13 +31771,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,71,186,1,0 // vbroadcastss 0x1ba47(%rip),%ymm1 # 2b3f0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,13,143,186,1,0 // vbroadcastss 0x1ba8f(%rip),%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,43,186,1,0 // vbroadcastss 0x1ba2b(%rip),%ymm10 # 2b3ec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,98,125,24,21,111,186,1,0 // vbroadcastss 0x1ba6f(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,41,185,1,0 // vbroadcastss 0x1b929(%rip),%ymm10 # 2b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,21,109,185,1,0 // vbroadcastss 0x1b96d(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -24799,7 +31925,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,195,183,1,0 // vbroadcastss 0x1b7c3(%rip),%xmm4 # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,121,24,37,7,184,1,0 // vbroadcastss 0x1b807(%rip),%xmm4 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -24853,7 +31979,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,44,181,1,0 // vbroadcastss 0x1b52c(%rip),%xmm10 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,121,24,21,112,181,1,0 // vbroadcastss 0x1b570(%rip),%xmm10 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -24881,7 +32007,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,0,182,1,0 // vbroadcastss 0x1b600(%rip),%ymm7 # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,61,68,182,1,0 // vbroadcastss 0x1b644(%rip),%ymm7 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -25624,7 +32750,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,196,166,1,0 // vbroadcastss 0x1a6c4(%rip),%xmm9 # 2b400 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,98,121,24,13,8,167,1,0 // vbroadcastss 0x1a708(%rip),%xmm9 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -25681,7 +32807,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,29,164,1,0 // vbroadcastss 0x1a41d(%rip),%xmm10 # 2b294 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,121,24,21,97,164,1,0 // vbroadcastss 0x1a461(%rip),%xmm10 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -25709,7 +32835,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,241,164,1,0 // vbroadcastss 0x1a4f1(%rip),%ymm12 # 2b3fc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,98,125,24,37,53,165,1,0 // vbroadcastss 0x1a535(%rip),%ymm12 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -27107,7 +34233,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,62,134,1,0 // vbroadcastss 0x1863e(%rip),%ymm3 # 2b288 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,226,125,24,29,130,134,1,0 // vbroadcastss 0x18682(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -27140,13 +34266,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 12d34 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1a370 <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 12d02 <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1a33e <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -27165,10 +34291,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 12ccb <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1a307 <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 12d2b <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1a367 <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -27182,7 +34308,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 12cbd <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1a2f9 <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -27205,13 +34331,13 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,25,135,1,0 // addps 0x18719(%rip),%xmm0 # 2b470 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+ .byte 15,88,5,93,135,1,0 // addps 0x1875d(%rip),%xmm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,22,135,1,0 // addps 0x18716(%rip),%xmm1 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,13,90,135,1,0 // addps 0x1875a(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,29,135,1,0 // movaps 0x1871d(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,97,135,1,0 // movaps 0x18761(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -27226,18 +34352,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,182,134,1,0 // paddd 0x186b6(%rip),%xmm8 # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 102,68,15,254,5,250,134,1,0 // paddd 0x186fa(%rip),%xmm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,237,134,1,0 // movdqa 0x186ed(%rip),%xmm10 # 2b4a0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
+ .byte 102,68,15,111,21,49,135,1,0 // movdqa 0x18731(%rip),%xmm10 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,217,134,1,0 // movdqa 0x186d9(%rip),%xmm12 # 2b4b0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
- .byte 102,68,15,111,45,224,134,1,0 // movdqa 0x186e0(%rip),%xmm13 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,37,29,135,1,0 // movdqa 0x1871d(%rip),%xmm12 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 102,68,15,111,45,36,135,1,0 // movdqa 0x18724(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -27253,8 +34379,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,155,134,1,0 // mulps 0x1869b(%rip),%xmm8 # 2b4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
- .byte 68,15,88,5,163,134,1,0 // addps 0x186a3(%rip),%xmm8 # 2b4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+ .byte 68,15,89,5,223,134,1,0 // mulps 0x186df(%rip),%xmm8 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,88,5,231,134,1,0 // addps 0x186e7(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -27296,7 +34422,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,217,133,1,0 // movaps 0x185d9(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,29,134,1,0 // movaps 0x1861d(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -27307,7 +34433,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,197,133,1,0 // movaps 0x185c5(%rip),%xmm0 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,5,9,134,1,0 // movaps 0x18609(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -27353,7 +34479,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,117,133,1,0 // movaps 0x18575(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,185,133,1,0 // movaps 0x185b9(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27378,7 +34504,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,40,133,1,0 // movaps 0x18528(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,108,133,1,0 // movaps 0x1856c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -27425,7 +34551,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,188,132,1,0 // movaps 0x184bc(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,0,133,1,0 // movaps 0x18500(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -27438,7 +34564,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,156,132,1,0 // movaps 0x1849c(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,224,132,1,0 // movaps 0x184e0(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -27455,7 +34581,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,111,132,1,0 // movaps 0x1846f(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,179,132,1,0 // movaps 0x184b3(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -27475,7 +34601,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,51,132,1,0 // movaps 0x18433(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,119,132,1,0 // movaps 0x18477(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -27503,7 +34629,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,247,131,1,0 // movaps 0x183f7(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,59,132,1,0 // movaps 0x1843b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -27541,7 +34667,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,120,131,1,0 // movaps 0x18378(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,188,131,1,0 // movaps 0x183bc(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -27583,7 +34709,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,4,131,1,0 // movaps 0x18304(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,72,131,1,0 // movaps 0x18348(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -27631,7 +34757,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,95,130,1,0 // movaps 0x1825f(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,163,130,1,0 // movaps 0x182a3(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27665,7 +34791,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,244,129,1,0 // movaps 0x181f4(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,56,130,1,0 // movaps 0x18238(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27702,7 +34828,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,126,129,1,0 // movaps 0x1817e(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,194,129,1,0 // movaps 0x181c2(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27730,7 +34856,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,46,129,1,0 // movaps 0x1812e(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,114,129,1,0 // movaps 0x18172(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -27742,7 +34868,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,21,129,1,0 // movaps 0x18115(%rip),%xmm11 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,29,89,129,1,0 // movaps 0x18159(%rip),%xmm11 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -27826,7 +34952,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,223,127,1,0 // movaps 0x17fdf(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,35,128,1,0 // movaps 0x18023(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -27908,7 +35034,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,170,126,1,0 // movaps 0x17eaa(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,238,126,1,0 // movaps 0x17eee(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -27991,7 +35117,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,127,125,1,0 // movaps 0x17d7f(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,195,125,1,0 // movaps 0x17dc3(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -28076,7 +35202,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,70,124,1,0 // movaps 0x17c46(%rip),%xmm1 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,13,138,124,1,0 // movaps 0x17c8a(%rip),%xmm1 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -28089,10 +35215,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,116,124,1,0 // movaps 0x17c74(%rip),%xmm13 # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 68,15,40,45,184,124,1,0 // movaps 0x17cb8(%rip),%xmm13 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,116,124,1,0 // movaps 0x17c74(%rip),%xmm12 # 2b500 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 68,15,40,37,184,124,1,0 // movaps 0x17cb8(%rip),%xmm12 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -28278,12 +35404,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,223,121,1,0 // movaps 0x179df(%rip),%xmm0 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 15,40,5,35,122,1,0 // movaps 0x17a23(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,228,121,1,0 // movaps 0x179e4(%rip),%xmm2 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 15,40,21,40,122,1,0 // movaps 0x17a28(%rip),%xmm2 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,229,121,1,0 // movaps 0x179e5(%rip),%xmm14 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,53,41,122,1,0 // movaps 0x17a29(%rip),%xmm14 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -28366,7 +35492,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,249,119,1,0 // movaps 0x177f9(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,61,120,1,0 // movaps 0x1783d(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -28460,14 +35586,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,35,119,1,0 // movaps 0x17723(%rip),%xmm2 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 15,40,21,103,119,1,0 // movaps 0x17767(%rip),%xmm2 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,38,119,1,0 // movaps 0x17726(%rip),%xmm1 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 15,40,13,106,119,1,0 // movaps 0x1776a(%rip),%xmm1 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,37,119,1,0 // movaps 0x17725(%rip),%xmm13 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,45,105,119,1,0 // movaps 0x17769(%rip),%xmm13 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -28548,7 +35674,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,59,117,1,0 // movaps 0x1753b(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,127,117,1,0 // movaps 0x1757f(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -28603,14 +35729,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,246,116,1,0 // movaps 0x174f6(%rip),%xmm9 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,13,58,117,1,0 // movaps 0x1753a(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,246,116,1,0 // movaps 0x174f6(%rip),%xmm10 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,40,21,58,117,1,0 // movaps 0x1753a(%rip),%xmm10 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,243,116,1,0 // movaps 0x174f3(%rip),%xmm11 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,29,55,117,1,0 // movaps 0x17537(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -28695,7 +35821,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,255,114,1,0 // movaps 0x172ff(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,67,115,1,0 // movaps 0x17343(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -28747,13 +35873,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,199,114,1,0 // movaps 0x172c7(%rip),%xmm8 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,5,11,115,1,0 // movaps 0x1730b(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,203,114,1,0 // movaps 0x172cb(%rip),%xmm10 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,40,21,15,115,1,0 // movaps 0x1730f(%rip),%xmm10 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,201,114,1,0 // movaps 0x172c9(%rip),%xmm12 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,37,13,115,1,0 // movaps 0x1730d(%rip),%xmm12 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -28838,7 +35964,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,207,112,1,0 // movaps 0x170cf(%rip),%xmm0 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,5,19,113,1,0 // movaps 0x17113(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -28883,23 +36009,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 14529 <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1bb65 <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,225,112,1,0 // movdqa 0x170e1(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,37,37,113,1,0 // movdqa 0x17125(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,221,112,1,0 // pshufb 0x170dd(%rip),%xmm5 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,45,33,113,1,0 // pshufb 0x17121(%rip),%xmm5 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,221,112,1,0 // pshufb 0x170dd(%rip),%xmm6 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,53,33,113,1,0 // pshufb 0x17121(%rip),%xmm6 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,250,111,1,0 // movaps 0x16ffa(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,62,112,1,0 // movaps 0x1703e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,206,112,1,0 // movaps 0x170ce(%rip),%xmm12 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,37,18,113,1,0 // movaps 0x17112(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -28925,7 +36051,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 14567 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 1bba3 <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -28936,32 +36062,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 14591 <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 1bbcd <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 14556 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1bb92 <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 14454 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 14454 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1459c <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1bbd8 <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 14589 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1bbc5 <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 14454 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 14515 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -28979,7 +36105,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,201,110,1,0 // movaps 0x16ec9(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,13,111,1,0 // movaps 0x16f0d(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -28991,7 +36117,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,174,110,1,0 // minps 0x16eae(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,29,242,110,1,0 // minps 0x16ef2(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -29002,7 +36128,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,154,110,1,0 // minps 0x16e9a(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,61,222,110,1,0 // minps 0x16ede(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -29037,7 +36163,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,86,110,1,0 // movaps 0x16e56(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,154,110,1,0 // movaps 0x16e9a(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -29099,7 +36225,7 @@ HIDDEN _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,224,109,1,0 // movaps 0x16de0(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,36,110,1,0 // movaps 0x16e24(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -29113,20 +36239,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,171,110,1,0 // movaps 0x16eab(%rip),%xmm11 # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 68,15,40,29,239,110,1,0 // movaps 0x16eef(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,35,110,1,0 // movaps 0x16e23(%rip),%xmm12 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,37,103,110,1,0 // movaps 0x16e67(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,147,110,1,0 // movaps 0x16e93(%rip),%xmm13 # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 68,15,40,45,215,110,1,0 // movaps 0x16ed7(%rip),%xmm13 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,147,110,1,0 // movaps 0x16e93(%rip),%xmm14 # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 68,15,40,53,215,110,1,0 // movaps 0x16ed7(%rip),%xmm14 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,151,110,1,0 // movaps 0x16e97(%rip),%xmm15 # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,61,219,110,1,0 // movaps 0x16edb(%rip),%xmm15 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -29163,19 +36289,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,226,109,1,0 // movaps 0x16de2(%rip),%xmm11 # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 68,15,40,29,38,110,1,0 // movaps 0x16e26(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,91,109,1,0 // movaps 0x16d5b(%rip),%xmm12 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,37,159,109,1,0 // movaps 0x16d9f(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,207,109,1,0 // movaps 0x16dcf(%rip),%xmm13 # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 68,15,40,45,19,110,1,0 // movaps 0x16e13(%rip),%xmm13 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,208,109,1,0 // movaps 0x16dd0(%rip),%xmm14 # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 68,15,40,53,20,110,1,0 // movaps 0x16e14(%rip),%xmm14 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,212,109,1,0 // movaps 0x16dd4(%rip),%xmm15 # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,61,24,110,1,0 // movaps 0x16e18(%rip),%xmm15 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -29219,22 +36345,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,72,109,1,0 // movaps 0x16d48(%rip),%xmm11 # 2b5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,29,140,109,1,0 // movaps 0x16d8c(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,72,109,1,0 // movaps 0x16d48(%rip),%xmm12 # 2b5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,37,140,109,1,0 // movaps 0x16d8c(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,72,109,1,0 // movaps 0x16d48(%rip),%xmm10 # 2b5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,21,140,109,1,0 // movaps 0x16d8c(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,72,109,1,0 // movaps 0x16d48(%rip),%xmm13 # 2b5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,45,140,109,1,0 // movaps 0x16d8c(%rip),%xmm13 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,76,109,1,0 // movaps 0x16d4c(%rip),%xmm14 # 2b600 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+ .byte 68,15,40,53,144,109,1,0 // movaps 0x16d90(%rip),%xmm14 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,72,109,1,0 // movaps 0x16d48(%rip),%xmm15 # 2b610 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+ .byte 68,15,40,61,140,109,1,0 // movaps 0x16d8c(%rip),%xmm15 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -29289,7 +36415,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,255,106,1,0 // movaps 0x16aff(%rip),%xmm14 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,53,67,107,1,0 // movaps 0x16b43(%rip),%xmm14 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -29298,27 +36424,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,102,108,1,0 // andps 0x16c66(%rip),%xmm15 # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 68,15,84,61,170,108,1,0 // andps 0x16caa(%rip),%xmm15 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,89,108,1,0 // movaps 0x16c59(%rip),%xmm13 # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+ .byte 68,15,40,45,157,108,1,0 // movaps 0x16c9d(%rip),%xmm13 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,85,108,1,0 // addps 0x16c55(%rip),%xmm8 # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 68,15,88,5,153,108,1,0 // addps 0x16c99(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,77,108,1,0 // mulps 0x16c4d(%rip),%xmm8 # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 68,15,89,5,145,108,1,0 // mulps 0x16c91(%rip),%xmm8 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,97,106,1,0 // movaps 0x16a61(%rip),%xmm0 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,40,5,165,106,1,0 // movaps 0x16aa5(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -29340,7 +36466,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,23,106,1,0 // movaps 0x16a17(%rip),%xmm9 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,13,91,106,1,0 // movaps 0x16a5b(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -29353,19 +36479,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,194,107,1,0 // movaps 0x16bc2(%rip),%xmm14 # 2b660 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 68,15,40,53,6,108,1,0 // movaps 0x16c06(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,187,107,1,0 // movaps 0x16bbb(%rip),%xmm11 # 2b670 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ .byte 68,15,40,29,255,107,1,0 // movaps 0x16bff(%rip),%xmm11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,84,107,1,0 // movaps 0x16b54(%rip),%xmm7 # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 15,40,61,152,107,1,0 // movaps 0x16b98(%rip),%xmm7 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,101,107,1,0 // movaps 0x16b65(%rip),%xmm3 # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 15,40,29,169,107,1,0 // movaps 0x16ba9(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -29375,7 +36501,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,68,107,1,0 // movaps 0x16b44(%rip),%xmm12 # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 68,15,40,37,136,107,1,0 // movaps 0x16b88(%rip),%xmm12 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -29409,7 +36535,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,220,106,1,0 // addps 0x16adc(%rip),%xmm10 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,88,21,32,107,1,0 // addps 0x16b20(%rip),%xmm10 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -29464,11 +36590,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 14c8b <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1c2c7 <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,217,104,1,0 // pand 0x168d9(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,219,5,29,105,1,0 // pand 0x1691d(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,29,106,1,0 // mulps 0x16a1d(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,89,5,97,106,1,0 // mulps 0x16a61(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -29479,12 +36605,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 14cd3 <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1c30f <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 14cba <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1c2f6 <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 14c5e <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1c29a <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -29492,10 +36618,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 14c5e <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1c29a <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 14c5e <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1c29a <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -29510,19 +36636,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 14da5 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1c3e1 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,139,105,1,0 // movdqa 0x1698b(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,207,105,1,0 // movdqa 0x169cf(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,138,105,1,0 // mulps 0x1698a(%rip),%xmm9 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,5,146,105,1,0 // movdqa 0x16992(%rip),%xmm0 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,206,105,1,0 // mulps 0x169ce(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,214,105,1,0 // movdqa 0x169d6(%rip),%xmm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,145,105,1,0 // mulps 0x16991(%rip),%xmm10 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,68,15,219,29,152,105,1,0 // pand 0x16998(%rip),%xmm11 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 68,15,89,21,213,105,1,0 // mulps 0x169d5(%rip),%xmm10 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,219,29,220,105,1,0 // pand 0x169dc(%rip),%xmm11 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,156,105,1,0 // mulps 0x1699c(%rip),%xmm11 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,29,224,105,1,0 // mulps 0x169e0(%rip),%xmm11 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -29547,22 +36673,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 14dee <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1c42a <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 14dd7 <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1c413 <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 14d0d <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1c349 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 14d0d <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1c349 <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 14d0d <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1c349 <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -29597,11 +36723,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 14e95 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1c4d1 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,227,102,1,0 // pand 0x166e3(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,219,5,39,103,1,0 // pand 0x16727(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,39,104,1,0 // mulps 0x16827(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,89,5,107,104,1,0 // mulps 0x1686b(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -29619,12 +36745,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 14ee0 <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1c51c <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 14ec4 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1c500 <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 14e54 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1c490 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -29632,10 +36758,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 14e54 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1c490 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 14e54 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1c490 <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -29650,19 +36776,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 14fb8 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1c5f4 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,126,103,1,0 // movdqa 0x1677e(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,194,103,1,0 // movdqa 0x167c2(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,125,103,1,0 // mulps 0x1677d(%rip),%xmm9 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,5,133,103,1,0 // movdqa 0x16785(%rip),%xmm0 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,193,103,1,0 // mulps 0x167c1(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,5,201,103,1,0 // movdqa 0x167c9(%rip),%xmm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,132,103,1,0 // mulps 0x16784(%rip),%xmm11 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,68,15,219,21,139,103,1,0 // pand 0x1678b(%rip),%xmm10 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 68,15,89,29,200,103,1,0 // mulps 0x167c8(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,219,21,207,103,1,0 // pand 0x167cf(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,143,103,1,0 // mulps 0x1678f(%rip),%xmm10 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,21,211,103,1,0 // mulps 0x167d3(%rip),%xmm10 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -29690,22 +36816,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 15001 <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1c63d <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 14fea <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1c626 <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 14f1a <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1c556 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 14f1a <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1c556 <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 14f1a <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1c556 <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -29714,11 +36840,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 15132 <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1c76e <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,17,101,1,0 // movdqa 0x16511(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,85,101,1,0 // movdqa 0x16555(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -29733,7 +36859,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,204,100,1,0 // pshufb 0x164cc(%rip),%xmm1 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,13,16,101,1,0 // pshufb 0x16510(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -29748,7 +36874,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,136,100,1,0 // pshufb 0x16488(%rip),%xmm2 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,21,204,100,1,0 // pshufb 0x164cc(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -29763,7 +36889,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,101,101,1,0 // mulps 0x16565(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,169,101,1,0 // mulps 0x165a9(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -29771,19 +36897,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 15173 <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1c7af <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 15161 <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1c79d <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 15024 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1c660 <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 15024 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1c660 <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 15024 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1c660 <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -29793,7 +36919,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 152f3 <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1c92f <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -29804,7 +36930,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,55,101,1,0 // movdqa 0x16537(%rip),%xmm8 # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 102,68,15,111,5,123,101,1,0 // movdqa 0x1657b(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29822,7 +36948,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,230,100,1,0 // pshufb 0x164e6(%rip),%xmm1 # 2b710 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,56,0,13,42,101,1,0 // pshufb 0x1652a(%rip),%xmm1 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29858,23 +36984,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,52,100,1,0 // mulps 0x16434(%rip),%xmm3 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,29,120,100,1,0 // mulps 0x16478(%rip),%xmm3 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1530c <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1c948 <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 151a1 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 151a1 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 151a1 <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -29884,7 +37010,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1548e <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1caca <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -29898,7 +37024,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,125,99,1,0 // movdqa 0x1637d(%rip),%xmm8 # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 102,68,15,111,5,193,99,1,0 // movdqa 0x163c1(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -29916,7 +37042,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,44,99,1,0 // pshufb 0x1632c(%rip),%xmm1 # 2b710 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,56,0,13,112,99,1,0 // pshufb 0x16370(%rip),%xmm1 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -29947,7 +37073,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,7,96,1,0 // movaps 0x16007(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,75,96,1,0 // movaps 0x1604b(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -29955,21 +37081,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 154b4 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1caf0 <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 154e5 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1cb21 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 15365 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -29979,7 +37105,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,116,96,1,0 // movaps 0x16074(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,184,96,1,0 // movaps 0x160b8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -30002,7 +37128,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,42,97,1,0 // movaps 0x1612a(%rip),%xmm9 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,13,110,97,1,0 // movaps 0x1616e(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -30104,7 +37230,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,134,95,1,0 // movaps 0x15f86(%rip),%xmm9 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,13,202,95,1,0 // movaps 0x15fca(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -30286,31 +37412,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,97,93,1,0 // mulps 0x15d61(%rip),%xmm8 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,21,105,93,1,0 // andps 0x15d69(%rip),%xmm10 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,21,161,90,1,0 // orps 0x15aa1(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,5,105,93,1,0 // addps 0x15d69(%rip),%xmm8 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 68,15,40,37,113,93,1,0 // movaps 0x15d71(%rip),%xmm12 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,5,165,93,1,0 // mulps 0x15da5(%rip),%xmm8 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,21,173,93,1,0 // andps 0x15dad(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,21,229,90,1,0 // orps 0x15ae5(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,173,93,1,0 // addps 0x15dad(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,181,93,1,0 // movaps 0x15db5(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,113,93,1,0 // addps 0x15d71(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,37,121,93,1,0 // movaps 0x15d79(%rip),%xmm12 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,21,181,93,1,0 // addps 0x15db5(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,189,93,1,0 // movaps 0x15dbd(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,102,93,1,0 // addps 0x15d66(%rip),%xmm8 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,21,110,93,1,0 // movaps 0x15d6e(%rip),%xmm10 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,5,170,93,1,0 // addps 0x15daa(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,21,178,93,1,0 // movaps 0x15db2(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,110,93,1,0 // movaps 0x15d6e(%rip),%xmm10 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,21,178,93,1,0 // movaps 0x15db2(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,114,93,1,0 // movaps 0x15d72(%rip),%xmm11 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,29,182,93,1,0 // movaps 0x15db6(%rip),%xmm11 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,114,93,1,0 // mulps 0x15d72(%rip),%xmm11 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,89,29,182,93,1,0 // mulps 0x15db6(%rip),%xmm11 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -30318,7 +37444,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,9,90,1,0 // minps 0x15a09(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,93,5,77,90,1,0 // minps 0x15a4d(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30348,31 +37474,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,58,92,1,0 // mulps 0x15c3a(%rip),%xmm12 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,29,66,92,1,0 // andps 0x15c42(%rip),%xmm11 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,29,122,89,1,0 // orps 0x1597a(%rip),%xmm11 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,37,66,92,1,0 // addps 0x15c42(%rip),%xmm12 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 15,40,13,75,92,1,0 // movaps 0x15c4b(%rip),%xmm1 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,37,126,92,1,0 // mulps 0x15c7e(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,29,134,92,1,0 // andps 0x15c86(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,29,190,89,1,0 // orps 0x159be(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,37,134,92,1,0 // addps 0x15c86(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,40,13,143,92,1,0 // movaps 0x15c8f(%rip),%xmm1 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,75,92,1,0 // addps 0x15c4b(%rip),%xmm11 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,40,13,84,92,1,0 // movaps 0x15c54(%rip),%xmm1 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,29,143,92,1,0 // addps 0x15c8f(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,13,152,92,1,0 // movaps 0x15c98(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,65,92,1,0 // addps 0x15c41(%rip),%xmm12 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,13,74,92,1,0 // movaps 0x15c4a(%rip),%xmm1 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,37,133,92,1,0 // addps 0x15c85(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,13,142,92,1,0 // movaps 0x15c8e(%rip),%xmm1 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,74,92,1,0 // movaps 0x15c4a(%rip),%xmm10 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,21,142,92,1,0 // movaps 0x15c8e(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,79,92,1,0 // movaps 0x15c4f(%rip),%xmm1 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 15,40,13,147,92,1,0 // movaps 0x15c93(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,80,92,1,0 // mulps 0x15c50(%rip),%xmm1 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,89,13,148,92,1,0 // mulps 0x15c94(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -30380,7 +37506,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,235,88,1,0 // minps 0x158eb(%rip),%xmm1 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,13,47,89,1,0 // minps 0x1592f(%rip),%xmm1 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30410,31 +37536,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,28,91,1,0 // mulps 0x15b1c(%rip),%xmm12 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,29,36,91,1,0 // andps 0x15b24(%rip),%xmm11 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,29,92,88,1,0 // orps 0x1585c(%rip),%xmm11 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,37,36,91,1,0 // addps 0x15b24(%rip),%xmm12 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 15,40,21,45,91,1,0 // movaps 0x15b2d(%rip),%xmm2 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,37,96,91,1,0 // mulps 0x15b60(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,29,104,91,1,0 // andps 0x15b68(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,29,160,88,1,0 // orps 0x158a0(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,37,104,91,1,0 // addps 0x15b68(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,40,21,113,91,1,0 // movaps 0x15b71(%rip),%xmm2 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,45,91,1,0 // addps 0x15b2d(%rip),%xmm11 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,40,21,54,91,1,0 // movaps 0x15b36(%rip),%xmm2 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,29,113,91,1,0 // addps 0x15b71(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,21,122,91,1,0 // movaps 0x15b7a(%rip),%xmm2 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,35,91,1,0 // addps 0x15b23(%rip),%xmm12 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,21,44,91,1,0 // movaps 0x15b2c(%rip),%xmm2 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,37,103,91,1,0 // addps 0x15b67(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,21,112,91,1,0 // movaps 0x15b70(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,44,91,1,0 // movaps 0x15b2c(%rip),%xmm10 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,21,112,91,1,0 // movaps 0x15b70(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,49,91,1,0 // movaps 0x15b31(%rip),%xmm2 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 15,40,21,117,91,1,0 // movaps 0x15b75(%rip),%xmm2 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,50,91,1,0 // mulps 0x15b32(%rip),%xmm2 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,89,21,118,91,1,0 // mulps 0x15b76(%rip),%xmm2 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -30442,7 +37568,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,205,87,1,0 // minps 0x157cd(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,21,17,88,1,0 // minps 0x15811(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30472,31 +37598,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,254,89,1,0 // mulps 0x159fe(%rip),%xmm12 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,29,6,90,1,0 // andps 0x15a06(%rip),%xmm11 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,29,62,87,1,0 // orps 0x1573e(%rip),%xmm11 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,37,6,90,1,0 // addps 0x15a06(%rip),%xmm12 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 15,40,29,15,90,1,0 // movaps 0x15a0f(%rip),%xmm3 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,37,66,90,1,0 // mulps 0x15a42(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,29,74,90,1,0 // andps 0x15a4a(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,29,130,87,1,0 // orps 0x15782(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,37,74,90,1,0 // addps 0x15a4a(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 15,40,29,83,90,1,0 // movaps 0x15a53(%rip),%xmm3 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,15,90,1,0 // addps 0x15a0f(%rip),%xmm11 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 15,40,29,24,90,1,0 // movaps 0x15a18(%rip),%xmm3 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,29,83,90,1,0 // addps 0x15a53(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 15,40,29,92,90,1,0 // movaps 0x15a5c(%rip),%xmm3 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,5,90,1,0 // addps 0x15a05(%rip),%xmm12 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 15,40,29,14,90,1,0 // movaps 0x15a0e(%rip),%xmm3 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,37,73,90,1,0 // addps 0x15a49(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,29,82,90,1,0 // movaps 0x15a52(%rip),%xmm3 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,14,90,1,0 // movaps 0x15a0e(%rip),%xmm10 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,21,82,90,1,0 // movaps 0x15a52(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,19,90,1,0 // movaps 0x15a13(%rip),%xmm3 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 15,40,29,87,90,1,0 // movaps 0x15a57(%rip),%xmm3 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,20,90,1,0 // mulps 0x15a14(%rip),%xmm3 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,89,29,88,90,1,0 // mulps 0x15a58(%rip),%xmm3 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -30504,7 +37630,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,175,86,1,0 // minps 0x156af(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,29,243,86,1,0 // minps 0x156f3(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -30521,20 +37647,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,30,89,1,0 // mulps 0x1591e(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,40,53,38,89,1,0 // movaps 0x15926(%rip),%xmm14 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 15,89,5,98,89,1,0 // mulps 0x15962(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,40,53,106,89,1,0 // movaps 0x1596a(%rip),%xmm14 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,90,86,1,0 // movaps 0x1565a(%rip),%xmm12 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,37,158,86,1,0 // movaps 0x1569e(%rip),%xmm12 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,30,89,1,0 // movaps 0x1591e(%rip),%xmm10 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 68,15,40,21,98,89,1,0 // movaps 0x15962(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,34,89,1,0 // movaps 0x15922(%rip),%xmm11 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,29,102,89,1,0 // movaps 0x15966(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,32,89,1,0 // movaps 0x15920(%rip),%xmm9 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,13,100,89,1,0 // movaps 0x15964(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,36,89,1,0 // movaps 0x15924(%rip),%xmm13 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,45,104,89,1,0 // movaps 0x15968(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30545,21 +37671,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,7,89,1,0 // movaps 0x15907(%rip),%xmm6 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 15,40,53,75,89,1,0 // movaps 0x1594b(%rip),%xmm6 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,29,89,1,0 // movaps 0x1591d(%rip),%xmm7 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 15,40,61,97,89,1,0 // movaps 0x15961(%rip),%xmm7 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,253,88,1,0 // movaps 0x158fd(%rip),%xmm4 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 15,40,37,65,89,1,0 // movaps 0x15941(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,15,89,1,0 // movaps 0x1590f(%rip),%xmm15 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,61,83,89,1,0 // movaps 0x15953(%rip),%xmm15 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,107,88,1,0 // mulps 0x1586b(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
+ .byte 15,89,5,175,88,1,0 // mulps 0x158af(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -30585,8 +37711,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,12,88,1,0 // mulps 0x1580c(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 15,84,29,21,88,1,0 // andps 0x15815(%rip),%xmm3 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 15,89,5,80,88,1,0 // mulps 0x15850(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,84,29,89,88,1,0 // andps 0x15859(%rip),%xmm3 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -30604,7 +37730,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,93,88,1,0 // movaps 0x1585d(%rip),%xmm0 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,5,161,88,1,0 // movaps 0x158a1(%rip),%xmm0 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -30624,29 +37750,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,45,88,1,0 // mulps 0x1582d(%rip),%xmm8 # 2b7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
- .byte 68,15,40,13,181,85,1,0 // movaps 0x155b5(%rip),%xmm9 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,89,5,113,88,1,0 // mulps 0x15871(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,13,249,85,1,0 // movaps 0x155f9(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,42,88,1,0 // movaps 0x1582a(%rip),%xmm0 # 2b7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 15,40,5,110,88,1,0 // movaps 0x1586e(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,40,88,1,0 // addps 0x15828(%rip),%xmm8 # 2b800 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
- .byte 68,15,89,5,48,88,1,0 // mulps 0x15830(%rip),%xmm8 # 2b810 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
- .byte 15,89,13,57,88,1,0 // mulps 0x15839(%rip),%xmm1 # 2b820 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 68,15,88,5,108,88,1,0 // addps 0x1586c(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 68,15,89,5,116,88,1,0 // mulps 0x15874(%rip),%xmm8 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+ .byte 15,89,13,125,88,1,0 // mulps 0x1587d(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,62,88,1,0 // mulps 0x1583e(%rip),%xmm2 # 2b830 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 15,89,21,130,88,1,0 // mulps 0x15882(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,50,88,1,0 // movaps 0x15832(%rip),%xmm9 # 2b840 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 68,15,40,13,118,88,1,0 // movaps 0x15876(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,50,88,1,0 // movaps 0x15832(%rip),%xmm2 # 2b850 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+ .byte 15,40,21,118,88,1,0 // movaps 0x15876(%rip),%xmm2 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,55,88,1,0 // movaps 0x15837(%rip),%xmm12 # 2b860 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+ .byte 68,15,40,37,123,88,1,0 // movaps 0x1587b(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -30665,8 +37791,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,240,87,1,0 // mulps 0x157f0(%rip),%xmm1 # 2b870 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
- .byte 15,89,21,249,87,1,0 // mulps 0x157f9(%rip),%xmm2 # 2b880 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+ .byte 15,89,13,52,88,1,0 // mulps 0x15834(%rip),%xmm1 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 15,89,21,61,88,1,0 // mulps 0x1583d(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -30683,11 +37809,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 160d1 <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1d70d <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,135,84,1,0 // pand 0x15487(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,5,203,84,1,0 // pand 0x154cb(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,205,85,1,0 // mulps 0x155cd(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,17,86,1,0 // mulps 0x15611(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30696,12 +37822,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 16113 <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1d74f <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 160fd <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1d739 <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 160b1 <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1d6ed <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30709,10 +37835,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 160b1 <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1d6ed <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 160b1 <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1d6ed <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -30725,11 +37851,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1615d <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1d799 <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,251,83,1,0 // pand 0x153fb(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,37,63,84,1,0 // pand 0x1543f(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,65,85,1,0 // mulps 0x15541(%rip),%xmm7 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,61,133,85,1,0 // mulps 0x15585(%rip),%xmm7 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -30738,12 +37864,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1619f <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1d7db <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 16189 <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1d7c5 <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1613d <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1d779 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30751,10 +37877,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1613d <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1d779 <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1613d <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1d779 <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -30797,7 +37923,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,57,84,1,0 // mulps 0x15439(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,125,84,1,0 // mulps 0x1547d(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -30814,13 +37940,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,240,82,1,0 // movaps 0x152f0(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,52,83,1,0 // movaps 0x15334(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 162a6 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1d8e2 <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30829,17 +37955,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 162e2 <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1d91e <_sk_store_a8_sse41+0x7d>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 162ce <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1d90a <_sk_store_a8_sse41+0x69>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 162a2 <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1d8de <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,184,85,1,0 // pshufb 0x155b8(%rip),%xmm8 # 2b890 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
+ .byte 102,68,15,56,0,5,252,85,1,0 // pshufb 0x155fc(%rip),%xmm8 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 162a2 <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1d8de <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 162a2 <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1d8de <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -30852,25 +37978,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1632e <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1d96a <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,45,82,1,0 // pand 0x1522d(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,5,113,82,1,0 // pand 0x15271(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,115,83,1,0 // mulps 0x15373(%rip),%xmm0 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,5,183,83,1,0 // mulps 0x153b7(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,106,81,1,0 // movaps 0x1516a(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,174,81,1,0 // movaps 0x151ae(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 16370 <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1d9ac <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1635a <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1d996 <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1630b <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1d947 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -30878,10 +38004,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1630b <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1d947 <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1630b <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1d947 <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -30894,25 +38020,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 163bd <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1d9f9 <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,158,81,1,0 // pand 0x1519e(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,37,226,81,1,0 // pand 0x151e2(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,228,82,1,0 // mulps 0x152e4(%rip),%xmm4 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,37,40,83,1,0 // mulps 0x15328(%rip),%xmm4 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,219,80,1,0 // movaps 0x150db(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,61,31,81,1,0 // movaps 0x1511f(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 163ff <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1da3b <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 163e9 <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1da25 <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1639a <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -30920,10 +38046,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1639a <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1639a <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -30966,9 +38092,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,217,81,1,0 // mulps 0x151d9(%rip),%xmm0 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,5,29,82,1,0 // mulps 0x1521d(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,208,79,1,0 // movaps 0x14fd0(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,20,80,1,0 // movaps 0x15014(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -30985,41 +38111,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 16533 <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1db6f <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,174,81,1,0 // movdqa 0x151ae(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,242,81,1,0 // movdqa 0x151f2(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,176,81,1,0 // mulps 0x151b0(%rip),%xmm0 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,13,184,81,1,0 // movdqa 0x151b8(%rip),%xmm1 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,5,244,81,1,0 // mulps 0x151f4(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,13,252,81,1,0 // movdqa 0x151fc(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,186,81,1,0 // mulps 0x151ba(%rip),%xmm1 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,21,194,81,1,0 // pand 0x151c2(%rip),%xmm2 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,13,254,81,1,0 // mulps 0x151fe(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,21,6,82,1,0 // pand 0x15206(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,200,81,1,0 // mulps 0x151c8(%rip),%xmm2 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,21,12,82,1,0 // mulps 0x1520c(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,95,79,1,0 // movaps 0x14f5f(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,163,79,1,0 // movaps 0x14fa3(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 16575 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1dbb1 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1655f <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1db9b <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 164ea <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1db26 <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 164ea <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1db26 <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 164ea <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1db26 <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -31033,41 +38159,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 165ee <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1dc2a <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,243,80,1,0 // movdqa 0x150f3(%rip),%xmm4 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,37,55,81,1,0 // movdqa 0x15137(%rip),%xmm4 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,245,80,1,0 // mulps 0x150f5(%rip),%xmm4 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,45,253,80,1,0 // movdqa 0x150fd(%rip),%xmm5 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,37,57,81,1,0 // mulps 0x15139(%rip),%xmm4 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,45,65,81,1,0 // movdqa 0x15141(%rip),%xmm5 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,255,80,1,0 // mulps 0x150ff(%rip),%xmm5 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,53,7,81,1,0 // pand 0x15107(%rip),%xmm6 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,45,67,81,1,0 // mulps 0x15143(%rip),%xmm5 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,53,75,81,1,0 // pand 0x1514b(%rip),%xmm6 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,13,81,1,0 // mulps 0x1510d(%rip),%xmm6 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,53,81,81,1,0 // mulps 0x15151(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,164,78,1,0 // movaps 0x14ea4(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,61,232,78,1,0 // movaps 0x14ee8(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 16630 <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1dc6c <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1661a <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1dc56 <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 165a5 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1dbe1 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 165a5 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dbe1 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 165a5 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dbe1 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -31109,19 +38235,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,186,79,1,0 // movdqa 0x14fba(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,254,79,1,0 // movdqa 0x14ffe(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,188,79,1,0 // mulps 0x14fbc(%rip),%xmm0 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,13,196,79,1,0 // movdqa 0x14fc4(%rip),%xmm1 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,5,0,80,1,0 // mulps 0x15000(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,13,8,80,1,0 // movdqa 0x15008(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,198,79,1,0 // mulps 0x14fc6(%rip),%xmm1 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,21,206,79,1,0 // pand 0x14fce(%rip),%xmm2 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,13,10,80,1,0 // mulps 0x1500a(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,21,18,80,1,0 // pand 0x15012(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,212,79,1,0 // mulps 0x14fd4(%rip),%xmm2 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,21,24,80,1,0 // mulps 0x15018(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,107,77,1,0 // movaps 0x14d6b(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,175,77,1,0 // movaps 0x14daf(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -31135,12 +38261,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,91,81,1,0 // movaps 0x1515b(%rip),%xmm8 # 2b8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+ .byte 68,15,40,5,159,81,1,0 // movaps 0x1519f(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,80,81,1,0 // movaps 0x15150(%rip),%xmm10 # 2b8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+ .byte 68,15,40,21,148,81,1,0 // movaps 0x15194(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -31150,7 +38276,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 16797 <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1ddd3 <_sk_store_565_sse41+0x70>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31158,17 +38284,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 167cd <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1de09 <_sk_store_565_sse41+0xa6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 167bf <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1ddfb <_sk_store_565_sse41+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 16793 <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1ddcf <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 16793 <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1ddcf <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 16793 <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1ddcf <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -31182,44 +38308,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 16851 <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1de8d <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,191,80,1,0 // movdqa 0x150bf(%rip),%xmm0 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,5,3,81,1,0 // movdqa 0x15103(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,193,80,1,0 // mulps 0x150c1(%rip),%xmm0 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,13,201,80,1,0 // movdqa 0x150c9(%rip),%xmm1 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,5,5,81,1,0 // mulps 0x15105(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,13,13,81,1,0 // movdqa 0x1510d(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,203,80,1,0 // mulps 0x150cb(%rip),%xmm1 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,21,211,80,1,0 // movdqa 0x150d3(%rip),%xmm2 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,13,15,81,1,0 // mulps 0x1510f(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,21,23,81,1,0 // movdqa 0x15117(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,213,80,1,0 // mulps 0x150d5(%rip),%xmm2 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,29,221,80,1,0 // pand 0x150dd(%rip),%xmm3 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,21,25,81,1,0 // mulps 0x15119(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,29,33,81,1,0 // pand 0x15121(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,227,80,1,0 // mulps 0x150e3(%rip),%xmm3 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,29,39,81,1,0 // mulps 0x15127(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 16893 <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1decf <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1687d <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1deb9 <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 167f9 <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1de35 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 167f9 <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1de35 <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 167f9 <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1de35 <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -31233,44 +38359,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1691b <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1df57 <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,245,79,1,0 // movdqa 0x14ff5(%rip),%xmm4 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,37,57,80,1,0 // movdqa 0x15039(%rip),%xmm4 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,247,79,1,0 // mulps 0x14ff7(%rip),%xmm4 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,45,255,79,1,0 // movdqa 0x14fff(%rip),%xmm5 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,37,59,80,1,0 // mulps 0x1503b(%rip),%xmm4 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,45,67,80,1,0 // movdqa 0x15043(%rip),%xmm5 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,1,80,1,0 // mulps 0x15001(%rip),%xmm5 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,53,9,80,1,0 // movdqa 0x15009(%rip),%xmm6 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,45,69,80,1,0 // mulps 0x15045(%rip),%xmm5 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,53,77,80,1,0 // movdqa 0x1504d(%rip),%xmm6 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,11,80,1,0 // mulps 0x1500b(%rip),%xmm6 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,61,19,80,1,0 // pand 0x15013(%rip),%xmm7 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,53,79,80,1,0 // mulps 0x1504f(%rip),%xmm6 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,61,87,80,1,0 // pand 0x15057(%rip),%xmm7 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,25,80,1,0 // mulps 0x15019(%rip),%xmm7 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,61,93,80,1,0 // mulps 0x1505d(%rip),%xmm7 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1695d <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1df99 <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 16947 <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1df83 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 168c3 <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1deff <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 168c3 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1deff <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 168c3 <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1deff <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -31312,21 +38438,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,173,78,1,0 // movdqa 0x14ead(%rip),%xmm0 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,5,241,78,1,0 // movdqa 0x14ef1(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,175,78,1,0 // mulps 0x14eaf(%rip),%xmm0 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,13,183,78,1,0 // movdqa 0x14eb7(%rip),%xmm1 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,5,243,78,1,0 // mulps 0x14ef3(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,13,251,78,1,0 // movdqa 0x14efb(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,185,78,1,0 // mulps 0x14eb9(%rip),%xmm1 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,21,193,78,1,0 // movdqa 0x14ec1(%rip),%xmm2 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,13,253,78,1,0 // mulps 0x14efd(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,21,5,79,1,0 // movdqa 0x14f05(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,195,78,1,0 // mulps 0x14ec3(%rip),%xmm2 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,29,203,78,1,0 // pand 0x14ecb(%rip),%xmm3 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,21,7,79,1,0 // mulps 0x14f07(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,29,15,79,1,0 // pand 0x14f0f(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,209,78,1,0 // mulps 0x14ed1(%rip),%xmm3 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,29,21,79,1,0 // mulps 0x14f15(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31341,7 +38467,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,191,78,1,0 // movaps 0x14ebf(%rip),%xmm8 # 2b940 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 68,15,40,5,3,79,1,0 // movaps 0x14f03(%rip),%xmm8 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31361,7 +38487,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 16ae7 <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1e123 <_sk_store_4444_sse41+0x84>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -31369,17 +38495,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 16b1d <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1e159 <_sk_store_4444_sse41+0xba>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 16b0f <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1e14b <_sk_store_4444_sse41+0xac>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 16ae3 <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1e11f <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 16ae3 <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1e11f <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 16ae3 <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1e11f <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -31393,19 +38519,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 16b9c <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1e1d8 <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,239,73,1,0 // movdqa 0x149ef(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,51,74,1,0 // movdqa 0x14a33(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,48,75,1,0 // movaps 0x14b30(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,116,75,1,0 // movaps 0x14b74(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,223,73,1,0 // pshufb 0x149df(%rip),%xmm1 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,13,35,74,1,0 // pshufb 0x14a23(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,219,73,1,0 // pshufb 0x149db(%rip),%xmm2 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,21,31,74,1,0 // pshufb 0x14a1f(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31416,19 +38542,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 16bd6 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1e212 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 16bc5 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1e201 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 16b49 <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1e185 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 16b49 <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e185 <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 16b49 <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e185 <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -31442,19 +38568,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 16c56 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1e292 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,53,73,1,0 // movdqa 0x14935(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,37,121,73,1,0 // movdqa 0x14979(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,118,74,1,0 // movaps 0x14a76(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,186,74,1,0 // movaps 0x14aba(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,37,73,1,0 // pshufb 0x14925(%rip),%xmm5 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,45,105,73,1,0 // pshufb 0x14969(%rip),%xmm5 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,33,73,1,0 // pshufb 0x14921(%rip),%xmm6 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,53,101,73,1,0 // pshufb 0x14965(%rip),%xmm6 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31465,19 +38591,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 16c90 <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1e2cc <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 16c7f <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1e2bb <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 16c03 <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1e23f <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 16c03 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e23f <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 16c03 <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e23f <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -31514,17 +38640,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,14,72,1,0 // movdqa 0x1480e(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,82,72,1,0 // movdqa 0x14852(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,79,73,1,0 // movaps 0x1494f(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,147,73,1,0 // movaps 0x14993(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,254,71,1,0 // pshufb 0x147fe(%rip),%xmm1 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,13,66,72,1,0 // pshufb 0x14842(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,250,71,1,0 // pshufb 0x147fa(%rip),%xmm2 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,21,62,72,1,0 // pshufb 0x1483e(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31544,7 +38670,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,212,71,1,0 // movaps 0x147d4(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,24,72,1,0 // movaps 0x14818(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31563,23 +38689,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 16dfc <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 1e438 <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 16e26 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 1e462 <_sk_store_8888_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 16e1e <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 1e45a <_sk_store_8888_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 16df8 <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 1e434 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 16df8 <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 1e434 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 16df8 <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 1e434 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -31593,19 +38719,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 16ea3 <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 1e4df <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,232,70,1,0 // movdqa 0x146e8(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,44,71,1,0 // movdqa 0x1472c(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,41,72,1,0 // movaps 0x14829(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,109,72,1,0 // movaps 0x1486d(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,216,70,1,0 // pshufb 0x146d8(%rip),%xmm0 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,5,28,71,1,0 // pshufb 0x1471c(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,212,70,1,0 // pshufb 0x146d4(%rip),%xmm0 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,5,24,71,1,0 // pshufb 0x14718(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31616,19 +38742,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 16edd <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 1e519 <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 16ecc <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 1e508 <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 16e50 <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 1e48c <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 16e50 <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e48c <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 16e50 <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e48c <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -31642,19 +38768,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 16f5d <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 1e599 <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,46,70,1,0 // movdqa 0x1462e(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,37,114,70,1,0 // movdqa 0x14672(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,111,71,1,0 // movaps 0x1476f(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,179,71,1,0 // movaps 0x147b3(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,30,70,1,0 // pshufb 0x1461e(%rip),%xmm4 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,37,98,70,1,0 // pshufb 0x14662(%rip),%xmm4 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,26,70,1,0 // pshufb 0x1461a(%rip),%xmm4 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,37,94,70,1,0 // pshufb 0x1465e(%rip),%xmm4 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -31665,19 +38791,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 16f97 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 1e5d3 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 16f86 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 1e5c2 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 16f0a <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 1e546 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 16f0a <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e546 <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 16f0a <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e546 <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -31714,17 +38840,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,7,69,1,0 // movdqa 0x14507(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,75,69,1,0 // movdqa 0x1454b(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,72,70,1,0 // movaps 0x14648(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,140,70,1,0 // movaps 0x1468c(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,247,68,1,0 // pshufb 0x144f7(%rip),%xmm0 # 2b550 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
+ .byte 102,15,56,0,5,59,69,1,0 // pshufb 0x1453b(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,243,68,1,0 // pshufb 0x144f3(%rip),%xmm0 # 2b560 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
+ .byte 102,15,56,0,5,55,69,1,0 // pshufb 0x14537(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -31744,7 +38870,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,205,68,1,0 // movaps 0x144cd(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,17,69,1,0 // movaps 0x14511(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -31763,23 +38889,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 17103 <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 1e73f <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1712d <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 1e769 <_sk_store_bgra_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 17125 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 1e761 <_sk_store_bgra_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 170ff <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 1e73b <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 170ff <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 1e73b <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 170ff <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 1e73b <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -31793,7 +38919,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 17299 <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1e8d5 <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -31803,19 +38929,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,194,71,1,0 // movdqa 0x147c2(%rip),%xmm8 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,5,6,72,1,0 // movdqa 0x14806(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,192,71,1,0 // movdqa 0x147c0(%rip),%xmm10 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,21,4,72,1,0 // movdqa 0x14804(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,195,71,1,0 // movdqa 0x147c3(%rip),%xmm3 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,29,7,72,1,0 // movdqa 0x14807(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,175,71,1,0 // movdqa 0x147af(%rip),%xmm11 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,29,243,71,1,0 // movdqa 0x147f3(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -31858,16 +38984,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 172b2 <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 1e8ee <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 17162 <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e79e <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 17162 <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e79e <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 17162 <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e79e <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -31881,7 +39007,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 17437 <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1ea73 <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -31891,19 +39017,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,36,70,1,0 // movdqa 0x14624(%rip),%xmm8 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,5,104,70,1,0 // movdqa 0x14668(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,34,70,1,0 // movdqa 0x14622(%rip),%xmm10 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,21,102,70,1,0 // movdqa 0x14666(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,37,70,1,0 // movdqa 0x14625(%rip),%xmm7 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,61,105,70,1,0 // movdqa 0x14669(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,17,70,1,0 // movdqa 0x14611(%rip),%xmm11 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,29,85,70,1,0 // movdqa 0x14655(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -31946,16 +39072,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 17450 <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 1ea8c <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 17300 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e93c <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 17300 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e93c <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 17300 <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e93c <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -32001,19 +39127,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,34,68,1,0 // movdqa 0x14422(%rip),%xmm8 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,5,102,68,1,0 // movdqa 0x14466(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,32,68,1,0 // movdqa 0x14420(%rip),%xmm10 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,21,100,68,1,0 // movdqa 0x14464(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,35,68,1,0 // movdqa 0x14423(%rip),%xmm3 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,29,103,68,1,0 // movdqa 0x14467(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,15,68,1,0 // movdqa 0x1440f(%rip),%xmm11 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,29,83,68,1,0 // movdqa 0x14453(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -32066,20 +39192,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,55,67,1,0 // movdqa 0x14337(%rip),%xmm9 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,13,123,67,1,0 // movdqa 0x1437b(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,52,67,1,0 // movdqa 0x14334(%rip),%xmm11 # 2b9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,29,120,67,1,0 // movdqa 0x14378(%rip),%xmm11 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,49,67,1,0 // movdqa 0x14331(%rip),%xmm10 # 2b9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
+ .byte 102,68,15,111,21,117,67,1,0 // movdqa 0x14375(%rip),%xmm10 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,23,67,1,0 // movdqa 0x14317(%rip),%xmm12 # 2b9c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
+ .byte 102,68,15,111,37,91,67,1,0 // movdqa 0x1435b(%rip),%xmm12 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -32124,7 +39250,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 177a7 <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 1ede3 <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -32132,13 +39258,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 177a3 <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 1eddf <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 177a3 <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 1eddf <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 177a3 <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 1eddf <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -32153,7 +39279,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 178ae <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 1eeea <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -32169,7 +39295,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,223,62,1,0 // movaps 0x13edf(%rip),%xmm8 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,40,5,35,63,1,0 // movaps 0x13f23(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32197,16 +39323,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 178c7 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 1ef03 <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 17802 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 1ee3e <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 17802 <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 1ee3e <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 17802 <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 1ee3e <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -32223,7 +39349,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 179bd <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 1eff9 <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -32243,7 +39369,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,174,61,1,0 // movaps 0x13dae(%rip),%xmm8 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,40,5,242,61,1,0 // movaps 0x13df2(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -32260,27 +39386,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,213,58,1,0 // movaps 0x13ad5(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,25,59,1,0 // movaps 0x13b19(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 179e2 <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 1f01e <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 17a13 <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 1f04f <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 17937 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -32294,7 +39420,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,142,63,1,0 // movaps 0x13f8e(%rip),%xmm10 # 2b9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,21,210,63,1,0 // movaps 0x13fd2(%rip),%xmm10 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -32331,7 +39457,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 17b10 <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 1f14c <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -32339,13 +39465,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 17b0c <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 1f148 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 17b0c <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 1f148 <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 17b0c <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 1f148 <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -32361,7 +39487,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 17ba2 <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 1f1de <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -32381,17 +39507,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 17bb4 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 1f1f0 <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 17b72 <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 17bc8 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 1f204 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 17b72 <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 17b72 <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -32407,7 +39533,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 17c38 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 1f274 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -32427,17 +39553,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 17c4a <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 1f286 <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 17c08 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 17c5e <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 1f29a <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 17c08 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 17c08 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -32466,7 +39592,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 17ce0 <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 1f31c <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -32474,12 +39600,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 17cdc <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 1f318 <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 17cdc <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 1f318 <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 17cdc <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 1f318 <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -32525,7 +39651,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,0,53,1,0 // mulss 0x13500(%rip),%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,13,68,53,1,0 // mulss 0x13544(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32550,7 +39676,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,167,52,1,0 // mulss 0x134a7(%rip),%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,13,235,52,1,0 // mulss 0x134eb(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -32569,7 +39695,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,119,54,1,0 // minps 0x13677(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,93,5,187,54,1,0 // minps 0x136bb(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -32587,9 +39713,9 @@ HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,184,54,1,0 // movaps 0x136b8(%rip),%xmm8 # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 68,15,40,5,252,54,1,0 // movaps 0x136fc(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,60,54,1,0 // movaps 0x1363c(%rip),%xmm9 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,13,128,54,1,0 // movaps 0x13680(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
@@ -32606,10 +39732,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,107,59,1,0 // mulps 0x13b6b(%rip),%xmm0 # 2b9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
- .byte 15,89,13,116,59,1,0 // mulps 0x13b74(%rip),%xmm1 # 2b9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+ .byte 15,89,5,175,59,1,0 // mulps 0x13baf(%rip),%xmm0 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 15,89,13,184,59,1,0 // mulps 0x13bb8(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,122,59,1,0 // mulps 0x13b7a(%rip),%xmm3 # 2ba00 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
+ .byte 15,89,29,190,59,1,0 // mulps 0x13bbe(%rip),%xmm3 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -32921,9 +40047,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 18326 <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 1f962 <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 1833b <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 1f977 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -33012,15 +40138,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,41,53,1,0 // movaps 0x13529(%rip),%xmm0 # 2ba10 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+ .byte 15,40,5,109,53,1,0 // movaps 0x1356d(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,47,53,1,0 // addps 0x1352f(%rip),%xmm0 # 2ba20 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+ .byte 15,88,5,115,53,1,0 // addps 0x13573(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,53,53,1,0 // addps 0x13535(%rip),%xmm0 # 2ba30 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+ .byte 15,88,5,121,53,1,0 // addps 0x13579(%rip),%xmm0 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,59,53,1,0 // addps 0x1353b(%rip),%xmm0 # 2ba40 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+ .byte 15,88,5,127,53,1,0 // addps 0x1357f(%rip),%xmm0 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,65,53,1,0 // addps 0x13541(%rip),%xmm0 # 2ba50 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+ .byte 15,88,5,133,53,1,0 // addps 0x13585(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -33035,7 +40161,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 18554 <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 1fb90 <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -33046,7 +40172,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 1853a <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 1fb76 <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -33177,26 +40303,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,184,50,1,0 // movaps 0x132b8(%rip),%xmm10 # 2ba60 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+ .byte 68,15,40,21,252,50,1,0 // movaps 0x132fc(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,188,50,1,0 // addps 0x132bc(%rip),%xmm10 # 2ba70 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+ .byte 68,15,88,21,0,51,1,0 // addps 0x13300(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,192,50,1,0 // addps 0x132c0(%rip),%xmm10 # 2ba80 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+ .byte 68,15,88,21,4,51,1,0 // addps 0x13304(%rip),%xmm10 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,196,50,1,0 // addps 0x132c4(%rip),%xmm10 # 2ba90 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+ .byte 68,15,88,21,8,51,1,0 // addps 0x13308(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,195,50,1,0 // movaps 0x132c3(%rip),%xmm11 # 2baa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+ .byte 68,15,40,29,7,51,1,0 // movaps 0x13307(%rip),%xmm11 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,140,44,1,0 // movaps 0x12c8c(%rip),%xmm11 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,29,208,44,1,0 // movaps 0x12cd0(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,126,44,1,0 // movaps 0x12c7e(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,194,44,1,0 // movaps 0x12cc2(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -33230,7 +40356,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,55,50,1,0 // mulps 0x13237(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,123,50,1,0 // mulps 0x1327b(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33238,7 +40364,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,34,50,1,0 // mulps 0x13222(%rip),%xmm10 # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,89,21,102,50,1,0 // mulps 0x13266(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33247,8 +40373,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,202,48,1,0 // xorps 0x130ca(%rip),%xmm9 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
- .byte 68,15,89,5,178,43,1,0 // mulps 0x12bb2(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,87,13,14,49,1,0 // xorps 0x1310e(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,89,5,246,43,1,0 // mulps 0x12bf6(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33269,7 +40395,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,153,49,1,0 // mulps 0x13199(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,221,49,1,0 // mulps 0x131dd(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -33277,7 +40403,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,132,49,1,0 // mulps 0x13184(%rip),%xmm10 # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,89,21,200,49,1,0 // mulps 0x131c8(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -33286,8 +40412,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,44,48,1,0 // xorps 0x1302c(%rip),%xmm9 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
- .byte 68,15,89,5,20,43,1,0 // mulps 0x12b14(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,87,13,112,48,1,0 // xorps 0x13070(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,89,5,88,43,1,0 // mulps 0x12b58(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -33305,7 +40431,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,12,49,1,0 // mulps 0x1310c(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,80,49,1,0 // mulps 0x13150(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -33313,7 +40439,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,200,47,1,0 // xorps 0x12fc8(%rip),%xmm0 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 15,87,5,12,48,1,0 // xorps 0x1300c(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33361,7 +40487,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,55,42,1,0 // movaps 0x12a37(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,123,42,1,0 // movaps 0x12a7b(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -33405,8 +40531,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,249,47,1,0 // addps 0x12ff9(%rip),%xmm0 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,177,41,1,0 // movaps 0x129b1(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,61,48,1,0 // addps 0x1303d(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,245,41,1,0 // movaps 0x129f5(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33419,7 +40545,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,128,41,1,0 // addps 0x12980(%rip),%xmm0 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,5,196,41,1,0 // addps 0x129c4(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33431,8 +40557,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,178,47,1,0 // addps 0x12fb2(%rip),%xmm1 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,106,41,1,0 // movaps 0x1296a(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,246,47,1,0 // addps 0x12ff6(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,174,41,1,0 // movaps 0x129ae(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33445,7 +40571,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,56,41,1,0 // addps 0x12938(%rip),%xmm1 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,13,124,41,1,0 // addps 0x1297c(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33457,13 +40583,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,123,47,1,0 // addps 0x12f7b(%rip),%xmm0 # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
- .byte 68,15,40,13,35,41,1,0 // movaps 0x12923(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,191,47,1,0 // addps 0x12fbf(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,40,13,103,41,1,0 // movaps 0x12967(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,111,47,1,0 // mulps 0x12f6f(%rip),%xmm9 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,13,247,42,1,0 // addps 0x12af7(%rip),%xmm9 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,13,179,47,1,0 // mulps 0x12fb3(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,13,59,43,1,0 // addps 0x12b3b(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33476,16 +40602,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,38,47,1,0 // addps 0x12f26(%rip),%xmm0 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,222,40,1,0 // movaps 0x128de(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,106,47,1,0 // addps 0x12f6a(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,34,41,1,0 // movaps 0x12922(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,66,47,1,0 // movaps 0x12f42(%rip),%xmm8 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,5,134,47,1,0 // movaps 0x12f86(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,70,47,1,0 // addps 0x12f46(%rip),%xmm8 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,5,138,47,1,0 // addps 0x12f8a(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,170,40,1,0 // addps 0x128aa(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,88,5,238,40,1,0 // addps 0x128ee(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,62,47,1,0 // addps 0x12f3e(%rip),%xmm8 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,5,130,47,1,0 // addps 0x12f82(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33495,17 +40621,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,136,40,1,0 // movaps 0x12888(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,204,40,1,0 // movaps 0x128cc(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,244,46,1,0 // movaps 0x12ef4(%rip),%xmm10 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,21,56,47,1,0 // movaps 0x12f38(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,248,46,1,0 // addps 0x12ef8(%rip),%xmm10 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,21,60,47,1,0 // addps 0x12f3c(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,244,46,1,0 // addps 0x12ef4(%rip),%xmm10 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,21,56,47,1,0 // addps 0x12f38(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33517,11 +40643,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,199,46,1,0 // addps 0x12ec7(%rip),%xmm0 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 15,88,5,11,47,1,0 // addps 0x12f0b(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,151,46,1,0 // mulps 0x12e97(%rip),%xmm8 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,5,31,42,1,0 // addps 0x12a1f(%rip),%xmm8 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,5,219,46,1,0 // mulps 0x12edb(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,5,99,42,1,0 // addps 0x12a63(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33534,13 +40660,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,93,46,1,0 // addps 0x12e5d(%rip),%xmm1 # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
- .byte 68,15,40,13,5,40,1,0 // movaps 0x12805(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,161,46,1,0 // addps 0x12ea1(%rip),%xmm1 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,40,13,73,40,1,0 // movaps 0x12849(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,81,46,1,0 // mulps 0x12e51(%rip),%xmm9 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,13,217,41,1,0 // addps 0x129d9(%rip),%xmm9 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,13,149,46,1,0 // mulps 0x12e95(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,13,29,42,1,0 // addps 0x12a1d(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33553,16 +40679,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,7,46,1,0 // addps 0x12e07(%rip),%xmm1 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,191,39,1,0 // movaps 0x127bf(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,75,46,1,0 // addps 0x12e4b(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,3,40,1,0 // movaps 0x12803(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,35,46,1,0 // movaps 0x12e23(%rip),%xmm8 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,5,103,46,1,0 // movaps 0x12e67(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,39,46,1,0 // addps 0x12e27(%rip),%xmm8 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,5,107,46,1,0 // addps 0x12e6b(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,139,39,1,0 // addps 0x1278b(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,88,5,207,39,1,0 // addps 0x127cf(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,31,46,1,0 // addps 0x12e1f(%rip),%xmm8 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,5,99,46,1,0 // addps 0x12e63(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33572,17 +40698,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,105,39,1,0 // movaps 0x12769(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,173,39,1,0 // movaps 0x127ad(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,212,45,1,0 // movaps 0x12dd4(%rip),%xmm10 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,21,24,46,1,0 // movaps 0x12e18(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,216,45,1,0 // addps 0x12dd8(%rip),%xmm10 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,21,28,46,1,0 // addps 0x12e1c(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,212,45,1,0 // addps 0x12dd4(%rip),%xmm10 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,21,24,46,1,0 // addps 0x12e18(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -33594,11 +40720,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,166,45,1,0 // addps 0x12da6(%rip),%xmm1 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 15,88,13,234,45,1,0 // addps 0x12dea(%rip),%xmm1 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,118,45,1,0 // mulps 0x12d76(%rip),%xmm8 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,5,254,40,1,0 // addps 0x128fe(%rip),%xmm8 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,5,186,45,1,0 // mulps 0x12dba(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,5,66,41,1,0 // addps 0x12942(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -33709,7 +40835,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,97,44,1,0 // movaps 0x12c61(%rip),%xmm4 # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 15,40,37,165,44,1,0 // movaps 0x12ca5(%rip),%xmm4 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -33748,7 +40874,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,184,43,1,0 // movdqa 0x12bb8(%rip),%xmm12 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,68,15,111,37,252,43,1,0 // movdqa 0x12bfc(%rip),%xmm12 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -33771,7 +40897,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,188,36,1,0 // movdqa 0x124bc(%rip),%xmm4 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,37,0,37,1,0 // movdqa 0x12500(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -33944,7 +41070,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,199,39,1,0 // movdqa 0x127c7(%rip),%xmm5 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,45,11,40,1,0 // movdqa 0x1280b(%rip),%xmm5 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -33965,7 +41091,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,216,32,1,0 // movdqa 0x120d8(%rip),%xmm7 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,61,28,33,1,0 // movdqa 0x1211c(%rip),%xmm7 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34031,7 +41157,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,3,38,1,0 // movdqa 0x12603(%rip),%xmm1 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,71,38,1,0 // movdqa 0x12647(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -34052,7 +41178,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,14,31,1,0 // movdqa 0x11f0e(%rip),%xmm2 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,21,82,31,1,0 // movdqa 0x11f52(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -34179,7 +41305,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,97,35,1,0 // movaps 0x12361(%rip),%xmm3 # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 15,40,29,165,35,1,0 // movaps 0x123a5(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -34236,7 +41362,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,96,34,1,0 // movdqa 0x12260(%rip),%xmm11 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,68,15,111,29,164,34,1,0 // movdqa 0x122a4(%rip),%xmm11 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -34258,7 +41384,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,104,27,1,0 // movdqa 0x11b68(%rip),%xmm10 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,21,172,27,1,0 // movdqa 0x11bac(%rip),%xmm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -34276,7 +41402,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,150,33,1,0 // psubd 0x12196(%rip),%xmm3 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,29,218,33,1,0 // psubd 0x121da(%rip),%xmm3 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -34331,7 +41457,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,118,32,1,0 // psubd 0x12076(%rip),%xmm5 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,45,186,32,1,0 // psubd 0x120ba(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -34456,7 +41582,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,90,23,1,0 // movdqa 0x1175a(%rip),%xmm7 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,61,158,23,1,0 // movdqa 0x1179e(%rip),%xmm7 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -34542,7 +41668,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,158,21,1,0 // movdqa 0x1159e(%rip),%xmm10 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,21,226,21,1,0 // movdqa 0x115e2(%rip),%xmm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34638,7 +41764,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,56,26,1,0 // movdqa 0x11a38(%rip),%xmm2 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,21,124,26,1,0 // movdqa 0x11a7c(%rip),%xmm2 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -34659,7 +41785,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,71,19,1,0 // movdqa 0x11347(%rip),%xmm4 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,37,139,19,1,0 // movdqa 0x1138b(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -34731,7 +41857,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,99,24,1,0 // psubd 0x11863(%rip),%xmm2 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,21,167,24,1,0 // psubd 0x118a7(%rip),%xmm2 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34765,7 +41891,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,175,23,1,0 // psubd 0x117af(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,243,23,1,0 // psubd 0x117f3(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34830,7 +41956,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,70,22,1,0 // movdqa 0x11646(%rip),%xmm4 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,37,138,22,1,0 // movdqa 0x1168a(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -34851,7 +41977,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,87,15,1,0 // movdqa 0x10f57(%rip),%xmm3 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,29,155,15,1,0 // movdqa 0x10f9b(%rip),%xmm3 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -34923,7 +42049,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,119,20,1,0 // psubd 0x11477(%rip),%xmm0 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,5,187,20,1,0 // psubd 0x114bb(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -34941,7 +42067,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,133,13,1,0 // paddd 0x10d85(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,5,201,13,1,0 // paddd 0x10dc9(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34957,7 +42083,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,190,19,1,0 // psubd 0x113be(%rip),%xmm0 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,5,2,20,1,0 // psubd 0x11402(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -34975,7 +42101,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,204,12,1,0 // paddd 0x10ccc(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,5,16,13,1,0 // paddd 0x10d10(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -35038,7 +42164,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,137,11,1,0 // movaps 0x10b89(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,205,11,1,0 // movaps 0x10bcd(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -35074,13 +42200,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1a9e9 <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 22025 <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1a9b7 <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 21ff3 <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -35099,10 +42225,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1a980 <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 21fbc <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1a9e0 <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 2201c <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35116,7 +42242,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1a972 <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 21fae <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -35139,13 +42265,13 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,100,10,1,0 // addps 0x10a64(%rip),%xmm0 # 2b470 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
+ .byte 15,88,5,168,10,1,0 // addps 0x10aa8(%rip),%xmm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,97,10,1,0 // addps 0x10a61(%rip),%xmm1 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,13,165,10,1,0 // addps 0x10aa5(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,104,10,1,0 // movaps 0x10a68(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,172,10,1,0 // movaps 0x10aac(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -35160,18 +42286,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,1,10,1,0 // paddd 0x10a01(%rip),%xmm8 # 2b450 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 102,68,15,254,5,69,10,1,0 // paddd 0x10a45(%rip),%xmm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,56,10,1,0 // movdqa 0x10a38(%rip),%xmm10 # 2b4a0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
+ .byte 102,68,15,111,21,124,10,1,0 // movdqa 0x10a7c(%rip),%xmm10 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,36,10,1,0 // movdqa 0x10a24(%rip),%xmm12 # 2b4b0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
- .byte 102,68,15,111,45,43,10,1,0 // movdqa 0x10a2b(%rip),%xmm13 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,37,104,10,1,0 // movdqa 0x10a68(%rip),%xmm12 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
+ .byte 102,68,15,111,45,111,10,1,0 // movdqa 0x10a6f(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -35187,8 +42313,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,230,9,1,0 // mulps 0x109e6(%rip),%xmm8 # 2b4d0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
- .byte 68,15,88,5,238,9,1,0 // addps 0x109ee(%rip),%xmm8 # 2b4e0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
+ .byte 68,15,89,5,42,10,1,0 // mulps 0x10a2a(%rip),%xmm8 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
+ .byte 68,15,88,5,50,10,1,0 // addps 0x10a32(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -35230,7 +42356,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,36,9,1,0 // movaps 0x10924(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,104,9,1,0 // movaps 0x10968(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -35241,7 +42367,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,16,9,1,0 // movaps 0x10910(%rip),%xmm0 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,5,84,9,1,0 // movaps 0x10954(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -35287,7 +42413,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,192,8,1,0 // movaps 0x108c0(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,4,9,1,0 // movaps 0x10904(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35312,7 +42438,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,115,8,1,0 // movaps 0x10873(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,183,8,1,0 // movaps 0x108b7(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -35359,7 +42485,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,7,8,1,0 // movaps 0x10807(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,75,8,1,0 // movaps 0x1084b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -35372,7 +42498,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,231,7,1,0 // movaps 0x107e7(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,43,8,1,0 // movaps 0x1082b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -35389,7 +42515,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,186,7,1,0 // movaps 0x107ba(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,254,7,1,0 // movaps 0x107fe(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -35409,7 +42535,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,126,7,1,0 // movaps 0x1077e(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,194,7,1,0 // movaps 0x107c2(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -35437,7 +42563,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,66,7,1,0 // movaps 0x10742(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,134,7,1,0 // movaps 0x10786(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -35475,7 +42601,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,195,6,1,0 // movaps 0x106c3(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,7,7,1,0 // movaps 0x10707(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -35517,7 +42643,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,79,6,1,0 // movaps 0x1064f(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,147,6,1,0 // movaps 0x10693(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -35565,7 +42691,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,170,5,1,0 // movaps 0x105aa(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,238,5,1,0 // movaps 0x105ee(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35599,7 +42725,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,63,5,1,0 // movaps 0x1053f(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,131,5,1,0 // movaps 0x10583(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35636,7 +42762,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,201,4,1,0 // movaps 0x104c9(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,13,5,1,0 // movaps 0x1050d(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35664,7 +42790,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,121,4,1,0 // movaps 0x10479(%rip),%xmm2 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,21,189,4,1,0 // movaps 0x104bd(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -35677,7 +42803,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,92,4,1,0 // movaps 0x1045c(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,160,4,1,0 // movaps 0x104a0(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -35772,7 +42898,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,4,3,1,0 // movaps 0x10304(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,72,3,1,0 // movaps 0x10348(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35864,7 +42990,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,173,1,1,0 // movaps 0x101ad(%rip),%xmm11 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,29,241,1,1,0 // movaps 0x101f1(%rip),%xmm11 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -35952,7 +43078,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,107,0,1,0 // movaps 0x1006b(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,175,0,1,0 // movaps 0x100af(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -36043,7 +43169,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,24,255,0,0 // movaps 0xff18(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,92,255,0,0 // movaps 0xff5c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -36056,10 +43182,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,66,255,0,0 // movaps 0xff42(%rip),%xmm14 # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 68,15,40,53,134,255,0,0 // movaps 0xff86(%rip),%xmm14 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,66,255,0,0 // movaps 0xff42(%rip),%xmm10 # 2b500 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
+ .byte 68,15,40,21,134,255,0,0 // movaps 0xff86(%rip),%xmm10 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -36204,7 +43330,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,213,252,0,0 // movaps 0xfcd5(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,25,253,0,0 // movaps 0xfd19(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -36252,12 +43378,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,146,252,0,0 // movaps 0xfc92(%rip),%xmm15 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,61,214,252,0,0 // movaps 0xfcd6(%rip),%xmm15 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,151,252,0,0 // movaps 0xfc97(%rip),%xmm0 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 15,40,5,219,252,0,0 // movaps 0xfcdb(%rip),%xmm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,153,252,0,0 // movaps 0xfc99(%rip),%xmm14 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,53,221,252,0,0 // movaps 0xfcdd(%rip),%xmm14 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -36435,14 +43561,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,235,249,0,0 // movaps 0xf9eb(%rip),%xmm8 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,5,47,250,0,0 // movaps 0xfa2f(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,237,249,0,0 // movaps 0xf9ed(%rip),%xmm1 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 15,40,13,49,250,0,0 // movaps 0xfa31(%rip),%xmm1 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,236,249,0,0 // movaps 0xf9ec(%rip),%xmm12 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,37,48,250,0,0 // movaps 0xfa30(%rip),%xmm12 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -36487,7 +43613,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,161,248,0,0 // movaps 0xf8a1(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,229,248,0,0 // movaps 0xf8e5(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -36588,14 +43714,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,175,247,0,0 // movaps 0xf7af(%rip),%xmm13 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,45,243,247,0,0 // movaps 0xf7f3(%rip),%xmm13 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,175,247,0,0 // movaps 0xf7af(%rip),%xmm14 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,40,53,243,247,0,0 // movaps 0xf7f3(%rip),%xmm14 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,171,247,0,0 // movaps 0xf7ab(%rip),%xmm11 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 68,15,40,29,239,247,0,0 // movaps 0xf7ef(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36603,7 +43729,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,231,246,0,0 // movaps 0xf6e7(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,43,247,0,0 // movaps 0xf72b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -36739,15 +43865,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,110,245,0,0 // movaps 0xf56e(%rip),%xmm12 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,37,178,245,0,0 // movaps 0xf5b2(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,110,245,0,0 // movaps 0xf56e(%rip),%xmm13 # 2b520 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
+ .byte 68,15,40,45,178,245,0,0 // movaps 0xf5b2(%rip),%xmm13 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,106,245,0,0 // movaps 0xf56a(%rip),%xmm11 # 2b530 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
- .byte 68,15,40,5,194,244,0,0 // movaps 0xf4c2(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,29,174,245,0,0 // movaps 0xf5ae(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,5,6,245,0,0 // movaps 0xf506(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -36888,10 +44014,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 1c2b9 <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 238f5 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,90,243,0,0 // movdqa 0xf35a(%rip),%xmm6 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,53,158,243,0,0 // movdqa 0xf39e(%rip),%xmm6 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -36905,9 +44031,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,106,242,0,0 // movaps 0xf26a(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,174,242,0,0 // movaps 0xf2ae(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,62,243,0,0 // movaps 0xf33e(%rip),%xmm12 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,37,130,243,0,0 // movaps 0xf382(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36933,7 +44059,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 1c2f3 <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 2392f <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36944,32 +44070,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 1c320 <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 2395c <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c2e8 <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 23924 <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 23817 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 23817 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 1c32b <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 23967 <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1c318 <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 23954 <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 1c1db <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 23817 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 1c2a5 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -36987,7 +44113,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,58,241,0,0 // movaps 0xf13a(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,126,241,0,0 // movaps 0xf17e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36999,7 +44125,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,31,241,0,0 // minps 0xf11f(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,29,99,241,0,0 // minps 0xf163(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -37010,7 +44136,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,11,241,0,0 // minps 0xf10b(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,93,61,79,241,0,0 // minps 0xf14f(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -37045,7 +44171,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,199,240,0,0 // movaps 0xf0c7(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,5,11,241,0,0 // movaps 0xf10b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -37107,7 +44233,7 @@ HIDDEN _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,81,240,0,0 // movaps 0xf051(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,149,240,0,0 // movaps 0xf095(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -37121,20 +44247,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,28,241,0,0 // movaps 0xf11c(%rip),%xmm8 # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 68,15,40,5,96,241,0,0 // movaps 0xf160(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,148,240,0,0 // movaps 0xf094(%rip),%xmm9 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,13,216,240,0,0 // movaps 0xf0d8(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,4,241,0,0 // movaps 0xf104(%rip),%xmm10 # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 68,15,40,21,72,241,0,0 // movaps 0xf148(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,4,241,0,0 // movaps 0xf104(%rip),%xmm11 # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 68,15,40,29,72,241,0,0 // movaps 0xf148(%rip),%xmm11 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,8,241,0,0 // movaps 0xf108(%rip),%xmm12 # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,37,76,241,0,0 // movaps 0xf14c(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -37170,20 +44296,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,89,240,0,0 // movaps 0xf059(%rip),%xmm8 # 2b580 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
+ .byte 68,15,40,5,157,240,0,0 // movaps 0xf09d(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,209,239,0,0 // movaps 0xefd1(%rip),%xmm9 # 2b510 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,40,13,21,240,0,0 // movaps 0xf015(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,65,240,0,0 // movaps 0xf041(%rip),%xmm10 # 2b590 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
+ .byte 68,15,40,21,133,240,0,0 // movaps 0xf085(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,65,240,0,0 // movaps 0xf041(%rip),%xmm11 # 2b5a0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
+ .byte 68,15,40,29,133,240,0,0 // movaps 0xf085(%rip),%xmm11 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,69,240,0,0 // movaps 0xf045(%rip),%xmm12 # 2b5b0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
+ .byte 68,15,40,37,137,240,0,0 // movaps 0xf089(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -37220,22 +44346,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,210,239,0,0 // movaps 0xefd2(%rip),%xmm8 # 2b5c0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
+ .byte 68,15,40,5,22,240,0,0 // movaps 0xf016(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,210,239,0,0 // movaps 0xefd2(%rip),%xmm9 # 2b5d0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
+ .byte 68,15,40,13,22,240,0,0 // movaps 0xf016(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,210,239,0,0 // movaps 0xefd2(%rip),%xmm10 # 2b5e0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
+ .byte 68,15,40,21,22,240,0,0 // movaps 0xf016(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,210,239,0,0 // movaps 0xefd2(%rip),%xmm11 # 2b5f0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
+ .byte 68,15,40,29,22,240,0,0 // movaps 0xf016(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,214,239,0,0 // movaps 0xefd6(%rip),%xmm12 # 2b600 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
+ .byte 68,15,40,37,26,240,0,0 // movaps 0xf01a(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,210,239,0,0 // movaps 0xefd2(%rip),%xmm15 # 2b610 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
+ .byte 68,15,40,61,22,240,0,0 // movaps 0xf016(%rip),%xmm15 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -37287,7 +44413,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,149,237,0,0 // movaps 0xed95(%rip),%xmm13 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,45,217,237,0,0 // movaps 0xedd9(%rip),%xmm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -37296,30 +44422,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,251,238,0,0 // andps 0xeefb(%rip),%xmm14 # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 68,15,84,53,63,239,0,0 // andps 0xef3f(%rip),%xmm14 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,238,238,0,0 // movaps 0xeeee(%rip),%xmm12 # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+ .byte 68,15,40,37,50,239,0,0 // movaps 0xef32(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,234,238,0,0 // addps 0xeeea(%rip),%xmm8 # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 68,15,88,5,46,239,0,0 // addps 0xef2e(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,219,238,0,0 // mulps 0xeedb(%rip),%xmm0 # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 15,89,5,31,239,0,0 // mulps 0xef1f(%rip),%xmm0 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,238,236,0,0 // movaps 0xecee(%rip),%xmm9 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,13,50,237,0,0 // movaps 0xed32(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -37343,7 +44469,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,157,236,0,0 // movaps 0xec9d(%rip),%xmm9 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,13,225,236,0,0 // movaps 0xece1(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -37360,28 +44486,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,54,238,0,0 // movaps 0xee36(%rip),%xmm0 # 2b660 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
+ .byte 15,40,5,122,238,0,0 // movaps 0xee7a(%rip),%xmm0 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,78,236,0,0 // andps 0xec4e(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,84,29,146,236,0,0 // andps 0xec92(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,32,238,0,0 // movaps 0xee20(%rip),%xmm13 # 2b670 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
+ .byte 68,15,40,45,100,238,0,0 // movaps 0xee64(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,224,237,0,0 // movaps 0xede0(%rip),%xmm2 # 2b650 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
+ .byte 15,40,21,36,238,0,0 // movaps 0xee24(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,160,237,0,0 // movaps 0xeda0(%rip),%xmm1 # 2b620 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
+ .byte 15,40,13,228,237,0,0 // movaps 0xede4(%rip),%xmm1 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,182,237,0,0 // movaps 0xedb6(%rip),%xmm5 # 2b640 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
+ .byte 15,40,45,250,237,0,0 // movaps 0xedfa(%rip),%xmm5 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -37404,7 +44530,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,171,235,0,0 // andps 0xebab(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,84,29,239,235,0,0 // andps 0xebef(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -37434,12 +44560,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,35,237,0,0 // addps 0xed23(%rip),%xmm6 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 15,88,53,103,237,0,0 // addps 0xed67(%rip),%xmm6 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,30,235,0,0 // andps 0xeb1e(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,84,29,98,235,0,0 // andps 0xeb62(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -37503,13 +44629,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 1ca73 <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 240af <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,241,234,0,0 // pand 0xeaf1(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,219,5,53,235,0,0 // pand 0xeb35(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,53,236,0,0 // mulps 0xec35(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,89,5,121,236,0,0 // mulps 0xec79(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -37520,12 +44646,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 1cabd <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 240f9 <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1caa2 <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 240de <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1ca46 <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 24082 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37534,10 +44660,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 1ca46 <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 24082 <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 1ca46 <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 24082 <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -37551,20 +44677,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 1cb98 <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 241d4 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,161,235,0,0 // movdqa 0xeba1(%rip),%xmm8 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,68,15,111,5,229,235,0,0 // movdqa 0xebe5(%rip),%xmm8 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,160,235,0,0 // mulps 0xeba0(%rip),%xmm8 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,68,15,111,13,167,235,0,0 // movdqa 0xeba7(%rip),%xmm9 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,5,228,235,0,0 // mulps 0xebe4(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,68,15,111,13,235,235,0,0 // movdqa 0xebeb(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,166,235,0,0 // mulps 0xeba6(%rip),%xmm9 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,68,15,219,21,173,235,0,0 // pand 0xebad(%rip),%xmm10 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 68,15,89,13,234,235,0,0 // mulps 0xebea(%rip),%xmm9 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,219,21,241,235,0,0 // pand 0xebf1(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,177,235,0,0 // mulps 0xebb1(%rip),%xmm10 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,21,245,235,0,0 // mulps 0xebf5(%rip),%xmm10 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -37591,22 +44717,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1cbe1 <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 2421d <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 1cbcb <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 24207 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 1caf6 <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 24132 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 1caf6 <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 24132 <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 1caf6 <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 24132 <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -37641,13 +44767,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 1cc91 <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 242cd <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,231,232,0,0 // pand 0xe8e7(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,219,5,43,233,0,0 // pand 0xe92b(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,43,234,0,0 // mulps 0xea2b(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,89,5,111,234,0,0 // mulps 0xea6f(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -37665,12 +44791,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 1ccde <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 2431a <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1ccc0 <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 242fc <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1cc50 <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 2428c <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -37679,10 +44805,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 1cc50 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 2428c <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 1cc50 <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 2428c <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -37696,20 +44822,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 1cdb9 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 243f5 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,128,233,0,0 // movdqa 0xe980(%rip),%xmm9 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,68,15,111,13,196,233,0,0 // movdqa 0xe9c4(%rip),%xmm9 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,127,233,0,0 // mulps 0xe97f(%rip),%xmm9 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,68,15,111,21,134,233,0,0 // movdqa 0xe986(%rip),%xmm10 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 68,15,89,13,195,233,0,0 // mulps 0xe9c3(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,68,15,111,21,202,233,0,0 // movdqa 0xe9ca(%rip),%xmm10 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,133,233,0,0 // mulps 0xe985(%rip),%xmm11 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,68,15,219,5,140,233,0,0 // pand 0xe98c(%rip),%xmm8 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 68,15,89,29,201,233,0,0 // mulps 0xe9c9(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,68,15,219,5,208,233,0,0 // pand 0xe9d0(%rip),%xmm8 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,144,233,0,0 // mulps 0xe990(%rip),%xmm8 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 68,15,89,5,212,233,0,0 // mulps 0xe9d4(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -37738,22 +44864,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1ce02 <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 2443e <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 1cdec <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 24428 <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 1cd17 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 24353 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 1cd17 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 24353 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 1cd17 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 24353 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -37762,11 +44888,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 1cf41 <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 2457d <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,15,231,0,0 // movdqa 0xe70f(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,111,5,83,231,0,0 // movdqa 0xe753(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -37822,7 +44948,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,86,231,0,0 // mulps 0xe756(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,154,231,0,0 // mulps 0xe79a(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -37830,18 +44956,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1cf7b <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 245b7 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1cf70 <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 245ac <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 1ce25 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 24461 <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 1ce25 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 24461 <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 1ce25 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 24461 <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -37851,7 +44977,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 1d0f9 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 24735 <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -37862,7 +44988,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,48,231,0,0 // movdqa 0xe730(%rip),%xmm2 # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 102,15,111,21,116,231,0,0 // movdqa 0xe774(%rip),%xmm2 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -37923,23 +45049,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,46,230,0,0 // mulps 0xe62e(%rip),%xmm3 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 15,89,29,114,230,0,0 // mulps 0xe672(%rip),%xmm3 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1d112 <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 2474e <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 245e5 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 245e5 <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 1cfa9 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 245e5 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -37949,7 +45075,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 1d296 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 248d2 <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37964,7 +45090,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,114,229,0,0 // movdqa 0xe572(%rip),%xmm8 # 2b700 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
+ .byte 102,68,15,111,5,182,229,0,0 // movdqa 0xe5b6(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -38019,7 +45145,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,255,225,0,0 // movaps 0xe1ff(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,67,226,0,0 // movaps 0xe243(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -38027,21 +45153,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1d2bc <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 248f8 <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1d2ed <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 24929 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 1d16b <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -38051,7 +45177,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,108,226,0,0 // movaps 0xe26c(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,176,226,0,0 // movaps 0xe2b0(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -38079,7 +45205,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,23,227,0,0 // movaps 0xe317(%rip),%xmm10 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,21,91,227,0,0 // movaps 0xe35b(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38198,7 +45324,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,87,225,0,0 // movaps 0xe157(%rip),%xmm10 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,21,155,225,0,0 // movaps 0xe19b(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -38396,15 +45522,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,35,223,0,0 // mulps 0xdf23(%rip),%xmm9 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,21,43,223,0,0 // andps 0xdf2b(%rip),%xmm10 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,21,99,220,0,0 // orps 0xdc63(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,13,43,223,0,0 // addps 0xdf2b(%rip),%xmm9 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 68,15,40,37,51,223,0,0 // movaps 0xdf33(%rip),%xmm12 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,13,103,223,0,0 // mulps 0xdf67(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,21,111,223,0,0 // andps 0xdf6f(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,21,167,220,0,0 // orps 0xdca7(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,13,111,223,0,0 // addps 0xdf6f(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,119,223,0,0 // movaps 0xdf77(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,51,223,0,0 // addps 0xdf33(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,37,59,223,0,0 // movaps 0xdf3b(%rip),%xmm12 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,21,119,223,0,0 // addps 0xdf77(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,127,223,0,0 // movaps 0xdf7f(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38412,22 +45538,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,37,220,0,0 // movaps 0xdc25(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,105,220,0,0 // movaps 0xdc69(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,9,223,0,0 // addps 0xdf09(%rip),%xmm9 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,17,223,0,0 // movaps 0xdf11(%rip),%xmm12 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,13,77,223,0,0 // addps 0xdf4d(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,85,223,0,0 // movaps 0xdf55(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,17,223,0,0 // movaps 0xdf11(%rip),%xmm12 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,85,223,0,0 // movaps 0xdf55(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,21,223,0,0 // movaps 0xdf15(%rip),%xmm13 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,89,223,0,0 // movaps 0xdf59(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,21,223,0,0 // mulps 0xdf15(%rip),%xmm13 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,89,45,89,223,0,0 // mulps 0xdf59(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38463,15 +45589,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,229,221,0,0 // mulps 0xdde5(%rip),%xmm9 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,21,237,221,0,0 // andps 0xdded(%rip),%xmm10 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,21,37,219,0,0 // orps 0xdb25(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,13,237,221,0,0 // addps 0xdded(%rip),%xmm9 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 68,15,40,37,245,221,0,0 // movaps 0xddf5(%rip),%xmm12 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,13,41,222,0,0 // mulps 0xde29(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,21,49,222,0,0 // andps 0xde31(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,21,105,219,0,0 // orps 0xdb69(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,13,49,222,0,0 // addps 0xde31(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,57,222,0,0 // movaps 0xde39(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,245,221,0,0 // addps 0xddf5(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,37,253,221,0,0 // movaps 0xddfd(%rip),%xmm12 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,21,57,222,0,0 // addps 0xde39(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,65,222,0,0 // movaps 0xde41(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38479,22 +45605,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,231,218,0,0 // movaps 0xdae7(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,43,219,0,0 // movaps 0xdb2b(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,203,221,0,0 // addps 0xddcb(%rip),%xmm9 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,211,221,0,0 // movaps 0xddd3(%rip),%xmm12 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,13,15,222,0,0 // addps 0xde0f(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,23,222,0,0 // movaps 0xde17(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,211,221,0,0 // movaps 0xddd3(%rip),%xmm12 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,23,222,0,0 // movaps 0xde17(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,215,221,0,0 // movaps 0xddd7(%rip),%xmm13 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,27,222,0,0 // movaps 0xde1b(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,215,221,0,0 // mulps 0xddd7(%rip),%xmm13 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,89,45,27,222,0,0 // mulps 0xde1b(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38530,15 +45656,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,167,220,0,0 // mulps 0xdca7(%rip),%xmm9 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,21,175,220,0,0 // andps 0xdcaf(%rip),%xmm10 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,21,231,217,0,0 // orps 0xd9e7(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,13,175,220,0,0 // addps 0xdcaf(%rip),%xmm9 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 68,15,40,37,183,220,0,0 // movaps 0xdcb7(%rip),%xmm12 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,13,235,220,0,0 // mulps 0xdceb(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,21,243,220,0,0 // andps 0xdcf3(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,21,43,218,0,0 // orps 0xda2b(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,13,243,220,0,0 // addps 0xdcf3(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,251,220,0,0 // movaps 0xdcfb(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,183,220,0,0 // addps 0xdcb7(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,37,191,220,0,0 // movaps 0xdcbf(%rip),%xmm12 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,21,251,220,0,0 // addps 0xdcfb(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,3,221,0,0 // movaps 0xdd03(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38546,22 +45672,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,169,217,0,0 // movaps 0xd9a9(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,237,217,0,0 // movaps 0xd9ed(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,141,220,0,0 // addps 0xdc8d(%rip),%xmm9 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,149,220,0,0 // movaps 0xdc95(%rip),%xmm12 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,13,209,220,0,0 // addps 0xdcd1(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,217,220,0,0 // movaps 0xdcd9(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,149,220,0,0 // movaps 0xdc95(%rip),%xmm12 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,217,220,0,0 // movaps 0xdcd9(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,153,220,0,0 // movaps 0xdc99(%rip),%xmm13 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,221,220,0,0 // movaps 0xdcdd(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,153,220,0,0 // mulps 0xdc99(%rip),%xmm13 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,89,45,221,220,0,0 // mulps 0xdcdd(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38597,15 +45723,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,105,219,0,0 // mulps 0xdb69(%rip),%xmm9 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 68,15,84,21,113,219,0,0 // andps 0xdb71(%rip),%xmm10 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,86,21,169,216,0,0 // orps 0xd8a9(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
- .byte 68,15,88,13,113,219,0,0 // addps 0xdb71(%rip),%xmm9 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
- .byte 68,15,40,37,121,219,0,0 // movaps 0xdb79(%rip),%xmm12 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,89,13,173,219,0,0 // mulps 0xdbad(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 68,15,84,21,181,219,0,0 // andps 0xdbb5(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,86,21,237,216,0,0 // orps 0xd8ed(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,13,181,219,0,0 // addps 0xdbb5(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,189,219,0,0 // movaps 0xdbbd(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,121,219,0,0 // addps 0xdb79(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
- .byte 68,15,40,37,129,219,0,0 // movaps 0xdb81(%rip),%xmm12 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,88,21,189,219,0,0 // addps 0xdbbd(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,37,197,219,0,0 // movaps 0xdbc5(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -38613,22 +45739,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,107,216,0,0 // movaps 0xd86b(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,175,216,0,0 // movaps 0xd8af(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,79,219,0,0 // addps 0xdb4f(%rip),%xmm9 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
- .byte 68,15,40,37,87,219,0,0 // movaps 0xdb57(%rip),%xmm12 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 68,15,88,13,147,219,0,0 // addps 0xdb93(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 68,15,40,37,155,219,0,0 // movaps 0xdb9b(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,87,219,0,0 // movaps 0xdb57(%rip),%xmm12 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,155,219,0,0 // movaps 0xdb9b(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,91,219,0,0 // movaps 0xdb5b(%rip),%xmm13 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,45,159,219,0,0 // movaps 0xdb9f(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,91,219,0,0 // mulps 0xdb5b(%rip),%xmm13 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,89,45,159,219,0,0 // mulps 0xdb9f(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -38653,19 +45779,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,102,218,0,0 // mulps 0xda66(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 15,84,21,111,218,0,0 // andps 0xda6f(%rip),%xmm2 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 68,15,40,53,167,215,0,0 // movaps 0xd7a7(%rip),%xmm14 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,89,5,170,218,0,0 // mulps 0xdaaa(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,84,21,179,218,0,0 // andps 0xdab3(%rip),%xmm2 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 68,15,40,53,235,215,0,0 // movaps 0xd7eb(%rip),%xmm14 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,107,218,0,0 // movaps 0xda6b(%rip),%xmm12 # 2b750 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
+ .byte 68,15,40,37,175,218,0,0 // movaps 0xdaaf(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,111,218,0,0 // movaps 0xda6f(%rip),%xmm11 # 2b760 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
+ .byte 68,15,40,29,179,218,0,0 // movaps 0xdab3(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,109,218,0,0 // movaps 0xda6d(%rip),%xmm10 # 2b770 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,21,177,218,0,0 // movaps 0xdab1(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,113,218,0,0 // movaps 0xda71(%rip),%xmm13 # 2b780 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,45,181,218,0,0 // movaps 0xdab5(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38677,27 +45803,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,81,215,0,0 // movaps 0xd751(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,13,149,215,0,0 // movaps 0xd795(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,61,218,0,0 // movaps 0xda3d(%rip),%xmm6 # 2b790 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 15,40,53,129,218,0,0 // movaps 0xda81(%rip),%xmm6 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,83,218,0,0 // movaps 0xda53(%rip),%xmm7 # 2b7b0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 15,40,61,151,218,0,0 // movaps 0xda97(%rip),%xmm7 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,51,218,0,0 // movaps 0xda33(%rip),%xmm4 # 2b7a0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
+ .byte 15,40,37,119,218,0,0 // movaps 0xda77(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,69,218,0,0 // movaps 0xda45(%rip),%xmm15 # 2b7c0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
+ .byte 68,15,40,61,137,218,0,0 // movaps 0xda89(%rip),%xmm15 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,161,217,0,0 // mulps 0xd9a1(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 15,84,13,170,217,0,0 // andps 0xd9aa(%rip),%xmm1 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
+ .byte 15,89,5,229,217,0,0 // mulps 0xd9e5(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,84,13,238,217,0,0 // andps 0xd9ee(%rip),%xmm1 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -38727,9 +45853,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,48,217,0,0 // mulps 0xd930(%rip),%xmm0 # 2b730 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
- .byte 15,84,29,57,217,0,0 // andps 0xd939(%rip),%xmm3 # 2b740 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
- .byte 15,86,29,114,214,0,0 // orps 0xd672(%rip),%xmm3 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,89,5,116,217,0,0 // mulps 0xd974(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,84,29,125,217,0,0 // andps 0xd97d(%rip),%xmm3 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,86,29,182,214,0,0 // orps 0xd6b6(%rip),%xmm3 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -38751,7 +45877,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,111,217,0,0 // movaps 0xd96f(%rip),%xmm0 # 2b7d0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,5,179,217,0,0 // movaps 0xd9b3(%rip),%xmm0 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -38770,29 +45896,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,68,217,0,0 // mulps 0xd944(%rip),%xmm0 # 2b7e0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
- .byte 68,15,40,5,204,214,0,0 // movaps 0xd6cc(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 15,89,5,136,217,0,0 // mulps 0xd988(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
+ .byte 68,15,40,5,16,215,0,0 // movaps 0xd710(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,64,217,0,0 // movaps 0xd940(%rip),%xmm9 # 2b7f0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
+ .byte 68,15,40,13,132,217,0,0 // movaps 0xd984(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,61,217,0,0 // addps 0xd93d(%rip),%xmm0 # 2b800 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
- .byte 15,89,5,70,217,0,0 // mulps 0xd946(%rip),%xmm0 # 2b810 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
- .byte 15,89,13,79,217,0,0 // mulps 0xd94f(%rip),%xmm1 # 2b820 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 15,88,5,129,217,0,0 // addps 0xd981(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
+ .byte 15,89,5,138,217,0,0 // mulps 0xd98a(%rip),%xmm0 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
+ .byte 15,89,13,147,217,0,0 // mulps 0xd993(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,85,217,0,0 // mulps 0xd955(%rip),%xmm2 # 2b830 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
+ .byte 15,89,21,153,217,0,0 // mulps 0xd999(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,74,217,0,0 // movaps 0xd94a(%rip),%xmm2 # 2b840 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 15,40,21,142,217,0,0 // movaps 0xd98e(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,73,217,0,0 // movaps 0xd949(%rip),%xmm10 # 2b850 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+ .byte 68,15,40,21,141,217,0,0 // movaps 0xd98d(%rip),%xmm10 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,77,217,0,0 // movaps 0xd94d(%rip),%xmm11 # 2b860 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
+ .byte 68,15,40,29,145,217,0,0 // movaps 0xd991(%rip),%xmm11 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -38816,8 +45942,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,253,216,0,0 // mulps 0xd8fd(%rip),%xmm8 # 2b870 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
- .byte 15,89,21,6,217,0,0 // mulps 0xd906(%rip),%xmm2 # 2b880 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
+ .byte 68,15,89,5,65,217,0,0 // mulps 0xd941(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
+ .byte 15,89,21,74,217,0,0 // mulps 0xd94a(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -38833,13 +45959,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 1dfc8 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 25604 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,144,213,0,0 // pand 0xd590(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,5,212,213,0,0 // pand 0xd5d4(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,214,214,0,0 // mulps 0xd6d6(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,26,215,0,0 // mulps 0xd71a(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -38848,12 +45974,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 1e00b <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 25647 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dff4 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 25630 <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1dfa8 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 255e4 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38862,10 +45988,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 1dfa8 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 255e4 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 1dfa8 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 255e4 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -38878,13 +46004,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 1e05c <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 25698 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,252,212,0,0 // pand 0xd4fc(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,37,64,213,0,0 // pand 0xd540(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,66,214,0,0 // mulps 0xd642(%rip),%xmm7 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,61,134,214,0,0 // mulps 0xd686(%rip),%xmm7 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -38893,12 +46019,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 1e09f <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 256db <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e088 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 256c4 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1e03c <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 25678 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38907,10 +46033,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 1e03c <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 25678 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 1e03c <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 25678 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -38963,7 +46089,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,28,213,0,0 // mulps 0xd51c(%rip),%xmm3 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,29,96,213,0,0 // mulps 0xd560(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -38980,7 +46106,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,211,211,0,0 // movaps 0xd3d3(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,23,212,0,0 // movaps 0xd417(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -38988,7 +46114,7 @@ _sk_store_a8_sse2:
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1e1ce <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 2580a <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -38998,22 +46124,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 1e21b <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 25857 <_sk_store_a8_sse2+0x99>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 1e1fc <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 25838 <_sk_store_a8_sse2+0x7a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 1e1ca <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 25806 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,59,211,0,0 // pand 0xd33b(%rip),%xmm8 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,68,15,219,5,127,211,0,0 // pand 0xd37f(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 1e1ca <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 25806 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 1e1ca <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 25806 <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -39026,27 +46152,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 1e26f <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 258ab <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,236,210,0,0 // pand 0xd2ec(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,5,48,211,0,0 // pand 0xd330(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,50,212,0,0 // mulps 0xd432(%rip),%xmm0 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,5,118,212,0,0 // mulps 0xd476(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,41,210,0,0 // movaps 0xd229(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,109,210,0,0 // movaps 0xd26d(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 1e2b2 <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 258ee <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e29b <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 258d7 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1e24c <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 25888 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -39055,10 +46181,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 1e24c <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 25888 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 1e24c <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 25888 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -39071,27 +46197,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 1e306 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 25942 <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,85,210,0,0 // pand 0xd255(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,219,37,153,210,0,0 // pand 0xd299(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,155,211,0,0 // mulps 0xd39b(%rip),%xmm4 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,37,223,211,0,0 // mulps 0xd3df(%rip),%xmm4 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,146,209,0,0 // movaps 0xd192(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,61,214,209,0,0 // movaps 0xd1d6(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 1e349 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 25985 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e332 <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 2596e <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1e2e3 <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 2591f <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -39100,10 +46226,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 1e2e3 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 2591f <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 1e2e3 <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 2591f <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -39156,9 +46282,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,114,210,0,0 // mulps 0xd272(%rip),%xmm0 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 15,89,5,182,210,0,0 // mulps 0xd2b6(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,105,208,0,0 // movaps 0xd069(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,173,208,0,0 // movaps 0xd0ad(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -39175,42 +46301,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 1e49d <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 25ad9 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,68,210,0,0 // movdqa 0xd244(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,136,210,0,0 // movdqa 0xd288(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,70,210,0,0 // mulps 0xd246(%rip),%xmm0 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,13,78,210,0,0 // movdqa 0xd24e(%rip),%xmm1 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,5,138,210,0,0 // mulps 0xd28a(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,13,146,210,0,0 // movdqa 0xd292(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,80,210,0,0 // mulps 0xd250(%rip),%xmm1 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,21,88,210,0,0 // pand 0xd258(%rip),%xmm2 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,13,148,210,0,0 // mulps 0xd294(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,21,156,210,0,0 // pand 0xd29c(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,94,210,0,0 // mulps 0xd25e(%rip),%xmm2 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,21,162,210,0,0 // mulps 0xd2a2(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,245,207,0,0 // movaps 0xcff5(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,57,208,0,0 // movaps 0xd039(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 1e4dd <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 25b19 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e4c9 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 25b05 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1e454 <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 25a90 <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 1e454 <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25a90 <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 1e454 <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25a90 <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -39224,42 +46350,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 1e559 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 25b95 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,136,209,0,0 // movdqa 0xd188(%rip),%xmm4 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,37,204,209,0,0 // movdqa 0xd1cc(%rip),%xmm4 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,138,209,0,0 // mulps 0xd18a(%rip),%xmm4 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,45,146,209,0,0 // movdqa 0xd192(%rip),%xmm5 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,37,206,209,0,0 // mulps 0xd1ce(%rip),%xmm4 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,45,214,209,0,0 // movdqa 0xd1d6(%rip),%xmm5 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,148,209,0,0 // mulps 0xd194(%rip),%xmm5 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,53,156,209,0,0 // pand 0xd19c(%rip),%xmm6 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,45,216,209,0,0 // mulps 0xd1d8(%rip),%xmm5 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,53,224,209,0,0 // pand 0xd1e0(%rip),%xmm6 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,162,209,0,0 // mulps 0xd1a2(%rip),%xmm6 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,53,230,209,0,0 // mulps 0xd1e6(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,57,207,0,0 // movaps 0xcf39(%rip),%xmm7 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,61,125,207,0,0 // movaps 0xcf7d(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 1e599 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 25bd5 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e585 <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 25bc1 <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1e510 <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 25b4c <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 1e510 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25b4c <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 1e510 <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25b4c <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -39308,19 +46434,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,55,208,0,0 // movdqa 0xd037(%rip),%xmm0 # 2b6a0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
+ .byte 102,15,111,5,123,208,0,0 // movdqa 0xd07b(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,57,208,0,0 // mulps 0xd039(%rip),%xmm0 # 2b6b0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
- .byte 102,15,111,13,65,208,0,0 // movdqa 0xd041(%rip),%xmm1 # 2b6c0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
+ .byte 15,89,5,125,208,0,0 // mulps 0xd07d(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
+ .byte 102,15,111,13,133,208,0,0 // movdqa 0xd085(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,67,208,0,0 // mulps 0xd043(%rip),%xmm1 # 2b6d0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
- .byte 102,15,219,21,75,208,0,0 // pand 0xd04b(%rip),%xmm2 # 2b6e0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
+ .byte 15,89,13,135,208,0,0 // mulps 0xd087(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
+ .byte 102,15,219,21,143,208,0,0 // pand 0xd08f(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,81,208,0,0 // mulps 0xd051(%rip),%xmm2 # 2b6f0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 15,89,21,149,208,0,0 // mulps 0xd095(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,232,205,0,0 // movaps 0xcde8(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,44,206,0,0 // movaps 0xce2c(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -39334,12 +46460,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,216,209,0,0 // movaps 0xd1d8(%rip),%xmm8 # 2b8a0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
+ .byte 68,15,40,5,28,210,0,0 // movaps 0xd21c(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,205,209,0,0 // movaps 0xd1cd(%rip),%xmm10 # 2b8b0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+ .byte 68,15,40,21,17,210,0,0 // movaps 0xd211(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -39351,7 +46477,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e725 <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 25d61 <_sk_store_565_sse2+0x7b>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39359,19 +46485,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 1e75d <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 25d99 <_sk_store_565_sse2+0xb3>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e74f <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 25d8b <_sk_store_565_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 1e721 <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 25d5d <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 1e721 <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 25d5d <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 1e721 <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 25d5d <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -39385,45 +46511,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1e7e6 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 25e22 <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,42,209,0,0 // movdqa 0xd12a(%rip),%xmm0 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,5,110,209,0,0 // movdqa 0xd16e(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,44,209,0,0 // mulps 0xd12c(%rip),%xmm0 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,13,52,209,0,0 // movdqa 0xd134(%rip),%xmm1 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,5,112,209,0,0 // mulps 0xd170(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,13,120,209,0,0 // movdqa 0xd178(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,54,209,0,0 // mulps 0xd136(%rip),%xmm1 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,21,62,209,0,0 // movdqa 0xd13e(%rip),%xmm2 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,13,122,209,0,0 // mulps 0xd17a(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,21,130,209,0,0 // movdqa 0xd182(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,64,209,0,0 // mulps 0xd140(%rip),%xmm2 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,29,72,209,0,0 // pand 0xd148(%rip),%xmm3 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,21,132,209,0,0 // mulps 0xd184(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,29,140,209,0,0 // pand 0xd18c(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,78,209,0,0 // mulps 0xd14e(%rip),%xmm3 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,29,146,209,0,0 // mulps 0xd192(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 1e826 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 25e62 <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e812 <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 25e4e <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1e78e <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 25dca <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 1e78e <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25dca <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 1e78e <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25dca <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -39437,45 +46563,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1e8b1 <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 25eed <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,95,208,0,0 // movdqa 0xd05f(%rip),%xmm4 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,37,163,208,0,0 // movdqa 0xd0a3(%rip),%xmm4 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,97,208,0,0 // mulps 0xd061(%rip),%xmm4 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,45,105,208,0,0 // movdqa 0xd069(%rip),%xmm5 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,37,165,208,0,0 // mulps 0xd0a5(%rip),%xmm4 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,45,173,208,0,0 // movdqa 0xd0ad(%rip),%xmm5 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,107,208,0,0 // mulps 0xd06b(%rip),%xmm5 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,53,115,208,0,0 // movdqa 0xd073(%rip),%xmm6 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,45,175,208,0,0 // mulps 0xd0af(%rip),%xmm5 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,53,183,208,0,0 // movdqa 0xd0b7(%rip),%xmm6 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,117,208,0,0 // mulps 0xd075(%rip),%xmm6 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,61,125,208,0,0 // pand 0xd07d(%rip),%xmm7 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,53,185,208,0,0 // mulps 0xd0b9(%rip),%xmm6 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,61,193,208,0,0 // pand 0xd0c1(%rip),%xmm7 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,131,208,0,0 // mulps 0xd083(%rip),%xmm7 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,61,199,208,0,0 // mulps 0xd0c7(%rip),%xmm7 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 1e8f1 <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 25f2d <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1e8dd <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 25f19 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1e859 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 25e95 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 1e859 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25e95 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 1e859 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25e95 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -39524,21 +46650,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,255,206,0,0 // movdqa 0xceff(%rip),%xmm0 # 2b8c0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
+ .byte 102,15,111,5,67,207,0,0 // movdqa 0xcf43(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,1,207,0,0 // mulps 0xcf01(%rip),%xmm0 # 2b8d0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
- .byte 102,15,111,13,9,207,0,0 // movdqa 0xcf09(%rip),%xmm1 # 2b8e0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
+ .byte 15,89,5,69,207,0,0 // mulps 0xcf45(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
+ .byte 102,15,111,13,77,207,0,0 // movdqa 0xcf4d(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,11,207,0,0 // mulps 0xcf0b(%rip),%xmm1 # 2b8f0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
- .byte 102,15,111,21,19,207,0,0 // movdqa 0xcf13(%rip),%xmm2 # 2b900 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
+ .byte 15,89,13,79,207,0,0 // mulps 0xcf4f(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
+ .byte 102,15,111,21,87,207,0,0 // movdqa 0xcf57(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,21,207,0,0 // mulps 0xcf15(%rip),%xmm2 # 2b910 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
- .byte 102,15,219,29,29,207,0,0 // pand 0xcf1d(%rip),%xmm3 # 2b920 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
+ .byte 15,89,21,89,207,0,0 // mulps 0xcf59(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
+ .byte 102,15,219,29,97,207,0,0 // pand 0xcf61(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,35,207,0,0 // mulps 0xcf23(%rip),%xmm3 # 2b930 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 15,89,29,103,207,0,0 // mulps 0xcf67(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39553,7 +46679,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,17,207,0,0 // movaps 0xcf11(%rip),%xmm8 # 2b940 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
+ .byte 68,15,40,5,85,207,0,0 // movaps 0xcf55(%rip),%xmm8 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39575,7 +46701,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1eaa0 <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 260dc <_sk_store_4444_sse2+0x8f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -39583,19 +46709,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 1ead8 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 26114 <_sk_store_4444_sse2+0xc7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1eaca <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 26106 <_sk_store_4444_sse2+0xb9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 1ea9c <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 260d8 <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 1ea9c <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 260d8 <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 1ea9c <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 260d8 <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -39609,13 +46735,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1eb62 <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 2619e <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,50,202,0,0 // movdqa 0xca32(%rip),%xmm2 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,21,118,202,0,0 // movdqa 0xca76(%rip),%xmm2 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,110,203,0,0 // movaps 0xcb6e(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,178,203,0,0 // movaps 0xcbb2(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39635,18 +46761,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1eb98 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 261d4 <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1eb8d <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 261c9 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 1eb06 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 26142 <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 1eb06 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 26142 <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 1eb06 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 26142 <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -39660,13 +46786,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1ec21 <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 2625d <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,115,201,0,0 // movdqa 0xc973(%rip),%xmm6 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,53,183,201,0,0 // movdqa 0xc9b7(%rip),%xmm6 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,175,202,0,0 // movaps 0xcaaf(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,243,202,0,0 // movaps 0xcaf3(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39686,18 +46812,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1ec57 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 26293 <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1ec4c <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 26288 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 1ebc5 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 26201 <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 1ebc5 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 26201 <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 1ebc5 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 26201 <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -39743,11 +46869,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,38,200,0,0 // movdqa 0xc826(%rip),%xmm2 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,21,106,200,0,0 // movdqa 0xc86a(%rip),%xmm2 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,98,201,0,0 // movaps 0xc962(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,166,201,0,0 // movaps 0xc9a6(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39776,7 +46902,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,227,199,0,0 // movaps 0xc7e3(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,39,200,0,0 // movaps 0xc827(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -39795,24 +46921,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1eded <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 26429 <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 1ee1b <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 26457 <_sk_store_8888_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1ee13 <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 2644f <_sk_store_8888_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1ede9 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 26425 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 1ede9 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 26425 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 1ede9 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 26425 <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -39826,13 +46952,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1eea1 <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 264dd <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,243,198,0,0 // movdqa 0xc6f3(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,55,199,0,0 // movdqa 0xc737(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,47,200,0,0 // movaps 0xc82f(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,115,200,0,0 // movaps 0xc873(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39852,18 +46978,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1eed7 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 26513 <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1eecc <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 26508 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 1ee45 <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 26481 <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 1ee45 <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 26481 <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 1ee45 <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 26481 <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -39877,13 +47003,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 1ef60 <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 2659c <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,52,198,0,0 // movdqa 0xc634(%rip),%xmm4 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,37,120,198,0,0 // movdqa 0xc678(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,112,199,0,0 // movaps 0xc770(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,180,199,0,0 // movaps 0xc7b4(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -39903,18 +47029,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1ef96 <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 265d2 <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1ef8b <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 265c7 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 1ef04 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 26540 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 1ef04 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 26540 <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 1ef04 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 26540 <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -39960,11 +47086,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,231,196,0,0 // movdqa 0xc4e7(%rip),%xmm0 # 2b540 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
+ .byte 102,15,111,5,43,197,0,0 // movdqa 0xc52b(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,35,198,0,0 // movaps 0xc623(%rip),%xmm8 # 2b690 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
+ .byte 68,15,40,5,103,198,0,0 // movaps 0xc667(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -39993,7 +47119,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,164,196,0,0 // movaps 0xc4a4(%rip),%xmm8 # 2b570 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,232,196,0,0 // movaps 0xc4e8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -40012,24 +47138,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1f12c <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 26768 <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 1f15a <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 26796 <_sk_store_bgra_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 1f152 <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 2678e <_sk_store_bgra_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1f128 <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 26764 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 1f128 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 26764 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 1f128 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 26764 <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -40043,7 +47169,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 1f2b1 <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 268ed <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -40055,18 +47181,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,142,199,0,0 // movdqa 0xc78e(%rip),%xmm9 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,13,210,199,0,0 // movdqa 0xc7d2(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,139,199,0,0 // movdqa 0xc78b(%rip),%xmm11 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,29,207,199,0,0 // movdqa 0xc7cf(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,142,199,0,0 // movdqa 0xc78e(%rip),%xmm3 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,29,210,199,0,0 // movdqa 0xc7d2(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,125,199,0,0 // movdqa 0xc77d(%rip),%xmm12 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,37,193,199,0,0 // movdqa 0xc7c1(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -40105,16 +47231,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f2ca <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 26906 <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 1f18f <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 267cb <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 1f18f <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 267cb <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 1f18f <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 267cb <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -40128,7 +47254,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 1f43a <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 26a76 <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -40140,18 +47266,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,5,198,0,0 // movdqa 0xc605(%rip),%xmm9 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,13,73,198,0,0 // movdqa 0xc649(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,2,198,0,0 // movdqa 0xc602(%rip),%xmm11 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,29,70,198,0,0 // movdqa 0xc646(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,5,198,0,0 // movdqa 0xc605(%rip),%xmm7 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,61,73,198,0,0 // movdqa 0xc649(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,244,197,0,0 // movdqa 0xc5f4(%rip),%xmm12 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,37,56,198,0,0 // movdqa 0xc638(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -40190,16 +47316,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f453 <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 26a8f <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 1f318 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26954 <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 1f318 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26954 <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 1f318 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26954 <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -40253,18 +47379,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,3,196,0,0 // movdqa 0xc403(%rip),%xmm10 # 2b950 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,68,15,111,21,71,196,0,0 // movdqa 0xc447(%rip),%xmm10 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,0,196,0,0 // movdqa 0xc400(%rip),%xmm11 # 2b960 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
+ .byte 102,68,15,111,29,68,196,0,0 // movdqa 0xc444(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,3,196,0,0 // movdqa 0xc403(%rip),%xmm3 # 2b970 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
+ .byte 102,15,111,29,71,196,0,0 // movdqa 0xc447(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,242,195,0,0 // movdqa 0xc3f2(%rip),%xmm12 # 2b980 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
+ .byte 102,68,15,111,37,54,196,0,0 // movdqa 0xc436(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -40307,19 +47433,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,70,195,0,0 // movdqa 0xc346(%rip),%xmm11 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 102,68,15,111,29,138,195,0,0 // movdqa 0xc38a(%rip),%xmm11 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,67,195,0,0 // movdqa 0xc343(%rip),%xmm10 # 2b9a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
+ .byte 102,68,15,111,21,135,195,0,0 // movdqa 0xc387(%rip),%xmm10 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,65,195,0,0 // movdqa 0xc341(%rip),%xmm7 # 2b9b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
- .byte 102,68,15,111,37,232,196,0,0 // movdqa 0xc4e8(%rip),%xmm12 # 2bb60 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
+ .byte 102,15,111,61,133,195,0,0 // movdqa 0xc385(%rip),%xmm7 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 102,68,15,111,37,44,197,0,0 // movdqa 0xc52c(%rip),%xmm12 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,154,191,0,0 // movdqa 0xbf9a(%rip),%xmm13 # 2b630 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
+ .byte 102,68,15,111,45,222,191,0,0 // movdqa 0xbfde(%rip),%xmm13 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -40375,7 +47501,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 1f7c8 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 26e04 <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -40388,13 +47514,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 1f7bf <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 26dfb <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 1f7bf <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 26dfb <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 1f7bf <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 26dfb <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -40409,7 +47535,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 1f8de <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 26f1a <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -40426,7 +47552,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,175,190,0,0 // movaps 0xbeaf(%rip),%xmm8 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,40,5,243,190,0,0 // movaps 0xbef3(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40454,16 +47580,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f8f7 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 26f33 <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 1f82d <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 26e69 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 1f82d <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 26e69 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 1f82d <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 26e69 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -40480,7 +47606,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 1f9f2 <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 2702e <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -40501,7 +47627,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,121,189,0,0 // movaps 0xbd79(%rip),%xmm9 # 2b720 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
+ .byte 68,15,40,13,189,189,0,0 // movaps 0xbdbd(%rip),%xmm9 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -40518,27 +47644,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,160,186,0,0 // movaps 0xbaa0(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,228,186,0,0 // movaps 0xbae4(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1fa17 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 27053 <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1fa48 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 27084 <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 1f967 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -40552,7 +47678,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,89,191,0,0 // movaps 0xbf59(%rip),%xmm10 # 2b9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,40,21,157,191,0,0 // movaps 0xbf9d(%rip),%xmm10 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -40597,7 +47723,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1fb71 <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 271ad <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -40605,13 +47731,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1fb6d <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 271a9 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1fb6d <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 271a9 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 1fb6d <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 271a9 <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -40627,7 +47753,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1fc03 <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 2723f <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40647,17 +47773,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1fc15 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 27251 <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 1fbd3 <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 2720f <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1fc29 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 27265 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 1fbd3 <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 2720f <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 1fbd3 <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 2720f <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -40673,7 +47799,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1fc99 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 272d5 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -40693,17 +47819,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1fcab <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 272e7 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 1fc69 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1fcbf <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 272fb <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 1fc69 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 1fc69 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -40732,7 +47858,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 1fd41 <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 2737d <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -40740,12 +47866,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 1fd3d <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 27379 <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 1fd3d <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 27379 <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 1fd3d <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 27379 <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -40759,7 +47885,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,8,183,0,0 // andps 0xb708(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,76,183,0,0 // andps 0xb74c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40779,7 +47905,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,199,182,0,0 // andps 0xb6c7(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,11,183,0,0 // andps 0xb70b(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -40799,13 +47925,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,121,180,0,0 // mulss 0xb479(%rip),%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,13,189,180,0,0 // mulss 0xb4bd(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,102,182,0,0 // andps 0xb666(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,170,182,0,0 // andps 0xb6aa(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40828,13 +47954,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,13,180,0,0 // mulss 0xb40d(%rip),%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,13,81,180,0,0 // mulss 0xb451(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,250,181,0,0 // andps 0xb5fa(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,62,182,0,0 // andps 0xb63e(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -40851,7 +47977,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,202,181,0,0 // minps 0xb5ca(%rip),%xmm8 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,93,5,14,182,0,0 // minps 0xb60e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -40864,7 +47990,7 @@ _sk_repeat_x_1_sse2:
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,84,13,168,181,0,0 // andps 0xb5a8(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,236,181,0,0 // andps 0xb5ec(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40874,14 +48000,14 @@ HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,5,244,181,0,0 // movaps 0xb5f4(%rip),%xmm8 # 2b4f0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 68,15,40,5,56,182,0,0 // movaps 0xb638(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,120,181,0,0 // movaps 0xb578(%rip),%xmm9 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,13,188,181,0,0 // movaps 0xb5bc(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,110,181,0,0 // andps 0xb56e(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,84,13,178,181,0,0 // andps 0xb5b2(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,88,210 // addps %xmm10,%xmm10
@@ -40897,10 +48023,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,148,186,0,0 // mulps 0xba94(%rip),%xmm0 # 2b9e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
- .byte 15,89,13,157,186,0,0 // mulps 0xba9d(%rip),%xmm1 # 2b9f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+ .byte 15,89,5,216,186,0,0 // mulps 0xbad8(%rip),%xmm0 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
+ .byte 15,89,13,225,186,0,0 // mulps 0xbae1(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,163,186,0,0 // mulps 0xbaa3(%rip),%xmm3 # 2ba00 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
+ .byte 15,89,29,231,186,0,0 // mulps 0xbae7(%rip),%xmm3 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -41212,9 +48338,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 203fd <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 27a39 <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 20412 <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 27a4e <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -41312,15 +48438,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,107,180,0,0 // movaps 0xb46b(%rip),%xmm0 # 2ba10 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
+ .byte 15,40,5,175,180,0,0 // movaps 0xb4af(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,113,180,0,0 // addps 0xb471(%rip),%xmm0 # 2ba20 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+ .byte 15,88,5,181,180,0,0 // addps 0xb4b5(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,119,180,0,0 // addps 0xb477(%rip),%xmm0 # 2ba30 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
+ .byte 15,88,5,187,180,0,0 // addps 0xb4bb(%rip),%xmm0 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,125,180,0,0 // addps 0xb47d(%rip),%xmm0 # 2ba40 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
+ .byte 15,88,5,193,180,0,0 // addps 0xb4c1(%rip),%xmm0 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,131,180,0,0 // addps 0xb483(%rip),%xmm0 # 2ba50 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
+ .byte 15,88,5,199,180,0,0 // addps 0xb4c7(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -41335,7 +48461,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 20612 <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 27c4e <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -41346,7 +48472,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 205f8 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 27c34 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -41486,29 +48612,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,19,178,0,0 // movaps 0xb213(%rip),%xmm13 # 2ba60 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
+ .byte 68,15,40,45,87,178,0,0 // movaps 0xb257(%rip),%xmm13 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,23,178,0,0 // addps 0xb217(%rip),%xmm13 # 2ba70 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
+ .byte 68,15,88,45,91,178,0,0 // addps 0xb25b(%rip),%xmm13 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,27,178,0,0 // addps 0xb21b(%rip),%xmm13 # 2ba80 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
+ .byte 68,15,88,45,95,178,0,0 // addps 0xb25f(%rip),%xmm13 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,31,178,0,0 // addps 0xb21f(%rip),%xmm13 # 2ba90 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
+ .byte 68,15,88,45,99,178,0,0 // addps 0xb263(%rip),%xmm13 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,30,178,0,0 // movaps 0xb21e(%rip),%xmm10 # 2baa0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
+ .byte 68,15,40,21,98,178,0,0 // movaps 0xb262(%rip),%xmm10 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,225,171,0,0 // movaps 0xabe1(%rip),%xmm10 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,21,37,172,0,0 // movaps 0xac25(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,208,171,0,0 // movaps 0xabd0(%rip),%xmm10 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,21,20,172,0,0 // movaps 0xac14(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -41543,7 +48669,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,135,177,0,0 // mulps 0xb187(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,203,177,0,0 // mulps 0xb1cb(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41551,7 +48677,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,114,177,0,0 // mulps 0xb172(%rip),%xmm10 # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,89,21,182,177,0,0 // mulps 0xb1b6(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41560,8 +48686,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,26,176,0,0 // xorps 0xb01a(%rip),%xmm9 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
- .byte 68,15,89,5,2,171,0,0 // mulps 0xab02(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,87,13,94,176,0,0 // xorps 0xb05e(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,89,5,70,171,0,0 // mulps 0xab46(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41582,7 +48708,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,233,176,0,0 // mulps 0xb0e9(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,45,177,0,0 // mulps 0xb12d(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -41590,7 +48716,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,212,176,0,0 // mulps 0xb0d4(%rip),%xmm10 # 2bac0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
+ .byte 68,15,89,21,24,177,0,0 // mulps 0xb118(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -41599,8 +48725,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,124,175,0,0 // xorps 0xaf7c(%rip),%xmm9 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
- .byte 68,15,89,5,100,170,0,0 // mulps 0xaa64(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,87,13,192,175,0,0 // xorps 0xafc0(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 68,15,89,5,168,170,0,0 // mulps 0xaaa8(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -41618,7 +48744,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,92,176,0,0 // mulps 0xb05c(%rip),%xmm9 # 2bab0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
+ .byte 68,15,89,13,160,176,0,0 // mulps 0xb0a0(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -41626,7 +48752,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,24,175,0,0 // xorps 0xaf18(%rip),%xmm0 # 2b990 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
+ .byte 15,87,5,92,175,0,0 // xorps 0xaf5c(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41672,7 +48798,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,143,169,0,0 // movaps 0xa98f(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,211,169,0,0 // movaps 0xa9d3(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -41680,7 +48806,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,122,169,0,0 // movaps 0xa97a(%rip),%xmm12 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 68,15,40,37,190,169,0,0 // movaps 0xa9be(%rip),%xmm12 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -41727,8 +48853,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,35,175,0,0 // addps 0xaf23(%rip),%xmm0 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,219,168,0,0 // movaps 0xa8db(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,103,175,0,0 // addps 0xaf67(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,31,169,0,0 // movaps 0xa91f(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41741,7 +48867,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,170,168,0,0 // addps 0xa8aa(%rip),%xmm0 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,5,238,168,0,0 // addps 0xa8ee(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41753,8 +48879,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,220,174,0,0 // addps 0xaedc(%rip),%xmm1 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,148,168,0,0 // movaps 0xa894(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,32,175,0,0 // addps 0xaf20(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,216,168,0,0 // movaps 0xa8d8(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41767,7 +48893,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,98,168,0,0 // addps 0xa862(%rip),%xmm1 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 15,88,13,166,168,0,0 // addps 0xa8a6(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41779,13 +48905,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,165,174,0,0 // addps 0xaea5(%rip),%xmm0 # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
- .byte 68,15,40,13,77,168,0,0 // movaps 0xa84d(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,233,174,0,0 // addps 0xaee9(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,40,13,145,168,0,0 // movaps 0xa891(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,153,174,0,0 // mulps 0xae99(%rip),%xmm9 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,13,33,170,0,0 // addps 0xaa21(%rip),%xmm9 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,13,221,174,0,0 // mulps 0xaedd(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,13,101,170,0,0 // addps 0xaa65(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41798,16 +48924,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,80,174,0,0 // addps 0xae50(%rip),%xmm0 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,8,168,0,0 // movaps 0xa808(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,5,148,174,0,0 // addps 0xae94(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,76,168,0,0 // movaps 0xa84c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,108,174,0,0 // movaps 0xae6c(%rip),%xmm8 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,5,176,174,0,0 // movaps 0xaeb0(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,112,174,0,0 // addps 0xae70(%rip),%xmm8 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,5,180,174,0,0 // addps 0xaeb4(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,212,167,0,0 // addps 0xa7d4(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,88,5,24,168,0,0 // addps 0xa818(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,104,174,0,0 // addps 0xae68(%rip),%xmm8 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,5,172,174,0,0 // addps 0xaeac(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41817,17 +48943,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,178,167,0,0 // movaps 0xa7b2(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,246,167,0,0 // movaps 0xa7f6(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,30,174,0,0 // movaps 0xae1e(%rip),%xmm10 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,21,98,174,0,0 // movaps 0xae62(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,34,174,0,0 // addps 0xae22(%rip),%xmm10 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,21,102,174,0,0 // addps 0xae66(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,30,174,0,0 // addps 0xae1e(%rip),%xmm10 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,21,98,174,0,0 // addps 0xae62(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41839,11 +48965,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,241,173,0,0 // addps 0xadf1(%rip),%xmm0 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 15,88,5,53,174,0,0 // addps 0xae35(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,193,173,0,0 // mulps 0xadc1(%rip),%xmm8 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,5,73,169,0,0 // addps 0xa949(%rip),%xmm8 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,5,5,174,0,0 // mulps 0xae05(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,5,141,169,0,0 // addps 0xa98d(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41856,13 +48982,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,135,173,0,0 // addps 0xad87(%rip),%xmm1 # 2bae0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
- .byte 68,15,40,13,47,167,0,0 // movaps 0xa72f(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,203,173,0,0 // addps 0xadcb(%rip),%xmm1 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
+ .byte 68,15,40,13,115,167,0,0 // movaps 0xa773(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,123,173,0,0 // mulps 0xad7b(%rip),%xmm9 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,13,3,169,0,0 // addps 0xa903(%rip),%xmm9 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,13,191,173,0,0 // mulps 0xadbf(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,13,71,169,0,0 // addps 0xa947(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -41875,16 +49001,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,49,173,0,0 // addps 0xad31(%rip),%xmm1 # 2bad0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
- .byte 68,15,40,13,233,166,0,0 // movaps 0xa6e9(%rip),%xmm9 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,88,13,117,173,0,0 // addps 0xad75(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
+ .byte 68,15,40,13,45,167,0,0 // movaps 0xa72d(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,77,173,0,0 // movaps 0xad4d(%rip),%xmm8 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,5,145,173,0,0 // movaps 0xad91(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,81,173,0,0 // addps 0xad51(%rip),%xmm8 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,5,149,173,0,0 // addps 0xad95(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,181,166,0,0 // addps 0xa6b5(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,88,5,249,166,0,0 // addps 0xa6f9(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,73,173,0,0 // addps 0xad49(%rip),%xmm8 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,5,141,173,0,0 // addps 0xad8d(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41894,17 +49020,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,147,166,0,0 // movaps 0xa693(%rip),%xmm8 # 2b480 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
+ .byte 68,15,40,5,215,166,0,0 // movaps 0xa6d7(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,254,172,0,0 // movaps 0xacfe(%rip),%xmm10 # 2bb00 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
+ .byte 68,15,40,21,66,173,0,0 // movaps 0xad42(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,2,173,0,0 // addps 0xad02(%rip),%xmm10 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,88,21,70,173,0,0 // addps 0xad46(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,254,172,0,0 // addps 0xacfe(%rip),%xmm10 # 2bb20 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,88,21,66,173,0,0 // addps 0xad42(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -41916,11 +49042,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,208,172,0,0 // addps 0xacd0(%rip),%xmm1 # 2bb10 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 15,88,13,20,173,0,0 // addps 0xad14(%rip),%xmm1 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,160,172,0,0 // mulps 0xaca0(%rip),%xmm8 # 2baf0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
- .byte 68,15,88,5,40,168,0,0 // addps 0xa828(%rip),%xmm8 # 2b680 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
+ .byte 68,15,89,5,228,172,0,0 // mulps 0xace4(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
+ .byte 68,15,88,5,108,168,0,0 // addps 0xa86c(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -42065,7 +49191,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,231,170,0,0 // movdqa 0xaae7(%rip),%xmm8 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,68,15,111,5,43,171,0,0 // movdqa 0xab2b(%rip),%xmm8 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -42104,7 +49230,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,174,163,0,0 // movdqa 0xa3ae(%rip),%xmm12 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,37,242,163,0,0 // movdqa 0xa3f2(%rip),%xmm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42120,7 +49246,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,211,169,0,0 // movaps 0xa9d3(%rip),%xmm4 # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 15,40,37,23,170,0,0 // movaps 0xaa17(%rip),%xmm4 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -42156,7 +49282,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,72,169,0,0 // psubd 0xa948(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,140,169,0,0 // psubd 0xa98c(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42246,7 +49372,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,32,161,0,0 // movdqa 0xa120(%rip),%xmm13 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,45,100,161,0,0 // movdqa 0xa164(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -42343,7 +49469,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,227,165,0,0 // movdqa 0xa5e3(%rip),%xmm3 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,29,39,166,0,0 // movdqa 0xa627(%rip),%xmm3 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -42381,7 +49507,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,179,158,0,0 // movdqa 0x9eb3(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,111,5,247,158,0,0 // movdqa 0x9ef7(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -42462,7 +49588,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,192,163,0,0 // movdqa 0xa3c0(%rip),%xmm1 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,4,164,0,0 // movdqa 0xa404(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -42484,7 +49610,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,101,163,0,0 // psubd 0xa365(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,169,163,0,0 // psubd 0xa3a9(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42499,7 +49625,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,144,156,0,0 // paddd 0x9c90(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,5,212,156,0,0 // paddd 0x9cd4(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42536,7 +49662,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,111,162,0,0 // psubd 0xa26f(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,179,162,0,0 // psubd 0xa2b3(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42551,7 +49677,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,154,155,0,0 // paddd 0x9b9a(%rip),%xmm2 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,21,222,155,0,0 // paddd 0x9bde(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -42697,7 +49823,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,178,159,0,0 // movdqa 0x9fb2(%rip),%xmm4 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,37,246,159,0,0 // movdqa 0x9ff6(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -42736,7 +49862,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,124,152,0,0 // paddd 0x987c(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,5,192,152,0,0 // paddd 0x98c0(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -42751,7 +49877,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,166,158,0,0 // movaps 0x9ea6(%rip),%xmm6 # 2bb30 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 15,40,53,234,158,0,0 // movaps 0x9eea(%rip),%xmm6 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -42769,7 +49895,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,92,158,0,0 // movdqa 0x9e5c(%rip),%xmm1 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,13,160,158,0,0 // movdqa 0x9ea0(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -42790,7 +49916,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,7,158,0,0 // psubd 0x9e07(%rip),%xmm0 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,5,75,158,0,0 // psubd 0x9e4b(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -42805,7 +49931,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,47,151,0,0 // paddd 0x972f(%rip),%xmm1 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,13,115,151,0,0 // paddd 0x9773(%rip),%xmm1 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -42843,7 +49969,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,6,157,0,0 // movdqa 0x9d06(%rip),%xmm4 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,37,74,157,0,0 // movdqa 0x9d4a(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -42881,7 +50007,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,210,149,0,0 // movdqa 0x95d2(%rip),%xmm8 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,5,22,150,0,0 // movdqa 0x9616(%rip),%xmm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -43027,7 +50153,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,44,147,0,0 // movdqa 0x932c(%rip),%xmm15 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,61,112,147,0,0 // movdqa 0x9370(%rip),%xmm15 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -43110,7 +50236,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,59,152,0,0 // movdqa 0x983b(%rip),%xmm5 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,45,127,152,0,0 // movdqa 0x987f(%rip),%xmm5 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -43131,7 +50257,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,228,151,0,0 // psubd 0x97e4(%rip),%xmm5 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,45,40,152,0,0 // psubd 0x9828(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43163,7 +50289,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,66,151,0,0 // movdqa 0x9742(%rip),%xmm3 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,29,134,151,0,0 // movdqa 0x9786(%rip),%xmm3 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -43184,7 +50310,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,226,150,0,0 // psubd 0x96e2(%rip),%xmm5 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,45,38,151,0,0 // psubd 0x9726(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -43199,7 +50325,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,12,144,0,0 // movdqa 0x900c(%rip),%xmm9 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,13,80,144,0,0 // movdqa 0x9050(%rip),%xmm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43261,7 +50387,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,125,149,0,0 // movdqa 0x957d(%rip),%xmm2 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,21,193,149,0,0 // movdqa 0x95c1(%rip),%xmm2 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -43454,7 +50580,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,25,146,0,0 // psubd 0x9219(%rip),%xmm2 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,21,93,146,0,0 // psubd 0x925d(%rip),%xmm2 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43514,7 +50640,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,248,144,0,0 // movdqa 0x90f8(%rip),%xmm8 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,68,15,111,5,60,145,0,0 // movdqa 0x913c(%rip),%xmm8 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -43552,7 +50678,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,198,137,0,0 // movdqa 0x89c6(%rip),%xmm8 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,68,15,111,5,10,138,0,0 // movdqa 0x8a0a(%rip),%xmm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -43635,7 +50761,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,210,142,0,0 // movdqa 0x8ed2(%rip),%xmm4 # 2bb40 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
+ .byte 102,15,111,37,22,143,0,0 // movdqa 0x8f16(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -43656,7 +50782,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,123,142,0,0 // psubd 0x8e7b(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,191,142,0,0 // psubd 0x8ebf(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43671,7 +50797,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,164,135,0,0 // paddd 0x87a4(%rip),%xmm0 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,5,232,135,0,0 // paddd 0x87e8(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -43709,7 +50835,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,131,141,0,0 // psubd 0x8d83(%rip),%xmm1 # 2bb50 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
+ .byte 102,15,250,13,199,141,0,0 // psubd 0x8dc7(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -43724,7 +50850,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,174,134,0,0 // paddd 0x86ae(%rip),%xmm2 # 2b4c0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 102,15,254,21,242,134,0,0 // paddd 0x86f2(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -43783,7 +50909,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,154,133,0,0 // movaps 0x859a(%rip),%xmm3 # 2b490 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 15,40,29,222,133,0,0 // movaps 0x85de(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -43815,13 +50941,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 22fe6 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2a622 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 22fa8 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2a5e4 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -43840,10 +50966,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 22f69 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2a5a5 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 22fd9 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2a615 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43857,7 +50983,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 22f5b <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2a597 <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -43891,7 +51017,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,62,129,0,0 // vpbroadcastw 0x813e(%rip),%ymm3 # 2b160 <_sk_srcover_rgba_8888_sse2_lowp+0x720>
+ .byte 196,226,125,121,29,130,129,0,0 // vpbroadcastw 0x8182(%rip),%ymm3 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -43902,7 +51028,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,39,129,0,0 // vpbroadcastw 0x8127(%rip),%ymm0 # 2b162 <_sk_srcover_rgba_8888_sse2_lowp+0x722>
+ .byte 196,226,125,121,5,107,129,0,0 // vpbroadcastw 0x816b(%rip),%ymm0 # 327e2 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -43913,8 +51039,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,49,130,0,0 // vmovss 0x8231(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
- .byte 197,250,16,21,89,130,0,0 // vmovss 0x8259(%rip),%xmm2 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 197,122,16,5,117,130,0,0 // vmovss 0x8275(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,250,16,21,157,130,0,0 // vmovss 0x829d(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -43937,7 +51063,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,182,128,0,0 // vpbroadcastw 0x80b6(%rip),%ymm8 # 2b164 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
+ .byte 196,98,125,121,5,250,128,0,0 // vpbroadcastw 0x80fa(%rip),%ymm8 # 327e4 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -43985,7 +51111,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,77,128,0,0 // vpbroadcastw 0x804d(%rip),%ymm8 # 2b166 <_sk_srcover_rgba_8888_sse2_lowp+0x726>
+ .byte 196,98,125,121,5,145,128,0,0 // vpbroadcastw 0x8091(%rip),%ymm8 # 327e6 <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -44009,7 +51135,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,26,128,0,0 // vpbroadcastw 0x801a(%rip),%ymm8 # 2b168 <_sk_srcover_rgba_8888_sse2_lowp+0x728>
+ .byte 196,98,125,121,5,94,128,0,0 // vpbroadcastw 0x805e(%rip),%ymm8 # 327e8 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44036,7 +51162,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,186,127,0,0 // vpbroadcastw 0x7fba(%rip),%ymm9 # 2b16a <_sk_srcover_rgba_8888_sse2_lowp+0x72a>
+ .byte 196,98,125,121,13,254,127,0,0 // vpbroadcastw 0x7ffe(%rip),%ymm9 # 327ea <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -44063,7 +51189,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,87,127,0,0 // vpbroadcastw 0x7f57(%rip),%ymm8 # 2b16c <_sk_srcover_rgba_8888_sse2_lowp+0x72c>
+ .byte 196,98,125,121,5,155,127,0,0 // vpbroadcastw 0x7f9b(%rip),%ymm8 # 327ec <_sk_srcover_rgba_8888_sse2_lowp+0x770>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -44083,7 +51209,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,20,127,0,0 // vpbroadcastw 0x7f14(%rip),%ymm8 # 2b16e <_sk_srcover_rgba_8888_sse2_lowp+0x72e>
+ .byte 196,98,125,121,5,88,127,0,0 // vpbroadcastw 0x7f58(%rip),%ymm8 # 327ee <_sk_srcover_rgba_8888_sse2_lowp+0x772>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -44102,7 +51228,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,213,126,0,0 // vpbroadcastw 0x7ed5(%rip),%ymm8 # 2b170 <_sk_srcover_rgba_8888_sse2_lowp+0x730>
+ .byte 196,98,125,121,5,25,127,0,0 // vpbroadcastw 0x7f19(%rip),%ymm8 # 327f0 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44123,7 +51249,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,142,126,0,0 // vpbroadcastw 0x7e8e(%rip),%ymm8 # 2b172 <_sk_srcover_rgba_8888_sse2_lowp+0x732>
+ .byte 196,98,125,121,5,210,126,0,0 // vpbroadcastw 0x7ed2(%rip),%ymm8 # 327f2 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44144,7 +51270,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,71,126,0,0 // vpbroadcastw 0x7e47(%rip),%ymm8 # 2b174 <_sk_srcover_rgba_8888_sse2_lowp+0x734>
+ .byte 196,98,125,121,5,139,126,0,0 // vpbroadcastw 0x7e8b(%rip),%ymm8 # 327f4 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -44169,7 +51295,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,236,125,0,0 // vpbroadcastw 0x7dec(%rip),%ymm8 # 2b176 <_sk_srcover_rgba_8888_sse2_lowp+0x736>
+ .byte 196,98,125,121,5,48,126,0,0 // vpbroadcastw 0x7e30(%rip),%ymm8 # 327f6 <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -44195,7 +51321,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,145,125,0,0 // vpbroadcastw 0x7d91(%rip),%ymm8 # 2b178 <_sk_srcover_rgba_8888_sse2_lowp+0x738>
+ .byte 196,98,125,121,5,213,125,0,0 // vpbroadcastw 0x7dd5(%rip),%ymm8 # 327f8 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -44214,7 +51340,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,82,125,0,0 // vpbroadcastw 0x7d52(%rip),%ymm8 # 2b17a <_sk_srcover_rgba_8888_sse2_lowp+0x73a>
+ .byte 196,98,125,121,5,150,125,0,0 // vpbroadcastw 0x7d96(%rip),%ymm8 # 327fa <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -44250,7 +51376,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,200,124,0,0 // vpbroadcastw 0x7cc8(%rip),%ymm8 # 2b17c <_sk_srcover_rgba_8888_sse2_lowp+0x73c>
+ .byte 196,98,125,121,5,12,125,0,0 // vpbroadcastw 0x7d0c(%rip),%ymm8 # 327fc <_sk_srcover_rgba_8888_sse2_lowp+0x780>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -44267,7 +51393,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,149,124,0,0 // vpbroadcastw 0x7c95(%rip),%ymm9 # 2b17e <_sk_srcover_rgba_8888_sse2_lowp+0x73e>
+ .byte 196,98,125,121,13,217,124,0,0 // vpbroadcastw 0x7cd9(%rip),%ymm9 # 327fe <_sk_srcover_rgba_8888_sse2_lowp+0x782>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44293,7 +51419,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,58,124,0,0 // vpbroadcastw 0x7c3a(%rip),%ymm8 # 2b180 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
+ .byte 196,98,125,121,5,126,124,0,0 // vpbroadcastw 0x7c7e(%rip),%ymm8 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -44327,7 +51453,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,190,123,0,0 // vpbroadcastw 0x7bbe(%rip),%ymm9 # 2b182 <_sk_srcover_rgba_8888_sse2_lowp+0x742>
+ .byte 196,98,125,121,13,2,124,0,0 // vpbroadcastw 0x7c02(%rip),%ymm9 # 32802 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44361,7 +51487,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,63,123,0,0 // vpbroadcastw 0x7b3f(%rip),%ymm9 # 2b184 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
+ .byte 196,98,125,121,13,131,123,0,0 // vpbroadcastw 0x7b83(%rip),%ymm9 # 32804 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -44395,10 +51521,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,192,122,0,0 // vpbroadcastw 0x7ac0(%rip),%ymm9 # 2b186 <_sk_srcover_rgba_8888_sse2_lowp+0x746>
+ .byte 196,98,125,121,13,4,123,0,0 // vpbroadcastw 0x7b04(%rip),%ymm9 # 32806 <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,175,122,0,0 // vpbroadcastw 0x7aaf(%rip),%ymm10 # 2b188 <_sk_srcover_rgba_8888_sse2_lowp+0x748>
+ .byte 196,98,125,121,21,243,122,0,0 // vpbroadcastw 0x7af3(%rip),%ymm10 # 32808 <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44431,10 +51557,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,52,122,0,0 // vpbroadcastw 0x7a34(%rip),%ymm9 # 2b18a <_sk_srcover_rgba_8888_sse2_lowp+0x74a>
+ .byte 196,98,125,121,13,120,122,0,0 // vpbroadcastw 0x7a78(%rip),%ymm9 # 3280a <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,35,122,0,0 // vpbroadcastw 0x7a23(%rip),%ymm10 # 2b18c <_sk_srcover_rgba_8888_sse2_lowp+0x74c>
+ .byte 196,98,125,121,21,103,122,0,0 // vpbroadcastw 0x7a67(%rip),%ymm10 # 3280c <_sk_srcover_rgba_8888_sse2_lowp+0x790>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -44462,7 +51588,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,192,121,0,0 // vpbroadcastw 0x79c0(%rip),%ymm9 # 2b190 <_sk_srcover_rgba_8888_sse2_lowp+0x750>
+ .byte 196,98,125,121,13,4,122,0,0 // vpbroadcastw 0x7a04(%rip),%ymm9 # 32810 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -44490,7 +51616,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,55,121,0,0 // vpbroadcastw 0x7937(%rip),%ymm14 # 2b18e <_sk_srcover_rgba_8888_sse2_lowp+0x74e>
+ .byte 196,98,125,121,53,123,121,0,0 // vpbroadcastw 0x797b(%rip),%ymm14 # 3280e <_sk_srcover_rgba_8888_sse2_lowp+0x792>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -44527,7 +51653,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,172,120,0,0 // vpbroadcastw 0x78ac(%rip),%ymm9 # 2b194 <_sk_srcover_rgba_8888_sse2_lowp+0x754>
+ .byte 196,98,125,121,13,240,120,0,0 // vpbroadcastw 0x78f0(%rip),%ymm9 # 32814 <_sk_srcover_rgba_8888_sse2_lowp+0x798>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -44551,7 +51677,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,52,120,0,0 // vpbroadcastw 0x7834(%rip),%ymm13 # 2b192 <_sk_srcover_rgba_8888_sse2_lowp+0x752>
+ .byte 196,98,125,121,45,120,120,0,0 // vpbroadcastw 0x7878(%rip),%ymm13 # 32812 <_sk_srcover_rgba_8888_sse2_lowp+0x796>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -44603,10 +51729,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 23a54 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b090 <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 23bcc <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b208 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44616,10 +51742,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 23b7b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 23b7b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44628,7 +51754,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 23b7b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44644,7 +51770,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 23b7b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44654,7 +51780,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 23b7b <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44674,7 +51800,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,252,117,0,0 // vmovdqa 0x75fc(%rip),%ymm8 # 2b1a0 <_sk_srcover_rgba_8888_sse2_lowp+0x760>
+ .byte 197,125,111,5,64,118,0,0 // vmovdqa 0x7640(%rip),%ymm8 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -44685,7 +51811,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 121,254 // jns 23bcc <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 121,254 // jns 2b208 <_sk_load_8888_hsw_lowp+0x1ca>
.byte 255 // (bad)
.byte 255,176,254,255,255,154 // pushq -0x65000002(%rax)
.byte 254 // (bad)
@@ -44710,7 +51836,7 @@ _sk_load_8888_hsw_lowp:
.byte 255 // (bad)
.byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d023bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
+ .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b234 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,136,255,255,255,116 // decl 0x74ffffff(%rax)
@@ -44733,10 +51859,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 23c5a <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b296 <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 23dd4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44746,10 +51872,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -44758,7 +51884,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44774,7 +51900,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44784,7 +51910,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 23d81 <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -44804,7 +51930,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,22,116,0,0 // vmovdqa 0x7416(%rip),%ymm8 # 2b1c0 <_sk_srcover_rgba_8888_sse2_lowp+0x780>
+ .byte 197,125,111,5,90,116,0,0 // vmovdqa 0x745a(%rip),%ymm8 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -44815,7 +51941,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 23dd4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -44876,20 +52002,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 23e91 <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2b4cd <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 23f40 <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b57c <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 23f3c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 23f3c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 23f3c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -44897,12 +52023,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 23f3c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2b578 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 23f3c <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2b578 <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -44959,10 +52085,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 23fce <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b60a <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 24148 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -44972,10 +52098,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 240f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 240f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -44984,7 +52110,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 240f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45000,7 +52126,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 240f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45010,7 +52136,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 240f5 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b731 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -45030,7 +52156,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,194,112,0,0 // vmovdqa 0x70c2(%rip),%ymm8 # 2b1e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7a0>
+ .byte 197,125,111,5,6,113,0,0 // vmovdqa 0x7106(%rip),%ymm8 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -45041,7 +52167,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 24148 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45088,10 +52214,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 241d6 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b812 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 24350 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45101,10 +52227,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -45113,7 +52239,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45129,7 +52255,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45139,7 +52265,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 242fd <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -45159,7 +52285,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,218,110,0,0 // vmovdqa 0x6eda(%rip),%ymm8 # 2b200 <_sk_srcover_rgba_8888_sse2_lowp+0x7c0>
+ .byte 197,125,111,5,30,111,0,0 // vmovdqa 0x6f1e(%rip),%ymm8 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -45170,7 +52296,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 24350 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -45231,20 +52357,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2440d <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2ba49 <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 244bc <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2baf8 <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45252,12 +52378,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 244b8 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -45314,24 +52440,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24537 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bb73 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 246a4 <_sk_load_565_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bce0 <_sk_load_565_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2463f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2463f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2463f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -45341,7 +52467,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2463f <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45353,7 +52479,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2463f <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2bc7b <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -45367,13 +52493,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,216,107,0,0 // vpbroadcastw 0x6bd8(%rip),%ymm1 # 2b220 <_sk_srcover_rgba_8888_sse2_lowp+0x7e0>
+ .byte 196,226,125,121,13,28,108,0,0 // vpbroadcastw 0x6c1c(%rip),%ymm1 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,195,107,0,0 // vpbroadcastw 0x6bc3(%rip),%ymm3 # 2b222 <_sk_srcover_rgba_8888_sse2_lowp+0x7e2>
+ .byte 196,226,125,121,29,7,108,0,0 // vpbroadcastw 0x6c07(%rip),%ymm3 # 328a2 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,184,107,0,0 // vpbroadcastw 0x6bb8(%rip),%ymm3 # 2b224 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
+ .byte 196,226,125,121,29,252,107,0,0 // vpbroadcastw 0x6bfc(%rip),%ymm3 # 328a4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -45384,7 +52510,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,134,107,0,0 // vpbroadcastw 0x6b86(%rip),%ymm3 # 2b226 <_sk_srcover_rgba_8888_sse2_lowp+0x7e6>
+ .byte 196,226,125,121,29,202,107,0,0 // vpbroadcastw 0x6bca(%rip),%ymm3 # 328a6 <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -45439,24 +52565,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2471f <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bd5b <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2488c <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bec8 <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 24827 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 24827 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 24827 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -45466,7 +52592,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 24827 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45478,7 +52604,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 24827 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -45492,13 +52618,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,248,105,0,0 // vpbroadcastw 0x69f8(%rip),%ymm5 # 2b228 <_sk_srcover_rgba_8888_sse2_lowp+0x7e8>
+ .byte 196,226,125,121,45,60,106,0,0 // vpbroadcastw 0x6a3c(%rip),%ymm5 # 328a8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,227,105,0,0 // vpbroadcastw 0x69e3(%rip),%ymm7 # 2b22a <_sk_srcover_rgba_8888_sse2_lowp+0x7ea>
+ .byte 196,226,125,121,61,39,106,0,0 // vpbroadcastw 0x6a27(%rip),%ymm7 # 328aa <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,216,105,0,0 // vpbroadcastw 0x69d8(%rip),%ymm7 # 2b22c <_sk_srcover_rgba_8888_sse2_lowp+0x7ec>
+ .byte 196,226,125,121,61,28,106,0,0 // vpbroadcastw 0x6a1c(%rip),%ymm7 # 328ac <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -45509,7 +52635,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,166,105,0,0 // vpbroadcastw 0x69a6(%rip),%ymm7 # 2b22e <_sk_srcover_rgba_8888_sse2_lowp+0x7ee>
+ .byte 196,226,125,121,61,234,105,0,0 // vpbroadcastw 0x69ea(%rip),%ymm7 # 328ae <_sk_srcover_rgba_8888_sse2_lowp+0x832>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -45560,10 +52686,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,79,105,0,0 // vpbroadcastw 0x694f(%rip),%ymm8 # 2b230 <_sk_srcover_rgba_8888_sse2_lowp+0x7f0>
+ .byte 196,98,125,121,5,147,105,0,0 // vpbroadcastw 0x6993(%rip),%ymm8 # 328b0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,62,105,0,0 // vpbroadcastw 0x693e(%rip),%ymm9 # 2b232 <_sk_srcover_rgba_8888_sse2_lowp+0x7f2>
+ .byte 196,98,125,121,13,130,105,0,0 // vpbroadcastw 0x6982(%rip),%ymm9 # 328b2 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -45573,31 +52699,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 24936 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2bf72 <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 249e4 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c020 <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 249dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 249dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 249dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 249dd <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2c019 <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 249d7 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2c013 <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -45620,7 +52746,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 249f9 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2c035 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -45656,38 +52782,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24a5c <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c098 <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 24b20 <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c15c <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 24b0b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 24b0b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 24b0b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 24b0b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c147 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 24b0b <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c147 <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45747,38 +52873,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24b98 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c1d4 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 24c5c <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c298 <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 24c47 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -45835,7 +52961,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,189,110,0,0 // vmovdqa 0x6ebd(%rip),%xmm9 # 2bb70 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 197,121,111,13,1,111,0,0 // vmovdqa 0x6f01(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -45843,28 +52969,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 24ce8 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2c324 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 24d68 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c3a4 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 24d61 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 24d61 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 24d61 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 24d61 <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 24d5b <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2c397 <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -45873,7 +52999,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 24d69 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2c3a5 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -45920,38 +53046,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24de0 <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c41c <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24eac <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c4e8 <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 24e8f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 24e8f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 24e8f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 24e8f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 24e8f <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -45961,7 +53087,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,149,99,0,0 // vpbroadcastw 0x6395(%rip),%ymm3 # 2b234 <_sk_srcover_rgba_8888_sse2_lowp+0x7f4>
+ .byte 196,226,125,121,29,217,99,0,0 // vpbroadcastw 0x63d9(%rip),%ymm3 # 328b4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -45975,7 +53101,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 24eb9 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c4f5 <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -46013,38 +53139,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 24f24 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c560 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 24ff0 <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c62c <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 24fd3 <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -46054,7 +53180,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,83,98,0,0 // vpbroadcastw 0x6253(%rip),%ymm7 # 2b236 <_sk_srcover_rgba_8888_sse2_lowp+0x7f6>
+ .byte 196,226,125,121,61,151,98,0,0 // vpbroadcastw 0x6297(%rip),%ymm7 # 328b6 <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -46068,7 +53194,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 24ffd <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c639 <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -46098,12 +53224,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,3,98,0,0 // vpbroadcastw 0x6203(%rip),%ymm3 # 2b238 <_sk_srcover_rgba_8888_sse2_lowp+0x7f8>
+ .byte 196,226,125,121,29,71,98,0,0 // vpbroadcastw 0x6247(%rip),%ymm3 # 328b8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,248,97,0,0 // vpbroadcastw 0x61f8(%rip),%ymm3 # 2b23a <_sk_srcover_rgba_8888_sse2_lowp+0x7fa>
+ .byte 196,226,125,121,29,60,98,0,0 // vpbroadcastw 0x623c(%rip),%ymm3 # 328ba <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,233,97,0,0 // vpbroadcastw 0x61e9(%rip),%ymm1 # 2b23c <_sk_srcover_rgba_8888_sse2_lowp+0x7fc>
+ .byte 196,226,125,121,13,45,98,0,0 // vpbroadcastw 0x622d(%rip),%ymm1 # 328bc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -46119,13 +53245,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,54,98,0,0 // vmovss 0x6236(%rip),%xmm9 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 196,98,57,169,13,253,97,0,0 // vfmadd213ss 0x61fd(%rip),%xmm8,%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,122,16,13,122,98,0,0 // vmovss 0x627a(%rip),%xmm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,57,169,13,65,98,0,0 // vfmadd213ss 0x6241(%rip),%xmm8,%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,156,97,0,0 // vpbroadcastw 0x619c(%rip),%ymm9 # 2b23e <_sk_srcover_rgba_8888_sse2_lowp+0x7fe>
+ .byte 196,98,125,121,13,224,97,0,0 // vpbroadcastw 0x61e0(%rip),%ymm9 # 328be <_sk_srcover_rgba_8888_sse2_lowp+0x842>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46146,12 +53272,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,204,97,0,0 // vmovss 0x61cc(%rip),%xmm9 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 196,98,57,169,13,147,97,0,0 // vfmadd213ss 0x6193(%rip),%xmm8,%xmm9 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 197,122,16,13,16,98,0,0 // vmovss 0x6210(%rip),%xmm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,57,169,13,215,97,0,0 // vfmadd213ss 0x61d7(%rip),%xmm8,%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,56,97,0,0 // vpbroadcastw 0x6138(%rip),%ymm9 # 2b240 <_sk_srcover_rgba_8888_sse2_lowp+0x800>
+ .byte 196,98,125,121,13,124,97,0,0 // vpbroadcastw 0x617c(%rip),%ymm9 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46188,38 +53314,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 251a6 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2c7e2 <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 252a4 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2c8e0 <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 25259 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 25259 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 25259 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 25259 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 25259 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46229,7 +53355,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,215,95,0,0 // vpbroadcastw 0x5fd7(%rip),%ymm9 # 2b242 <_sk_srcover_rgba_8888_sse2_lowp+0x802>
+ .byte 196,98,125,121,13,27,96,0,0 // vpbroadcastw 0x601b(%rip),%ymm9 # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -46250,7 +53376,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c0252b0 <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02c8ec <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -46289,38 +53415,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2531d <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2c959 <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 25440 <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2ca7c <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 253d0 <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -46329,7 +53455,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,102,94,0,0 // vpbroadcastw 0x5e66(%rip),%ymm9 # 2b244 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
+ .byte 196,98,125,121,13,170,94,0,0 // vpbroadcastw 0x5eaa(%rip),%ymm9 # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46361,7 +53487,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702544b <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
+ .byte 232,254,255,255,38 // callq 2702ca87 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -46382,7 +53508,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2546d <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2caa9 <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -46403,24 +53529,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 254bc <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2caf8 <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 256a4 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2cce0 <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 255c8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 255c8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 255c8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -46430,7 +53556,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 255c8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46442,7 +53568,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 255c8 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46456,13 +53582,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,117,92,0,0 // vpbroadcastw 0x5c75(%rip),%ymm9 # 2b246 <_sk_srcover_rgba_8888_sse2_lowp+0x806>
+ .byte 196,98,125,121,13,185,92,0,0 // vpbroadcastw 0x5cb9(%rip),%ymm9 # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,93,92,0,0 // vpbroadcastw 0x5c5d(%rip),%ymm11 # 2b248 <_sk_srcover_rgba_8888_sse2_lowp+0x808>
+ .byte 196,98,125,121,29,161,92,0,0 // vpbroadcastw 0x5ca1(%rip),%ymm11 # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,81,92,0,0 // vpbroadcastw 0x5c51(%rip),%ymm11 # 2b24a <_sk_srcover_rgba_8888_sse2_lowp+0x80a>
+ .byte 196,98,125,121,29,149,92,0,0 // vpbroadcastw 0x5c95(%rip),%ymm11 # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46472,7 +53598,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,24,92,0,0 // vpbroadcastw 0x5c18(%rip),%ymm11 # 2b24c <_sk_srcover_rgba_8888_sse2_lowp+0x80c>
+ .byte 196,98,125,121,29,92,92,0,0 // vpbroadcastw 0x5c5c(%rip),%ymm11 # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -46482,7 +53608,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,228,91,0,0 // vpbroadcastw 0x5be4(%rip),%ymm8 # 2b24e <_sk_srcover_rgba_8888_sse2_lowp+0x80e>
+ .byte 196,98,125,121,5,40,92,0,0 // vpbroadcastw 0x5c28(%rip),%ymm8 # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x852>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -46546,24 +53672,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 25720 <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2cd5c <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2593c <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2cf78 <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2582c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2582c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2582c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -46573,7 +53699,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2582c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46585,7 +53711,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2582c <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -46599,13 +53725,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,27,90,0,0 // vpbroadcastw 0x5a1b(%rip),%ymm9 # 2b250 <_sk_srcover_rgba_8888_sse2_lowp+0x810>
+ .byte 196,98,125,121,13,95,90,0,0 // vpbroadcastw 0x5a5f(%rip),%ymm9 # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,3,90,0,0 // vpbroadcastw 0x5a03(%rip),%ymm11 # 2b252 <_sk_srcover_rgba_8888_sse2_lowp+0x812>
+ .byte 196,98,125,121,29,71,90,0,0 // vpbroadcastw 0x5a47(%rip),%ymm11 # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,247,89,0,0 // vpbroadcastw 0x59f7(%rip),%ymm11 # 2b254 <_sk_srcover_rgba_8888_sse2_lowp+0x814>
+ .byte 196,98,125,121,29,59,90,0,0 // vpbroadcastw 0x5a3b(%rip),%ymm11 # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -46615,7 +53741,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,190,89,0,0 // vpbroadcastw 0x59be(%rip),%ymm11 # 2b256 <_sk_srcover_rgba_8888_sse2_lowp+0x816>
+ .byte 196,98,125,121,29,2,90,0,0 // vpbroadcastw 0x5a02(%rip),%ymm11 # 328d6 <_sk_srcover_rgba_8888_sse2_lowp+0x85a>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -46624,7 +53750,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,142,89,0,0 // vpbroadcastw 0x598e(%rip),%ymm12 # 2b258 <_sk_srcover_rgba_8888_sse2_lowp+0x818>
+ .byte 196,98,125,121,37,210,89,0,0 // vpbroadcastw 0x59d2(%rip),%ymm12 # 328d8 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -46705,9 +53831,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 259d4 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 2d010 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 25c98 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d2d4 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46717,10 +53843,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -46729,7 +53855,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46745,7 +53871,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46755,7 +53881,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 25aea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -46775,9 +53901,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,77,87,0,0 // vmovdqa 0x574d(%rip),%ymm8 # 2b260 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
+ .byte 197,125,111,5,145,87,0,0 // vmovdqa 0x5791(%rip),%ymm8 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,95,87,0,0 // vpbroadcastw 0x575f(%rip),%ymm9 # 2b280 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,98,125,121,13,163,87,0,0 // vpbroadcastw 0x57a3(%rip),%ymm9 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -46816,19 +53942,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 25bfb <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 25cd4 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 2d237 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d310 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -46836,12 +53962,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 25c92 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -46889,7 +54015,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f025cd8 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d314 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -46907,7 +54033,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 25cf9 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 2d335 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -46940,13 +54066,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 25dc6 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2d402 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 25d94 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 2d3d0 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -46965,10 +54091,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 25d5d <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 2d399 <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 25dbd <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 2d3f9 <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -46982,7 +54108,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 25d4f <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 2d38b <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -47025,7 +54151,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,247,85,0,0 // movaps 0x55f7(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,59,86,0,0 // movaps 0x563b(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -47036,7 +54162,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,227,85,0,0 // movaps 0x55e3(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,5,39,86,0,0 // movaps 0x5627(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -47047,10 +54173,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,98,84,0,0 // movss 0x5462(%rip),%xmm2 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 243,15,16,21,166,84,0,0 // movss 0x54a6(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,33,84,0,0 // movss 0x5421(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,16,5,101,84,0,0 // movss 0x5465(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -47077,7 +54203,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,85,85,0,0 // movdqa 0x5555(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,153,85,0,0 // movdqa 0x5599(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -47125,7 +54251,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,243,84,0,0 // movdqa 0x54f3(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,55,85,0,0 // movdqa 0x5537(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47157,7 +54283,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,151,84,0,0 // movdqa 0x5497(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,29,219,84,0,0 // movdqa 0x54db(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -47189,7 +54315,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,23,84,0,0 // movdqa 0x5417(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,91,84,0,0 // movdqa 0x545b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -47218,7 +54344,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,162,83,0,0 // movdqa 0x53a2(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,230,83,0,0 // movdqa 0x53e6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -47239,7 +54365,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,89,83,0,0 // movdqa 0x5359(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,157,83,0,0 // movdqa 0x539d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -47260,7 +54386,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,16,83,0,0 // movdqa 0x5310(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,84,83,0,0 // movdqa 0x5354(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -47283,7 +54409,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,185,82,0,0 // movdqa 0x52b9(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,253,82,0,0 // movdqa 0x52fd(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -47308,7 +54434,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,95,82,0,0 // movdqa 0x525f(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,163,82,0,0 // movdqa 0x52a3(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47337,7 +54463,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,229,81,0,0 // movdqa 0x51e5(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,41,82,0,0 // movdqa 0x5229(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -47364,7 +54490,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,126,81,0,0 // movdqa 0x517e(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,194,81,0,0 // movdqa 0x51c2(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -47383,7 +54509,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,61,81,0,0 // movdqa 0x513d(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,129,81,0,0 // movdqa 0x5181(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -47426,7 +54552,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,130,80,0,0 // movdqa 0x5082(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,198,80,0,0 // movdqa 0x50c6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -47446,7 +54572,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,60,80,0,0 // movdqa 0x503c(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,21,128,80,0,0 // movdqa 0x5080(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -47478,7 +54604,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,186,79,0,0 // movdqa 0x4fba(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,254,79,0,0 // movdqa 0x4ffe(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -47521,7 +54647,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,1,79,0,0 // movdqa 0x4f01(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -47565,7 +54691,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,68,78,0,0 // movdqa 0x4e44(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,136,78,0,0 // movdqa 0x4e88(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -47609,10 +54735,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,135,77,0,0 // movdqa 0x4d87(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,203,77,0,0 // movdqa 0x4dcb(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,212,84,0,0 // movdqa 0x54d4(%rip),%xmm10 # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,21,24,85,0,0 // movdqa 0x5518(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -47654,10 +54780,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,195,76,0,0 // movdqa 0x4cc3(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,7,77,0,0 // movdqa 0x4d07(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,16,84,0,0 // movdqa 0x5410(%rip),%xmm10 # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,21,84,84,0,0 // movdqa 0x5454(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -47693,14 +54819,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,30,76,0,0 // movdqa 0x4c1e(%rip),%xmm11 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,29,98,76,0,0 // movdqa 0x4c62(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,103,83,0,0 // movdqa 0x5367(%rip),%xmm9 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,13,171,83,0,0 // movdqa 0x53ab(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -47747,7 +54873,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,15,75,0,0 // movdqa 0x4b0f(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,83,75,0,0 // movdqa 0x4b53(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -47786,7 +54912,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,114,74,0,0 // movdqa 0x4a72(%rip),%xmm11 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,29,182,74,0,0 // movdqa 0x4ab6(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -47798,7 +54924,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,163,81,0,0 // movdqa 0x51a3(%rip),%xmm9 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,13,231,81,0,0 // movdqa 0x51e7(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -47844,7 +54970,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,85,73,0,0 // movdqa 0x4955(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,153,73,0,0 // movdqa 0x4999(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -47887,49 +55013,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 26b8d <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e1c9 <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 26c64 <_sk_load_8888_sse41_lowp+0x11b>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e2a0 <_sk_load_8888_sse41_lowp+0x11b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 26be6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 26be6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 26be6 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,178,79,0,0 // movdqa 0x4fb2(%rip),%xmm0 # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,5,246,79,0,0 // movdqa 0x4ff6(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,18,72,0,0 // movdqa 0x4812(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,86,72,0,0 // movdqa 0x4856(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,139,79,0,0 // movdqa 0x4f8b(%rip),%xmm10 # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,21,207,79,0,0 // movdqa 0x4fcf(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,120,79,0,0 // movdqa 0x4f78(%rip),%xmm10 # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,188,79,0,0 // movdqa 0x4fbc(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -47945,7 +55071,7 @@ _sk_load_8888_sse41_lowp:
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 26c71 <_sk_load_8888_sse41_lowp+0x128>
+ .byte 124,255 // jl 2e2ad <_sk_load_8888_sse41_lowp+0x128>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -47968,49 +55094,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 26cc4 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e300 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 26d9c <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e3d8 <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 26d1d <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,123,78,0,0 // movdqa 0x4e7b(%rip),%xmm4 # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,37,191,78,0,0 // movdqa 0x4ebf(%rip),%xmm4 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,219,70,0,0 // movdqa 0x46db(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,31,71,0,0 // movdqa 0x471f(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,84,78,0,0 // movdqa 0x4e54(%rip),%xmm10 # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,21,152,78,0,0 // movdqa 0x4e98(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,65,78,0,0 // movdqa 0x4e41(%rip),%xmm10 # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,133,78,0,0 // movdqa 0x4e85(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -48026,7 +55152,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26da9 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e3e5 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48063,20 +55189,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 26e3e <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e47a <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 26e84 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e4c0 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 26e7d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 26e7d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 26e7d <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -48120,49 +55246,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 26ee4 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e520 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 26fbc <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e5f8 <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 26f3d <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,91,76,0,0 // movdqa 0x4c5b(%rip),%xmm2 # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,21,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm2 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,187,68,0,0 // movdqa 0x44bb(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,255,68,0,0 // movdqa 0x44ff(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,52,76,0,0 // movdqa 0x4c34(%rip),%xmm10 # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,21,120,76,0,0 // movdqa 0x4c78(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,33,76,0,0 // movdqa 0x4c21(%rip),%xmm10 # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,101,76,0,0 // movdqa 0x4c65(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -48178,7 +55304,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 26fc9 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e605 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48200,49 +55326,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2701c <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e658 <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 270f4 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e730 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 27075 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,35,75,0,0 // movdqa 0x4b23(%rip),%xmm6 # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,53,103,75,0,0 // movdqa 0x4b67(%rip),%xmm6 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,131,67,0,0 // movdqa 0x4383(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,199,67,0,0 // movdqa 0x43c7(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,252,74,0,0 // movdqa 0x4afc(%rip),%xmm10 # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,21,64,75,0,0 // movdqa 0x4b40(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,233,74,0,0 // movdqa 0x4ae9(%rip),%xmm10 # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,21,45,75,0,0 // movdqa 0x4b2d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -48258,7 +55384,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 27101 <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e73d <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48295,20 +55421,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 27196 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e7d2 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 271dc <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e818 <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 271d5 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -48352,23 +55478,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 27234 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2e870 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 272e4 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2e920 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 2727e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 2727e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 2727e <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -48377,11 +55503,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,65,73,0,0 // pand 0x4941(%rip),%xmm3 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,29,133,73,0,0 // pand 0x4985(%rip),%xmm3 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,64,73,0,0 // pand 0x4940(%rip),%xmm1 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,15,111,21,72,73,0,0 // movdqa 0x4948(%rip),%xmm2 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,15,219,13,132,73,0,0 // pand 0x4984(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,111,21,140,73,0,0 // movdqa 0x498c(%rip),%xmm2 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -48394,7 +55520,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,62,65,0,0 // movaps 0x413e(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,130,65,0,0 // movaps 0x4182(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -48405,7 +55531,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 272f9 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 2e935 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48424,23 +55550,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2733c <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2e978 <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 273ec <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ea28 <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 27386 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 27386 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 27386 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -48449,11 +55575,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,57,72,0,0 // pand 0x4839(%rip),%xmm7 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,61,125,72,0,0 // pand 0x487d(%rip),%xmm7 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,56,72,0,0 // pand 0x4838(%rip),%xmm5 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,15,111,53,64,72,0,0 // movdqa 0x4840(%rip),%xmm6 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,15,219,45,124,72,0,0 // pand 0x487c(%rip),%xmm5 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,111,53,132,72,0,0 // movdqa 0x4884(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -48466,7 +55592,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,54,64,0,0 // movaps 0x4036(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,61,122,64,0,0 // movaps 0x407a(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -48477,7 +55603,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 27401 <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 2ea3d <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -48494,10 +55620,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,212,71,0,0 // pand 0x47d4(%rip),%xmm8 # 2bc00 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,219,5,24,72,0,0 // pand 0x4818(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,208,71,0,0 // pand 0x47d0(%rip),%xmm9 # 2bc10 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,68,15,219,13,20,72,0,0 // pand 0x4814(%rip),%xmm9 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -48506,19 +55632,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2747c <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 2eab8 <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 274bc <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2eaf8 <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 274b6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 274b6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 274b6 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -48538,7 +55664,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 274cd <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 2eb09 <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -48560,18 +55686,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 27511 <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2eb4d <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2758c <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ebc8 <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 27575 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 27575 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -48579,7 +55705,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 27575 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -48590,13 +55716,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,163,62,0,0 // pand 0x3ea3(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,29,231,62,0,0 // pand 0x3ee7(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2758d <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ebc9 <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -48627,18 +55753,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 275e1 <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ec1d <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2765c <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ec98 <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -48646,7 +55772,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 27645 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -48657,13 +55783,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,211,61,0,0 // pand 0x3dd3(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,61,23,62,0,0 // pand 0x3e17(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2765d <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ec99 <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -48694,28 +55820,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 276ac <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 2ece8 <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2771c <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ed58 <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 27715 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,181,68,0,0 // pshufb 0x44b5(%rip),%xmm8 # 2bb70 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
+ .byte 102,68,15,56,0,5,249,68,0,0 // pshufb 0x44f9(%rip),%xmm8 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 27715 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,85,61,0,0 // pshufb 0x3d55(%rip),%xmm8 # 2b430 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 102,68,15,56,0,5,153,61,0,0 // pshufb 0x3d99(%rip),%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 27715 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,49,61,0,0 // pshufb 0x3d31(%rip),%xmm8 # 2b440 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 102,68,15,56,0,5,117,61,0,0 // pshufb 0x3d75(%rip),%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48751,18 +55877,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 27771 <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2edad <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 277f0 <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2ee2c <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 277d5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 277d5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -48770,7 +55896,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 277d5 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -48781,13 +55907,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,67,60,0,0 // pand 0x3c43(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,5,135,60,0,0 // pand 0x3c87(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,58,60,0,0 // movaps 0x3c3a(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,126,60,0,0 // movaps 0x3c7e(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 277f1 <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2ee2d <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -48816,18 +55942,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 27845 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ee81 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 278c4 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2ef00 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -48835,7 +55961,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 278a9 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -48846,13 +55972,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,111,59,0,0 // pand 0x3b6f(%rip),%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,37,179,59,0,0 // pand 0x3bb3(%rip),%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,102,59,0,0 // movaps 0x3b66(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,61,170,59,0,0 // movaps 0x3baa(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 278c5 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2ef01 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -48874,10 +56000,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,52,67,0,0 // pmullw 0x4334(%rip),%xmm0 # 2bc20 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,213,13,60,67,0,0 // pmullw 0x433c(%rip),%xmm1 # 2bc30 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,213,5,120,67,0,0 // pmullw 0x4378(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+ .byte 102,15,213,13,128,67,0,0 // pmullw 0x4380(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,64,67,0,0 // pmullw 0x4340(%rip),%xmm3 # 2bc40 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+ .byte 102,15,213,29,132,67,0,0 // pmullw 0x4384(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48892,14 +56018,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,139,57,0,0 // mulss 0x398b(%rip),%xmm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 243,68,15,88,5,82,57,0,0 // addss 0x3952(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,5,207,57,0,0 // mulss 0x39cf(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,150,57,0,0 // addss 0x3996(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,202,58,0,0 // movdqa 0x3aca(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,14,59,0,0 // movdqa 0x3b0e(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -48920,13 +56046,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,19,57,0,0 // mulss 0x3913(%rip),%xmm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 243,68,15,88,5,218,56,0,0 // addss 0x38da(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,5,87,57,0,0 // mulss 0x3957(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,30,57,0,0 // addss 0x391e(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,87,58,0,0 // movdqa 0x3a57(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,155,58,0,0 // movdqa 0x3a9b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -48966,18 +56092,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 27a80 <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f0bc <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 27b48 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f184 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 27aef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 27aef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -48985,7 +56111,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 27aef <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -48996,9 +56122,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,40,57,0,0 // pand 0x3928(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,219,5,108,57,0,0 // pand 0x396c(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,26,57,0,0 // movdqa 0x391a(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,94,57,0,0 // movdqa 0x395e(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -49023,7 +56149,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 27b5d <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 2f199 <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -49041,18 +56167,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 27b9f <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f1db <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 27ca8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -49060,7 +56186,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 27c0e <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -49071,8 +56197,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,9,56,0,0 // pand 0x3809(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
- .byte 102,68,15,111,21,0,56,0,0 // movdqa 0x3800(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,219,5,77,56,0,0 // pand 0x384d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,68,56,0,0 // movdqa 0x3844(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -49102,7 +56228,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 27ca8 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -49136,23 +56262,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 27d06 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f342 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 27e60 <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f49c <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 27d52 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 27d52 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 27d52 <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49161,11 +56287,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,108,62,0,0 // pand 0x3e6c(%rip),%xmm0 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,5,176,62,0,0 // pand 0x3eb0(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,104,62,0,0 // pand 0x3e68(%rip),%xmm10 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,68,15,111,29,111,62,0,0 // movdqa 0x3e6f(%rip),%xmm11 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,219,21,172,62,0,0 // pand 0x3eac(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,29,179,62,0,0 // movdqa 0x3eb3(%rip),%xmm11 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -49177,7 +56303,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,205,61,0,0 // movdqa 0x3dcd(%rip),%xmm0 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,111,5,17,62,0,0 // movdqa 0x3e11(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -49190,7 +56316,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,21,54,0,0 // movdqa 0x3615(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,5,89,54,0,0 // movdqa 0x3659(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -49244,23 +56370,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 27ebe <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f4fa <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 28064 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f6a0 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 27f0a <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -49269,11 +56395,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,180,60,0,0 // pand 0x3cb4(%rip),%xmm0 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,5,248,60,0,0 // pand 0x3cf8(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,176,60,0,0 // pand 0x3cb0(%rip),%xmm10 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,68,15,111,29,183,60,0,0 // movdqa 0x3cb7(%rip),%xmm11 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,219,21,244,60,0,0 // pand 0x3cf4(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,29,251,60,0,0 // movdqa 0x3cfb(%rip),%xmm11 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -49285,7 +56411,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,21,60,0,0 // movdqa 0x3c15(%rip),%xmm0 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,111,5,89,60,0,0 // movdqa 0x3c59(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -49297,7 +56423,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,97,52,0,0 // movdqa 0x3461(%rip),%xmm13 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,45,165,52,0,0 // movdqa 0x34a5(%rip),%xmm13 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -49361,48 +56487,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 280cb <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 2f707 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 282c8 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2f904 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 28124 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,116,58,0,0 // movdqa 0x3a74(%rip),%xmm4 # 2bba0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
+ .byte 102,15,111,37,184,58,0,0 // movdqa 0x3ab8(%rip),%xmm4 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,212,50,0,0 // movdqa 0x32d4(%rip),%xmm12 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,37,24,51,0,0 // movdqa 0x3318(%rip),%xmm12 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,77,58,0,0 // movdqa 0x3a4d(%rip),%xmm9 # 2bbb0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
+ .byte 102,68,15,111,13,145,58,0,0 // movdqa 0x3a91(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,58,58,0,0 // movdqa 0x3a3a(%rip),%xmm9 # 2bbc0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
+ .byte 102,68,15,111,13,126,58,0,0 // movdqa 0x3a7e(%rip),%xmm9 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -49444,19 +56570,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 2826e <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 282e4 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 2f8aa <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2f920 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 282ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -49521,13 +56647,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 283b6 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2f9f2 <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 28384 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 2f9c0 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -49546,10 +56672,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2834d <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 2f989 <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 283ad <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 2f9e9 <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -49563,7 +56689,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2833f <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 2f97b <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -49606,7 +56732,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,7,48,0,0 // movaps 0x3007(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,75,48,0,0 // movaps 0x304b(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -49617,7 +56743,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,243,47,0,0 // movaps 0x2ff3(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,5,55,48,0,0 // movaps 0x3037(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -49628,10 +56754,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,114,46,0,0 // movss 0x2e72(%rip),%xmm2 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
+ .byte 243,15,16,21,182,46,0,0 // movss 0x2eb6(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,49,46,0,0 // movss 0x2e31(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,16,5,117,46,0,0 // movss 0x2e75(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -49658,7 +56784,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,101,47,0,0 // movdqa 0x2f65(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,169,47,0,0 // movdqa 0x2fa9(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -49706,7 +56832,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,3,47,0,0 // movdqa 0x2f03(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,71,47,0,0 // movdqa 0x2f47(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49738,7 +56864,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,167,46,0,0 // movdqa 0x2ea7(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,29,235,46,0,0 // movdqa 0x2eeb(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -49770,7 +56896,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,39,46,0,0 // movdqa 0x2e27(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,107,46,0,0 // movdqa 0x2e6b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -49799,7 +56925,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,178,45,0,0 // movdqa 0x2db2(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,246,45,0,0 // movdqa 0x2df6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -49820,7 +56946,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,105,45,0,0 // movdqa 0x2d69(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,173,45,0,0 // movdqa 0x2dad(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -49841,7 +56967,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,32,45,0,0 // movdqa 0x2d20(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,100,45,0,0 // movdqa 0x2d64(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49864,7 +56990,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,201,44,0,0 // movdqa 0x2cc9(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,13,45,0,0 // movdqa 0x2d0d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -49889,7 +57015,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,111,44,0,0 // movdqa 0x2c6f(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,179,44,0,0 // movdqa 0x2cb3(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -49918,7 +57044,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,245,43,0,0 // movdqa 0x2bf5(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,57,44,0,0 // movdqa 0x2c39(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -49945,7 +57071,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,142,43,0,0 // movdqa 0x2b8e(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,210,43,0,0 // movdqa 0x2bd2(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -49964,7 +57090,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,77,43,0,0 // movdqa 0x2b4d(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,145,43,0,0 // movdqa 0x2b91(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -50009,12 +57135,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,185,50,0,0 // movdqa 0x32b9(%rip),%xmm10 # 2bc50 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
+ .byte 102,68,15,111,21,253,50,0,0 // movdqa 0x32fd(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,109,42,0,0 // movdqa 0x2a6d(%rip),%xmm11 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,29,177,42,0,0 // movdqa 0x2ab1(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -50053,7 +57179,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,205,41,0,0 // movdqa 0x29cd(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,21,17,42,0,0 // movdqa 0x2a11(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -50085,7 +57211,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,75,41,0,0 // movdqa 0x294b(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,143,41,0,0 // movdqa 0x298f(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -50127,7 +57253,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,6,48,0,0 // movdqa 0x3006(%rip),%xmm9 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,13,74,48,0,0 // movdqa 0x304a(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -50136,7 +57262,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,101,40,0,0 // movdqa 0x2865(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,21,169,40,0,0 // movdqa 0x28a9(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -50192,7 +57318,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,221,46,0,0 // movdqa 0x2edd(%rip),%xmm9 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,13,33,47,0,0 // movdqa 0x2f21(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -50201,7 +57327,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,60,39,0,0 // movdqa 0x273c(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,21,128,39,0,0 // movdqa 0x2780(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -50257,7 +57383,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,180,45,0,0 // movdqa 0x2db4(%rip),%xmm9 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,13,248,45,0,0 // movdqa 0x2df8(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -50266,10 +57392,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,19,38,0,0 // movdqa 0x2613(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,21,87,38,0,0 // movdqa 0x2657(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,96,45,0,0 // movdqa 0x2d60(%rip),%xmm11 # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,29,164,45,0,0 // movdqa 0x2da4(%rip),%xmm11 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -50324,10 +57450,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,16,37,0,0 // movdqa 0x2510(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,84,37,0,0 // movdqa 0x2554(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,93,44,0,0 // movdqa 0x2c5d(%rip),%xmm10 # 2bb80 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
+ .byte 102,68,15,111,21,161,44,0,0 // movdqa 0x2ca1(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -50363,7 +57489,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,108,36,0,0 // movdqa 0x246c(%rip),%xmm2 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,21,176,36,0,0 // movdqa 0x24b0(%rip),%xmm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -50376,7 +57502,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,152,43,0,0 // movdqa 0x2b98(%rip),%xmm2 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,111,21,220,43,0,0 // movdqa 0x2bdc(%rip),%xmm2 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -50395,7 +57521,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,203,35,0,0 // paddw 0x23cb(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,253,5,15,36,0,0 // paddw 0x240f(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -50418,7 +57544,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,86,35,0,0 // paddw 0x2356(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,253,13,154,35,0,0 // paddw 0x239a(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -50440,7 +57566,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,230,34,0,0 // movdqa 0x22e6(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,42,35,0,0 // movdqa 0x232a(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -50468,7 +57594,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,119,34,0,0 // movdqa 0x2277(%rip),%xmm6 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,53,187,34,0,0 // movdqa 0x22bb(%rip),%xmm6 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -50490,7 +57616,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,123,41,0,0 // movdqa 0x297b(%rip),%xmm1 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,111,13,191,41,0,0 // movdqa 0x29bf(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -50517,7 +57643,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,250,40,0,0 // movdqa 0x28fa(%rip),%xmm7 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,15,111,61,62,41,0,0 // movdqa 0x293e(%rip),%xmm7 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -50577,27 +57703,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 293ac <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 309e8 <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 294a8 <_sk_load_8888_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30ae4 <_sk_load_8888_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 29412 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 29412 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 29412 <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -50614,7 +57740,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,228,31,0,0 // movdqa 0x1fe4(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,40,32,0,0 // movdqa 0x2028(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -50667,27 +57793,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 29508 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30b44 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 29604 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30c40 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 2956e <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -50704,7 +57830,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,136,30,0,0 // movdqa 0x1e88(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,204,30,0,0 // movdqa 0x1ecc(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -50772,21 +57898,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 296a3 <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 30cdf <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 296f4 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30d30 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 296ee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 296ee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 296ee <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -50831,27 +57957,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 29754 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 30d90 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 29850 <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30e8c <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 297ba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 297ba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 297ba <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -50868,7 +57994,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,60,28,0,0 // movdqa 0x1c3c(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,128,28,0,0 // movdqa 0x1c80(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -50921,27 +58047,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 298b0 <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30eec <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 299ac <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30fe8 <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 29916 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -50958,7 +58084,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,224,26,0,0 // movdqa 0x1ae0(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,36,27,0,0 // movdqa 0x1b24(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -51026,21 +58152,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 29a4b <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 31087 <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 29a9c <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 310d8 <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 29a96 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 29a96 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 29a96 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -51085,23 +58211,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 29af4 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 31130 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 29b9c <_sk_load_565_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 311d8 <_sk_load_565_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 29b36 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 29b36 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 29b36 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -51109,11 +58235,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,137,32,0,0 // pand 0x2089(%rip),%xmm3 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,29,205,32,0,0 // pand 0x20cd(%rip),%xmm3 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,136,32,0,0 // pand 0x2088(%rip),%xmm1 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,15,111,21,144,32,0,0 // movdqa 0x2090(%rip),%xmm2 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,15,219,13,204,32,0,0 // pand 0x20cc(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,111,21,212,32,0,0 // movdqa 0x20d4(%rip),%xmm2 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -51126,7 +58252,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,134,24,0,0 // movaps 0x1886(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,202,24,0,0 // movaps 0x18ca(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -51152,23 +58278,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 29bf4 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 31230 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 29c9c <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 312d8 <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 29c36 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -51176,11 +58302,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,137,31,0,0 // pand 0x1f89(%rip),%xmm7 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,15,219,61,205,31,0,0 // pand 0x1fcd(%rip),%xmm7 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,136,31,0,0 // pand 0x1f88(%rip),%xmm5 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,15,111,53,144,31,0,0 // movdqa 0x1f90(%rip),%xmm6 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,15,219,45,204,31,0,0 // pand 0x1fcc(%rip),%xmm5 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,15,111,53,212,31,0,0 // movdqa 0x1fd4(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -51193,7 +58319,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,134,23,0,0 // movaps 0x1786(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,61,202,23,0,0 // movaps 0x17ca(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -51217,10 +58343,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,36,31,0,0 // pand 0x1f24(%rip),%xmm8 # 2bc00 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
+ .byte 102,68,15,219,5,104,31,0,0 // pand 0x1f68(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,32,31,0,0 // pand 0x1f20(%rip),%xmm9 # 2bc10 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
+ .byte 102,68,15,219,13,100,31,0,0 // pand 0x1f64(%rip),%xmm9 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -51229,21 +58355,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 29d2e <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 3136a <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 29d78 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 313b4 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 29d74 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 29d74 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 29d74 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -51287,19 +58413,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 29dcd <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 31409 <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 29e44 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31480 <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 29e2e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 29e2e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -51307,7 +58433,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 29e2e <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -51318,14 +58444,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,234,21,0,0 // pand 0x15ea(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,29,46,22,0,0 // pand 0x162e(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 29e45 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 31481 <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -51355,19 +58481,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 29e99 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 314d5 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 29f10 <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3154c <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -51375,7 +58501,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 29efa <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -51386,14 +58512,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,30,21,0,0 // pand 0x151e(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,61,98,21,0,0 // pand 0x1562(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 29f11 <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 3154d <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -51423,42 +58549,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 29f60 <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 3159c <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 29fe0 <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3161c <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 29fdb <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,183,20,0,0 // movdqa 0x14b7(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 235,123 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,251,20,0,0 // movdqa 0x14fb(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 29fdb <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,146,20,0,0 // movdqa 0x1492(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,214,20,0,0 // movdqa 0x14d6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 29fdb <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,85,20,0,0 // movdqa 0x1455(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,153,20,0,0 // movdqa 0x1499(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 29fe1 <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 3161d <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -51489,19 +58615,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2a035 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 31671 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2a0b4 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 316f0 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 2a096 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 2a096 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -51509,7 +58635,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 2a096 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -51520,14 +58646,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,130,19,0,0 // pand 0x1382(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,5,198,19,0,0 // pand 0x13c6(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,121,19,0,0 // movaps 0x1379(%rip),%xmm3 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,29,189,19,0,0 // movaps 0x13bd(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 2a0b5 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 316f1 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -51555,19 +58681,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2a109 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 31745 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2a188 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317c4 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -51575,7 +58701,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 2a16a <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -51586,14 +58712,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,174,18,0,0 // pand 0x12ae(%rip),%xmm4 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,219,37,242,18,0,0 // pand 0x12f2(%rip),%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,165,18,0,0 // movaps 0x12a5(%rip),%xmm7 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 15,40,61,233,18,0,0 // movaps 0x12e9(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 2a189 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 317c5 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -51614,10 +58740,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,112,26,0,0 // pmullw 0x1a70(%rip),%xmm0 # 2bc20 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
- .byte 102,15,213,13,120,26,0,0 // pmullw 0x1a78(%rip),%xmm1 # 2bc30 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
+ .byte 102,15,213,5,180,26,0,0 // pmullw 0x1ab4(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
+ .byte 102,15,213,13,188,26,0,0 // pmullw 0x1abc(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,124,26,0,0 // pmullw 0x1a7c(%rip),%xmm3 # 2bc40 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
+ .byte 102,15,213,29,192,26,0,0 // pmullw 0x1ac0(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -51632,14 +58758,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,199,16,0,0 // mulss 0x10c7(%rip),%xmm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 243,68,15,88,5,142,16,0,0 // addss 0x108e(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,5,11,17,0,0 // mulss 0x110b(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,210,16,0,0 // addss 0x10d2(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,6,18,0,0 // movdqa 0x1206(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,74,18,0,0 // movdqa 0x124a(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51660,13 +58786,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,79,16,0,0 // mulss 0x104f(%rip),%xmm8 # 2b2b4 <_sk_srcover_rgba_8888_sse2_lowp+0x874>
- .byte 243,68,15,88,5,22,16,0,0 // addss 0x1016(%rip),%xmm8 # 2b284 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 243,68,15,89,5,147,16,0,0 // mulss 0x1093(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,68,15,88,5,90,16,0,0 // addss 0x105a(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,147,17,0,0 // movdqa 0x1193(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,215,17,0,0 // movdqa 0x11d7(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51706,19 +58832,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2a344 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31980 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2a40c <_sk_scale_u8_sse2_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31a48 <_sk_scale_u8_sse2_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -51726,7 +58852,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 2a3b1 <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -51737,9 +58863,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,102,16,0,0 // pand 0x1066(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,219,5,170,16,0,0 // pand 0x10aa(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,88,16,0,0 // movdqa 0x1058(%rip),%xmm9 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,13,156,16,0,0 // movdqa 0x109c(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -51765,7 +58891,7 @@ _sk_scale_u8_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 2a421 <_sk_scale_u8_sse2_lowp+0x118>
+ .byte 125,255 // jge 31a5d <_sk_scale_u8_sse2_lowp+0x118>
.byte 255 // (bad)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
.byte 255 // .byte 0xff
@@ -51782,19 +58908,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2a463 <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31a9f <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2a56c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -51802,7 +58928,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 2a4d0 <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -51813,8 +58939,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,71,15,0,0 // pand 0xf47(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
- .byte 102,68,15,111,21,62,15,0,0 // movdqa 0xf3e(%rip),%xmm10 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,219,5,139,15,0,0 // pand 0xf8b(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,130,15,0,0 // movdqa 0xf82(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -51844,9 +58970,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 2a56c <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 502a574 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -51876,23 +59002,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2a5d3 <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31c0f <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 2a7a4 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31de0 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 2a616 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 2a616 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 2a616 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -51900,11 +59026,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,166,21,0,0 // pand 0x15a6(%rip),%xmm11 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,219,29,234,21,0,0 // pand 0x15ea(%rip),%xmm11 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,162,21,0,0 // pand 0x15a2(%rip),%xmm9 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,68,15,111,21,169,21,0,0 // movdqa 0x15a9(%rip),%xmm10 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,219,13,230,21,0,0 // pand 0x15e6(%rip),%xmm9 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,21,237,21,0,0 // movdqa 0x15ed(%rip),%xmm10 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -51916,7 +59042,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,5,21,0,0 // movdqa 0x1505(%rip),%xmm12 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,37,73,21,0,0 // movdqa 0x1549(%rip),%xmm12 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -51957,7 +59083,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,199,12,0,0 // movdqa 0xcc7(%rip),%xmm0 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,15,111,5,11,13,0,0 // movdqa 0xd0b(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -52004,23 +59130,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2a80b <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31e47 <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 2aa24 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32060 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 2a84e <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -52028,11 +59154,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,110,19,0,0 // pand 0x136e(%rip),%xmm11 # 2bbd0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
+ .byte 102,68,15,219,29,178,19,0,0 // pand 0x13b2(%rip),%xmm11 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,106,19,0,0 // pand 0x136a(%rip),%xmm9 # 2bbe0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
- .byte 102,68,15,111,21,113,19,0,0 // movdqa 0x1371(%rip),%xmm10 # 2bbf0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
+ .byte 102,68,15,219,13,174,19,0,0 // pand 0x13ae(%rip),%xmm9 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
+ .byte 102,68,15,111,21,181,19,0,0 // movdqa 0x13b5(%rip),%xmm10 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -52044,7 +59170,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,205,18,0,0 // movdqa 0x12cd(%rip),%xmm12 # 2bb90 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
+ .byte 102,68,15,111,37,17,19,0,0 // movdqa 0x1311(%rip),%xmm12 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -52083,7 +59209,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,153,10,0,0 // movdqa 0xa99(%rip),%xmm8 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,5,221,10,0,0 // movdqa 0xadd(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -52152,26 +59278,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 2aa8b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 320c7 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 2acb4 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 322f0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 2aaf1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -52188,7 +59314,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,5,9,0,0 // movdqa 0x905(%rip),%xmm12 # 2b420 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 102,68,15,111,37,73,9,0,0 // movdqa 0x949(%rip),%xmm12 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -52246,20 +59372,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 2ac53 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 2acd0 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 3228f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3230c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 2ac9c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -52292,7 +59418,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2acd1 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 3230d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -52339,6 +59465,35 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 0,7 // add %al,(%rdi)
.byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 63 // (bad)
+ .byte 0,0 // add %al,(%rax)
+ .byte 192,63,0 // sarb $0x0,(%rdi)
+ .byte 0,32 // add %ah,(%rax)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 96 // (bad)
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 144 // nop
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 176,64 // mov $0x40,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 208,64,0 // rolb 0x0(%rax)
+ .byte 0,240 // add %dh,%al
+ .byte 64,0,0 // add %al,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 1,0 // add %eax,(%rax)
+ .byte 0,0 // add %al,(%rax)
+ .byte 2,0 // add (%rax),%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 3,0 // add (%rax),%eax
+ .byte 0,0 // add %al,(%rax)
+ .byte 4,0 // add $0x0,%al
+ .byte 0,0 // add %al,(%rax)
+ .byte 5,0,0,0,6 // add $0x6000000,%eax
+ .byte 0,0 // add %al,(%rax)
+ .byte 0,7 // add %al,(%rdi)
+ .byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 0,255 // add %bh,%bh
@@ -52358,16 +59513,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02ad68 <_sk_srcover_rgba_8888_sse2_lowp+0xa000328>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0323e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00036c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202ad70 <_sk_srcover_rgba_8888_sse2_lowp+0x12000330>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120323f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000374>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02ad78 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000338>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0323f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00037c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302ad80 <_sk_srcover_rgba_8888_sse2_lowp+0x3000340>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032400 <_sk_srcover_rgba_8888_sse2_lowp+0x3000384>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52410,16 +59565,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02adc8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000388>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032448 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003cc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202add0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000390>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032450 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02add8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000398>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032458 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003dc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302ade0 <_sk_srcover_rgba_8888_sse2_lowp+0x30003a0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032460 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52462,16 +59617,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02ae28 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003e8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0324a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00042c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202ae30 <_sk_srcover_rgba_8888_sse2_lowp+0x120003f0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120324b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000434>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02ae38 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003f8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00043c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302ae40 <_sk_srcover_rgba_8888_sse2_lowp+0x3000400>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000444>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52514,16 +59669,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02ae88 <_sk_srcover_rgba_8888_sse2_lowp+0xa000448>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032508 <_sk_srcover_rgba_8888_sse2_lowp+0xa00048c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202ae90 <_sk_srcover_rgba_8888_sse2_lowp+0x12000450>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032510 <_sk_srcover_rgba_8888_sse2_lowp+0x12000494>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02ae98 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000458>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032518 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00049c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302aea0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000460>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032520 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52566,16 +59721,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02aee8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004a8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032568 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ec>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202aef0 <_sk_srcover_rgba_8888_sse2_lowp+0x120004b0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032570 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02aef8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004b8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032578 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004fc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302af00 <_sk_srcover_rgba_8888_sse2_lowp+0x30004c0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032580 <_sk_srcover_rgba_8888_sse2_lowp+0x3000504>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52618,16 +59773,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02af48 <_sk_srcover_rgba_8888_sse2_lowp+0xa000508>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00054c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202af50 <_sk_srcover_rgba_8888_sse2_lowp+0x12000510>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000554>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02af58 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000518>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00055c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302af60 <_sk_srcover_rgba_8888_sse2_lowp+0x3000520>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000564>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52670,16 +59825,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02afa8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000568>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032628 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005ac>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202afb0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000570>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032630 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02afb8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000578>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032638 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302afc0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000580>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032640 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -52722,16 +59877,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02b008 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005c8>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032688 <_sk_srcover_rgba_8888_sse2_lowp+0xa00060c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1202b010 <_sk_srcover_rgba_8888_sse2_lowp+0x120005d0>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032690 <_sk_srcover_rgba_8888_sse2_lowp+0x12000614>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a02b018 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005d8>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032698 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00061c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 302b020 <_sk_srcover_rgba_8888_sse2_lowp+0x30005e0>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000624>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -53002,7 +60157,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 2b233 <.const+0x533>
+ .byte 224,255 // loopne 328b3 <.const+0x573>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 54,0,183,0,19,0,255 // add %dh,%ss:-0xffed00(%rdi)
@@ -53055,14 +60210,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 2b2e8 <.literal4+0x64>
+ .byte 224,64 // loopne 32968 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 2b2f1 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 32971 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 2b2fb <.literal4+0x77>
+ .byte 127,67 // jg 3297b <.literal4+0x77>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
.byte 10,215 // or %bh,%dl
@@ -53072,9 +60227,11 @@ BALIGN4
.byte 61,82,184,78,65 // cmp $0x414eb852,%eax
.byte 186,159,98,60,57 // mov $0x393c629f,%edx
.byte 215 // xlat %ds:(%rbx)
- .byte 32,187,109,165,144,63 // and %bh,0x3f90a56d(%rbx)
+ .byte 32,187,180,164,144,63 // and %bh,0x3f90a4b4(%rbx)
.byte 252 // cld
- .byte 191,16,62,168,177 // mov $0xb1a83e10,%edi
+ .byte 199 // (bad)
+ .byte 16,62 // adc %bh,(%rsi)
+ .byte 168,177 // test $0xb1,%al
.byte 152 // cwtl
.byte 59,0 // cmp (%rax),%eax
.byte 0,192 // add %al,%al
@@ -53095,7 +60252,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 2b311 <.literal4+0x8d>
+ .byte 224,7 // loopne 32991 <.literal4+0x8d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -53106,8 +60263,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 2b324 <.literal4+0xa0>
- .byte 119,115 // ja 2b399 <.literal4+0x115>
+ .byte 127,0 // jg 329a4 <.literal4+0xa0>
+ .byte 119,115 // ja 32a19 <.literal4+0x115>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -53130,12 +60287,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2b3af <.literal4+0x12b>
+ .byte 118,63 // jbe 32a2f <.literal4+0x12b>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 2b3be <.literal4+0x13a>
+ .byte 124,66 // jl 32a3e <.literal4+0x13a>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -53145,18 +60302,19 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 2b3e1 <.literal4+0x15d>
+ .byte 112,65 // jo 32a61 <.literal4+0x15d>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2b3eb <.literal4+0x167>
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,89 // ds pop %rcx
+ .byte 127,71 // jg 32a6b <.literal4+0x167>
+ .byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
.byte 63 // (bad)
- .byte 152 // cwtl
- .byte 221,147,61,18,120,57 // fstl 0x3978123d(%rbx)
- .byte 64,45,16,17,192,32 // rex sub $0x20c01110,%eax
+ .byte 208 // (bad)
+ .byte 179,89 // mov $0x59,%bl
+ .byte 62,152 // ds cwtl
+ .byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
+ .byte 192,18,120 // rclb $0x78,(%rdx)
+ .byte 57,64,32 // cmp %eax,0x20(%rax)
.byte 148 // xchg %eax,%esp
.byte 90 // pop %rdx
.byte 62,4,157 // ds add $0x9d,%al
@@ -53174,24 +60332,29 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 2b40a <.literal4+0x186>
+ .byte 114,28 // jb 32a8a <.literal4+0x186>
.byte 199 // (bad)
- .byte 62,0,0 // add %al,%ds:(%rax)
- .byte 192,63,85 // sarb $0x55,(%rdi)
+ .byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
- .byte 191,57,142,99,61 // mov $0x3d638e39,%edi
- .byte 114,249 // jb 2b3f7 <.literal4+0x173>
- .byte 127,63 // jg 2b43f <_sk_srcover_rgba_8888_sse2_lowp+0x9ff>
+ .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
+ .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
+ .byte 127,63 // jg 32abf <_sk_srcover_rgba_8888_sse2_lowp+0xa43>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
+ .byte 109 // insl (%dx),%es:(%rdi)
+ .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
+ .byte 144 // nop
+ .byte 63 // (bad)
+ .byte 252 // cld
+ .byte 191,16,62,0,4 // mov $0x4003e10,%edi
.byte 0,0 // add %al,(%rax)
.byte 0,0 // add %al,(%rax)
- .byte 56,255 // cmp %bh,%bh
+ .byte 0,56 // add %bh,(%rax)
+ .byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2b411 <.literal4+0x18d>
+ .byte 127,0 // jg 32a99 <.literal4+0x195>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -53294,11 +60457,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 2b548 <.literal16+0x128>
+ .byte 224,64 // loopne 32bc8 <.literal16+0x128>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 2b54c <.literal16+0x12c>
+ .byte 224,64 // loopne 32bcc <.literal16+0x12c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 2b550 <.literal16+0x130>
+ .byte 224,64 // loopne 32bd0 <.literal16+0x130>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -53318,13 +60481,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 2b571 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 32bf1 <.literal16+0x151>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 2b575 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 32bf5 <.literal16+0x155>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 2b579 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 32bf9 <.literal16+0x159>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 2b57d <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 32bfd <.literal16+0x15d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -53335,10 +60498,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a02b558 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b18>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032bd8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b5c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 302b560 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b20>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032be0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b64>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -53353,11 +60516,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 2b5bb <.literal16+0x19b>
+ .byte 127,67 // jg 32c3b <.literal16+0x19b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 2b5bf <.literal16+0x19f>
+ .byte 127,67 // jg 32c3f <.literal16+0x19f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 2b5c3 <.literal16+0x1a3>
+ .byte 127,67 // jg 32c43 <.literal16+0x1a3>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
.byte 145 // xchg %eax,%ecx
@@ -53508,13 +60671,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 2b6c9 <.literal16+0x2a9>
+ .byte 224,7 // loopne 32d49 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2b6cd <.literal16+0x2ad>
+ .byte 224,7 // loopne 32d4d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2b6d1 <.literal16+0x2b1>
+ .byte 224,7 // loopne 32d51 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 2b6d5 <.literal16+0x2b5>
+ .byte 224,7 // loopne 32d55 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -53568,17 +60731,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 2b744 <.literal16+0x324>
+ .byte 127,0 // jg 32dc4 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2b748 <.literal16+0x328>
+ .byte 127,0 // jg 32dc8 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2b74c <.literal16+0x32c>
+ .byte 127,0 // jg 32dcc <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2b750 <.literal16+0x330>
- .byte 119,115 // ja 2b7c5 <.literal16+0x3a5>
+ .byte 127,0 // jg 32dd0 <.literal16+0x330>
+ .byte 119,115 // ja 32e45 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -53589,7 +60752,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 2b729 <.literal16+0x309>
+ .byte 117,191 // jne 32da9 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -53601,7 +60764,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a5f76a <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d2a>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a66dea <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d6e>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -53691,16 +60854,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2b8b3 <.literal16+0x493>
+ .byte 118,63 // jbe 32f33 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2b8b7 <.literal16+0x497>
+ .byte 118,63 // jbe 32f37 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2b8bb <.literal16+0x49b>
+ .byte 118,63 // jbe 32f3b <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 2b8bf <.literal16+0x49f>
+ .byte 118,63 // jbe 32f3f <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -53721,13 +60884,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 2b8f6 <.literal16+0x4d6>
+ .byte 124,66 // jl 32f76 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2b8fa <.literal16+0x4da>
+ .byte 124,66 // jl 32f7a <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2b8fe <.literal16+0x4de>
+ .byte 124,66 // jl 32f7e <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 2b902 <.literal16+0x4e2>
+ .byte 124,66 // jl 32f82 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -53773,25 +60936,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2b985 <.literal16+0x565>
+ .byte 112,65 // jo 33005 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2b989 <.literal16+0x569>
+ .byte 112,65 // jo 33009 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2b98d <.literal16+0x56d>
+ .byte 112,65 // jo 3300d <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 2b991 <.literal16+0x571>
+ .byte 112,65 // jo 33011 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 2b963 <.literal16+0x543>
+ .byte 127,0 // jg 32fe3 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2b967 <.literal16+0x547>
+ .byte 127,0 // jg 32fe7 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2b96b <.literal16+0x54b>
+ .byte 127,0 // jg 32feb <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2b96f <.literal16+0x54f>
+ .byte 127,0 // jg 32fef <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -53817,13 +60980,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 2b9a8 <.literal16+0x588>
+ .byte 127,255 // jg 33028 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 2b9ac <.literal16+0x58c>
+ .byte 127,255 // jg 3302c <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 2b9b1 <.literal16+0x591>
+ .byte 127,0 // jg 33031 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -53837,13 +61000,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 2ba1b <.literal16+0x5fb>
+ .byte 127,71 // jg 3309b <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2ba1f <.literal16+0x5ff>
+ .byte 127,71 // jg 3309f <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2ba23 <.literal16+0x603>
+ .byte 127,71 // jg 330a3 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 2ba27 <.literal16+0x607>
+ .byte 127,71 // jg 330a7 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -53873,10 +61036,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc2cb2a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc020ea>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc341aa <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0212e>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 2ba5c <.literal16+0x63c>
+ .byte 120,57 // js 330dc <.literal16+0x63c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -53941,13 +61104,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 2bb0e <.literal16+0x6ee>
+ .byte 114,28 // jb 3318e <.literal16+0x6ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2bb12 <.literal16+0x6f2>
+ .byte 62,114,28 // jb,pt 33192 <.literal16+0x6f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2bb16 <.literal16+0x6f6>
+ .byte 62,114,28 // jb,pt 33196 <.literal16+0x6f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 2bb1a <.literal16+0x6fa>
+ .byte 62,114,28 // jb,pt 3319a <.literal16+0x6fa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -53966,15 +61129,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d664965 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f25>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66bfe5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f69>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 2bb73 <.literal16+0x753>
- .byte 114,249 // jb 2bb2f <.literal16+0x70f>
- .byte 127,63 // jg 2bb77 <.literal16+0x757>
- .byte 114,249 // jb 2bb33 <.literal16+0x713>
- .byte 127,63 // jg 2bb7b <.literal16+0x75b>
- .byte 114,249 // jb 2bb37 <.literal16+0x717>
- .byte 127,63 // jg 2bb7f <.literal16+0x75f>
+ .byte 127,63 // jg 331f3 <.literal16+0x753>
+ .byte 114,249 // jb 331af <.literal16+0x70f>
+ .byte 127,63 // jg 331f7 <.literal16+0x757>
+ .byte 114,249 // jb 331b3 <.literal16+0x713>
+ .byte 127,63 // jg 331fb <.literal16+0x75b>
+ .byte 114,249 // jb 331b7 <.literal16+0x717>
+ .byte 127,63 // jg 331ff <.literal16+0x75f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -54084,14 +61247,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 2bc11 <.literal16+0x7f1>
- .byte 224,255 // loopne 2bc13 <.literal16+0x7f3>
- .byte 224,255 // loopne 2bc15 <.literal16+0x7f5>
- .byte 224,255 // loopne 2bc17 <.literal16+0x7f7>
- .byte 224,255 // loopne 2bc19 <.literal16+0x7f9>
- .byte 224,255 // loopne 2bc1b <.literal16+0x7fb>
- .byte 224,255 // loopne 2bc1d <.literal16+0x7fd>
- .byte 224,255 // loopne 2bc1f <.literal16+0x7ff>
+ .byte 224,255 // loopne 33291 <.literal16+0x7f1>
+ .byte 224,255 // loopne 33293 <.literal16+0x7f3>
+ .byte 224,255 // loopne 33295 <.literal16+0x7f5>
+ .byte 224,255 // loopne 33297 <.literal16+0x7f7>
+ .byte 224,255 // loopne 33299 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3329b <.literal16+0x7fb>
+ .byte 224,255 // loopne 3329d <.literal16+0x7fd>
+ .byte 224,255 // loopne 3329f <.literal16+0x7ff>
.byte 54,0,54 // add %dh,%ss:(%rsi)
.byte 0,54 // add %dh,(%rsi)
.byte 0,54 // add %dh,(%rsi)
@@ -54133,9 +61296,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 2bc7b <.literal8+0x1b>
+ .byte 127,0 // jg 332fb <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 2bc7f <.literal8+0x1f>
+ .byte 127,0 // jg 332ff <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
diff --git a/src/jumper/SkJumper_stages.cpp b/src/jumper/SkJumper_stages.cpp
index 262b9262de..f70a353283 100644
--- a/src/jumper/SkJumper_stages.cpp
+++ b/src/jumper/SkJumper_stages.cpp
@@ -24,6 +24,8 @@ static const size_t N = sizeof(F) / sizeof(float);
#define WRAP(name) sk_##name##_aarch64
#elif defined(__arm__)
#define WRAP(name) sk_##name##_vfp4
+#elif defined(__AVX512F__)
+ #define WRAP(name) sk_##name##_skx
#elif defined(__AVX2__)
#define WRAP(name) sk_##name##_hsw
#elif defined(__AVX__)
@@ -595,8 +597,11 @@ STAGE(from_srgb_dst, Ctx::None) {
STAGE(to_srgb, Ctx::None) {
auto fn = [&](F l) {
// We tweak c and d for each instruction set to make sure fn(1) is exactly 1.
- #if defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41) || \
- defined(JUMPER_IS_AVX ) || defined(JUMPER_IS_AVX2 )
+ #if defined(JUMPER_IS_AVX512)
+ const float c = 1.130026340485f,
+ d = 0.141387879848f;
+ #elif defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41) || \
+ defined(JUMPER_IS_AVX ) || defined(JUMPER_IS_AVX2 )
const float c = 1.130048394203f,
d = 0.141357362270f;
#elif defined(JUMPER_IS_NEON)
@@ -1131,7 +1136,7 @@ STAGE(matrix_perspective, const float* m) {
SI void gradient_lookup(const SkJumper_GradientCtx* c, U32 idx, F t,
F* r, F* g, F* b, F* a) {
F fr, br, fg, bg, fb, bb, fa, ba;
-#if defined(JUMPER_IS_AVX2)
+#if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
if (c->stopCount <=8) {
fr = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[0]), idx);
br = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[0]), idx);
diff --git a/src/jumper/SkJumper_vectors.h b/src/jumper/SkJumper_vectors.h
index 7aa3250abf..2b76b035e1 100644
--- a/src/jumper/SkJumper_vectors.h
+++ b/src/jumper/SkJumper_vectors.h
@@ -19,6 +19,8 @@
#define JUMPER_IS_SCALAR
#elif defined(__aarch64__) || defined(__ARM_VFPV4__)
#define JUMPER_IS_NEON
+#elif defined(__AVX512F__)
+ #define JUMPER_IS_AVX512
#elif defined(__AVX2__)
#define JUMPER_IS_AVX2
#elif defined(__AVX__)
@@ -202,7 +204,7 @@
}
}
-#elif defined(JUMPER_IS_AVX) || defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX) || defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
#include <immintrin.h>
// These are __m256 and __m256i, but friendlier and strongly-typed.
@@ -215,7 +217,7 @@
using U8 = V<uint8_t >;
SI F mad(F f, F m, F a) {
- #if defined(JUMPER_IS_AVX2)
+ #if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
return _mm256_fmadd_ps(f,m,a);
#else
return f*m+a;
@@ -247,7 +249,7 @@
return { p[ix[0]], p[ix[1]], p[ix[2]], p[ix[3]],
p[ix[4]], p[ix[5]], p[ix[6]], p[ix[7]], };
}
- #if defined(JUMPER_IS_AVX2)
+ #if defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
SI F gather(const float* p, U32 ix) { return _mm256_i32gather_ps (p, ix, 4); }
SI U32 gather(const uint32_t* p, U32 ix) { return _mm256_i32gather_epi32(p, ix, 4); }
SI U64 gather(const uint64_t* p, U32 ix) {
@@ -644,7 +646,7 @@ SI F from_half(U16 h) {
#if defined(JUMPER_IS_NEON)
return vcvt_f32_f16(h);
-#elif defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
return _mm256_cvtph_ps(h);
#else
@@ -664,7 +666,7 @@ SI U16 to_half(F f) {
#if defined(JUMPER_IS_NEON)
return vcvt_f16_f32(f);
-#elif defined(JUMPER_IS_AVX2)
+#elif defined(JUMPER_IS_AVX2) || defined(JUMPER_IS_AVX512)
return _mm256_cvtps_ph(f, _MM_FROUND_CUR_DIRECTION);
#else
diff --git a/src/jumper/build_stages.py b/src/jumper/build_stages.py
index 52a8c8ba40..a5b6280b80 100755
--- a/src/jumper/build_stages.py
+++ b/src/jumper/build_stages.py
@@ -99,10 +99,15 @@ subprocess.check_call(clang + cflags + hsw + win +
['-c', stages_lowp] +
['-o', 'win_lowp_hsw.o'])
+skx = ['-march=skylake-avx512']
+subprocess.check_call(clang + cflags + skx +
+ ['-c', stages] +
+ ['-o', 'skx.o'])
+
# Merge x86-64 object files to deduplicate constants.
# (No other platform has more than one specialization.)
subprocess.check_call(['ld', '-r', '-o', 'merged.o',
- 'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
+ 'skx.o', 'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
'lowp_hsw.o', 'lowp_sse41.o', 'lowp_sse2.o'])
subprocess.check_call(['ld', '-r', '-o', 'win_merged.o',
'win_hsw.o', 'win_avx.o', 'win_sse41.o', 'win_sse2.o',