aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper/SkJumper_generated.S
diff options
context:
space:
mode:
Diffstat (limited to 'src/jumper/SkJumper_generated.S')
-rw-r--r--src/jumper/SkJumper_generated.S8784
1 files changed, 4419 insertions, 4365 deletions
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
index a0a38fc757..767fbea476 100644
--- a/src/jumper/SkJumper_generated.S
+++ b/src/jumper/SkJumper_generated.S
@@ -6464,7 +6464,7 @@ HIDDEN _sk_repeat_x_1_vfp4
FUNCTION(_sk_repeat_x_1_vfp4)
_sk_repeat_x_1_vfp4:
.long 0xf3fb0740 // vcvt.s32.f32 q8, q0
- .long 0xe28f2024 // add r2, pc, #36
+ .long 0xe28f202c // add r2, pc, #44
.long 0xf4626acf // vld1.64 {d22-d23}, [r2]
.long 0xf2c04050 // vmov.i32 q10, #0
.long 0xe4912004 // ldr r2, [r1], #4
@@ -6472,9 +6472,11 @@ _sk_repeat_x_1_vfp4:
.long 0xf3602ec0 // vcgt.f32 q9, q8, q0
.long 0xf35621f4 // vbsl q9, q11, q10
.long 0xf2600de2 // vsub.f32 q8, q8, q9
- .long 0xf2200d60 // vsub.f32 q0, q0, q8
+ .long 0xf2c72f50 // vmov.f32 q9, #1
+ .long 0xf2600d60 // vsub.f32 q8, q0, q8
+ .long 0xf2440fe0 // vmax.f32 q8, q10, q8
+ .long 0xf2200fe2 // vmin.f32 q0, q8, q9
.long 0xe12fff12 // bx r2
- .long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
@@ -6485,7 +6487,7 @@ HIDDEN _sk_mirror_x_1_vfp4
FUNCTION(_sk_mirror_x_1_vfp4)
_sk_mirror_x_1_vfp4:
.long 0xf3c70f50 // vmov.f32 q8, #-1
- .long 0xe28f203c // add r2, pc, #60
+ .long 0xe28f204c // add r2, pc, #76
.long 0xf2c3465f // vmov.i32 q10, #1056964608
.long 0xf462aacf // vld1.64 {d26-d27}, [r2]
.long 0xf2402d60 // vadd.f32 q9, q0, q8
@@ -6500,8 +6502,12 @@ _sk_mirror_x_1_vfp4:
.long 0xf2444de4 // vadd.f32 q10, q10, q10
.long 0xf2622de4 // vsub.f32 q9, q9, q10
.long 0xf2420de0 // vadd.f32 q8, q9, q8
- .long 0xf3b90760 // vabs.f32 q0, q8
+ .long 0xf2c72f50 // vmov.f32 q9, #1
+ .long 0xf3f90760 // vabs.f32 q8, q8
+ .long 0xf2480fe0 // vmax.f32 q8, q12, q8
+ .long 0xf2200fe2 // vmin.f32 q0, q8, q9
.long 0xe12fff12 // bx r2
+ .long 0xe320f000 // nop {0}
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
.long 0x3f800000 // .word 0x3f800000
@@ -6966,7 +6972,7 @@ _sk_gradient_vfp4:
.long 0xf2c00050 // vmov.i32 q8, #0
.long 0xe5923000 // ldr r3, [r2]
.long 0xe3530002 // cmp r3, #2
- .long 0x3a00000a // bcc 62cc <sk_gradient_vfp4+0x54>
+ .long 0x3a00000a // bcc 62e4 <sk_gradient_vfp4+0x54>
.long 0xe5927024 // ldr r7, [r2, #36]
.long 0xf2c04051 // vmov.i32 q10, #1
.long 0xf2c00050 // vmov.i32 q8, #0
@@ -6977,7 +6983,7 @@ _sk_gradient_vfp4:
.long 0xf3468ee8 // vcge.f32 q12, q11, q12
.long 0xf35481f2 // vbsl q12, q10, q9
.long 0xf26008e8 // vadd.i32 q8, q8, q12
- .long 0x1afffff9 // bne 62b4 <sk_gradient_vfp4+0x3c>
+ .long 0x1afffff9 // bne 62cc <sk_gradient_vfp4+0x3c>
.long 0xee314b90 // vmov.32 r4, d17[1]
.long 0xe5926010 // ldr r6, [r2, #16]
.long 0xee11cb90 // vmov.32 ip, d17[0]
@@ -8121,7 +8127,7 @@ _sk_clut_3D_vfp4:
.long 0xe0835105 // add r5, r3, r5, lsl #2
.long 0xedd55a00 // vldr s11, [r5]
.long 0xee325b90 // vmov.32 r5, d18[1]
- .long 0xea000004 // b 72e0 <sk_clut_3D_vfp4+0x508>
+ .long 0xea000004 // b 72f8 <sk_clut_3D_vfp4+0x508>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -8638,7 +8644,7 @@ _sk_clut_4D_vfp4:
.long 0xf2802051 // vmov.i32 q1, #1
.long 0xf22e29e0 // vmla.i32 q1, q15, q8
.long 0xedd20a00 // vldr s1, [r2]
- .long 0xea000004 // b 7ae0 <sk_clut_4D_vfp4+0x528>
+ .long 0xea000004 // b 7af8 <sk_clut_4D_vfp4+0x528>
.long 0xe320f000 // nop {0}
.long 0x3f7ff972 // .word 0x3f7ff972
.long 0x3f7ff972 // .word 0x3f7ff972
@@ -9451,12 +9457,12 @@ FUNCTION(_sk_seed_shader_skx)
_sk_seed_shader_skx:
.byte 98,242,125,40,124,194 // vpbroadcastd %edx,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,80,34,3,0 // vaddps 0x32250(%rip),%ymm0,%ymm0 # 32340 <_sk_srcover_rgba_8888_sse2_lowp+0x2c4>
+ .byte 197,252,88,5,16,35,3,0 // vaddps 0x32310(%rip),%ymm0,%ymm0 # 32400 <_sk_srcover_rgba_8888_sse2_lowp+0x2c0>
.byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,0,40,3,0 // vaddps 0x32800(%rip){1to8},%ymm1,%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,88,13,192,40,3,0 // vaddps 0x328c0(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,249,39,3,0 // vbroadcastss 0x327f9(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,21,185,40,3,0 // vbroadcastss 0x328b9(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -9470,16 +9476,16 @@ FUNCTION(_sk_dither_skx)
_sk_dither_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,43,34,3,0 // vpaddd 0x3222b(%rip),%ymm8,%ymm8 # 32360 <_sk_srcover_rgba_8888_sse2_lowp+0x2e4>
+ .byte 197,61,254,5,235,34,3,0 // vpaddd 0x322eb(%rip),%ymm8,%ymm8 # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x2e0>
.byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,195,39,3,0 // vpbroadcastd 0x327c3(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,88,21,131,40,3,0 // vpbroadcastd 0x32883(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,168,39,3,0 // vpbroadcastd 0x327a8(%rip),%ymm12 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
- .byte 196,98,125,88,45,163,39,3,0 // vpbroadcastd 0x327a3(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,88,37,104,40,3,0 // vpbroadcastd 0x32868(%rip),%ymm12 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,88,45,99,40,3,0 // vpbroadcastd 0x32863(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -9494,8 +9500,8 @@ _sk_dither_skx:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,85,39,3,0 // vbroadcastss 0x32755(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 98,114,61,56,168,13,79,39,3,0 // vfmadd213ps 0x3274f(%rip){1to8},%ymm8,%ymm9 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,21,40,3,0 // vbroadcastss 0x32815(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,114,61,56,168,13,15,40,3,0 // vfmadd213ps 0x3280f(%rip){1to8},%ymm8,%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -9528,7 +9534,7 @@ HIDDEN _sk_black_color_skx
FUNCTION(_sk_black_color_skx)
_sk_black_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,220,38,3,0 // vbroadcastss 0x326dc(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,156,39,3,0 // vbroadcastss 0x3279c(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -9539,7 +9545,7 @@ HIDDEN _sk_white_color_skx
FUNCTION(_sk_white_color_skx)
_sk_white_color_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,195,38,3,0 // vbroadcastss 0x326c3(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,131,39,3,0 // vbroadcastss 0x32783(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -9585,7 +9591,7 @@ HIDDEN _sk_srcatop_skx
FUNCTION(_sk_srcatop_skx)
_sk_srcatop_skx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,98,38,3,0 // vbroadcastss 0x32662(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,34,39,3,0 // vbroadcastss 0x32722(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -9601,7 +9607,7 @@ HIDDEN _sk_dstatop_skx
.globl _sk_dstatop_skx
FUNCTION(_sk_dstatop_skx)
_sk_dstatop_skx:
- .byte 196,98,125,24,5,49,38,3,0 // vbroadcastss 0x32631(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,241,38,3,0 // vbroadcastss 0x326f1(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -9640,7 +9646,7 @@ HIDDEN _sk_srcout_skx
.globl _sk_srcout_skx
FUNCTION(_sk_srcout_skx)
_sk_srcout_skx:
- .byte 196,98,125,24,5,212,37,3,0 // vbroadcastss 0x325d4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,148,38,3,0 // vbroadcastss 0x32694(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -9653,7 +9659,7 @@ HIDDEN _sk_dstout_skx
.globl _sk_dstout_skx
FUNCTION(_sk_dstout_skx)
_sk_dstout_skx:
- .byte 196,226,125,24,5,179,37,3,0 // vbroadcastss 0x325b3(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,115,38,3,0 // vbroadcastss 0x32673(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -9666,7 +9672,7 @@ HIDDEN _sk_srcover_skx
.globl _sk_srcover_skx
FUNCTION(_sk_srcover_skx)
_sk_srcover_skx:
- .byte 196,98,125,24,5,146,37,3,0 // vbroadcastss 0x32592(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,82,38,3,0 // vbroadcastss 0x32652(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -9679,7 +9685,7 @@ HIDDEN _sk_dstover_skx
.globl _sk_dstover_skx
FUNCTION(_sk_dstover_skx)
_sk_dstover_skx:
- .byte 196,98,125,24,5,109,37,3,0 // vbroadcastss 0x3256d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,45,38,3,0 // vbroadcastss 0x3262d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -9703,7 +9709,7 @@ HIDDEN _sk_multiply_skx
.globl _sk_multiply_skx
FUNCTION(_sk_multiply_skx)
_sk_multiply_skx:
- .byte 196,98,125,24,5,52,37,3,0 // vbroadcastss 0x32534(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,244,37,3,0 // vbroadcastss 0x325f4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9726,7 +9732,7 @@ HIDDEN _sk_plus__skx
FUNCTION(_sk_plus__skx)
_sk_plus__skx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,227,36,3,0 // vbroadcastss 0x324e3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,163,37,3,0 // vbroadcastss 0x325a3(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -9756,7 +9762,7 @@ HIDDEN _sk_xor__skx
.globl _sk_xor__skx
FUNCTION(_sk_xor__skx)
_sk_xor__skx:
- .byte 196,98,125,24,5,142,36,3,0 // vbroadcastss 0x3248e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,78,37,3,0 // vbroadcastss 0x3254e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -9790,7 +9796,7 @@ _sk_darken_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,18,36,3,0 // vbroadcastss 0x32412(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,210,36,3,0 // vbroadcastss 0x324d2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9815,7 +9821,7 @@ _sk_lighten_skx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,189,35,3,0 // vbroadcastss 0x323bd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,125,36,3,0 // vbroadcastss 0x3247d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9843,7 +9849,7 @@ _sk_difference_skx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,92,35,3,0 // vbroadcastss 0x3235c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,28,36,3,0 // vbroadcastss 0x3241c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9865,7 +9871,7 @@ _sk_exclusion_skx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,22,35,3,0 // vbroadcastss 0x32316(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,214,35,3,0 // vbroadcastss 0x323d6(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -9877,7 +9883,7 @@ FUNCTION(_sk_colorburn_skx)
_sk_colorburn_skx:
.byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,243,34,3,0 // vbroadcastss 0x322f3(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,13,179,35,3,0 // vbroadcastss 0x323b3(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
@@ -9941,7 +9947,7 @@ _sk_colordodge_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,196,33,3,0 // vbroadcastss 0x321c4(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,132,34,3,0 // vbroadcastss 0x32284(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
.byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
.byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
@@ -9998,7 +10004,7 @@ HIDDEN _sk_hardlight_skx
.globl _sk_hardlight_skx
FUNCTION(_sk_hardlight_skx)
_sk_hardlight_skx:
- .byte 196,98,125,24,5,188,32,3,0 // vbroadcastss 0x320bc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,124,33,3,0 // vbroadcastss 0x3217c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10052,7 +10058,7 @@ HIDDEN _sk_overlay_skx
.globl _sk_overlay_skx
FUNCTION(_sk_overlay_skx)
_sk_overlay_skx:
- .byte 196,98,125,24,5,216,31,3,0 // vbroadcastss 0x31fd8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,152,32,3,0 // vbroadcastss 0x32098(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -10118,15 +10124,15 @@ _sk_softlight_skx:
.byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
.byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
.byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,182,30,3,0 // vbroadcastss 0x31eb6(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,118,31,3,0 // vbroadcastss 0x31f76(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
.byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
.byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
.byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,177,30,3,0 // vbroadcastss 0x31eb1(%rip),%ymm18 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 98,226,125,40,24,21,113,31,3,0 // vbroadcastss 0x31f71(%rip),%ymm18 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
.byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,159,30,3,0 // vbroadcastss 0x31e9f(%rip),%ymm19 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 98,226,125,40,24,29,95,31,3,0 // vbroadcastss 0x31f5f(%rip),%ymm19 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
.byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
.byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
@@ -10248,11 +10254,11 @@ _sk_hue_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,58,28,3,0 // vbroadcastss 0x31c3a(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,53,53,28,3,0 // vbroadcastss 0x31c35(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,45,250,28,3,0 // vbroadcastss 0x31cfa(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,245,28,3,0 // vbroadcastss 0x31cf5(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,37,28,3,0 // vbroadcastss 0x31c25(%rip),%ymm16 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 98,226,125,40,24,5,229,28,3,0 // vbroadcastss 0x31ce5(%rip),%ymm16 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10309,7 +10315,7 @@ _sk_hue_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,193,26,3,0 // vbroadcastss 0x31ac1(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,13,129,27,3,0 // vbroadcastss 0x31b81(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10361,11 +10367,11 @@ _sk_saturation_skx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,246,25,3,0 // vbroadcastss 0x319f6(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,53,241,25,3,0 // vbroadcastss 0x319f1(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,45,182,26,3,0 // vbroadcastss 0x31ab6(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,177,26,3,0 // vbroadcastss 0x31ab1(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
.byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,225,25,3,0 // vbroadcastss 0x319e1(%rip),%ymm16 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 98,226,125,40,24,5,161,26,3,0 // vbroadcastss 0x31aa1(%rip),%ymm16 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
.byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
.byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
@@ -10422,7 +10428,7 @@ _sk_saturation_skx:
.byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,125,24,3,0 // vbroadcastss 0x3187d(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,13,61,25,3,0 // vbroadcastss 0x3193d(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -10446,11 +10452,11 @@ _sk_color_skx:
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
.byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,70,24,3,0 // vbroadcastss 0x31846(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,45,65,24,3,0 // vbroadcastss 0x31841(%rip),%ymm13 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,37,6,25,3,0 // vbroadcastss 0x31906(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,1,25,3,0 // vbroadcastss 0x31901(%rip),%ymm13 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
.byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,50,24,3,0 // vbroadcastss 0x31832(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,242,24,3,0 // vbroadcastss 0x318f2(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10508,7 +10514,7 @@ _sk_color_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,195,22,3,0 // vbroadcastss 0x316c3(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,131,23,3,0 // vbroadcastss 0x31783(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10532,11 +10538,11 @@ _sk_luminosity_skx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,142,22,3,0 // vbroadcastss 0x3168e(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,45,137,22,3,0 // vbroadcastss 0x31689(%rip),%ymm13 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,37,78,23,3,0 // vbroadcastss 0x3174e(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,73,23,3,0 // vbroadcastss 0x31749(%rip),%ymm13 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
.byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,122,22,3,0 // vbroadcastss 0x3167a(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,58,23,3,0 // vbroadcastss 0x3173a(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
.byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
.byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
@@ -10594,7 +10600,7 @@ _sk_luminosity_skx:
.byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
.byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
.byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,11,21,3,0 // vbroadcastss 0x3150b(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,203,21,3,0 // vbroadcastss 0x315cb(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
.byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
.byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
@@ -10637,9 +10643,9 @@ _sk_srcover_rgba_8888_skx:
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,98,20,3,0 // vbroadcastss 0x31462(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,34,21,3,0 // vbroadcastss 0x31522(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,129,20,3,0 // vbroadcastss 0x31481(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,13,65,21,3,0 // vbroadcastss 0x31541(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -10771,7 +10777,7 @@ HIDDEN _sk_clamp_1_skx
.globl _sk_clamp_1_skx
FUNCTION(_sk_clamp_1_skx)
_sk_clamp_1_skx:
- .byte 196,98,125,24,5,102,18,3,0 // vbroadcastss 0x31266(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,38,19,3,0 // vbroadcastss 0x31326(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -10783,7 +10789,7 @@ HIDDEN _sk_clamp_a_skx
.globl _sk_clamp_a_skx
FUNCTION(_sk_clamp_a_skx)
_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,68,18,3,0 // vminps 0x31244(%rip){1to8},%ymm3,%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,100,56,93,29,4,19,3,0 // vminps 0x31304(%rip){1to8},%ymm3,%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
.byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
@@ -10794,7 +10800,7 @@ HIDDEN _sk_clamp_a_dst_skx
.globl _sk_clamp_a_dst_skx
FUNCTION(_sk_clamp_a_dst_skx)
_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,42,18,3,0 // vminps 0x3122a(%rip){1to8},%ymm7,%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,68,56,93,61,234,18,3,0 // vminps 0x312ea(%rip){1to8},%ymm7,%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
.byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
@@ -10826,7 +10832,7 @@ HIDDEN _sk_invert_skx
.globl _sk_invert_skx
FUNCTION(_sk_invert_skx)
_sk_invert_skx:
- .byte 196,98,125,24,5,234,17,3,0 // vbroadcastss 0x311ea(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,170,18,3,0 // vbroadcastss 0x312aa(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -10883,7 +10889,7 @@ _sk_unpremul_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,100,40,194,192,0 // vcmpeqps %ymm8,%ymm3,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,115,17,3,0 // vbroadcastss 0x31173(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,51,18,3,0 // vbroadcastss 0x31233(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -10896,16 +10902,16 @@ HIDDEN _sk_from_srgb_skx
.globl _sk_from_srgb_skx
FUNCTION(_sk_from_srgb_skx)
_sk_from_srgb_skx:
- .byte 196,98,125,24,5,128,17,3,0 // vbroadcastss 0x31180(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,64,18,3,0 // vbroadcastss 0x31240(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,114,17,3,0 // vbroadcastss 0x31172(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,37,85,17,3,0 // vbroadcastss 0x31155(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,50,18,3,0 // vbroadcastss 0x31232(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,37,21,18,3,0 // vbroadcastss 0x31215(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,90,17,3,0 // vbroadcastss 0x3115a(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,26,18,3,0 // vbroadcastss 0x3121a(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,80,17,3,0 // vbroadcastss 0x31150(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,16,18,3,0 // vbroadcastss 0x31210(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
@@ -10931,16 +10937,16 @@ HIDDEN _sk_from_srgb_dst_skx
.globl _sk_from_srgb_dst_skx
FUNCTION(_sk_from_srgb_dst_skx)
_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,211,16,3,0 // vbroadcastss 0x310d3(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,147,17,3,0 // vbroadcastss 0x31193(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,197,16,3,0 // vbroadcastss 0x310c5(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,37,168,16,3,0 // vbroadcastss 0x310a8(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,133,17,3,0 // vbroadcastss 0x31185(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,37,104,17,3,0 // vbroadcastss 0x31168(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,173,16,3,0 // vbroadcastss 0x310ad(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,109,17,3,0 // vbroadcastss 0x3116d(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,163,16,3,0 // vbroadcastss 0x310a3(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,99,17,3,0 // vbroadcastss 0x31163(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
.byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
@@ -10967,19 +10973,19 @@ HIDDEN _sk_to_srgb_skx
FUNCTION(_sk_to_srgb_skx)
_sk_to_srgb_skx:
.byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,48,16,3,0 // vbroadcastss 0x31030(%rip),%ymm9 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,13,240,16,3,0 // vbroadcastss 0x310f0(%rip),%ymm9 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,38,16,3,0 // vbroadcastss 0x31026(%rip),%ymm11 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
- .byte 196,98,125,24,37,33,16,3,0 // vbroadcastss 0x31021(%rip),%ymm12 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,230,16,3,0 // vbroadcastss 0x310e6(%rip),%ymm11 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,225,16,3,0 // vbroadcastss 0x310e1(%rip),%ymm12 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,18,16,3,0 // vbroadcastss 0x31012(%rip),%ymm14 # 32954 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
+ .byte 196,98,125,24,53,210,16,3,0 // vbroadcastss 0x310d2(%rip),%ymm14 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
.byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,8,16,3,0 // vbroadcastss 0x31008(%rip),%ymm15 # 32958 <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
+ .byte 196,98,125,24,61,200,16,3,0 // vbroadcastss 0x310c8(%rip),%ymm15 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x8d8>
.byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
.byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,243,15,3,0 // vbroadcastss 0x30ff3(%rip),%ymm13 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,45,179,16,3,0 // vbroadcastss 0x310b3(%rip),%ymm13 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
.byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
@@ -11017,7 +11023,7 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
.byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
.byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,232,14,3,0 // vbroadcastss 0x30ee8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,168,15,3,0 // vbroadcastss 0x30fa8(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
.byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
@@ -11026,23 +11032,23 @@ _sk_rgb_to_hsl_skx:
.byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
.byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
.byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,6,15,3,0 // vbroadcastss 0x30f06(%rip),%ymm11 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,29,198,15,3,0 // vbroadcastss 0x30fc6(%rip),%ymm11 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
.byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
.byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
.byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,225,14,3,0 // vbroadcastss 0x30ee1(%rip),%ymm15 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,61,161,15,3,0 // vbroadcastss 0x30fa1(%rip),%ymm15 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
.byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,210,14,3,0 // vfmadd213ps 0x30ed2(%rip){1to8},%ymm12,%ymm0 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 98,242,29,56,168,5,146,15,3,0 // vfmadd213ps 0x30f92(%rip){1to8},%ymm12,%ymm0 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
.byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
.byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,186,14,3,0 // vmulps 0x30eba(%rip){1to8},%ymm0,%ymm0 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 98,241,124,56,89,5,122,15,3,0 // vmulps 0x30f7a(%rip){1to8},%ymm0,%ymm0 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,68,14,3,0 // vbroadcastss 0x30e44(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,4,15,3,0 // vbroadcastss 0x30f04(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
@@ -11061,7 +11067,7 @@ FUNCTION(_sk_hsl_to_rgb_skx)
_sk_hsl_to_rgb_skx:
.byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
.byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,246,13,3,0 // vbroadcastss 0x30df6(%rip),%ymm16 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,226,125,40,24,5,182,14,3,0 // vbroadcastss 0x30eb6(%rip),%ymm16 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
@@ -11069,27 +11075,27 @@ _sk_hsl_to_rgb_skx:
.byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
.byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
.byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,39,14,3,0 // vfmsub231ps 0x30e27(%rip){1to8},%ymm2,%ymm9 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 98,114,109,56,186,13,231,14,3,0 // vfmsub231ps 0x30ee7(%rip){1to8},%ymm2,%ymm9 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
.byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,23,14,3,0 // vaddps 0x30e17(%rip){1to8},%ymm0,%ymm1 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 98,241,124,56,88,13,215,14,3,0 // vaddps 0x30ed7(%rip){1to8},%ymm0,%ymm1 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
.byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,6,14,3,0 // vbroadcastss 0x30e06(%rip),%ymm19 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 98,226,125,40,24,29,198,14,3,0 // vbroadcastss 0x30ec6(%rip),%ymm19 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
.byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
.byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,215,13,3,0 // vbroadcastss 0x30dd7(%rip),%ymm15 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,61,151,14,3,0 // vbroadcastss 0x30e97(%rip),%ymm15 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,208,13,3,0 // vbroadcastss 0x30dd0(%rip),%ymm17 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 98,226,125,40,24,13,144,14,3,0 // vbroadcastss 0x30e90(%rip),%ymm17 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
.byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
.byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
.byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
.byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,167,13,3,0 // vbroadcastss 0x30da7(%rip),%ymm10 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,21,103,14,3,0 // vbroadcastss 0x30e67(%rip),%ymm10 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
.byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
.byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
@@ -11111,7 +11117,7 @@ _sk_hsl_to_rgb_skx:
.byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
.byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
.byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,45,13,3,0 // vaddps 0x30d2d(%rip){1to8},%ymm0,%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 98,241,124,56,88,5,237,13,3,0 // vaddps 0x30ded(%rip){1to8},%ymm0,%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
.byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
@@ -11160,10 +11166,10 @@ _sk_scale_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 1d27 <_sk_scale_u8_skx+0x4e>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,161,13,3,0 // vpand 0x30da1(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,97,14,3,0 // vpand 0x30e61(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,105,12,3,0 // vmulps 0x30c69(%rip){1to8},%ymm8,%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,60,56,89,5,41,13,3,0 // vmulps 0x30d29(%rip){1to8},%ymm8,%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
.byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
@@ -11240,15 +11246,15 @@ _sk_scale_565_skx:
.byte 15,133,145,0,0,0 // jne 1ea0 <_sk_scale_565_skx+0xb0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,92,11,3,0 // vpandd 0x30b5c(%rip){1to8},%ymm8,%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,113,61,56,219,13,28,12,3,0 // vpandd 0x30c1c(%rip){1to8},%ymm8,%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,81,11,3,0 // vmulps 0x30b51(%rip){1to8},%ymm9,%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 98,113,61,56,219,21,75,11,3,0 // vpandd 0x30b4b(%rip){1to8},%ymm8,%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,52,56,89,13,17,12,3,0 // vmulps 0x30c11(%rip){1to8},%ymm9,%ymm9 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,113,61,56,219,21,11,12,3,0 // vpandd 0x30c0b(%rip){1to8},%ymm8,%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,64,11,3,0 // vmulps 0x30b40(%rip){1to8},%ymm10,%ymm10 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
- .byte 98,113,61,56,219,5,58,11,3,0 // vpandd 0x30b3a(%rip){1to8},%ymm8,%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,44,56,89,21,0,12,3,0 // vmulps 0x30c00(%rip){1to8},%ymm10,%ymm10 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,61,56,219,5,250,11,3,0 // vpandd 0x30bfa(%rip){1to8},%ymm8,%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,47,11,3,0 // vmulps 0x30b2f(%rip){1to8},%ymm8,%ymm8 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,113,60,56,89,5,239,11,3,0 // vmulps 0x30bef(%rip){1to8},%ymm8,%ymm8 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11344,10 +11350,10 @@ _sk_lerp_u8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,74 // jne 1ff5 <_sk_lerp_u8_skx+0x62>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,231,10,3,0 // vpand 0x30ae7(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,167,11,3,0 // vpand 0x30ba7(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,175,9,3,0 // vmulps 0x309af(%rip){1to8},%ymm8,%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,113,60,56,89,5,111,10,3,0 // vmulps 0x30a6f(%rip){1to8},%ymm8,%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
@@ -11427,15 +11433,15 @@ _sk_lerp_565_skx:
.byte 15,133,165,0,0,0 // jne 2180 <_sk_lerp_565_skx+0xc4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,144,8,3,0 // vpandd 0x30890(%rip){1to8},%ymm8,%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,113,61,56,219,13,80,9,3,0 // vpandd 0x30950(%rip){1to8},%ymm8,%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,133,8,3,0 // vmulps 0x30885(%rip){1to8},%ymm9,%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 98,113,61,56,219,21,127,8,3,0 // vpandd 0x3087f(%rip){1to8},%ymm8,%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,52,56,89,13,69,9,3,0 // vmulps 0x30945(%rip){1to8},%ymm9,%ymm9 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,113,61,56,219,21,63,9,3,0 // vpandd 0x3093f(%rip){1to8},%ymm8,%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,116,8,3,0 // vmulps 0x30874(%rip){1to8},%ymm10,%ymm10 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
- .byte 98,113,61,56,219,5,110,8,3,0 // vpandd 0x3086e(%rip){1to8},%ymm8,%ymm8 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,113,44,56,89,21,52,9,3,0 // vmulps 0x30934(%rip){1to8},%ymm10,%ymm10 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,113,61,56,219,5,46,9,3,0 // vpandd 0x3092e(%rip){1to8},%ymm8,%ymm8 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,99,8,3,0 // vmulps 0x30863(%rip){1to8},%ymm8,%ymm8 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,113,60,56,89,5,35,9,3,0 // vmulps 0x30923(%rip){1to8},%ymm8,%ymm8 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
.byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -11535,7 +11541,7 @@ _sk_load_tables_skx:
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,182,6,3,0 // vmulps 0x306b6(%rip){1to8},%ymm3,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,100,56,89,29,118,7,3,0 // vmulps 0x30776(%rip){1to8},%ymm3,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -11614,7 +11620,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,165,6,3,0 // vmovdqa 0x306a5(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,21,101,7,3,0 // vmovdqa 0x30765(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11640,7 +11646,7 @@ _sk_load_tables_u16_be_skx:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,28,5,3,0 // vmulps 0x3051c(%rip){1to8},%ymm3,%ymm3 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 98,241,100,56,89,29,220,5,3,0 // vmulps 0x305dc(%rip){1to8},%ymm3,%ymm3 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
@@ -11697,7 +11703,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
.byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
.byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,46,5,3,0 // vmovdqa 0x3052e(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,21,238,5,3,0 // vmovdqa 0x305ee(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 76,139,64,8 // mov 0x8(%rax),%r8
@@ -11718,7 +11724,7 @@ _sk_load_tables_rgb_u16_be_skx:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,49,3,3,0 // vbroadcastss 0x30331(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,241,3,3,0 // vbroadcastss 0x303f1(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -11787,7 +11793,7 @@ HIDDEN _sk_byte_tables_skx
FUNCTION(_sk_byte_tables_skx)
_sk_byte_tables_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,38,2,3,0 // vbroadcastss 0x30226(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,230,2,3,0 // vbroadcastss 0x302e6(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -11917,7 +11923,7 @@ _sk_byte_tables_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,244,255,2,0 // vbroadcastss 0x2fff4(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,180,0,3,0 // vbroadcastss 0x300b4(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12038,7 +12044,7 @@ _sk_byte_tables_rgb_skx:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,203,253,2,0 // vbroadcastss 0x2fdcb(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,139,254,2,0 // vbroadcastss 0x2fe8b(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,194,125,49,202 // vpmovzxbd %xmm10,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -12135,33 +12141,33 @@ _sk_parametric_r_skx:
.byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,191,252,2,0 // vbroadcastss 0x2fcbf(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,114,37,56,168,37,189,252,2,0 // vfmadd213ps 0x2fcbd(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,84,21,175,252,2,0 // vandps 0x2fcaf(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,86,21,9,252,2,0 // vorps 0x2fc09(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,45,56,188,37,163,252,2,0 // vfnmadd231ps 0x2fca3(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,113,44,56,88,21,157,252,2,0 // vaddps 0x2fc9d(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,152,252,2,0 // vbroadcastss 0x2fc98(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,127,253,2,0 // vbroadcastss 0x2fd7f(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 98,114,37,56,168,37,125,253,2,0 // vfmadd213ps 0x2fd7d(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,84,21,111,253,2,0 // vandps 0x2fd6f(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,113,44,56,86,21,201,252,2,0 // vorps 0x2fcc9(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,45,56,188,37,99,253,2,0 // vfnmadd231ps 0x2fd63(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,88,21,93,253,2,0 // vaddps 0x2fd5d(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,88,253,2,0 // vbroadcastss 0x2fd58(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,120,252,2,0 // vaddps 0x2fc78(%rip){1to8},%ymm0,%ymm0 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 98,242,45,56,188,5,114,252,2,0 // vfnmadd231ps 0x2fc72(%rip){1to8},%ymm10,%ymm0 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
- .byte 196,98,125,24,29,109,252,2,0 // vbroadcastss 0x2fc6d(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,241,124,56,88,5,56,253,2,0 // vaddps 0x2fd38(%rip){1to8},%ymm0,%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,242,45,56,188,5,50,253,2,0 // vfnmadd231ps 0x2fd32(%rip){1to8},%ymm10,%ymm0 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,45,253,2,0 // vbroadcastss 0x2fd2d(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,99,252,2,0 // vbroadcastss 0x2fc63(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,35,253,2,0 // vbroadcastss 0x2fd23(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,83,252,2,0 // vmulps 0x2fc53(%rip){1to8},%ymm0,%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 98,241,124,56,89,5,19,253,2,0 // vmulps 0x2fd13(%rip){1to8},%ymm0,%ymm0 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,111,251,2,0 // vminps 0x2fb6f(%rip){1to8},%ymm0,%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,124,56,93,5,47,252,2,0 // vminps 0x2fc2f(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12178,33 +12184,33 @@ _sk_parametric_g_skx:
.byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,194,251,2,0 // vbroadcastss 0x2fbc2(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,114,37,56,168,37,192,251,2,0 // vfmadd213ps 0x2fbc0(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,84,21,178,251,2,0 // vandps 0x2fbb2(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,86,21,12,251,2,0 // vorps 0x2fb0c(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,45,56,188,37,166,251,2,0 // vfnmadd231ps 0x2fba6(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,113,44,56,88,21,160,251,2,0 // vaddps 0x2fba0(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,155,251,2,0 // vbroadcastss 0x2fb9b(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,130,252,2,0 // vbroadcastss 0x2fc82(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 98,114,37,56,168,37,128,252,2,0 // vfmadd213ps 0x2fc80(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,84,21,114,252,2,0 // vandps 0x2fc72(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,113,44,56,86,21,204,251,2,0 // vorps 0x2fbcc(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,45,56,188,37,102,252,2,0 // vfnmadd231ps 0x2fc66(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,88,21,96,252,2,0 // vaddps 0x2fc60(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,91,252,2,0 // vbroadcastss 0x2fc5b(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,123,251,2,0 // vaddps 0x2fb7b(%rip){1to8},%ymm1,%ymm1 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 98,242,45,56,188,13,117,251,2,0 // vfnmadd231ps 0x2fb75(%rip){1to8},%ymm10,%ymm1 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
- .byte 196,98,125,24,29,112,251,2,0 // vbroadcastss 0x2fb70(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,241,116,56,88,13,59,252,2,0 // vaddps 0x2fc3b(%rip){1to8},%ymm1,%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,242,45,56,188,13,53,252,2,0 // vfnmadd231ps 0x2fc35(%rip){1to8},%ymm10,%ymm1 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,48,252,2,0 // vbroadcastss 0x2fc30(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,102,251,2,0 // vbroadcastss 0x2fb66(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,38,252,2,0 // vbroadcastss 0x2fc26(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,86,251,2,0 // vmulps 0x2fb56(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 98,241,116,56,89,13,22,252,2,0 // vmulps 0x2fc16(%rip){1to8},%ymm1,%ymm1 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,114,250,2,0 // vminps 0x2fa72(%rip){1to8},%ymm1,%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,116,56,93,13,50,251,2,0 // vminps 0x2fb32(%rip){1to8},%ymm1,%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12221,33 +12227,33 @@ _sk_parametric_b_skx:
.byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,197,250,2,0 // vbroadcastss 0x2fac5(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,114,37,56,168,37,195,250,2,0 // vfmadd213ps 0x2fac3(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,84,21,181,250,2,0 // vandps 0x2fab5(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,86,21,15,250,2,0 // vorps 0x2fa0f(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,45,56,188,37,169,250,2,0 // vfnmadd231ps 0x2faa9(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,113,44,56,88,21,163,250,2,0 // vaddps 0x2faa3(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,158,250,2,0 // vbroadcastss 0x2fa9e(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,133,251,2,0 // vbroadcastss 0x2fb85(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 98,114,37,56,168,37,131,251,2,0 // vfmadd213ps 0x2fb83(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,84,21,117,251,2,0 // vandps 0x2fb75(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,113,44,56,86,21,207,250,2,0 // vorps 0x2facf(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,45,56,188,37,105,251,2,0 // vfnmadd231ps 0x2fb69(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,88,21,99,251,2,0 // vaddps 0x2fb63(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,94,251,2,0 // vbroadcastss 0x2fb5e(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,126,250,2,0 // vaddps 0x2fa7e(%rip){1to8},%ymm2,%ymm2 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 98,242,45,56,188,21,120,250,2,0 // vfnmadd231ps 0x2fa78(%rip){1to8},%ymm10,%ymm2 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
- .byte 196,98,125,24,29,115,250,2,0 // vbroadcastss 0x2fa73(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,241,108,56,88,21,62,251,2,0 // vaddps 0x2fb3e(%rip){1to8},%ymm2,%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,242,45,56,188,21,56,251,2,0 // vfnmadd231ps 0x2fb38(%rip){1to8},%ymm10,%ymm2 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,51,251,2,0 // vbroadcastss 0x2fb33(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,105,250,2,0 // vbroadcastss 0x2fa69(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,41,251,2,0 // vbroadcastss 0x2fb29(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,89,250,2,0 // vmulps 0x2fa59(%rip){1to8},%ymm2,%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 98,241,108,56,89,21,25,251,2,0 // vmulps 0x2fb19(%rip){1to8},%ymm2,%ymm2 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,117,249,2,0 // vminps 0x2f975(%rip){1to8},%ymm2,%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,108,56,93,21,53,250,2,0 // vminps 0x2fa35(%rip){1to8},%ymm2,%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12264,33 +12270,33 @@ _sk_parametric_a_skx:
.byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,200,249,2,0 // vbroadcastss 0x2f9c8(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 98,114,37,56,168,37,198,249,2,0 // vfmadd213ps 0x2f9c6(%rip){1to8},%ymm11,%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
- .byte 98,113,44,56,84,21,184,249,2,0 // vandps 0x2f9b8(%rip){1to8},%ymm10,%ymm10 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
- .byte 98,113,44,56,86,21,18,249,2,0 // vorps 0x2f912(%rip){1to8},%ymm10,%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,45,56,188,37,172,249,2,0 // vfnmadd231ps 0x2f9ac(%rip){1to8},%ymm10,%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
- .byte 98,113,44,56,88,21,166,249,2,0 // vaddps 0x2f9a6(%rip){1to8},%ymm10,%ymm10 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
- .byte 196,98,125,24,29,161,249,2,0 // vbroadcastss 0x2f9a1(%rip),%ymm11 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,136,250,2,0 // vbroadcastss 0x2fa88(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 98,114,37,56,168,37,134,250,2,0 // vfmadd213ps 0x2fa86(%rip){1to8},%ymm11,%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 98,113,44,56,84,21,120,250,2,0 // vandps 0x2fa78(%rip){1to8},%ymm10,%ymm10 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 98,113,44,56,86,21,210,249,2,0 // vorps 0x2f9d2(%rip){1to8},%ymm10,%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,45,56,188,37,108,250,2,0 // vfnmadd231ps 0x2fa6c(%rip){1to8},%ymm10,%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 98,113,44,56,88,21,102,250,2,0 // vaddps 0x2fa66(%rip){1to8},%ymm10,%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,97,250,2,0 // vbroadcastss 0x2fa61(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,65,28,92,210 // vsubps %ymm10,%ymm12,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,129,249,2,0 // vaddps 0x2f981(%rip){1to8},%ymm3,%ymm3 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
- .byte 98,242,45,56,188,29,123,249,2,0 // vfnmadd231ps 0x2f97b(%rip){1to8},%ymm10,%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
- .byte 196,98,125,24,29,118,249,2,0 // vbroadcastss 0x2f976(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,241,100,56,88,29,65,250,2,0 // vaddps 0x2fa41(%rip){1to8},%ymm3,%ymm3 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,242,45,56,188,29,59,250,2,0 // vfnmadd231ps 0x2fa3b(%rip){1to8},%ymm10,%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,54,250,2,0 // vbroadcastss 0x2fa36(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,108,249,2,0 // vbroadcastss 0x2f96c(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,44,250,2,0 // vbroadcastss 0x2fa2c(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,92,249,2,0 // vmulps 0x2f95c(%rip){1to8},%ymm3,%ymm3 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 98,241,100,56,89,29,28,250,2,0 // vmulps 0x2fa1c(%rip){1to8},%ymm3,%ymm3 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
.byte 197,172,88,219 // vaddps %ymm3,%ymm10,%ymm3
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,120,248,2,0 // vminps 0x2f878(%rip){1to8},%ymm3,%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,100,56,93,29,56,249,2,0 // vminps 0x2f938(%rip){1to8},%ymm3,%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12301,33 +12307,33 @@ _sk_gamma_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 98,226,125,40,24,48 // vbroadcastss (%rax),%ymm22
.byte 197,124,91,200 // vcvtdq2ps %ymm0,%ymm9
- .byte 196,98,125,24,21,243,248,2,0 // vbroadcastss 0x2f8f3(%rip),%ymm10 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,98,125,24,29,238,248,2,0 // vbroadcastss 0x2f8ee(%rip),%ymm11 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,21,179,249,2,0 // vbroadcastss 0x2f9b3(%rip),%ymm10 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,29,174,249,2,0 // vbroadcastss 0x2f9ae(%rip),%ymm11 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,37,68,248,2,0 // vbroadcastss 0x2f844(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,4,249,2,0 // vbroadcastss 0x2f904(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,214,248,2,0 // vbroadcastss 0x2f8d6(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,150,249,2,0 // vbroadcastss 0x2f996(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,45,168,205 // vfmadd213ps %ymm13,%ymm10,%ymm9
- .byte 196,98,125,24,53,204,248,2,0 // vbroadcastss 0x2f8cc(%rip),%ymm14 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,53,140,249,2,0 // vbroadcastss 0x2f98c(%rip),%ymm14 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,125,188,206 // vfnmadd231ps %ymm14,%ymm0,%ymm9
- .byte 196,98,125,24,61,194,248,2,0 // vbroadcastss 0x2f8c2(%rip),%ymm15 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,61,130,249,2,0 // vbroadcastss 0x2f982(%rip),%ymm15 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 98,226,125,40,24,5,183,248,2,0 // vbroadcastss 0x2f8b7(%rip),%ymm16 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 98,226,125,40,24,5,119,249,2,0 // vbroadcastss 0x2f977(%rip),%ymm16 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 98,241,124,32,94,192 // vdivps %ymm0,%ymm16,%ymm0
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 98,177,124,40,89,198 // vmulps %ymm22,%ymm0,%ymm0
.byte 196,99,125,8,200,1 // vroundps $0x1,%ymm0,%ymm9
.byte 196,65,124,92,201 // vsubps %ymm9,%ymm0,%ymm9
- .byte 98,226,125,40,24,13,150,248,2,0 // vbroadcastss 0x2f896(%rip),%ymm17 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 98,226,125,40,24,13,86,249,2,0 // vbroadcastss 0x2f956(%rip),%ymm17 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 98,177,124,40,88,193 // vaddps %ymm17,%ymm0,%ymm0
- .byte 98,226,125,40,24,21,138,248,2,0 // vbroadcastss 0x2f88a(%rip),%ymm18 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 98,226,125,40,24,21,74,249,2,0 // vbroadcastss 0x2f94a(%rip),%ymm18 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 98,178,53,40,188,194 // vfnmadd231ps %ymm18,%ymm9,%ymm0
- .byte 98,226,125,40,24,29,126,248,2,0 // vbroadcastss 0x2f87e(%rip),%ymm19 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 98,226,125,40,24,29,62,249,2,0 // vbroadcastss 0x2f93e(%rip),%ymm19 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 98,81,100,32,92,201 // vsubps %ymm9,%ymm19,%ymm9
- .byte 98,226,125,40,24,37,114,248,2,0 // vbroadcastss 0x2f872(%rip),%ymm20 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 98,226,125,40,24,37,50,249,2,0 // vbroadcastss 0x2f932(%rip),%ymm20 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 98,81,92,32,94,201 // vdivps %ymm9,%ymm20,%ymm9
.byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,98,125,24,13,98,248,2,0 // vbroadcastss 0x2f862(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,13,34,249,2,0 // vbroadcastss 0x2f922(%rip),%ymm9 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 98,225,124,40,91,233 // vcvtdq2ps %ymm1,%ymm21
@@ -12373,23 +12379,23 @@ HIDDEN _sk_lab_to_xyz_skx
.globl _sk_lab_to_xyz_skx
FUNCTION(_sk_lab_to_xyz_skx)
_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,142,247,2,0 // vbroadcastss 0x2f78e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
- .byte 196,98,125,24,13,241,246,2,0 // vbroadcastss 0x2f6f1(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,21,128,247,2,0 // vbroadcastss 0x2f780(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,78,248,2,0 // vbroadcastss 0x2f84e(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,13,177,247,2,0 // vbroadcastss 0x2f7b1(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,21,64,248,2,0 // vbroadcastss 0x2f840(%rip),%ymm10 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,112,247,2,0 // vfmadd213ps 0x2f770(%rip){1to8},%ymm0,%ymm8 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
- .byte 98,241,60,56,89,5,106,247,2,0 // vmulps 0x2f76a(%rip){1to8},%ymm8,%ymm0 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
- .byte 98,242,125,56,152,13,100,247,2,0 // vfmadd132ps 0x2f764(%rip){1to8},%ymm0,%ymm1 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
- .byte 98,242,125,56,156,21,94,247,2,0 // vfnmadd132ps 0x2f75e(%rip){1to8},%ymm0,%ymm2 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 98,114,125,56,168,5,48,248,2,0 // vfmadd213ps 0x2f830(%rip){1to8},%ymm0,%ymm8 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 98,241,60,56,89,5,42,248,2,0 // vmulps 0x2f82a(%rip){1to8},%ymm8,%ymm0 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 98,242,125,56,152,13,36,248,2,0 // vfmadd132ps 0x2f824(%rip){1to8},%ymm0,%ymm1 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 98,242,125,56,156,21,30,248,2,0 // vfnmadd132ps 0x2f81e(%rip){1to8},%ymm0,%ymm2 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,80,247,2,0 // vbroadcastss 0x2f750(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,98,125,24,13,16,248,2,0 // vbroadcastss 0x2f810(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
.byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,62,247,2,0 // vbroadcastss 0x2f73e(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,29,254,247,2,0 // vbroadcastss 0x2f7fe(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,52,247,2,0 // vbroadcastss 0x2f734(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,37,244,247,2,0 // vbroadcastss 0x2f7f4(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -12406,8 +12412,8 @@ _sk_lab_to_xyz_skx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,217,246,2,0 // vmulps 0x2f6d9(%rip){1to8},%ymm8,%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
- .byte 98,241,108,56,89,21,211,246,2,0 // vmulps 0x2f6d3(%rip){1to8},%ymm2,%ymm2 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 98,241,60,56,89,5,153,247,2,0 // vmulps 0x2f799(%rip){1to8},%ymm8,%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 98,241,108,56,89,21,147,247,2,0 // vmulps 0x2f793(%rip){1to8},%ymm2,%ymm2 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -12424,10 +12430,10 @@ _sk_load_a8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 336a <_sk_load_a8_skx+0x49>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,89,247,2,0 // vpand 0x2f759(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,25,248,2,0 // vpand 0x2f819(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,34,246,2,0 // vmulps 0x2f622(%rip){1to8},%ymm0,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,29,226,246,2,0 // vmulps 0x2f6e2(%rip){1to8},%ymm0,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12501,10 +12507,10 @@ _sk_load_a8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,49 // jne 3475 <_sk_load_a8_dst_skx+0x49>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,78,246,2,0 // vpand 0x2f64e(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,14,247,2,0 // vpand 0x2f70e(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,23,245,2,0 // vmulps 0x2f517(%rip){1to8},%ymm4,%ymm7 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,92,56,89,61,215,245,2,0 // vmulps 0x2f5d7(%rip){1to8},%ymm4,%ymm7 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -12620,7 +12626,7 @@ _sk_gather_a8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,90,243,2,0 // vmulps 0x2f35a(%rip){1to8},%ymm0,%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,29,26,244,2,0 // vmulps 0x2f41a(%rip){1to8},%ymm0,%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -12641,7 +12647,7 @@ _sk_store_a8_skx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 98,113,100,56,89,5,222,242,2,0 // vmulps 0x2f2de(%rip){1to8},%ymm3,%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 98,113,100,56,89,5,158,243,2,0 // vmulps 0x2f39e(%rip){1to8},%ymm3,%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
@@ -12708,12 +12714,12 @@ _sk_load_g8_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3752 <_sk_load_g8_skx+0x4e>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,118,243,2,0 // vpand 0x2f376(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,54,244,2,0 // vpand 0x2f436(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,63,242,2,0 // vmulps 0x2f23f(%rip){1to8},%ymm0,%ymm0 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,5,255,242,2,0 // vmulps 0x2f2ff(%rip){1to8},%ymm0,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,192,241,2,0 // vbroadcastss 0x2f1c0(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,128,242,2,0 // vbroadcastss 0x2f280(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -12785,12 +12791,12 @@ _sk_load_g8_dst_skx:
.byte 72,133,255 // test %rdi,%rdi
.byte 117,54 // jne 3862 <_sk_load_g8_dst_skx+0x4e>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,102,242,2,0 // vpand 0x2f266(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,38,243,2,0 // vpand 0x2f326(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,47,241,2,0 // vmulps 0x2f12f(%rip){1to8},%ymm4,%ymm4 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,92,56,89,37,239,241,2,0 // vmulps 0x2f1ef(%rip){1to8},%ymm4,%ymm4 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,176,240,2,0 // vbroadcastss 0x2f0b0(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,112,241,2,0 // vbroadcastss 0x2f170(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -12904,9 +12910,9 @@ _sk_gather_g8_skx:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,106,239,2,0 // vmulps 0x2ef6a(%rip){1to8},%ymm0,%ymm0 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 98,241,124,56,89,5,42,240,2,0 // vmulps 0x2f02a(%rip){1to8},%ymm0,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,235,238,2,0 // vbroadcastss 0x2eeeb(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,171,239,2,0 // vbroadcastss 0x2efab(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -12930,17 +12936,17 @@ _sk_load_565_skx:
.byte 117,96 // jne 3aa9 <_sk_load_565_skx+0x7b>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,34,239,2,0 // vpandd 0x2ef22(%rip){1to8},%ymm2,%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,109,56,219,5,226,239,2,0 // vpandd 0x2efe2(%rip){1to8},%ymm2,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,24,239,2,0 // vmulps 0x2ef18(%rip){1to8},%ymm0,%ymm0 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 98,241,109,56,219,13,18,239,2,0 // vpandd 0x2ef12(%rip){1to8},%ymm2,%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,124,56,89,5,216,239,2,0 // vmulps 0x2efd8(%rip){1to8},%ymm0,%ymm0 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,109,56,219,13,210,239,2,0 // vpandd 0x2efd2(%rip){1to8},%ymm2,%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,8,239,2,0 // vmulps 0x2ef08(%rip){1to8},%ymm1,%ymm1 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
- .byte 98,241,109,56,219,21,2,239,2,0 // vpandd 0x2ef02(%rip){1to8},%ymm2,%ymm2 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,116,56,89,13,200,239,2,0 // vmulps 0x2efc8(%rip){1to8},%ymm1,%ymm1 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,109,56,219,21,194,239,2,0 // vpandd 0x2efc2(%rip){1to8},%ymm2,%ymm2 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,248,238,2,0 // vmulps 0x2eef8(%rip){1to8},%ymm2,%ymm2 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,108,56,89,21,184,239,2,0 // vmulps 0x2efb8(%rip){1to8},%ymm2,%ymm2 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,97,238,2,0 // vbroadcastss 0x2ee61(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,33,239,2,0 // vbroadcastss 0x2ef21(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -13008,17 +13014,17 @@ _sk_load_565_dst_skx:
.byte 117,96 // jne 3bdb <_sk_load_565_dst_skx+0x7b>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,240,237,2,0 // vpandd 0x2edf0(%rip){1to8},%ymm6,%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,77,56,219,37,176,238,2,0 // vpandd 0x2eeb0(%rip){1to8},%ymm6,%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,230,237,2,0 // vmulps 0x2ede6(%rip){1to8},%ymm4,%ymm4 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 98,241,77,56,219,45,224,237,2,0 // vpandd 0x2ede0(%rip){1to8},%ymm6,%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,92,56,89,37,166,238,2,0 // vmulps 0x2eea6(%rip){1to8},%ymm4,%ymm4 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,77,56,219,45,160,238,2,0 // vpandd 0x2eea0(%rip){1to8},%ymm6,%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,214,237,2,0 // vmulps 0x2edd6(%rip){1to8},%ymm5,%ymm5 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
- .byte 98,241,77,56,219,53,208,237,2,0 // vpandd 0x2edd0(%rip){1to8},%ymm6,%ymm6 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,84,56,89,45,150,238,2,0 // vmulps 0x2ee96(%rip){1to8},%ymm5,%ymm5 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,77,56,219,53,144,238,2,0 // vpandd 0x2ee90(%rip){1to8},%ymm6,%ymm6 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,198,237,2,0 // vmulps 0x2edc6(%rip){1to8},%ymm6,%ymm6 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,76,56,89,53,134,238,2,0 // vmulps 0x2ee86(%rip){1to8},%ymm6,%ymm6 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,47,237,2,0 // vbroadcastss 0x2ed2f(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,239,237,2,0 // vbroadcastss 0x2edef(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
@@ -13126,17 +13132,17 @@ _sk_gather_565_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,11,236,2,0 // vpandd 0x2ec0b(%rip){1to8},%ymm2,%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,109,56,219,5,203,236,2,0 // vpandd 0x2eccb(%rip){1to8},%ymm2,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,1,236,2,0 // vmulps 0x2ec01(%rip){1to8},%ymm0,%ymm0 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
- .byte 98,241,109,56,219,13,251,235,2,0 // vpandd 0x2ebfb(%rip){1to8},%ymm2,%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,124,56,89,5,193,236,2,0 // vmulps 0x2ecc1(%rip){1to8},%ymm0,%ymm0 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 98,241,109,56,219,13,187,236,2,0 // vpandd 0x2ecbb(%rip){1to8},%ymm2,%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,241,235,2,0 // vmulps 0x2ebf1(%rip){1to8},%ymm1,%ymm1 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
- .byte 98,241,109,56,219,21,235,235,2,0 // vpandd 0x2ebeb(%rip){1to8},%ymm2,%ymm2 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 98,241,116,56,89,13,177,236,2,0 // vmulps 0x2ecb1(%rip){1to8},%ymm1,%ymm1 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 98,241,109,56,219,21,171,236,2,0 // vpandd 0x2ecab(%rip){1to8},%ymm2,%ymm2 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,225,235,2,0 // vmulps 0x2ebe1(%rip){1to8},%ymm2,%ymm2 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 98,241,108,56,89,21,161,236,2,0 // vmulps 0x2eca1(%rip){1to8},%ymm2,%ymm2 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,74,235,2,0 // vbroadcastss 0x2eb4a(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,10,236,2,0 // vbroadcastss 0x2ec0a(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -13154,11 +13160,11 @@ _sk_store_565_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,14,236,2,0 // vbroadcastss 0x2ec0e(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,5,206,236,2,0 // vbroadcastss 0x2ecce(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 98,113,116,56,89,21,248,235,2,0 // vmulps 0x2ebf8(%rip){1to8},%ymm1,%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 98,113,116,56,89,21,184,236,2,0 // vmulps 0x2ecb8(%rip){1to8},%ymm1,%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
.byte 196,65,45,235,201 // vpor %ymm9,%ymm10,%ymm9
@@ -13205,7 +13211,7 @@ _sk_store_565_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,225 // jmpq ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1e3c>
+ .byte 233,255,255,255,225 // jmpq ffffffffe2003eb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe1fd1d78>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13228,18 +13234,18 @@ _sk_load_4444_skx:
.byte 117,111 // jne 3f4a <_sk_load_4444_skx+0x8a>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,12,235,2,0 // vpandd 0x2eb0c(%rip){1to8},%ymm3,%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,101,56,219,5,204,235,2,0 // vpandd 0x2ebcc(%rip){1to8},%ymm3,%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,2,235,2,0 // vmulps 0x2eb02(%rip){1to8},%ymm0,%ymm0 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
- .byte 98,241,101,56,219,13,252,234,2,0 // vpandd 0x2eafc(%rip){1to8},%ymm3,%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,124,56,89,5,194,235,2,0 // vmulps 0x2ebc2(%rip){1to8},%ymm0,%ymm0 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,101,56,219,13,188,235,2,0 // vpandd 0x2ebbc(%rip){1to8},%ymm3,%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,242,234,2,0 // vmulps 0x2eaf2(%rip){1to8},%ymm1,%ymm1 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
- .byte 98,241,101,56,219,21,236,234,2,0 // vpandd 0x2eaec(%rip){1to8},%ymm3,%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,116,56,89,13,178,235,2,0 // vmulps 0x2ebb2(%rip){1to8},%ymm1,%ymm1 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,101,56,219,21,172,235,2,0 // vpandd 0x2ebac(%rip){1to8},%ymm3,%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,226,234,2,0 // vmulps 0x2eae2(%rip){1to8},%ymm2,%ymm2 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 98,241,101,56,219,29,220,234,2,0 // vpandd 0x2eadc(%rip){1to8},%ymm3,%ymm3 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,108,56,89,21,162,235,2,0 // vmulps 0x2eba2(%rip){1to8},%ymm2,%ymm2 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,101,56,219,29,156,235,2,0 // vpandd 0x2eb9c(%rip){1to8},%ymm3,%ymm3 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,210,234,2,0 // vmulps 0x2ead2(%rip){1to8},%ymm3,%ymm3 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 98,241,100,56,89,29,146,235,2,0 // vmulps 0x2eb92(%rip){1to8},%ymm3,%ymm3 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13309,18 +13315,18 @@ _sk_load_4444_dst_skx:
.byte 117,111 // jne 408a <_sk_load_4444_dst_skx+0x8a>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,204,233,2,0 // vpandd 0x2e9cc(%rip){1to8},%ymm7,%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,69,56,219,37,140,234,2,0 // vpandd 0x2ea8c(%rip){1to8},%ymm7,%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,194,233,2,0 // vmulps 0x2e9c2(%rip){1to8},%ymm4,%ymm4 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
- .byte 98,241,69,56,219,45,188,233,2,0 // vpandd 0x2e9bc(%rip){1to8},%ymm7,%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,92,56,89,37,130,234,2,0 // vmulps 0x2ea82(%rip){1to8},%ymm4,%ymm4 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,69,56,219,45,124,234,2,0 // vpandd 0x2ea7c(%rip){1to8},%ymm7,%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,178,233,2,0 // vmulps 0x2e9b2(%rip){1to8},%ymm5,%ymm5 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
- .byte 98,241,69,56,219,53,172,233,2,0 // vpandd 0x2e9ac(%rip){1to8},%ymm7,%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,84,56,89,45,114,234,2,0 // vmulps 0x2ea72(%rip){1to8},%ymm5,%ymm5 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,69,56,219,53,108,234,2,0 // vpandd 0x2ea6c(%rip){1to8},%ymm7,%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,162,233,2,0 // vmulps 0x2e9a2(%rip){1to8},%ymm6,%ymm6 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 98,241,69,56,219,61,156,233,2,0 // vpandd 0x2e99c(%rip){1to8},%ymm7,%ymm7 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,76,56,89,53,98,234,2,0 // vmulps 0x2ea62(%rip){1to8},%ymm6,%ymm6 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,69,56,219,61,92,234,2,0 // vpandd 0x2ea5c(%rip){1to8},%ymm7,%ymm7 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,146,233,2,0 // vmulps 0x2e992(%rip){1to8},%ymm7,%ymm7 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 98,241,68,56,89,61,82,234,2,0 // vmulps 0x2ea52(%rip){1to8},%ymm7,%ymm7 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
@@ -13429,18 +13435,18 @@ _sk_gather_4444_skx:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,215,231,2,0 // vpandd 0x2e7d7(%rip){1to8},%ymm3,%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,101,56,219,5,151,232,2,0 // vpandd 0x2e897(%rip){1to8},%ymm3,%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,205,231,2,0 // vmulps 0x2e7cd(%rip){1to8},%ymm0,%ymm0 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
- .byte 98,241,101,56,219,13,199,231,2,0 // vpandd 0x2e7c7(%rip){1to8},%ymm3,%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,124,56,89,5,141,232,2,0 // vmulps 0x2e88d(%rip){1to8},%ymm0,%ymm0 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 98,241,101,56,219,13,135,232,2,0 // vpandd 0x2e887(%rip){1to8},%ymm3,%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,189,231,2,0 // vmulps 0x2e7bd(%rip){1to8},%ymm1,%ymm1 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
- .byte 98,241,101,56,219,21,183,231,2,0 // vpandd 0x2e7b7(%rip){1to8},%ymm3,%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,116,56,89,13,125,232,2,0 // vmulps 0x2e87d(%rip){1to8},%ymm1,%ymm1 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 98,241,101,56,219,21,119,232,2,0 // vpandd 0x2e877(%rip){1to8},%ymm3,%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,173,231,2,0 // vmulps 0x2e7ad(%rip){1to8},%ymm2,%ymm2 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
- .byte 98,241,101,56,219,29,167,231,2,0 // vpandd 0x2e7a7(%rip){1to8},%ymm3,%ymm3 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 98,241,108,56,89,21,109,232,2,0 // vmulps 0x2e86d(%rip){1to8},%ymm2,%ymm2 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 98,241,101,56,219,29,103,232,2,0 // vpandd 0x2e867(%rip){1to8},%ymm3,%ymm3 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,157,231,2,0 // vmulps 0x2e79d(%rip){1to8},%ymm3,%ymm3 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 98,241,100,56,89,29,93,232,2,0 // vmulps 0x2e85d(%rip){1to8},%ymm3,%ymm3 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -13459,7 +13465,7 @@ _sk_store_4444_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,119,231,2,0 // vbroadcastss 0x2e777(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,55,232,2,0 // vbroadcastss 0x2e837(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -13514,7 +13520,7 @@ _sk_store_4444_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd230c>
+ .byte 232,255,255,255,224 // callq ffffffffe1004388 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd2248>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -13540,7 +13546,7 @@ _sk_load_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,174,229,2,0 // vbroadcastss 0x2e5ae(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,110,230,2,0 // vbroadcastss 0x2e66e(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13627,7 +13633,7 @@ _sk_load_8888_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,106,228,2,0 // vbroadcastss 0x2e46a(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,42,229,2,0 // vbroadcastss 0x2e52a(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
.byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
@@ -13721,7 +13727,7 @@ _sk_gather_8888_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,253,226,2,0 // vbroadcastss 0x2e2fd(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,29,189,227,2,0 // vbroadcastss 0x2e3bd(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
.byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
@@ -13748,7 +13754,7 @@ _sk_store_8888_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,86,226,2,0 // vbroadcastss 0x2e256(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,22,227,2,0 // vbroadcastss 0x2e316(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -13804,7 +13810,7 @@ _sk_store_8888_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2744>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc0047c0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2680>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -13830,7 +13836,7 @@ _sk_load_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,118,225,2,0 // vbroadcastss 0x2e176(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,54,226,2,0 // vbroadcastss 0x2e236(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
.byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -13917,7 +13923,7 @@ _sk_load_bgra_dst_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,50,224,2,0 // vbroadcastss 0x2e032(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,242,224,2,0 // vbroadcastss 0x2e0f2(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
.byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
.byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
@@ -14011,7 +14017,7 @@ _sk_gather_bgra_skx:
.byte 197,251,146,200 // kmovd %eax,%k1
.byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,197,222,2,0 // vbroadcastss 0x2dec5(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,29,133,223,2,0 // vbroadcastss 0x2df85(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
.byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
.byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
@@ -14038,7 +14044,7 @@ _sk_store_bgra_skx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,30,222,2,0 // vbroadcastss 0x2de1e(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,222,222,2,0 // vbroadcastss 0x2dede(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -14094,7 +14100,7 @@ _sk_store_bgra_skx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2b7c>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc004bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd2ab8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -14357,7 +14363,7 @@ _sk_load_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,131,217,2,0 // vbroadcastss 0x2d983(%rip),%ymm10 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,21,67,218,2,0 // vbroadcastss 0x2da43(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -14448,7 +14454,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,245,215,2,0 // vbroadcastss 0x2d7f5(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,13,181,216,2,0 // vbroadcastss 0x2d8b5(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -14464,7 +14470,7 @@ _sk_load_rgb_u16_be_skx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,25,215,2,0 // vbroadcastss 0x2d719(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,217,215,2,0 // vbroadcastss 0x2d7d9(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
@@ -14540,7 +14546,7 @@ _sk_store_u16_be_skx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,222,214,2,0 // vbroadcastss 0x2d6de(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,24,5,158,215,2,0 // vbroadcastss 0x2d79e(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -14882,7 +14888,7 @@ _sk_mirror_x_skx:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,79,208,2,0 // vmulss 0x2d04f(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,5,15,209,2,0 // vmulss 0x2d10f(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -14905,7 +14911,7 @@ _sk_mirror_y_skx:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,254,207,2,0 // vmulss 0x2cffe(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,13,190,208,2,0 // vmulss 0x2d0be(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -14923,7 +14929,7 @@ FUNCTION(_sk_clamp_x_1_skx)
_sk_clamp_x_1_skx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,197,207,2,0 // vminps 0x2cfc5(%rip){1to8},%ymm0,%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,124,56,93,5,133,208,2,0 // vminps 0x2d085(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14933,6 +14939,9 @@ FUNCTION(_sk_repeat_x_1_skx)
_sk_repeat_x_1_skx:
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 98,241,124,56,93,5,99,208,2,0 // vminps 0x2d063(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14940,16 +14949,18 @@ HIDDEN _sk_mirror_x_1_skx
.globl _sk_mirror_x_1_skx
FUNCTION(_sk_mirror_x_1_skx)
_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,193,207,2,0 // vbroadcastss 0x2cfc1(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,5,110,208,2,0 // vbroadcastss 0x2d06e(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,150,207,2,0 // vmulps 0x2cf96(%rip){1to8},%ymm0,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,113,124,56,89,13,67,208,2,0 // vmulps 0x2d043(%rip){1to8},%ymm0,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
+ .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 98,241,124,56,93,5,23,208,2,0 // vminps 0x2d017(%rip){1to8},%ymm0,%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -14957,9 +14968,9 @@ HIDDEN _sk_luminance_to_alpha_skx
.globl _sk_luminance_to_alpha_skx
FUNCTION(_sk_luminance_to_alpha_skx)
_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,134,208,2,0 // vmulps 0x2d086(%rip){1to8},%ymm1,%ymm3 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
- .byte 98,242,125,56,184,29,128,208,2,0 // vfmadd231ps 0x2d080(%rip){1to8},%ymm0,%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
- .byte 98,242,109,56,184,29,122,208,2,0 // vfmadd231ps 0x2d07a(%rip){1to8},%ymm2,%ymm3 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 98,241,116,56,89,29,37,209,2,0 // vmulps 0x2d125(%rip){1to8},%ymm1,%ymm3 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 98,242,125,56,184,29,31,209,2,0 // vfmadd231ps 0x2d11f(%rip){1to8},%ymm0,%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 98,242,109,56,184,29,25,209,2,0 // vfmadd231ps 0x2d119(%rip){1to8},%ymm2,%ymm3 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
@@ -15141,7 +15152,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 5cb0 <_sk_evenly_spaced_gradient_skx+0x70>
+ .byte 119,73 // ja 5cd1 <_sk_evenly_spaced_gradient_skx+0x70>
.byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
@@ -15157,7 +15168,7 @@ _sk_evenly_spaced_gradient_skx:
.byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 5d43 <_sk_evenly_spaced_gradient_skx+0x103>
+ .byte 233,147,0,0,0 // jmpq 5d64 <_sk_evenly_spaced_gradient_skx+0x103>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
@@ -15201,11 +15212,11 @@ HIDDEN _sk_gauss_a_to_rgba_skx
.globl _sk_gauss_a_to_rgba_skx
FUNCTION(_sk_gauss_a_to_rgba_skx)
_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,200,204,2,0 // vbroadcastss 0x2ccc8(%rip),%ymm0 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
- .byte 98,242,101,56,168,5,194,204,2,0 // vfmadd213ps 0x2ccc2(%rip){1to8},%ymm3,%ymm0 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
- .byte 98,242,101,56,168,5,188,204,2,0 // vfmadd213ps 0x2ccbc(%rip){1to8},%ymm3,%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
- .byte 98,242,101,56,168,5,182,204,2,0 // vfmadd213ps 0x2ccb6(%rip){1to8},%ymm3,%ymm0 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
- .byte 98,242,101,56,168,5,176,204,2,0 // vfmadd213ps 0x2ccb0(%rip){1to8},%ymm3,%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,226,125,24,5,103,205,2,0 // vbroadcastss 0x2cd67(%rip),%ymm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 98,242,101,56,168,5,97,205,2,0 // vfmadd213ps 0x2cd61(%rip){1to8},%ymm3,%ymm0 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 98,242,101,56,168,5,91,205,2,0 // vfmadd213ps 0x2cd5b(%rip){1to8},%ymm3,%ymm0 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 98,242,101,56,168,5,85,205,2,0 // vfmadd213ps 0x2cd55(%rip){1to8},%ymm3,%ymm0 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 98,242,101,56,168,5,79,205,2,0 // vfmadd213ps 0x2cd4f(%rip){1to8},%ymm3,%ymm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
@@ -15219,11 +15230,11 @@ _sk_gradient_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 5e94 <_sk_gradient_skx+0xf4>
+ .byte 15,134,229,0,0,0 // jbe 5eb5 <_sk_gradient_skx+0xf4>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,70,203,2,0 // vbroadcastss 0x2cb46(%rip),%ymm2 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,226,125,24,21,229,203,2,0 // vbroadcastss 0x2cbe5(%rip),%ymm2 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
@@ -15232,10 +15243,10 @@ _sk_gradient_skx:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,131,194,1 // add $0x1,%r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 5dcb <_sk_gradient_skx+0x2b>
+ .byte 117,218 // jne 5dec <_sk_gradient_skx+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 5e9d <_sk_gradient_skx+0xfd>
+ .byte 15,134,158,0,0,0 // jbe 5ebe <_sk_gradient_skx+0xfd>
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
@@ -15267,7 +15278,7 @@ _sk_gradient_skx:
.byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 5ee1 <_sk_gradient_skx+0x141>
+ .byte 235,77 // jmp 5f02 <_sk_gradient_skx+0x141>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -15323,24 +15334,24 @@ _sk_xy_to_unit_angle_skx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,216,202,2,0 // vbroadcastss 0x2cad8(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
- .byte 98,114,29,56,168,45,210,202,2,0 // vfmadd213ps 0x2cad2(%rip){1to8},%ymm12,%ymm13 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
- .byte 98,114,29,56,168,45,204,202,2,0 // vfmadd213ps 0x2cacc(%rip){1to8},%ymm12,%ymm13 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
- .byte 98,114,29,56,168,45,198,202,2,0 // vfmadd213ps 0x2cac6(%rip){1to8},%ymm12,%ymm13 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,45,119,203,2,0 // vbroadcastss 0x2cb77(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 98,114,29,56,168,45,113,203,2,0 // vfmadd213ps 0x2cb71(%rip){1to8},%ymm12,%ymm13 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 98,114,29,56,168,45,107,203,2,0 // vfmadd213ps 0x2cb6b(%rip){1to8},%ymm12,%ymm13 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 98,114,29,56,168,45,101,203,2,0 // vfmadd213ps 0x2cb65(%rip){1to8},%ymm12,%ymm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
.byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,175,202,2,0 // vbroadcastss 0x2caaf(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,21,78,203,2,0 // vbroadcastss 0x2cb4e(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
.byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,62,201,2,0 // vbroadcastss 0x2c93e(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,221,201,2,0 // vbroadcastss 0x2c9dd(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
.byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,33,201,2,0 // vbroadcastss 0x2c921(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,192,201,2,0 // vbroadcastss 0x2c9c0(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
@@ -15369,20 +15380,20 @@ _sk_xy_to_2pt_conical_quadratic_max_skx:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,25,202,2,0 // vmulps 0x2ca19(%rip){1to8},%ymm10,%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 98,113,44,56,89,21,184,202,2,0 // vmulps 0x2cab8(%rip){1to8},%ymm10,%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,252,201,2,0 // vmulps 0x2c9fc(%rip){1to8},%ymm8,%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 98,113,60,56,89,5,155,202,2,0 // vmulps 0x2ca9b(%rip){1to8},%ymm8,%ymm8 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 98,113,44,56,87,13,227,201,2,0 // vxorps 0x2c9e3(%rip){1to8},%ymm10,%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 98,113,44,56,87,13,130,202,2,0 // vxorps 0x2ca82(%rip){1to8},%ymm10,%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,120,200,2,0 // vmulps 0x2c878(%rip){1to8},%ymm8,%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,113,60,56,89,5,23,201,2,0 // vmulps 0x2c917(%rip){1to8},%ymm8,%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15400,20 +15411,20 @@ _sk_xy_to_2pt_conical_quadratic_min_skx:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 98,113,44,56,89,21,145,201,2,0 // vmulps 0x2c991(%rip){1to8},%ymm10,%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 98,113,44,56,89,21,48,202,2,0 // vmulps 0x2ca30(%rip){1to8},%ymm10,%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 98,113,60,56,89,5,116,201,2,0 // vmulps 0x2c974(%rip){1to8},%ymm8,%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 98,113,60,56,89,5,19,202,2,0 // vmulps 0x2ca13(%rip){1to8},%ymm8,%ymm8 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 98,113,44,56,87,13,91,201,2,0 // vxorps 0x2c95b(%rip){1to8},%ymm10,%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 98,113,44,56,87,13,250,201,2,0 // vxorps 0x2c9fa(%rip){1to8},%ymm10,%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,113,60,56,89,5,240,199,2,0 // vmulps 0x2c7f0(%rip){1to8},%ymm8,%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,113,60,56,89,5,143,200,2,0 // vmulps 0x2c88f(%rip){1to8},%ymm8,%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -15430,13 +15441,13 @@ _sk_xy_to_2pt_conical_linear_skx:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 98,113,52,56,89,13,15,201,2,0 // vmulps 0x2c90f(%rip){1to8},%ymm9,%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 98,113,52,56,89,13,174,201,2,0 // vmulps 0x2c9ae(%rip){1to8},%ymm9,%ymm9 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,241,124,56,87,5,246,200,2,0 // vxorps 0x2c8f6(%rip){1to8},%ymm0,%ymm0 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 98,241,124,56,87,5,149,201,2,0 // vxorps 0x2c995(%rip){1to8},%ymm0,%ymm0 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15478,7 +15489,7 @@ HIDDEN _sk_save_xy_skx
FUNCTION(_sk_save_xy_skx)
_sk_save_xy_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,39,199,2,0 // vbroadcastss 0x2c727(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,198,199,2,0 // vbroadcastss 0x2c7c6(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -15513,8 +15524,8 @@ FUNCTION(_sk_bilinear_nx_skx)
_sk_bilinear_nx_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,18,200,2,0 // vaddps 0x2c812(%rip){1to8},%ymm0,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,173,198,2,0 // vbroadcastss 0x2c6ad(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,124,56,88,5,177,200,2,0 // vaddps 0x2c8b1(%rip){1to8},%ymm0,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,76,199,2,0 // vbroadcastss 0x2c74c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15527,7 +15538,7 @@ _sk_bilinear_px_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
- .byte 98,241,124,56,88,5,131,198,2,0 // vaddps 0x2c683(%rip){1to8},%ymm0,%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,124,56,88,5,34,199,2,0 // vaddps 0x2c722(%rip){1to8},%ymm0,%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15538,8 +15549,8 @@ FUNCTION(_sk_bilinear_ny_skx)
_sk_bilinear_ny_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,198,199,2,0 // vaddps 0x2c7c6(%rip){1to8},%ymm1,%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,97,198,2,0 // vbroadcastss 0x2c661(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,116,56,88,13,101,200,2,0 // vaddps 0x2c865(%rip){1to8},%ymm1,%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,0,199,2,0 // vbroadcastss 0x2c700(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15552,7 +15563,7 @@ _sk_bilinear_py_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
- .byte 98,241,116,56,88,13,54,198,2,0 // vaddps 0x2c636(%rip){1to8},%ymm1,%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 98,241,116,56,88,13,213,198,2,0 // vaddps 0x2c6d5(%rip){1to8},%ymm1,%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15563,12 +15574,12 @@ FUNCTION(_sk_bicubic_n3x_skx)
_sk_bicubic_n3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,126,199,2,0 // vaddps 0x2c77e(%rip){1to8},%ymm0,%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,5,21,198,2,0 // vbroadcastss 0x2c615(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,124,56,88,5,29,200,2,0 // vaddps 0x2c81d(%rip){1to8},%ymm0,%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,180,198,2,0 // vbroadcastss 0x2c6b4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,102,199,2,0 // vbroadcastss 0x2c766(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,21,104,198,2,0 // vfmadd213ps 0x2c668(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,5,200,2,0 // vbroadcastss 0x2c805(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,114,61,56,168,21,7,199,2,0 // vfmadd213ps 0x2c707(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15580,13 +15591,13 @@ FUNCTION(_sk_bicubic_n1x_skx)
_sk_bicubic_n1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,51,199,2,0 // vaddps 0x2c733(%rip){1to8},%ymm0,%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,206,197,2,0 // vbroadcastss 0x2c5ce(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,124,56,88,5,210,199,2,0 // vaddps 0x2c7d2(%rip){1to8},%ymm0,%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,109,198,2,0 // vbroadcastss 0x2c66d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,40,199,2,0 // vbroadcastss 0x2c728(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,61,56,168,13,34,199,2,0 // vfmadd213ps 0x2c722(%rip){1to8},%ymm8,%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 98,114,61,56,168,13,168,197,2,0 // vfmadd213ps 0x2c5a8(%rip){1to8},%ymm8,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,61,56,168,13,18,199,2,0 // vfmadd213ps 0x2c712(%rip){1to8},%ymm8,%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,199,199,2,0 // vbroadcastss 0x2c7c7(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,13,193,199,2,0 // vfmadd213ps 0x2c7c1(%rip){1to8},%ymm8,%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,13,71,198,2,0 // vfmadd213ps 0x2c647(%rip){1to8},%ymm8,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,61,56,168,13,177,199,2,0 // vfmadd213ps 0x2c7b1(%rip){1to8},%ymm8,%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15596,13 +15607,13 @@ HIDDEN _sk_bicubic_p1x_skx
FUNCTION(_sk_bicubic_p1x_skx)
_sk_bicubic_p1x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,135,197,2,0 // vbroadcastss 0x2c587(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,38,198,2,0 // vbroadcastss 0x2c626(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,225,198,2,0 // vbroadcastss 0x2c6e1(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,53,56,168,21,219,198,2,0 // vfmadd213ps 0x2c6db(%rip){1to8},%ymm9,%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,128,199,2,0 // vbroadcastss 0x2c780(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,53,56,168,21,122,199,2,0 // vfmadd213ps 0x2c77a(%rip){1to8},%ymm9,%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,208,198,2,0 // vfmadd213ps 0x2c6d0(%rip){1to8},%ymm9,%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 98,114,53,56,168,21,111,199,2,0 // vfmadd213ps 0x2c76f(%rip){1to8},%ymm9,%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15614,10 +15625,10 @@ _sk_bicubic_p3x_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,0 // vmovups (%rax),%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
- .byte 98,241,124,56,88,5,171,198,2,0 // vaddps 0x2c6ab(%rip){1to8},%ymm0,%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,241,124,56,88,5,74,199,2,0 // vaddps 0x2c74a(%rip){1to8},%ymm0,%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,149,198,2,0 // vbroadcastss 0x2c695(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,21,151,197,2,0 // vfmadd213ps 0x2c597(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,52,199,2,0 // vbroadcastss 0x2c734(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,114,61,56,168,21,54,198,2,0 // vfmadd213ps 0x2c636(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15629,12 +15640,12 @@ FUNCTION(_sk_bicubic_n3y_skx)
_sk_bicubic_n3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,101,198,2,0 // vaddps 0x2c665(%rip){1to8},%ymm1,%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
- .byte 196,98,125,24,5,252,196,2,0 // vbroadcastss 0x2c4fc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,116,56,88,13,4,199,2,0 // vaddps 0x2c704(%rip){1to8},%ymm1,%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,98,125,24,5,155,197,2,0 // vbroadcastss 0x2c59b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,77,198,2,0 // vbroadcastss 0x2c64d(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,21,79,197,2,0 // vfmadd213ps 0x2c54f(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,236,198,2,0 // vbroadcastss 0x2c6ec(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,114,61,56,168,21,238,197,2,0 // vfmadd213ps 0x2c5ee(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15646,13 +15657,13 @@ FUNCTION(_sk_bicubic_n1y_skx)
_sk_bicubic_n1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 98,241,116,56,88,13,25,198,2,0 // vaddps 0x2c619(%rip){1to8},%ymm1,%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
- .byte 196,98,125,24,5,180,196,2,0 // vbroadcastss 0x2c4b4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 98,241,116,56,88,13,184,198,2,0 // vaddps 0x2c6b8(%rip){1to8},%ymm1,%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,83,197,2,0 // vbroadcastss 0x2c553(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,14,198,2,0 // vbroadcastss 0x2c60e(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,61,56,168,13,8,198,2,0 // vfmadd213ps 0x2c608(%rip){1to8},%ymm8,%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 98,114,61,56,168,13,142,196,2,0 // vfmadd213ps 0x2c48e(%rip){1to8},%ymm8,%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 98,114,61,56,168,13,248,197,2,0 // vfmadd213ps 0x2c5f8(%rip){1to8},%ymm8,%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,173,198,2,0 // vbroadcastss 0x2c6ad(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,61,56,168,13,167,198,2,0 // vfmadd213ps 0x2c6a7(%rip){1to8},%ymm8,%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 98,114,61,56,168,13,45,197,2,0 // vfmadd213ps 0x2c52d(%rip){1to8},%ymm8,%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 98,114,61,56,168,13,151,198,2,0 // vfmadd213ps 0x2c697(%rip){1to8},%ymm8,%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,124,17,136,160,0,0,0 // vmovups %ymm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15662,13 +15673,13 @@ HIDDEN _sk_bicubic_p1y_skx
FUNCTION(_sk_bicubic_p1y_skx)
_sk_bicubic_p1y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,109,196,2,0 // vbroadcastss 0x2c46d(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,12,197,2,0 // vbroadcastss 0x2c50c(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,198,197,2,0 // vbroadcastss 0x2c5c6(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
- .byte 98,114,53,56,168,21,192,197,2,0 // vfmadd213ps 0x2c5c0(%rip){1to8},%ymm9,%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,101,198,2,0 // vbroadcastss 0x2c665(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 98,114,53,56,168,21,95,198,2,0 // vfmadd213ps 0x2c65f(%rip){1to8},%ymm9,%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,181,197,2,0 // vfmadd213ps 0x2c5b5(%rip){1to8},%ymm9,%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 98,114,53,56,168,21,84,198,2,0 // vfmadd213ps 0x2c654(%rip){1to8},%ymm9,%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -15680,10 +15691,10 @@ _sk_bicubic_p3y_skx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
- .byte 98,241,116,56,88,13,143,197,2,0 // vaddps 0x2c58f(%rip){1to8},%ymm1,%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 98,241,116,56,88,13,46,198,2,0 // vaddps 0x2c62e(%rip){1to8},%ymm1,%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,121,197,2,0 // vbroadcastss 0x2c579(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
- .byte 98,114,61,56,168,21,123,196,2,0 // vfmadd213ps 0x2c47b(%rip){1to8},%ymm8,%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,24,198,2,0 // vbroadcastss 0x2c618(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 98,114,61,56,168,21,26,197,2,0 // vfmadd213ps 0x2c51a(%rip){1to8},%ymm8,%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -15809,7 +15820,7 @@ _sk_clut_3D_skx:
.byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
.byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,131,195,2,0 // vpbroadcastd 0x2c383(%rip),%ymm27 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 98,98,125,40,88,29,34,196,2,0 // vpbroadcastd 0x2c422(%rip),%ymm27 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
.byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -15822,9 +15833,9 @@ _sk_clut_3D_skx:
.byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
.byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
.byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,57,195,2,0 // vbroadcastss 0x2c339(%rip),%ymm10 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,24,21,216,195,2,0 // vbroadcastss 0x2c3d8(%rip),%ymm10 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,193,193,2,0 // vpbroadcastd 0x2c1c1(%rip),%ymm16 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,226,125,40,88,5,96,194,2,0 // vpbroadcastd 0x2c260(%rip),%ymm16 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -16064,7 +16075,7 @@ _sk_clut_4D_skx:
.byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
.byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
.byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,21,190,2,0 // vpbroadcastd 0x2be15(%rip),%ymm16 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 98,226,125,40,88,5,180,190,2,0 // vpbroadcastd 0x2beb4(%rip),%ymm16 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
.byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
.byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
@@ -16076,9 +16087,9 @@ _sk_clut_4D_skx:
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
.byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
.byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,199,189,2,0 // vbroadcastss 0x2bdc7(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,226,125,24,5,102,190,2,0 // vbroadcastss 0x2be66(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,79,188,2,0 // vpbroadcastd 0x2bc4f(%rip),%ymm17 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 98,226,125,40,88,13,238,188,2,0 // vpbroadcastd 0x2bcee(%rip),%ymm17 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
@@ -16483,13 +16494,16 @@ _sk_clut_4D_skx:
.byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
.byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,237,178,2,0 // vbroadcastss 0x2b2ed(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,140,179,2,0 // vbroadcastss 0x2b38c(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
.byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
.byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
.byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
.byte 72,129,196,88,5,0,0 // add $0x558,%rsp
.byte 255,224 // jmpq *%rax
+ .byte 144 // nop
+ .byte 144 // nop
+ .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw
.globl _sk_start_pipeline_hsw
@@ -16512,13 +16526,13 @@ _sk_start_pipeline_hsw:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 7706 <_sk_start_pipeline_hsw+0xca>
+ .byte 15,131,151,0,0,0 // jae 772a <_sk_start_pipeline_hsw+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 76c8 <_sk_start_pipeline_hsw+0x8c>
+ .byte 119,67 // ja 76ec <_sk_start_pipeline_hsw+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -16537,10 +16551,10 @@ _sk_start_pipeline_hsw:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 7689 <_sk_start_pipeline_hsw+0x4d>
+ .byte 118,193 // jbe 76ad <_sk_start_pipeline_hsw+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 76f9 <_sk_start_pipeline_hsw+0xbd>
+ .byte 116,41 // je 771d <_sk_start_pipeline_hsw+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16554,7 +16568,7 @@ _sk_start_pipeline_hsw:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 767b <_sk_start_pipeline_hsw+0x3f>
+ .byte 15,133,117,255,255,255 // jne 769f <_sk_start_pipeline_hsw+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -16578,14 +16592,14 @@ _sk_seed_shader_hsw:
.byte 197,249,110,194 // vmovd %edx,%xmm0
.byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,82,172,2,0 // vaddps 0x2ac52(%rip),%ymm0,%ymm0 # 32380 <_sk_srcover_rgba_8888_sse2_lowp+0x304>
+ .byte 197,252,88,5,238,172,2,0 // vaddps 0x2acee(%rip),%ymm0,%ymm0 # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x300>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,192,177,2,0 // vbroadcastss 0x2b1c0(%rip),%ymm2 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,21,92,178,2,0 // vbroadcastss 0x2b25c(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,181,177,2,0 // vbroadcastss 0x2b1b5(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,21,81,178,2,0 // vbroadcastss 0x2b251(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -16600,17 +16614,17 @@ _sk_dither_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,36,172,2,0 // vpaddd 0x2ac24(%rip),%ymm8,%ymm8 # 323a0 <_sk_srcover_rgba_8888_sse2_lowp+0x324>
+ .byte 197,61,254,5,192,172,2,0 // vpaddd 0x2acc0(%rip),%ymm8,%ymm8 # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x320>
.byte 197,121,110,201 // vmovd %ecx,%xmm9
.byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
.byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,121,177,2,0 // vpbroadcastd 0x2b179(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,88,21,21,178,2,0 // vpbroadcastd 0x2b215(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
.byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,94,177,2,0 // vpbroadcastd 0x2b15e(%rip),%ymm12 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
- .byte 196,98,125,88,45,89,177,2,0 // vpbroadcastd 0x2b159(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,88,37,250,177,2,0 // vpbroadcastd 0x2b1fa(%rip),%ymm12 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,88,45,245,177,2,0 // vpbroadcastd 0x2b1f5(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
.byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
.byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
@@ -16625,8 +16639,8 @@ _sk_dither_hsw:
.byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,11,177,2,0 // vbroadcastss 0x2b10b(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
- .byte 196,98,125,24,21,6,177,2,0 // vbroadcastss 0x2b106(%rip),%ymm10 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,167,177,2,0 // vbroadcastss 0x2b1a7(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,21,162,177,2,0 // vbroadcastss 0x2b1a2(%rip),%ymm10 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
.byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
@@ -16660,7 +16674,7 @@ HIDDEN _sk_black_color_hsw
FUNCTION(_sk_black_color_hsw)
_sk_black_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,142,176,2,0 // vbroadcastss 0x2b08e(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,42,177,2,0 // vbroadcastss 0x2b12a(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -16671,7 +16685,7 @@ HIDDEN _sk_white_color_hsw
FUNCTION(_sk_white_color_hsw)
_sk_white_color_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,117,176,2,0 // vbroadcastss 0x2b075(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,17,177,2,0 // vbroadcastss 0x2b111(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -16717,7 +16731,7 @@ HIDDEN _sk_srcatop_hsw
FUNCTION(_sk_srcatop_hsw)
_sk_srcatop_hsw:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,20,176,2,0 // vbroadcastss 0x2b014(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,176,176,2,0 // vbroadcastss 0x2b0b0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
.byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
@@ -16733,7 +16747,7 @@ HIDDEN _sk_dstatop_hsw
.globl _sk_dstatop_hsw
FUNCTION(_sk_dstatop_hsw)
_sk_dstatop_hsw:
- .byte 196,98,125,24,5,227,175,2,0 // vbroadcastss 0x2afe3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,127,176,2,0 // vbroadcastss 0x2b07f(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
@@ -16772,7 +16786,7 @@ HIDDEN _sk_srcout_hsw
.globl _sk_srcout_hsw
FUNCTION(_sk_srcout_hsw)
_sk_srcout_hsw:
- .byte 196,98,125,24,5,134,175,2,0 // vbroadcastss 0x2af86(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,34,176,2,0 // vbroadcastss 0x2b022(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -16785,7 +16799,7 @@ HIDDEN _sk_dstout_hsw
.globl _sk_dstout_hsw
FUNCTION(_sk_dstout_hsw)
_sk_dstout_hsw:
- .byte 196,226,125,24,5,101,175,2,0 // vbroadcastss 0x2af65(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,1,176,2,0 // vbroadcastss 0x2b001(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -16798,7 +16812,7 @@ HIDDEN _sk_srcover_hsw
.globl _sk_srcover_hsw
FUNCTION(_sk_srcover_hsw)
_sk_srcover_hsw:
- .byte 196,98,125,24,5,68,175,2,0 // vbroadcastss 0x2af44(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,224,175,2,0 // vbroadcastss 0x2afe0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
@@ -16811,7 +16825,7 @@ HIDDEN _sk_dstover_hsw
.globl _sk_dstover_hsw
FUNCTION(_sk_dstover_hsw)
_sk_dstover_hsw:
- .byte 196,98,125,24,5,31,175,2,0 // vbroadcastss 0x2af1f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,187,175,2,0 // vbroadcastss 0x2afbb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
.byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
@@ -16835,7 +16849,7 @@ HIDDEN _sk_multiply_hsw
.globl _sk_multiply_hsw
FUNCTION(_sk_multiply_hsw)
_sk_multiply_hsw:
- .byte 196,98,125,24,5,230,174,2,0 // vbroadcastss 0x2aee6(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,130,175,2,0 // vbroadcastss 0x2af82(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16858,7 +16872,7 @@ HIDDEN _sk_plus__hsw
FUNCTION(_sk_plus__hsw)
_sk_plus__hsw:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,149,174,2,0 // vbroadcastss 0x2ae95(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,49,175,2,0 // vbroadcastss 0x2af31(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -16888,7 +16902,7 @@ HIDDEN _sk_xor__hsw
.globl _sk_xor__hsw
FUNCTION(_sk_xor__hsw)
_sk_xor__hsw:
- .byte 196,98,125,24,5,64,174,2,0 // vbroadcastss 0x2ae40(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,220,174,2,0 // vbroadcastss 0x2aedc(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -16922,7 +16936,7 @@ _sk_darken_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,196,173,2,0 // vbroadcastss 0x2adc4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,96,174,2,0 // vbroadcastss 0x2ae60(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16947,7 +16961,7 @@ _sk_lighten_hsw:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,111,173,2,0 // vbroadcastss 0x2ad6f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,11,174,2,0 // vbroadcastss 0x2ae0b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16975,7 +16989,7 @@ _sk_difference_hsw:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,14,173,2,0 // vbroadcastss 0x2ad0e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,170,173,2,0 // vbroadcastss 0x2adaa(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -16997,7 +17011,7 @@ _sk_exclusion_hsw:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,200,172,2,0 // vbroadcastss 0x2acc8(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,100,173,2,0 // vbroadcastss 0x2ad64(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -17007,7 +17021,7 @@ HIDDEN _sk_colorburn_hsw
.globl _sk_colorburn_hsw
FUNCTION(_sk_colorburn_hsw)
_sk_colorburn_hsw:
- .byte 196,98,125,24,5,178,172,2,0 // vbroadcastss 0x2acb2(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,78,173,2,0 // vbroadcastss 0x2ad4e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -17065,7 +17079,7 @@ HIDDEN _sk_colordodge_hsw
FUNCTION(_sk_colordodge_hsw)
_sk_colordodge_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,194,171,2,0 // vbroadcastss 0x2abc2(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,13,94,172,2,0 // vbroadcastss 0x2ac5e(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -17118,7 +17132,7 @@ HIDDEN _sk_hardlight_hsw
.globl _sk_hardlight_hsw
FUNCTION(_sk_hardlight_hsw)
_sk_hardlight_hsw:
- .byte 196,98,125,24,5,220,170,2,0 // vbroadcastss 0x2aadc(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,120,171,2,0 // vbroadcastss 0x2ab78(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17169,7 +17183,7 @@ HIDDEN _sk_overlay_hsw
.globl _sk_overlay_hsw
FUNCTION(_sk_overlay_hsw)
_sk_overlay_hsw:
- .byte 196,98,125,24,5,16,170,2,0 // vbroadcastss 0x2aa10(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,172,170,2,0 // vbroadcastss 0x2aaac(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -17230,10 +17244,10 @@ _sk_softlight_hsw:
.byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,43,169,2,0 // vbroadcastss 0x2a92b(%rip),%ymm11 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,29,199,169,2,0 // vbroadcastss 0x2a9c7(%rip),%ymm11 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
.byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,28,169,2,0 // vbroadcastss 0x2a91c(%rip),%ymm12 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,37,184,169,2,0 // vbroadcastss 0x2a9b8(%rip),%ymm12 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
.byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
.byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
@@ -17243,7 +17257,7 @@ _sk_softlight_hsw:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,203,168,2,0 // vbroadcastss 0x2a8cb(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,103,169,2,0 // vbroadcastss 0x2a967(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
@@ -17356,11 +17370,11 @@ _sk_hue_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,227,166,2,0 // vbroadcastss 0x2a6e3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,61,222,166,2,0 // vbroadcastss 0x2a6de(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,53,127,167,2,0 // vbroadcastss 0x2a77f(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,61,122,167,2,0 // vbroadcastss 0x2a77a(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,207,166,2,0 // vbroadcastss 0x2a6cf(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,5,107,167,2,0 // vbroadcastss 0x2a76b(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17415,7 +17429,7 @@ _sk_hue_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,144,165,2,0 // vbroadcastss 0x2a590(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,13,44,166,2,0 // vbroadcastss 0x2a62c(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17469,11 +17483,11 @@ _sk_saturation_hsw:
.byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
.byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
.byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,195,164,2,0 // vbroadcastss 0x2a4c3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,61,190,164,2,0 // vbroadcastss 0x2a4be(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,53,95,165,2,0 // vbroadcastss 0x2a55f(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,61,90,165,2,0 // vbroadcastss 0x2a55a(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,175,164,2,0 // vbroadcastss 0x2a4af(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,5,75,165,2,0 // vbroadcastss 0x2a54b(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
.byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
.byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
@@ -17528,7 +17542,7 @@ _sk_saturation_hsw:
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
.byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
.byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,112,163,2,0 // vbroadcastss 0x2a370(%rip),%ymm1 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,13,12,164,2,0 // vbroadcastss 0x2a40c(%rip),%ymm1 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
@@ -17556,11 +17570,11 @@ _sk_color_hsw:
.byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
.byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
.byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,37,163,2,0 // vbroadcastss 0x2a325(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,53,32,163,2,0 // vbroadcastss 0x2a320(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,45,193,163,2,0 // vbroadcastss 0x2a3c1(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,188,163,2,0 // vbroadcastss 0x2a3bc(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
.byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,17,163,2,0 // vbroadcastss 0x2a311(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,173,163,2,0 // vbroadcastss 0x2a3ad(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17616,7 +17630,7 @@ _sk_color_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,199,161,2,0 // vbroadcastss 0x2a1c7(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,99,162,2,0 // vbroadcastss 0x2a263(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17644,11 +17658,11 @@ _sk_luminosity_hsw:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
.byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,124,161,2,0 // vbroadcastss 0x2a17c(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
- .byte 196,98,125,24,53,119,161,2,0 // vbroadcastss 0x2a177(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,45,24,162,2,0 // vbroadcastss 0x2a218(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,53,19,162,2,0 // vbroadcastss 0x2a213(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
.byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,104,161,2,0 // vbroadcastss 0x2a168(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,4,162,2,0 // vbroadcastss 0x2a204(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
.byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
.byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
@@ -17704,7 +17718,7 @@ _sk_luminosity_hsw:
.byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
.byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
.byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,30,160,2,0 // vbroadcastss 0x2a01e(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,186,160,2,0 // vbroadcastss 0x2a0ba(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -17733,19 +17747,19 @@ _sk_srcover_rgba_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,179,0,0,0 // jne 89ff <_sk_srcover_rgba_8888_hsw+0xd3>
+ .byte 15,133,179,0,0,0 // jne 8a23 <_sk_srcover_rgba_8888_hsw+0xd3>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,102,154,2,0 // vpand 0x29a66(%rip),%ymm7,%ymm4 # 323c0 <_sk_srcover_rgba_8888_sse2_lowp+0x344>
+ .byte 197,197,219,37,2,155,2,0 // vpand 0x29b02(%rip),%ymm7,%ymm4 # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x340>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,121,154,2,0 // vpshufb 0x29a79(%rip),%ymm7,%ymm5 # 323e0 <_sk_srcover_rgba_8888_sse2_lowp+0x364>
+ .byte 196,226,69,0,45,21,155,2,0 // vpshufb 0x29b15(%rip),%ymm7,%ymm5 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x360>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,140,154,2,0 // vpshufb 0x29a8c(%rip),%ymm7,%ymm6 # 32400 <_sk_srcover_rgba_8888_sse2_lowp+0x384>
+ .byte 196,226,69,0,53,40,155,2,0 // vpshufb 0x29b28(%rip),%ymm7,%ymm6 # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x380>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,126,159,2,0 // vbroadcastss 0x29f7e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,26,160,2,0 // vbroadcastss 0x2a01a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,157,159,2,0 // vbroadcastss 0x29f9d(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,13,57,160,2,0 // vbroadcastss 0x2a039(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -17765,7 +17779,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,65 // jne 8a36 <_sk_srcover_rgba_8888_hsw+0x10a>
+ .byte 117,65 // jne 8a5a <_sk_srcover_rgba_8888_hsw+0x10a>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -17774,33 +17788,33 @@ _sk_srcover_rgba_8888_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 8952 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 15,135,59,255,255,255 // ja 8976 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b20 <_sk_srcover_rgba_8888_hsw+0x1f4>
+ .byte 76,141,21,254,0,0,0 // lea 0xfe(%rip),%r10 # 8b44 <_sk_srcover_rgba_8888_hsw+0x1f4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 233,28,255,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,28,255,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,181 // ja 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 119,181 // ja 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b3c <_sk_srcover_rgba_8888_hsw+0x210>
+ .byte 76,141,13,235,0,0,0 // lea 0xeb(%rip),%r9 # 8b60 <_sk_srcover_rgba_8888_hsw+0x210>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,153 // jmp 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 235,153 // jmp 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,201,254,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,201,254,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -17813,10 +17827,10 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,122,254,255,255 // jmpq 8952 <_sk_srcover_rgba_8888_hsw+0x26>
+ .byte 233,122,254,255,255 // jmpq 8976 <_sk_srcover_rgba_8888_hsw+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,16,255,255,255 // jmpq 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,16,255,255,255 // jmpq 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -17824,7 +17838,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 233,220,254,255,255 // jmpq 89fb <_sk_srcover_rgba_8888_hsw+0xcf>
+ .byte 233,220,254,255,255 // jmpq 8a1f <_sk_srcover_rgba_8888_hsw+0xcf>
.byte 144 // nop
.byte 11,255 // or %edi,%edi
.byte 255 // (bad)
@@ -17836,7 +17850,7 @@ _sk_srcover_rgba_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 8b35 <_sk_srcover_rgba_8888_hsw+0x209>
+ .byte 127,255 // jg 8b59 <_sk_srcover_rgba_8888_hsw+0x209>
.byte 255 // (bad)
.byte 255,105,255 // ljmp *-0x1(%rcx)
.byte 255 // (bad)
@@ -17873,7 +17887,7 @@ HIDDEN _sk_clamp_1_hsw
.globl _sk_clamp_1_hsw
FUNCTION(_sk_clamp_1_hsw)
_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,138,157,2,0 // vbroadcastss 0x29d8a(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,38,158,2,0 // vbroadcastss 0x29e26(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -17885,7 +17899,7 @@ HIDDEN _sk_clamp_a_hsw
.globl _sk_clamp_a_hsw
FUNCTION(_sk_clamp_a_hsw)
_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,105,157,2,0 // vbroadcastss 0x29d69(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,5,158,2,0 // vbroadcastss 0x29e05(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -17897,7 +17911,7 @@ HIDDEN _sk_clamp_a_dst_hsw
.globl _sk_clamp_a_dst_hsw
FUNCTION(_sk_clamp_a_dst_hsw)
_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,75,157,2,0 // vbroadcastss 0x29d4b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,231,157,2,0 // vbroadcastss 0x29de7(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -17930,7 +17944,7 @@ HIDDEN _sk_invert_hsw
.globl _sk_invert_hsw
FUNCTION(_sk_invert_hsw)
_sk_invert_hsw:
- .byte 196,98,125,24,5,6,157,2,0 // vbroadcastss 0x29d06(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,162,157,2,0 // vbroadcastss 0x29da2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -17986,7 +18000,7 @@ FUNCTION(_sk_unpremul_hsw)
_sk_unpremul_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,150,156,2,0 // vbroadcastss 0x29c96(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,50,157,2,0 // vbroadcastss 0x29d32(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -17999,16 +18013,16 @@ HIDDEN _sk_from_srgb_hsw
.globl _sk_from_srgb_hsw
FUNCTION(_sk_from_srgb_hsw)
_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,163,156,2,0 // vbroadcastss 0x29ca3(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,63,157,2,0 // vbroadcastss 0x29d3f(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,149,156,2,0 // vbroadcastss 0x29c95(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,37,120,156,2,0 // vbroadcastss 0x29c78(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,49,157,2,0 // vbroadcastss 0x29d31(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,37,20,157,2,0 // vbroadcastss 0x29d14(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,125,156,2,0 // vbroadcastss 0x29c7d(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,25,157,2,0 // vbroadcastss 0x29d19(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,115,156,2,0 // vbroadcastss 0x29c73(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,15,157,2,0 // vbroadcastss 0x29d0f(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
.byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -18031,16 +18045,16 @@ HIDDEN _sk_from_srgb_dst_hsw
.globl _sk_from_srgb_dst_hsw
FUNCTION(_sk_from_srgb_dst_hsw)
_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,11,156,2,0 // vbroadcastss 0x29c0b(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,167,156,2,0 // vbroadcastss 0x29ca7(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,253,155,2,0 // vbroadcastss 0x29bfd(%rip),%ymm11 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
- .byte 196,98,125,24,37,224,155,2,0 // vbroadcastss 0x29be0(%rip),%ymm12 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,153,156,2,0 // vbroadcastss 0x29c99(%rip),%ymm11 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,37,124,156,2,0 // vbroadcastss 0x29c7c(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,229,155,2,0 // vbroadcastss 0x29be5(%rip),%ymm14 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,53,129,156,2,0 // vbroadcastss 0x29c81(%rip),%ymm14 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,219,155,2,0 // vbroadcastss 0x29bdb(%rip),%ymm10 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,21,119,156,2,0 // vbroadcastss 0x29c77(%rip),%ymm10 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
.byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -18064,19 +18078,19 @@ HIDDEN _sk_to_srgb_hsw
FUNCTION(_sk_to_srgb_hsw)
_sk_to_srgb_hsw:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,127,155,2,0 // vbroadcastss 0x29b7f(%rip),%ymm8 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,5,27,156,2,0 // vbroadcastss 0x29c1b(%rip),%ymm8 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,117,155,2,0 // vbroadcastss 0x29b75(%rip),%ymm11 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
- .byte 196,98,125,24,37,112,155,2,0 // vbroadcastss 0x29b70(%rip),%ymm12 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,17,156,2,0 // vbroadcastss 0x29c11(%rip),%ymm11 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,37,12,156,2,0 // vbroadcastss 0x29c0c(%rip),%ymm12 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
.byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,145,156,2,0 // vbroadcastss 0x29c91(%rip),%ymm14 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,98,125,24,53,45,157,2,0 // vbroadcastss 0x29d2d(%rip),%ymm14 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,135,156,2,0 // vbroadcastss 0x29c87(%rip),%ymm15 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,125,24,61,35,157,2,0 // vbroadcastss 0x29d23(%rip),%ymm15 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,67,155,2,0 // vbroadcastss 0x29b43(%rip),%ymm13 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,45,223,155,2,0 // vbroadcastss 0x29bdf(%rip),%ymm13 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -18110,26 +18124,26 @@ _sk_rgb_to_hsl_hsw:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,94,154,2,0 // vbroadcastss 0x29a5e(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,250,154,2,0 // vbroadcastss 0x29afa(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,159,154,2,0 // vbroadcastss 0x29a9f(%rip),%ymm14 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,53,59,155,2,0 // vbroadcastss 0x29b3b(%rip),%ymm14 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
.byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
.byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
.byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
.byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,134,154,2,0 // vbroadcastss 0x29a86(%rip),%ymm14 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,53,34,155,2,0 // vbroadcastss 0x29b22(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,116,154,2,0 // vbroadcastss 0x29a74(%rip),%ymm14 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,53,16,155,2,0 // vbroadcastss 0x29b10(%rip),%ymm14 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
.byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
.byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,235,153,2,0 // vbroadcastss 0x299eb(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,135,154,2,0 // vbroadcastss 0x29a87(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
.byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
.byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
@@ -18139,7 +18153,7 @@ _sk_rgb_to_hsl_hsw:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
.byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,26,154,2,0 // vbroadcastss 0x29a1a(%rip),%ymm8 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,5,182,154,2,0 // vbroadcastss 0x29ab6(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18156,30 +18170,30 @@ _sk_hsl_to_rgb_hsw:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,119,153,2,0 // vbroadcastss 0x29977(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,19,154,2,0 // vbroadcastss 0x29a13(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
.byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
.byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,182,153,2,0 // vbroadcastss 0x299b6(%rip),%ymm9 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,13,82,154,2,0 // vbroadcastss 0x29a52(%rip),%ymm9 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,180,153,2,0 // vbroadcastss 0x299b4(%rip),%ymm11 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,80,154,2,0 // vbroadcastss 0x29a50(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,134,153,2,0 // vbroadcastss 0x29986(%rip),%ymm13 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,45,34,154,2,0 // vbroadcastss 0x29a22(%rip),%ymm13 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,128,153,2,0 // vbroadcastss 0x29980(%rip),%ymm14 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,53,28,154,2,0 // vbroadcastss 0x29a1c(%rip),%ymm14 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
.byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,122,153,2,0 // vbroadcastss 0x2997a(%rip),%ymm3 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,29,22,154,2,0 // vbroadcastss 0x29a16(%rip),%ymm3 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
.byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
.byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
.byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,81,153,2,0 // vbroadcastss 0x29951(%rip),%ymm12 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,37,237,153,2,0 // vbroadcastss 0x299ed(%rip),%ymm12 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
.byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
.byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
@@ -18195,7 +18209,7 @@ _sk_hsl_to_rgb_hsw:
.byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
.byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
.byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,5,153,2,0 // vbroadcastss 0x29905(%rip),%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,5,161,153,2,0 // vbroadcastss 0x299a1(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
.byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
@@ -18247,12 +18261,12 @@ _sk_scale_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9162 <_sk_scale_u8_hsw+0x52>
+ .byte 117,58 // jne 9186 <_sk_scale_u8_hsw+0x52>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,106,153,2,0 // vpand 0x2996a(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,6,154,2,0 // vpand 0x29a06(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,51,152,2,0 // vbroadcastss 0x29833(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,207,152,2,0 // vbroadcastss 0x298cf(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -18265,15 +18279,15 @@ _sk_scale_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,183 // ja 912e <_sk_scale_u8_hsw+0x1e>
+ .byte 119,183 // ja 9152 <_sk_scale_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 91fc <_sk_scale_u8_hsw+0xec>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 9220 <_sk_scale_u8_hsw+0xec>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,152 // jmp 912e <_sk_scale_u8_hsw+0x1e>
+ .byte 235,152 // jmp 9152 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18281,7 +18295,7 @@ _sk_scale_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,111,255,255,255 // jmpq 912e <_sk_scale_u8_hsw+0x1e>
+ .byte 233,111,255,255,255 // jmpq 9152 <_sk_scale_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18292,7 +18306,7 @@ _sk_scale_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,51,255,255,255 // jmpq 912e <_sk_scale_u8_hsw+0x1e>
+ .byte 233,51,255,255,255 // jmpq 9152 <_sk_scale_u8_hsw+0x1e>
.byte 144 // nop
.byte 143 // (bad)
.byte 255 // (bad)
@@ -18301,7 +18315,7 @@ _sk_scale_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00920c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd7190>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf009230 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd70f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -18324,23 +18338,23 @@ _sk_scale_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne 92d8 <_sk_scale_565_hsw+0xc0>
+ .byte 15,133,161,0,0,0 // jne 92fc <_sk_scale_565_hsw+0xc0>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,53,151,2,0 // vpbroadcastd 0x29735(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,88,13,209,151,2,0 // vpbroadcastd 0x297d1(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,38,151,2,0 // vbroadcastss 0x29726(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,194,151,2,0 // vbroadcastss 0x297c2(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,28,151,2,0 // vpbroadcastd 0x2971c(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,88,21,184,151,2,0 // vpbroadcastd 0x297b8(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,13,151,2,0 // vbroadcastss 0x2970d(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,169,151,2,0 // vbroadcastss 0x297a9(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,3,151,2,0 // vpbroadcastd 0x29703(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,88,29,159,151,2,0 // vpbroadcastd 0x2979f(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,244,150,2,0 // vbroadcastss 0x296f4(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,29,144,151,2,0 // vbroadcastss 0x29790(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18359,27 +18373,27 @@ _sk_scale_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,76,255,255,255 // ja 923d <_sk_scale_565_hsw+0x25>
+ .byte 15,135,76,255,255,255 // ja 9261 <_sk_scale_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9360 <_sk_scale_565_hsw+0x148>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9384 <_sk_scale_565_hsw+0x148>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,42,255,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
+ .byte 233,42,255,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,12,255,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
+ .byte 233,12,255,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,222,254,255,255 // jmpq 923d <_sk_scale_565_hsw+0x25>
+ .byte 233,222,254,255,255 // jmpq 9261 <_sk_scale_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18429,12 +18443,12 @@ _sk_lerp_u8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne 9411 <_sk_lerp_u8_hsw+0x66>
+ .byte 117,78 // jne 9435 <_sk_lerp_u8_hsw+0x66>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,207,150,2,0 // vpand 0x296cf(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,107,151,2,0 // vpand 0x2976b(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,152,149,2,0 // vbroadcastss 0x29598(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,52,150,2,0 // vbroadcastss 0x29634(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
@@ -18451,15 +18465,15 @@ _sk_lerp_u8_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,163 // ja 93c9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 119,163 // ja 93ed <_sk_lerp_u8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 94ac <_sk_lerp_u8_hsw+0x101>
+ .byte 76,141,21,123,0,0,0 // lea 0x7b(%rip),%r10 # 94d0 <_sk_lerp_u8_hsw+0x101>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,132 // jmp 93c9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 235,132 // jmp 93ed <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -18467,7 +18481,7 @@ _sk_lerp_u8_hsw:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,91,255,255,255 // jmpq 93c9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,91,255,255,255 // jmpq 93ed <_sk_lerp_u8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -18478,7 +18492,7 @@ _sk_lerp_u8_hsw:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,31,255,255,255 // jmpq 93c9 <_sk_lerp_u8_hsw+0x1e>
+ .byte 233,31,255,255,255 // jmpq 93ed <_sk_lerp_u8_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 142,255 // mov %edi,%?
.byte 255 // (bad)
@@ -18486,7 +18500,7 @@ _sk_lerp_u8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde0094bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd7440>
+ .byte 232,255,255,255,221 // callq ffffffffde0094e0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd73a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -18509,23 +18523,23 @@ _sk_lerp_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne 959c <_sk_lerp_565_hsw+0xd4>
+ .byte 15,133,181,0,0,0 // jne 95c0 <_sk_lerp_565_hsw+0xd4>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,133,148,2,0 // vpbroadcastd 0x29485(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,88,13,33,149,2,0 // vpbroadcastd 0x29521(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,118,148,2,0 // vbroadcastss 0x29476(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,18,149,2,0 // vbroadcastss 0x29512(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,108,148,2,0 // vpbroadcastd 0x2946c(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,88,21,8,149,2,0 // vpbroadcastd 0x29508(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,93,148,2,0 // vbroadcastss 0x2945d(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,249,148,2,0 // vbroadcastss 0x294f9(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,83,148,2,0 // vpbroadcastd 0x29453(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,88,29,239,148,2,0 // vpbroadcastd 0x294ef(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,68,148,2,0 // vbroadcastss 0x29444(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,29,224,148,2,0 // vbroadcastss 0x294e0(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -18548,27 +18562,27 @@ _sk_lerp_565_hsw:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,56,255,255,255 // ja 94ed <_sk_lerp_565_hsw+0x25>
+ .byte 15,135,56,255,255,255 // ja 9511 <_sk_lerp_565_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9624 <_sk_lerp_565_hsw+0x15c>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 9648 <_sk_lerp_565_hsw+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,22,255,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
+ .byte 233,22,255,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,248,254,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,202,254,255,255 // jmpq 94ed <_sk_lerp_565_hsw+0x25>
+ .byte 233,202,254,255,255 // jmpq 9511 <_sk_lerp_565_hsw+0x25>
.byte 144 // nop
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -18597,9 +18611,9 @@ _sk_load_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne 96be <_sk_load_tables_hsw+0x7e>
+ .byte 117,116 // jne 96e2 <_sk_load_tables_hsw+0x7e>
.byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,200,141,2,0 // vpand 0x28dc8(%rip),%ymm3,%ymm1 # 32420 <_sk_srcover_rgba_8888_sse2_lowp+0x3a4>
+ .byte 197,229,219,13,100,142,2,0 // vpand 0x28e64(%rip),%ymm3,%ymm1 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3a0>
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 76,139,72,16 // mov 0x10(%rax),%r9
@@ -18607,16 +18621,16 @@ _sk_load_tables_hsw:
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
.byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,191,141,2,0 // vpshufb 0x28dbf(%rip),%ymm3,%ymm9 # 32440 <_sk_srcover_rgba_8888_sse2_lowp+0x3c4>
+ .byte 196,98,101,0,13,91,142,2,0 // vpshufb 0x28e5b(%rip),%ymm3,%ymm9 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x3c0>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
.byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
.byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,195,141,2,0 // vpshufb 0x28dc3(%rip),%ymm3,%ymm9 # 32460 <_sk_srcover_rgba_8888_sse2_lowp+0x3e4>
+ .byte 196,98,101,0,13,95,142,2,0 // vpshufb 0x28e5f(%rip),%ymm3,%ymm9 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x3e0>
.byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,199,146,2,0 // vbroadcastss 0x292c7(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,99,147,2,0 // vbroadcastss 0x29363(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -18625,21 +18639,21 @@ _sk_load_tables_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja 9650 <_sk_load_tables_hsw+0x10>
+ .byte 15,135,122,255,255,255 // ja 9674 <_sk_load_tables_hsw+0x10>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 976c <_sk_load_tables_hsw+0x12c>
+ .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # 9790 <_sk_load_tables_hsw+0x12c>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
+ .byte 233,90,255,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
+ .byte 233,51,255,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -18652,8 +18666,8 @@ _sk_load_tables_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq 9650 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg 976d <_sk_load_tables_hsw+0x12d>
+ .byte 233,228,254,255,255 // jmpq 9674 <_sk_load_tables_hsw+0x10>
+ .byte 127,255 // jg 9791 <_sk_load_tables_hsw+0x12d>
.byte 255 // (bad)
.byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
.byte 255 // (bad)
@@ -18681,7 +18695,7 @@ _sk_load_tables_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne 9875 <_sk_load_tables_u16_be_hsw+0xed>
+ .byte 15,133,215,0,0,0 // jne 9899 <_sk_load_tables_u16_be_hsw+0xed>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -18697,7 +18711,7 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
.byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
.byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,176,146,2,0 // vmovdqa 0x292b0(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,29,76,147,2,0 // vmovdqa 0x2934c(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
.byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
.byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
@@ -18722,36 +18736,36 @@ _sk_load_tables_u16_be_hsw:
.byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,44,145,2,0 // vbroadcastss 0x2912c(%rip),%ymm8 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,5,200,145,2,0 // vbroadcastss 0x291c8(%rip),%ymm8 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 98db <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 116,85 // je 98ff <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 98db <_sk_load_tables_u16_be_hsw+0x153>
+ .byte 114,72 // jb 98ff <_sk_load_tables_u16_be_hsw+0x153>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 98e8 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 116,72 // je 990c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 98e8 <_sk_load_tables_u16_be_hsw+0x160>
+ .byte 114,59 // jb 990c <_sk_load_tables_u16_be_hsw+0x160>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je 97b9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,132,251,254,255,255 // je 97dd <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb 97b9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 15,130,234,254,255,255 // jb 97dd <_sk_load_tables_u16_be_hsw+0x31>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,222,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,209,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq 97b9 <_sk_load_tables_u16_be_hsw+0x31>
+ .byte 233,200,254,255,255 // jmpq 97dd <_sk_load_tables_u16_be_hsw+0x31>
HIDDEN _sk_load_tables_rgb_u16_be_hsw
.globl _sk_load_tables_rgb_u16_be_hsw
@@ -18761,7 +18775,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne 99d1 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
+ .byte 15,133,206,0,0,0 // jne 99f5 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -18782,7 +18796,7 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
.byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,48,145,2,0 // vmovdqa 0x29130(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,111,29,204,145,2,0 // vmovdqa 0x291cc(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
.byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
.byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
@@ -18802,76 +18816,76 @@ _sk_load_tables_rgb_u16_be_hsw:
.byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
.byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,57,143,2,0 // vbroadcastss 0x28f39(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,213,143,2,0 // vbroadcastss 0x28fd5(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 9a09 <_sk_load_tables_rgb_u16_be_hsw+0x118>
+ .byte 117,31 // jne 9a2d <_sk_load_tables_rgb_u16_be_hsw+0x118>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,47,255,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 9a53 <_sk_load_tables_rgb_u16_be_hsw+0x162>
+ .byte 114,48 // jb 9a77 <_sk_load_tables_rgb_u16_be_hsw+0x162>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 9a6d <_sk_load_tables_rgb_u16_be_hsw+0x17c>
+ .byte 117,48 // jne 9a91 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,229,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,203,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 9aae <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
+ .byte 114,39 // jb 9ad2 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 9abf <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
+ .byte 117,30 // jne 9ae3 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,138,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,121,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 9af2 <_sk_load_tables_rgb_u16_be_hsw+0x201>
+ .byte 114,25 // jb 9b16 <_sk_load_tables_rgb_u16_be_hsw+0x201>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,70,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 9938 <_sk_load_tables_rgb_u16_be_hsw+0x47>
+ .byte 233,61,254,255,255 // jmpq 995c <_sk_load_tables_rgb_u16_be_hsw+0x47>
HIDDEN _sk_byte_tables_hsw
.globl _sk_byte_tables_hsw
FUNCTION(_sk_byte_tables_hsw)
_sk_byte_tables_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,46,142,2,0 // vbroadcastss 0x28e2e(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,202,142,2,0 // vbroadcastss 0x28eca(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -19001,7 +19015,7 @@ _sk_byte_tables_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,252,139,2,0 // vbroadcastss 0x28bfc(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,152,140,2,0 // vbroadcastss 0x28c98(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19123,7 +19137,7 @@ _sk_byte_tables_rgb_hsw:
.byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
.byte 196,194,125,49,193 // vpmovzxbd %xmm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,208,137,2,0 // vbroadcastss 0x289d0(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,108,138,2,0 // vbroadcastss 0x28a6c(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
@@ -19226,33 +19240,33 @@ _sk_parametric_r_hsw:
.byte 196,66,125,168,211 // vfmadd213ps %ymm11,%ymm0,%ymm10
.byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,182,136,2,0 // vbroadcastss 0x288b6(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,98,125,24,45,177,136,2,0 // vbroadcastss 0x288b1(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,82,137,2,0 // vbroadcastss 0x28952(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,77,137,2,0 // vbroadcastss 0x2894d(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,7,136,2,0 // vbroadcastss 0x28807(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,45,163,136,2,0 // vbroadcastss 0x288a3(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,153,136,2,0 // vbroadcastss 0x28899(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,53,137,2,0 // vbroadcastss 0x28935(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,143,136,2,0 // vbroadcastss 0x2888f(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,43,137,2,0 // vbroadcastss 0x2892b(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,133,136,2,0 // vbroadcastss 0x28885(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,33,137,2,0 // vbroadcastss 0x28921(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,123,136,2,0 // vbroadcastss 0x2887b(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,23,137,2,0 // vbroadcastss 0x28917(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,92,136,2,0 // vbroadcastss 0x2885c(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,248,136,2,0 // vbroadcastss 0x288f8(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,82,136,2,0 // vbroadcastss 0x28852(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,238,136,2,0 // vbroadcastss 0x288ee(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,98,45,172,216 // vfnmadd213ps %ymm0,%ymm10,%ymm11
- .byte 196,226,125,24,5,72,136,2,0 // vbroadcastss 0x28848(%rip),%ymm0 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,5,228,136,2,0 // vbroadcastss 0x288e4(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,62,136,2,0 // vbroadcastss 0x2883e(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,218,136,2,0 // vbroadcastss 0x288da(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,172,94,192 // vdivps %ymm0,%ymm10,%ymm0
.byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,21,49,136,2,0 // vbroadcastss 0x28831(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,205,136,2,0 // vbroadcastss 0x288cd(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19260,7 +19274,7 @@ _sk_parametric_r_hsw:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,73,135,2,0 // vbroadcastss 0x28749(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,229,135,2,0 // vbroadcastss 0x287e5(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19280,33 +19294,33 @@ _sk_parametric_g_hsw:
.byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
.byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,145,135,2,0 // vbroadcastss 0x28791(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,98,125,24,45,140,135,2,0 // vbroadcastss 0x2878c(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,45,136,2,0 // vbroadcastss 0x2882d(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,40,136,2,0 // vbroadcastss 0x28828(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,226,134,2,0 // vbroadcastss 0x286e2(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,45,126,135,2,0 // vbroadcastss 0x2877e(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,116,135,2,0 // vbroadcastss 0x28774(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,16,136,2,0 // vbroadcastss 0x28810(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,106,135,2,0 // vbroadcastss 0x2876a(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,6,136,2,0 // vbroadcastss 0x28806(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,96,135,2,0 // vbroadcastss 0x28760(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,252,135,2,0 // vbroadcastss 0x287fc(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,86,135,2,0 // vbroadcastss 0x28756(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,242,135,2,0 // vbroadcastss 0x287f2(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,55,135,2,0 // vbroadcastss 0x28737(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,211,135,2,0 // vbroadcastss 0x287d3(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,45,135,2,0 // vbroadcastss 0x2872d(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,201,135,2,0 // vbroadcastss 0x287c9(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,98,45,172,217 // vfnmadd213ps %ymm1,%ymm10,%ymm11
- .byte 196,226,125,24,13,35,135,2,0 // vbroadcastss 0x28723(%rip),%ymm1 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,191,135,2,0 // vbroadcastss 0x287bf(%rip),%ymm1 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,25,135,2,0 // vbroadcastss 0x28719(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,181,135,2,0 // vbroadcastss 0x287b5(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,98,125,24,21,12,135,2,0 // vbroadcastss 0x2870c(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,168,135,2,0 // vbroadcastss 0x287a8(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19314,7 +19328,7 @@ _sk_parametric_g_hsw:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,36,134,2,0 // vbroadcastss 0x28624(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,192,134,2,0 // vbroadcastss 0x286c0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19334,33 +19348,33 @@ _sk_parametric_b_hsw:
.byte 196,66,109,168,211 // vfmadd213ps %ymm11,%ymm2,%ymm10
.byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,108,134,2,0 // vbroadcastss 0x2866c(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,98,125,24,45,103,134,2,0 // vbroadcastss 0x28667(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,8,135,2,0 // vbroadcastss 0x28708(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,3,135,2,0 // vbroadcastss 0x28703(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,189,133,2,0 // vbroadcastss 0x285bd(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,45,89,134,2,0 // vbroadcastss 0x28659(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,79,134,2,0 // vbroadcastss 0x2864f(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,235,134,2,0 // vbroadcastss 0x286eb(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,69,134,2,0 // vbroadcastss 0x28645(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,225,134,2,0 // vbroadcastss 0x286e1(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,59,134,2,0 // vbroadcastss 0x2863b(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,215,134,2,0 // vbroadcastss 0x286d7(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,49,134,2,0 // vbroadcastss 0x28631(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,205,134,2,0 // vbroadcastss 0x286cd(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,18,134,2,0 // vbroadcastss 0x28612(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,174,134,2,0 // vbroadcastss 0x286ae(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,8,134,2,0 // vbroadcastss 0x28608(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,164,134,2,0 // vbroadcastss 0x286a4(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,98,45,172,218 // vfnmadd213ps %ymm2,%ymm10,%ymm11
- .byte 196,226,125,24,21,254,133,2,0 // vbroadcastss 0x285fe(%rip),%ymm2 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,21,154,134,2,0 // vbroadcastss 0x2869a(%rip),%ymm2 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,108,92,210 // vsubps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,244,133,2,0 // vbroadcastss 0x285f4(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,144,134,2,0 // vbroadcastss 0x28690(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,172,94,210 // vdivps %ymm2,%ymm10,%ymm2
.byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,98,125,24,21,231,133,2,0 // vbroadcastss 0x285e7(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,131,134,2,0 // vbroadcastss 0x28683(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19368,7 +19382,7 @@ _sk_parametric_b_hsw:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,255,132,2,0 // vbroadcastss 0x284ff(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,155,133,2,0 // vbroadcastss 0x2859b(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19388,33 +19402,33 @@ _sk_parametric_a_hsw:
.byte 196,66,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm10
.byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
.byte 196,65,124,91,218 // vcvtdq2ps %ymm10,%ymm11
- .byte 196,98,125,24,37,71,133,2,0 // vbroadcastss 0x28547(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,98,125,24,45,66,133,2,0 // vbroadcastss 0x28542(%rip),%ymm13 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,227,133,2,0 // vbroadcastss 0x285e3(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,45,222,133,2,0 // vbroadcastss 0x285de(%rip),%ymm13 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,65,44,84,213 // vandps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,152,132,2,0 // vbroadcastss 0x28498(%rip),%ymm13 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,45,52,133,2,0 // vbroadcastss 0x28534(%rip),%ymm13 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,86,213 // vorps %ymm13,%ymm10,%ymm10
- .byte 196,98,125,24,45,42,133,2,0 // vbroadcastss 0x2852a(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,198,133,2,0 // vbroadcastss 0x285c6(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,37,184,236 // vfmadd231ps %ymm12,%ymm11,%ymm13
- .byte 196,98,125,24,29,32,133,2,0 // vbroadcastss 0x28520(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,188,133,2,0 // vbroadcastss 0x285bc(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,45,172,221 // vfnmadd213ps %ymm13,%ymm10,%ymm11
- .byte 196,98,125,24,37,22,133,2,0 // vbroadcastss 0x28516(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,178,133,2,0 // vbroadcastss 0x285b2(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,12,133,2,0 // vbroadcastss 0x2850c(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,168,133,2,0 // vbroadcastss 0x285a8(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,28,94,210 // vdivps %ymm10,%ymm12,%ymm10
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,237,132,2,0 // vbroadcastss 0x284ed(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,137,133,2,0 // vbroadcastss 0x28589(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,227,132,2,0 // vbroadcastss 0x284e3(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,127,133,2,0 // vbroadcastss 0x2857f(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,98,45,172,219 // vfnmadd213ps %ymm3,%ymm10,%ymm11
- .byte 196,226,125,24,29,217,132,2,0 // vbroadcastss 0x284d9(%rip),%ymm3 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,29,117,133,2,0 // vbroadcastss 0x28575(%rip),%ymm3 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,193,100,92,218 // vsubps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,207,132,2,0 // vbroadcastss 0x284cf(%rip),%ymm10 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,21,107,133,2,0 // vbroadcastss 0x2856b(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,172,94,219 // vdivps %ymm3,%ymm10,%ymm3
.byte 197,164,88,219 // vaddps %ymm3,%ymm11,%ymm3
- .byte 196,98,125,24,21,194,132,2,0 // vbroadcastss 0x284c2(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,94,133,2,0 // vbroadcastss 0x2855e(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -19422,7 +19436,7 @@ _sk_parametric_a_hsw:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,218,131,2,0 // vbroadcastss 0x283da(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,118,132,2,0 // vbroadcastss 0x28476(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19441,35 +19455,35 @@ _sk_gamma_hsw:
.byte 197,252,40,241 // vmovaps %ymm1,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,45,132,2,0 // vbroadcastss 0x2842d(%rip),%ymm11 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
- .byte 196,226,125,24,45,40,132,2,0 // vbroadcastss 0x28428(%rip),%ymm5 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,29,201,132,2,0 // vbroadcastss 0x284c9(%rip),%ymm11 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,226,125,24,45,196,132,2,0 // vbroadcastss 0x284c4(%rip),%ymm5 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 197,124,84,205 // vandps %ymm5,%ymm0,%ymm9
- .byte 196,226,125,24,37,127,131,2,0 // vbroadcastss 0x2837f(%rip),%ymm4 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,37,27,132,2,0 // vbroadcastss 0x2841b(%rip),%ymm4 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,52,86,228 // vorps %ymm4,%ymm9,%ymm12
- .byte 196,98,125,24,45,18,132,2,0 // vbroadcastss 0x28412(%rip),%ymm13 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,45,174,132,2,0 // vbroadcastss 0x284ae(%rip),%ymm13 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 196,98,125,24,13,8,132,2,0 // vbroadcastss 0x28408(%rip),%ymm9 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,13,164,132,2,0 // vbroadcastss 0x284a4(%rip),%ymm9 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,66,29,188,209 // vfnmadd231ps %ymm9,%ymm12,%ymm10
.byte 197,124,91,246 // vcvtdq2ps %ymm6,%ymm14
.byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
.byte 197,124,91,255 // vcvtdq2ps %ymm7,%ymm15
.byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,98,125,24,29,236,131,2,0 // vbroadcastss 0x283ec(%rip),%ymm11 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,29,136,132,2,0 // vbroadcastss 0x28488(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,65,28,88,227 // vaddps %ymm11,%ymm12,%ymm12
- .byte 196,98,125,24,45,226,131,2,0 // vbroadcastss 0x283e2(%rip),%ymm13 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,45,126,132,2,0 // vbroadcastss 0x2847e(%rip),%ymm13 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
.byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
.byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
.byte 196,67,125,8,194,1 // vroundps $0x1,%ymm10,%ymm8
.byte 196,65,44,92,192 // vsubps %ymm8,%ymm10,%ymm8
- .byte 196,226,125,24,21,190,131,2,0 // vbroadcastss 0x283be(%rip),%ymm2 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,226,125,24,21,90,132,2,0 // vbroadcastss 0x2845a(%rip),%ymm2 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 197,44,88,210 // vaddps %ymm2,%ymm10,%ymm10
- .byte 196,226,125,24,29,181,131,2,0 // vbroadcastss 0x283b5(%rip),%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,29,81,132,2,0 // vbroadcastss 0x28451(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,98,61,188,211 // vfnmadd231ps %ymm3,%ymm8,%ymm10
- .byte 196,226,125,24,13,171,131,2,0 // vbroadcastss 0x283ab(%rip),%ymm1 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,13,71,132,2,0 // vbroadcastss 0x28447(%rip),%ymm1 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,5,161,131,2,0 // vbroadcastss 0x283a1(%rip),%ymm0 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,5,61,132,2,0 // vbroadcastss 0x2843d(%rip),%ymm0 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,124,94,192 // vdivps %ymm8,%ymm0,%ymm8
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 197,204,84,245 // vandps %ymm5,%ymm6,%ymm6
@@ -19500,7 +19514,7 @@ _sk_gamma_hsw:
.byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
.byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
.byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 196,226,125,24,13,18,131,2,0 // vbroadcastss 0x28312(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,13,174,131,2,0 // vbroadcastss 0x283ae(%rip),%ymm1 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,188,89,209 // vmulps %ymm1,%ymm8,%ymm2
.byte 197,204,89,217 // vmulps %ymm1,%ymm6,%ymm3
.byte 197,252,89,225 // vmulps %ymm1,%ymm0,%ymm4
@@ -19520,26 +19534,26 @@ HIDDEN _sk_lab_to_xyz_hsw
.globl _sk_lab_to_xyz_hsw
FUNCTION(_sk_lab_to_xyz_hsw)
_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,208,130,2,0 // vbroadcastss 0x282d0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
- .byte 196,98,125,24,13,51,130,2,0 // vbroadcastss 0x28233(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,125,24,21,194,130,2,0 // vbroadcastss 0x282c2(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,5,108,131,2,0 // vbroadcastss 0x2836c(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,13,207,130,2,0 // vbroadcastss 0x282cf(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,21,94,131,2,0 // vbroadcastss 0x2835e(%rip),%ymm10 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
.byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,179,130,2,0 // vbroadcastss 0x282b3(%rip),%ymm9 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,13,79,131,2,0 // vbroadcastss 0x2834f(%rip),%ymm9 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,169,130,2,0 // vbroadcastss 0x282a9(%rip),%ymm0 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,226,125,24,5,69,131,2,0 // vbroadcastss 0x28345(%rip),%ymm0 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,160,130,2,0 // vbroadcastss 0x282a0(%rip),%ymm8 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,5,60,131,2,0 // vbroadcastss 0x2833c(%rip),%ymm8 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,150,130,2,0 // vbroadcastss 0x28296(%rip),%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,13,50,131,2,0 // vbroadcastss 0x28332(%rip),%ymm9 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
.byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,131,130,2,0 // vbroadcastss 0x28283(%rip),%ymm2 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,226,125,24,21,31,131,2,0 // vbroadcastss 0x2831f(%rip),%ymm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,121,130,2,0 // vbroadcastss 0x28279(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,29,21,131,2,0 // vbroadcastss 0x28315(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,111,130,2,0 // vbroadcastss 0x2826f(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,37,11,131,2,0 // vbroadcastss 0x2830b(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
.byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -19554,9 +19568,9 @@ _sk_lab_to_xyz_hsw:
.byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
.byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,36,130,2,0 // vbroadcastss 0x28224(%rip),%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,226,125,24,5,192,130,2,0 // vbroadcastss 0x282c0(%rip),%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,27,130,2,0 // vbroadcastss 0x2821b(%rip),%ymm8 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,5,183,130,2,0 // vbroadcastss 0x282b7(%rip),%ymm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19572,12 +19586,12 @@ _sk_load_a8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a82a <_sk_load_a8_hsw+0x4c>
+ .byte 117,52 // jne a84e <_sk_load_a8_hsw+0x4c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,156,130,2,0 // vpand 0x2829c(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,56,131,2,0 // vpand 0x28338(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,102,129,2,0 // vbroadcastss 0x28166(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,2,130,2,0 // vbroadcastss 0x28202(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19589,15 +19603,15 @@ _sk_load_a8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a7fc <_sk_load_a8_hsw+0x1e>
+ .byte 119,190 // ja a820 <_sk_load_a8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a8c0 <_sk_load_a8_hsw+0xe2>
+ .byte 76,141,21,119,0,0,0 // lea 0x77(%rip),%r10 # a8e4 <_sk_load_a8_hsw+0xe2>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,159 // jmp a7fc <_sk_load_a8_hsw+0x1e>
+ .byte 235,159 // jmp a820 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19605,7 +19619,7 @@ _sk_load_a8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,119,255,255,255 // jmpq a7fc <_sk_load_a8_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a820 <_sk_load_a8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19616,7 +19630,7 @@ _sk_load_a8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,60,255,255,255 // jmpq a7fc <_sk_load_a8_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a820 <_sk_load_a8_hsw+0x1e>
.byte 146 // xchg %eax,%edx
.byte 255 // (bad)
.byte 255 // (bad)
@@ -19648,12 +19662,12 @@ _sk_load_a8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne a928 <_sk_load_a8_dst_hsw+0x4c>
+ .byte 117,52 // jne a94c <_sk_load_a8_dst_hsw+0x4c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,158,129,2,0 // vpand 0x2819e(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,58,130,2,0 // vpand 0x2823a(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,104,128,2,0 // vbroadcastss 0x28068(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,45,4,129,2,0 // vbroadcastss 0x28104(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -19665,15 +19679,15 @@ _sk_load_a8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,190 // ja a8fa <_sk_load_a8_dst_hsw+0x1e>
+ .byte 119,190 // ja a91e <_sk_load_a8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # a9c0 <_sk_load_a8_dst_hsw+0xe4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # a9e4 <_sk_load_a8_dst_hsw+0xe4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,159 // jmp a8fa <_sk_load_a8_dst_hsw+0x1e>
+ .byte 235,159 // jmp a91e <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19681,7 +19695,7 @@ _sk_load_a8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,119,255,255,255 // jmpq a8fa <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,119,255,255,255 // jmpq a91e <_sk_load_a8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19692,7 +19706,7 @@ _sk_load_a8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,60,255,255,255 // jmpq a8fa <_sk_load_a8_dst_hsw+0x1e>
+ .byte 233,60,255,255,255 // jmpq a91e <_sk_load_a8_dst_hsw+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -19701,7 +19715,7 @@ _sk_load_a8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00a9d0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd8954>
+ .byte 232,255,255,255,221 // callq ffffffffde00a9f4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfd88b4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -19768,7 +19782,7 @@ _sk_gather_a8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,175,126,2,0 // vbroadcastss 0x27eaf(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,75,127,2,0 // vbroadcastss 0x27f4b(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -19790,14 +19804,14 @@ _sk_store_a8_hsw:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,48,126,2,0 // vbroadcastss 0x27e30(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,204,126,2,0 // vbroadcastss 0x27ecc(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne ab2c <_sk_store_a8_hsw+0x44>
+ .byte 117,10 // jne ab50 <_sk_store_a8_hsw+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -19805,25 +19819,25 @@ _sk_store_a8_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja ab28 <_sk_store_a8_hsw+0x40>
+ .byte 119,236 // ja ab4c <_sk_store_a8_hsw+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # aba4 <_sk_store_a8_hsw+0xbc>
+ .byte 76,141,21,88,0,0,0 // lea 0x58(%rip),%r10 # abc8 <_sk_store_a8_hsw+0xbc>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp ab28 <_sk_store_a8_hsw+0x40>
+ .byte 235,202 // jmp ab4c <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,65,127,2,0 // vpshufb 0x27f41(%rip),%xmm8,%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 196,98,57,0,5,221,127,2,0 // vpshufb 0x27fdd(%rip),%xmm8,%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp ab28 <_sk_store_a8_hsw+0x40>
+ .byte 235,176 // jmp ab4c <_sk_store_a8_hsw+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,39,127,2,0 // vpshufb 0x27f27(%rip),%xmm8,%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 196,98,57,0,5,195,127,2,0 // vpshufb 0x27fc3(%rip),%xmm8,%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp ab28 <_sk_store_a8_hsw+0x40>
+ .byte 235,135 // jmp ab4c <_sk_store_a8_hsw+0x40>
.byte 15,31,0 // nopl (%rax)
.byte 177,255 // mov $0xff,%cl
.byte 255 // (bad)
@@ -19856,15 +19870,15 @@ _sk_load_g8_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ac11 <_sk_load_g8_hsw+0x51>
+ .byte 117,57 // jne ac35 <_sk_load_g8_hsw+0x51>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,186,126,2,0 // vpand 0x27eba(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,86,127,2,0 // vpand 0x27f56(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,132,125,2,0 // vbroadcastss 0x27d84(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,32,126,2,0 // vbroadcastss 0x27e20(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,1,125,2,0 // vbroadcastss 0x27d01(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,157,125,2,0 // vbroadcastss 0x27d9d(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -19873,15 +19887,15 @@ _sk_load_g8_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja abde <_sk_load_g8_hsw+0x1e>
+ .byte 119,185 // ja ac02 <_sk_load_g8_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # aca8 <_sk_load_g8_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # accc <_sk_load_g8_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,154 // jmp abde <_sk_load_g8_hsw+0x1e>
+ .byte 235,154 // jmp ac02 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -19889,7 +19903,7 @@ _sk_load_g8_hsw:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,114,255,255,255 // jmpq abde <_sk_load_g8_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ac02 <_sk_load_g8_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -19900,7 +19914,7 @@ _sk_load_g8_hsw:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,55,255,255,255 // jmpq abde <_sk_load_g8_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ac02 <_sk_load_g8_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19909,7 +19923,7 @@ _sk_load_g8_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00acb8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8c3c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00acdc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8b9c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -19931,15 +19945,15 @@ _sk_load_g8_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne ad15 <_sk_load_g8_dst_hsw+0x51>
+ .byte 117,57 // jne ad39 <_sk_load_g8_dst_hsw+0x51>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,182,125,2,0 // vpand 0x27db6(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,82,126,2,0 // vpand 0x27e52(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,128,124,2,0 // vbroadcastss 0x27c80(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,45,28,125,2,0 // vbroadcastss 0x27d1c(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,253,123,2,0 // vbroadcastss 0x27bfd(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,153,124,2,0 // vbroadcastss 0x27c99(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -19948,15 +19962,15 @@ _sk_load_g8_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,185 // ja ace2 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 119,185 // ja ad06 <_sk_load_g8_dst_hsw+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # adac <_sk_load_g8_dst_hsw+0xe8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # add0 <_sk_load_g8_dst_hsw+0xe8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,154 // jmp ace2 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 235,154 // jmp ad06 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -19964,7 +19978,7 @@ _sk_load_g8_dst_hsw:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,114,255,255,255 // jmpq ace2 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,114,255,255,255 // jmpq ad06 <_sk_load_g8_dst_hsw+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -19975,7 +19989,7 @@ _sk_load_g8_dst_hsw:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,55,255,255,255 // jmpq ace2 <_sk_load_g8_dst_hsw+0x1e>
+ .byte 233,55,255,255,255 // jmpq ad06 <_sk_load_g8_dst_hsw+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -19984,7 +19998,7 @@ _sk_load_g8_dst_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00adbc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8d40>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf00ade0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefd8ca0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -20051,10 +20065,10 @@ _sk_gather_g8_hsw:
.byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,195,122,2,0 // vbroadcastss 0x27ac3(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,95,123,2,0 // vbroadcastss 0x27b5f(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,64,122,2,0 // vbroadcastss 0x27a40(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,220,122,2,0 // vbroadcastss 0x27adc(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -20075,53 +20089,53 @@ _sk_load_565_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne af66 <_sk_load_565_hsw+0x8d>
+ .byte 117,114 // jne af8a <_sk_load_565_hsw+0x8d>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,120,122,2,0 // vpbroadcastd 0x27a78(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,88,5,20,123,2,0 // vpbroadcastd 0x27b14(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,107,122,2,0 // vbroadcastss 0x27a6b(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,7,123,2,0 // vbroadcastss 0x27b07(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,98,122,2,0 // vpbroadcastd 0x27a62(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,88,13,254,122,2,0 // vpbroadcastd 0x27afe(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,85,122,2,0 // vbroadcastss 0x27a55(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,241,122,2,0 // vbroadcastss 0x27af1(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,76,122,2,0 // vpbroadcastd 0x27a4c(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,88,29,232,122,2,0 // vpbroadcastd 0x27ae8(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,63,122,2,0 // vbroadcastss 0x27a3f(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,29,219,122,2,0 // vbroadcastss 0x27adb(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,164,121,2,0 // vbroadcastss 0x279a4(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,64,122,2,0 // vbroadcastss 0x27a40(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja aefa <_sk_load_565_hsw+0x21>
+ .byte 119,128 // ja af1e <_sk_load_565_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # afe8 <_sk_load_565_hsw+0x10f>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # b00c <_sk_load_565_hsw+0x10f>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,94,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,20,255,255,255 // jmpq aefa <_sk_load_565_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq af1e <_sk_load_565_hsw+0x21>
.byte 102,144 // xchg %ax,%ax
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
@@ -20154,53 +20168,53 @@ _sk_load_565_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne b091 <_sk_load_565_dst_hsw+0x8d>
+ .byte 117,114 // jne b0b5 <_sk_load_565_dst_hsw+0x8d>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,77,121,2,0 // vpbroadcastd 0x2794d(%rip),%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,88,37,233,121,2,0 // vpbroadcastd 0x279e9(%rip),%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,64,121,2,0 // vbroadcastss 0x27940(%rip),%ymm5 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,45,220,121,2,0 // vbroadcastss 0x279dc(%rip),%ymm5 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,55,121,2,0 // vpbroadcastd 0x27937(%rip),%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,88,45,211,121,2,0 // vpbroadcastd 0x279d3(%rip),%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,42,121,2,0 // vbroadcastss 0x2792a(%rip),%ymm7 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,61,198,121,2,0 // vbroadcastss 0x279c6(%rip),%ymm7 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,33,121,2,0 // vpbroadcastd 0x27921(%rip),%ymm7 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,88,61,189,121,2,0 // vpbroadcastd 0x279bd(%rip),%ymm7 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,20,121,2,0 // vbroadcastss 0x27914(%rip),%ymm7 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,61,176,121,2,0 // vbroadcastss 0x279b0(%rip),%ymm7 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,121,120,2,0 // vbroadcastss 0x27879(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,21,121,2,0 // vbroadcastss 0x27915(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,128 // ja b025 <_sk_load_565_dst_hsw+0x21>
+ .byte 119,128 // ja b049 <_sk_load_565_dst_hsw+0x21>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b114 <_sk_load_565_dst_hsw+0x110>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b138 <_sk_load_565_dst_hsw+0x110>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,94,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,94,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,65,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,20,255,255,255 // jmpq b025 <_sk_load_565_dst_hsw+0x21>
+ .byte 233,20,255,255,255 // jmpq b049 <_sk_load_565_dst_hsw+0x21>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20279,23 +20293,23 @@ _sk_gather_565_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,104,119,2,0 // vpbroadcastd 0x27768(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,88,5,4,120,2,0 // vpbroadcastd 0x27804(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,91,119,2,0 // vbroadcastss 0x2775b(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,247,119,2,0 // vbroadcastss 0x277f7(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,82,119,2,0 // vpbroadcastd 0x27752(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,88,13,238,119,2,0 // vpbroadcastd 0x277ee(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,69,119,2,0 // vbroadcastss 0x27745(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,225,119,2,0 // vbroadcastss 0x277e1(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,60,119,2,0 // vpbroadcastd 0x2773c(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,88,29,216,119,2,0 // vpbroadcastd 0x277d8(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,47,119,2,0 // vbroadcastss 0x2772f(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,29,203,119,2,0 // vbroadcastss 0x277cb(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,148,118,2,0 // vbroadcastss 0x27694(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,48,119,2,0 // vbroadcastss 0x27730(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -20313,11 +20327,11 @@ _sk_store_565_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,88,119,2,0 // vbroadcastss 0x27758(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,5,244,119,2,0 // vbroadcastss 0x277f4(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 196,98,125,24,21,67,119,2,0 // vbroadcastss 0x27743(%rip),%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,21,223,119,2,0 // vbroadcastss 0x277df(%rip),%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,45,114,242,5 // vpslld $0x5,%ymm10,%ymm10
@@ -20328,7 +20342,7 @@ _sk_store_565_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b2f3 <_sk_store_565_hsw+0x76>
+ .byte 117,10 // jne b317 <_sk_store_565_hsw+0x76>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20336,22 +20350,22 @@ _sk_store_565_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b2ef <_sk_store_565_hsw+0x72>
+ .byte 119,236 // ja b313 <_sk_store_565_hsw+0x72>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b350 <_sk_store_565_hsw+0xd3>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b374 <_sk_store_565_hsw+0xd3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b2ef <_sk_store_565_hsw+0x72>
+ .byte 235,207 // jmp b313 <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b2ef <_sk_store_565_hsw+0x72>
+ .byte 235,191 // jmp b313 <_sk_store_565_hsw+0x72>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b2ef <_sk_store_565_hsw+0x72>
+ .byte 235,159 // jmp b313 <_sk_store_565_hsw+0x72>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20369,7 +20383,7 @@ _sk_store_565_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b368 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd92ec>
+ .byte 232,255,255,255,224 // callq ffffffffe100b38c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd924c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20386,28 +20400,28 @@ _sk_load_4444_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b415 <_sk_load_4444_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b439 <_sk_load_4444_hsw+0xa9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,93,118,2,0 // vpbroadcastd 0x2765d(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,88,5,249,118,2,0 // vpbroadcastd 0x276f9(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,80,118,2,0 // vbroadcastss 0x27650(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,236,118,2,0 // vbroadcastss 0x276ec(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,71,118,2,0 // vpbroadcastd 0x27647(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,88,13,227,118,2,0 // vpbroadcastd 0x276e3(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,58,118,2,0 // vbroadcastss 0x2763a(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,214,118,2,0 // vbroadcastss 0x276d6(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,49,118,2,0 // vpbroadcastd 0x27631(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,88,21,205,118,2,0 // vpbroadcastd 0x276cd(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,36,118,2,0 // vbroadcastss 0x27624(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,192,118,2,0 // vbroadcastss 0x276c0(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,26,118,2,0 // vpbroadcastd 0x2761a(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,88,5,182,118,2,0 // vpbroadcastd 0x276b6(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,12,118,2,0 // vbroadcastss 0x2760c(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,168,118,2,0 // vbroadcastss 0x276a8(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20416,27 +20430,27 @@ _sk_load_4444_hsw:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b391 <_sk_load_4444_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b3b5 <_sk_load_4444_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b49c <_sk_load_4444_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b4c0 <_sk_load_4444_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,66,255,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,37,255,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,248,254,255,255 // jmpq b391 <_sk_load_4444_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b3b5 <_sk_load_4444_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20472,28 +20486,28 @@ _sk_load_4444_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne b561 <_sk_load_4444_dst_hsw+0xa9>
+ .byte 15,133,138,0,0,0 // jne b585 <_sk_load_4444_dst_hsw+0xa9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,17,117,2,0 // vpbroadcastd 0x27511(%rip),%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,88,37,173,117,2,0 // vpbroadcastd 0x275ad(%rip),%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,4,117,2,0 // vbroadcastss 0x27504(%rip),%ymm5 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,45,160,117,2,0 // vbroadcastss 0x275a0(%rip),%ymm5 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,251,116,2,0 // vpbroadcastd 0x274fb(%rip),%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,88,45,151,117,2,0 // vpbroadcastd 0x27597(%rip),%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,238,116,2,0 // vbroadcastss 0x274ee(%rip),%ymm6 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,53,138,117,2,0 // vbroadcastss 0x2758a(%rip),%ymm6 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,229,116,2,0 // vpbroadcastd 0x274e5(%rip),%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,88,53,129,117,2,0 // vpbroadcastd 0x27581(%rip),%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,216,116,2,0 // vbroadcastss 0x274d8(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,116,117,2,0 // vbroadcastss 0x27574(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,206,116,2,0 // vpbroadcastd 0x274ce(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,88,5,106,117,2,0 // vpbroadcastd 0x2756a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,192,116,2,0 // vbroadcastss 0x274c0(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,92,117,2,0 // vbroadcastss 0x2755c(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20502,27 +20516,27 @@ _sk_load_4444_dst_hsw:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,100,255,255,255 // ja b4dd <_sk_load_4444_dst_hsw+0x25>
+ .byte 15,135,100,255,255,255 // ja b501 <_sk_load_4444_dst_hsw+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b5e8 <_sk_load_4444_dst_hsw+0x130>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # b60c <_sk_load_4444_dst_hsw+0x130>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,66,255,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,66,255,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,37,255,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,37,255,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,248,254,255,255 // jmpq b4dd <_sk_load_4444_dst_hsw+0x25>
+ .byte 233,248,254,255,255 // jmpq b501 <_sk_load_4444_dst_hsw+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -20601,25 +20615,25 @@ _sk_gather_4444_hsw:
.byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
.byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
.byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,16,115,2,0 // vpbroadcastd 0x27310(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,88,5,172,115,2,0 // vpbroadcastd 0x273ac(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,3,115,2,0 // vbroadcastss 0x27303(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,159,115,2,0 // vbroadcastss 0x2739f(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,250,114,2,0 // vpbroadcastd 0x272fa(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,88,13,150,115,2,0 // vpbroadcastd 0x27396(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,237,114,2,0 // vbroadcastss 0x272ed(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,137,115,2,0 // vbroadcastss 0x27389(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,228,114,2,0 // vpbroadcastd 0x272e4(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,88,21,128,115,2,0 // vpbroadcastd 0x27380(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,215,114,2,0 // vbroadcastss 0x272d7(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,115,115,2,0 // vbroadcastss 0x27373(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,205,114,2,0 // vpbroadcastd 0x272cd(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,88,5,105,115,2,0 // vpbroadcastd 0x27369(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,191,114,2,0 // vbroadcastss 0x272bf(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,91,115,2,0 // vbroadcastss 0x2735b(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -20639,7 +20653,7 @@ _sk_store_4444_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,148,114,2,0 // vbroadcastss 0x27294(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,48,115,2,0 // vbroadcastss 0x27330(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
@@ -20657,7 +20671,7 @@ _sk_store_4444_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne b7eb <_sk_store_4444_hsw+0x82>
+ .byte 117,10 // jne b80f <_sk_store_4444_hsw+0x82>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20665,22 +20679,22 @@ _sk_store_4444_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja b7e7 <_sk_store_4444_hsw+0x7e>
+ .byte 119,236 // ja b80b <_sk_store_4444_hsw+0x7e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b848 <_sk_store_4444_hsw+0xdf>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # b86c <_sk_store_4444_hsw+0xdf>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
+ .byte 235,207 // jmp b80b <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
+ .byte 235,191 // jmp b80b <_sk_store_4444_hsw+0x7e>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp b7e7 <_sk_store_4444_hsw+0x7e>
+ .byte 235,159 // jmp b80b <_sk_store_4444_hsw+0x7e>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20698,7 +20712,7 @@ _sk_store_4444_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100b860 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd97e4>
+ .byte 232,255,255,255,224 // callq ffffffffe100b884 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fd9744>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -20715,16 +20729,16 @@ _sk_load_8888_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne b8d6 <_sk_load_8888_hsw+0x72>
+ .byte 117,86 // jne b8fa <_sk_load_8888_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,242,107,2,0 // vpand 0x26bf2(%rip),%ymm3,%ymm0 # 32480 <_sk_srcover_rgba_8888_sse2_lowp+0x404>
+ .byte 197,229,219,5,142,108,2,0 // vpand 0x26c8e(%rip),%ymm3,%ymm0 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x400>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,225,112,2,0 // vbroadcastss 0x270e1(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,125,113,2,0 // vbroadcastss 0x2717d(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,247,107,2,0 // vpshufb 0x26bf7(%rip),%ymm3,%ymm1 # 324a0 <_sk_srcover_rgba_8888_sse2_lowp+0x424>
+ .byte 196,226,101,0,13,147,108,2,0 // vpshufb 0x26c93(%rip),%ymm3,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x420>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,5,108,2,0 // vpshufb 0x26c05(%rip),%ymm3,%ymm2 # 324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x444>
+ .byte 196,226,101,0,21,161,108,2,0 // vpshufb 0x26ca1(%rip),%ymm3,%ymm2 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x440>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -20737,21 +20751,21 @@ _sk_load_8888_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja b886 <_sk_load_8888_hsw+0x22>
+ .byte 119,156 // ja b8aa <_sk_load_8888_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b97c <_sk_load_8888_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # b9a0 <_sk_load_8888_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp b886 <_sk_load_8888_hsw+0x22>
+ .byte 235,128 // jmp b8aa <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq b886 <_sk_load_8888_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b8aa <_sk_load_8888_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -20764,7 +20778,7 @@ _sk_load_8888_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq b886 <_sk_load_8888_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b8aa <_sk_load_8888_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20798,16 +20812,16 @@ _sk_load_8888_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne ba0a <_sk_load_8888_dst_hsw+0x72>
+ .byte 117,86 // jne ba2e <_sk_load_8888_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,30,107,2,0 // vpand 0x26b1e(%rip),%ymm7,%ymm4 # 324e0 <_sk_srcover_rgba_8888_sse2_lowp+0x464>
+ .byte 197,197,219,37,186,107,2,0 // vpand 0x26bba(%rip),%ymm7,%ymm4 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x460>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,173,111,2,0 // vbroadcastss 0x26fad(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,73,112,2,0 // vbroadcastss 0x27049(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,35,107,2,0 // vpshufb 0x26b23(%rip),%ymm7,%ymm5 # 32500 <_sk_srcover_rgba_8888_sse2_lowp+0x484>
+ .byte 196,226,69,0,45,191,107,2,0 // vpshufb 0x26bbf(%rip),%ymm7,%ymm5 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x480>
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
.byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,49,107,2,0 // vpshufb 0x26b31(%rip),%ymm7,%ymm6 # 32520 <_sk_srcover_rgba_8888_sse2_lowp+0x4a4>
+ .byte 196,226,69,0,53,205,107,2,0 // vpshufb 0x26bcd(%rip),%ymm7,%ymm6 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x4a0>
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -20820,21 +20834,21 @@ _sk_load_8888_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja b9ba <_sk_load_8888_dst_hsw+0x22>
+ .byte 119,156 // ja b9de <_sk_load_8888_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bab0 <_sk_load_8888_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bad4 <_sk_load_8888_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp b9ba <_sk_load_8888_dst_hsw+0x22>
+ .byte 235,128 // jmp b9de <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq b9ba <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq b9de <_sk_load_8888_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -20847,7 +20861,7 @@ _sk_load_8888_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq b9ba <_sk_load_8888_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq b9de <_sk_load_8888_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -20891,14 +20905,14 @@ _sk_gather_8888_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,29,106,2,0 // vpand 0x26a1d(%rip),%ymm8,%ymm0 # 32540 <_sk_srcover_rgba_8888_sse2_lowp+0x4c4>
+ .byte 197,189,219,5,185,106,2,0 // vpand 0x26ab9(%rip),%ymm8,%ymm0 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x4c0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,76,110,2,0 // vbroadcastss 0x26e4c(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,29,232,110,2,0 // vbroadcastss 0x26ee8(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,35,106,2,0 // vpshufb 0x26a23(%rip),%ymm8,%ymm1 # 32560 <_sk_srcover_rgba_8888_sse2_lowp+0x4e4>
+ .byte 196,226,61,0,13,191,106,2,0 // vpshufb 0x26abf(%rip),%ymm8,%ymm1 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x4e0>
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,50,106,2,0 // vpshufb 0x26a32(%rip),%ymm8,%ymm2 # 32580 <_sk_srcover_rgba_8888_sse2_lowp+0x504>
+ .byte 196,226,61,0,21,206,106,2,0 // vpshufb 0x26ace(%rip),%ymm8,%ymm2 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x500>
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -20918,7 +20932,7 @@ _sk_store_8888_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,171,109,2,0 // vbroadcastss 0x26dab(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,71,110,2,0 // vbroadcastss 0x26e47(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -20934,7 +20948,7 @@ _sk_store_8888_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bbe1 <_sk_store_8888_hsw+0x78>
+ .byte 117,10 // jne bc05 <_sk_store_8888_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -20942,17 +20956,17 @@ _sk_store_8888_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bbdd <_sk_store_8888_hsw+0x74>
+ .byte 119,236 // ja bc01 <_sk_store_8888_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bc50 <_sk_store_8888_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # bc74 <_sk_store_8888_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp bbdd <_sk_store_8888_hsw+0x74>
+ .byte 235,208 // jmp bc01 <_sk_store_8888_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp bbdd <_sk_store_8888_hsw+0x74>
+ .byte 235,192 // jmp bc01 <_sk_store_8888_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -20960,7 +20974,7 @@ _sk_store_8888_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp bbdd <_sk_store_8888_hsw+0x74>
+ .byte 235,143 // jmp bc01 <_sk_store_8888_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -20972,7 +20986,7 @@ _sk_store_8888_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00bc64 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9be8>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00bc88 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9b48>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -20992,16 +21006,16 @@ _sk_load_bgra_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne bcde <_sk_load_bgra_hsw+0x72>
+ .byte 117,86 // jne bd02 <_sk_load_bgra_hsw+0x72>
.byte 196,129,126,111,28,152 // vmovdqu (%r8,%r11,4),%ymm3
- .byte 197,229,219,5,10,105,2,0 // vpand 0x2690a(%rip),%ymm3,%ymm0 # 325a0 <_sk_srcover_rgba_8888_sse2_lowp+0x524>
+ .byte 197,229,219,5,166,105,2,0 // vpand 0x269a6(%rip),%ymm3,%ymm0 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x520>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,217,108,2,0 // vbroadcastss 0x26cd9(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,117,109,2,0 // vbroadcastss 0x26d75(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,15,105,2,0 // vpshufb 0x2690f(%rip),%ymm3,%ymm0 # 325c0 <_sk_srcover_rgba_8888_sse2_lowp+0x544>
+ .byte 196,226,101,0,5,171,105,2,0 // vpshufb 0x269ab(%rip),%ymm3,%ymm0 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x540>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,29,105,2,0 // vpshufb 0x2691d(%rip),%ymm3,%ymm0 # 325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x564>
+ .byte 196,226,101,0,5,185,105,2,0 // vpshufb 0x269b9(%rip),%ymm3,%ymm0 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x560>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
@@ -21014,21 +21028,21 @@ _sk_load_bgra_hsw:
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bc8e <_sk_load_bgra_hsw+0x22>
+ .byte 119,156 // ja bcb2 <_sk_load_bgra_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bd84 <_sk_load_bgra_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bda8 <_sk_load_bgra_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,28,152 // vmovd (%r8,%r11,4),%xmm3
- .byte 235,128 // jmp bc8e <_sk_load_bgra_hsw+0x22>
+ .byte 235,128 // jmp bcb2 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
.byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
.byte 196,129,122,126,4,152 // vmovq (%r8,%r11,4),%xmm0
.byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,89,255,255,255 // jmpq bc8e <_sk_load_bgra_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bcb2 <_sk_load_bgra_hsw+0x22>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -21041,7 +21055,7 @@ _sk_load_bgra_hsw:
.byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
.byte 196,129,122,111,4,152 // vmovdqu (%r8,%r11,4),%xmm0
.byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,10,255,255,255 // jmpq bc8e <_sk_load_bgra_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bcb2 <_sk_load_bgra_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21075,16 +21089,16 @@ _sk_load_bgra_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne be12 <_sk_load_bgra_dst_hsw+0x72>
+ .byte 117,86 // jne be36 <_sk_load_bgra_dst_hsw+0x72>
.byte 196,129,126,111,60,152 // vmovdqu (%r8,%r11,4),%ymm7
- .byte 197,197,219,37,54,104,2,0 // vpand 0x26836(%rip),%ymm7,%ymm4 # 32600 <_sk_srcover_rgba_8888_sse2_lowp+0x584>
+ .byte 197,197,219,37,210,104,2,0 // vpand 0x268d2(%rip),%ymm7,%ymm4 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x580>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,165,107,2,0 // vbroadcastss 0x26ba5(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,65,108,2,0 // vbroadcastss 0x26c41(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,59,104,2,0 // vpshufb 0x2683b(%rip),%ymm7,%ymm4 # 32620 <_sk_srcover_rgba_8888_sse2_lowp+0x5a4>
+ .byte 196,226,69,0,37,215,104,2,0 // vpshufb 0x268d7(%rip),%ymm7,%ymm4 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x5a0>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,73,104,2,0 // vpshufb 0x26849(%rip),%ymm7,%ymm4 # 32640 <_sk_srcover_rgba_8888_sse2_lowp+0x5c4>
+ .byte 196,226,69,0,37,229,104,2,0 // vpshufb 0x268e5(%rip),%ymm7,%ymm4 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x5c0>
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
@@ -21097,21 +21111,21 @@ _sk_load_bgra_dst_hsw:
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,156 // ja bdc2 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 119,156 // ja bde6 <_sk_load_bgra_dst_hsw+0x22>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # beb8 <_sk_load_bgra_dst_hsw+0x118>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # bedc <_sk_load_bgra_dst_hsw+0x118>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,129,121,110,60,152 // vmovd (%r8,%r11,4),%xmm7
- .byte 235,128 // jmp bdc2 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 235,128 // jmp bde6 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
.byte 196,129,122,126,36,152 // vmovq (%r8,%r11,4),%xmm4
.byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,89,255,255,255 // jmpq bdc2 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,89,255,255,255 // jmpq bde6 <_sk_load_bgra_dst_hsw+0x22>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -21124,7 +21138,7 @@ _sk_load_bgra_dst_hsw:
.byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
.byte 196,129,122,111,36,152 // vmovdqu (%r8,%r11,4),%xmm4
.byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,10,255,255,255 // jmpq bdc2 <_sk_load_bgra_dst_hsw+0x22>
+ .byte 233,10,255,255,255 // jmpq bde6 <_sk_load_bgra_dst_hsw+0x22>
.byte 130 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21168,14 +21182,14 @@ _sk_gather_bgra_hsw:
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
.byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
.byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,53,103,2,0 // vpand 0x26735(%rip),%ymm8,%ymm0 # 32660 <_sk_srcover_rgba_8888_sse2_lowp+0x5e4>
+ .byte 197,189,219,5,209,103,2,0 // vpand 0x267d1(%rip),%ymm8,%ymm0 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x5e0>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,68,106,2,0 // vbroadcastss 0x26a44(%rip),%ymm3 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,29,224,106,2,0 // vbroadcastss 0x26ae0(%rip),%ymm3 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,59,103,2,0 // vpshufb 0x2673b(%rip),%ymm8,%ymm0 # 32680 <_sk_srcover_rgba_8888_sse2_lowp+0x604>
+ .byte 196,226,61,0,5,215,103,2,0 // vpshufb 0x267d7(%rip),%ymm8,%ymm0 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x600>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,74,103,2,0 // vpshufb 0x2674a(%rip),%ymm8,%ymm0 # 326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x624>
+ .byte 196,226,61,0,5,230,103,2,0 // vpshufb 0x267e6(%rip),%ymm8,%ymm0 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x620>
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
.byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
@@ -21195,7 +21209,7 @@ _sk_store_bgra_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,163,105,2,0 // vbroadcastss 0x269a3(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,63,106,2,0 // vbroadcastss 0x26a3f(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -21211,7 +21225,7 @@ _sk_store_bgra_hsw:
.byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bfe9 <_sk_store_bgra_hsw+0x78>
+ .byte 117,10 // jne c00d <_sk_store_bgra_hsw+0x78>
.byte 196,1,126,127,4,152 // vmovdqu %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -21219,17 +21233,17 @@ _sk_store_bgra_hsw:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja bfe5 <_sk_store_bgra_hsw+0x74>
+ .byte 119,236 // ja c009 <_sk_store_bgra_hsw+0x74>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c058 <_sk_store_bgra_hsw+0xe7>
+ .byte 76,141,21,84,0,0,0 // lea 0x54(%rip),%r10 # c07c <_sk_store_bgra_hsw+0xe7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
+ .byte 235,208 // jmp c009 <_sk_store_bgra_hsw+0x74>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
+ .byte 235,192 // jmp c009 <_sk_store_bgra_hsw+0x74>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -21237,7 +21251,7 @@ _sk_store_bgra_hsw:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,1,121,126,76,152,16 // vmovd %xmm9,0x10(%r8,%r11,4)
.byte 196,1,122,127,4,152 // vmovdqu %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp bfe5 <_sk_store_bgra_hsw+0x74>
+ .byte 235,143 // jmp c009 <_sk_store_bgra_hsw+0x74>
.byte 102,144 // xchg %ax,%ax
.byte 181,255 // mov $0xff,%ch
.byte 255 // (bad)
@@ -21249,7 +21263,7 @@ _sk_store_bgra_hsw:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00c06c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9ff0>
+ .byte 233,255,255,255,219 // jmpq ffffffffdc00c090 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdbfd9f50>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,205 // dec %ebp
@@ -21269,7 +21283,7 @@ _sk_load_f16_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c0f5 <_sk_load_f16_hsw+0x81>
+ .byte 117,101 // jne c119 <_sk_load_f16_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -21295,29 +21309,29 @@ _sk_load_f16_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c15b <_sk_load_f16_hsw+0xe7>
+ .byte 116,85 // je c17f <_sk_load_f16_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c15b <_sk_load_f16_hsw+0xe7>
+ .byte 114,72 // jb c17f <_sk_load_f16_hsw+0xe7>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c168 <_sk_load_f16_hsw+0xf4>
+ .byte 116,72 // je c18c <_sk_load_f16_hsw+0xf4>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c168 <_sk_load_f16_hsw+0xf4>
+ .byte 114,59 // jb c18c <_sk_load_f16_hsw+0xf4>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c0ab <_sk_load_f16_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c0cf <_sk_load_f16_hsw+0x37>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c0ab <_sk_load_f16_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c0cf <_sk_load_f16_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq c0ab <_sk_load_f16_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c0cf <_sk_load_f16_hsw+0x37>
HIDDEN _sk_load_f16_dst_hsw
.globl _sk_load_f16_dst_hsw
@@ -21331,7 +21345,7 @@ _sk_load_f16_dst_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne c1f2 <_sk_load_f16_dst_hsw+0x81>
+ .byte 117,101 // jne c216 <_sk_load_f16_dst_hsw+0x81>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -21357,29 +21371,29 @@ _sk_load_f16_dst_hsw:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c258 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 116,85 // je c27c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c258 <_sk_load_f16_dst_hsw+0xe7>
+ .byte 114,72 // jb c27c <_sk_load_f16_dst_hsw+0xe7>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c265 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 116,72 // je c289 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c265 <_sk_load_f16_dst_hsw+0xf4>
+ .byte 114,59 // jb c289 <_sk_load_f16_dst_hsw+0xf4>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je c1a8 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,132,109,255,255,255 // je c1cc <_sk_load_f16_dst_hsw+0x37>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb c1a8 <_sk_load_f16_dst_hsw+0x37>
+ .byte 15,130,92,255,255,255 // jb c1cc <_sk_load_f16_dst_hsw+0x37>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,80,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,80,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,67,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq c1a8 <_sk_load_f16_dst_hsw+0x37>
+ .byte 233,58,255,255,255 // jmpq c1cc <_sk_load_f16_dst_hsw+0x37>
HIDDEN _sk_gather_f16_hsw
.globl _sk_gather_f16_hsw
@@ -21452,7 +21466,7 @@ _sk_store_f16_hsw:
.byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
.byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c3a2 <_sk_store_f16_hsw+0x7b>
+ .byte 117,31 // jne c3c6 <_sk_store_f16_hsw+0x7b>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -21461,22 +21475,22 @@ _sk_store_f16_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c39e <_sk_store_f16_hsw+0x77>
+ .byte 116,240 // je c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c39e <_sk_store_f16_hsw+0x77>
+ .byte 114,227 // jb c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,218 // je c39e <_sk_store_f16_hsw+0x77>
+ .byte 116,218 // je c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c39e <_sk_store_f16_hsw+0x77>
+ .byte 114,205 // jb c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,196 // je c39e <_sk_store_f16_hsw+0x77>
+ .byte 116,196 // je c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c39e <_sk_store_f16_hsw+0x77>
+ .byte 114,183 // jb c3c2 <_sk_store_f16_hsw+0x77>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,174 // jmp c39e <_sk_store_f16_hsw+0x77>
+ .byte 235,174 // jmp c3c2 <_sk_store_f16_hsw+0x77>
HIDDEN _sk_load_u16_be_hsw
.globl _sk_load_u16_be_hsw
@@ -21491,7 +21505,7 @@ _sk_load_u16_be_hsw:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne c4e3 <_sk_load_u16_be_hsw+0xf3>
+ .byte 15,133,204,0,0,0 // jne c507 <_sk_load_u16_be_hsw+0xf3>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -21510,7 +21524,7 @@ _sk_load_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,32,101,2,0 // vbroadcastss 0x26520(%rip),%ymm10 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,21,188,101,2,0 // vbroadcastss 0x265bc(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -21538,29 +21552,29 @@ _sk_load_u16_be_hsw:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je c549 <_sk_load_u16_be_hsw+0x159>
+ .byte 116,85 // je c56d <_sk_load_u16_be_hsw+0x159>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb c549 <_sk_load_u16_be_hsw+0x159>
+ .byte 114,72 // jb c56d <_sk_load_u16_be_hsw+0x159>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je c556 <_sk_load_u16_be_hsw+0x166>
+ .byte 116,72 // je c57a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb c556 <_sk_load_u16_be_hsw+0x166>
+ .byte 114,59 // jb c57a <_sk_load_u16_be_hsw+0x166>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je c432 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,132,6,255,255,255 // je c456 <_sk_load_u16_be_hsw+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb c432 <_sk_load_u16_be_hsw+0x42>
+ .byte 15,130,245,254,255,255 // jb c456 <_sk_load_u16_be_hsw+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,233,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,233,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,220,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq c432 <_sk_load_u16_be_hsw+0x42>
+ .byte 233,211,254,255,255 // jmpq c456 <_sk_load_u16_be_hsw+0x42>
HIDDEN _sk_load_rgb_u16_be_hsw
.globl _sk_load_rgb_u16_be_hsw
@@ -21577,7 +21591,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne c657 <_sk_load_rgb_u16_be_hsw+0xf8>
+ .byte 15,133,205,0,0,0 // jne c67b <_sk_load_rgb_u16_be_hsw+0xf8>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -21602,7 +21616,7 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
.byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,143,99,2,0 // vbroadcastss 0x2638f(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,13,43,100,2,0 // vbroadcastss 0x2642b(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -21618,69 +21632,69 @@ _sk_load_rgb_u16_be_hsw:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,179,98,2,0 // vbroadcastss 0x262b3(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,79,99,2,0 // vbroadcastss 0x2634f(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne c68f <_sk_load_rgb_u16_be_hsw+0x130>
+ .byte 117,31 // jne c6b3 <_sk_load_rgb_u16_be_hsw+0x130>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,48,255,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb c6d9 <_sk_load_rgb_u16_be_hsw+0x17a>
+ .byte 114,48 // jb c6fd <_sk_load_rgb_u16_be_hsw+0x17a>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne c6f3 <_sk_load_rgb_u16_be_hsw+0x194>
+ .byte 117,48 // jne c717 <_sk_load_rgb_u16_be_hsw+0x194>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,230,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,204,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb c734 <_sk_load_rgb_u16_be_hsw+0x1d5>
+ .byte 114,39 // jb c758 <_sk_load_rgb_u16_be_hsw+0x1d5>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne c745 <_sk_load_rgb_u16_be_hsw+0x1e6>
+ .byte 117,30 // jne c769 <_sk_load_rgb_u16_be_hsw+0x1e6>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,139,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,122,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb c778 <_sk_load_rgb_u16_be_hsw+0x219>
+ .byte 114,25 // jb c79c <_sk_load_rgb_u16_be_hsw+0x219>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,71,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq c5bf <_sk_load_rgb_u16_be_hsw+0x60>
+ .byte 233,62,254,255,255 // jmpq c5e3 <_sk_load_rgb_u16_be_hsw+0x60>
HIDDEN _sk_store_u16_be_hsw
.globl _sk_store_u16_be_hsw
@@ -21694,7 +21708,7 @@ _sk_store_u16_be_hsw:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,120,98,2,0 // vbroadcastss 0x26278(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,24,5,20,99,2,0 // vbroadcastss 0x26314(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -21732,7 +21746,7 @@ _sk_store_u16_be_hsw:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne c88c <_sk_store_u16_be_hsw+0x10b>
+ .byte 117,31 // jne c8b0 <_sk_store_u16_be_hsw+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -21741,22 +21755,22 @@ _sk_store_u16_be_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,240 // je c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,227 // jb c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,218 // je c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,205 // jb c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 116,196 // je c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 114,183 // jb c8ac <_sk_store_u16_be_hsw+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp c888 <_sk_store_u16_be_hsw+0x107>
+ .byte 235,174 // jmp c8ac <_sk_store_u16_be_hsw+0x107>
HIDDEN _sk_load_f32_hsw
.globl _sk_load_f32_hsw
@@ -21765,7 +21779,7 @@ _sk_load_f32_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja ca4b <_sk_load_f32_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja ca6f <_sk_load_f32_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -21778,7 +21792,7 @@ _sk_load_f32_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # ca5c <_sk_load_f32_hsw+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # ca80 <_sk_load_f32_hsw+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -21841,7 +21855,7 @@ _sk_load_f32_hsw:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp ca25 <_sk_load_f32_hsw+0x14b>
+ .byte 235,203 // jmp ca49 <_sk_load_f32_hsw+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -21853,7 +21867,7 @@ _sk_load_f32_hsw:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900ca78 <_sk_srcover_rgba_8888_sse2_lowp+0x28fda9fc>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900ca9c <_sk_srcover_rgba_8888_sse2_lowp+0x28fda95c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -21865,7 +21879,7 @@ _sk_load_f32_dst_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja cbed <_sk_load_f32_dst_hsw+0x171>
+ .byte 15,135,97,1,0,0 // ja cc11 <_sk_load_f32_dst_hsw+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -21878,7 +21892,7 @@ _sk_load_f32_dst_hsw:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cbfc <_sk_load_f32_dst_hsw+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # cc20 <_sk_load_f32_dst_hsw+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -21941,7 +21955,7 @@ _sk_load_f32_dst_hsw:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp cbc7 <_sk_load_f32_dst_hsw+0x14b>
+ .byte 235,203 // jmp cbeb <_sk_load_f32_dst_hsw+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -21981,7 +21995,7 @@ _sk_store_f32_hsw:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne cc9b <_sk_store_f32_hsw+0x7f>
+ .byte 117,55 // jne ccbf <_sk_store_f32_hsw+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -21994,22 +22008,22 @@ _sk_store_f32_hsw:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 116,240 // je ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 114,227 // jb ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 116,218 // je ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 114,205 // jb ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 116,195 // je ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 114,181 // jb ccbb <_sk_store_f32_hsw+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp cc97 <_sk_store_f32_hsw+0x7b>
+ .byte 235,171 // jmp ccbb <_sk_store_f32_hsw+0x7b>
HIDDEN _sk_repeat_x_hsw
.globl _sk_repeat_x_hsw
@@ -22048,7 +22062,7 @@ _sk_mirror_x_hsw:
.byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,177,91,2,0 // vmulss 0x25bb1(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,5,77,92,2,0 // vmulss 0x25c4d(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
.byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
@@ -22071,7 +22085,7 @@ _sk_mirror_y_hsw:
.byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,96,91,2,0 // vmulss 0x25b60(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,13,252,91,2,0 // vmulss 0x25bfc(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
.byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
@@ -22089,7 +22103,7 @@ FUNCTION(_sk_clamp_x_1_hsw)
_sk_clamp_x_1_hsw:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,40,91,2,0 // vbroadcastss 0x25b28(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,196,91,2,0 // vbroadcastss 0x25bc4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22100,6 +22114,10 @@ FUNCTION(_sk_repeat_x_1_hsw)
_sk_repeat_x_1_hsw:
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,158,91,2,0 // vbroadcastss 0x25b9e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22107,17 +22125,20 @@ HIDDEN _sk_mirror_x_1_hsw
.globl _sk_mirror_x_1_hsw
FUNCTION(_sk_mirror_x_1_hsw)
_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,31,91,2,0 // vbroadcastss 0x25b1f(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,5,164,91,2,0 // vbroadcastss 0x25ba4(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,245,90,2,0 // vbroadcastss 0x25af5(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,122,91,2,0 // vbroadcastss 0x25b7a(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
+ .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,74,91,2,0 // vbroadcastss 0x25b4a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -22125,11 +22146,11 @@ HIDDEN _sk_luminance_to_alpha_hsw
.globl _sk_luminance_to_alpha_hsw
FUNCTION(_sk_luminance_to_alpha_hsw)
_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,229,91,2,0 // vbroadcastss 0x25be5(%rip),%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
- .byte 196,98,125,24,5,216,91,2,0 // vbroadcastss 0x25bd8(%rip),%ymm8 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,29,88,92,2,0 // vbroadcastss 0x25c58(%rip),%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,98,125,24,5,75,92,2,0 // vbroadcastss 0x25c4b(%rip),%ymm8 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,205,91,2,0 // vbroadcastss 0x25bcd(%rip),%ymm3 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,29,64,92,2,0 // vbroadcastss 0x25c40(%rip),%ymm3 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -22328,9 +22349,9 @@ _sk_evenly_spaced_gradient_hsw:
.byte 76,139,64,8 // mov 0x8(%rax),%r8
.byte 77,137,202 // mov %r9,%r10
.byte 73,255,202 // dec %r10
- .byte 120,7 // js d157 <_sk_evenly_spaced_gradient_hsw+0x18>
+ .byte 120,7 // js d1a4 <_sk_evenly_spaced_gradient_hsw+0x18>
.byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp d16d <_sk_evenly_spaced_gradient_hsw+0x2e>
+ .byte 235,22 // jmp d1ba <_sk_evenly_spaced_gradient_hsw+0x2e>
.byte 77,137,211 // mov %r10,%r11
.byte 73,209,235 // shr %r11
.byte 65,131,226,1 // and $0x1,%r10d
@@ -22341,7 +22362,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
.byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
.byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja d1c9 <_sk_evenly_spaced_gradient_hsw+0x8a>
+ .byte 119,73 // ja d216 <_sk_evenly_spaced_gradient_hsw+0x8a>
.byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
.byte 76,139,64,40 // mov 0x28(%rax),%r8
.byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
@@ -22357,7 +22378,7 @@ _sk_evenly_spaced_gradient_hsw:
.byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq d25c <_sk_evenly_spaced_gradient_hsw+0x11d>
+ .byte 233,147,0,0,0 // jmpq d2a9 <_sk_evenly_spaced_gradient_hsw+0x11d>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
@@ -22401,14 +22422,14 @@ HIDDEN _sk_gauss_a_to_rgba_hsw
.globl _sk_gauss_a_to_rgba_hsw
FUNCTION(_sk_gauss_a_to_rgba_hsw)
_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,179,87,2,0 // vbroadcastss 0x257b3(%rip),%ymm0 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
- .byte 196,226,125,24,13,166,87,2,0 // vbroadcastss 0x257a6(%rip),%ymm1 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,5,38,88,2,0 // vbroadcastss 0x25826(%rip),%ymm0 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,13,25,88,2,0 // vbroadcastss 0x25819(%rip),%ymm1 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,160,87,2,0 // vbroadcastss 0x257a0(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,5,19,88,2,0 // vbroadcastss 0x25813(%rip),%ymm0 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,150,87,2,0 // vbroadcastss 0x25796(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,125,24,13,9,88,2,0 // vbroadcastss 0x25809(%rip),%ymm1 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,140,87,2,0 // vbroadcastss 0x2578c(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,226,125,24,5,255,87,2,0 // vbroadcastss 0x257ff(%rip),%ymm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -22423,11 +22444,11 @@ _sk_gradient_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe d3b4 <_sk_gradient_hsw+0xeb>
+ .byte 15,134,220,0,0,0 // jbe d401 <_sk_gradient_hsw+0xeb>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,29,86,2,0 // vbroadcastss 0x2561d(%rip),%ymm2 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,226,125,24,21,144,86,2,0 // vbroadcastss 0x25690(%rip),%ymm2 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
.byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
.byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
@@ -22435,10 +22456,10 @@ _sk_gradient_hsw:
.byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
.byte 73,255,194 // inc %r10
.byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne d2f4 <_sk_gradient_hsw+0x2b>
+ .byte 117,227 // jne d341 <_sk_gradient_hsw+0x2b>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe d3bd <_sk_gradient_hsw+0xf4>
+ .byte 15,134,158,0,0,0 // jbe d40a <_sk_gradient_hsw+0xf4>
.byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -22470,7 +22491,7 @@ _sk_gradient_hsw:
.byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
.byte 72,139,64,64 // mov 0x40(%rax),%rax
.byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp d401 <_sk_gradient_hsw+0x138>
+ .byte 235,77 // jmp d44e <_sk_gradient_hsw+0x138>
.byte 76,139,72,8 // mov 0x8(%rax),%r9
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
@@ -22530,24 +22551,24 @@ _sk_xy_to_unit_angle_hsw:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,168,85,2,0 // vbroadcastss 0x255a8(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
- .byte 196,98,125,24,53,163,85,2,0 // vbroadcastss 0x255a3(%rip),%ymm14 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,45,27,86,2,0 // vbroadcastss 0x2561b(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,98,125,24,53,22,86,2,0 // vbroadcastss 0x25616(%rip),%ymm14 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,153,85,2,0 // vbroadcastss 0x25599(%rip),%ymm13 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,45,12,86,2,0 // vbroadcastss 0x2560c(%rip),%ymm13 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,143,85,2,0 // vbroadcastss 0x2558f(%rip),%ymm14 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,53,2,86,2,0 // vbroadcastss 0x25602(%rip),%ymm14 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
.byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,122,85,2,0 // vbroadcastss 0x2557a(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,21,237,85,2,0 // vbroadcastss 0x255ed(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,16,84,2,0 // vbroadcastss 0x25410(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,131,84,2,0 // vbroadcastss 0x25483(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,250,83,2,0 // vbroadcastss 0x253fa(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,109,84,2,0 // vbroadcastss 0x2546d(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -22575,23 +22596,23 @@ _sk_xy_to_2pt_conical_quadratic_max_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,250,84,2,0 // vbroadcastss 0x254fa(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,29,109,85,2,0 // vbroadcastss 0x2556d(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,217,84,2,0 // vbroadcastss 0x254d9(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,76,85,2,0 // vbroadcastss 0x2554c(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,188,84,2,0 // vbroadcastss 0x254bc(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,13,47,85,2,0 // vbroadcastss 0x2552f(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,77,83,2,0 // vbroadcastss 0x2534d(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,192,83,2,0 // vbroadcastss 0x253c0(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22610,23 +22631,23 @@ _sk_xy_to_2pt_conical_quadratic_min_hsw:
.byte 197,50,89,80,44 // vmulss 0x2c(%rax),%xmm9,%xmm10
.byte 196,66,125,24,210 // vbroadcastss %xmm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,98,84,2,0 // vbroadcastss 0x25462(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,29,213,84,2,0 // vbroadcastss 0x254d5(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
.byte 196,98,125,184,216 // vfmadd231ps %ymm0,%ymm0,%ymm11
.byte 196,193,50,89,193 // vmulss %xmm9,%xmm9,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,65,84,2,0 // vbroadcastss 0x25441(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,180,84,2,0 // vbroadcastss 0x254b4(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,194,45,184,194 // vfmadd231ps %ymm10,%ymm10,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,36,84,2,0 // vbroadcastss 0x25424(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,13,151,84,2,0 // vbroadcastss 0x25497(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,181,82,2,0 // vbroadcastss 0x252b5(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,40,83,2,0 // vbroadcastss 0x25328(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -22644,14 +22665,14 @@ _sk_xy_to_2pt_conical_linear_hsw:
.byte 197,58,89,72,44 // vmulss 0x2c(%rax),%xmm8,%xmm9
.byte 196,66,125,24,201 // vbroadcastss %xmm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,208,83,2,0 // vbroadcastss 0x253d0(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,21,67,84,2,0 // vbroadcastss 0x25443(%rip),%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
.byte 196,98,125,184,208 // vfmadd231ps %ymm0,%ymm0,%ymm10
.byte 196,193,58,89,192 // vmulss %xmm8,%xmm8,%xmm0
.byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,179,83,2,0 // vbroadcastss 0x253b3(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,38,84,2,0 // vbroadcastss 0x25426(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22694,7 +22715,7 @@ HIDDEN _sk_save_xy_hsw
FUNCTION(_sk_save_xy_hsw)
_sk_save_xy_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,226,81,2,0 // vbroadcastss 0x251e2(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,85,82,2,0 // vbroadcastss 0x25255(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -22728,9 +22749,9 @@ HIDDEN _sk_bilinear_nx_hsw
FUNCTION(_sk_bilinear_nx_hsw)
_sk_bilinear_nx_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,210,82,2,0 // vbroadcastss 0x252d2(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,69,83,2,0 // vbroadcastss 0x25345(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,105,81,2,0 // vbroadcastss 0x25169(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,220,81,2,0 // vbroadcastss 0x251dc(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22741,7 +22762,7 @@ HIDDEN _sk_bilinear_px_hsw
FUNCTION(_sk_bilinear_px_hsw)
_sk_bilinear_px_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,73,81,2,0 // vbroadcastss 0x25149(%rip),%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,188,81,2,0 // vbroadcastss 0x251bc(%rip),%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22753,9 +22774,9 @@ HIDDEN _sk_bilinear_ny_hsw
FUNCTION(_sk_bilinear_ny_hsw)
_sk_bilinear_ny_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,137,82,2,0 // vbroadcastss 0x25289(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,252,82,2,0 // vbroadcastss 0x252fc(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,31,81,2,0 // vbroadcastss 0x2511f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,146,81,2,0 // vbroadcastss 0x25192(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22766,7 +22787,7 @@ HIDDEN _sk_bilinear_py_hsw
FUNCTION(_sk_bilinear_py_hsw)
_sk_bilinear_py_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,255,80,2,0 // vbroadcastss 0x250ff(%rip),%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,114,81,2,0 // vbroadcastss 0x25172(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22778,13 +22799,13 @@ HIDDEN _sk_bicubic_n3x_hsw
FUNCTION(_sk_bicubic_n3x_hsw)
_sk_bicubic_n3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,66,82,2,0 // vbroadcastss 0x25242(%rip),%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,5,181,82,2,0 // vbroadcastss 0x252b5(%rip),%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,72,81,2,0 // vbroadcastss 0x25148(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,50,81,2,0 // vbroadcastss 0x25132(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 196,98,125,24,29,29,82,2,0 // vbroadcastss 0x2521d(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,165,81,2,0 // vbroadcastss 0x251a5(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,144,82,2,0 // vbroadcastss 0x25290(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22796,16 +22817,16 @@ HIDDEN _sk_bicubic_n1x_hsw
FUNCTION(_sk_bicubic_n1x_hsw)
_sk_bicubic_n1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,244,81,2,0 // vbroadcastss 0x251f4(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,103,82,2,0 // vbroadcastss 0x25267(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,139,80,2,0 // vbroadcastss 0x2508b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,254,80,2,0 // vbroadcastss 0x250fe(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,233,81,2,0 // vbroadcastss 0x251e9(%rip),%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 196,98,125,24,21,220,81,2,0 // vbroadcastss 0x251dc(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,13,92,82,2,0 // vbroadcastss 0x2525c(%rip),%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,79,82,2,0 // vbroadcastss 0x2524f(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,98,80,2,0 // vbroadcastss 0x25062(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,200,81,2,0 // vbroadcastss 0x251c8(%rip),%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,21,59,82,2,0 // vbroadcastss 0x2523b(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,128,0,0,0 // vmovups %ymm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22816,14 +22837,14 @@ HIDDEN _sk_bicubic_p1x_hsw
FUNCTION(_sk_bicubic_p1x_hsw)
_sk_bicubic_p1x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,56,80,2,0 // vbroadcastss 0x25038(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,171,80,2,0 // vbroadcastss 0x250ab(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,150,81,2,0 // vbroadcastss 0x25196(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 196,98,125,24,29,137,81,2,0 // vbroadcastss 0x25189(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,9,82,2,0 // vbroadcastss 0x25209(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,29,252,81,2,0 // vbroadcastss 0x251fc(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,126,81,2,0 // vbroadcastss 0x2517e(%rip),%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,5,241,81,2,0 // vbroadcastss 0x251f1(%rip),%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22834,12 +22855,12 @@ HIDDEN _sk_bicubic_p3x_hsw
FUNCTION(_sk_bicubic_p3x_hsw)
_sk_bicubic_p3x_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,94,81,2,0 // vbroadcastss 0x2515e(%rip),%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,226,125,24,5,209,81,2,0 // vbroadcastss 0x251d1(%rip),%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,75,80,2,0 // vbroadcastss 0x2504b(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 196,98,125,24,29,54,81,2,0 // vbroadcastss 0x25136(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,190,80,2,0 // vbroadcastss 0x250be(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,169,81,2,0 // vbroadcastss 0x251a9(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -22851,13 +22872,13 @@ HIDDEN _sk_bicubic_n3y_hsw
FUNCTION(_sk_bicubic_n3y_hsw)
_sk_bicubic_n3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,17,81,2,0 // vbroadcastss 0x25111(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,13,132,81,2,0 // vbroadcastss 0x25184(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,163,79,2,0 // vbroadcastss 0x24fa3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,22,80,2,0 // vbroadcastss 0x25016(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,0,80,2,0 // vbroadcastss 0x25000(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 196,98,125,24,29,235,80,2,0 // vbroadcastss 0x250eb(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,115,80,2,0 // vbroadcastss 0x25073(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,94,81,2,0 // vbroadcastss 0x2515e(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -22869,16 +22890,16 @@ HIDDEN _sk_bicubic_n1y_hsw
FUNCTION(_sk_bicubic_n1y_hsw)
_sk_bicubic_n1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,194,80,2,0 // vbroadcastss 0x250c2(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,53,81,2,0 // vbroadcastss 0x25135(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,88,79,2,0 // vbroadcastss 0x24f58(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,203,79,2,0 // vbroadcastss 0x24fcb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,182,80,2,0 // vbroadcastss 0x250b6(%rip),%ymm9 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 196,98,125,24,21,169,80,2,0 // vbroadcastss 0x250a9(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,13,41,81,2,0 // vbroadcastss 0x25129(%rip),%ymm9 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,28,81,2,0 // vbroadcastss 0x2511c(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,47,79,2,0 // vbroadcastss 0x24f2f(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,162,79,2,0 // vbroadcastss 0x24fa2(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,149,80,2,0 // vbroadcastss 0x25095(%rip),%ymm10 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,21,8,81,2,0 // vbroadcastss 0x25108(%rip),%ymm10 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
.byte 197,124,17,144,160,0,0,0 // vmovups %ymm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22889,14 +22910,14 @@ HIDDEN _sk_bicubic_p1y_hsw
FUNCTION(_sk_bicubic_p1y_hsw)
_sk_bicubic_p1y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,5,79,2,0 // vbroadcastss 0x24f05(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,120,79,2,0 // vbroadcastss 0x24f78(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,98,80,2,0 // vbroadcastss 0x25062(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
- .byte 196,98,125,24,29,85,80,2,0 // vbroadcastss 0x25055(%rip),%ymm11 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,213,80,2,0 // vbroadcastss 0x250d5(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,29,200,80,2,0 // vbroadcastss 0x250c8(%rip),%ymm11 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
.byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,74,80,2,0 // vbroadcastss 0x2504a(%rip),%ymm8 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,5,189,80,2,0 // vbroadcastss 0x250bd(%rip),%ymm8 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -22907,12 +22928,12 @@ HIDDEN _sk_bicubic_p3y_hsw
FUNCTION(_sk_bicubic_p3y_hsw)
_sk_bicubic_p3y_hsw:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,42,80,2,0 // vbroadcastss 0x2502a(%rip),%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,226,125,24,13,157,80,2,0 // vbroadcastss 0x2509d(%rip),%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,22,79,2,0 // vbroadcastss 0x24f16(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
- .byte 196,98,125,24,29,1,80,2,0 // vbroadcastss 0x25001(%rip),%ymm11 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,137,79,2,0 // vbroadcastss 0x24f89(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,98,125,24,29,116,80,2,0 // vbroadcastss 0x25074(%rip),%ymm11 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
.byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -23052,7 +23073,7 @@ _sk_clut_3D_hsw:
.byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
.byte 72,139,0 // mov (%rax),%rax
.byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,195,77,2,0 // vpbroadcastd 0x24dc3(%rip),%ymm15 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,88,61,54,78,2,0 // vpbroadcastd 0x24e36(%rip),%ymm15 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
.byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
@@ -23064,13 +23085,13 @@ _sk_clut_3D_hsw:
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
.byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,17,76,2,0 // vpbroadcastd 0x24c11(%rip),%ymm7 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,226,125,88,61,132,76,2,0 // vpbroadcastd 0x24c84(%rip),%ymm7 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
.byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,85,77,2,0 // vbroadcastss 0x24d55(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,226,125,24,5,200,77,2,0 // vbroadcastss 0x24dc8(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
.byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
.byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
@@ -23332,7 +23353,7 @@ _sk_clut_4D_hsw:
.byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
.byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
.byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,238,71,2,0 // vpbroadcastd 0x247ee(%rip),%ymm10 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,125,88,21,97,72,2,0 // vpbroadcastd 0x24861(%rip),%ymm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
.byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
@@ -23344,13 +23365,13 @@ _sk_clut_4D_hsw:
.byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
.byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
.byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,57,70,2,0 // vpbroadcastd 0x24639(%rip),%ymm11 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,88,29,172,70,2,0 // vpbroadcastd 0x246ac(%rip),%ymm11 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
.byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
.byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,126,71,2,0 // vbroadcastss 0x2477e(%rip),%ymm0 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,226,125,24,5,241,71,2,0 // vbroadcastss 0x247f1(%rip),%ymm0 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
.byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
.byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
@@ -23783,7 +23804,7 @@ _sk_clut_4D_hsw:
.byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
.byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,92,60,2,0 // vbroadcastss 0x23c5c(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,207,60,2,0 // vbroadcastss 0x23ccf(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
.byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
.byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
@@ -23792,7 +23813,6 @@ _sk_clut_4D_hsw:
.byte 255,224 // jmpq *%rax
.byte 144 // nop
.byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_avx
.globl _sk_start_pipeline_avx
@@ -23815,13 +23835,13 @@ _sk_start_pipeline_avx:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae eda6 <_sk_start_pipeline_avx+0xca>
+ .byte 15,131,151,0,0,0 // jae edf2 <_sk_start_pipeline_avx+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja ed68 <_sk_start_pipeline_avx+0x8c>
+ .byte 119,67 // ja edb4 <_sk_start_pipeline_avx+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -23840,10 +23860,10 @@ _sk_start_pipeline_avx:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe ed29 <_sk_start_pipeline_avx+0x4d>
+ .byte 118,193 // jbe ed75 <_sk_start_pipeline_avx+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je ed99 <_sk_start_pipeline_avx+0xbd>
+ .byte 116,41 // je ede5 <_sk_start_pipeline_avx+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -23857,7 +23877,7 @@ _sk_start_pipeline_avx:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne ed1b <_sk_start_pipeline_avx+0x3f>
+ .byte 15,133,117,255,255,255 // jne ed67 <_sk_start_pipeline_avx+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -23882,15 +23902,15 @@ _sk_seed_shader_avx:
.byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,5,236,56,2,0 // vaddps 0x238ec(%rip),%ymm0,%ymm0 # 326c0 <_sk_srcover_rgba_8888_sse2_lowp+0x644>
+ .byte 197,252,88,5,96,57,2,0 // vaddps 0x23960(%rip),%ymm0,%ymm0 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x640>
.byte 197,249,110,201 // vmovd %ecx,%xmm1
.byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,20,59,2,0 // vbroadcastss 0x23b14(%rip),%ymm2 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,21,136,59,2,0 // vbroadcastss 0x23b88(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,9,59,2,0 // vbroadcastss 0x23b09(%rip),%ymm2 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,21,125,59,2,0 // vbroadcastss 0x23b7d(%rip),%ymm2 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
@@ -23904,46 +23924,46 @@ FUNCTION(_sk_dither_avx)
_sk_dither_avx:
.byte 197,121,110,194 // vmovd %edx,%xmm8
.byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,169,60,2,0 // vpaddd 0x23ca9(%rip),%xmm8,%xmm9 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
- .byte 197,57,254,5,177,60,2,0 // vpaddd 0x23cb1(%rip),%xmm8,%xmm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0xa64>
+ .byte 197,57,254,13,29,61,2,0 // vpaddd 0x23d1d(%rip),%xmm8,%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
+ .byte 197,57,254,5,37,61,2,0 // vpaddd 0x23d25(%rip),%xmm8,%xmm8 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xa60>
.byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
.byte 197,121,110,217 // vmovd %ecx,%xmm11
.byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
.byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
.byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,185,58,2,0 // vbroadcastss 0x23ab9(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,21,45,59,2,0 // vbroadcastss 0x23b2d(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
.byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
.byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
.byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
.byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,104,68,2,0 // vmovddup 0x24468(%rip),%xmm12 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1264>
+ .byte 197,123,18,37,220,68,2,0 // vmovddup 0x244dc(%rip),%xmm12 # 333a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1260>
.byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
.byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
.byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
.byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
.byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,119,58,2,0 // vbroadcastss 0x23a77(%rip),%ymm13 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,125,24,45,235,58,2,0 // vbroadcastss 0x23aeb(%rip),%ymm13 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
.byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
.byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
.byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
.byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,38,68,2,0 // vmovddup 0x24426(%rip),%xmm14 # 332e8 <_sk_srcover_rgba_8888_sse2_lowp+0x126c>
+ .byte 197,123,18,53,154,68,2,0 // vmovddup 0x2449a(%rip),%xmm14 # 333a8 <_sk_srcover_rgba_8888_sse2_lowp+0x1268>
.byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
.byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
.byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
.byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
.byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,38,58,2,0 // vbroadcastss 0x23a26(%rip),%ymm14 # 32910 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
+ .byte 196,98,125,24,53,154,58,2,0 // vbroadcastss 0x23a9a(%rip),%ymm14 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x890>
.byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
.byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
.byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
.byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
.byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
.byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,220,67,2,0 // vmovddup 0x243dc(%rip),%xmm13 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1274>
+ .byte 197,123,18,45,80,68,2,0 // vmovddup 0x24450(%rip),%xmm13 # 333b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1270>
.byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
.byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
.byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
@@ -23954,9 +23974,9 @@ _sk_dither_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,201,57,2,0 // vbroadcastss 0x239c9(%rip),%ymm9 # 32918 <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
+ .byte 196,98,125,24,13,61,58,2,0 // vbroadcastss 0x23a3d(%rip),%ymm9 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,191,57,2,0 // vbroadcastss 0x239bf(%rip),%ymm9 # 3291c <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
+ .byte 196,98,125,24,13,51,58,2,0 // vbroadcastss 0x23a33(%rip),%ymm9 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x89c>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
@@ -23990,7 +24010,7 @@ HIDDEN _sk_black_color_avx
FUNCTION(_sk_black_color_avx)
_sk_black_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,71,57,2,0 // vbroadcastss 0x23947(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,187,57,2,0 // vbroadcastss 0x239bb(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -24001,7 +24021,7 @@ HIDDEN _sk_white_color_avx
FUNCTION(_sk_white_color_avx)
_sk_white_color_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,46,57,2,0 // vbroadcastss 0x2392e(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,162,57,2,0 // vbroadcastss 0x239a2(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
@@ -24047,7 +24067,7 @@ HIDDEN _sk_srcatop_avx
FUNCTION(_sk_srcatop_avx)
_sk_srcatop_avx:
.byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,205,56,2,0 // vbroadcastss 0x238cd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,65,57,2,0 // vbroadcastss 0x23941(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24068,7 +24088,7 @@ HIDDEN _sk_dstatop_avx
FUNCTION(_sk_dstatop_avx)
_sk_dstatop_avx:
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,139,56,2,0 // vbroadcastss 0x2388b(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,13,255,56,2,0 // vbroadcastss 0x238ff(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
@@ -24110,7 +24130,7 @@ HIDDEN _sk_srcout_avx
.globl _sk_srcout_avx
FUNCTION(_sk_srcout_avx)
_sk_srcout_avx:
- .byte 196,98,125,24,5,38,56,2,0 // vbroadcastss 0x23826(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,154,56,2,0 // vbroadcastss 0x2389a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -24123,7 +24143,7 @@ HIDDEN _sk_dstout_avx
.globl _sk_dstout_avx
FUNCTION(_sk_dstout_avx)
_sk_dstout_avx:
- .byte 196,226,125,24,5,5,56,2,0 // vbroadcastss 0x23805(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,121,56,2,0 // vbroadcastss 0x23879(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
.byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
.byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
@@ -24136,7 +24156,7 @@ HIDDEN _sk_srcover_avx
.globl _sk_srcover_avx
FUNCTION(_sk_srcover_avx)
_sk_srcover_avx:
- .byte 196,98,125,24,5,228,55,2,0 // vbroadcastss 0x237e4(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,88,56,2,0 // vbroadcastss 0x23858(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -24153,7 +24173,7 @@ HIDDEN _sk_dstover_avx
.globl _sk_dstover_avx
FUNCTION(_sk_dstover_avx)
_sk_dstover_avx:
- .byte 196,98,125,24,5,179,55,2,0 // vbroadcastss 0x237b3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,39,56,2,0 // vbroadcastss 0x23827(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
@@ -24181,7 +24201,7 @@ HIDDEN _sk_multiply_avx
.globl _sk_multiply_avx
FUNCTION(_sk_multiply_avx)
_sk_multiply_avx:
- .byte 196,98,125,24,5,110,55,2,0 // vbroadcastss 0x2376e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,226,55,2,0 // vbroadcastss 0x237e2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24212,7 +24232,7 @@ HIDDEN _sk_plus__avx
FUNCTION(_sk_plus__avx)
_sk_plus__avx:
.byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,253,54,2,0 // vbroadcastss 0x236fd(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,113,55,2,0 // vbroadcastss 0x23771(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
@@ -24246,7 +24266,7 @@ HIDDEN _sk_xor__avx
.globl _sk_xor__avx
FUNCTION(_sk_xor__avx)
_sk_xor__avx:
- .byte 196,98,125,24,5,156,54,2,0 // vbroadcastss 0x2369c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,16,55,2,0 // vbroadcastss 0x23710(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24283,7 +24303,7 @@ _sk_darken_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,24,54,2,0 // vbroadcastss 0x23618(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,140,54,2,0 // vbroadcastss 0x2368c(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24309,7 +24329,7 @@ _sk_lighten_avx:
.byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,192,53,2,0 // vbroadcastss 0x235c0(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,52,54,2,0 // vbroadcastss 0x23634(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24338,7 +24358,7 @@ _sk_difference_avx:
.byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,92,53,2,0 // vbroadcastss 0x2355c(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,208,53,2,0 // vbroadcastss 0x235d0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24361,7 +24381,7 @@ _sk_exclusion_avx:
.byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
.byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,19,53,2,0 // vbroadcastss 0x23513(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,135,53,2,0 // vbroadcastss 0x23587(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
.byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
.byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
@@ -24372,7 +24392,7 @@ HIDDEN _sk_colorburn_avx
.globl _sk_colorburn_avx
FUNCTION(_sk_colorburn_avx)
_sk_colorburn_avx:
- .byte 196,98,125,24,5,250,52,2,0 // vbroadcastss 0x234fa(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,110,53,2,0 // vbroadcastss 0x2356e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
@@ -24434,7 +24454,7 @@ HIDDEN _sk_colordodge_avx
FUNCTION(_sk_colordodge_avx)
_sk_colordodge_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,254,51,2,0 // vbroadcastss 0x233fe(%rip),%ymm9 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,13,114,52,2,0 // vbroadcastss 0x23472(%rip),%ymm9 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
.byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
.byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
@@ -24491,7 +24511,7 @@ HIDDEN _sk_hardlight_avx
.globl _sk_hardlight_avx
FUNCTION(_sk_hardlight_avx)
_sk_hardlight_avx:
- .byte 196,98,125,24,5,9,51,2,0 // vbroadcastss 0x23309(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,125,51,2,0 // vbroadcastss 0x2337d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24546,7 +24566,7 @@ HIDDEN _sk_overlay_avx
.globl _sk_overlay_avx
FUNCTION(_sk_overlay_avx)
_sk_overlay_avx:
- .byte 196,98,125,24,5,46,50,2,0 // vbroadcastss 0x2322e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,162,50,2,0 // vbroadcastss 0x232a2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
.byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24612,10 +24632,10 @@ _sk_softlight_avx:
.byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
.byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
.byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,53,49,2,0 // vbroadcastss 0x23135(%rip),%ymm11 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,29,169,49,2,0 // vbroadcastss 0x231a9(%rip),%ymm11 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
.byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,38,49,2,0 // vbroadcastss 0x23126(%rip),%ymm13 # 32924 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
+ .byte 196,98,125,24,45,154,49,2,0 // vbroadcastss 0x2319a(%rip),%ymm13 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
.byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
.byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
.byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
@@ -24626,7 +24646,7 @@ _sk_softlight_avx:
.byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
.byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
.byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,208,48,2,0 // vbroadcastss 0x230d0(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,68,49,2,0 // vbroadcastss 0x23144(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
.byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
@@ -24753,12 +24773,12 @@ _sk_hue_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,179,46,2,0 // vbroadcastss 0x22eb3(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,39,47,2,0 // vbroadcastss 0x22f27(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,169,46,2,0 // vbroadcastss 0x22ea9(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,29,47,2,0 // vbroadcastss 0x22f1d(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,154,46,2,0 // vbroadcastss 0x22e9a(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,5,14,47,2,0 // vbroadcastss 0x22f0e(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24819,7 +24839,7 @@ _sk_hue_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,71,45,2,0 // vbroadcastss 0x22d47(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,187,45,2,0 // vbroadcastss 0x22dbb(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24876,12 +24896,12 @@ _sk_saturation_avx:
.byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
.byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
.byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,113,44,2,0 // vbroadcastss 0x22c71(%rip),%ymm14 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,53,229,44,2,0 // vbroadcastss 0x22ce5(%rip),%ymm14 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,103,44,2,0 // vbroadcastss 0x22c67(%rip),%ymm15 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,61,219,44,2,0 // vbroadcastss 0x22cdb(%rip),%ymm15 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,88,44,2,0 // vbroadcastss 0x22c58(%rip),%ymm0 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,226,125,24,5,204,44,2,0 // vbroadcastss 0x22ccc(%rip),%ymm0 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
.byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
.byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
@@ -24942,7 +24962,7 @@ _sk_saturation_avx:
.byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
.byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,5,43,2,0 // vbroadcastss 0x22b05(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,121,43,2,0 // vbroadcastss 0x22b79(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
.byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
@@ -24971,12 +24991,12 @@ _sk_color_avx:
.byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
.byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
.byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,183,42,2,0 // vbroadcastss 0x22ab7(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,43,43,2,0 // vbroadcastss 0x22b2b(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,173,42,2,0 // vbroadcastss 0x22aad(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,53,33,43,2,0 // vbroadcastss 0x22b21(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,158,42,2,0 // vbroadcastss 0x22a9e(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,18,43,2,0 // vbroadcastss 0x22b12(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25039,7 +25059,7 @@ _sk_color_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,57,41,2,0 // vbroadcastss 0x22939(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,173,41,2,0 // vbroadcastss 0x229ad(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25069,12 +25089,12 @@ _sk_luminosity_avx:
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
.byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,231,40,2,0 // vbroadcastss 0x228e7(%rip),%ymm13 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,45,91,41,2,0 // vbroadcastss 0x2295b(%rip),%ymm13 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,221,40,2,0 // vbroadcastss 0x228dd(%rip),%ymm14 # 3292c <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
+ .byte 196,98,125,24,53,81,41,2,0 // vbroadcastss 0x22951(%rip),%ymm14 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
.byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,206,40,2,0 // vbroadcastss 0x228ce(%rip),%ymm15 # 32930 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,125,24,61,66,41,2,0 // vbroadcastss 0x22942(%rip),%ymm15 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x8b0>
.byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
.byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
.byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
@@ -25137,7 +25157,7 @@ _sk_luminosity_avx:
.byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
.byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
.byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,105,39,2,0 // vbroadcastss 0x22769(%rip),%ymm0 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,5,221,39,2,0 // vbroadcastss 0x227dd(%rip),%ymm0 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
@@ -25169,9 +25189,9 @@ _sk_srcover_rgba_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,42,1,0,0 // jne 10334 <_sk_srcover_rgba_8888_avx+0x14a>
+ .byte 15,133,42,1,0,0 // jne 10380 <_sk_srcover_rgba_8888_avx+0x14a>
.byte 196,1,125,16,4,152 // vmovupd (%r8,%r11,4),%ymm8
- .byte 197,125,40,13,200,36,2,0 // vmovapd 0x224c8(%rip),%ymm9 # 326e0 <_sk_srcover_rgba_8888_sse2_lowp+0x664>
+ .byte 197,125,40,13,60,37,2,0 // vmovapd 0x2253c(%rip),%ymm9 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x660>
.byte 196,193,61,84,225 // vandpd %ymm9,%ymm8,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
.byte 196,193,81,114,208,8 // vpsrld $0x8,%xmm8,%xmm5
@@ -25189,9 +25209,9 @@ _sk_srcover_rgba_8888_avx:
.byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
.byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,143,38,2,0 // vbroadcastss 0x2268f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,3,39,2,0 // vbroadcastss 0x22703(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,174,38,2,0 // vbroadcastss 0x226ae(%rip),%ymm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,13,34,39,2,0 // vbroadcastss 0x22722(%rip),%ymm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
@@ -25224,7 +25244,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,53,86,202 // vorpd %ymm10,%ymm9,%ymm9
.byte 196,65,61,86,193 // vorpd %ymm9,%ymm8,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1036c <_sk_srcover_rgba_8888_avx+0x182>
+ .byte 117,66 // jne 103b8 <_sk_srcover_rgba_8888_avx+0x182>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25233,33 +25253,33 @@ _sk_srcover_rgba_8888_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,195,254,255,255 // ja 10210 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 15,135,195,254,255,255 // ja 1025c <_sk_srcover_rgba_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 1045c <_sk_srcover_rgba_8888_avx+0x272>
+ .byte 76,141,21,4,1,0,0 // lea 0x104(%rip),%r10 # 104a8 <_sk_srcover_rgba_8888_avx+0x272>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,4,152 // vmovss (%r8,%r11,4),%xmm8
- .byte 233,164,254,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,164,254,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,180 // ja 10330 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 119,180 // ja 1037c <_sk_srcover_rgba_8888_avx+0x146>
.byte 65,15,182,193 // movzbl %r9b,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 10478 <_sk_srcover_rgba_8888_avx+0x28e>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 104c4 <_sk_srcover_rgba_8888_avx+0x28e>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,152 // jmp 10330 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 235,152 // jmp 1037c <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,196,4 // vblendps $0x4,%ymm4,%ymm5,%ymm8
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,61,13,196,1 // vblendpd $0x1,%ymm4,%ymm8,%ymm8
- .byte 233,81,254,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,81,254,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -25273,10 +25293,10 @@ _sk_srcover_rgba_8888_avx:
.byte 196,99,61,24,196,1 // vinsertf128 $0x1,%xmm4,%ymm8,%ymm8
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,192,12 // vblendpd $0xc,%ymm8,%ymm4,%ymm8
- .byte 233,252,253,255,255 // jmpq 10210 <_sk_srcover_rgba_8888_avx+0x26>
+ .byte 233,252,253,255,255 // jmpq 1025c <_sk_srcover_rgba_8888_avx+0x26>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 233,9,255,255,255 // jmpq 10330 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,9,255,255,255 // jmpq 1037c <_sk_srcover_rgba_8888_avx+0x146>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -25284,7 +25304,7 @@ _sk_srcover_rgba_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 233,213,254,255,255 // jmpq 10330 <_sk_srcover_rgba_8888_avx+0x146>
+ .byte 233,213,254,255,255 // jmpq 1037c <_sk_srcover_rgba_8888_avx+0x146>
.byte 144 // nop
.byte 5,255,255,255,82 // add $0x52ffffff,%eax
.byte 255 // (bad)
@@ -25296,7 +25316,7 @@ _sk_srcover_rgba_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 10471 <_sk_srcover_rgba_8888_avx+0x287>
+ .byte 127,255 // jg 104bd <_sk_srcover_rgba_8888_avx+0x287>
.byte 255 // (bad)
.byte 255,99,255 // jmpq *-0x1(%rbx)
.byte 255 // (bad)
@@ -25333,7 +25353,7 @@ HIDDEN _sk_clamp_1_avx
.globl _sk_clamp_1_avx
FUNCTION(_sk_clamp_1_avx)
_sk_clamp_1_avx:
- .byte 196,98,125,24,5,78,36,2,0 // vbroadcastss 0x2244e(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,194,36,2,0 // vbroadcastss 0x224c2(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
@@ -25345,7 +25365,7 @@ HIDDEN _sk_clamp_a_avx
.globl _sk_clamp_a_avx
FUNCTION(_sk_clamp_a_avx)
_sk_clamp_a_avx:
- .byte 196,98,125,24,5,45,36,2,0 // vbroadcastss 0x2242d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,161,36,2,0 // vbroadcastss 0x224a1(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
.byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
@@ -25357,7 +25377,7 @@ HIDDEN _sk_clamp_a_dst_avx
.globl _sk_clamp_a_dst_avx
FUNCTION(_sk_clamp_a_dst_avx)
_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,15,36,2,0 // vbroadcastss 0x2240f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,131,36,2,0 // vbroadcastss 0x22483(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
.byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
.byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
@@ -25390,7 +25410,7 @@ HIDDEN _sk_invert_avx
.globl _sk_invert_avx
FUNCTION(_sk_invert_avx)
_sk_invert_avx:
- .byte 196,98,125,24,5,202,35,2,0 // vbroadcastss 0x223ca(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,62,36,2,0 // vbroadcastss 0x2243e(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
.byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
.byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
@@ -25446,7 +25466,7 @@ FUNCTION(_sk_unpremul_avx)
_sk_unpremul_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,65,100,194,200,0 // vcmpeqps %ymm8,%ymm3,%ymm9
- .byte 196,98,125,24,21,90,35,2,0 // vbroadcastss 0x2235a(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,206,35,2,0 // vbroadcastss 0x223ce(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,94,211 // vdivps %ymm3,%ymm10,%ymm10
.byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
@@ -25459,17 +25479,17 @@ HIDDEN _sk_from_srgb_avx
.globl _sk_from_srgb_avx
FUNCTION(_sk_from_srgb_avx)
_sk_from_srgb_avx:
- .byte 196,98,125,24,5,103,35,2,0 // vbroadcastss 0x22367(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,219,35,2,0 // vbroadcastss 0x223db(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,69,35,2,0 // vbroadcastss 0x22345(%rip),%ymm11 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,185,35,2,0 // vbroadcastss 0x223b9(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,75,35,2,0 // vbroadcastss 0x2234b(%rip),%ymm13 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,191,35,2,0 // vbroadcastss 0x223bf(%rip),%ymm13 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,60,35,2,0 // vbroadcastss 0x2233c(%rip),%ymm12 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,176,35,2,0 // vbroadcastss 0x223b0(%rip),%ymm12 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,50,35,2,0 // vbroadcastss 0x22332(%rip),%ymm14 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,53,166,35,2,0 // vbroadcastss 0x223a6(%rip),%ymm14 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
.byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
.byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
@@ -25495,17 +25515,17 @@ HIDDEN _sk_from_srgb_dst_avx
.globl _sk_from_srgb_dst_avx
FUNCTION(_sk_from_srgb_dst_avx)
_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,187,34,2,0 // vbroadcastss 0x222bb(%rip),%ymm8 # 32938 <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
+ .byte 196,98,125,24,5,47,35,2,0 // vbroadcastss 0x2232f(%rip),%ymm8 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
.byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
.byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,153,34,2,0 // vbroadcastss 0x22299(%rip),%ymm11 # 32928 <_sk_srcover_rgba_8888_sse2_lowp+0x8ac>
+ .byte 196,98,125,24,29,13,35,2,0 // vbroadcastss 0x2230d(%rip),%ymm11 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x8a8>
.byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,159,34,2,0 // vbroadcastss 0x2229f(%rip),%ymm13 # 3293c <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
+ .byte 196,98,125,24,45,19,35,2,0 // vbroadcastss 0x22313(%rip),%ymm13 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x8bc>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,144,34,2,0 // vbroadcastss 0x22290(%rip),%ymm12 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
+ .byte 196,98,125,24,37,4,35,2,0 // vbroadcastss 0x22304(%rip),%ymm12 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x8c0>
.byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,134,34,2,0 // vbroadcastss 0x22286(%rip),%ymm14 # 32944 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
+ .byte 196,98,125,24,53,250,34,2,0 // vbroadcastss 0x222fa(%rip),%ymm14 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x8c4>
.byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
.byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
.byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
@@ -25532,20 +25552,20 @@ HIDDEN _sk_to_srgb_avx
FUNCTION(_sk_to_srgb_avx)
_sk_to_srgb_avx:
.byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,27,34,2,0 // vbroadcastss 0x2221b(%rip),%ymm8 # 32948 <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
+ .byte 196,98,125,24,5,143,34,2,0 // vbroadcastss 0x2228f(%rip),%ymm8 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x8c8>
.byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,21,34,2,0 // vbroadcastss 0x22215(%rip),%ymm11 # 32950 <_sk_srcover_rgba_8888_sse2_lowp+0x8d4>
+ .byte 196,98,125,24,29,137,34,2,0 // vbroadcastss 0x22289(%rip),%ymm11 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
.byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,3,34,2,0 // vbroadcastss 0x22203(%rip),%ymm13 # 3294c <_sk_srcover_rgba_8888_sse2_lowp+0x8d0>
+ .byte 196,98,125,24,45,119,34,2,0 // vbroadcastss 0x22277(%rip),%ymm13 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x8cc>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,40,35,2,0 // vbroadcastss 0x22328(%rip),%ymm14 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
+ .byte 196,98,125,24,53,156,35,2,0 // vbroadcastss 0x2239c(%rip),%ymm14 # 32b44 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
.byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,30,35,2,0 // vbroadcastss 0x2231e(%rip),%ymm15 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
+ .byte 196,98,125,24,61,146,35,2,0 // vbroadcastss 0x22392(%rip),%ymm15 # 32b48 <_sk_srcover_rgba_8888_sse2_lowp+0xa08>
.byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
.byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
.byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,218,33,2,0 // vbroadcastss 0x221da(%rip),%ymm12 # 3295c <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
+ .byte 196,98,125,24,37,78,34,2,0 // vbroadcastss 0x2224e(%rip),%ymm12 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x8dc>
.byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
@@ -25582,7 +25602,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
.byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
.byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,230,32,2,0 // vbroadcastss 0x220e6(%rip),%ymm11 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,29,90,33,2,0 // vbroadcastss 0x2215a(%rip),%ymm11 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
.byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
.byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
@@ -25592,19 +25612,19 @@ _sk_rgb_to_hsl_avx:
.byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
.byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,19,33,2,0 // vbroadcastss 0x22113(%rip),%ymm11 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,29,135,33,2,0 // vbroadcastss 0x22187(%rip),%ymm11 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,1,33,2,0 // vbroadcastss 0x22101(%rip),%ymm11 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
+ .byte 196,98,125,24,29,117,33,2,0 // vbroadcastss 0x22175(%rip),%ymm11 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,233,32,2,0 // vbroadcastss 0x220e9(%rip),%ymm2 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,226,125,24,21,93,33,2,0 // vbroadcastss 0x2215d(%rip),%ymm2 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
.byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
.byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
.byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
.byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,100,32,2,0 // vbroadcastss 0x22064(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,216,32,2,0 // vbroadcastss 0x220d8(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
.byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
.byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
@@ -25614,7 +25634,7 @@ _sk_rgb_to_hsl_avx:
.byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
.byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
.byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,147,32,2,0 // vbroadcastss 0x22093(%rip),%ymm8 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,5,7,33,2,0 // vbroadcastss 0x22107(%rip),%ymm8 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -25631,7 +25651,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
.byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,240,31,2,0 // vbroadcastss 0x21ff0(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,100,32,2,0 // vbroadcastss 0x22064(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
.byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
.byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
@@ -25639,23 +25659,23 @@ _sk_hsl_to_rgb_avx:
.byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
.byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,50,32,2,0 // vbroadcastss 0x22032(%rip),%ymm11 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
+ .byte 196,98,125,24,29,166,32,2,0 // vbroadcastss 0x220a6(%rip),%ymm11 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
.byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
.byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
.byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
.byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,4,32,2,0 // vbroadcastss 0x22004(%rip),%ymm12 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x8e4>
+ .byte 196,98,125,24,37,120,32,2,0 // vbroadcastss 0x22078(%rip),%ymm12 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x8e0>
.byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,254,31,2,0 // vbroadcastss 0x21ffe(%rip),%ymm13 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
+ .byte 196,98,125,24,45,114,32,2,0 // vbroadcastss 0x22072(%rip),%ymm13 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x8e8>
.byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
.byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
.byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,243,31,2,0 // vbroadcastss 0x21ff3(%rip),%ymm1 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
+ .byte 196,226,125,24,13,103,32,2,0 // vbroadcastss 0x22067(%rip),%ymm1 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x8f4>
.byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
.byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
.byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
.byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,202,31,2,0 // vbroadcastss 0x21fca(%rip),%ymm14 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x8f0>
+ .byte 196,98,125,24,53,62,32,2,0 // vbroadcastss 0x2203e(%rip),%ymm14 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x8ec>
.byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
.byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
.byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
@@ -25674,7 +25694,7 @@ _sk_hsl_to_rgb_avx:
.byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
.byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
.byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,116,31,2,0 // vbroadcastss 0x21f74(%rip),%ymm0 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,226,125,24,5,232,31,2,0 // vbroadcastss 0x21fe8(%rip),%ymm0 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
.byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
.byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
@@ -25728,15 +25748,15 @@ _sk_scale_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 10b0a <_sk_scale_u8_avx+0x63>
+ .byte 117,75 // jne 10b56 <_sk_scale_u8_avx+0x63>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,211,31,2,0 // vpand 0x21fd3(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,71,32,2,0 // vpand 0x22047(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,139,30,2,0 // vbroadcastss 0x21e8b(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,255,30,2,0 // vbroadcastss 0x21eff(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
@@ -25749,15 +25769,15 @@ _sk_scale_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,166 // ja 10ac5 <_sk_scale_u8_avx+0x1e>
+ .byte 119,166 // ja 10b11 <_sk_scale_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 10ba4 <_sk_scale_u8_avx+0xfd>
+ .byte 76,141,21,122,0,0,0 // lea 0x7a(%rip),%r10 # 10bf0 <_sk_scale_u8_avx+0xfd>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,135 // jmp 10ac5 <_sk_scale_u8_avx+0x1e>
+ .byte 235,135 // jmp 10b11 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25765,7 +25785,7 @@ _sk_scale_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,94,255,255,255 // jmpq 10ac5 <_sk_scale_u8_avx+0x1e>
+ .byte 233,94,255,255,255 // jmpq 10b11 <_sk_scale_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -25776,7 +25796,7 @@ _sk_scale_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,34,255,255,255 // jmpq 10ac5 <_sk_scale_u8_avx+0x1e>
+ .byte 233,34,255,255,255 // jmpq 10b11 <_sk_scale_u8_avx+0x1e>
.byte 144 // nop
.byte 143 // (bad)
.byte 255 // (bad)
@@ -25785,7 +25805,7 @@ _sk_scale_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf010bb4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeb38>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf010c00 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefdeac0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -25808,26 +25828,26 @@ _sk_scale_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 10c91 <_sk_scale_565_avx+0xd1>
+ .byte 15,133,178,0,0,0 // jne 10cdd <_sk_scale_565_avx+0xd1>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,124,29,2,0 // vbroadcastss 0x21d7c(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,13,240,29,2,0 // vbroadcastss 0x21df0(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,109,29,2,0 // vbroadcastss 0x21d6d(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,225,29,2,0 // vbroadcastss 0x21de1(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,99,29,2,0 // vbroadcastss 0x21d63(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,21,215,29,2,0 // vbroadcastss 0x21dd7(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,84,29,2,0 // vbroadcastss 0x21d54(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,200,29,2,0 // vbroadcastss 0x21dc8(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,74,29,2,0 // vbroadcastss 0x21d4a(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,190,29,2,0 // vbroadcastss 0x21dbe(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,59,29,2,0 // vbroadcastss 0x21d3b(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,29,175,29,2,0 // vbroadcastss 0x21daf(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -25846,27 +25866,27 @@ _sk_scale_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,59,255,255,255 // ja 10be5 <_sk_scale_565_avx+0x25>
+ .byte 15,135,59,255,255,255 // ja 10c31 <_sk_scale_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10d18 <_sk_scale_565_avx+0x158>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 10d64 <_sk_scale_565_avx+0x158>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,25,255,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
+ .byte 233,25,255,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,251,254,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
+ .byte 233,251,254,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,205,254,255,255 // jmpq 10be5 <_sk_scale_565_avx+0x25>
+ .byte 233,205,254,255,255 // jmpq 10c31 <_sk_scale_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -25918,15 +25938,15 @@ _sk_lerp_u8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 10dfa <_sk_lerp_u8_avx+0x87>
+ .byte 117,111 // jne 10e46 <_sk_lerp_u8_avx+0x87>
.byte 196,2,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm8
- .byte 197,57,219,5,7,29,2,0 // vpand 0x21d07(%rip),%xmm8,%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,57,219,5,123,29,2,0 // vpand 0x21d7b(%rip),%xmm8,%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,191,27,2,0 // vbroadcastss 0x21bbf(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,51,28,2,0 // vbroadcastss 0x21c33(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
@@ -25947,15 +25967,15 @@ _sk_lerp_u8_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,130 // ja 10d91 <_sk_lerp_u8_avx+0x1e>
+ .byte 119,130 // ja 10ddd <_sk_lerp_u8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10e98 <_sk_lerp_u8_avx+0x125>
+ .byte 76,141,21,126,0,0,0 // lea 0x7e(%rip),%r10 # 10ee4 <_sk_lerp_u8_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,96,255,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,96,255,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
@@ -25963,7 +25983,7 @@ _sk_lerp_u8_avx:
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,55,255,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,55,255,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
@@ -25974,7 +25994,7 @@ _sk_lerp_u8_avx:
.byte 196,1,121,110,12,24 // vmovd (%r8,%r11,1),%xmm9
.byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,251,254,255,255 // jmpq 10d91 <_sk_lerp_u8_avx+0x1e>
+ .byte 233,251,254,255,255 // jmpq 10ddd <_sk_lerp_u8_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 139,255 // mov %edi,%edi
.byte 255 // (bad)
@@ -25982,7 +26002,7 @@ _sk_lerp_u8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde010ea8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdee2c>
+ .byte 232,255,255,255,221 // callq ffffffffde010ef4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfdedb4>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -26005,26 +26025,26 @@ _sk_lerp_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 10fa9 <_sk_lerp_565_avx+0xf5>
+ .byte 15,133,214,0,0,0 // jne 10ff5 <_sk_lerp_565_avx+0xf5>
.byte 196,1,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm8
.byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
.byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
.byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
.byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,136,26,2,0 // vbroadcastss 0x21a88(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,98,125,24,13,252,26,2,0 // vbroadcastss 0x21afc(%rip),%ymm9 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
.byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,121,26,2,0 // vbroadcastss 0x21a79(%rip),%ymm10 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,98,125,24,21,237,26,2,0 // vbroadcastss 0x21aed(%rip),%ymm10 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,111,26,2,0 // vbroadcastss 0x21a6f(%rip),%ymm10 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,98,125,24,21,227,26,2,0 // vbroadcastss 0x21ae3(%rip),%ymm10 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
.byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,96,26,2,0 // vbroadcastss 0x21a60(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,98,125,24,29,212,26,2,0 // vbroadcastss 0x21ad4(%rip),%ymm11 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,86,26,2,0 // vbroadcastss 0x21a56(%rip),%ymm11 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,98,125,24,29,202,26,2,0 // vbroadcastss 0x21aca(%rip),%ymm11 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
.byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,71,26,2,0 // vbroadcastss 0x21a47(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,98,125,24,29,187,26,2,0 // vbroadcastss 0x21abb(%rip),%ymm11 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
.byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
@@ -26051,27 +26071,27 @@ _sk_lerp_565_avx:
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,23,255,255,255 // ja 10ed9 <_sk_lerp_565_avx+0x25>
+ .byte 15,135,23,255,255,255 // ja 10f25 <_sk_lerp_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 11030 <_sk_lerp_565_avx+0x17c>
+ .byte 76,141,21,99,0,0,0 // lea 0x63(%rip),%r10 # 1107c <_sk_lerp_565_avx+0x17c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,245,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
+ .byte 233,245,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,121,110,12,88 // vmovd (%r8,%r11,2),%xmm9
.byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,215,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
+ .byte 233,215,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,1,57,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,57,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm8,%xmm8
.byte 196,1,122,126,12,88 // vmovq (%r8,%r11,2),%xmm9
.byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,169,254,255,255 // jmpq 10ed9 <_sk_lerp_565_avx+0x25>
+ .byte 233,169,254,255,255 // jmpq 10f25 <_sk_lerp_565_avx+0x25>
.byte 166 // cmpsb %es:(%rdi),%ds:(%rsi)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -26099,9 +26119,9 @@ _sk_load_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 11264 <_sk_load_tables_avx+0x218>
+ .byte 15,133,4,2,0,0 // jne 112b0 <_sk_load_tables_avx+0x218>
.byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,146,22,2,0 // vmovapd 0x21692(%rip),%ymm9 # 32700 <_sk_srcover_rgba_8888_sse2_lowp+0x684>
+ .byte 197,125,40,13,6,23,2,0 // vmovapd 0x21706(%rip),%ymm9 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x680>
.byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
.byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
.byte 196,193,249,126,192 // vmovq %xmm0,%r8
@@ -26193,7 +26213,7 @@ _sk_load_tables_avx:
.byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
.byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,38,23,2,0 // vbroadcastss 0x21726(%rip),%ymm7 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,61,154,23,2,0 // vbroadcastss 0x2179a(%rip),%ymm7 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
@@ -26203,21 +26223,21 @@ _sk_load_tables_avx:
.byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 11066 <_sk_load_tables_avx+0x1a>
+ .byte 15,135,233,253,255,255 // ja 110b2 <_sk_load_tables_avx+0x1a>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 1131c <_sk_load_tables_avx+0x2d0>
+ .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 11368 <_sk_load_tables_avx+0x2d0>
.byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
.byte 77,1,209 // add %r10,%r9
.byte 65,255,225 // jmpq *%r9
.byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
+ .byte 233,201,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
.byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
.byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
+ .byte 233,162,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -26231,9 +26251,9 @@ _sk_load_tables_avx:
.byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
.byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
.byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 11066 <_sk_load_tables_avx+0x1a>
+ .byte 233,77,253,255,255 // jmpq 110b2 <_sk_load_tables_avx+0x1a>
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 1131d <_sk_load_tables_avx+0x2d1>
+ .byte 118,255 // jbe 11369 <_sk_load_tables_avx+0x2d1>
.byte 255 // (bad)
.byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
.byte 255 // (bad)
@@ -26263,7 +26283,7 @@ _sk_load_tables_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 115a5 <_sk_load_tables_u16_be_avx+0x26d>
+ .byte 15,133,75,2,0,0 // jne 115f1 <_sk_load_tables_u16_be_avx+0x26d>
.byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
.byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
.byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
@@ -26279,7 +26299,7 @@ _sk_load_tables_u16_be_avx:
.byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
.byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
.byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,244,22,2,0 // vmovdqa 0x216f4(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,29,104,23,2,0 // vmovdqa 0x21768(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
.byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
.byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
@@ -26373,7 +26393,7 @@ _sk_load_tables_u16_be_avx:
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
.byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,7,20,2,0 // vbroadcastss 0x21407(%rip),%ymm6 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,226,125,24,53,123,20,2,0 // vbroadcastss 0x2147b(%rip),%ymm6 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
@@ -26382,29 +26402,29 @@ _sk_load_tables_u16_be_avx:
.byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 1160b <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 116,85 // je 11657 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 1160b <_sk_load_tables_u16_be_avx+0x2d3>
+ .byte 114,72 // jb 11657 <_sk_load_tables_u16_be_avx+0x2d3>
.byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 11618 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 116,72 // je 11664 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 11618 <_sk_load_tables_u16_be_avx+0x2e0>
+ .byte 114,59 // jb 11664 <_sk_load_tables_u16_be_avx+0x2e0>
.byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 11375 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,132,135,253,255,255 // je 113c1 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 11375 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 15,130,118,253,255,255 // jb 113c1 <_sk_load_tables_u16_be_avx+0x3d>
.byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,106,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,93,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 11375 <_sk_load_tables_u16_be_avx+0x3d>
+ .byte 233,84,253,255,255 // jmpq 113c1 <_sk_load_tables_u16_be_avx+0x3d>
HIDDEN _sk_load_tables_rgb_u16_be_avx
.globl _sk_load_tables_rgb_u16_be_avx
@@ -26416,7 +26436,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 72,133,255 // test %rdi,%rdi
.byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
.byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 11875 <_sk_load_tables_rgb_u16_be_avx+0x254>
+ .byte 15,133,54,2,0,0 // jne 118c1 <_sk_load_tables_rgb_u16_be_avx+0x254>
.byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
.byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
.byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
@@ -26437,7 +26457,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
.byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
.byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,244,19,2,0 // vmovdqa 0x213f4(%rip),%xmm14 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,121,111,53,104,20,2,0 // vmovdqa 0x21468(%rip),%xmm14 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
.byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
.byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
@@ -26523,7 +26543,7 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,161,16,2,0 // vbroadcastss 0x210a1(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,21,17,2,0 // vbroadcastss 0x21115(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
.byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
.byte 255,224 // jmpq *%rax
@@ -26531,70 +26551,70 @@ _sk_load_tables_rgb_u16_be_avx:
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 118ad <_sk_load_tables_rgb_u16_be_avx+0x28c>
+ .byte 117,31 // jne 118f9 <_sk_load_tables_rgb_u16_be_avx+0x28c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,199,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 118f7 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
+ .byte 114,48 // jb 11943 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
.byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 11911 <_sk_load_tables_rgb_u16_be_avx+0x2f0>
+ .byte 117,48 // jne 1195d <_sk_load_tables_rgb_u16_be_avx+0x2f0>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,125,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,99,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 11952 <_sk_load_tables_rgb_u16_be_avx+0x331>
+ .byte 114,39 // jb 1199e <_sk_load_tables_rgb_u16_be_avx+0x331>
.byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 11963 <_sk_load_tables_rgb_u16_be_avx+0x342>
+ .byte 117,30 // jne 119af <_sk_load_tables_rgb_u16_be_avx+0x342>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,34,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,17,253,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 11996 <_sk_load_tables_rgb_u16_be_avx+0x375>
+ .byte 114,25 // jb 119e2 <_sk_load_tables_rgb_u16_be_avx+0x375>
.byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,222,252,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 11674 <_sk_load_tables_rgb_u16_be_avx+0x53>
+ .byte 233,213,252,255,255 // jmpq 116c0 <_sk_load_tables_rgb_u16_be_avx+0x53>
HIDDEN _sk_byte_tables_avx
.globl _sk_byte_tables_avx
FUNCTION(_sk_byte_tables_avx)
_sk_byte_tables_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,138,15,2,0 // vbroadcastss 0x20f8a(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,254,15,2,0 // vbroadcastss 0x20ffe(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 197,125,91,200 // vcvtps2dq %ymm0,%ymm9
.byte 196,65,249,126,200 // vmovq %xmm9,%r8
@@ -26729,7 +26749,7 @@ _sk_byte_tables_avx:
.byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
.byte 196,194,121,49,213 // vpmovzxbd %xmm13,%xmm2
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,98,125,24,13,66,13,2,0 // vbroadcastss 0x20d42(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,182,13,2,0 // vbroadcastss 0x20db6(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
.byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
@@ -26857,7 +26877,7 @@ _sk_byte_tables_rgb_avx:
.byte 196,194,121,49,203 // vpmovzxbd %xmm11,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,247,10,2,0 // vbroadcastss 0x20af7(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,107,11,2,0 // vbroadcastss 0x20b6b(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,194,121,49,202 // vpmovzxbd %xmm10,%xmm1
.byte 196,194,121,49,212 // vpmovzxbd %xmm12,%xmm2
@@ -27094,36 +27114,36 @@ _sk_parametric_r_avx:
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,216 // vcvtdq2ps %ymm0,%ymm11
- .byte 196,98,125,24,37,136,7,2,0 // vbroadcastss 0x20788(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,252,7,2,0 // vbroadcastss 0x207fc(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,126,7,2,0 // vbroadcastss 0x2077e(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,242,7,2,0 // vbroadcastss 0x207f2(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,212,6,2,0 // vbroadcastss 0x206d4(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,72,7,2,0 // vbroadcastss 0x20748(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,124,86,196 // vorps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,102,7,2,0 // vbroadcastss 0x20766(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,218,7,2,0 // vbroadcastss 0x207da(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,92,7,2,0 // vbroadcastss 0x2075c(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,208,7,2,0 // vbroadcastss 0x207d0(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,77,7,2,0 // vbroadcastss 0x2074d(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,193,7,2,0 // vbroadcastss 0x207c1(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,37,67,7,2,0 // vbroadcastss 0x20743(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,183,7,2,0 // vbroadcastss 0x207b7(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,156,94,192 // vdivps %ymm0,%ymm12,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
.byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
.byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,39,7,2,0 // vbroadcastss 0x20727(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,155,7,2,0 // vbroadcastss 0x2079b(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,29,7,2,0 // vbroadcastss 0x2071d(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,145,7,2,0 // vbroadcastss 0x20791(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,29,14,7,2,0 // vbroadcastss 0x2070e(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,130,7,2,0 // vbroadcastss 0x20782(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,4,7,2,0 // vbroadcastss 0x20704(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,120,7,2,0 // vbroadcastss 0x20778(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,245,6,2,0 // vbroadcastss 0x206f5(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,105,7,2,0 // vbroadcastss 0x20769(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
.byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27131,7 +27151,7 @@ _sk_parametric_r_avx:
.byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,13,6,2,0 // vbroadcastss 0x2060d(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,129,6,2,0 // vbroadcastss 0x20681(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27153,36 +27173,36 @@ _sk_parametric_g_avx:
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,217 // vcvtdq2ps %ymm1,%ymm11
- .byte 196,98,125,24,37,78,6,2,0 // vbroadcastss 0x2064e(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,194,6,2,0 // vbroadcastss 0x206c2(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,68,6,2,0 // vbroadcastss 0x20644(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,184,6,2,0 // vbroadcastss 0x206b8(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,154,5,2,0 // vbroadcastss 0x2059a(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,14,6,2,0 // vbroadcastss 0x2060e(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,116,86,204 // vorps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,44,6,2,0 // vbroadcastss 0x2062c(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,160,6,2,0 // vbroadcastss 0x206a0(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,34,6,2,0 // vbroadcastss 0x20622(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,150,6,2,0 // vbroadcastss 0x20696(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,116,89,228 // vmulps %ymm12,%ymm1,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,19,6,2,0 // vbroadcastss 0x20613(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,135,6,2,0 // vbroadcastss 0x20687(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 196,98,125,24,37,9,6,2,0 // vbroadcastss 0x20609(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,125,6,2,0 // vbroadcastss 0x2067d(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,156,94,201 // vdivps %ymm1,%ymm12,%ymm1
.byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
.byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
.byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
.byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 196,98,125,24,29,237,5,2,0 // vbroadcastss 0x205ed(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,97,6,2,0 // vbroadcastss 0x20661(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,227,5,2,0 // vbroadcastss 0x205e3(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,87,6,2,0 // vbroadcastss 0x20657(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,116,92,203 // vsubps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,212,5,2,0 // vbroadcastss 0x205d4(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,72,6,2,0 // vbroadcastss 0x20648(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,202,5,2,0 // vbroadcastss 0x205ca(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,62,6,2,0 // vbroadcastss 0x2063e(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,21,187,5,2,0 // vbroadcastss 0x205bb(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,47,6,2,0 // vbroadcastss 0x2062f(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
.byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27190,7 +27210,7 @@ _sk_parametric_g_avx:
.byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,5,211,4,2,0 // vbroadcastss 0x204d3(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,71,5,2,0 // vbroadcastss 0x20547(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27212,36 +27232,36 @@ _sk_parametric_b_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 196,98,125,24,37,20,5,2,0 // vbroadcastss 0x20514(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,136,5,2,0 // vbroadcastss 0x20588(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,10,5,2,0 // vbroadcastss 0x2050a(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,126,5,2,0 // vbroadcastss 0x2057e(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,96,4,2,0 // vbroadcastss 0x20460(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,212,4,2,0 // vbroadcastss 0x204d4(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,108,86,212 // vorps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,242,4,2,0 // vbroadcastss 0x204f2(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,102,5,2,0 // vbroadcastss 0x20566(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,232,4,2,0 // vbroadcastss 0x204e8(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,92,5,2,0 // vbroadcastss 0x2055c(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,108,89,228 // vmulps %ymm12,%ymm2,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,217,4,2,0 // vbroadcastss 0x204d9(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,77,5,2,0 // vbroadcastss 0x2054d(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,98,125,24,37,207,4,2,0 // vbroadcastss 0x204cf(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,67,5,2,0 // vbroadcastss 0x20543(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,156,94,210 // vdivps %ymm2,%ymm12,%ymm2
.byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
.byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
.byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
.byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 196,98,125,24,29,179,4,2,0 // vbroadcastss 0x204b3(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,39,5,2,0 // vbroadcastss 0x20527(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,169,4,2,0 // vbroadcastss 0x204a9(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,29,5,2,0 // vbroadcastss 0x2051d(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,29,154,4,2,0 // vbroadcastss 0x2049a(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,14,5,2,0 // vbroadcastss 0x2050e(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,144,4,2,0 // vbroadcastss 0x20490(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,4,5,2,0 // vbroadcastss 0x20504(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,21,129,4,2,0 // vbroadcastss 0x20481(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,245,4,2,0 // vbroadcastss 0x204f5(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
.byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27249,7 +27269,7 @@ _sk_parametric_b_avx:
.byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,153,3,2,0 // vbroadcastss 0x20399(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,13,4,2,0 // vbroadcastss 0x2040d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27271,36 +27291,36 @@ _sk_parametric_a_avx:
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
.byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
.byte 197,124,91,219 // vcvtdq2ps %ymm3,%ymm11
- .byte 196,98,125,24,37,218,3,2,0 // vbroadcastss 0x203da(%rip),%ymm12 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,37,78,4,2,0 // vbroadcastss 0x2044e(%rip),%ymm12 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,208,3,2,0 // vbroadcastss 0x203d0(%rip),%ymm12 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,37,68,4,2,0 // vbroadcastss 0x20444(%rip),%ymm12 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,100,84,220 // vandps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,38,3,2,0 // vbroadcastss 0x20326(%rip),%ymm12 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,37,154,3,2,0 // vbroadcastss 0x2039a(%rip),%ymm12 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,100,86,220 // vorps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,184,3,2,0 // vbroadcastss 0x203b8(%rip),%ymm12 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,37,44,4,2,0 // vbroadcastss 0x2042c(%rip),%ymm12 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,174,3,2,0 // vbroadcastss 0x203ae(%rip),%ymm12 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,37,34,4,2,0 // vbroadcastss 0x20422(%rip),%ymm12 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,65,100,89,228 // vmulps %ymm12,%ymm3,%ymm12
.byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,159,3,2,0 // vbroadcastss 0x2039f(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,19,4,2,0 // vbroadcastss 0x20413(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,100,88,220 // vaddps %ymm12,%ymm3,%ymm3
- .byte 196,98,125,24,37,149,3,2,0 // vbroadcastss 0x20395(%rip),%ymm12 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,37,9,4,2,0 // vbroadcastss 0x20409(%rip),%ymm12 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,156,94,219 // vdivps %ymm3,%ymm12,%ymm3
.byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
.byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
.byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
.byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 196,98,125,24,29,121,3,2,0 // vbroadcastss 0x20379(%rip),%ymm11 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,29,237,3,2,0 // vbroadcastss 0x203ed(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,100,88,219 // vaddps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,111,3,2,0 // vbroadcastss 0x2036f(%rip),%ymm11 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,98,125,24,29,227,3,2,0 // vbroadcastss 0x203e3(%rip),%ymm11 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 196,65,44,89,219 // vmulps %ymm11,%ymm10,%ymm11
.byte 196,193,100,92,219 // vsubps %ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,29,96,3,2,0 // vbroadcastss 0x20360(%rip),%ymm11 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,98,125,24,29,212,3,2,0 // vbroadcastss 0x203d4(%rip),%ymm11 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 196,65,36,92,210 // vsubps %ymm10,%ymm11,%ymm10
- .byte 196,98,125,24,29,86,3,2,0 // vbroadcastss 0x20356(%rip),%ymm11 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,98,125,24,29,202,3,2,0 // vbroadcastss 0x203ca(%rip),%ymm11 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 196,65,36,94,210 // vdivps %ymm10,%ymm11,%ymm10
.byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,98,125,24,21,71,3,2,0 // vbroadcastss 0x20347(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,98,125,24,21,187,3,2,0 // vbroadcastss 0x203bb(%rip),%ymm10 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
.byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
.byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
@@ -27308,7 +27328,7 @@ _sk_parametric_a_avx:
.byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 196,98,125,24,5,95,2,2,0 // vbroadcastss 0x2025f(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,211,2,2,0 // vbroadcastss 0x202d3(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27327,34 +27347,34 @@ _sk_gamma_avx:
.byte 197,252,40,233 // vmovaps %ymm1,%ymm5
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,91,200 // vcvtdq2ps %ymm0,%ymm1
- .byte 196,98,125,24,5,178,2,2,0 // vbroadcastss 0x202b2(%rip),%ymm8 # 3299c <_sk_srcover_rgba_8888_sse2_lowp+0x920>
+ .byte 196,98,125,24,5,38,3,2,0 // vbroadcastss 0x20326(%rip),%ymm8 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,168,2,2,0 // vbroadcastss 0x202a8(%rip),%ymm9 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
+ .byte 196,98,125,24,13,28,3,2,0 // vbroadcastss 0x2031c(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x920>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 196,226,125,24,37,254,1,2,0 // vbroadcastss 0x201fe(%rip),%ymm4 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,37,114,2,2,0 // vbroadcastss 0x20272(%rip),%ymm4 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,252,86,196 // vorps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,21,145,2,2,0 // vbroadcastss 0x20291(%rip),%ymm10 # 329a4 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
+ .byte 196,98,125,24,21,5,3,2,0 // vbroadcastss 0x20305(%rip),%ymm10 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x924>
.byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,98,125,24,29,135,2,2,0 // vbroadcastss 0x20287(%rip),%ymm11 # 329a8 <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
+ .byte 196,98,125,24,29,251,2,2,0 // vbroadcastss 0x202fb(%rip),%ymm11 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x928>
.byte 196,193,124,89,211 // vmulps %ymm11,%ymm0,%ymm2
.byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 196,98,125,24,37,121,2,2,0 // vbroadcastss 0x20279(%rip),%ymm12 # 329ac <_sk_srcover_rgba_8888_sse2_lowp+0x930>
+ .byte 196,98,125,24,37,237,2,2,0 // vbroadcastss 0x202ed(%rip),%ymm12 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x92c>
.byte 196,193,124,88,196 // vaddps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,111,2,2,0 // vbroadcastss 0x2026f(%rip),%ymm13 # 329b0 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
+ .byte 196,98,125,24,45,227,2,2,0 // vbroadcastss 0x202e3(%rip),%ymm13 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x930>
.byte 197,148,94,192 // vdivps %ymm0,%ymm13,%ymm0
.byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
.byte 196,98,125,24,48 // vbroadcastss (%rax),%ymm14
.byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
.byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
.byte 197,252,92,241 // vsubps %ymm1,%ymm0,%ymm6
- .byte 196,98,125,24,61,78,2,2,0 // vbroadcastss 0x2024e(%rip),%ymm15 # 329b4 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
+ .byte 196,98,125,24,61,194,2,2,0 // vbroadcastss 0x202c2(%rip),%ymm15 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x934>
.byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,226,125,24,29,68,2,2,0 // vbroadcastss 0x20244(%rip),%ymm3 # 329b8 <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
+ .byte 196,226,125,24,29,184,2,2,0 // vbroadcastss 0x202b8(%rip),%ymm3 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x938>
.byte 197,204,89,203 // vmulps %ymm3,%ymm6,%ymm1
.byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,226,125,24,21,55,2,2,0 // vbroadcastss 0x20237(%rip),%ymm2 # 329bc <_sk_srcover_rgba_8888_sse2_lowp+0x940>
+ .byte 196,226,125,24,21,171,2,2,0 // vbroadcastss 0x202ab(%rip),%ymm2 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0x93c>
.byte 197,236,92,198 // vsubps %ymm6,%ymm2,%ymm0
- .byte 196,226,125,24,53,46,2,2,0 // vbroadcastss 0x2022e(%rip),%ymm6 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
+ .byte 196,226,125,24,53,162,2,2,0 // vbroadcastss 0x202a2(%rip),%ymm6 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0x940>
.byte 197,204,94,192 // vdivps %ymm0,%ymm6,%ymm0
.byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
@@ -27396,7 +27416,7 @@ _sk_gamma_avx:
.byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
.byte 197,204,94,210 // vdivps %ymm2,%ymm6,%ymm2
.byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,113,1,2,0 // vbroadcastss 0x20171(%rip),%ymm2 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
+ .byte 196,226,125,24,21,229,1,2,0 // vbroadcastss 0x201e5(%rip),%ymm2 # 32a84 <_sk_srcover_rgba_8888_sse2_lowp+0x944>
.byte 197,236,89,92,36,128 // vmulps -0x80(%rsp),%ymm2,%ymm3
.byte 197,252,89,226 // vmulps %ymm2,%ymm0,%ymm4
.byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
@@ -27416,31 +27436,31 @@ HIDDEN _sk_lab_to_xyz_avx
.globl _sk_lab_to_xyz_avx
FUNCTION(_sk_lab_to_xyz_avx)
_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,45,1,2,0 // vbroadcastss 0x2012d(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
+ .byte 196,98,125,24,5,161,1,2,0 // vbroadcastss 0x201a1(%rip),%ymm8 # 32a88 <_sk_srcover_rgba_8888_sse2_lowp+0x948>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,139,0,2,0 // vbroadcastss 0x2008b(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,255,0,2,0 // vbroadcastss 0x200ff(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,21,1,2,0 // vbroadcastss 0x20115(%rip),%ymm9 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x950>
+ .byte 196,98,125,24,13,137,1,2,0 // vbroadcastss 0x20189(%rip),%ymm9 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0x94c>
.byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,1,1,2,0 // vbroadcastss 0x20101(%rip),%ymm8 # 329d0 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
+ .byte 196,98,125,24,5,117,1,2,0 // vbroadcastss 0x20175(%rip),%ymm8 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0x950>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,247,0,2,0 // vbroadcastss 0x200f7(%rip),%ymm8 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
+ .byte 196,98,125,24,5,107,1,2,0 // vbroadcastss 0x2016b(%rip),%ymm8 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0x954>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,237,0,2,0 // vbroadcastss 0x200ed(%rip),%ymm8 # 329d8 <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
+ .byte 196,98,125,24,5,97,1,2,0 // vbroadcastss 0x20161(%rip),%ymm8 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0x958>
.byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
.byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,223,0,2,0 // vbroadcastss 0x200df(%rip),%ymm8 # 329dc <_sk_srcover_rgba_8888_sse2_lowp+0x960>
+ .byte 196,98,125,24,5,83,1,2,0 // vbroadcastss 0x20153(%rip),%ymm8 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0x95c>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
.byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
.byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,200,0,2,0 // vbroadcastss 0x200c8(%rip),%ymm9 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
+ .byte 196,98,125,24,13,60,1,2,0 // vbroadcastss 0x2013c(%rip),%ymm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0x960>
.byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,189,0,2,0 // vbroadcastss 0x200bd(%rip),%ymm11 # 329e4 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
+ .byte 196,98,125,24,29,49,1,2,0 // vbroadcastss 0x20131(%rip),%ymm11 # 32aa4 <_sk_srcover_rgba_8888_sse2_lowp+0x964>
.byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,179,0,2,0 // vbroadcastss 0x200b3(%rip),%ymm12 # 329e8 <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
+ .byte 196,98,125,24,37,39,1,2,0 // vbroadcastss 0x20127(%rip),%ymm12 # 32aa8 <_sk_srcover_rgba_8888_sse2_lowp+0x968>
.byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
.byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
.byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
@@ -27455,9 +27475,9 @@ _sk_lab_to_xyz_avx:
.byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
.byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
.byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,105,0,2,0 // vbroadcastss 0x20069(%rip),%ymm0 # 329ec <_sk_srcover_rgba_8888_sse2_lowp+0x970>
+ .byte 196,226,125,24,5,221,0,2,0 // vbroadcastss 0x200dd(%rip),%ymm0 # 32aac <_sk_srcover_rgba_8888_sse2_lowp+0x96c>
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,96,0,2,0 // vbroadcastss 0x20060(%rip),%ymm8 # 329f0 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
+ .byte 196,98,125,24,5,212,0,2,0 // vbroadcastss 0x200d4(%rip),%ymm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0x970>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27473,15 +27493,15 @@ _sk_load_a8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 129f5 <_sk_load_a8_avx+0x5c>
+ .byte 117,68 // jne 12a41 <_sk_load_a8_avx+0x5c>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,225,0,2,0 // vpand 0x200e1(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,85,1,2,0 // vpand 0x20155(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,155,255,1,0 // vbroadcastss 0x1ff9b(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,15,0,2,0 // vbroadcastss 0x2000f(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27493,15 +27513,15 @@ _sk_load_a8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 129b7 <_sk_load_a8_avx+0x1e>
+ .byte 119,174 // ja 12a03 <_sk_load_a8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12a8c <_sk_load_a8_avx+0xf3>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12ad8 <_sk_load_a8_avx+0xf3>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,143 // jmp 129b7 <_sk_load_a8_avx+0x1e>
+ .byte 235,143 // jmp 12a03 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27509,7 +27529,7 @@ _sk_load_a8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,103,255,255,255 // jmpq 129b7 <_sk_load_a8_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12a03 <_sk_load_a8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27520,7 +27540,7 @@ _sk_load_a8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,44,255,255,255 // jmpq 129b7 <_sk_load_a8_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12a03 <_sk_load_a8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27529,7 +27549,7 @@ _sk_load_a8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012a9c <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0a20>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012ae8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe09a8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27551,15 +27571,15 @@ _sk_load_a8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 12b04 <_sk_load_a8_dst_avx+0x5c>
+ .byte 117,68 // jne 12b50 <_sk_load_a8_dst_avx+0x5c>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,210,255,1,0 // vpand 0x1ffd2(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,70,0,2,0 // vpand 0x20046(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,140,254,1,0 // vbroadcastss 0x1fe8c(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,45,0,255,1,0 // vbroadcastss 0x1ff00(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
@@ -27571,15 +27591,15 @@ _sk_load_a8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,174 // ja 12ac6 <_sk_load_a8_dst_avx+0x1e>
+ .byte 119,174 // ja 12b12 <_sk_load_a8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12b9c <_sk_load_a8_dst_avx+0xf4>
+ .byte 76,141,21,121,0,0,0 // lea 0x79(%rip),%r10 # 12be8 <_sk_load_a8_dst_avx+0xf4>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,143 // jmp 12ac6 <_sk_load_a8_dst_avx+0x1e>
+ .byte 235,143 // jmp 12b12 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27587,7 +27607,7 @@ _sk_load_a8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,103,255,255,255 // jmpq 12ac6 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,103,255,255,255 // jmpq 12b12 <_sk_load_a8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27598,7 +27618,7 @@ _sk_load_a8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,44,255,255,255 // jmpq 12ac6 <_sk_load_a8_dst_avx+0x1e>
+ .byte 233,44,255,255,255 // jmpq 12b12 <_sk_load_a8_dst_avx+0x1e>
.byte 102,144 // xchg %ax,%ax
.byte 144 // nop
.byte 255 // (bad)
@@ -27607,7 +27627,7 @@ _sk_load_a8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde012bac <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0b30>
+ .byte 232,255,255,255,221 // callq ffffffffde012bf8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffddfe0ab8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,210 // callq *%rdx
@@ -27687,7 +27707,7 @@ _sk_gather_a8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,146,252,1,0 // vbroadcastss 0x1fc92(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,6,253,1,0 // vbroadcastss 0x1fd06(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -27710,14 +27730,14 @@ _sk_store_a8_avx:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,18,252,1,0 // vbroadcastss 0x1fc12(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,134,252,1,0 // vbroadcastss 0x1fc86(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,100,89,192 // vmulps %ymm8,%ymm3,%ymm8
.byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 12d4a <_sk_store_a8_avx+0x44>
+ .byte 117,10 // jne 12d96 <_sk_store_a8_avx+0x44>
.byte 196,1,121,214,4,24 // vmovq %xmm8,(%r8,%r11,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -27725,25 +27745,25 @@ _sk_store_a8_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 12d46 <_sk_store_a8_avx+0x40>
+ .byte 119,236 // ja 12d92 <_sk_store_a8_avx+0x40>
.byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12dc0 <_sk_store_a8_avx+0xba>
+ .byte 76,141,21,86,0,0,0 // lea 0x56(%rip),%r10 # 12e0c <_sk_store_a8_avx+0xba>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,20,4,24,0 // vpextrb $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,202 // jmp 12d46 <_sk_store_a8_avx+0x40>
+ .byte 235,202 // jmp 12d92 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%r11,1)
- .byte 196,98,57,0,5,35,253,1,0 // vpshufb 0x1fd23(%rip),%xmm8,%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 196,98,57,0,5,151,253,1,0 // vpshufb 0x1fd97(%rip),%xmm8,%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
.byte 196,3,121,21,4,24,0 // vpextrw $0x0,%xmm8,(%r8,%r11,1)
- .byte 235,176 // jmp 12d46 <_sk_store_a8_avx+0x40>
+ .byte 235,176 // jmp 12d92 <_sk_store_a8_avx+0x40>
.byte 196,3,121,20,68,24,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%r11,1)
.byte 196,3,121,20,68,24,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%r11,1)
.byte 196,3,121,20,68,24,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%r11,1)
- .byte 196,98,57,0,5,9,253,1,0 // vpshufb 0x1fd09(%rip),%xmm8,%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 196,98,57,0,5,125,253,1,0 // vpshufb 0x1fd7d(%rip),%xmm8,%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
.byte 196,1,121,126,4,24 // vmovd %xmm8,(%r8,%r11,1)
- .byte 235,135 // jmp 12d46 <_sk_store_a8_avx+0x40>
+ .byte 235,135 // jmp 12d92 <_sk_store_a8_avx+0x40>
.byte 144 // nop
.byte 179,255 // mov $0xff,%bl
.byte 255 // (bad)
@@ -27776,18 +27796,18 @@ _sk_load_g8_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 12e3d <_sk_load_g8_avx+0x61>
+ .byte 117,73 // jne 12e89 <_sk_load_g8_avx+0x61>
.byte 196,130,121,48,4,24 // vpmovzxbw (%r8,%r11,1),%xmm0
- .byte 197,249,219,5,158,252,1,0 // vpand 0x1fc9e(%rip),%xmm0,%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,249,219,5,18,253,1,0 // vpand 0x1fd12(%rip),%xmm0,%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,88,251,1,0 // vbroadcastss 0x1fb58(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,204,251,1,0 // vbroadcastss 0x1fbcc(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,213,250,1,0 // vbroadcastss 0x1fad5(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,73,251,1,0 // vbroadcastss 0x1fb49(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -27796,15 +27816,15 @@ _sk_load_g8_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12dfa <_sk_load_g8_avx+0x1e>
+ .byte 119,169 // ja 12e46 <_sk_load_g8_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12ed4 <_sk_load_g8_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12f20 <_sk_load_g8_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,138 // jmp 12dfa <_sk_load_g8_avx+0x1e>
+ .byte 235,138 // jmp 12e46 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
@@ -27812,7 +27832,7 @@ _sk_load_g8_avx:
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,98,255,255,255 // jmpq 12dfa <_sk_load_g8_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12e46 <_sk_load_g8_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
@@ -27823,7 +27843,7 @@ _sk_load_g8_avx:
.byte 196,129,121,110,12,24 // vmovd (%r8,%r11,1),%xmm1
.byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,39,255,255,255 // jmpq 12dfa <_sk_load_g8_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12e46 <_sk_load_g8_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27832,7 +27852,7 @@ _sk_load_g8_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012ee4 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0e68>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf012f30 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0df0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27854,18 +27874,18 @@ _sk_load_g8_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 12f51 <_sk_load_g8_dst_avx+0x61>
+ .byte 117,73 // jne 12f9d <_sk_load_g8_dst_avx+0x61>
.byte 196,130,121,48,36,24 // vpmovzxbw (%r8,%r11,1),%xmm4
- .byte 197,217,219,37,138,251,1,0 // vpand 0x1fb8a(%rip),%xmm4,%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 197,217,219,37,254,251,1,0 // vpand 0x1fbfe(%rip),%xmm4,%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,68,250,1,0 // vbroadcastss 0x1fa44(%rip),%ymm5 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,45,184,250,1,0 // vbroadcastss 0x1fab8(%rip),%ymm5 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,193,249,1,0 // vbroadcastss 0x1f9c1(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,53,250,1,0 // vbroadcastss 0x1fa35(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,236 // vmovaps %ymm4,%ymm5
.byte 197,252,40,244 // vmovaps %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -27874,15 +27894,15 @@ _sk_load_g8_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,169 // ja 12f0e <_sk_load_g8_dst_avx+0x1e>
+ .byte 119,169 // ja 12f5a <_sk_load_g8_dst_avx+0x1e>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 12fe8 <_sk_load_g8_dst_avx+0xf8>
+ .byte 76,141,21,120,0,0,0 // lea 0x78(%rip),%r10 # 13034 <_sk_load_g8_dst_avx+0xf8>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,182,4,24 // movzbl (%r8,%r11,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,138 // jmp 12f0e <_sk_load_g8_dst_avx+0x1e>
+ .byte 235,138 // jmp 12f5a <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,2 // movzbl 0x2(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
@@ -27890,7 +27910,7 @@ _sk_load_g8_dst_avx:
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,98,255,255,255 // jmpq 12f0e <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,98,255,255,255 // jmpq 12f5a <_sk_load_g8_dst_avx+0x1e>
.byte 67,15,182,68,24,6 // movzbl 0x6(%r8,%r11,1),%eax
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
@@ -27901,7 +27921,7 @@ _sk_load_g8_dst_avx:
.byte 196,129,121,110,44,24 // vmovd (%r8,%r11,1),%xmm5
.byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,39,255,255,255 // jmpq 12f0e <_sk_load_g8_dst_avx+0x1e>
+ .byte 233,39,255,255,255 // jmpq 12f5a <_sk_load_g8_dst_avx+0x1e>
.byte 144 // nop
.byte 145 // xchg %eax,%ecx
.byte 255 // (bad)
@@ -27910,7 +27930,7 @@ _sk_load_g8_dst_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf012ff8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f7c>
+ .byte 233,255,255,255,222 // jmpq ffffffffdf013044 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdefe0f04>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,211 // callq *%rbx
@@ -27990,10 +28010,10 @@ _sk_gather_g8_avx:
.byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
.byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,70,248,1,0 // vbroadcastss 0x1f846(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,226,125,24,13,186,248,1,0 // vbroadcastss 0x1f8ba(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,195,247,1,0 // vbroadcastss 0x1f7c3(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,55,248,1,0 // vbroadcastss 0x1f837(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
.byte 197,252,40,208 // vmovaps %ymm0,%ymm2
.byte 91 // pop %rbx
@@ -28015,56 +28035,56 @@ _sk_load_565_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 131f8 <_sk_load_565_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13244 <_sk_load_565_avx+0xa1>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,230,247,1,0 // vbroadcastss 0x1f7e6(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,5,90,248,1,0 // vbroadcastss 0x1f85a(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,217,247,1,0 // vbroadcastss 0x1f7d9(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,77,248,1,0 // vbroadcastss 0x1f84d(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,208,247,1,0 // vbroadcastss 0x1f7d0(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,13,68,248,1,0 // vbroadcastss 0x1f844(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,195,247,1,0 // vbroadcastss 0x1f7c3(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,55,248,1,0 // vbroadcastss 0x1f837(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,186,247,1,0 // vbroadcastss 0x1f7ba(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,46,248,1,0 // vbroadcastss 0x1f82e(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,173,247,1,0 // vbroadcastss 0x1f7ad(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,29,33,248,1,0 // vbroadcastss 0x1f821(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,18,247,1,0 // vbroadcastss 0x1f712(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,134,247,1,0 // vbroadcastss 0x1f786(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 1317c <_sk_load_565_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 131c8 <_sk_load_565_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 1327c <_sk_load_565_avx+0x125>
+ .byte 76,141,21,97,0,0,0 // lea 0x61(%rip),%r10 # 132c8 <_sk_load_565_avx+0x125>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,74,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,45,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,0,255,255,255 // jmpq 1317c <_sk_load_565_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 131c8 <_sk_load_565_avx+0x25>
.byte 168,255 // test $0xff,%al
.byte 255 // (bad)
.byte 255,194 // inc %edx
@@ -28096,56 +28116,56 @@ _sk_load_565_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 13339 <_sk_load_565_dst_avx+0xa1>
+ .byte 15,133,130,0,0,0 // jne 13385 <_sk_load_565_dst_avx+0xa1>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,165,246,1,0 // vbroadcastss 0x1f6a5(%rip),%ymm4 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,37,25,247,1,0 // vbroadcastss 0x1f719(%rip),%ymm4 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,152,246,1,0 // vbroadcastss 0x1f698(%rip),%ymm5 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,45,12,247,1,0 // vbroadcastss 0x1f70c(%rip),%ymm5 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,143,246,1,0 // vbroadcastss 0x1f68f(%rip),%ymm5 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,45,3,247,1,0 // vbroadcastss 0x1f703(%rip),%ymm5 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,130,246,1,0 // vbroadcastss 0x1f682(%rip),%ymm7 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,61,246,246,1,0 // vbroadcastss 0x1f6f6(%rip),%ymm7 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,121,246,1,0 // vbroadcastss 0x1f679(%rip),%ymm7 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,61,237,246,1,0 // vbroadcastss 0x1f6ed(%rip),%ymm7 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,108,246,1,0 // vbroadcastss 0x1f66c(%rip),%ymm7 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,61,224,246,1,0 // vbroadcastss 0x1f6e0(%rip),%ymm7 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,209,245,1,0 // vbroadcastss 0x1f5d1(%rip),%ymm7 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,61,69,246,1,0 // vbroadcastss 0x1f645(%rip),%ymm7 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,7 // and $0x7,%r9b
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,108,255,255,255 // ja 132bd <_sk_load_565_dst_avx+0x25>
+ .byte 15,135,108,255,255,255 // ja 13309 <_sk_load_565_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 133c0 <_sk_load_565_dst_avx+0x128>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1340c <_sk_load_565_dst_avx+0x128>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,74,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
+ .byte 233,74,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,45,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
+ .byte 233,45,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,0,255,255,255 // jmpq 132bd <_sk_load_565_dst_avx+0x25>
+ .byte 233,0,255,255,255 // jmpq 13309 <_sk_load_565_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28238,23 +28258,23 @@ _sk_gather_565_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,117,244,1,0 // vbroadcastss 0x1f475(%rip),%ymm0 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
+ .byte 196,226,125,24,5,233,244,1,0 // vbroadcastss 0x1f4e9(%rip),%ymm0 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x900>
.byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,104,244,1,0 // vbroadcastss 0x1f468(%rip),%ymm1 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
+ .byte 196,226,125,24,13,220,244,1,0 // vbroadcastss 0x1f4dc(%rip),%ymm1 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x904>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,95,244,1,0 // vbroadcastss 0x1f45f(%rip),%ymm1 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
+ .byte 196,226,125,24,13,211,244,1,0 // vbroadcastss 0x1f4d3(%rip),%ymm1 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x908>
.byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,82,244,1,0 // vbroadcastss 0x1f452(%rip),%ymm3 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x910>
+ .byte 196,226,125,24,29,198,244,1,0 // vbroadcastss 0x1f4c6(%rip),%ymm3 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x90c>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,73,244,1,0 // vbroadcastss 0x1f449(%rip),%ymm3 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
+ .byte 196,226,125,24,29,189,244,1,0 // vbroadcastss 0x1f4bd(%rip),%ymm3 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x910>
.byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,60,244,1,0 // vbroadcastss 0x1f43c(%rip),%ymm3 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
+ .byte 196,226,125,24,29,176,244,1,0 // vbroadcastss 0x1f4b0(%rip),%ymm3 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x914>
.byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,161,243,1,0 // vbroadcastss 0x1f3a1(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,21,244,1,0 // vbroadcastss 0x1f415(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
.byte 65,94 // pop %r14
@@ -28273,14 +28293,14 @@ _sk_store_565_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,100,244,1,0 // vbroadcastss 0x1f464(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
+ .byte 196,98,125,24,5,216,244,1,0 // vbroadcastss 0x1f4d8(%rip),%ymm8 # 32ab4 <_sk_srcover_rgba_8888_sse2_lowp+0x974>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,11 // vpslld $0xb,%xmm9,%xmm10
.byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
.byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
.byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,98,125,24,21,61,244,1,0 // vbroadcastss 0x1f43d(%rip),%ymm10 # 329f8 <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
+ .byte 196,98,125,24,21,177,244,1,0 // vbroadcastss 0x1f4b1(%rip),%ymm10 # 32ab8 <_sk_srcover_rgba_8888_sse2_lowp+0x978>
.byte 196,65,116,89,210 // vmulps %ymm10,%ymm1,%ymm10
.byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
.byte 196,193,33,114,242,5 // vpslld $0x5,%xmm10,%xmm11
@@ -28294,7 +28314,7 @@ _sk_store_565_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1360b <_sk_store_565_avx+0x9a>
+ .byte 117,10 // jne 13657 <_sk_store_565_avx+0x9a>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28302,22 +28322,22 @@ _sk_store_565_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13607 <_sk_store_565_avx+0x96>
+ .byte 119,236 // ja 13653 <_sk_store_565_avx+0x96>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 13668 <_sk_store_565_avx+0xf7>
+ .byte 76,141,21,66,0,0,0 // lea 0x42(%rip),%r10 # 136b4 <_sk_store_565_avx+0xf7>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13607 <_sk_store_565_avx+0x96>
+ .byte 235,207 // jmp 13653 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13607 <_sk_store_565_avx+0x96>
+ .byte 235,191 // jmp 13653 <_sk_store_565_avx+0x96>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13607 <_sk_store_565_avx+0x96>
+ .byte 235,159 // jmp 13653 <_sk_store_565_avx+0x96>
.byte 199 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
@@ -28335,7 +28355,7 @@ _sk_store_565_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1013680 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe1604>
+ .byte 232,255,255,255,224 // callq ffffffffe10136cc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe0fe158c>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -28352,31 +28372,31 @@ _sk_load_4444_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 1373d <_sk_load_4444_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 13789 <_sk_load_4444_avx+0xb9>
.byte 196,129,122,111,4,88 // vmovdqu (%r8,%r11,2),%xmm0
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,53,243,1,0 // vbroadcastss 0x1f335(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,5,169,243,1,0 // vbroadcastss 0x1f3a9(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,40,243,1,0 // vbroadcastss 0x1f328(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,156,243,1,0 // vbroadcastss 0x1f39c(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,31,243,1,0 // vbroadcastss 0x1f31f(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,147,243,1,0 // vbroadcastss 0x1f393(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,18,243,1,0 // vbroadcastss 0x1f312(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,134,243,1,0 // vbroadcastss 0x1f386(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,9,243,1,0 // vbroadcastss 0x1f309(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,24,21,125,243,1,0 // vbroadcastss 0x1f37d(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,252,242,1,0 // vbroadcastss 0x1f2fc(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,112,243,1,0 // vbroadcastss 0x1f370(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,242,242,1,0 // vbroadcastss 0x1f2f2(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,102,243,1,0 // vbroadcastss 0x1f366(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,228,242,1,0 // vbroadcastss 0x1f2e4(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,88,243,1,0 // vbroadcastss 0x1f358(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28385,27 +28405,27 @@ _sk_load_4444_avx:
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 136a9 <_sk_load_4444_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 136f5 <_sk_load_4444_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 137c4 <_sk_load_4444_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13810 <_sk_load_4444_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,50,255,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,110,12,88 // vmovd (%r8,%r11,2),%xmm1
.byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,21,255,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,129,121,196,68,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,121,196,68,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm0,%xmm0
.byte 196,129,122,126,12,88 // vmovq (%r8,%r11,2),%xmm1
.byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,232,254,255,255 // jmpq 136a9 <_sk_load_4444_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 136f5 <_sk_load_4444_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28441,31 +28461,31 @@ _sk_load_4444_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 13899 <_sk_load_4444_dst_avx+0xb9>
+ .byte 15,133,154,0,0,0 // jne 138e5 <_sk_load_4444_dst_avx+0xb9>
.byte 196,129,122,111,36,88 // vmovdqu (%r8,%r11,2),%xmm4
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
.byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,217,241,1,0 // vbroadcastss 0x1f1d9(%rip),%ymm4 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,37,77,242,1,0 // vbroadcastss 0x1f24d(%rip),%ymm4 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,204,241,1,0 // vbroadcastss 0x1f1cc(%rip),%ymm5 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,45,64,242,1,0 // vbroadcastss 0x1f240(%rip),%ymm5 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,195,241,1,0 // vbroadcastss 0x1f1c3(%rip),%ymm5 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,45,55,242,1,0 // vbroadcastss 0x1f237(%rip),%ymm5 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,182,241,1,0 // vbroadcastss 0x1f1b6(%rip),%ymm6 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,53,42,242,1,0 // vbroadcastss 0x1f22a(%rip),%ymm6 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,173,241,1,0 // vbroadcastss 0x1f1ad(%rip),%ymm6 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,24,53,33,242,1,0 // vbroadcastss 0x1f221(%rip),%ymm6 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
.byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,160,241,1,0 // vbroadcastss 0x1f1a0(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,20,242,1,0 // vbroadcastss 0x1f214(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,150,241,1,0 // vbroadcastss 0x1f196(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,10,242,1,0 // vbroadcastss 0x1f20a(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
.byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,136,241,1,0 // vbroadcastss 0x1f188(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,252,241,1,0 // vbroadcastss 0x1f1fc(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28474,27 +28494,27 @@ _sk_load_4444_dst_avx:
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,84,255,255,255 // ja 13805 <_sk_load_4444_dst_avx+0x25>
+ .byte 15,135,84,255,255,255 // ja 13851 <_sk_load_4444_dst_avx+0x25>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 13920 <_sk_load_4444_dst_avx+0x140>
+ .byte 76,141,21,100,0,0,0 // lea 0x64(%rip),%r10 # 1396c <_sk_load_4444_dst_avx+0x140>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 67,15,183,4,88 // movzwl (%r8,%r11,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,50,255,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,50,255,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,4,2 // vpinsrw $0x2,0x4(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,121,110,44,88 // vmovd (%r8,%r11,2),%xmm5
.byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,21,255,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,21,255,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,129,89,196,100,88,12,6 // vpinsrw $0x6,0xc(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,10,5 // vpinsrw $0x5,0xa(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,89,196,100,88,8,4 // vpinsrw $0x4,0x8(%r8,%r11,2),%xmm4,%xmm4
.byte 196,129,122,126,44,88 // vmovq (%r8,%r11,2),%xmm5
.byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,232,254,255,255 // jmpq 13805 <_sk_load_4444_dst_avx+0x25>
+ .byte 233,232,254,255,255 // jmpq 13851 <_sk_load_4444_dst_avx+0x25>
.byte 15,31,0 // nopl (%rax)
.byte 165 // movsl %ds:(%rsi),%es:(%rdi)
.byte 255 // (bad)
@@ -28587,25 +28607,25 @@ _sk_gather_4444_avx:
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,145,239,1,0 // vbroadcastss 0x1ef91(%rip),%ymm0 # 329fc <_sk_srcover_rgba_8888_sse2_lowp+0x980>
+ .byte 196,226,125,24,5,5,240,1,0 // vbroadcastss 0x1f005(%rip),%ymm0 # 32abc <_sk_srcover_rgba_8888_sse2_lowp+0x97c>
.byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,132,239,1,0 // vbroadcastss 0x1ef84(%rip),%ymm1 # 32a00 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
+ .byte 196,226,125,24,13,248,239,1,0 // vbroadcastss 0x1eff8(%rip),%ymm1 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0x980>
.byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,123,239,1,0 // vbroadcastss 0x1ef7b(%rip),%ymm1 # 32a04 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
+ .byte 196,226,125,24,13,239,239,1,0 // vbroadcastss 0x1efef(%rip),%ymm1 # 32ac4 <_sk_srcover_rgba_8888_sse2_lowp+0x984>
.byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,110,239,1,0 // vbroadcastss 0x1ef6e(%rip),%ymm2 # 32a08 <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
+ .byte 196,226,125,24,21,226,239,1,0 // vbroadcastss 0x1efe2(%rip),%ymm2 # 32ac8 <_sk_srcover_rgba_8888_sse2_lowp+0x988>
.byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,101,239,1,0 // vbroadcastss 0x1ef65(%rip),%ymm2 # 32a0c <_sk_srcover_rgba_8888_sse2_lowp+0x990>
+ .byte 196,226,125,24,21,217,239,1,0 // vbroadcastss 0x1efd9(%rip),%ymm2 # 32acc <_sk_srcover_rgba_8888_sse2_lowp+0x98c>
.byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,88,239,1,0 // vbroadcastss 0x1ef58(%rip),%ymm8 # 32a10 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
+ .byte 196,98,125,24,5,204,239,1,0 // vbroadcastss 0x1efcc(%rip),%ymm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0x990>
.byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,78,239,1,0 // vbroadcastss 0x1ef4e(%rip),%ymm8 # 32a14 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
+ .byte 196,98,125,24,5,194,239,1,0 // vbroadcastss 0x1efc2(%rip),%ymm8 # 32ad4 <_sk_srcover_rgba_8888_sse2_lowp+0x994>
.byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
.byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,64,239,1,0 // vbroadcastss 0x1ef40(%rip),%ymm8 # 32a18 <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
+ .byte 196,98,125,24,5,180,239,1,0 // vbroadcastss 0x1efb4(%rip),%ymm8 # 32ad8 <_sk_srcover_rgba_8888_sse2_lowp+0x998>
.byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
@@ -28626,7 +28646,7 @@ _sk_store_4444_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,20,239,1,0 // vbroadcastss 0x1ef14(%rip),%ymm8 # 32a1c <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
+ .byte 196,98,125,24,5,136,239,1,0 // vbroadcastss 0x1ef88(%rip),%ymm8 # 32adc <_sk_srcover_rgba_8888_sse2_lowp+0x99c>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,193,41,114,241,12 // vpslld $0xc,%xmm9,%xmm10
@@ -28653,7 +28673,7 @@ _sk_store_4444_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 13ba1 <_sk_store_4444_avx+0xb8>
+ .byte 117,10 // jne 13bed <_sk_store_4444_avx+0xb8>
.byte 196,1,122,127,4,88 // vmovdqu %xmm8,(%r8,%r11,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -28661,22 +28681,22 @@ _sk_store_4444_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 13b9d <_sk_store_4444_avx+0xb4>
+ .byte 119,236 // ja 13be9 <_sk_store_4444_avx+0xb4>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13c00 <_sk_store_4444_avx+0x117>
+ .byte 76,141,21,68,0,0,0 // lea 0x44(%rip),%r10 # 13c4c <_sk_store_4444_avx+0x117>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,3,121,21,4,88,0 // vpextrw $0x0,%xmm8,(%r8,%r11,2)
- .byte 235,207 // jmp 13b9d <_sk_store_4444_avx+0xb4>
+ .byte 235,207 // jmp 13be9 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%r11,2)
.byte 196,1,121,126,4,88 // vmovd %xmm8,(%r8,%r11,2)
- .byte 235,191 // jmp 13b9d <_sk_store_4444_avx+0xb4>
+ .byte 235,191 // jmp 13be9 <_sk_store_4444_avx+0xb4>
.byte 196,3,121,21,68,88,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%r11,2)
.byte 196,3,121,21,68,88,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%r11,2)
.byte 196,3,121,21,68,88,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%r11,2)
.byte 196,1,121,214,4,88 // vmovq %xmm8,(%r8,%r11,2)
- .byte 235,159 // jmp 13b9d <_sk_store_4444_avx+0xb4>
+ .byte 235,159 // jmp 13be9 <_sk_store_4444_avx+0xb4>
.byte 102,144 // xchg %ax,%ax
.byte 197,255,255 // (bad)
.byte 255,214 // callq *%rsi
@@ -28712,12 +28732,12 @@ _sk_load_8888_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13cc3 <_sk_load_8888_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13d0f <_sk_load_8888_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,214,234,1,0 // vmovapd 0x1ead6(%rip),%ymm10 # 32720 <_sk_srcover_rgba_8888_sse2_lowp+0x6a4>
+ .byte 197,125,40,21,74,235,1,0 // vmovapd 0x1eb4a(%rip),%ymm10 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x6a0>
.byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,32,237,1,0 // vbroadcastss 0x1ed20(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,148,237,1,0 // vbroadcastss 0x1ed94(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -28744,21 +28764,21 @@ _sk_load_8888_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13c42 <_sk_load_8888_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13c8e <_sk_load_8888_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13d78 <_sk_load_8888_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13dc4 <_sk_load_8888_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -28772,9 +28792,9 @@ _sk_load_8888_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 13c42 <_sk_load_8888_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13c8e <_sk_load_8888_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13d79 <_sk_load_8888_avx+0x15d>
+ .byte 120,255 // js 13dc5 <_sk_load_8888_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28807,12 +28827,12 @@ _sk_load_8888_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 13e3b <_sk_load_8888_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 13e87 <_sk_load_8888_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,126,233,1,0 // vmovapd 0x1e97e(%rip),%ymm10 # 32740 <_sk_srcover_rgba_8888_sse2_lowp+0x6c4>
+ .byte 197,125,40,21,242,233,1,0 // vmovapd 0x1e9f2(%rip),%ymm10 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x6c0>
.byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
.byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,168,235,1,0 // vbroadcastss 0x1eba8(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,28,236,1,0 // vbroadcastss 0x1ec1c(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -28839,21 +28859,21 @@ _sk_load_8888_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 13dba <_sk_load_8888_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 13e06 <_sk_load_8888_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13ef0 <_sk_load_8888_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 13f3c <_sk_load_8888_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -28867,9 +28887,9 @@ _sk_load_8888_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 13dba <_sk_load_8888_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 13e06 <_sk_load_8888_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 13ef1 <_sk_load_8888_dst_avx+0x15d>
+ .byte 120,255 // js 13f3d <_sk_load_8888_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -28947,10 +28967,10 @@ _sk_gather_8888_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,80,231,1,0 // vmovaps 0x1e750(%rip),%ymm10 # 32760 <_sk_srcover_rgba_8888_sse2_lowp+0x6e4>
+ .byte 197,124,40,21,196,231,1,0 // vmovaps 0x1e7c4(%rip),%ymm10 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x6e0>
.byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,90,233,1,0 // vbroadcastss 0x1e95a(%rip),%ymm9 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,13,206,233,1,0 // vbroadcastss 0x1e9ce(%rip),%ymm9 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
.byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
@@ -28987,7 +29007,7 @@ _sk_store_8888_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,138,232,1,0 // vbroadcastss 0x1e88a(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,254,232,1,0 // vbroadcastss 0x1e8fe(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29012,7 +29032,7 @@ _sk_store_8888_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14138 <_sk_store_8888_avx+0xae>
+ .byte 117,10 // jne 14184 <_sk_store_8888_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29020,17 +29040,17 @@ _sk_store_8888_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 14134 <_sk_store_8888_avx+0xaa>
+ .byte 119,236 // ja 14180 <_sk_store_8888_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 141a8 <_sk_store_8888_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 141f4 <_sk_store_8888_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 14134 <_sk_store_8888_avx+0xaa>
+ .byte 235,208 // jmp 14180 <_sk_store_8888_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 14134 <_sk_store_8888_avx+0xaa>
+ .byte 235,192 // jmp 14180 <_sk_store_8888_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29038,7 +29058,7 @@ _sk_store_8888_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 14134 <_sk_store_8888_avx+0xaa>
+ .byte 235,143 // jmp 14180 <_sk_store_8888_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29050,7 +29070,7 @@ _sk_store_8888_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb0141bc <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2140>
+ .byte 232,255,255,255,218 // callq ffffffffdb014208 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe20c8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29070,12 +29090,12 @@ _sk_load_bgra_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1426b <_sk_load_bgra_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 142b7 <_sk_load_bgra_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,142,229,1,0 // vmovapd 0x1e58e(%rip),%ymm10 # 32780 <_sk_srcover_rgba_8888_sse2_lowp+0x704>
+ .byte 197,125,40,21,2,230,1,0 // vmovapd 0x1e602(%rip),%ymm10 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x700>
.byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
.byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,120,231,1,0 // vbroadcastss 0x1e778(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,236,231,1,0 // vbroadcastss 0x1e7ec(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
.byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
.byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
@@ -29102,21 +29122,21 @@ _sk_load_bgra_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 141ea <_sk_load_bgra_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 14236 <_sk_load_bgra_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14320 <_sk_load_bgra_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 1436c <_sk_load_bgra_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,8 // vmovd 0x8(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
.byte 196,129,123,16,4,152 // vmovsd (%r8,%r11,4),%xmm0
.byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
.byte 196,129,121,110,68,152,24 // vmovd 0x18(%r8,%r11,4),%xmm0
.byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
@@ -29130,9 +29150,9 @@ _sk_load_bgra_avx:
.byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
.byte 196,129,121,16,4,152 // vmovupd (%r8,%r11,4),%xmm0
.byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,203,254,255,255 // jmpq 141ea <_sk_load_bgra_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 14236 <_sk_load_bgra_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14321 <_sk_load_bgra_avx+0x15d>
+ .byte 120,255 // js 1436d <_sk_load_bgra_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29165,12 +29185,12 @@ _sk_load_bgra_dst_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 143e3 <_sk_load_bgra_dst_avx+0xa7>
+ .byte 15,133,135,0,0,0 // jne 1442f <_sk_load_bgra_dst_avx+0xa7>
.byte 196,1,125,16,12,152 // vmovupd (%r8,%r11,4),%ymm9
- .byte 197,125,40,21,54,228,1,0 // vmovapd 0x1e436(%rip),%ymm10 # 327a0 <_sk_srcover_rgba_8888_sse2_lowp+0x724>
+ .byte 197,125,40,21,170,228,1,0 // vmovapd 0x1e4aa(%rip),%ymm10 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x720>
.byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
.byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,0,230,1,0 // vbroadcastss 0x1e600(%rip),%ymm8 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,5,116,230,1,0 // vbroadcastss 0x1e674(%rip),%ymm8 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
.byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
.byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
@@ -29197,21 +29217,21 @@ _sk_load_bgra_dst_avx:
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,102,255,255,255 // ja 14362 <_sk_load_bgra_dst_avx+0x26>
+ .byte 15,135,102,255,255,255 // ja 143ae <_sk_load_bgra_dst_avx+0x26>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 14498 <_sk_load_bgra_dst_avx+0x15c>
+ .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 144e4 <_sk_load_bgra_dst_avx+0x15c>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,122,16,12,152 // vmovss (%r8,%r11,4),%xmm9
- .byte 233,71,255,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,71,255,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,8 // vmovd 0x8(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
.byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
.byte 196,129,123,16,36,152 // vmovsd (%r8,%r11,4),%xmm4
.byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,32,255,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,32,255,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
.byte 196,129,121,110,100,152,24 // vmovd 0x18(%r8,%r11,4),%xmm4
.byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
.byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
@@ -29225,9 +29245,9 @@ _sk_load_bgra_dst_avx:
.byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
.byte 196,129,121,16,36,152 // vmovupd (%r8,%r11,4),%xmm4
.byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,203,254,255,255 // jmpq 14362 <_sk_load_bgra_dst_avx+0x26>
+ .byte 233,203,254,255,255 // jmpq 143ae <_sk_load_bgra_dst_avx+0x26>
.byte 144 // nop
- .byte 120,255 // js 14499 <_sk_load_bgra_dst_avx+0x15d>
+ .byte 120,255 // js 144e5 <_sk_load_bgra_dst_avx+0x15d>
.byte 255 // (bad)
.byte 255,153,255,255,255,131 // lcall *-0x7c000001(%rcx)
.byte 255 // (bad)
@@ -29305,10 +29325,10 @@ _sk_gather_bgra_avx:
.byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
.byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
.byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,8,226,1,0 // vmovaps 0x1e208(%rip),%ymm9 # 327c0 <_sk_srcover_rgba_8888_sse2_lowp+0x744>
+ .byte 197,124,40,13,124,226,1,0 // vmovaps 0x1e27c(%rip),%ymm9 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x740>
.byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,178,227,1,0 // vbroadcastss 0x1e3b2(%rip),%ymm10 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x900>
+ .byte 196,98,125,24,21,38,228,1,0 // vbroadcastss 0x1e426(%rip),%ymm10 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
.byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
.byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
.byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
@@ -29345,7 +29365,7 @@ _sk_store_bgra_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,218 // movslq %edx,%r11
- .byte 196,98,125,24,5,226,226,1,0 // vbroadcastss 0x1e2e2(%rip),%ymm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 196,98,125,24,5,86,227,1,0 // vbroadcastss 0x1e356(%rip),%ymm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 196,65,108,89,200 // vmulps %ymm8,%ymm2,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
@@ -29370,7 +29390,7 @@ _sk_store_bgra_avx:
.byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
.byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 146e0 <_sk_store_bgra_avx+0xae>
+ .byte 117,10 // jne 1472c <_sk_store_bgra_avx+0xae>
.byte 196,1,124,17,4,152 // vmovups %ymm8,(%r8,%r11,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -29378,17 +29398,17 @@ _sk_store_bgra_avx:
.byte 65,128,225,7 // and $0x7,%r9b
.byte 65,254,201 // dec %r9b
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,236 // ja 146dc <_sk_store_bgra_avx+0xaa>
+ .byte 119,236 // ja 14728 <_sk_store_bgra_avx+0xaa>
.byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 14750 <_sk_store_bgra_avx+0x11e>
+ .byte 76,141,21,85,0,0,0 // lea 0x55(%rip),%r10 # 1479c <_sk_store_bgra_avx+0x11e>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,1,121,126,4,152 // vmovd %xmm8,(%r8,%r11,4)
- .byte 235,208 // jmp 146dc <_sk_store_bgra_avx+0xaa>
+ .byte 235,208 // jmp 14728 <_sk_store_bgra_avx+0xaa>
.byte 196,3,121,22,68,152,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%r11,4)
.byte 196,1,121,214,4,152 // vmovq %xmm8,(%r8,%r11,4)
- .byte 235,192 // jmp 146dc <_sk_store_bgra_avx+0xaa>
+ .byte 235,192 // jmp 14728 <_sk_store_bgra_avx+0xaa>
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,3,121,22,76,152,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%r11,4)
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
@@ -29396,7 +29416,7 @@ _sk_store_bgra_avx:
.byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
.byte 196,1,122,17,76,152,16 // vmovss %xmm9,0x10(%r8,%r11,4)
.byte 196,1,121,17,4,152 // vmovupd %xmm8,(%r8,%r11,4)
- .byte 235,143 // jmp 146dc <_sk_store_bgra_avx+0xaa>
+ .byte 235,143 // jmp 14728 <_sk_store_bgra_avx+0xaa>
.byte 15,31,0 // nopl (%rax)
.byte 180,255 // mov $0xff,%ah
.byte 255 // (bad)
@@ -29408,7 +29428,7 @@ _sk_store_bgra_avx:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb014764 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe26e8>
+ .byte 232,255,255,255,218 // callq ffffffffdb0147b0 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffdafe2670>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,204 // dec %esp
@@ -29433,7 +29453,7 @@ _sk_load_f16_avx:
.byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
.byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
.byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 149c7 <_sk_load_f16_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14a13 <_sk_load_f16_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,84,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm2
.byte 196,193,121,16,92,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm3
@@ -29450,14 +29470,14 @@ _sk_load_f16_avx:
.byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,247,234,1,0 // vmovddup 0x1eaf7(%rip),%xmm10 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
+ .byte 197,123,18,21,107,235,1,0 // vmovddup 0x1eb6b(%rip),%xmm10 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
.byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,125,226,1,0 // vbroadcastss 0x1e27d(%rip),%xmm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,98,121,24,29,241,226,1,0 // vbroadcastss 0x1e2f1(%rip),%xmm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
.byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
.byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
.byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,214,234,1,0 // vmovddup 0x1ead6(%rip),%xmm12 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 197,123,18,37,74,235,1,0 // vmovddup 0x1eb4a(%rip),%xmm12 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
.byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
.byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
.byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
@@ -29466,7 +29486,7 @@ _sk_load_f16_avx:
.byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,55,226,1,0 // vbroadcastss 0x1e237(%rip),%xmm3 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 196,226,121,24,29,171,226,1,0 // vbroadcastss 0x1e2ab(%rip),%xmm3 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29545,29 +29565,29 @@ _sk_load_f16_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14a2d <_sk_load_f16_avx+0x2c1>
+ .byte 116,85 // je 14a79 <_sk_load_f16_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14a2d <_sk_load_f16_avx+0x2c1>
+ .byte 114,72 // jb 14a79 <_sk_load_f16_avx+0x2c1>
.byte 196,193,123,16,84,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14a3a <_sk_load_f16_avx+0x2ce>
+ .byte 116,72 // je 14a86 <_sk_load_f16_avx+0x2ce>
.byte 196,193,105,22,84,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14a3a <_sk_load_f16_avx+0x2ce>
+ .byte 114,59 // jb 14a86 <_sk_load_f16_avx+0x2ce>
.byte 196,193,123,16,92,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 147c3 <_sk_load_f16_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 1480f <_sk_load_f16_avx+0x57>
.byte 196,193,97,22,92,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 147c3 <_sk_load_f16_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 1480f <_sk_load_f16_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 147c3 <_sk_load_f16_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 1480f <_sk_load_f16_avx+0x57>
HIDDEN _sk_load_f16_dst_avx
.globl _sk_load_f16_dst_avx
@@ -29586,7 +29606,7 @@ _sk_load_f16_dst_avx:
.byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
.byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
.byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 14c9e <_sk_load_f16_dst_avx+0x25b>
+ .byte 15,133,31,2,0,0 // jne 14cea <_sk_load_f16_dst_avx+0x25b>
.byte 196,65,121,16,4,192 // vmovupd (%r8,%rax,8),%xmm8
.byte 196,193,121,16,116,192,16 // vmovupd 0x10(%r8,%rax,8),%xmm6
.byte 196,193,121,16,124,192,32 // vmovupd 0x20(%r8,%rax,8),%xmm7
@@ -29603,14 +29623,14 @@ _sk_load_f16_dst_avx:
.byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
.byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
.byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,32,232,1,0 // vmovddup 0x1e820(%rip),%xmm10 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
+ .byte 197,123,18,21,148,232,1,0 // vmovddup 0x1e894(%rip),%xmm10 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
.byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,166,223,1,0 // vbroadcastss 0x1dfa6(%rip),%xmm11 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,98,121,24,29,26,224,1,0 // vbroadcastss 0x1e01a(%rip),%xmm11 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
.byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
.byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
.byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,255,231,1,0 // vmovddup 0x1e7ff(%rip),%xmm12 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 197,123,18,37,115,232,1,0 // vmovddup 0x1e873(%rip),%xmm12 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
.byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
.byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
.byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
@@ -29619,7 +29639,7 @@ _sk_load_f16_dst_avx:
.byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
.byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
.byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,96,223,1,0 // vbroadcastss 0x1df60(%rip),%xmm7 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 196,226,121,24,61,212,223,1,0 // vbroadcastss 0x1dfd4(%rip),%xmm7 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
.byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
.byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
@@ -29698,29 +29718,29 @@ _sk_load_f16_dst_avx:
.byte 196,65,123,16,4,192 // vmovsd (%r8,%rax,8),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 14d04 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 116,85 // je 14d50 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,65,57,22,68,192,8 // vmovhpd 0x8(%r8,%rax,8),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 14d04 <_sk_load_f16_dst_avx+0x2c1>
+ .byte 114,72 // jb 14d50 <_sk_load_f16_dst_avx+0x2c1>
.byte 196,193,123,16,116,192,16 // vmovsd 0x10(%r8,%rax,8),%xmm6
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 14d11 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 116,72 // je 14d5d <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,73,22,116,192,24 // vmovhpd 0x18(%r8,%rax,8),%xmm6,%xmm6
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 14d11 <_sk_load_f16_dst_avx+0x2ce>
+ .byte 114,59 // jb 14d5d <_sk_load_f16_dst_avx+0x2ce>
.byte 196,193,123,16,124,192,32 // vmovsd 0x20(%r8,%rax,8),%xmm7
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 14a9a <_sk_load_f16_dst_avx+0x57>
+ .byte 15,132,179,253,255,255 // je 14ae6 <_sk_load_f16_dst_avx+0x57>
.byte 196,193,65,22,124,192,40 // vmovhpd 0x28(%r8,%rax,8),%xmm7,%xmm7
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 14a9a <_sk_load_f16_dst_avx+0x57>
+ .byte 15,130,162,253,255,255 // jb 14ae6 <_sk_load_f16_dst_avx+0x57>
.byte 196,65,122,126,76,192,48 // vmovq 0x30(%r8,%rax,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,150,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
.byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,137,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
.byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 14a9a <_sk_load_f16_dst_avx+0x57>
+ .byte 233,128,253,255,255 // jmpq 14ae6 <_sk_load_f16_dst_avx+0x57>
HIDDEN _sk_gather_f16_avx
.globl _sk_gather_f16_avx
@@ -29799,14 +29819,14 @@ _sk_gather_f16_avx:
.byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
.byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,134,228,1,0 // vmovddup 0x1e486(%rip),%xmm11 # 332f8 <_sk_srcover_rgba_8888_sse2_lowp+0x127c>
+ .byte 197,123,18,29,250,228,1,0 // vmovddup 0x1e4fa(%rip),%xmm11 # 333b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1278>
.byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,12,220,1,0 // vbroadcastss 0x1dc0c(%rip),%xmm12 # 32a8c <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
+ .byte 196,98,121,24,37,128,220,1,0 // vbroadcastss 0x1dc80(%rip),%xmm12 # 32b4c <_sk_srcover_rgba_8888_sse2_lowp+0xa0c>
.byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
.byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
.byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
.byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,101,228,1,0 // vmovddup 0x1e465(%rip),%xmm13 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x1284>
+ .byte 197,123,18,45,217,228,1,0 // vmovddup 0x1e4d9(%rip),%xmm13 # 333c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1280>
.byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
.byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
.byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
@@ -29815,7 +29835,7 @@ _sk_gather_f16_avx:
.byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
.byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
.byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,198,219,1,0 // vbroadcastss 0x1dbc6(%rip),%xmm3 # 32a90 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
+ .byte 196,226,121,24,29,58,220,1,0 // vbroadcastss 0x1dc3a(%rip),%xmm3 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xa10>
.byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
.byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
@@ -29905,12 +29925,12 @@ _sk_store_f16_avx:
.byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
.byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
.byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,252,217,1,0 // vbroadcastss 0x1d9fc(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,112,218,1,0 // vbroadcastss 0x1da70(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,34,218,1,0 // vbroadcastss 0x1da22(%rip),%ymm10 # 32a94 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
+ .byte 196,98,125,24,21,150,218,1,0 // vbroadcastss 0x1da96(%rip),%ymm10 # 32b54 <_sk_srcover_rgba_8888_sse2_lowp+0xa14>
.byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
.byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,18,218,1,0 // vbroadcastss 0x1da12(%rip),%xmm9 # 32a98 <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
+ .byte 196,98,121,24,13,134,218,1,0 // vbroadcastss 0x1da86(%rip),%xmm9 # 32b58 <_sk_srcover_rgba_8888_sse2_lowp+0xa18>
.byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
.byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
.byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
@@ -29921,7 +29941,7 @@ _sk_store_f16_avx:
.byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
.byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,213,217,1,0 // vbroadcastss 0x1d9d5(%rip),%xmm11 # 32a9c <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 196,98,121,24,29,73,218,1,0 // vbroadcastss 0x1da49(%rip),%xmm11 # 32b5c <_sk_srcover_rgba_8888_sse2_lowp+0xa1c>
.byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
.byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
.byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
@@ -30004,7 +30024,7 @@ _sk_store_f16_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 1529e <_sk_store_f16_avx+0x262>
+ .byte 117,68 // jne 152ea <_sk_store_f16_avx+0x262>
.byte 196,65,122,127,28,192 // vmovdqu %xmm11,(%r8,%rax,8)
.byte 196,65,122,127,84,192,16 // vmovdqu %xmm10,0x10(%r8,%rax,8)
.byte 196,65,122,127,76,192,32 // vmovdqu %xmm9,0x20(%r8,%rax,8)
@@ -30020,22 +30040,22 @@ _sk_store_f16_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,192 // vmovq %xmm11,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 15275 <_sk_store_f16_avx+0x239>
+ .byte 116,203 // je 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,92,192,8 // vmovhpd %xmm11,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 15275 <_sk_store_f16_avx+0x239>
+ .byte 114,190 // jb 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,84,192,16 // vmovq %xmm10,0x10(%r8,%rax,8)
- .byte 116,181 // je 15275 <_sk_store_f16_avx+0x239>
+ .byte 116,181 // je 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,84,192,24 // vmovhpd %xmm10,0x18(%r8,%rax,8)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 15275 <_sk_store_f16_avx+0x239>
+ .byte 114,168 // jb 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,76,192,32 // vmovq %xmm9,0x20(%r8,%rax,8)
- .byte 116,159 // je 15275 <_sk_store_f16_avx+0x239>
+ .byte 116,159 // je 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,23,76,192,40 // vmovhpd %xmm9,0x28(%r8,%rax,8)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 15275 <_sk_store_f16_avx+0x239>
+ .byte 114,146 // jb 152c1 <_sk_store_f16_avx+0x239>
.byte 196,65,121,214,68,192,48 // vmovq %xmm8,0x30(%r8,%rax,8)
- .byte 235,137 // jmp 15275 <_sk_store_f16_avx+0x239>
+ .byte 235,137 // jmp 152c1 <_sk_store_f16_avx+0x239>
HIDDEN _sk_load_u16_be_avx
.globl _sk_load_u16_be_avx
@@ -30050,7 +30070,7 @@ _sk_load_u16_be_avx:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 1541f <_sk_load_u16_be_avx+0x133>
+ .byte 15,133,12,1,0,0 // jne 1546b <_sk_load_u16_be_avx+0x133>
.byte 196,65,121,16,4,64 // vmovupd (%r8,%rax,2),%xmm8
.byte 196,193,121,16,84,64,16 // vmovupd 0x10(%r8,%rax,2),%xmm2
.byte 196,193,121,16,92,64,32 // vmovupd 0x20(%r8,%rax,2),%xmm3
@@ -30072,7 +30092,7 @@ _sk_load_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,20,214,1,0 // vbroadcastss 0x1d614(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,13,136,214,1,0 // vbroadcastss 0x1d688(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
.byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
@@ -30109,29 +30129,29 @@ _sk_load_u16_be_avx:
.byte 196,65,123,16,4,64 // vmovsd (%r8,%rax,2),%xmm8
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 15485 <_sk_load_u16_be_avx+0x199>
+ .byte 116,85 // je 154d1 <_sk_load_u16_be_avx+0x199>
.byte 196,65,57,22,68,64,8 // vmovhpd 0x8(%r8,%rax,2),%xmm8,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 15485 <_sk_load_u16_be_avx+0x199>
+ .byte 114,72 // jb 154d1 <_sk_load_u16_be_avx+0x199>
.byte 196,193,123,16,84,64,16 // vmovsd 0x10(%r8,%rax,2),%xmm2
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 15492 <_sk_load_u16_be_avx+0x1a6>
+ .byte 116,72 // je 154de <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,105,22,84,64,24 // vmovhpd 0x18(%r8,%rax,2),%xmm2,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 15492 <_sk_load_u16_be_avx+0x1a6>
+ .byte 114,59 // jb 154de <_sk_load_u16_be_avx+0x1a6>
.byte 196,193,123,16,92,64,32 // vmovsd 0x20(%r8,%rax,2),%xmm3
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 1532e <_sk_load_u16_be_avx+0x42>
+ .byte 15,132,198,254,255,255 // je 1537a <_sk_load_u16_be_avx+0x42>
.byte 196,193,97,22,92,64,40 // vmovhpd 0x28(%r8,%rax,2),%xmm3,%xmm3
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 1532e <_sk_load_u16_be_avx+0x42>
+ .byte 15,130,181,254,255,255 // jb 1537a <_sk_load_u16_be_avx+0x42>
.byte 196,65,122,126,76,64,48 // vmovq 0x30(%r8,%rax,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
+ .byte 233,169,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
.byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
+ .byte 233,156,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
.byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 1532e <_sk_load_u16_be_avx+0x42>
+ .byte 233,147,254,255,255 // jmpq 1537a <_sk_load_u16_be_avx+0x42>
HIDDEN _sk_load_rgb_u16_be_avx
.globl _sk_load_rgb_u16_be_avx
@@ -30148,7 +30168,7 @@ _sk_load_rgb_u16_be_avx:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 155c3 <_sk_load_rgb_u16_be_avx+0x128>
+ .byte 15,133,253,0,0,0 // jne 1560f <_sk_load_rgb_u16_be_avx+0x128>
.byte 196,65,122,111,28,64 // vmovdqu (%r8,%rax,2),%xmm11
.byte 196,193,122,111,92,64,12 // vmovdqu 0xc(%r8,%rax,2),%xmm3
.byte 196,193,122,111,84,64,24 // vmovdqu 0x18(%r8,%rax,2),%xmm2
@@ -30176,7 +30196,7 @@ _sk_load_rgb_u16_be_avx:
.byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
.byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
.byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,67,212,1,0 // vbroadcastss 0x1d443(%rip),%ymm9 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x91c>
+ .byte 196,98,125,24,13,183,212,1,0 // vbroadcastss 0x1d4b7(%rip),%ymm9 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x918>
.byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
.byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
.byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
@@ -30198,69 +30218,69 @@ _sk_load_rgb_u16_be_avx:
.byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
.byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,71,211,1,0 // vbroadcastss 0x1d347(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,187,211,1,0 // vbroadcastss 0x1d3bb(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,4,64 // vmovd (%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,92,64,4,2 // vpinsrw $0x2,0x4(%r8,%rax,2),%xmm0,%xmm11
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 155fb <_sk_load_rgb_u16_be_avx+0x160>
+ .byte 117,31 // jne 15647 <_sk_load_rgb_u16_be_avx+0x160>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,0,255,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,6 // vmovd 0x6(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,68,64,10,2 // vpinsrw $0x2,0xa(%r8,%rax,2),%xmm0,%xmm8
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 15645 <_sk_load_rgb_u16_be_avx+0x1aa>
+ .byte 114,48 // jb 15691 <_sk_load_rgb_u16_be_avx+0x1aa>
.byte 196,193,121,110,68,64,12 // vmovd 0xc(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,92,64,16,2 // vpinsrw $0x2,0x10(%r8,%rax,2),%xmm0,%xmm3
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 1565f <_sk_load_rgb_u16_be_avx+0x1c4>
+ .byte 117,48 // jne 156ab <_sk_load_rgb_u16_be_avx+0x1c4>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,182,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
.byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
.byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,156,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,18 // vmovd 0x12(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,65,121,196,84,64,22,2 // vpinsrw $0x2,0x16(%r8,%rax,2),%xmm0,%xmm10
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 156a0 <_sk_load_rgb_u16_be_avx+0x205>
+ .byte 114,39 // jb 156ec <_sk_load_rgb_u16_be_avx+0x205>
.byte 196,193,121,110,68,64,24 // vmovd 0x18(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,84,64,28,2 // vpinsrw $0x2,0x1c(%r8,%rax,2),%xmm0,%xmm2
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 156b1 <_sk_load_rgb_u16_be_avx+0x216>
+ .byte 117,30 // jne 156fd <_sk_load_rgb_u16_be_avx+0x216>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,91,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
.byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,74,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 196,193,121,110,68,64,30 // vmovd 0x1e(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,76,64,34,2 // vpinsrw $0x2,0x22(%r8,%rax,2),%xmm0,%xmm1
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 156e4 <_sk_load_rgb_u16_be_avx+0x249>
+ .byte 114,25 // jb 15730 <_sk_load_rgb_u16_be_avx+0x249>
.byte 196,193,121,110,68,64,36 // vmovd 0x24(%r8,%rax,2),%xmm0
.byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
.byte 196,193,121,196,68,64,40,2 // vpinsrw $0x2,0x28(%r8,%rax,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,23,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 154fb <_sk_load_rgb_u16_be_avx+0x60>
+ .byte 233,14,254,255,255 // jmpq 15547 <_sk_load_rgb_u16_be_avx+0x60>
HIDDEN _sk_store_u16_be_avx
.globl _sk_store_u16_be_avx
@@ -30274,7 +30294,7 @@ _sk_store_u16_be_avx:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 196,98,125,24,5,12,211,1,0 // vbroadcastss 0x1d30c(%rip),%ymm8 # 32a20 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
+ .byte 196,98,125,24,5,128,211,1,0 // vbroadcastss 0x1d380(%rip),%ymm8 # 32ae0 <_sk_srcover_rgba_8888_sse2_lowp+0x9a0>
.byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
.byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
.byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
@@ -30312,7 +30332,7 @@ _sk_store_u16_be_avx:
.byte 196,65,17,98,200 // vpunpckldq %xmm8,%xmm13,%xmm9
.byte 196,65,17,106,192 // vpunpckhdq %xmm8,%xmm13,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 157f8 <_sk_store_u16_be_avx+0x10b>
+ .byte 117,31 // jne 15844 <_sk_store_u16_be_avx+0x10b>
.byte 196,65,122,127,28,64 // vmovdqu %xmm11,(%r8,%rax,2)
.byte 196,65,122,127,84,64,16 // vmovdqu %xmm10,0x10(%r8,%rax,2)
.byte 196,65,122,127,76,64,32 // vmovdqu %xmm9,0x20(%r8,%rax,2)
@@ -30321,22 +30341,22 @@ _sk_store_u16_be_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,214,28,64 // vmovq %xmm11,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,240 // je 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,92,64,8 // vmovhpd %xmm11,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,227 // jb 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,84,64,16 // vmovq %xmm10,0x10(%r8,%rax,2)
- .byte 116,218 // je 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,218 // je 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,84,64,24 // vmovhpd %xmm10,0x18(%r8,%rax,2)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,205 // jb 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,76,64,32 // vmovq %xmm9,0x20(%r8,%rax,2)
- .byte 116,196 // je 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 116,196 // je 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,23,76,64,40 // vmovhpd %xmm9,0x28(%r8,%rax,2)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 114,183 // jb 15840 <_sk_store_u16_be_avx+0x107>
.byte 196,65,121,214,68,64,48 // vmovq %xmm8,0x30(%r8,%rax,2)
- .byte 235,174 // jmp 157f4 <_sk_store_u16_be_avx+0x107>
+ .byte 235,174 // jmp 15840 <_sk_store_u16_be_avx+0x107>
HIDDEN _sk_load_f32_avx
.globl _sk_load_f32_avx
@@ -30345,7 +30365,7 @@ _sk_load_f32_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 159b7 <_sk_load_f32_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15a03 <_sk_load_f32_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
.byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
@@ -30358,7 +30378,7 @@ _sk_load_f32_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 159c8 <_sk_load_f32_avx+0x182>
+ .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 15a14 <_sk_load_f32_avx+0x182>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
@@ -30421,7 +30441,7 @@ _sk_load_f32_avx:
.byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 15991 <_sk_load_f32_avx+0x14b>
+ .byte 235,203 // jmp 159dd <_sk_load_f32_avx+0x14b>
.byte 102,144 // xchg %ax,%ax
.byte 27,255 // sbb %edi,%edi
.byte 255 // (bad)
@@ -30433,7 +30453,7 @@ _sk_load_f32_avx:
.byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
.byte 255,70,255 // incl -0x1(%rsi)
.byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 290159e4 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe3968>
+ .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29015a30 <_sk_srcover_rgba_8888_sse2_lowp+0x28fe38f0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // .byte 0xff
@@ -30445,7 +30465,7 @@ _sk_load_f32_dst_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,97,1,0,0 // ja 15b59 <_sk_load_f32_dst_avx+0x171>
+ .byte 15,135,97,1,0,0 // ja 15ba5 <_sk_load_f32_dst_avx+0x171>
.byte 72,131,236,24 // sub $0x18,%rsp
.byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
.byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
@@ -30458,7 +30478,7 @@ _sk_load_f32_dst_avx:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 77,99,201 // movslq %r9d,%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15b68 <_sk_load_f32_dst_avx+0x180>
+ .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 15bb4 <_sk_load_f32_dst_avx+0x180>
.byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
@@ -30521,7 +30541,7 @@ _sk_load_f32_dst_avx:
.byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
.byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
.byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 15b33 <_sk_load_f32_dst_avx+0x14b>
+ .byte 235,203 // jmp 15b7f <_sk_load_f32_dst_avx+0x14b>
.byte 29,255,255,255,163 // sbb $0xa3ffffff,%eax
.byte 255 // (bad)
.byte 255 // (bad)
@@ -30561,7 +30581,7 @@ _sk_store_f32_avx:
.byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
.byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 15c07 <_sk_store_f32_avx+0x7f>
+ .byte 117,55 // jne 15c53 <_sk_store_f32_avx+0x7f>
.byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
.byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
.byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
@@ -30574,22 +30594,22 @@ _sk_store_f32_avx:
.byte 255,224 // jmpq *%rax
.byte 196,65,121,17,20,128 // vmovupd %xmm10,(%r8,%rax,4)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 116,240 // je 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,76,128,16 // vmovupd %xmm9,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 114,227 // jb 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,68,128,32 // vmovupd %xmm8,0x20(%r8,%rax,4)
- .byte 116,218 // je 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 116,218 // je 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,65,121,17,92,128,48 // vmovupd %xmm11,0x30(%r8,%rax,4)
.byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 114,205 // jb 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,84,128,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%rax,4)
- .byte 116,195 // je 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 116,195 // je 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,76,128,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%rax,4)
.byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 114,181 // jb 15c4f <_sk_store_f32_avx+0x7b>
.byte 196,67,125,25,68,128,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%rax,4)
- .byte 235,171 // jmp 15c03 <_sk_store_f32_avx+0x7b>
+ .byte 235,171 // jmp 15c4f <_sk_store_f32_avx+0x7b>
HIDDEN _sk_repeat_x_avx
.globl _sk_repeat_x_avx
@@ -30632,7 +30652,7 @@ _sk_mirror_x_avx:
.byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,45,204,1,0 // vmulss 0x1cc2d(%rip),%xmm9,%xmm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,5,161,204,1,0 // vmulss 0x1cca1(%rip),%xmm9,%xmm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
@@ -30659,7 +30679,7 @@ _sk_mirror_y_avx:
.byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,195,203,1,0 // vmulss 0x1cbc3(%rip),%xmm9,%xmm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,178,89,13,55,204,1,0 // vmulss 0x1cc37(%rip),%xmm9,%xmm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
.byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
.byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
@@ -30679,7 +30699,7 @@ FUNCTION(_sk_clamp_x_1_avx)
_sk_clamp_x_1_avx:
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
.byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,128,203,1,0 // vbroadcastss 0x1cb80(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,244,203,1,0 // vbroadcastss 0x1cbf4(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30690,6 +30710,10 @@ FUNCTION(_sk_repeat_x_1_avx)
_sk_repeat_x_1_avx:
.byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
.byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
+ .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,206,203,1,0 // vbroadcastss 0x1cbce(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30697,17 +30721,20 @@ HIDDEN _sk_mirror_x_1_avx
.globl _sk_mirror_x_1_avx
FUNCTION(_sk_mirror_x_1_avx)
_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,119,203,1,0 // vbroadcastss 0x1cb77(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x8a4>
+ .byte 196,98,125,24,5,212,203,1,0 // vbroadcastss 0x1cbd4(%rip),%ymm8 # 329e0 <_sk_srcover_rgba_8888_sse2_lowp+0x8a0>
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,77,203,1,0 // vbroadcastss 0x1cb4d(%rip),%ymm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,13,170,203,1,0 // vbroadcastss 0x1cbaa(%rip),%ymm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
.byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
.byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
.byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
+ .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
+ .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
+ .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
+ .byte 196,98,125,24,5,122,203,1,0 // vbroadcastss 0x1cb7a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -30715,12 +30742,12 @@ HIDDEN _sk_luminance_to_alpha_avx
.globl _sk_luminance_to_alpha_avx
FUNCTION(_sk_luminance_to_alpha_avx)
_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,61,204,1,0 // vbroadcastss 0x1cc3d(%rip),%ymm3 # 32a28 <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
+ .byte 196,226,125,24,29,136,204,1,0 // vbroadcastss 0x1cc88(%rip),%ymm3 # 32ae8 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,44,204,1,0 // vbroadcastss 0x1cc2c(%rip),%ymm3 # 32a24 <_sk_srcover_rgba_8888_sse2_lowp+0x9a8>
+ .byte 196,226,125,24,29,119,204,1,0 // vbroadcastss 0x1cc77(%rip),%ymm3 # 32ae4 <_sk_srcover_rgba_8888_sse2_lowp+0x9a4>
.byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,35,204,1,0 // vbroadcastss 0x1cc23(%rip),%ymm1 # 32a2c <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
+ .byte 196,226,125,24,13,110,204,1,0 // vbroadcastss 0x1cc6e(%rip),%ymm1 # 32aec <_sk_srcover_rgba_8888_sse2_lowp+0x9ac>
.byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
.byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -30968,9 +30995,9 @@ _sk_evenly_spaced_gradient_avx:
.byte 72,139,24 // mov (%rax),%rbx
.byte 72,139,104,8 // mov 0x8(%rax),%rbp
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 161ad <_sk_evenly_spaced_gradient_avx+0x25>
+ .byte 120,7 // js 16222 <_sk_evenly_spaced_gradient_avx+0x25>
.byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 161c2 <_sk_evenly_spaced_gradient_avx+0x3a>
+ .byte 235,21 // jmp 16237 <_sk_evenly_spaced_gradient_avx+0x3a>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -31128,18 +31155,18 @@ HIDDEN _sk_gauss_a_to_rgba_avx
.globl _sk_gauss_a_to_rgba_avx
FUNCTION(_sk_gauss_a_to_rgba_avx)
_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,58,197,1,0 // vbroadcastss 0x1c53a(%rip),%ymm0 # 32a30 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
+ .byte 196,226,125,24,5,133,197,1,0 // vbroadcastss 0x1c585(%rip),%ymm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0x9b0>
.byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,49,197,1,0 // vbroadcastss 0x1c531(%rip),%ymm1 # 32a34 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
+ .byte 196,226,125,24,13,124,197,1,0 // vbroadcastss 0x1c57c(%rip),%ymm1 # 32af4 <_sk_srcover_rgba_8888_sse2_lowp+0x9b4>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,36,197,1,0 // vbroadcastss 0x1c524(%rip),%ymm1 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
+ .byte 196,226,125,24,13,111,197,1,0 // vbroadcastss 0x1c56f(%rip),%ymm1 # 32af8 <_sk_srcover_rgba_8888_sse2_lowp+0x9b8>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,23,197,1,0 // vbroadcastss 0x1c517(%rip),%ymm1 # 32a3c <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
+ .byte 196,226,125,24,13,98,197,1,0 // vbroadcastss 0x1c562(%rip),%ymm1 # 32afc <_sk_srcover_rgba_8888_sse2_lowp+0x9bc>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,10,197,1,0 // vbroadcastss 0x1c50a(%rip),%ymm1 # 32a40 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
+ .byte 196,226,125,24,13,85,197,1,0 // vbroadcastss 0x1c555(%rip),%ymm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0x9c0>
.byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,252,40,200 // vmovaps %ymm0,%ymm1
@@ -31161,12 +31188,12 @@ _sk_gradient_avx:
.byte 76,139,0 // mov (%rax),%r8
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 165b9 <_sk_gradient_avx+0x6f>
+ .byte 114,81 // jb 1662e <_sk_gradient_avx+0x6f>
.byte 72,139,88,72 // mov 0x48(%rax),%rbx
.byte 73,255,200 // dec %r8
.byte 72,131,195,4 // add $0x4,%rbx
.byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,139,195,1,0 // vbroadcastss 0x1c38b(%rip),%ymm10 # 3290c <_sk_srcover_rgba_8888_sse2_lowp+0x890>
+ .byte 196,98,125,24,21,214,195,1,0 // vbroadcastss 0x1c3d6(%rip),%ymm10 # 329cc <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
.byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
@@ -31178,7 +31205,7 @@ _sk_gradient_avx:
.byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
.byte 72,131,195,4 // add $0x4,%rbx
.byte 73,255,200 // dec %r8
- .byte 117,204 // jne 16585 <_sk_gradient_avx+0x3b>
+ .byte 117,204 // jne 165fa <_sk_gradient_avx+0x3b>
.byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
.byte 69,137,193 // mov %r8d,%r9d
.byte 73,193,232,32 // shr $0x20,%r8
@@ -31360,27 +31387,27 @@ _sk_xy_to_unit_angle_avx:
.byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
.byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
.byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,181,192,1,0 // vbroadcastss 0x1c0b5(%rip),%ymm13 # 32a44 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
+ .byte 196,98,125,24,45,0,193,1,0 // vbroadcastss 0x1c100(%rip),%ymm13 # 32b04 <_sk_srcover_rgba_8888_sse2_lowp+0x9c4>
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,171,192,1,0 // vbroadcastss 0x1c0ab(%rip),%ymm14 # 32a48 <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
+ .byte 196,98,125,24,53,246,192,1,0 // vbroadcastss 0x1c0f6(%rip),%ymm14 # 32b08 <_sk_srcover_rgba_8888_sse2_lowp+0x9c8>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,156,192,1,0 // vbroadcastss 0x1c09c(%rip),%ymm14 # 32a4c <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
+ .byte 196,98,125,24,53,231,192,1,0 // vbroadcastss 0x1c0e7(%rip),%ymm14 # 32b0c <_sk_srcover_rgba_8888_sse2_lowp+0x9cc>
.byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
.byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,141,192,1,0 // vbroadcastss 0x1c08d(%rip),%ymm13 # 32a50 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
+ .byte 196,98,125,24,45,216,192,1,0 // vbroadcastss 0x1c0d8(%rip),%ymm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0x9d0>
.byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
.byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
.byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,120,192,1,0 // vbroadcastss 0x1c078(%rip),%ymm10 # 32a54 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
+ .byte 196,98,125,24,21,195,192,1,0 // vbroadcastss 0x1c0c3(%rip),%ymm10 # 32b14 <_sk_srcover_rgba_8888_sse2_lowp+0x9d4>
.byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
.byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
.byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,14,191,1,0 // vbroadcastss 0x1bf0e(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,89,191,1,0 // vbroadcastss 0x1bf59(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
.byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
.byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,248,190,1,0 // vbroadcastss 0x1bef8(%rip),%ymm10 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,21,67,191,1,0 // vbroadcastss 0x1bf43(%rip),%ymm10 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
.byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
.byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
@@ -31410,7 +31437,7 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,238,191,1,0 // vbroadcastss 0x1bfee(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,29,57,192,1,0 // vbroadcastss 0x1c039(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31419,17 +31446,17 @@ _sk_xy_to_2pt_conical_quadratic_max_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,194,191,1,0 // vbroadcastss 0x1bfc2(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,13,192,1,0 // vbroadcastss 0x1c00d(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,160,191,1,0 // vbroadcastss 0x1bfa0(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,13,235,191,1,0 // vbroadcastss 0x1bfeb(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,49,190,1,0 // vbroadcastss 0x1be31(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,124,190,1,0 // vbroadcastss 0x1be7c(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31449,7 +31476,7 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,67,121,4,210,0 // vpermilps $0x0,%xmm10,%xmm10
.byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
.byte 197,44,88,208 // vaddps %ymm0,%ymm10,%ymm10
- .byte 196,98,125,24,29,64,191,1,0 // vbroadcastss 0x1bf40(%rip),%ymm11 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,29,139,191,1,0 // vbroadcastss 0x1bf8b(%rip),%ymm11 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,217 // vmulps %ymm1,%ymm1,%ymm11
@@ -31458,17 +31485,17 @@ _sk_xy_to_2pt_conical_quadratic_min_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,98,125,24,13,20,191,1,0 // vbroadcastss 0x1bf14(%rip),%ymm9 # 32a5c <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
+ .byte 196,98,125,24,13,95,191,1,0 // vbroadcastss 0x1bf5f(%rip),%ymm9 # 32b1c <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
.byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
.byte 196,65,44,89,194 // vmulps %ymm10,%ymm10,%ymm8
.byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
.byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
.byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,98,125,24,13,242,190,1,0 // vbroadcastss 0x1bef2(%rip),%ymm9 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,13,61,191,1,0 // vbroadcastss 0x1bf3d(%rip),%ymm9 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,65,44,87,201 // vxorps %ymm9,%ymm10,%ymm9
.byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 196,98,125,24,29,131,189,1,0 // vbroadcastss 0x1bd83(%rip),%ymm11 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,29,206,189,1,0 // vbroadcastss 0x1bdce(%rip),%ymm11 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
.byte 196,65,60,89,210 // vmulps %ymm10,%ymm8,%ymm10
.byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
@@ -31487,7 +31514,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,67,121,4,201,0 // vpermilps $0x0,%xmm9,%xmm9
.byte 196,67,53,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm9,%ymm9
.byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,98,125,24,21,152,190,1,0 // vbroadcastss 0x1be98(%rip),%ymm10 # 32a58 <_sk_srcover_rgba_8888_sse2_lowp+0x9dc>
+ .byte 196,98,125,24,21,227,190,1,0 // vbroadcastss 0x1bee3(%rip),%ymm10 # 32b18 <_sk_srcover_rgba_8888_sse2_lowp+0x9d8>
.byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
.byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
.byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
@@ -31496,7 +31523,7 @@ _sk_xy_to_2pt_conical_linear_avx:
.byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
.byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
.byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 196,98,125,24,5,112,190,1,0 // vbroadcastss 0x1be70(%rip),%ymm8 # 32a60 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
+ .byte 196,98,125,24,5,187,190,1,0 // vbroadcastss 0x1bebb(%rip),%ymm8 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0x9e0>
.byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
.byte 196,193,124,94,193 // vdivps %ymm9,%ymm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31540,7 +31567,7 @@ HIDDEN _sk_save_xy_avx
FUNCTION(_sk_save_xy_avx)
_sk_save_xy_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,154,188,1,0 // vbroadcastss 0x1bc9a(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,229,188,1,0 // vbroadcastss 0x1bce5(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
.byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
.byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
@@ -31577,9 +31604,9 @@ HIDDEN _sk_bilinear_nx_avx
FUNCTION(_sk_bilinear_nx_avx)
_sk_bilinear_nx_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,130,189,1,0 // vbroadcastss 0x1bd82(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,205,189,1,0 // vbroadcastss 0x1bdcd(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,25,188,1,0 // vbroadcastss 0x1bc19(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,100,188,1,0 // vbroadcastss 0x1bc64(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31590,7 +31617,7 @@ HIDDEN _sk_bilinear_px_avx
FUNCTION(_sk_bilinear_px_avx)
_sk_bilinear_px_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,249,187,1,0 // vbroadcastss 0x1bbf9(%rip),%ymm0 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,5,68,188,1,0 // vbroadcastss 0x1bc44(%rip),%ymm0 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31602,9 +31629,9 @@ HIDDEN _sk_bilinear_ny_avx
FUNCTION(_sk_bilinear_ny_avx)
_sk_bilinear_ny_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,57,189,1,0 // vbroadcastss 0x1bd39(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,132,189,1,0 // vbroadcastss 0x1bd84(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,207,187,1,0 // vbroadcastss 0x1bbcf(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,26,188,1,0 // vbroadcastss 0x1bc1a(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31615,7 +31642,7 @@ HIDDEN _sk_bilinear_py_avx
FUNCTION(_sk_bilinear_py_avx)
_sk_bilinear_py_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,175,187,1,0 // vbroadcastss 0x1bbaf(%rip),%ymm1 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,226,125,24,13,250,187,1,0 // vbroadcastss 0x1bbfa(%rip),%ymm1 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31627,14 +31654,14 @@ HIDDEN _sk_bicubic_n3x_avx
FUNCTION(_sk_bicubic_n3x_avx)
_sk_bicubic_n3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,242,188,1,0 // vbroadcastss 0x1bcf2(%rip),%ymm0 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,5,61,189,1,0 // vbroadcastss 0x1bd3d(%rip),%ymm0 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,133,187,1,0 // vbroadcastss 0x1bb85(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,208,187,1,0 // vbroadcastss 0x1bbd0(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,214,188,1,0 // vbroadcastss 0x1bcd6(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,33,189,1,0 // vbroadcastss 0x1bd21(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,212,187,1,0 // vbroadcastss 0x1bbd4(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,31,188,1,0 // vbroadcastss 0x1bc1f(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31646,19 +31673,19 @@ HIDDEN _sk_bicubic_n1x_avx
FUNCTION(_sk_bicubic_n1x_avx)
_sk_bicubic_n1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,159,188,1,0 // vbroadcastss 0x1bc9f(%rip),%ymm0 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,5,234,188,1,0 // vbroadcastss 0x1bcea(%rip),%ymm0 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,54,187,1,0 // vbroadcastss 0x1bb36(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,129,187,1,0 // vbroadcastss 0x1bb81(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,64 // vsubps 0x40(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,144,188,1,0 // vbroadcastss 0x1bc90(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,13,219,188,1,0 // vbroadcastss 0x1bcdb(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,134,188,1,0 // vbroadcastss 0x1bc86(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,209,188,1,0 // vbroadcastss 0x1bcd1(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,3,187,1,0 // vbroadcastss 0x1bb03(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,78,187,1,0 // vbroadcastss 0x1bb4e(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,100,188,1,0 // vbroadcastss 0x1bc64(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,175,188,1,0 // vbroadcastss 0x1bcaf(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31669,17 +31696,17 @@ HIDDEN _sk_bicubic_p1x_avx
FUNCTION(_sk_bicubic_p1x_avx)
_sk_bicubic_p1x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,212,186,1,0 // vbroadcastss 0x1bad4(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,31,187,1,0 // vbroadcastss 0x1bb1f(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
.byte 197,124,16,72,64 // vmovups 0x40(%rax),%ymm9
- .byte 196,98,125,24,21,46,188,1,0 // vbroadcastss 0x1bc2e(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,121,188,1,0 // vbroadcastss 0x1bc79(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,36,188,1,0 // vbroadcastss 0x1bc24(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,29,111,188,1,0 // vbroadcastss 0x1bc6f(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,11,188,1,0 // vbroadcastss 0x1bc0b(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,86,188,1,0 // vbroadcastss 0x1bc56(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31690,13 +31717,13 @@ HIDDEN _sk_bicubic_p3x_avx
FUNCTION(_sk_bicubic_p3x_avx)
_sk_bicubic_p3x_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,235,187,1,0 // vbroadcastss 0x1bbeb(%rip),%ymm0 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,226,125,24,5,54,188,1,0 // vbroadcastss 0x1bc36(%rip),%ymm0 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
.byte 197,124,16,64,64 // vmovups 0x40(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,204,187,1,0 // vbroadcastss 0x1bbcc(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,23,188,1,0 // vbroadcastss 0x1bc17(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,202,186,1,0 // vbroadcastss 0x1baca(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,21,187,1,0 // vbroadcastss 0x1bb15(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,128,0,0,0 // vmovups %ymm8,0x80(%rax)
@@ -31708,14 +31735,14 @@ HIDDEN _sk_bicubic_n3y_avx
FUNCTION(_sk_bicubic_n3y_avx)
_sk_bicubic_n3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,153,187,1,0 // vbroadcastss 0x1bb99(%rip),%ymm1 # 32a68 <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
+ .byte 196,226,125,24,13,228,187,1,0 // vbroadcastss 0x1bbe4(%rip),%ymm1 # 32b28 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,43,186,1,0 // vbroadcastss 0x1ba2b(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,118,186,1,0 // vbroadcastss 0x1ba76(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,124,187,1,0 // vbroadcastss 0x1bb7c(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,199,187,1,0 // vbroadcastss 0x1bbc7(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,122,186,1,0 // vbroadcastss 0x1ba7a(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,197,186,1,0 // vbroadcastss 0x1bac5(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31727,19 +31754,19 @@ HIDDEN _sk_bicubic_n1y_avx
FUNCTION(_sk_bicubic_n1y_avx)
_sk_bicubic_n1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,69,187,1,0 // vbroadcastss 0x1bb45(%rip),%ymm1 # 32a64 <_sk_srcover_rgba_8888_sse2_lowp+0x9e8>
+ .byte 196,226,125,24,13,144,187,1,0 // vbroadcastss 0x1bb90(%rip),%ymm1 # 32b24 <_sk_srcover_rgba_8888_sse2_lowp+0x9e4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,219,185,1,0 // vbroadcastss 0x1b9db(%rip),%ymm8 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,98,125,24,5,38,186,1,0 // vbroadcastss 0x1ba26(%rip),%ymm8 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,60,92,64,96 // vsubps 0x60(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,53,187,1,0 // vbroadcastss 0x1bb35(%rip),%ymm9 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,13,128,187,1,0 // vbroadcastss 0x1bb80(%rip),%ymm9 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,43,187,1,0 // vbroadcastss 0x1bb2b(%rip),%ymm10 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,21,118,187,1,0 // vbroadcastss 0x1bb76(%rip),%ymm10 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,168,185,1,0 // vbroadcastss 0x1b9a8(%rip),%ymm10 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,21,243,185,1,0 // vbroadcastss 0x1b9f3(%rip),%ymm10 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
.byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,9,187,1,0 // vbroadcastss 0x1bb09(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,84,187,1,0 // vbroadcastss 0x1bb54(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31750,17 +31777,17 @@ HIDDEN _sk_bicubic_p1y_avx
FUNCTION(_sk_bicubic_p1y_avx)
_sk_bicubic_p1y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,121,185,1,0 // vbroadcastss 0x1b979(%rip),%ymm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 196,98,125,24,5,196,185,1,0 // vbroadcastss 0x1b9c4(%rip),%ymm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 197,188,88,72,32 // vaddps 0x20(%rax),%ymm8,%ymm1
.byte 197,124,16,72,96 // vmovups 0x60(%rax),%ymm9
- .byte 196,98,125,24,21,210,186,1,0 // vbroadcastss 0x1bad2(%rip),%ymm10 # 32a70 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
+ .byte 196,98,125,24,21,29,187,1,0 // vbroadcastss 0x1bb1d(%rip),%ymm10 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,200,186,1,0 // vbroadcastss 0x1bac8(%rip),%ymm11 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,98,125,24,29,19,187,1,0 // vbroadcastss 0x1bb13(%rip),%ymm11 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
.byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
.byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,175,186,1,0 // vbroadcastss 0x1baaf(%rip),%ymm9 # 32a78 <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
+ .byte 196,98,125,24,13,250,186,1,0 // vbroadcastss 0x1bafa(%rip),%ymm9 # 32b38 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
.byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -31771,13 +31798,13 @@ HIDDEN _sk_bicubic_p3y_avx
FUNCTION(_sk_bicubic_p3y_avx)
_sk_bicubic_p3y_avx:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,143,186,1,0 // vbroadcastss 0x1ba8f(%rip),%ymm1 # 32a74 <_sk_srcover_rgba_8888_sse2_lowp+0x9f8>
+ .byte 196,226,125,24,13,218,186,1,0 // vbroadcastss 0x1bada(%rip),%ymm1 # 32b34 <_sk_srcover_rgba_8888_sse2_lowp+0x9f4>
.byte 197,244,88,72,32 // vaddps 0x20(%rax),%ymm1,%ymm1
.byte 197,124,16,64,96 // vmovups 0x60(%rax),%ymm8
.byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,111,186,1,0 // vbroadcastss 0x1ba6f(%rip),%ymm10 # 32a6c <_sk_srcover_rgba_8888_sse2_lowp+0x9f0>
+ .byte 196,98,125,24,21,186,186,1,0 // vbroadcastss 0x1baba(%rip),%ymm10 # 32b2c <_sk_srcover_rgba_8888_sse2_lowp+0x9ec>
.byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,109,185,1,0 // vbroadcastss 0x1b96d(%rip),%ymm10 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x8fc>
+ .byte 196,98,125,24,21,184,185,1,0 // vbroadcastss 0x1b9b8(%rip),%ymm10 # 32a38 <_sk_srcover_rgba_8888_sse2_lowp+0x8f8>
.byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
.byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
.byte 197,124,17,128,160,0,0,0 // vmovups %ymm8,0xa0(%rax)
@@ -31925,7 +31952,7 @@ _sk_clut_3D_avx:
.byte 72,139,0 // mov (%rax),%rax
.byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
.byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,7,184,1,0 // vbroadcastss 0x1b807(%rip),%xmm4 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,226,121,24,37,82,184,1,0 // vbroadcastss 0x1b852(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
.byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
.byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
@@ -31979,7 +32006,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,112,181,1,0 // vbroadcastss 0x1b570(%rip),%xmm10 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,121,24,21,187,181,1,0 // vbroadcastss 0x1b5bb(%rip),%xmm10 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
.byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
.byte 196,193,249,126,209 // vmovq %xmm2,%r9
@@ -32007,7 +32034,7 @@ _sk_clut_3D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,68,182,1,0 // vbroadcastss 0x1b644(%rip),%ymm7 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,226,125,24,61,143,182,1,0 // vbroadcastss 0x1b68f(%rip),%ymm7 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
.byte 197,124,40,231 // vmovaps %ymm7,%ymm12
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
@@ -32750,7 +32777,7 @@ _sk_clut_4D_avx:
.byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
.byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
.byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,8,167,1,0 // vbroadcastss 0x1a708(%rip),%xmm9 # 32a80 <_sk_srcover_rgba_8888_sse2_lowp+0xa04>
+ .byte 196,98,121,24,13,83,167,1,0 // vbroadcastss 0x1a753(%rip),%xmm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
.byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
.byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
.byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
@@ -32807,7 +32834,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
.byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
.byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,97,164,1,0 // vbroadcastss 0x1a461(%rip),%xmm10 # 32914 <_sk_srcover_rgba_8888_sse2_lowp+0x898>
+ .byte 196,98,121,24,21,172,164,1,0 // vbroadcastss 0x1a4ac(%rip),%xmm10 # 329d4 <_sk_srcover_rgba_8888_sse2_lowp+0x894>
.byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
.byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
.byte 196,193,249,126,193 // vmovq %xmm0,%r9
@@ -32835,7 +32862,7 @@ _sk_clut_4D_avx:
.byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
.byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
.byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,53,165,1,0 // vbroadcastss 0x1a535(%rip),%ymm12 # 32a7c <_sk_srcover_rgba_8888_sse2_lowp+0xa00>
+ .byte 196,98,125,24,37,128,165,1,0 // vbroadcastss 0x1a580(%rip),%ymm12 # 32b3c <_sk_srcover_rgba_8888_sse2_lowp+0x9fc>
.byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
.byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
.byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
@@ -34233,7 +34260,7 @@ _sk_clut_4D_avx:
.byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
.byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,130,134,1,0 // vbroadcastss 0x18682(%rip),%ymm3 # 32908 <_sk_srcover_rgba_8888_sse2_lowp+0x88c>
+ .byte 196,226,125,24,29,205,134,1,0 // vbroadcastss 0x186cd(%rip),%ymm3 # 329c8 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
.byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
.byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
.byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
@@ -34266,13 +34293,13 @@ _sk_start_pipeline_sse41:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1a370 <_sk_start_pipeline_sse41+0xb6>
+ .byte 15,131,131,0,0,0 // jae 1a3e5 <_sk_start_pipeline_sse41+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1a33e <_sk_start_pipeline_sse41+0x84>
+ .byte 119,59 // ja 1a3b3 <_sk_start_pipeline_sse41+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -34291,10 +34318,10 @@ _sk_start_pipeline_sse41:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1a307 <_sk_start_pipeline_sse41+0x4d>
+ .byte 118,201 // jbe 1a37c <_sk_start_pipeline_sse41+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1a367 <_sk_start_pipeline_sse41+0xad>
+ .byte 116,33 // je 1a3dc <_sk_start_pipeline_sse41+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34308,7 +34335,7 @@ _sk_start_pipeline_sse41:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1a2f9 <_sk_start_pipeline_sse41+0x3f>
+ .byte 117,137 // jne 1a36e <_sk_start_pipeline_sse41+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -34331,13 +34358,13 @@ _sk_seed_shader_sse41:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,93,135,1,0 // addps 0x1875d(%rip),%xmm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 15,88,5,168,135,1,0 // addps 0x187a8(%rip),%xmm0 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,90,135,1,0 // addps 0x1875a(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,165,135,1,0 // addps 0x187a5(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,97,135,1,0 // movaps 0x18761(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,172,135,1,0 // movaps 0x187ac(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -34352,18 +34379,18 @@ _sk_dither_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,250,134,1,0 // paddd 0x186fa(%rip),%xmm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,254,5,69,135,1,0 // paddd 0x18745(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,49,135,1,0 // movdqa 0x18731(%rip),%xmm10 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 102,68,15,111,21,124,135,1,0 // movdqa 0x1877c(%rip),%xmm10 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,29,135,1,0 // movdqa 0x1871d(%rip),%xmm12 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
- .byte 102,68,15,111,45,36,135,1,0 // movdqa 0x18724(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,104,135,1,0 // movdqa 0x18768(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 102,68,15,111,45,111,135,1,0 // movdqa 0x1876f(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -34379,8 +34406,8 @@ _sk_dither_sse41:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,223,134,1,0 // mulps 0x186df(%rip),%xmm8 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
- .byte 68,15,88,5,231,134,1,0 // addps 0x186e7(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,89,5,42,135,1,0 // mulps 0x1872a(%rip),%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,88,5,50,135,1,0 // addps 0x18732(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -34422,7 +34449,7 @@ HIDDEN _sk_black_color_sse41
FUNCTION(_sk_black_color_sse41)
_sk_black_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,29,134,1,0 // movaps 0x1861d(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,104,134,1,0 // movaps 0x18668(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -34433,7 +34460,7 @@ HIDDEN _sk_white_color_sse41
FUNCTION(_sk_white_color_sse41)
_sk_white_color_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,9,134,1,0 // movaps 0x18609(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,84,134,1,0 // movaps 0x18654(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -34479,7 +34506,7 @@ HIDDEN _sk_srcatop_sse41
FUNCTION(_sk_srcatop_sse41)
_sk_srcatop_sse41:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,185,133,1,0 // movaps 0x185b9(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,4,134,1,0 // movaps 0x18604(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34504,7 +34531,7 @@ FUNCTION(_sk_dstatop_sse41)
_sk_dstatop_sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,108,133,1,0 // movaps 0x1856c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,183,133,1,0 // movaps 0x185b7(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -34551,7 +34578,7 @@ HIDDEN _sk_srcout_sse41
.globl _sk_srcout_sse41
FUNCTION(_sk_srcout_sse41)
_sk_srcout_sse41:
- .byte 68,15,40,5,0,133,1,0 // movaps 0x18500(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,75,133,1,0 // movaps 0x1854b(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -34564,7 +34591,7 @@ HIDDEN _sk_dstout_sse41
.globl _sk_dstout_sse41
FUNCTION(_sk_dstout_sse41)
_sk_dstout_sse41:
- .byte 68,15,40,5,224,132,1,0 // movaps 0x184e0(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,43,133,1,0 // movaps 0x1852b(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -34581,7 +34608,7 @@ HIDDEN _sk_srcover_sse41
.globl _sk_srcover_sse41
FUNCTION(_sk_srcover_sse41)
_sk_srcover_sse41:
- .byte 68,15,40,5,179,132,1,0 // movaps 0x184b3(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,254,132,1,0 // movaps 0x184fe(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -34601,7 +34628,7 @@ HIDDEN _sk_dstover_sse41
.globl _sk_dstover_sse41
FUNCTION(_sk_dstover_sse41)
_sk_dstover_sse41:
- .byte 68,15,40,5,119,132,1,0 // movaps 0x18477(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,194,132,1,0 // movaps 0x184c2(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -34629,7 +34656,7 @@ HIDDEN _sk_multiply_sse41
.globl _sk_multiply_sse41
FUNCTION(_sk_multiply_sse41)
_sk_multiply_sse41:
- .byte 68,15,40,5,59,132,1,0 // movaps 0x1843b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,134,132,1,0 // movaps 0x18486(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -34667,7 +34694,7 @@ HIDDEN _sk_plus__sse41
FUNCTION(_sk_plus__sse41)
_sk_plus__sse41:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,188,131,1,0 // movaps 0x183bc(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,7,132,1,0 // movaps 0x18407(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -34709,7 +34736,7 @@ HIDDEN _sk_xor__sse41
FUNCTION(_sk_xor__sse41)
_sk_xor__sse41:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,72,131,1,0 // movaps 0x18348(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,147,131,1,0 // movaps 0x18393(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -34757,7 +34784,7 @@ _sk_darken_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,163,130,1,0 // movaps 0x182a3(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,238,130,1,0 // movaps 0x182ee(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34791,7 +34818,7 @@ _sk_lighten_sse41:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,56,130,1,0 // movaps 0x18238(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,131,130,1,0 // movaps 0x18283(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34828,7 +34855,7 @@ _sk_difference_sse41:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,194,129,1,0 // movaps 0x181c2(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,13,130,1,0 // movaps 0x1820d(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34856,7 +34883,7 @@ _sk_exclusion_sse41:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,114,129,1,0 // movaps 0x18172(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,189,129,1,0 // movaps 0x181bd(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -34868,7 +34895,7 @@ HIDDEN _sk_colorburn_sse41
.globl _sk_colorburn_sse41
FUNCTION(_sk_colorburn_sse41)
_sk_colorburn_sse41:
- .byte 68,15,40,29,89,129,1,0 // movaps 0x18159(%rip),%xmm11 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,164,129,1,0 // movaps 0x181a4(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 68,15,92,231 // subps %xmm7,%xmm12
.byte 69,15,40,204 // movaps %xmm12,%xmm9
@@ -34952,7 +34979,7 @@ HIDDEN _sk_colordodge_sse41
FUNCTION(_sk_colordodge_sse41)
_sk_colordodge_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,35,128,1,0 // movaps 0x18023(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,110,128,1,0 // movaps 0x1806e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -35034,7 +35061,7 @@ _sk_hardlight_sse41:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,238,126,1,0 // movaps 0x17eee(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,57,127,1,0 // movaps 0x17f39(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,40,234 // movaps %xmm10,%xmm5
.byte 15,92,239 // subps %xmm7,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
@@ -35117,7 +35144,7 @@ FUNCTION(_sk_overlay_sse41)
_sk_overlay_sse41:
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,195,125,1,0 // movaps 0x17dc3(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,14,126,1,0 // movaps 0x17e0e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -35202,7 +35229,7 @@ _sk_softlight_sse41:
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,138,124,1,0 // movaps 0x17c8a(%rip),%xmm1 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,13,213,124,1,0 // movaps 0x17cd5(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 68,15,40,240 // movaps %xmm0,%xmm14
@@ -35215,10 +35242,10 @@ _sk_softlight_sse41:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,210 // mulps %xmm2,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,184,124,1,0 // movaps 0x17cb8(%rip),%xmm13 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,45,3,125,1,0 // movaps 0x17d03(%rip),%xmm13 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
.byte 69,15,88,245 // addps %xmm13,%xmm14
.byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,184,124,1,0 // movaps 0x17cb8(%rip),%xmm12 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 68,15,40,37,3,125,1,0 // movaps 0x17d03(%rip),%xmm12 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
.byte 69,15,89,252 // mulps %xmm12,%xmm15
.byte 69,15,88,254 // addps %xmm14,%xmm15
.byte 15,40,198 // movaps %xmm6,%xmm0
@@ -35404,12 +35431,12 @@ _sk_hue_sse41:
.byte 68,15,84,208 // andps %xmm0,%xmm10
.byte 15,84,200 // andps %xmm0,%xmm1
.byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,35,122,1,0 // movaps 0x17a23(%rip),%xmm0 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 15,40,5,110,122,1,0 // movaps 0x17a6e(%rip),%xmm0 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,40,122,1,0 // movaps 0x17a28(%rip),%xmm2 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,21,115,122,1,0 // movaps 0x17a73(%rip),%xmm2 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 15,89,250 // mulps %xmm2,%xmm7
.byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,41,122,1,0 // movaps 0x17a29(%rip),%xmm14 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,53,116,122,1,0 // movaps 0x17a74(%rip),%xmm14 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 68,15,40,252 // movaps %xmm4,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,255 // addps %xmm7,%xmm15
@@ -35492,7 +35519,7 @@ _sk_hue_sse41:
.byte 65,15,88,214 // addps %xmm14,%xmm2
.byte 15,40,196 // movaps %xmm4,%xmm0
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,61,120,1,0 // movaps 0x1783d(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,136,120,1,0 // movaps 0x17888(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,40,225 // movaps %xmm9,%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
@@ -35586,14 +35613,14 @@ _sk_saturation_sse41:
.byte 68,15,84,215 // andps %xmm7,%xmm10
.byte 68,15,84,223 // andps %xmm7,%xmm11
.byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,103,119,1,0 // movaps 0x17767(%rip),%xmm2 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 15,40,21,178,119,1,0 // movaps 0x177b2(%rip),%xmm2 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,106,119,1,0 // movaps 0x1776a(%rip),%xmm1 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,13,181,119,1,0 // movaps 0x177b5(%rip),%xmm1 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,249 // mulps %xmm1,%xmm7
.byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,105,119,1,0 // movaps 0x17769(%rip),%xmm13 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,45,180,119,1,0 // movaps 0x177b4(%rip),%xmm13 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 68,15,88,247 // addps %xmm7,%xmm14
.byte 65,15,40,218 // movaps %xmm10,%xmm3
@@ -35674,7 +35701,7 @@ _sk_saturation_sse41:
.byte 65,15,88,253 // addps %xmm13,%xmm7
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,127,117,1,0 // movaps 0x1757f(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,202,117,1,0 // movaps 0x175ca(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 68,15,92,204 // subps %xmm4,%xmm9
.byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
@@ -35729,14 +35756,14 @@ _sk_color_sse41:
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 68,15,89,244 // mulps %xmm4,%xmm14
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,58,117,1,0 // movaps 0x1753a(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,133,117,1,0 // movaps 0x17585(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 65,15,40,250 // movaps %xmm10,%xmm7
.byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,58,117,1,0 // movaps 0x1753a(%rip),%xmm10 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,21,133,117,1,0 // movaps 0x17585(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 65,15,40,219 // movaps %xmm11,%xmm3
.byte 65,15,89,218 // mulps %xmm10,%xmm3
.byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,55,117,1,0 // movaps 0x17537(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,29,130,117,1,0 // movaps 0x17582(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
@@ -35821,7 +35848,7 @@ _sk_color_sse41:
.byte 65,15,88,251 // addps %xmm11,%xmm7
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,67,115,1,0 // movaps 0x17343(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,142,115,1,0 // movaps 0x1738e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 68,15,89,192 // mulps %xmm0,%xmm8
@@ -35873,13 +35900,13 @@ _sk_luminosity_sse41:
.byte 69,15,89,216 // mulps %xmm8,%xmm11
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,11,115,1,0 // movaps 0x1730b(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,86,115,1,0 // movaps 0x17356(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,15,115,1,0 // movaps 0x1730f(%rip),%xmm10 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,21,90,115,1,0 // movaps 0x1735a(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 65,15,89,234 // mulps %xmm10,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,13,115,1,0 // movaps 0x1730d(%rip),%xmm12 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,37,88,115,1,0 // movaps 0x17358(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 68,15,40,242 // movaps %xmm2,%xmm14
.byte 69,15,89,244 // mulps %xmm12,%xmm14
.byte 68,15,88,245 // addps %xmm5,%xmm14
@@ -35964,7 +35991,7 @@ _sk_luminosity_sse41:
.byte 65,15,88,244 // addps %xmm12,%xmm6
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,19,113,1,0 // movaps 0x17113(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,94,113,1,0 // movaps 0x1715e(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,92,215 // subps %xmm7,%xmm2
.byte 15,89,226 // mulps %xmm2,%xmm4
@@ -36009,23 +36036,23 @@ _sk_srcover_rgba_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,219,0,0,0 // jne 1bb65 <_sk_srcover_rgba_8888_sse41+0xfb>
+ .byte 15,133,219,0,0,0 // jne 1bbda <_sk_srcover_rgba_8888_sse41+0xfb>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,37,113,1,0 // movdqa 0x17125(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,112,113,1,0 // movdqa 0x17170(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,33,113,1,0 // pshufb 0x17121(%rip),%xmm5 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,45,108,113,1,0 // pshufb 0x1716c(%rip),%xmm5 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,33,113,1,0 // pshufb 0x17121(%rip),%xmm6 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,53,108,113,1,0 // pshufb 0x1716c(%rip),%xmm6 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 68,15,40,5,62,112,1,0 // movaps 0x1703e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,137,112,1,0 // movaps 0x17089(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,18,113,1,0 // movaps 0x17112(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,37,93,113,1,0 // movaps 0x1715d(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -36051,7 +36078,7 @@ _sk_srcover_rgba_8888_sse41:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,88 // jne 1bba3 <_sk_srcover_rgba_8888_sse41+0x139>
+ .byte 117,88 // jne 1bc18 <_sk_srcover_rgba_8888_sse41+0x139>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -36062,32 +36089,32 @@ _sk_srcover_rgba_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,91 // je 1bbcd <_sk_srcover_rgba_8888_sse41+0x163>
+ .byte 116,91 // je 1bc42 <_sk_srcover_rgba_8888_sse41+0x163>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,22 // je 1bb92 <_sk_srcover_rgba_8888_sse41+0x128>
+ .byte 116,22 // je 1bc07 <_sk_srcover_rgba_8888_sse41+0x128>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,10,255,255,255 // jne 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 15,133,10,255,255,255 // jne 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,237,254,255,255 // jmpq 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,237,254,255,255 // jmpq 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,40 // je 1bbd8 <_sk_srcover_rgba_8888_sse41+0x16e>
+ .byte 116,40 // je 1bc4d <_sk_srcover_rgba_8888_sse41+0x16e>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1bbc5 <_sk_srcover_rgba_8888_sse41+0x15b>
+ .byte 116,15 // je 1bc3a <_sk_srcover_rgba_8888_sse41+0x15b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,149 // jne 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 117,149 // jne 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,58,22,68,128,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,132 // jmp 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 235,132 // jmp 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,184,254,255,255 // jmpq 1ba90 <_sk_srcover_rgba_8888_sse41+0x26>
+ .byte 233,184,254,255,255 // jmpq 1bb05 <_sk_srcover_rgba_8888_sse41+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,110,255,255,255 // jmpq 1bb51 <_sk_srcover_rgba_8888_sse41+0xe7>
+ .byte 233,110,255,255,255 // jmpq 1bbc6 <_sk_srcover_rgba_8888_sse41+0xe7>
HIDDEN _sk_clamp_0_sse41
.globl _sk_clamp_0_sse41
@@ -36105,7 +36132,7 @@ HIDDEN _sk_clamp_1_sse41
.globl _sk_clamp_1_sse41
FUNCTION(_sk_clamp_1_sse41)
_sk_clamp_1_sse41:
- .byte 68,15,40,5,13,111,1,0 // movaps 0x16f0d(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,88,111,1,0 // movaps 0x16f58(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -36117,7 +36144,7 @@ HIDDEN _sk_clamp_a_sse41
.globl _sk_clamp_a_sse41
FUNCTION(_sk_clamp_a_sse41)
_sk_clamp_a_sse41:
- .byte 15,93,29,242,110,1,0 // minps 0x16ef2(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,61,111,1,0 // minps 0x16f3d(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -36128,7 +36155,7 @@ HIDDEN _sk_clamp_a_dst_sse41
.globl _sk_clamp_a_dst_sse41
FUNCTION(_sk_clamp_a_dst_sse41)
_sk_clamp_a_dst_sse41:
- .byte 15,93,61,222,110,1,0 // minps 0x16ede(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,61,41,111,1,0 // minps 0x16f29(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -36163,7 +36190,7 @@ HIDDEN _sk_invert_sse41
.globl _sk_invert_sse41
FUNCTION(_sk_invert_sse41)
_sk_invert_sse41:
- .byte 68,15,40,5,154,110,1,0 // movaps 0x16e9a(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,229,110,1,0 // movaps 0x16ee5(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -36225,7 +36252,7 @@ HIDDEN _sk_unpremul_sse41
FUNCTION(_sk_unpremul_sse41)
_sk_unpremul_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,36,110,1,0 // movaps 0x16e24(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,111,110,1,0 // movaps 0x16e6f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -36239,20 +36266,20 @@ HIDDEN _sk_from_srgb_sse41
.globl _sk_from_srgb_sse41
FUNCTION(_sk_from_srgb_sse41)
_sk_from_srgb_sse41:
- .byte 68,15,40,29,239,110,1,0 // movaps 0x16eef(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,29,58,111,1,0 // movaps 0x16f3a(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
.byte 68,15,40,208 // movaps %xmm0,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,103,110,1,0 // movaps 0x16e67(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,178,110,1,0 // movaps 0x16eb2(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,215,110,1,0 // movaps 0x16ed7(%rip),%xmm13 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,45,34,111,1,0 // movaps 0x16f22(%rip),%xmm13 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
.byte 69,15,88,197 // addps %xmm13,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,215,110,1,0 // movaps 0x16ed7(%rip),%xmm14 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,53,34,111,1,0 // movaps 0x16f22(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
.byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,219,110,1,0 // movaps 0x16edb(%rip),%xmm15 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,61,38,111,1,0 // movaps 0x16f26(%rip),%xmm15 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,40,209 // movaps %xmm1,%xmm10
@@ -36289,19 +36316,19 @@ FUNCTION(_sk_from_srgb_dst_sse41)
_sk_from_srgb_dst_sse41:
.byte 68,15,40,204 // movaps %xmm4,%xmm9
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,38,110,1,0 // movaps 0x16e26(%rip),%xmm11 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,29,113,110,1,0 // movaps 0x16e71(%rip),%xmm11 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,159,109,1,0 // movaps 0x16d9f(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,234,109,1,0 // movaps 0x16dea(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,19,110,1,0 // movaps 0x16e13(%rip),%xmm13 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,45,94,110,1,0 // movaps 0x16e5e(%rip),%xmm13 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
.byte 65,15,88,229 // addps %xmm13,%xmm4
.byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,20,110,1,0 // movaps 0x16e14(%rip),%xmm14 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,53,95,110,1,0 // movaps 0x16e5f(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
.byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,24,110,1,0 // movaps 0x16e18(%rip),%xmm15 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,61,99,110,1,0 // movaps 0x16e63(%rip),%xmm15 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
.byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
@@ -36345,22 +36372,22 @@ _sk_to_srgb_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,140,109,1,0 // movaps 0x16d8c(%rip),%xmm11 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,29,215,109,1,0 // movaps 0x16dd7(%rip),%xmm11 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,140,109,1,0 // movaps 0x16d8c(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,37,215,109,1,0 // movaps 0x16dd7(%rip),%xmm12 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,140,109,1,0 // movaps 0x16d8c(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,40,21,215,109,1,0 // movaps 0x16dd7(%rip),%xmm10 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,140,109,1,0 // movaps 0x16d8c(%rip),%xmm13 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,40,45,215,109,1,0 // movaps 0x16dd7(%rip),%xmm13 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
.byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,144,109,1,0 // movaps 0x16d90(%rip),%xmm14 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 68,15,40,53,219,109,1,0 // movaps 0x16ddb(%rip),%xmm14 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
.byte 69,15,88,198 // addps %xmm14,%xmm8
.byte 69,15,83,192 // rcpps %xmm8,%xmm8
.byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,140,109,1,0 // movaps 0x16d8c(%rip),%xmm15 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,61,215,109,1,0 // movaps 0x16dd7(%rip),%xmm15 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
@@ -36415,7 +36442,7 @@ _sk_rgb_to_hsl_sse41:
.byte 68,15,93,224 // minps %xmm0,%xmm12
.byte 65,15,40,203 // movaps %xmm11,%xmm1
.byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,67,107,1,0 // movaps 0x16b43(%rip),%xmm14 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,53,142,107,1,0 // movaps 0x16b8e(%rip),%xmm14 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,94,241 // divps %xmm1,%xmm14
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
@@ -36424,27 +36451,27 @@ _sk_rgb_to_hsl_sse41:
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,170,108,1,0 // andps 0x16caa(%rip),%xmm15 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,84,61,245,108,1,0 // andps 0x16cf5(%rip),%xmm15 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
.byte 68,15,88,248 // addps %xmm0,%xmm15
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,157,108,1,0 // movaps 0x16c9d(%rip),%xmm13 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,45,232,108,1,0 // movaps 0x16ce8(%rip),%xmm13 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
.byte 65,15,88,213 // addps %xmm13,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,153,108,1,0 // addps 0x16c99(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 68,15,88,5,228,108,1,0 // addps 0x16ce4(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
.byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,145,108,1,0 // mulps 0x16c91(%rip),%xmm8 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 68,15,89,5,220,108,1,0 // mulps 0x16cdc(%rip),%xmm8 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
.byte 69,15,40,203 // movaps %xmm11,%xmm9
.byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
.byte 69,15,84,193 // andps %xmm9,%xmm8
.byte 69,15,92,235 // subps %xmm11,%xmm13
.byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,165,106,1,0 // movaps 0x16aa5(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,40,5,240,106,1,0 // movaps 0x16af0(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,40,211 // movaps %xmm11,%xmm2
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,194,194,1 // cmpltps %xmm2,%xmm0
@@ -36466,7 +36493,7 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,91,106,1,0 // movaps 0x16a5b(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,166,106,1,0 // movaps 0x16aa6(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,194,194,2 // cmpleps %xmm2,%xmm0
.byte 15,40,217 // movaps %xmm1,%xmm3
@@ -36479,19 +36506,19 @@ _sk_hsl_to_rgb_sse41:
.byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
.byte 69,15,88,192 // addps %xmm8,%xmm8
.byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,6,108,1,0 // movaps 0x16c06(%rip),%xmm14 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 68,15,40,53,81,108,1,0 // movaps 0x16c51(%rip),%xmm14 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
.byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,255,107,1,0 // movaps 0x16bff(%rip),%xmm11 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 68,15,40,29,74,108,1,0 // movaps 0x16c4a(%rip),%xmm11 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,152,107,1,0 // movaps 0x16b98(%rip),%xmm7 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 15,40,61,227,107,1,0 // movaps 0x16be3(%rip),%xmm7 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
.byte 69,15,40,238 // movaps %xmm14,%xmm13
.byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,169,107,1,0 // movaps 0x16ba9(%rip),%xmm3 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 15,40,29,244,107,1,0 // movaps 0x16bf4(%rip),%xmm3 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
.byte 68,15,40,227 // movaps %xmm3,%xmm12
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 68,15,89,230 // mulps %xmm6,%xmm12
@@ -36501,7 +36528,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,40,253 // movaps %xmm5,%xmm15
.byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,136,107,1,0 // movaps 0x16b88(%rip),%xmm12 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 68,15,40,37,211,107,1,0 // movaps 0x16bd3(%rip),%xmm12 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
.byte 65,15,40,196 // movaps %xmm12,%xmm0
.byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
.byte 68,15,89,238 // mulps %xmm6,%xmm13
@@ -36535,7 +36562,7 @@ _sk_hsl_to_rgb_sse41:
.byte 65,15,40,198 // movaps %xmm14,%xmm0
.byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
.byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,32,107,1,0 // addps 0x16b20(%rip),%xmm10 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,88,21,107,107,1,0 // addps 0x16b6b(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
.byte 68,15,92,208 // subps %xmm0,%xmm10
.byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
@@ -36590,11 +36617,11 @@ _sk_scale_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1c2c7 <_sk_scale_u8_sse41+0x4c>
+ .byte 117,52 // jne 1c33c <_sk_scale_u8_sse41+0x4c>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,29,105,1,0 // pand 0x1691d(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,104,105,1,0 // pand 0x16968(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,97,106,1,0 // mulps 0x16a61(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,172,106,1,0 // mulps 0x16aac(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -36605,12 +36632,12 @@ _sk_scale_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,59 // je 1c30f <_sk_scale_u8_sse41+0x94>
+ .byte 116,59 // je 1c384 <_sk_scale_u8_sse41+0x94>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c2f6 <_sk_scale_u8_sse41+0x7b>
+ .byte 116,23 // je 1c36b <_sk_scale_u8_sse41+0x7b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 1c29a <_sk_scale_u8_sse41+0x1f>
+ .byte 117,181 // jne 1c30f <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36618,10 +36645,10 @@ _sk_scale_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,139 // jmp 1c29a <_sk_scale_u8_sse41+0x1f>
+ .byte 235,139 // jmp 1c30f <_sk_scale_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,124,255,255,255 // jmpq 1c29a <_sk_scale_u8_sse41+0x1f>
+ .byte 233,124,255,255,255 // jmpq 1c30f <_sk_scale_u8_sse41+0x1f>
HIDDEN _sk_scale_565_sse41
.globl _sk_scale_565_sse41
@@ -36636,19 +36663,19 @@ _sk_scale_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1c3e1 <_sk_scale_565_sse41+0xc3>
+ .byte 15,133,159,0,0,0 // jne 1c456 <_sk_scale_565_sse41+0xc3>
.byte 102,71,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm11
- .byte 102,15,111,5,207,105,1,0 // movdqa 0x169cf(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,26,106,1,0 // movdqa 0x16a1a(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,206,105,1,0 // mulps 0x169ce(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,5,214,105,1,0 // movdqa 0x169d6(%rip),%xmm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,89,13,25,106,1,0 // mulps 0x16a19(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,5,33,106,1,0 // movdqa 0x16a21(%rip),%xmm0 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,65,15,219,195 // pand %xmm11,%xmm0
.byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,213,105,1,0 // mulps 0x169d5(%rip),%xmm10 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,219,29,220,105,1,0 // pand 0x169dc(%rip),%xmm11 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,89,21,32,106,1,0 // mulps 0x16a20(%rip),%xmm10 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,219,29,39,106,1,0 // pand 0x16a27(%rip),%xmm11 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,224,105,1,0 // mulps 0x169e0(%rip),%xmm11 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,29,43,106,1,0 // mulps 0x16a2b(%rip),%xmm11 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,226 // movaps %xmm10,%xmm12
@@ -36673,22 +36700,22 @@ _sk_scale_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c42a <_sk_scale_565_sse41+0x10c>
+ .byte 116,60 // je 1c49f <_sk_scale_565_sse41+0x10c>
.byte 102,69,15,239,219 // pxor %xmm11,%xmm11
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c413 <_sk_scale_565_sse41+0xf5>
+ .byte 116,26 // je 1c488 <_sk_scale_565_sse41+0xf5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,70,255,255,255 // jne 1c349 <_sk_scale_565_sse41+0x2b>
+ .byte 15,133,70,255,255,255 // jne 1c3be <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,31,255,255,255 // jmpq 1c349 <_sk_scale_565_sse41+0x2b>
+ .byte 233,31,255,255,255 // jmpq 1c3be <_sk_scale_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,16,255,255,255 // jmpq 1c349 <_sk_scale_565_sse41+0x2b>
+ .byte 233,16,255,255,255 // jmpq 1c3be <_sk_scale_565_sse41+0x2b>
HIDDEN _sk_lerp_1_float_sse41
.globl _sk_lerp_1_float_sse41
@@ -36723,11 +36750,11 @@ _sk_lerp_u8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1c4d1 <_sk_lerp_u8_sse41+0x60>
+ .byte 117,72 // jne 1c546 <_sk_lerp_u8_sse41+0x60>
.byte 102,71,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm8
- .byte 102,68,15,219,5,39,103,1,0 // pand 0x16727(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,114,103,1,0 // pand 0x16772(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,107,104,1,0 // mulps 0x1686b(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,182,104,1,0 // mulps 0x168b6(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -36745,12 +36772,12 @@ _sk_lerp_u8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,62 // je 1c51c <_sk_lerp_u8_sse41+0xab>
+ .byte 116,62 // je 1c591 <_sk_lerp_u8_sse41+0xab>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c500 <_sk_lerp_u8_sse41+0x8f>
+ .byte 116,23 // je 1c575 <_sk_lerp_u8_sse41+0x8f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 1c490 <_sk_lerp_u8_sse41+0x1f>
+ .byte 117,161 // jne 1c505 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -36758,10 +36785,10 @@ _sk_lerp_u8_sse41:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
.byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 233,116,255,255,255 // jmpq 1c490 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,116,255,255,255 // jmpq 1c505 <_sk_lerp_u8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,101,255,255,255 // jmpq 1c490 <_sk_lerp_u8_sse41+0x1f>
+ .byte 233,101,255,255,255 // jmpq 1c505 <_sk_lerp_u8_sse41+0x1f>
HIDDEN _sk_lerp_565_sse41
.globl _sk_lerp_565_sse41
@@ -36776,19 +36803,19 @@ _sk_lerp_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1c5f4 <_sk_lerp_565_sse41+0xc9>
+ .byte 15,133,165,0,0,0 // jne 1c669 <_sk_lerp_565_sse41+0xc9>
.byte 102,71,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm10
- .byte 102,15,111,5,194,103,1,0 // movdqa 0x167c2(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,13,104,1,0 // movdqa 0x1680d(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,193,103,1,0 // mulps 0x167c1(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,5,201,103,1,0 // movdqa 0x167c9(%rip),%xmm0 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,89,13,12,104,1,0 // mulps 0x1680c(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,5,20,104,1,0 // movdqa 0x16814(%rip),%xmm0 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,65,15,219,194 // pand %xmm10,%xmm0
.byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,200,103,1,0 // mulps 0x167c8(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,219,21,207,103,1,0 // pand 0x167cf(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,89,29,19,104,1,0 // mulps 0x16813(%rip),%xmm11 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,219,21,26,104,1,0 // pand 0x1681a(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,211,103,1,0 // mulps 0x167d3(%rip),%xmm10 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,21,30,104,1,0 // mulps 0x1681e(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -36816,22 +36843,22 @@ _sk_lerp_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 1c63d <_sk_lerp_565_sse41+0x112>
+ .byte 116,60 // je 1c6b2 <_sk_lerp_565_sse41+0x112>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,26 // je 1c626 <_sk_lerp_565_sse41+0xfb>
+ .byte 116,26 // je 1c69b <_sk_lerp_565_sse41+0xfb>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,64,255,255,255 // jne 1c556 <_sk_lerp_565_sse41+0x2b>
+ .byte 15,133,64,255,255,255 // jne 1c5cb <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,25,255,255,255 // jmpq 1c556 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,25,255,255,255 // jmpq 1c5cb <_sk_lerp_565_sse41+0x2b>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,10,255,255,255 // jmpq 1c556 <_sk_lerp_565_sse41+0x2b>
+ .byte 233,10,255,255,255 // jmpq 1c5cb <_sk_lerp_565_sse41+0x2b>
HIDDEN _sk_load_tables_sse41
.globl _sk_load_tables_sse41
@@ -36840,11 +36867,11 @@ _sk_load_tables_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1c76e <_sk_load_tables_sse41+0x122>
+ .byte 15,133,20,1,0,0 // jne 1c7e3 <_sk_load_tables_sse41+0x122>
.byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,15,111,5,85,101,1,0 // movdqa 0x16555(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,160,101,1,0 // movdqa 0x165a0(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -36859,7 +36886,7 @@ _sk_load_tables_sse41:
.byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
.byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
.byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,16,101,1,0 // pshufb 0x16510(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,91,101,1,0 // pshufb 0x1655b(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 68,15,182,203 // movzbl %bl,%r9d
@@ -36874,7 +36901,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
.byte 76,139,64,24 // mov 0x18(%rax),%r8
.byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,204,100,1,0 // pshufb 0x164cc(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,23,101,1,0 // pshufb 0x16517(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
.byte 102,72,15,126,208 // movq %xmm2,%rax
.byte 68,15,182,200 // movzbl %al,%r9d
@@ -36889,7 +36916,7 @@ _sk_load_tables_sse41:
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,169,101,1,0 // mulps 0x165a9(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,244,101,1,0 // mulps 0x165f4(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -36897,19 +36924,19 @@ _sk_load_tables_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1c7af <_sk_load_tables_sse41+0x163>
+ .byte 116,52 // je 1c824 <_sk_load_tables_sse41+0x163>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1c79d <_sk_load_tables_sse41+0x151>
+ .byte 116,23 // je 1c812 <_sk_load_tables_sse41+0x151>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1c660 <_sk_load_tables_sse41+0x14>
+ .byte 15,133,208,254,255,255 // jne 1c6d5 <_sk_load_tables_sse41+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1c660 <_sk_load_tables_sse41+0x14>
+ .byte 233,177,254,255,255 // jmpq 1c6d5 <_sk_load_tables_sse41+0x14>
.byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1c660 <_sk_load_tables_sse41+0x14>
+ .byte 233,166,254,255,255 // jmpq 1c6d5 <_sk_load_tables_sse41+0x14>
HIDDEN _sk_load_tables_u16_be_sse41
.globl _sk_load_tables_u16_be_sse41
@@ -36919,7 +36946,7 @@ _sk_load_tables_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1c92f <_sk_load_tables_u16_be_sse41+0x175>
+ .byte 15,133,95,1,0,0 // jne 1c9a4 <_sk_load_tables_u16_be_sse41+0x175>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -36930,7 +36957,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,123,101,1,0 // movdqa 0x1657b(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 102,68,15,111,5,198,101,1,0 // movdqa 0x165c6(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -36948,7 +36975,7 @@ _sk_load_tables_u16_be_sse41:
.byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
.byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
.byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,42,101,1,0 // pshufb 0x1652a(%rip),%xmm1 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,15,56,0,13,117,101,1,0 // pshufb 0x16575(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -36984,23 +37011,23 @@ _sk_load_tables_u16_be_sse41:
.byte 102,65,15,235,216 // por %xmm8,%xmm3
.byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,120,100,1,0 // mulps 0x16478(%rip),%xmm3 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 15,89,29,195,100,1,0 // mulps 0x164c3(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1c948 <_sk_load_tables_u16_be_sse41+0x18e>
+ .byte 117,13 // jne 1c9bd <_sk_load_tables_u16_be_sse41+0x18e>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,149,254,255,255 // jmpq 1c852 <_sk_load_tables_u16_be_sse41+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 15,130,128,254,255,255 // jb 1c852 <_sk_load_tables_u16_be_sse41+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1c7dd <_sk_load_tables_u16_be_sse41+0x23>
+ .byte 233,116,254,255,255 // jmpq 1c852 <_sk_load_tables_u16_be_sse41+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse41
.globl _sk_load_tables_rgb_u16_be_sse41
@@ -37010,7 +37037,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1caca <_sk_load_tables_rgb_u16_be_sse41+0x161>
+ .byte 15,133,79,1,0,0 // jne 1cb3f <_sk_load_tables_rgb_u16_be_sse41+0x161>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -37024,7 +37051,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,193,99,1,0 // movdqa 0x163c1(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 102,68,15,111,5,12,100,1,0 // movdqa 0x1640c(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
@@ -37042,7 +37069,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
.byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
.byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,112,99,1,0 // pshufb 0x16370(%rip),%xmm1 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xd14>
+ .byte 102,15,56,0,13,187,99,1,0 // pshufb 0x163bb(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xd10>
.byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -37073,7 +37100,7 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
.byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,75,96,1,0 // movaps 0x1604b(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,150,96,1,0 // movaps 0x16096(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -37081,21 +37108,21 @@ _sk_load_tables_rgb_u16_be_sse41:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1caf0 <_sk_load_tables_rgb_u16_be_sse41+0x187>
+ .byte 117,14 // jne 1cb65 <_sk_load_tables_rgb_u16_be_sse41+0x187>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,177,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1cb21 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
+ .byte 114,24 // jb 1cb96 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,128,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1c9a1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
+ .byte 233,119,254,255,255 // jmpq 1ca16 <_sk_load_tables_rgb_u16_be_sse41+0x38>
HIDDEN _sk_byte_tables_sse41
.globl _sk_byte_tables_sse41
@@ -37105,7 +37132,7 @@ _sk_byte_tables_sse41:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,184,96,1,0 // movaps 0x160b8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,3,97,1,0 // movaps 0x16103(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
@@ -37128,7 +37155,7 @@ _sk_byte_tables_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,110,97,1,0 // movaps 0x1616e(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,13,185,97,1,0 // movaps 0x161b9(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37230,7 +37257,7 @@ _sk_byte_tables_rgb_sse41:
.byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,13,202,95,1,0 // movaps 0x15fca(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,13,21,96,1,0 // movaps 0x16015(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -37412,31 +37439,31 @@ _sk_parametric_r_sse41:
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,165,93,1,0 // mulps 0x15da5(%rip),%xmm8 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,21,173,93,1,0 // andps 0x15dad(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,21,229,90,1,0 // orps 0x15ae5(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,5,173,93,1,0 // addps 0x15dad(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,37,181,93,1,0 // movaps 0x15db5(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,5,240,93,1,0 // mulps 0x15df0(%rip),%xmm8 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,21,248,93,1,0 // andps 0x15df8(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,21,48,91,1,0 // orps 0x15b30(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,5,248,93,1,0 // addps 0x15df8(%rip),%xmm8 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,0,94,1,0 // movaps 0x15e00(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,88,21,181,93,1,0 // addps 0x15db5(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 68,15,40,37,189,93,1,0 // movaps 0x15dbd(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,21,0,94,1,0 // addps 0x15e00(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,8,94,1,0 // movaps 0x15e08(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,196 // subps %xmm12,%xmm8
.byte 69,15,89,195 // mulps %xmm11,%xmm8
.byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,5,170,93,1,0 // addps 0x15daa(%rip),%xmm8 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 68,15,40,21,178,93,1,0 // movaps 0x15db2(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,5,245,93,1,0 // addps 0x15df5(%rip),%xmm8 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,40,21,253,93,1,0 // movaps 0x15dfd(%rip),%xmm10 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 69,15,89,211 // mulps %xmm11,%xmm10
.byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 68,15,40,21,178,93,1,0 // movaps 0x15db2(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,21,253,93,1,0 // movaps 0x15dfd(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,40,29,182,93,1,0 // movaps 0x15db6(%rip),%xmm11 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,29,1,94,1,0 // movaps 0x15e01(%rip),%xmm11 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 69,15,94,218 // divps %xmm10,%xmm11
.byte 69,15,88,216 // addps %xmm8,%xmm11
- .byte 68,15,89,29,182,93,1,0 // mulps 0x15db6(%rip),%xmm11 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,89,29,1,94,1,0 // mulps 0x15e01(%rip),%xmm11 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,69,15,91,211 // cvtps2dq %xmm11,%xmm10
.byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
@@ -37444,7 +37471,7 @@ _sk_parametric_r_sse41:
.byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,77,90,1,0 // minps 0x15a4d(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,152,90,1,0 // minps 0x15a98(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37474,31 +37501,31 @@ _sk_parametric_g_sse41:
.byte 68,15,88,217 // addps %xmm1,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,126,92,1,0 // mulps 0x15c7e(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,29,134,92,1,0 // andps 0x15c86(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,29,190,89,1,0 // orps 0x159be(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,134,92,1,0 // addps 0x15c86(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 15,40,13,143,92,1,0 // movaps 0x15c8f(%rip),%xmm1 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,37,201,92,1,0 // mulps 0x15cc9(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,29,209,92,1,0 // andps 0x15cd1(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,29,9,90,1,0 // orps 0x15a09(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,37,209,92,1,0 // addps 0x15cd1(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 15,40,13,218,92,1,0 // movaps 0x15cda(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,88,29,143,92,1,0 // addps 0x15c8f(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 15,40,13,152,92,1,0 // movaps 0x15c98(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,29,218,92,1,0 // addps 0x15cda(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 15,40,13,227,92,1,0 // movaps 0x15ce3(%rip),%xmm1 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 65,15,94,203 // divps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,133,92,1,0 // addps 0x15c85(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 15,40,13,142,92,1,0 // movaps 0x15c8e(%rip),%xmm1 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,37,208,92,1,0 // addps 0x15cd0(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,13,217,92,1,0 // movaps 0x15cd9(%rip),%xmm1 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,21,142,92,1,0 // movaps 0x15c8e(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,21,217,92,1,0 // movaps 0x15cd9(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,13,147,92,1,0 // movaps 0x15c93(%rip),%xmm1 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,40,13,222,92,1,0 // movaps 0x15cde(%rip),%xmm1 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 65,15,94,202 // divps %xmm10,%xmm1
.byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,13,148,92,1,0 // mulps 0x15c94(%rip),%xmm1 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,89,13,223,92,1,0 // mulps 0x15cdf(%rip),%xmm1 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,68,15,91,209 // cvtps2dq %xmm1,%xmm10
.byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
@@ -37506,7 +37533,7 @@ _sk_parametric_g_sse41:
.byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,13,47,89,1,0 // minps 0x1592f(%rip),%xmm1 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,13,122,89,1,0 // minps 0x1597a(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37536,31 +37563,31 @@ _sk_parametric_b_sse41:
.byte 68,15,88,218 // addps %xmm2,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,96,91,1,0 // mulps 0x15b60(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,29,104,91,1,0 // andps 0x15b68(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,29,160,88,1,0 // orps 0x158a0(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,104,91,1,0 // addps 0x15b68(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 15,40,21,113,91,1,0 // movaps 0x15b71(%rip),%xmm2 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,37,171,91,1,0 // mulps 0x15bab(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,29,179,91,1,0 // andps 0x15bb3(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,29,235,88,1,0 // orps 0x158eb(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,37,179,91,1,0 // addps 0x15bb3(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 15,40,21,188,91,1,0 // movaps 0x15bbc(%rip),%xmm2 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,88,29,113,91,1,0 // addps 0x15b71(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 15,40,21,122,91,1,0 // movaps 0x15b7a(%rip),%xmm2 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,29,188,91,1,0 // addps 0x15bbc(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 15,40,21,197,91,1,0 // movaps 0x15bc5(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 65,15,94,211 // divps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,103,91,1,0 // addps 0x15b67(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 15,40,21,112,91,1,0 // movaps 0x15b70(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,37,178,91,1,0 // addps 0x15bb2(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,21,187,91,1,0 // movaps 0x15bbb(%rip),%xmm2 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 65,15,89,211 // mulps %xmm11,%xmm2
.byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 68,15,40,21,112,91,1,0 // movaps 0x15b70(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,21,187,91,1,0 // movaps 0x15bbb(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,21,117,91,1,0 // movaps 0x15b75(%rip),%xmm2 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,40,21,192,91,1,0 // movaps 0x15bc0(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 65,15,94,210 // divps %xmm10,%xmm2
.byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,89,21,118,91,1,0 // mulps 0x15b76(%rip),%xmm2 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,89,21,193,91,1,0 // mulps 0x15bc1(%rip),%xmm2 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,68,15,91,210 // cvtps2dq %xmm2,%xmm10
.byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
.byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
@@ -37568,7 +37595,7 @@ _sk_parametric_b_sse41:
.byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,21,17,88,1,0 // minps 0x15811(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,21,92,88,1,0 // minps 0x1585c(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37598,31 +37625,31 @@ _sk_parametric_a_sse41:
.byte 68,15,88,219 // addps %xmm3,%xmm11
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,91,227 // cvtdq2ps %xmm11,%xmm12
- .byte 68,15,89,37,66,90,1,0 // mulps 0x15a42(%rip),%xmm12 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,29,74,90,1,0 // andps 0x15a4a(%rip),%xmm11 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,29,130,87,1,0 // orps 0x15782(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,37,74,90,1,0 // addps 0x15a4a(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 15,40,29,83,90,1,0 // movaps 0x15a53(%rip),%xmm3 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,37,141,90,1,0 // mulps 0x15a8d(%rip),%xmm12 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,29,149,90,1,0 // andps 0x15a95(%rip),%xmm11 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,29,205,87,1,0 // orps 0x157cd(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,37,149,90,1,0 // addps 0x15a95(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 15,40,29,158,90,1,0 // movaps 0x15a9e(%rip),%xmm3 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,88,29,83,90,1,0 // addps 0x15a53(%rip),%xmm11 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 15,40,29,92,90,1,0 // movaps 0x15a5c(%rip),%xmm3 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,29,158,90,1,0 // addps 0x15a9e(%rip),%xmm11 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 15,40,29,167,90,1,0 // movaps 0x15aa7(%rip),%xmm3 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 65,15,94,219 // divps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 102,69,15,58,8,212,1 // roundps $0x1,%xmm12,%xmm10
.byte 69,15,40,220 // movaps %xmm12,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 68,15,88,37,73,90,1,0 // addps 0x15a49(%rip),%xmm12 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 15,40,29,82,90,1,0 // movaps 0x15a52(%rip),%xmm3 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,37,148,90,1,0 // addps 0x15a94(%rip),%xmm12 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 15,40,29,157,90,1,0 // movaps 0x15a9d(%rip),%xmm3 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 65,15,89,219 // mulps %xmm11,%xmm3
.byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 68,15,40,21,82,90,1,0 // movaps 0x15a52(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,21,157,90,1,0 // movaps 0x15a9d(%rip),%xmm10 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 15,40,29,87,90,1,0 // movaps 0x15a57(%rip),%xmm3 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 15,40,29,162,90,1,0 // movaps 0x15aa2(%rip),%xmm3 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 65,15,94,218 // divps %xmm10,%xmm3
.byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,89,29,88,90,1,0 // mulps 0x15a58(%rip),%xmm3 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,89,29,163,90,1,0 // mulps 0x15aa3(%rip),%xmm3 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,68,15,91,211 // cvtps2dq %xmm3,%xmm10
.byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
.byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
@@ -37630,7 +37657,7 @@ _sk_parametric_a_sse41:
.byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,29,243,86,1,0 // minps 0x156f3(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,62,87,1,0 // minps 0x1573e(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -37647,20 +37674,20 @@ _sk_gamma_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,98,89,1,0 // mulps 0x15962(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,40,53,106,89,1,0 // movaps 0x1596a(%rip),%xmm14 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,89,5,173,89,1,0 // mulps 0x159ad(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,40,53,181,89,1,0 // movaps 0x159b5(%rip),%xmm14 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,37,158,86,1,0 // movaps 0x1569e(%rip),%xmm12 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,37,233,86,1,0 // movaps 0x156e9(%rip),%xmm12 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,86,212 // orps %xmm12,%xmm2
- .byte 68,15,40,21,98,89,1,0 // movaps 0x15962(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,21,173,89,1,0 // movaps 0x159ad(%rip),%xmm10 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,29,102,89,1,0 // movaps 0x15966(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,29,177,89,1,0 // movaps 0x159b1(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,13,100,89,1,0 // movaps 0x15964(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,13,175,89,1,0 // movaps 0x159af(%rip),%xmm9 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,40,45,104,89,1,0 // movaps 0x15968(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,45,179,89,1,0 // movaps 0x159b3(%rip),%xmm13 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37671,21 +37698,21 @@ _sk_gamma_sse41:
.byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,75,89,1,0 // movaps 0x1594b(%rip),%xmm6 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,53,150,89,1,0 // movaps 0x15996(%rip),%xmm6 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,97,89,1,0 // movaps 0x15961(%rip),%xmm7 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,61,172,89,1,0 // movaps 0x159ac(%rip),%xmm7 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,65,89,1,0 // movaps 0x15941(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 15,40,37,140,89,1,0 // movaps 0x1598c(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,83,89,1,0 // movaps 0x15953(%rip),%xmm15 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,61,158,89,1,0 // movaps 0x1599e(%rip),%xmm15 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,175,88,1,0 // mulps 0x158af(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
+ .byte 15,89,5,250,88,1,0 // mulps 0x158fa(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
.byte 65,15,84,206 // andps %xmm14,%xmm1
.byte 65,15,86,204 // orps %xmm12,%xmm1
.byte 65,15,88,194 // addps %xmm10,%xmm0
@@ -37711,8 +37738,8 @@ _sk_gamma_sse41:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,80,88,1,0 // mulps 0x15850(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,84,29,89,88,1,0 // andps 0x15859(%rip),%xmm3 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,89,5,155,88,1,0 // mulps 0x1589b(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 15,84,29,164,88,1,0 // andps 0x158a4(%rip),%xmm3 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
.byte 65,15,86,220 // orps %xmm12,%xmm3
.byte 65,15,88,194 // addps %xmm10,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
@@ -37730,7 +37757,7 @@ _sk_gamma_sse41:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,161,88,1,0 // movaps 0x158a1(%rip),%xmm0 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,40,5,236,88,1,0 // movaps 0x158ec(%rip),%xmm0 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -37750,29 +37777,29 @@ HIDDEN _sk_lab_to_xyz_sse41
FUNCTION(_sk_lab_to_xyz_sse41)
_sk_lab_to_xyz_sse41:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,113,88,1,0 // mulps 0x15871(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
- .byte 68,15,40,13,249,85,1,0 // movaps 0x155f9(%rip),%xmm9 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,89,5,188,88,1,0 // mulps 0x158bc(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 68,15,40,13,68,86,1,0 // movaps 0x15644(%rip),%xmm9 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,110,88,1,0 // movaps 0x1586e(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 15,40,5,185,88,1,0 // movaps 0x158b9(%rip),%xmm0 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,108,88,1,0 // addps 0x1586c(%rip),%xmm8 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
- .byte 68,15,89,5,116,88,1,0 // mulps 0x15874(%rip),%xmm8 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 15,89,13,125,88,1,0 // mulps 0x1587d(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 68,15,88,5,183,88,1,0 // addps 0x158b7(%rip),%xmm8 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 68,15,89,5,191,88,1,0 // mulps 0x158bf(%rip),%xmm8 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+ .byte 15,89,13,200,88,1,0 // mulps 0x158c8(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,130,88,1,0 // mulps 0x15882(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 15,89,21,205,88,1,0 // mulps 0x158cd(%rip),%xmm2 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
.byte 69,15,40,208 // movaps %xmm8,%xmm10
.byte 68,15,92,210 // subps %xmm2,%xmm10
.byte 68,15,40,217 // movaps %xmm1,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
.byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,118,88,1,0 // movaps 0x15876(%rip),%xmm9 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 68,15,40,13,193,88,1,0 // movaps 0x158c1(%rip),%xmm9 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,118,88,1,0 // movaps 0x15876(%rip),%xmm2 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 15,40,21,193,88,1,0 // movaps 0x158c1(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,123,88,1,0 // movaps 0x1587b(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 68,15,40,37,198,88,1,0 // movaps 0x158c6(%rip),%xmm12 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
.byte 65,15,89,204 // mulps %xmm12,%xmm1
.byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
.byte 69,15,40,216 // movaps %xmm8,%xmm11
@@ -37791,8 +37818,8 @@ _sk_lab_to_xyz_sse41:
.byte 65,15,89,212 // mulps %xmm12,%xmm2
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,52,88,1,0 // mulps 0x15834(%rip),%xmm1 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 15,89,21,61,88,1,0 // mulps 0x1583d(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 15,89,13,127,88,1,0 // mulps 0x1587f(%rip),%xmm1 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+ .byte 15,89,21,136,88,1,0 // mulps 0x15888(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,40,200 // movaps %xmm8,%xmm1
@@ -37809,11 +37836,11 @@ _sk_load_a8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d70d <_sk_load_a8_sse41+0x3f>
+ .byte 117,39 // jne 1d782 <_sk_load_a8_sse41+0x3f>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,203,84,1,0 // pand 0x154cb(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,22,85,1,0 // pand 0x15516(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,17,86,1,0 // mulps 0x15611(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,92,86,1,0 // mulps 0x1565c(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37822,12 +37849,12 @@ _sk_load_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d74f <_sk_load_a8_sse41+0x81>
+ .byte 116,53 // je 1d7c4 <_sk_load_a8_sse41+0x81>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d739 <_sk_load_a8_sse41+0x6b>
+ .byte 116,21 // je 1d7ae <_sk_load_a8_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d6ed <_sk_load_a8_sse41+0x1f>
+ .byte 117,195 // jne 1d762 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -37835,10 +37862,10 @@ _sk_load_a8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,158 // jmp 1d6ed <_sk_load_a8_sse41+0x1f>
+ .byte 235,158 // jmp 1d762 <_sk_load_a8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,147 // jmp 1d6ed <_sk_load_a8_sse41+0x1f>
+ .byte 235,147 // jmp 1d762 <_sk_load_a8_sse41+0x1f>
HIDDEN _sk_load_a8_dst_sse41
.globl _sk_load_a8_dst_sse41
@@ -37851,11 +37878,11 @@ _sk_load_a8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 1d799 <_sk_load_a8_dst_sse41+0x3f>
+ .byte 117,39 // jne 1d80e <_sk_load_a8_dst_sse41+0x3f>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,63,84,1,0 // pand 0x1543f(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,138,84,1,0 // pand 0x1548a(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,133,85,1,0 // mulps 0x15585(%rip),%xmm7 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,61,208,85,1,0 // mulps 0x155d0(%rip),%xmm7 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
@@ -37864,12 +37891,12 @@ _sk_load_a8_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d7db <_sk_load_a8_dst_sse41+0x81>
+ .byte 116,53 // je 1d850 <_sk_load_a8_dst_sse41+0x81>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d7c5 <_sk_load_a8_dst_sse41+0x6b>
+ .byte 116,21 // je 1d83a <_sk_load_a8_dst_sse41+0x6b>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 1d779 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 117,195 // jne 1d7ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -37877,10 +37904,10 @@ _sk_load_a8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,158 // jmp 1d779 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,158 // jmp 1d7ee <_sk_load_a8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,147 // jmp 1d779 <_sk_load_a8_dst_sse41+0x1f>
+ .byte 235,147 // jmp 1d7ee <_sk_load_a8_dst_sse41+0x1f>
HIDDEN _sk_gather_a8_sse41
.globl _sk_gather_a8_sse41
@@ -37923,7 +37950,7 @@ _sk_gather_a8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,125,84,1,0 // mulps 0x1547d(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,200,84,1,0 // mulps 0x154c8(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -37940,13 +37967,13 @@ _sk_store_a8_sse41:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,52,83,1,0 // movaps 0x15334(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,127,83,1,0 // movaps 0x1537f(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 1d8e2 <_sk_store_a8_sse41+0x41>
+ .byte 117,13 // jne 1d957 <_sk_store_a8_sse41+0x41>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -37955,17 +37982,17 @@ _sk_store_a8_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 1d91e <_sk_store_a8_sse41+0x7d>
+ .byte 116,41 // je 1d993 <_sk_store_a8_sse41+0x7d>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1d90a <_sk_store_a8_sse41+0x69>
+ .byte 116,15 // je 1d97f <_sk_store_a8_sse41+0x69>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1d8de <_sk_store_a8_sse41+0x3d>
+ .byte 117,221 // jne 1d953 <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%r10,1)
- .byte 102,68,15,56,0,5,252,85,1,0 // pshufb 0x155fc(%rip),%xmm8 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xe94>
+ .byte 102,68,15,56,0,5,71,86,1,0 // pshufb 0x15647(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xe90>
.byte 102,71,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,192 // jmp 1d8de <_sk_store_a8_sse41+0x3d>
+ .byte 235,192 // jmp 1d953 <_sk_store_a8_sse41+0x3d>
.byte 102,71,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%r10,1)
- .byte 235,182 // jmp 1d8de <_sk_store_a8_sse41+0x3d>
+ .byte 235,182 // jmp 1d953 <_sk_store_a8_sse41+0x3d>
HIDDEN _sk_load_g8_sse41
.globl _sk_load_g8_sse41
@@ -37978,25 +38005,25 @@ _sk_load_g8_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1d96a <_sk_load_g8_sse41+0x42>
+ .byte 117,42 // jne 1d9df <_sk_load_g8_sse41+0x42>
.byte 102,67,15,56,49,4,16 // pmovzxbd (%r8,%r10,1),%xmm0
- .byte 102,15,219,5,113,82,1,0 // pand 0x15271(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,188,82,1,0 // pand 0x152bc(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,183,83,1,0 // mulps 0x153b7(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,5,2,84,1,0 // mulps 0x15402(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,174,81,1,0 // movaps 0x151ae(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,249,81,1,0 // movaps 0x151f9(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1d9ac <_sk_load_g8_sse41+0x84>
+ .byte 116,53 // je 1da21 <_sk_load_g8_sse41+0x84>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1d996 <_sk_load_g8_sse41+0x6e>
+ .byte 116,21 // je 1da0b <_sk_load_g8_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1d947 <_sk_load_g8_sse41+0x1f>
+ .byte 117,192 // jne 1d9bc <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -38004,10 +38031,10 @@ _sk_load_g8_sse41:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
.byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,155 // jmp 1d947 <_sk_load_g8_sse41+0x1f>
+ .byte 235,155 // jmp 1d9bc <_sk_load_g8_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,144 // jmp 1d947 <_sk_load_g8_sse41+0x1f>
+ .byte 235,144 // jmp 1d9bc <_sk_load_g8_sse41+0x1f>
HIDDEN _sk_load_g8_dst_sse41
.globl _sk_load_g8_dst_sse41
@@ -38020,25 +38047,25 @@ _sk_load_g8_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 1d9f9 <_sk_load_g8_dst_sse41+0x42>
+ .byte 117,42 // jne 1da6e <_sk_load_g8_dst_sse41+0x42>
.byte 102,67,15,56,49,36,16 // pmovzxbd (%r8,%r10,1),%xmm4
- .byte 102,15,219,37,226,81,1,0 // pand 0x151e2(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,45,82,1,0 // pand 0x1522d(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,40,83,1,0 // mulps 0x15328(%rip),%xmm4 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,37,115,83,1,0 // mulps 0x15373(%rip),%xmm4 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,31,81,1,0 // movaps 0x1511f(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,106,81,1,0 // movaps 0x1516a(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1da3b <_sk_load_g8_dst_sse41+0x84>
+ .byte 116,53 // je 1dab0 <_sk_load_g8_dst_sse41+0x84>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1da25 <_sk_load_g8_dst_sse41+0x6e>
+ .byte 116,21 // je 1da9a <_sk_load_g8_dst_sse41+0x6e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 117,192 // jne 1da4b <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -38046,10 +38073,10 @@ _sk_load_g8_dst_sse41:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
.byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,155 // jmp 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,155 // jmp 1da4b <_sk_load_g8_dst_sse41+0x1f>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,144 // jmp 1d9d6 <_sk_load_g8_dst_sse41+0x1f>
+ .byte 235,144 // jmp 1da4b <_sk_load_g8_dst_sse41+0x1f>
HIDDEN _sk_gather_g8_sse41
.globl _sk_gather_g8_sse41
@@ -38092,9 +38119,9 @@ _sk_gather_g8_sse41:
.byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
.byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,29,82,1,0 // mulps 0x1521d(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,5,104,82,1,0 // mulps 0x15268(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,20,80,1,0 // movaps 0x15014(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,95,80,1,0 // movaps 0x1505f(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -38111,41 +38138,41 @@ _sk_load_565_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1db6f <_sk_load_565_sse41+0x6b>
+ .byte 117,80 // jne 1dbe4 <_sk_load_565_sse41+0x6b>
.byte 102,67,15,56,51,20,80 // pmovzxwd (%r8,%r10,2),%xmm2
- .byte 102,15,111,5,242,81,1,0 // movdqa 0x151f2(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,61,82,1,0 // movdqa 0x1523d(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,244,81,1,0 // mulps 0x151f4(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,13,252,81,1,0 // movdqa 0x151fc(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,5,63,82,1,0 // mulps 0x1523f(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,13,71,82,1,0 // movdqa 0x15247(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,254,81,1,0 // mulps 0x151fe(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,21,6,82,1,0 // pand 0x15206(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,13,73,82,1,0 // mulps 0x15249(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,21,81,82,1,0 // pand 0x15251(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,12,82,1,0 // mulps 0x1520c(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,21,87,82,1,0 // mulps 0x15257(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,163,79,1,0 // movaps 0x14fa3(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,238,79,1,0 // movaps 0x14fee(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dbb1 <_sk_load_565_sse41+0xad>
+ .byte 116,53 // je 1dc26 <_sk_load_565_sse41+0xad>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1db9b <_sk_load_565_sse41+0x97>
+ .byte 116,21 // je 1dc10 <_sk_load_565_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1db26 <_sk_load_565_sse41+0x22>
+ .byte 117,154 // jne 1db9b <_sk_load_565_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 233,117,255,255,255 // jmpq 1db26 <_sk_load_565_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1db9b <_sk_load_565_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,103,255,255,255 // jmpq 1db26 <_sk_load_565_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1db9b <_sk_load_565_sse41+0x22>
HIDDEN _sk_load_565_dst_sse41
.globl _sk_load_565_dst_sse41
@@ -38159,41 +38186,41 @@ _sk_load_565_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 1dc2a <_sk_load_565_dst_sse41+0x6b>
+ .byte 117,80 // jne 1dc9f <_sk_load_565_dst_sse41+0x6b>
.byte 102,67,15,56,51,52,80 // pmovzxwd (%r8,%r10,2),%xmm6
- .byte 102,15,111,37,55,81,1,0 // movdqa 0x15137(%rip),%xmm4 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,37,130,81,1,0 // movdqa 0x15182(%rip),%xmm4 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,57,81,1,0 // mulps 0x15139(%rip),%xmm4 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,45,65,81,1,0 // movdqa 0x15141(%rip),%xmm5 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,37,132,81,1,0 // mulps 0x15184(%rip),%xmm4 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,45,140,81,1,0 // movdqa 0x1518c(%rip),%xmm5 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,67,81,1,0 // mulps 0x15143(%rip),%xmm5 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,53,75,81,1,0 // pand 0x1514b(%rip),%xmm6 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,45,142,81,1,0 // mulps 0x1518e(%rip),%xmm5 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,53,150,81,1,0 // pand 0x15196(%rip),%xmm6 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,81,81,1,0 // mulps 0x15151(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,53,156,81,1,0 // mulps 0x1519c(%rip),%xmm6 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,232,78,1,0 // movaps 0x14ee8(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,51,79,1,0 // movaps 0x14f33(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1dc6c <_sk_load_565_dst_sse41+0xad>
+ .byte 116,53 // je 1dce1 <_sk_load_565_dst_sse41+0xad>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1dc56 <_sk_load_565_dst_sse41+0x97>
+ .byte 116,21 // je 1dccb <_sk_load_565_dst_sse41+0x97>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 1dbe1 <_sk_load_565_dst_sse41+0x22>
+ .byte 117,154 // jne 1dc56 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 233,117,255,255,255 // jmpq 1dbe1 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,117,255,255,255 // jmpq 1dc56 <_sk_load_565_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,103,255,255,255 // jmpq 1dbe1 <_sk_load_565_dst_sse41+0x22>
+ .byte 233,103,255,255,255 // jmpq 1dc56 <_sk_load_565_dst_sse41+0x22>
HIDDEN _sk_gather_565_sse41
.globl _sk_gather_565_sse41
@@ -38235,19 +38262,19 @@ _sk_gather_565_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,254,79,1,0 // movdqa 0x14ffe(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,73,80,1,0 // movdqa 0x15049(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,0,80,1,0 // mulps 0x15000(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,13,8,80,1,0 // movdqa 0x15008(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,5,75,80,1,0 // mulps 0x1504b(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,13,83,80,1,0 // movdqa 0x15053(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,10,80,1,0 // mulps 0x1500a(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,21,18,80,1,0 // pand 0x15012(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,13,85,80,1,0 // mulps 0x15055(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,21,93,80,1,0 // pand 0x1505d(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,24,80,1,0 // mulps 0x15018(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,21,99,80,1,0 // mulps 0x15063(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,175,77,1,0 // movaps 0x14daf(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,250,77,1,0 // movaps 0x14dfa(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse41
@@ -38261,12 +38288,12 @@ _sk_store_565_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,159,81,1,0 // movaps 0x1519f(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,234,81,1,0 // movaps 0x151ea(%rip),%xmm8 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,148,81,1,0 // movaps 0x15194(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,223,81,1,0 // movaps 0x151df(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -38276,7 +38303,7 @@ _sk_store_565_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1ddd3 <_sk_store_565_sse41+0x70>
+ .byte 117,10 // jne 1de48 <_sk_store_565_sse41+0x70>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38284,17 +38311,17 @@ _sk_store_565_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1de09 <_sk_store_565_sse41+0xa6>
+ .byte 116,35 // je 1de7e <_sk_store_565_sse41+0xa6>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1ddfb <_sk_store_565_sse41+0x98>
+ .byte 116,15 // je 1de70 <_sk_store_565_sse41+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1ddcf <_sk_store_565_sse41+0x6c>
+ .byte 117,221 // jne 1de44 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1ddcf <_sk_store_565_sse41+0x6c>
+ .byte 235,198 // jmp 1de44 <_sk_store_565_sse41+0x6c>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1ddcf <_sk_store_565_sse41+0x6c>
+ .byte 235,188 // jmp 1de44 <_sk_store_565_sse41+0x6c>
HIDDEN _sk_load_4444_sse41
.globl _sk_load_4444_sse41
@@ -38308,44 +38335,44 @@ _sk_load_4444_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1de8d <_sk_load_4444_sse41+0x7a>
+ .byte 117,95 // jne 1df02 <_sk_load_4444_sse41+0x7a>
.byte 102,67,15,56,51,28,80 // pmovzxwd (%r8,%r10,2),%xmm3
- .byte 102,15,111,5,3,81,1,0 // movdqa 0x15103(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,5,78,81,1,0 // movdqa 0x1514e(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,5,81,1,0 // mulps 0x15105(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,13,13,81,1,0 // movdqa 0x1510d(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,5,80,81,1,0 // mulps 0x15150(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,13,88,81,1,0 // movdqa 0x15158(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,15,81,1,0 // mulps 0x1510f(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,21,23,81,1,0 // movdqa 0x15117(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,13,90,81,1,0 // mulps 0x1515a(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,21,98,81,1,0 // movdqa 0x15162(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,25,81,1,0 // mulps 0x15119(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,29,33,81,1,0 // pand 0x15121(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,100,81,1,0 // mulps 0x15164(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,29,108,81,1,0 // pand 0x1516c(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,39,81,1,0 // mulps 0x15127(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,29,114,81,1,0 // mulps 0x15172(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1decf <_sk_load_4444_sse41+0xbc>
+ .byte 116,53 // je 1df44 <_sk_load_4444_sse41+0xbc>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1deb9 <_sk_load_4444_sse41+0xa6>
+ .byte 116,21 // je 1df2e <_sk_load_4444_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1de35 <_sk_load_4444_sse41+0x22>
+ .byte 117,139 // jne 1deaa <_sk_load_4444_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,102,255,255,255 // jmpq 1de35 <_sk_load_4444_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1deaa <_sk_load_4444_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,88,255,255,255 // jmpq 1de35 <_sk_load_4444_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1deaa <_sk_load_4444_sse41+0x22>
HIDDEN _sk_load_4444_dst_sse41
.globl _sk_load_4444_dst_sse41
@@ -38359,44 +38386,44 @@ _sk_load_4444_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 1df57 <_sk_load_4444_dst_sse41+0x7a>
+ .byte 117,95 // jne 1dfcc <_sk_load_4444_dst_sse41+0x7a>
.byte 102,67,15,56,51,60,80 // pmovzxwd (%r8,%r10,2),%xmm7
- .byte 102,15,111,37,57,80,1,0 // movdqa 0x15039(%rip),%xmm4 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,37,132,80,1,0 // movdqa 0x15084(%rip),%xmm4 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,59,80,1,0 // mulps 0x1503b(%rip),%xmm4 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,45,67,80,1,0 // movdqa 0x15043(%rip),%xmm5 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,37,134,80,1,0 // mulps 0x15086(%rip),%xmm4 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,45,142,80,1,0 // movdqa 0x1508e(%rip),%xmm5 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,69,80,1,0 // mulps 0x15045(%rip),%xmm5 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,53,77,80,1,0 // movdqa 0x1504d(%rip),%xmm6 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,45,144,80,1,0 // mulps 0x15090(%rip),%xmm5 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,53,152,80,1,0 // movdqa 0x15098(%rip),%xmm6 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,79,80,1,0 // mulps 0x1504f(%rip),%xmm6 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,61,87,80,1,0 // pand 0x15057(%rip),%xmm7 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,53,154,80,1,0 // mulps 0x1509a(%rip),%xmm6 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,61,162,80,1,0 // pand 0x150a2(%rip),%xmm7 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,93,80,1,0 // mulps 0x1505d(%rip),%xmm7 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,61,168,80,1,0 // mulps 0x150a8(%rip),%xmm7 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,53 // je 1df99 <_sk_load_4444_dst_sse41+0xbc>
+ .byte 116,53 // je 1e00e <_sk_load_4444_dst_sse41+0xbc>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 1df83 <_sk_load_4444_dst_sse41+0xa6>
+ .byte 116,21 // je 1dff8 <_sk_load_4444_dst_sse41+0xa6>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 1deff <_sk_load_4444_dst_sse41+0x22>
+ .byte 117,139 // jne 1df74 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,102,255,255,255 // jmpq 1deff <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,102,255,255,255 // jmpq 1df74 <_sk_load_4444_dst_sse41+0x22>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,88,255,255,255 // jmpq 1deff <_sk_load_4444_dst_sse41+0x22>
+ .byte 233,88,255,255,255 // jmpq 1df74 <_sk_load_4444_dst_sse41+0x22>
HIDDEN _sk_gather_4444_sse41
.globl _sk_gather_4444_sse41
@@ -38438,21 +38465,21 @@ _sk_gather_4444_sse41:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
.byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,241,78,1,0 // movdqa 0x14ef1(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,5,60,79,1,0 // movdqa 0x14f3c(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,243,78,1,0 // mulps 0x14ef3(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,13,251,78,1,0 // movdqa 0x14efb(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,5,62,79,1,0 // mulps 0x14f3e(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,13,70,79,1,0 // movdqa 0x14f46(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,253,78,1,0 // mulps 0x14efd(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,21,5,79,1,0 // movdqa 0x14f05(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,13,72,79,1,0 // mulps 0x14f48(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,21,80,79,1,0 // movdqa 0x14f50(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,7,79,1,0 // mulps 0x14f07(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,29,15,79,1,0 // pand 0x14f0f(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,82,79,1,0 // mulps 0x14f52(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,29,90,79,1,0 // pand 0x14f5a(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,21,79,1,0 // mulps 0x14f15(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,29,96,79,1,0 // mulps 0x14f60(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38467,7 +38494,7 @@ _sk_store_4444_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,3,79,1,0 // movaps 0x14f03(%rip),%xmm8 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,5,78,79,1,0 // movaps 0x14f4e(%rip),%xmm8 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38487,7 +38514,7 @@ _sk_store_4444_sse41:
.byte 102,69,15,86,194 // orpd %xmm10,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e123 <_sk_store_4444_sse41+0x84>
+ .byte 117,10 // jne 1e198 <_sk_store_4444_sse41+0x84>
.byte 102,69,15,214,4,64 // movq %xmm8,(%r8,%rax,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -38495,17 +38522,17 @@ _sk_store_4444_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,35 // je 1e159 <_sk_store_4444_sse41+0xba>
+ .byte 116,35 // je 1e1ce <_sk_store_4444_sse41+0xba>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e14b <_sk_store_4444_sse41+0xac>
+ .byte 116,15 // je 1e1c0 <_sk_store_4444_sse41+0xac>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,221 // jne 1e11f <_sk_store_4444_sse41+0x80>
+ .byte 117,221 // jne 1e194 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,68,64,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rax,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,69,15,126,4,64 // movd %xmm8,(%r8,%rax,2)
- .byte 235,198 // jmp 1e11f <_sk_store_4444_sse41+0x80>
+ .byte 235,198 // jmp 1e194 <_sk_store_4444_sse41+0x80>
.byte 102,69,15,58,21,4,64,0 // pextrw $0x0,%xmm8,(%r8,%rax,2)
- .byte 235,188 // jmp 1e11f <_sk_store_4444_sse41+0x80>
+ .byte 235,188 // jmp 1e194 <_sk_store_4444_sse41+0x80>
HIDDEN _sk_load_8888_sse41
.globl _sk_load_8888_sse41
@@ -38519,19 +38546,19 @@ _sk_load_8888_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e1d8 <_sk_load_8888_sse41+0x75>
+ .byte 117,89 // jne 1e24d <_sk_load_8888_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,51,74,1,0 // movdqa 0x14a33(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,126,74,1,0 // movdqa 0x14a7e(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,116,75,1,0 // movaps 0x14b74(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,191,75,1,0 // movaps 0x14bbf(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,35,74,1,0 // pshufb 0x14a23(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,110,74,1,0 // pshufb 0x14a6e(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,31,74,1,0 // pshufb 0x14a1f(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,106,74,1,0 // pshufb 0x14a6a(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38542,19 +38569,19 @@ _sk_load_8888_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e212 <_sk_load_8888_sse41+0xaf>
+ .byte 116,45 // je 1e287 <_sk_load_8888_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e201 <_sk_load_8888_sse41+0x9e>
+ .byte 116,18 // je 1e276 <_sk_load_8888_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e185 <_sk_load_8888_sse41+0x22>
+ .byte 117,144 // jne 1e1fa <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e185 <_sk_load_8888_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e1fa <_sk_load_8888_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e185 <_sk_load_8888_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e1fa <_sk_load_8888_sse41+0x22>
HIDDEN _sk_load_8888_dst_sse41
.globl _sk_load_8888_dst_sse41
@@ -38568,19 +38595,19 @@ _sk_load_8888_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e292 <_sk_load_8888_dst_sse41+0x75>
+ .byte 117,89 // jne 1e307 <_sk_load_8888_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,121,73,1,0 // movdqa 0x14979(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,196,73,1,0 // movdqa 0x149c4(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,186,74,1,0 // movaps 0x14aba(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,5,75,1,0 // movaps 0x14b05(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,105,73,1,0 // pshufb 0x14969(%rip),%xmm5 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,45,180,73,1,0 // pshufb 0x149b4(%rip),%xmm5 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,101,73,1,0 // pshufb 0x14965(%rip),%xmm6 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,53,176,73,1,0 // pshufb 0x149b0(%rip),%xmm6 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38591,19 +38618,19 @@ _sk_load_8888_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e2cc <_sk_load_8888_dst_sse41+0xaf>
+ .byte 116,45 // je 1e341 <_sk_load_8888_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e2bb <_sk_load_8888_dst_sse41+0x9e>
+ .byte 116,18 // je 1e330 <_sk_load_8888_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e23f <_sk_load_8888_dst_sse41+0x22>
+ .byte 117,144 // jne 1e2b4 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e23f <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e2b4 <_sk_load_8888_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e23f <_sk_load_8888_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e2b4 <_sk_load_8888_dst_sse41+0x22>
HIDDEN _sk_gather_8888_sse41
.globl _sk_gather_8888_sse41
@@ -38640,17 +38667,17 @@ _sk_gather_8888_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,82,72,1,0 // movdqa 0x14852(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,157,72,1,0 // movdqa 0x1489d(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,147,73,1,0 // movaps 0x14993(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,222,73,1,0 // movaps 0x149de(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,66,72,1,0 // pshufb 0x14842(%rip),%xmm1 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,13,141,72,1,0 // pshufb 0x1488d(%rip),%xmm1 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,62,72,1,0 // pshufb 0x1483e(%rip),%xmm2 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,21,137,72,1,0 // pshufb 0x14889(%rip),%xmm2 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38670,7 +38697,7 @@ _sk_store_8888_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,24,72,1,0 // movaps 0x14818(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,99,72,1,0 // movaps 0x14863(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38689,23 +38716,23 @@ _sk_store_8888_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e438 <_sk_store_8888_sse41+0x7f>
+ .byte 117,10 // jne 1e4ad <_sk_store_8888_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e462 <_sk_store_8888_sse41+0xa9>
+ .byte 116,29 // je 1e4d7 <_sk_store_8888_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e45a <_sk_store_8888_sse41+0xa1>
+ .byte 116,15 // je 1e4cf <_sk_store_8888_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e434 <_sk_store_8888_sse41+0x7b>
+ .byte 117,227 // jne 1e4a9 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e434 <_sk_store_8888_sse41+0x7b>
+ .byte 235,210 // jmp 1e4a9 <_sk_store_8888_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e434 <_sk_store_8888_sse41+0x7b>
+ .byte 235,202 // jmp 1e4a9 <_sk_store_8888_sse41+0x7b>
HIDDEN _sk_load_bgra_sse41
.globl _sk_load_bgra_sse41
@@ -38719,19 +38746,19 @@ _sk_load_bgra_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e4df <_sk_load_bgra_sse41+0x75>
+ .byte 117,89 // jne 1e554 <_sk_load_bgra_sse41+0x75>
.byte 243,65,15,111,28,128 // movdqu (%r8,%rax,4),%xmm3
- .byte 102,15,111,5,44,71,1,0 // movdqa 0x1472c(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,119,71,1,0 // movdqa 0x14777(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,109,72,1,0 // movaps 0x1486d(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,184,72,1,0 // movaps 0x148b8(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,28,71,1,0 // pshufb 0x1471c(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,5,103,71,1,0 // pshufb 0x14767(%rip),%xmm0 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,24,71,1,0 // pshufb 0x14718(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,5,99,71,1,0 // pshufb 0x14763(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38742,19 +38769,19 @@ _sk_load_bgra_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e519 <_sk_load_bgra_sse41+0xaf>
+ .byte 116,45 // je 1e58e <_sk_load_bgra_sse41+0xaf>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e508 <_sk_load_bgra_sse41+0x9e>
+ .byte 116,18 // je 1e57d <_sk_load_bgra_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e48c <_sk_load_bgra_sse41+0x22>
+ .byte 117,144 // jne 1e501 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,65,15,126,4,128 // movq (%r8,%rax,4),%xmm0
.byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,115,255,255,255 // jmpq 1e48c <_sk_load_bgra_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e501 <_sk_load_bgra_sse41+0x22>
.byte 102,65,15,110,28,128 // movd (%r8,%rax,4),%xmm3
- .byte 233,104,255,255,255 // jmpq 1e48c <_sk_load_bgra_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e501 <_sk_load_bgra_sse41+0x22>
HIDDEN _sk_load_bgra_dst_sse41
.globl _sk_load_bgra_dst_sse41
@@ -38768,19 +38795,19 @@ _sk_load_bgra_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 1e599 <_sk_load_bgra_dst_sse41+0x75>
+ .byte 117,89 // jne 1e60e <_sk_load_bgra_dst_sse41+0x75>
.byte 243,65,15,111,60,128 // movdqu (%r8,%rax,4),%xmm7
- .byte 102,15,111,37,114,70,1,0 // movdqa 0x14672(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,189,70,1,0 // movdqa 0x146bd(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,179,71,1,0 // movaps 0x147b3(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,254,71,1,0 // movaps 0x147fe(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,98,70,1,0 // pshufb 0x14662(%rip),%xmm4 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,37,173,70,1,0 // pshufb 0x146ad(%rip),%xmm4 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
.byte 65,15,89,232 // mulps %xmm8,%xmm5
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,94,70,1,0 // pshufb 0x1465e(%rip),%xmm4 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,37,169,70,1,0 // pshufb 0x146a9(%rip),%xmm4 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,15,114,215,24 // psrld $0x18,%xmm7
@@ -38791,19 +38818,19 @@ _sk_load_bgra_dst_sse41:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 1e5d3 <_sk_load_bgra_dst_sse41+0xaf>
+ .byte 116,45 // je 1e648 <_sk_load_bgra_dst_sse41+0xaf>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 1e5c2 <_sk_load_bgra_dst_sse41+0x9e>
+ .byte 116,18 // je 1e637 <_sk_load_bgra_dst_sse41+0x9e>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,144 // jne 1e546 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 117,144 // jne 1e5bb <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 243,65,15,126,36,128 // movq (%r8,%rax,4),%xmm4
.byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,115,255,255,255 // jmpq 1e546 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,115,255,255,255 // jmpq 1e5bb <_sk_load_bgra_dst_sse41+0x22>
.byte 102,65,15,110,60,128 // movd (%r8,%rax,4),%xmm7
- .byte 233,104,255,255,255 // jmpq 1e546 <_sk_load_bgra_dst_sse41+0x22>
+ .byte 233,104,255,255,255 // jmpq 1e5bb <_sk_load_bgra_dst_sse41+0x22>
HIDDEN _sk_gather_bgra_sse41
.globl _sk_gather_bgra_sse41
@@ -38840,17 +38867,17 @@ _sk_gather_bgra_sse41:
.byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
.byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
.byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,75,69,1,0 // movdqa 0x1454b(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,150,69,1,0 // movdqa 0x14596(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,140,70,1,0 // movaps 0x1468c(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,215,70,1,0 // movaps 0x146d7(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,59,69,1,0 // pshufb 0x1453b(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb54>
+ .byte 102,15,56,0,5,134,69,1,0 // pshufb 0x14586(%rip),%xmm0 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xb50>
.byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,55,69,1,0 // pshufb 0x14537(%rip),%xmm0 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xb64>
+ .byte 102,15,56,0,5,130,69,1,0 // pshufb 0x14582(%rip),%xmm0 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xb60>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
@@ -38870,7 +38897,7 @@ _sk_store_bgra_sse41:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,17,69,1,0 // movaps 0x14511(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,92,69,1,0 // movaps 0x1455c(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -38889,23 +38916,23 @@ _sk_store_bgra_sse41:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 1e73f <_sk_store_bgra_sse41+0x7f>
+ .byte 117,10 // jne 1e7b4 <_sk_store_bgra_sse41+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,29 // je 1e769 <_sk_store_bgra_sse41+0xa9>
+ .byte 116,29 // je 1e7de <_sk_store_bgra_sse41+0xa9>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,15 // je 1e761 <_sk_store_bgra_sse41+0xa1>
+ .byte 116,15 // je 1e7d6 <_sk_store_bgra_sse41+0xa1>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 1e73b <_sk_store_bgra_sse41+0x7b>
+ .byte 117,227 // jne 1e7b0 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,58,22,68,128,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,210 // jmp 1e73b <_sk_store_bgra_sse41+0x7b>
+ .byte 235,210 // jmp 1e7b0 <_sk_store_bgra_sse41+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,202 // jmp 1e73b <_sk_store_bgra_sse41+0x7b>
+ .byte 235,202 // jmp 1e7b0 <_sk_store_bgra_sse41+0x7b>
HIDDEN _sk_load_f16_sse41
.globl _sk_load_f16_sse41
@@ -38919,7 +38946,7 @@ _sk_load_f16_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1e8d5 <_sk_load_f16_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1e94a <_sk_load_f16_sse41+0x164>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,200 // movapd %xmm0,%xmm9
@@ -38929,19 +38956,19 @@ _sk_load_f16_sse41:
.byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,6,72,1,0 // movdqa 0x14806(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,5,81,72,1,0 // movdqa 0x14851(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,4,72,1,0 // movdqa 0x14804(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,21,79,72,1,0 // movdqa 0x1484f(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,7,72,1,0 // movdqa 0x14807(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,29,82,72,1,0 // movdqa 0x14852(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,243,71,1,0 // movdqa 0x147f3(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,29,62,72,1,0 // movdqa 0x1483e(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -38984,16 +39011,16 @@ _sk_load_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1e8ee <_sk_load_f16_sse41+0x17d>
+ .byte 117,13 // jne 1e963 <_sk_load_f16_sse41+0x17d>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 1e79e <_sk_load_f16_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e813 <_sk_load_f16_sse41+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1e79e <_sk_load_f16_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e813 <_sk_load_f16_sse41+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 1e79e <_sk_load_f16_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e813 <_sk_load_f16_sse41+0x2d>
HIDDEN _sk_load_f16_dst_sse41
.globl _sk_load_f16_dst_sse41
@@ -39007,7 +39034,7 @@ _sk_load_f16_dst_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 1ea73 <_sk_load_f16_dst_sse41+0x164>
+ .byte 15,133,68,1,0,0 // jne 1eae8 <_sk_load_f16_dst_sse41+0x164>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,204 // movapd %xmm4,%xmm9
@@ -39017,19 +39044,19 @@ _sk_load_f16_dst_sse41:
.byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
.byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
.byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,104,70,1,0 // movdqa 0x14668(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,5,179,70,1,0 // movdqa 0x146b3(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,102,70,1,0 // movdqa 0x14666(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,21,177,70,1,0 // movdqa 0x146b1(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,105,70,1,0 // movdqa 0x14669(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,61,180,70,1,0 // movdqa 0x146b4(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,15,114,245,16 // pslld $0x10,%xmm5
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
.byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
.byte 102,15,114,246,13 // pslld $0xd,%xmm6
.byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,85,70,1,0 // movdqa 0x14655(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,29,160,70,1,0 // movdqa 0x146a0(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,243 // paddd %xmm11,%xmm6
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
@@ -39072,16 +39099,16 @@ _sk_load_f16_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1ea8c <_sk_load_f16_dst_sse41+0x17d>
+ .byte 117,13 // jne 1eb01 <_sk_load_f16_dst_sse41+0x17d>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 1e93c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,176,254,255,255 // jmpq 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 1e93c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 15,130,155,254,255,255 // jb 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 1e93c <_sk_load_f16_dst_sse41+0x2d>
+ .byte 233,143,254,255,255 // jmpq 1e9b1 <_sk_load_f16_dst_sse41+0x2d>
HIDDEN _sk_gather_f16_sse41
.globl _sk_gather_f16_sse41
@@ -39127,19 +39154,19 @@ _sk_gather_f16_sse41:
.byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
.byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
.byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,102,68,1,0 // movdqa 0x14466(%rip),%xmm8 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,5,177,68,1,0 // movdqa 0x144b1(%rip),%xmm8 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,100,68,1,0 // movdqa 0x14464(%rip),%xmm10 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,21,175,68,1,0 // movdqa 0x144af(%rip),%xmm10 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,103,68,1,0 // movdqa 0x14467(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,29,178,68,1,0 // movdqa 0x144b2(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,15,114,241,16 // pslld $0x10,%xmm1
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
.byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
.byte 102,15,114,242,13 // pslld $0xd,%xmm2
.byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,83,68,1,0 // movdqa 0x14453(%rip),%xmm11 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,29,158,68,1,0 // movdqa 0x1449e(%rip),%xmm11 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,211 // paddd %xmm11,%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
@@ -39192,20 +39219,20 @@ _sk_store_f16_sse41:
.byte 73,193,224,3 // shl $0x3,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 102,68,15,111,13,123,67,1,0 // movdqa 0x1437b(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,13,198,67,1,0 // movdqa 0x143c6(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
.byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,120,67,1,0 // movdqa 0x14378(%rip),%xmm11 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 102,68,15,111,29,195,67,1,0 // movdqa 0x143c3(%rip),%xmm11 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,117,67,1,0 // movdqa 0x14375(%rip),%xmm10 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
+ .byte 102,68,15,111,21,192,67,1,0 // movdqa 0x143c0(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
.byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
.byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
.byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
.byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
.byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,91,67,1,0 // movdqa 0x1435b(%rip),%xmm12 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xfc4>
+ .byte 102,68,15,111,37,166,67,1,0 // movdqa 0x143a6(%rip),%xmm12 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0xfc0>
.byte 102,69,15,254,236 // paddd %xmm12,%xmm13
.byte 102,69,15,219,197 // pand %xmm13,%xmm8
.byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
@@ -39250,7 +39277,7 @@ _sk_store_f16_sse41:
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1ede3 <_sk_store_f16_sse41+0x16e>
+ .byte 117,21 // jne 1ee58 <_sk_store_f16_sse41+0x16e>
.byte 69,15,17,12,192 // movups %xmm9,(%r8,%rax,8)
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 243,69,15,127,68,192,16 // movdqu %xmm8,0x10(%r8,%rax,8)
@@ -39258,13 +39285,13 @@ _sk_store_f16_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1eddf <_sk_store_f16_sse41+0x16a>
+ .byte 116,240 // je 1ee54 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1eddf <_sk_store_f16_sse41+0x16a>
+ .byte 114,227 // jb 1ee54 <_sk_store_f16_sse41+0x16a>
.byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,213 // jmp 1eddf <_sk_store_f16_sse41+0x16a>
+ .byte 235,213 // jmp 1ee54 <_sk_store_f16_sse41+0x16a>
HIDDEN _sk_load_u16_be_sse41
.globl _sk_load_u16_be_sse41
@@ -39279,7 +39306,7 @@ _sk_load_u16_be_sse41:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 1eeea <_sk_load_u16_be_sse41+0xe0>
+ .byte 15,133,185,0,0,0 // jne 1ef5f <_sk_load_u16_be_sse41+0xe0>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -39295,7 +39322,7 @@ _sk_load_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,35,63,1,0 // movaps 0x13f23(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,5,110,63,1,0 // movaps 0x13f6e(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39323,16 +39350,16 @@ _sk_load_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1ef03 <_sk_load_u16_be_sse41+0xf9>
+ .byte 117,13 // jne 1ef78 <_sk_load_u16_be_sse41+0xf9>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 1ee3e <_sk_load_u16_be_sse41+0x34>
+ .byte 233,59,255,255,255 // jmpq 1eeb3 <_sk_load_u16_be_sse41+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 1ee3e <_sk_load_u16_be_sse41+0x34>
+ .byte 15,130,38,255,255,255 // jb 1eeb3 <_sk_load_u16_be_sse41+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 1ee3e <_sk_load_u16_be_sse41+0x34>
+ .byte 233,26,255,255,255 // jmpq 1eeb3 <_sk_load_u16_be_sse41+0x34>
HIDDEN _sk_load_rgb_u16_be_sse41
.globl _sk_load_rgb_u16_be_sse41
@@ -39349,7 +39376,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 1eff9 <_sk_load_rgb_u16_be_sse41+0xd5>
+ .byte 15,133,170,0,0,0 // jne 1f06e <_sk_load_rgb_u16_be_sse41+0xd5>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -39369,7 +39396,7 @@ _sk_load_rgb_u16_be_sse41:
.byte 102,15,235,200 // por %xmm0,%xmm1
.byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,242,61,1,0 // movaps 0x13df2(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,5,61,62,1,0 // movaps 0x13e3d(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -39386,27 +39413,27 @@ _sk_load_rgb_u16_be_sse41:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,25,59,1,0 // movaps 0x13b19(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,100,59,1,0 // movaps 0x13b64(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f01e <_sk_load_rgb_u16_be_sse41+0xfa>
+ .byte 117,13 // jne 1f093 <_sk_load_rgb_u16_be_sse41+0xfa>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,85,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1f04f <_sk_load_rgb_u16_be_sse41+0x12b>
+ .byte 114,24 // jb 1f0c4 <_sk_load_rgb_u16_be_sse41+0x12b>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,36,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 1ef73 <_sk_load_rgb_u16_be_sse41+0x4f>
+ .byte 233,27,255,255,255 // jmpq 1efe8 <_sk_load_rgb_u16_be_sse41+0x4f>
HIDDEN _sk_store_u16_be_sse41
.globl _sk_store_u16_be_sse41
@@ -39420,7 +39447,7 @@ _sk_store_u16_be_sse41:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,210,63,1,0 // movaps 0x13fd2(%rip),%xmm10 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,21,29,64,1,0 // movaps 0x1401d(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -39457,7 +39484,7 @@ _sk_store_u16_be_sse41:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 1f14c <_sk_store_u16_be_sse41+0xf4>
+ .byte 117,21 // jne 1f1c1 <_sk_store_u16_be_sse41+0xf4>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -39465,13 +39492,13 @@ _sk_store_u16_be_sse41:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 1f148 <_sk_store_u16_be_sse41+0xf0>
+ .byte 116,240 // je 1f1bd <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 1f148 <_sk_store_u16_be_sse41+0xf0>
+ .byte 114,227 // jb 1f1bd <_sk_store_u16_be_sse41+0xf0>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 1f148 <_sk_store_u16_be_sse41+0xf0>
+ .byte 235,213 // jmp 1f1bd <_sk_store_u16_be_sse41+0xf0>
HIDDEN _sk_load_f32_sse41
.globl _sk_load_f32_sse41
@@ -39487,7 +39514,7 @@ _sk_load_f32_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f1de <_sk_load_f32_sse41+0x6b>
+ .byte 117,66 // jne 1f253 <_sk_load_f32_sse41+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39507,17 +39534,17 @@ _sk_load_f32_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f1f0 <_sk_load_f32_sse41+0x7d>
+ .byte 117,8 // jne 1f265 <_sk_load_f32_sse41+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,190 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f204 <_sk_load_f32_sse41+0x91>
+ .byte 114,8 // jb 1f279 <_sk_load_f32_sse41+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,170 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 1f1ae <_sk_load_f32_sse41+0x3b>
+ .byte 235,165 // jmp 1f223 <_sk_load_f32_sse41+0x3b>
HIDDEN _sk_load_f32_dst_sse41
.globl _sk_load_f32_dst_sse41
@@ -39533,7 +39560,7 @@ _sk_load_f32_dst_sse41:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 1f274 <_sk_load_f32_dst_sse41+0x6b>
+ .byte 117,66 // jne 1f2e9 <_sk_load_f32_dst_sse41+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -39553,17 +39580,17 @@ _sk_load_f32_dst_sse41:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 1f286 <_sk_load_f32_dst_sse41+0x7d>
+ .byte 117,8 // jne 1f2fb <_sk_load_f32_dst_sse41+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,190 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 1f29a <_sk_load_f32_dst_sse41+0x91>
+ .byte 114,8 // jb 1f30f <_sk_load_f32_dst_sse41+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,170 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 1f244 <_sk_load_f32_dst_sse41+0x3b>
+ .byte 235,165 // jmp 1f2b9 <_sk_load_f32_dst_sse41+0x3b>
HIDDEN _sk_store_f32_sse41
.globl _sk_store_f32_sse41
@@ -39592,7 +39619,7 @@ _sk_store_f32_sse41:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 1f31c <_sk_store_f32_sse41+0x7d>
+ .byte 117,29 // jne 1f391 <_sk_store_f32_sse41+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -39600,12 +39627,12 @@ _sk_store_f32_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 1f318 <_sk_store_f32_sse41+0x79>
+ .byte 116,246 // je 1f38d <_sk_store_f32_sse41+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 1f318 <_sk_store_f32_sse41+0x79>
+ .byte 114,234 // jb 1f38d <_sk_store_f32_sse41+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 1f318 <_sk_store_f32_sse41+0x79>
+ .byte 235,225 // jmp 1f38d <_sk_store_f32_sse41+0x79>
HIDDEN _sk_repeat_x_sse41
.globl _sk_repeat_x_sse41
@@ -39651,7 +39678,7 @@ _sk_mirror_x_sse41:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,68,53,1,0 // mulss 0x13544(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,13,143,53,1,0 // mulss 0x1358f(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39676,7 +39703,7 @@ _sk_mirror_y_sse41:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,235,52,1,0 // mulss 0x134eb(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,13,54,53,1,0 // mulss 0x13536(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
@@ -39695,7 +39722,7 @@ FUNCTION(_sk_clamp_x_1_sse41)
_sk_clamp_x_1_sse41:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,187,54,1,0 // minps 0x136bb(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,6,55,1,0 // minps 0x13706(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -39706,25 +39733,33 @@ FUNCTION(_sk_repeat_x_1_sse41)
_sk_repeat_x_1_sse41:
.byte 102,68,15,58,8,192,1 // roundps $0x1,%xmm0,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 68,15,95,192 // maxps %xmm0,%xmm8
+ .byte 68,15,93,5,227,54,1,0 // minps 0x136e3(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_mirror_x_1_sse41
.globl _sk_mirror_x_1_sse41
FUNCTION(_sk_mirror_x_1_sse41)
_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,252,54,1,0 // movaps 0x136fc(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,5,51,55,1,0 // movaps 0x13733(%rip),%xmm8 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,128,54,1,0 // movaps 0x13680(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,183,54,1,0 // movaps 0x136b7(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
.byte 69,15,88,201 // addps %xmm9,%xmm9
.byte 65,15,92,193 // subps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,92,200 // subps %xmm0,%xmm9
+ .byte 68,15,84,200 // andps %xmm0,%xmm9
+ .byte 69,15,95,193 // maxps %xmm9,%xmm8
+ .byte 68,15,93,5,148,54,1,0 // minps 0x13694(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_luminance_to_alpha_sse41
@@ -39732,10 +39767,10 @@ HIDDEN _sk_luminance_to_alpha_sse41
FUNCTION(_sk_luminance_to_alpha_sse41)
_sk_luminance_to_alpha_sse41:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,175,59,1,0 // mulps 0x13baf(%rip),%xmm0 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
- .byte 15,89,13,184,59,1,0 // mulps 0x13bb8(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 15,89,5,210,59,1,0 // mulps 0x13bd2(%rip),%xmm0 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+ .byte 15,89,13,219,59,1,0 // mulps 0x13bdb(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,190,59,1,0 // mulps 0x13bbe(%rip),%xmm3 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,29,225,59,1,0 // mulps 0x13be1(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -40047,9 +40082,9 @@ _sk_evenly_spaced_gradient_sse41:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 1f962 <_sk_evenly_spaced_gradient_sse41+0x18>
+ .byte 120,7 // js 1f9ff <_sk_evenly_spaced_gradient_sse41+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 1f977 <_sk_evenly_spaced_gradient_sse41+0x2d>
+ .byte 235,21 // jmp 1fa14 <_sk_evenly_spaced_gradient_sse41+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -40138,15 +40173,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse41
.globl _sk_gauss_a_to_rgba_sse41
FUNCTION(_sk_gauss_a_to_rgba_sse41)
_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,109,53,1,0 // movaps 0x1356d(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 15,40,5,144,53,1,0 // movaps 0x13590(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,115,53,1,0 // addps 0x13573(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 15,88,5,150,53,1,0 // addps 0x13596(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,121,53,1,0 // addps 0x13579(%rip),%xmm0 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 15,88,5,156,53,1,0 // addps 0x1359c(%rip),%xmm0 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,127,53,1,0 // addps 0x1357f(%rip),%xmm0 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,88,5,162,53,1,0 // addps 0x135a2(%rip),%xmm0 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,133,53,1,0 // addps 0x13585(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 15,88,5,168,53,1,0 // addps 0x135a8(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -40161,7 +40196,7 @@ _sk_gradient_sse41:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 1fb90 <_sk_gradient_sse41+0x38>
+ .byte 114,41 // jb 1fc2d <_sk_gradient_sse41+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -40172,7 +40207,7 @@ _sk_gradient_sse41:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 1fb76 <_sk_gradient_sse41+0x1e>
+ .byte 117,230 // jne 1fc13 <_sk_gradient_sse41+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
@@ -40303,26 +40338,26 @@ _sk_xy_to_unit_angle_sse41:
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,40,236 // movaps %xmm12,%xmm13
.byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,252,50,1,0 // movaps 0x132fc(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,40,21,31,51,1,0 // movaps 0x1331f(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,0,51,1,0 // addps 0x13300(%rip),%xmm10 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,88,21,35,51,1,0 // addps 0x13323(%rip),%xmm10 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,4,51,1,0 // addps 0x13304(%rip),%xmm10 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,88,21,39,51,1,0 // addps 0x13327(%rip),%xmm10 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
.byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,8,51,1,0 // addps 0x13308(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,21,43,51,1,0 // addps 0x1332b(%rip),%xmm10 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,7,51,1,0 // movaps 0x13307(%rip),%xmm11 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,29,42,51,1,0 // movaps 0x1332a(%rip),%xmm11 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,208,44,1,0 // movaps 0x12cd0(%rip),%xmm11 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,29,243,44,1,0 // movaps 0x12cf3(%rip),%xmm11 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,92,218 // subps %xmm10,%xmm11
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,194,44,1,0 // movaps 0x12cc2(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,229,44,1,0 // movaps 0x12ce5(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
.byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
@@ -40356,7 +40391,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,123,50,1,0 // mulps 0x1327b(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,158,50,1,0 // mulps 0x1329e(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40364,7 +40399,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,102,50,1,0 // mulps 0x13266(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,21,137,50,1,0 // mulps 0x13289(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40373,8 +40408,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,14,49,1,0 // xorps 0x1310e(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
- .byte 68,15,89,5,246,43,1,0 // mulps 0x12bf6(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,49,49,1,0 // xorps 0x13131(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,89,5,25,44,1,0 // mulps 0x12c19(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40395,7 +40430,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,221,49,1,0 // mulps 0x131dd(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,0,50,1,0 // mulps 0x13200(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -40403,7 +40438,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,200,49,1,0 // mulps 0x131c8(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,21,235,49,1,0 // mulps 0x131eb(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -40412,8 +40447,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse41:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,112,48,1,0 // xorps 0x13070(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
- .byte 68,15,89,5,88,43,1,0 // mulps 0x12b58(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,147,48,1,0 // xorps 0x13093(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,89,5,123,43,1,0 // mulps 0x12b7b(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -40431,7 +40466,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,80,49,1,0 // mulps 0x13150(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,115,49,1,0 // mulps 0x13173(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -40439,7 +40474,7 @@ _sk_xy_to_2pt_conical_linear_sse41:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,12,48,1,0 // xorps 0x1300c(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 15,87,5,47,48,1,0 // xorps 0x1302f(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40487,7 +40522,7 @@ HIDDEN _sk_save_xy_sse41
FUNCTION(_sk_save_xy_sse41)
_sk_save_xy_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,123,42,1,0 // movaps 0x12a7b(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,158,42,1,0 // movaps 0x12a9e(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -40531,8 +40566,8 @@ _sk_bilinear_nx_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,61,48,1,0 // addps 0x1303d(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,245,41,1,0 // movaps 0x129f5(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,96,48,1,0 // addps 0x13060(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,24,42,1,0 // movaps 0x12a18(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40545,7 +40580,7 @@ _sk_bilinear_px_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,196,41,1,0 // addps 0x129c4(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,5,231,41,1,0 // addps 0x129e7(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40557,8 +40592,8 @@ _sk_bilinear_ny_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,246,47,1,0 // addps 0x12ff6(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,174,41,1,0 // movaps 0x129ae(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,25,48,1,0 // addps 0x13019(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,209,41,1,0 // movaps 0x129d1(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40571,7 +40606,7 @@ _sk_bilinear_py_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,124,41,1,0 // addps 0x1297c(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,159,41,1,0 // addps 0x1299f(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40583,13 +40618,13 @@ _sk_bicubic_n3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,191,47,1,0 // addps 0x12fbf(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,103,41,1,0 // movaps 0x12967(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,226,47,1,0 // addps 0x12fe2(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,40,13,138,41,1,0 // movaps 0x1298a(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,179,47,1,0 // mulps 0x12fb3(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,13,59,43,1,0 // addps 0x12b3b(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,13,214,47,1,0 // mulps 0x12fd6(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,13,94,43,1,0 // addps 0x12b5e(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40602,16 +40637,16 @@ _sk_bicubic_n1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,106,47,1,0 // addps 0x12f6a(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,34,41,1,0 // movaps 0x12922(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,141,47,1,0 // addps 0x12f8d(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,69,41,1,0 // movaps 0x12945(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,134,47,1,0 // movaps 0x12f86(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,5,169,47,1,0 // movaps 0x12fa9(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,138,47,1,0 // addps 0x12f8a(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,173,47,1,0 // addps 0x12fad(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,238,40,1,0 // addps 0x128ee(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,17,41,1,0 // addps 0x12911(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,130,47,1,0 // addps 0x12f82(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,165,47,1,0 // addps 0x12fa5(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40621,17 +40656,17 @@ HIDDEN _sk_bicubic_p1x_sse41
FUNCTION(_sk_bicubic_p1x_sse41)
_sk_bicubic_p1x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,204,40,1,0 // movaps 0x128cc(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,239,40,1,0 // movaps 0x128ef(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,56,47,1,0 // movaps 0x12f38(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,21,91,47,1,0 // movaps 0x12f5b(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,60,47,1,0 // addps 0x12f3c(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,21,95,47,1,0 // addps 0x12f5f(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,56,47,1,0 // addps 0x12f38(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,91,47,1,0 // addps 0x12f5b(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40643,11 +40678,11 @@ _sk_bicubic_p3x_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,11,47,1,0 // addps 0x12f0b(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,88,5,46,47,1,0 // addps 0x12f2e(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,219,46,1,0 // mulps 0x12edb(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,5,99,42,1,0 // addps 0x12a63(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,5,254,46,1,0 // mulps 0x12efe(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,5,134,42,1,0 // addps 0x12a86(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40660,13 +40695,13 @@ _sk_bicubic_n3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,161,46,1,0 // addps 0x12ea1(%rip),%xmm1 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,73,40,1,0 // movaps 0x12849(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,196,46,1,0 // addps 0x12ec4(%rip),%xmm1 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,40,13,108,40,1,0 // movaps 0x1286c(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,149,46,1,0 // mulps 0x12e95(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,13,29,42,1,0 // addps 0x12a1d(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,13,184,46,1,0 // mulps 0x12eb8(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,13,64,42,1,0 // addps 0x12a40(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40679,16 +40714,16 @@ _sk_bicubic_n1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,75,46,1,0 // addps 0x12e4b(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,3,40,1,0 // movaps 0x12803(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,110,46,1,0 // addps 0x12e6e(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,38,40,1,0 // movaps 0x12826(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,103,46,1,0 // movaps 0x12e67(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,5,138,46,1,0 // movaps 0x12e8a(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,107,46,1,0 // addps 0x12e6b(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,142,46,1,0 // addps 0x12e8e(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,207,39,1,0 // addps 0x127cf(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,242,39,1,0 // addps 0x127f2(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,99,46,1,0 // addps 0x12e63(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,134,46,1,0 // addps 0x12e86(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40698,17 +40733,17 @@ HIDDEN _sk_bicubic_p1y_sse41
FUNCTION(_sk_bicubic_p1y_sse41)
_sk_bicubic_p1y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,173,39,1,0 // movaps 0x127ad(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,208,39,1,0 // movaps 0x127d0(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,24,46,1,0 // movaps 0x12e18(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,21,59,46,1,0 // movaps 0x12e3b(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,28,46,1,0 // addps 0x12e1c(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,21,63,46,1,0 // addps 0x12e3f(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,24,46,1,0 // addps 0x12e18(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,59,46,1,0 // addps 0x12e3b(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -40720,11 +40755,11 @@ _sk_bicubic_p3y_sse41:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,234,45,1,0 // addps 0x12dea(%rip),%xmm1 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,88,13,13,46,1,0 // addps 0x12e0d(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,186,45,1,0 // mulps 0x12dba(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,5,66,41,1,0 // addps 0x12942(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,5,221,45,1,0 // mulps 0x12ddd(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,5,101,41,1,0 // addps 0x12965(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -40835,7 +40870,7 @@ _sk_clut_3D_sse41:
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
.byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,165,44,1,0 // movaps 0x12ca5(%rip),%xmm4 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 15,40,37,200,44,1,0 // movaps 0x12cc8(%rip),%xmm4 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
.byte 15,88,196 // addps %xmm4,%xmm0
.byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
.byte 102,65,15,110,208 // movd %r8d,%xmm2
@@ -40874,7 +40909,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,252,43,1,0 // movdqa 0x12bfc(%rip),%xmm12 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,68,15,111,37,31,44,1,0 // movdqa 0x12c1f(%rip),%xmm12 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
.byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
@@ -40897,7 +40932,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,0,37,1,0 // movdqa 0x12500(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,37,35,37,1,0 // movdqa 0x12523(%rip),%xmm4 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,220 // paddd %xmm4,%xmm3
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
@@ -41070,7 +41105,7 @@ _sk_clut_3D_sse41:
.byte 102,68,15,254,202 // paddd %xmm2,%xmm9
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,11,40,1,0 // movdqa 0x1280b(%rip),%xmm5 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,45,46,40,1,0 // movdqa 0x1282e(%rip),%xmm5 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -41091,7 +41126,7 @@ _sk_clut_3D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,28,33,1,0 // movdqa 0x1211c(%rip),%xmm7 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,61,63,33,1,0 // movdqa 0x1213f(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,199 // paddd %xmm7,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41157,7 +41192,7 @@ _sk_clut_3D_sse41:
.byte 15,88,248 // addps %xmm0,%xmm7
.byte 102,68,15,254,210 // paddd %xmm2,%xmm10
.byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,71,38,1,0 // movdqa 0x12647(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,13,106,38,1,0 // movdqa 0x1266a(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
.byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
.byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
@@ -41178,7 +41213,7 @@ _sk_clut_3D_sse41:
.byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
.byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
.byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,82,31,1,0 // movdqa 0x11f52(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,21,117,31,1,0 // movdqa 0x11f75(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,68,15,254,194 // paddd %xmm2,%xmm8
.byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
.byte 102,76,15,126,195 // movq %xmm8,%rbx
@@ -41305,7 +41340,7 @@ _sk_clut_4D_sse41:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
.byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,165,35,1,0 // movaps 0x123a5(%rip),%xmm3 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 15,40,29,200,35,1,0 // movaps 0x123c8(%rip),%xmm3 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
.byte 15,88,203 // addps %xmm3,%xmm1
.byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
.byte 102,65,15,110,232 // movd %r8d,%xmm5
@@ -41362,7 +41397,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
.byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,164,34,1,0 // movdqa 0x122a4(%rip),%xmm11 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,68,15,111,29,199,34,1,0 // movdqa 0x122c7(%rip),%xmm11 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
.byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
.byte 102,15,111,243 // movdqa %xmm3,%xmm6
@@ -41384,7 +41419,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
.byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
.byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,172,27,1,0 // movdqa 0x11bac(%rip),%xmm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,21,207,27,1,0 // movdqa 0x11bcf(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,218 // paddd %xmm10,%xmm3
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
@@ -41402,7 +41437,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,201 // paddd %xmm9,%xmm1
.byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
.byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,218,33,1,0 // psubd 0x121da(%rip),%xmm3 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,29,253,33,1,0 // psubd 0x121fd(%rip),%xmm3 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
.byte 102,72,15,126,219 // movq %xmm3,%rbx
.byte 65,137,223 // mov %ebx,%r15d
@@ -41457,7 +41492,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,254,199 // paddd %xmm15,%xmm0
.byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,186,32,1,0 // psubd 0x120ba(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,45,221,32,1,0 // psubd 0x120dd(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
.byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
.byte 102,72,15,126,237 // movq %xmm5,%rbp
@@ -41582,7 +41617,7 @@ _sk_clut_4D_sse41:
.byte 72,193,233,32 // shr $0x20,%rcx
.byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
.byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,158,23,1,0 // movdqa 0x1179e(%rip),%xmm7 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,61,193,23,1,0 // movdqa 0x117c1(%rip),%xmm7 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,223 // paddd %xmm7,%xmm3
.byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
.byte 102,72,15,126,221 // movq %xmm3,%rbp
@@ -41668,7 +41703,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,226,21,1,0 // movdqa 0x115e2(%rip),%xmm10 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,21,5,22,1,0 // movdqa 0x11605(%rip),%xmm10 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -41764,7 +41799,7 @@ _sk_clut_4D_sse41:
.byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,124,26,1,0 // movdqa 0x11a7c(%rip),%xmm2 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,21,159,26,1,0 // movdqa 0x11a9f(%rip),%xmm2 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
@@ -41785,7 +41820,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,139,19,1,0 // movdqa 0x1138b(%rip),%xmm4 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,37,174,19,1,0 // movdqa 0x113ae(%rip),%xmm4 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,196 // paddd %xmm4,%xmm0
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
@@ -41857,7 +41892,7 @@ _sk_clut_4D_sse41:
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,167,24,1,0 // psubd 0x118a7(%rip),%xmm2 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,21,202,24,1,0 // psubd 0x118ca(%rip),%xmm2 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
.byte 102,72,15,126,213 // movq %xmm2,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -41891,7 +41926,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
.byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
.byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,243,23,1,0 // psubd 0x117f3(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,22,24,1,0 // psubd 0x11816(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -41956,7 +41991,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
.byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
.byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,138,22,1,0 // movdqa 0x1168a(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,173,22,1,0 // movdqa 0x116ad(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
@@ -41977,7 +42012,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
.byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
.byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,155,15,1,0 // movdqa 0x10f9b(%rip),%xmm3 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,29,190,15,1,0 // movdqa 0x10fbe(%rip),%xmm3 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
.byte 102,72,15,126,203 // movq %xmm1,%rbx
@@ -42049,7 +42084,7 @@ _sk_clut_4D_sse41:
.byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,187,20,1,0 // psubd 0x114bb(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,5,222,20,1,0 // psubd 0x114de(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,235 // mov %ebp,%ebx
@@ -42067,7 +42102,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
.byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
.byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,201,13,1,0 // paddd 0x10dc9(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,236,13,1,0 // paddd 0x10dec(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42083,7 +42118,7 @@ _sk_clut_4D_sse41:
.byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
.byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,2,20,1,0 // psubd 0x11402(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,5,37,20,1,0 // psubd 0x11425(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
.byte 102,72,15,126,195 // movq %xmm0,%rbx
.byte 137,221 // mov %ebx,%ebp
@@ -42101,7 +42136,7 @@ _sk_clut_4D_sse41:
.byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
.byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
.byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,16,13,1,0 // paddd 0x10d10(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,51,13,1,0 // paddd 0x10d33(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
.byte 102,72,15,126,197 // movq %xmm0,%rbp
.byte 137,233 // mov %ebp,%ecx
@@ -42164,7 +42199,7 @@ _sk_clut_4D_sse41:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,211 // addps %xmm11,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,205,11,1,0 // movaps 0x10bcd(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,240,11,1,0 // movaps 0x10bf0(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
.byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
.byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
@@ -42200,13 +42235,13 @@ _sk_start_pipeline_sse2:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 22025 <_sk_start_pipeline_sse2+0xb6>
+ .byte 15,131,131,0,0,0 // jae 220c2 <_sk_start_pipeline_sse2+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,4 // lea 0x4(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 21ff3 <_sk_start_pipeline_sse2+0x84>
+ .byte 119,59 // ja 22090 <_sk_start_pipeline_sse2+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -42225,10 +42260,10 @@ _sk_start_pipeline_sse2:
.byte 73,131,196,8 // add $0x8,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 21fbc <_sk_start_pipeline_sse2+0x4d>
+ .byte 118,201 // jbe 22059 <_sk_start_pipeline_sse2+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2201c <_sk_start_pipeline_sse2+0xad>
+ .byte 116,33 // je 220b9 <_sk_start_pipeline_sse2+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42242,7 +42277,7 @@ _sk_start_pipeline_sse2:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 21fae <_sk_start_pipeline_sse2+0x3f>
+ .byte 117,137 // jne 2204b <_sk_start_pipeline_sse2+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -42265,13 +42300,13 @@ _sk_seed_shader_sse2:
.byte 102,15,110,194 // movd %edx,%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,5,168,10,1,0 // addps 0x10aa8(%rip),%xmm0 # 32af0 <_sk_srcover_rgba_8888_sse2_lowp+0xa74>
+ .byte 15,88,5,203,10,1,0 // addps 0x10acb(%rip),%xmm0 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xa70>
.byte 102,15,110,201 // movd %ecx,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,165,10,1,0 // addps 0x10aa5(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,200,10,1,0 // addps 0x10ac8(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,172,10,1,0 // movaps 0x10aac(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,207,10,1,0 // movaps 0x10acf(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
@@ -42286,18 +42321,18 @@ _sk_dither_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,68,15,110,194 // movd %edx,%xmm8
.byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,69,10,1,0 // paddd 0x10a45(%rip),%xmm8 # 32ad0 <_sk_srcover_rgba_8888_sse2_lowp+0xa54>
+ .byte 102,68,15,254,5,104,10,1,0 // paddd 0x10a68(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xa50>
.byte 102,68,15,110,201 // movd %ecx,%xmm9
.byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
.byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,124,10,1,0 // movdqa 0x10a7c(%rip),%xmm10 # 32b20 <_sk_srcover_rgba_8888_sse2_lowp+0xaa4>
+ .byte 102,68,15,111,21,159,10,1,0 // movdqa 0x10a9f(%rip),%xmm10 # 32be0 <_sk_srcover_rgba_8888_sse2_lowp+0xaa0>
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
.byte 102,69,15,219,218 // pand %xmm10,%xmm11
.byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,104,10,1,0 // movdqa 0x10a68(%rip),%xmm12 # 32b30 <_sk_srcover_rgba_8888_sse2_lowp+0xab4>
- .byte 102,68,15,111,45,111,10,1,0 // movdqa 0x10a6f(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,139,10,1,0 // movdqa 0x10a8b(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xab0>
+ .byte 102,68,15,111,45,146,10,1,0 // movdqa 0x10a92(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
.byte 102,69,15,219,245 // pand %xmm13,%xmm14
.byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
@@ -42313,8 +42348,8 @@ _sk_dither_sse2:
.byte 102,69,15,235,198 // por %xmm14,%xmm8
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,42,10,1,0 // mulps 0x10a2a(%rip),%xmm8 # 32b50 <_sk_srcover_rgba_8888_sse2_lowp+0xad4>
- .byte 68,15,88,5,50,10,1,0 // addps 0x10a32(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xae4>
+ .byte 68,15,89,5,77,10,1,0 // mulps 0x10a4d(%rip),%xmm8 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xad0>
+ .byte 68,15,88,5,85,10,1,0 // addps 0x10a55(%rip),%xmm8 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xae0>
.byte 243,68,15,16,16 // movss (%rax),%xmm10
.byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
@@ -42356,7 +42391,7 @@ HIDDEN _sk_black_color_sse2
FUNCTION(_sk_black_color_sse2)
_sk_black_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,104,9,1,0 // movaps 0x10968(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,139,9,1,0 // movaps 0x1098b(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -42367,7 +42402,7 @@ HIDDEN _sk_white_color_sse2
FUNCTION(_sk_white_color_sse2)
_sk_white_color_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,84,9,1,0 // movaps 0x10954(%rip),%xmm0 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,5,119,9,1,0 // movaps 0x10977(%rip),%xmm0 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -42413,7 +42448,7 @@ HIDDEN _sk_srcatop_sse2
FUNCTION(_sk_srcatop_sse2)
_sk_srcatop_sse2:
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,4,9,1,0 // movaps 0x10904(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,39,9,1,0 // movaps 0x10927(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42438,7 +42473,7 @@ FUNCTION(_sk_dstatop_sse2)
_sk_dstatop_sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
.byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,183,8,1,0 // movaps 0x108b7(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,218,8,1,0 // movaps 0x108da(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
@@ -42485,7 +42520,7 @@ HIDDEN _sk_srcout_sse2
.globl _sk_srcout_sse2
FUNCTION(_sk_srcout_sse2)
_sk_srcout_sse2:
- .byte 68,15,40,5,75,8,1,0 // movaps 0x1084b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,110,8,1,0 // movaps 0x1086e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
@@ -42498,7 +42533,7 @@ HIDDEN _sk_dstout_sse2
.globl _sk_dstout_sse2
FUNCTION(_sk_dstout_sse2)
_sk_dstout_sse2:
- .byte 68,15,40,5,43,8,1,0 // movaps 0x1082b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,78,8,1,0 // movaps 0x1084e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -42515,7 +42550,7 @@ HIDDEN _sk_srcover_sse2
.globl _sk_srcover_sse2
FUNCTION(_sk_srcover_sse2)
_sk_srcover_sse2:
- .byte 68,15,40,5,254,7,1,0 // movaps 0x107fe(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,33,8,1,0 // movaps 0x10821(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -42535,7 +42570,7 @@ HIDDEN _sk_dstover_sse2
.globl _sk_dstover_sse2
FUNCTION(_sk_dstover_sse2)
_sk_dstover_sse2:
- .byte 68,15,40,5,194,7,1,0 // movaps 0x107c2(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,229,7,1,0 // movaps 0x107e5(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -42563,7 +42598,7 @@ HIDDEN _sk_multiply_sse2
.globl _sk_multiply_sse2
FUNCTION(_sk_multiply_sse2)
_sk_multiply_sse2:
- .byte 68,15,40,5,134,7,1,0 // movaps 0x10786(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,169,7,1,0 // movaps 0x107a9(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 69,15,40,209 // movaps %xmm9,%xmm10
@@ -42601,7 +42636,7 @@ HIDDEN _sk_plus__sse2
FUNCTION(_sk_plus__sse2)
_sk_plus__sse2:
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,7,7,1,0 // movaps 0x10707(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,42,7,1,0 // movaps 0x1072a(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 65,15,93,200 // minps %xmm8,%xmm1
@@ -42643,7 +42678,7 @@ HIDDEN _sk_xor__sse2
FUNCTION(_sk_xor__sse2)
_sk_xor__sse2:
.byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,147,6,1,0 // movaps 0x10693(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,182,6,1,0 // movaps 0x106b6(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,40,203 // movaps %xmm3,%xmm9
.byte 68,15,92,207 // subps %xmm7,%xmm9
.byte 65,15,89,193 // mulps %xmm9,%xmm0
@@ -42691,7 +42726,7 @@ _sk_darken_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,95,209 // maxps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,238,5,1,0 // movaps 0x105ee(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,17,6,1,0 // movaps 0x10611(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42725,7 +42760,7 @@ _sk_lighten_sse2:
.byte 68,15,89,206 // mulps %xmm6,%xmm9
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,131,5,1,0 // movaps 0x10583(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,166,5,1,0 // movaps 0x105a6(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42762,7 +42797,7 @@ _sk_difference_sse2:
.byte 65,15,93,209 // minps %xmm9,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,13,5,1,0 // movaps 0x1050d(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,48,5,1,0 // movaps 0x10530(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42790,7 +42825,7 @@ _sk_exclusion_sse2:
.byte 15,89,214 // mulps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,189,4,1,0 // movaps 0x104bd(%rip),%xmm2 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,21,224,4,1,0 // movaps 0x104e0(%rip),%xmm2 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,215 // mulps %xmm7,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -42803,7 +42838,7 @@ HIDDEN _sk_colorburn_sse2
FUNCTION(_sk_colorburn_sse2)
_sk_colorburn_sse2:
.byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,160,4,1,0 // movaps 0x104a0(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,195,4,1,0 // movaps 0x104c3(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -42898,7 +42933,7 @@ HIDDEN _sk_colordodge_sse2
FUNCTION(_sk_colordodge_sse2)
_sk_colordodge_sse2:
.byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,72,3,1,0 // movaps 0x10348(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,107,3,1,0 // movaps 0x1036b(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,218 // movaps %xmm10,%xmm11
.byte 68,15,92,223 // subps %xmm7,%xmm11
.byte 65,15,40,195 // movaps %xmm11,%xmm0
@@ -42990,7 +43025,7 @@ _sk_hardlight_sse2:
.byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,241,1,1,0 // movaps 0x101f1(%rip),%xmm11 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,20,2,1,0 // movaps 0x10214(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,211 // movaps %xmm11,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,194 // movaps %xmm10,%xmm8
@@ -43078,7 +43113,7 @@ FUNCTION(_sk_overlay_sse2)
_sk_overlay_sse2:
.byte 68,15,40,193 // movaps %xmm1,%xmm8
.byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,175,0,1,0 // movaps 0x100af(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,210,0,1,0 // movaps 0x100d2(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 68,15,92,215 // subps %xmm7,%xmm10
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43169,7 +43204,7 @@ _sk_softlight_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 68,15,94,215 // divps %xmm7,%xmm10
.byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,92,255,0,0 // movaps 0xff5c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,127,255,0,0 // movaps 0xff7f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,249 // movaps %xmm9,%xmm15
.byte 69,15,92,250 // subps %xmm10,%xmm15
.byte 69,15,40,218 // movaps %xmm10,%xmm11
@@ -43182,10 +43217,10 @@ _sk_softlight_sse2:
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,134,255,0,0 // movaps 0xff86(%rip),%xmm14 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
+ .byte 68,15,40,53,169,255,0,0 // movaps 0xffa9(%rip),%xmm14 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
.byte 69,15,88,222 // addps %xmm14,%xmm11
.byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,134,255,0,0 // movaps 0xff86(%rip),%xmm10 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xb04>
+ .byte 68,15,40,21,169,255,0,0 // movaps 0xffa9(%rip),%xmm10 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xb00>
.byte 69,15,89,234 // mulps %xmm10,%xmm13
.byte 69,15,88,235 // addps %xmm11,%xmm13
.byte 15,88,228 // addps %xmm4,%xmm4
@@ -43330,7 +43365,7 @@ _sk_hue_sse2:
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,25,253,0,0 // movaps 0xfd19(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,60,253,0,0 // movaps 0xfd3c(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,216 // movaps %xmm8,%xmm11
.byte 15,40,207 // movaps %xmm7,%xmm1
.byte 68,15,92,217 // subps %xmm1,%xmm11
@@ -43378,12 +43413,12 @@ _sk_hue_sse2:
.byte 69,15,84,206 // andps %xmm14,%xmm9
.byte 69,15,84,214 // andps %xmm14,%xmm10
.byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,214,252,0,0 // movaps 0xfcd6(%rip),%xmm15 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,61,249,252,0,0 // movaps 0xfcf9(%rip),%xmm15 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,219,252,0,0 // movaps 0xfcdb(%rip),%xmm0 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,5,254,252,0,0 // movaps 0xfcfe(%rip),%xmm0 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 15,89,240 // mulps %xmm0,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,221,252,0,0 // movaps 0xfcdd(%rip),%xmm14 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,53,0,253,0,0 // movaps 0xfd00(%rip),%xmm14 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 68,15,40,239 // movaps %xmm7,%xmm13
.byte 69,15,89,238 // mulps %xmm14,%xmm13
.byte 68,15,88,238 // addps %xmm6,%xmm13
@@ -43561,14 +43596,14 @@ _sk_saturation_sse2:
.byte 68,15,84,211 // andps %xmm3,%xmm10
.byte 68,15,84,203 // andps %xmm3,%xmm9
.byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,47,250,0,0 // movaps 0xfa2f(%rip),%xmm8 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,5,82,250,0,0 // movaps 0xfa52(%rip),%xmm8 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 15,40,214 // movaps %xmm6,%xmm2
.byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,49,250,0,0 // movaps 0xfa31(%rip),%xmm1 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 15,40,13,84,250,0,0 // movaps 0xfa54(%rip),%xmm1 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 15,40,221 // movaps %xmm5,%xmm3
.byte 15,89,217 // mulps %xmm1,%xmm3
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,48,250,0,0 // movaps 0xfa30(%rip),%xmm12 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,37,83,250,0,0 // movaps 0xfa53(%rip),%xmm12 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
.byte 68,15,88,235 // addps %xmm3,%xmm13
.byte 65,15,40,210 // movaps %xmm10,%xmm2
@@ -43613,7 +43648,7 @@ _sk_saturation_sse2:
.byte 15,40,223 // movaps %xmm7,%xmm3
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,229,248,0,0 // movaps 0xf8e5(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,8,249,0,0 // movaps 0xf908(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 68,15,92,199 // subps %xmm7,%xmm8
.byte 15,88,253 // addps %xmm5,%xmm7
@@ -43714,14 +43749,14 @@ _sk_color_sse2:
.byte 68,15,40,213 // movaps %xmm5,%xmm10
.byte 69,15,89,208 // mulps %xmm8,%xmm10
.byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,243,247,0,0 // movaps 0xf7f3(%rip),%xmm13 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,45,22,248,0,0 // movaps 0xf816(%rip),%xmm13 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,40,198 // movaps %xmm6,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,243,247,0,0 // movaps 0xf7f3(%rip),%xmm14 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,53,22,248,0,0 // movaps 0xf816(%rip),%xmm14 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 65,15,40,195 // movaps %xmm11,%xmm0
.byte 65,15,89,198 // mulps %xmm14,%xmm0
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,239,247,0,0 // movaps 0xf7ef(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
+ .byte 68,15,40,29,18,248,0,0 // movaps 0xf812(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
.byte 69,15,89,227 // mulps %xmm11,%xmm12
.byte 68,15,88,224 // addps %xmm0,%xmm12
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -43729,7 +43764,7 @@ _sk_color_sse2:
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,89,254 // mulps %xmm14,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,43,247,0,0 // movaps 0xf72b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,78,247,0,0 // movaps 0xf74e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,40,224 // movaps %xmm8,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
.byte 15,89,252 // mulps %xmm4,%xmm7
@@ -43865,15 +43900,15 @@ _sk_luminosity_sse2:
.byte 68,15,40,205 // movaps %xmm5,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
.byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,178,245,0,0 // movaps 0xf5b2(%rip),%xmm12 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,37,213,245,0,0 // movaps 0xf5d5(%rip),%xmm12 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,40,199 // movaps %xmm7,%xmm8
.byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,178,245,0,0 // movaps 0xf5b2(%rip),%xmm13 # 32ba0 <_sk_srcover_rgba_8888_sse2_lowp+0xb24>
+ .byte 68,15,40,45,213,245,0,0 // movaps 0xf5d5(%rip),%xmm13 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xb20>
.byte 68,15,40,241 // movaps %xmm1,%xmm14
.byte 69,15,89,245 // mulps %xmm13,%xmm14
.byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,174,245,0,0 // movaps 0xf5ae(%rip),%xmm11 # 32bb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb34>
- .byte 68,15,40,5,6,245,0,0 // movaps 0xf506(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,29,209,245,0,0 // movaps 0xf5d1(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xb30>
+ .byte 68,15,40,5,41,245,0,0 // movaps 0xf529(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,248 // movaps %xmm8,%xmm15
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 68,15,92,248 // subps %xmm0,%xmm15
@@ -44014,10 +44049,10 @@ _sk_srcover_rgba_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,228,0,0,0 // jne 238f5 <_sk_srcover_rgba_8888_sse2+0x104>
+ .byte 15,133,228,0,0,0 // jne 23992 <_sk_srcover_rgba_8888_sse2+0x104>
.byte 243,69,15,111,4,128 // movdqu (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,158,243,0,0 // movdqa 0xf39e(%rip),%xmm6 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,53,193,243,0,0 // movdqa 0xf3c1(%rip),%xmm6 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
@@ -44031,9 +44066,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
.byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
.byte 65,15,91,248 // cvtdq2ps %xmm8,%xmm7
- .byte 68,15,40,5,174,242,0,0 // movaps 0xf2ae(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,209,242,0,0 // movaps 0xf2d1(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,130,243,0,0 // movaps 0xf382(%rip),%xmm12 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,37,165,243,0,0 // movaps 0xf3a5(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,196 // mulps %xmm12,%xmm0
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,89,204 // mulps %xmm4,%xmm9
@@ -44059,7 +44094,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,114,240,24 // pslld $0x18,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 117,84 // jne 2392f <_sk_srcover_rgba_8888_sse2+0x13e>
+ .byte 117,84 // jne 239cc <_sk_srcover_rgba_8888_sse2+0x13e>
.byte 243,65,15,127,4,128 // movdqu %xmm0,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,193 // movaps %xmm9,%xmm0
@@ -44070,32 +44105,32 @@ _sk_srcover_rgba_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,90 // je 2395c <_sk_srcover_rgba_8888_sse2+0x16b>
+ .byte 116,90 // je 239f9 <_sk_srcover_rgba_8888_sse2+0x16b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 23924 <_sk_srcover_rgba_8888_sse2+0x133>
+ .byte 116,23 // je 239c1 <_sk_srcover_rgba_8888_sse2+0x133>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,0,255,255,255 // jne 23817 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 15,133,0,255,255,255 // jne 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,18,4,128 // movlpd (%r8,%rax,4),%xmm8
- .byte 233,232,254,255,255 // jmpq 23817 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,232,254,255,255 // jmpq 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,43 // je 23967 <_sk_srcover_rgba_8888_sse2+0x176>
+ .byte 116,43 // je 23a04 <_sk_srcover_rgba_8888_sse2+0x176>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 23954 <_sk_srcover_rgba_8888_sse2+0x163>
+ .byte 116,18 // je 239f1 <_sk_srcover_rgba_8888_sse2+0x163>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,153 // jne 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 117,153 // jne 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,128,8 // movd %xmm1,0x8(%r8,%rax,4)
.byte 102,65,15,214,4,128 // movq %xmm0,(%r8,%rax,4)
- .byte 235,133 // jmp 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 235,133 // jmp 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
.byte 102,69,15,110,4,128 // movd (%r8,%rax,4),%xmm8
- .byte 233,176,254,255,255 // jmpq 23817 <_sk_srcover_rgba_8888_sse2+0x26>
+ .byte 233,176,254,255,255 // jmpq 238b4 <_sk_srcover_rgba_8888_sse2+0x26>
.byte 102,65,15,126,4,128 // movd %xmm0,(%r8,%rax,4)
- .byte 233,111,255,255,255 // jmpq 238e1 <_sk_srcover_rgba_8888_sse2+0xf0>
+ .byte 233,111,255,255,255 // jmpq 2397e <_sk_srcover_rgba_8888_sse2+0xf0>
HIDDEN _sk_clamp_0_sse2
.globl _sk_clamp_0_sse2
@@ -44113,7 +44148,7 @@ HIDDEN _sk_clamp_1_sse2
.globl _sk_clamp_1_sse2
FUNCTION(_sk_clamp_1_sse2)
_sk_clamp_1_sse2:
- .byte 68,15,40,5,126,241,0,0 // movaps 0xf17e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,161,241,0,0 // movaps 0xf1a1(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,93,192 // minps %xmm8,%xmm0
.byte 65,15,93,200 // minps %xmm8,%xmm1
.byte 65,15,93,208 // minps %xmm8,%xmm2
@@ -44125,7 +44160,7 @@ HIDDEN _sk_clamp_a_sse2
.globl _sk_clamp_a_sse2
FUNCTION(_sk_clamp_a_sse2)
_sk_clamp_a_sse2:
- .byte 15,93,29,99,241,0,0 // minps 0xf163(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,29,134,241,0,0 // minps 0xf186(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -44136,7 +44171,7 @@ HIDDEN _sk_clamp_a_dst_sse2
.globl _sk_clamp_a_dst_sse2
FUNCTION(_sk_clamp_a_dst_sse2)
_sk_clamp_a_dst_sse2:
- .byte 15,93,61,79,241,0,0 // minps 0xf14f(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,93,61,114,241,0,0 // minps 0xf172(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,93,231 // minps %xmm7,%xmm4
.byte 15,93,239 // minps %xmm7,%xmm5
.byte 15,93,247 // minps %xmm7,%xmm6
@@ -44171,7 +44206,7 @@ HIDDEN _sk_invert_sse2
.globl _sk_invert_sse2
FUNCTION(_sk_invert_sse2)
_sk_invert_sse2:
- .byte 68,15,40,5,11,241,0,0 // movaps 0xf10b(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,5,46,241,0,0 // movaps 0xf12e(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 68,15,92,200 // subps %xmm0,%xmm9
.byte 69,15,40,208 // movaps %xmm8,%xmm10
@@ -44233,7 +44268,7 @@ HIDDEN _sk_unpremul_sse2
FUNCTION(_sk_unpremul_sse2)
_sk_unpremul_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,40,13,149,240,0,0 // movaps 0xf095(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,184,240,0,0 // movaps 0xf0b8(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,94,203 // divps %xmm3,%xmm9
.byte 68,15,194,195,4 // cmpneqps %xmm3,%xmm8
.byte 69,15,84,193 // andps %xmm9,%xmm8
@@ -44247,20 +44282,20 @@ HIDDEN _sk_from_srgb_sse2
.globl _sk_from_srgb_sse2
FUNCTION(_sk_from_srgb_sse2)
_sk_from_srgb_sse2:
- .byte 68,15,40,5,96,241,0,0 // movaps 0xf160(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,5,131,241,0,0 // movaps 0xf183(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
.byte 68,15,40,232 // movaps %xmm0,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,216 // movaps %xmm0,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,216,240,0,0 // movaps 0xf0d8(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,251,240,0,0 // movaps 0xf0fb(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,72,241,0,0 // movaps 0xf148(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,21,107,241,0,0 // movaps 0xf16b(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,72,241,0,0 // movaps 0xf148(%rip),%xmm11 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,29,107,241,0,0 // movaps 0xf16b(%rip),%xmm11 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,76,241,0,0 // movaps 0xf14c(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,37,111,241,0,0 // movaps 0xf16f(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
.byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
.byte 68,15,84,232 // andps %xmm0,%xmm13
.byte 65,15,85,198 // andnps %xmm14,%xmm0
@@ -44296,20 +44331,20 @@ HIDDEN _sk_from_srgb_dst_sse2
.globl _sk_from_srgb_dst_sse2
FUNCTION(_sk_from_srgb_dst_sse2)
_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,157,240,0,0 // movaps 0xf09d(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xb84>
+ .byte 68,15,40,5,192,240,0,0 // movaps 0xf0c0(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb80>
.byte 68,15,40,236 // movaps %xmm4,%xmm13
.byte 69,15,89,232 // mulps %xmm8,%xmm13
.byte 68,15,40,220 // movaps %xmm4,%xmm11
.byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,21,240,0,0 // movaps 0xf015(%rip),%xmm9 # 32b90 <_sk_srcover_rgba_8888_sse2_lowp+0xb14>
+ .byte 68,15,40,13,56,240,0,0 // movaps 0xf038(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xb10>
.byte 68,15,40,244 // movaps %xmm4,%xmm14
.byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,133,240,0,0 // movaps 0xf085(%rip),%xmm10 # 32c10 <_sk_srcover_rgba_8888_sse2_lowp+0xb94>
+ .byte 68,15,40,21,168,240,0,0 // movaps 0xf0a8(%rip),%xmm10 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xb90>
.byte 69,15,88,242 // addps %xmm10,%xmm14
.byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,133,240,0,0 // movaps 0xf085(%rip),%xmm11 # 32c20 <_sk_srcover_rgba_8888_sse2_lowp+0xba4>
+ .byte 68,15,40,29,168,240,0,0 // movaps 0xf0a8(%rip),%xmm11 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xba0>
.byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,137,240,0,0 // movaps 0xf089(%rip),%xmm12 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xbb4>
+ .byte 68,15,40,37,172,240,0,0 // movaps 0xf0ac(%rip),%xmm12 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xbb0>
.byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
.byte 68,15,84,236 // andps %xmm4,%xmm13
.byte 65,15,85,230 // andnps %xmm14,%xmm4
@@ -44346,22 +44381,22 @@ HIDDEN _sk_to_srgb_sse2
FUNCTION(_sk_to_srgb_sse2)
_sk_to_srgb_sse2:
.byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,22,240,0,0 // movaps 0xf016(%rip),%xmm8 # 32c40 <_sk_srcover_rgba_8888_sse2_lowp+0xbc4>
+ .byte 68,15,40,5,57,240,0,0 // movaps 0xf039(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xbc0>
.byte 68,15,40,240 // movaps %xmm0,%xmm14
.byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,22,240,0,0 // movaps 0xf016(%rip),%xmm9 # 32c50 <_sk_srcover_rgba_8888_sse2_lowp+0xbd4>
+ .byte 68,15,40,13,57,240,0,0 // movaps 0xf039(%rip),%xmm9 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xbd0>
.byte 69,15,40,253 // movaps %xmm13,%xmm15
.byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,22,240,0,0 // movaps 0xf016(%rip),%xmm10 # 32c60 <_sk_srcover_rgba_8888_sse2_lowp+0xbe4>
+ .byte 68,15,40,21,57,240,0,0 // movaps 0xf039(%rip),%xmm10 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xbe0>
.byte 69,15,88,250 // addps %xmm10,%xmm15
.byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,22,240,0,0 // movaps 0xf016(%rip),%xmm11 # 32c70 <_sk_srcover_rgba_8888_sse2_lowp+0xbf4>
+ .byte 68,15,40,29,57,240,0,0 // movaps 0xf039(%rip),%xmm11 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xbf0>
.byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,26,240,0,0 // movaps 0xf01a(%rip),%xmm12 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xc04>
+ .byte 68,15,40,37,61,240,0,0 // movaps 0xf03d(%rip),%xmm12 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xc00>
.byte 69,15,88,236 // addps %xmm12,%xmm13
.byte 69,15,83,237 // rcpps %xmm13,%xmm13
.byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,22,240,0,0 // movaps 0xf016(%rip),%xmm15 # 32c90 <_sk_srcover_rgba_8888_sse2_lowp+0xc14>
+ .byte 68,15,40,61,57,240,0,0 // movaps 0xf039(%rip),%xmm15 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xc10>
.byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,197 // andnps %xmm13,%xmm0
@@ -44413,7 +44448,7 @@ _sk_rgb_to_hsl_sse2:
.byte 68,15,93,216 // minps %xmm0,%xmm11
.byte 65,15,40,202 // movaps %xmm10,%xmm1
.byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,217,237,0,0 // movaps 0xedd9(%rip),%xmm13 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,45,252,237,0,0 // movaps 0xedfc(%rip),%xmm13 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 68,15,94,233 // divps %xmm1,%xmm13
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
@@ -44422,30 +44457,30 @@ _sk_rgb_to_hsl_sse2:
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,40,241 // movaps %xmm9,%xmm14
.byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,63,239,0,0 // andps 0xef3f(%rip),%xmm14 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 68,15,84,53,98,239,0,0 // andps 0xef62(%rip),%xmm14 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
.byte 69,15,88,244 // addps %xmm12,%xmm14
.byte 69,15,40,250 // movaps %xmm10,%xmm15
.byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
.byte 65,15,92,208 // subps %xmm8,%xmm2
.byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,50,239,0,0 // movaps 0xef32(%rip),%xmm12 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 68,15,40,37,85,239,0,0 // movaps 0xef55(%rip),%xmm12 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
.byte 65,15,88,212 // addps %xmm12,%xmm2
.byte 69,15,92,193 // subps %xmm9,%xmm8
.byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,46,239,0,0 // addps 0xef2e(%rip),%xmm8 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 68,15,88,5,81,239,0,0 // addps 0xef51(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
.byte 65,15,84,215 // andps %xmm15,%xmm2
.byte 69,15,85,248 // andnps %xmm8,%xmm15
.byte 68,15,86,250 // orps %xmm2,%xmm15
.byte 68,15,84,240 // andps %xmm0,%xmm14
.byte 65,15,85,199 // andnps %xmm15,%xmm0
.byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,31,239,0,0 // mulps 0xef1f(%rip),%xmm0 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 15,89,5,66,239,0,0 // mulps 0xef42(%rip),%xmm0 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
.byte 69,15,40,194 // movaps %xmm10,%xmm8
.byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
.byte 65,15,84,192 // andps %xmm8,%xmm0
.byte 69,15,92,226 // subps %xmm10,%xmm12
.byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,50,237,0,0 // movaps 0xed32(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,85,237,0,0 // movaps 0xed55(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,40,210 // movaps %xmm10,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
@@ -44469,7 +44504,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
.byte 68,15,40,218 // movaps %xmm2,%xmm11
.byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,225,236,0,0 // movaps 0xece1(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,13,4,237,0,0 // movaps 0xed04(%rip),%xmm9 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,40,209 // movaps %xmm9,%xmm10
.byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
.byte 15,40,193 // movaps %xmm1,%xmm0
@@ -44486,28 +44521,28 @@ _sk_hsl_to_rgb_sse2:
.byte 69,15,88,211 // addps %xmm11,%xmm10
.byte 69,15,88,219 // addps %xmm11,%xmm11
.byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,122,238,0,0 // movaps 0xee7a(%rip),%xmm0 # 32ce0 <_sk_srcover_rgba_8888_sse2_lowp+0xc64>
+ .byte 15,40,5,157,238,0,0 // movaps 0xee9d(%rip),%xmm0 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xc60>
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,216 // movaps %xmm0,%xmm3
.byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,146,236,0,0 // andps 0xec92(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,181,236,0,0 // andps 0xecb5(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,100,238,0,0 // movaps 0xee64(%rip),%xmm13 # 32cf0 <_sk_srcover_rgba_8888_sse2_lowp+0xc74>
+ .byte 68,15,40,45,135,238,0,0 // movaps 0xee87(%rip),%xmm13 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xc70>
.byte 69,15,40,197 // movaps %xmm13,%xmm8
.byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
.byte 69,15,40,242 // movaps %xmm10,%xmm14
.byte 69,15,92,243 // subps %xmm11,%xmm14
.byte 65,15,40,217 // movaps %xmm9,%xmm3
.byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,36,238,0,0 // movaps 0xee24(%rip),%xmm2 # 32cd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc54>
+ .byte 15,40,21,71,238,0,0 // movaps 0xee47(%rip),%xmm2 # 32d90 <_sk_srcover_rgba_8888_sse2_lowp+0xc50>
.byte 68,15,40,250 // movaps %xmm2,%xmm15
.byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,228,237,0,0 // movaps 0xede4(%rip),%xmm1 # 32ca0 <_sk_srcover_rgba_8888_sse2_lowp+0xc24>
+ .byte 15,40,13,7,238,0,0 // movaps 0xee07(%rip),%xmm1 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xc20>
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,250,237,0,0 // movaps 0xedfa(%rip),%xmm5 # 32cc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc44>
+ .byte 15,40,45,29,238,0,0 // movaps 0xee1d(%rip),%xmm5 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xc40>
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,92,224 // subps %xmm0,%xmm4
.byte 65,15,89,230 // mulps %xmm14,%xmm4
@@ -44530,7 +44565,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,239,235,0,0 // andps 0xebef(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,18,236,0,0 // andps 0xec12(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 68,15,40,230 // movaps %xmm6,%xmm12
.byte 68,15,92,224 // subps %xmm0,%xmm12
@@ -44560,12 +44595,12 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
.byte 15,40,231 // movaps %xmm7,%xmm4
.byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,103,237,0,0 // addps 0xed67(%rip),%xmm6 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 15,88,53,138,237,0,0 // addps 0xed8a(%rip),%xmm6 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,222 // movaps %xmm6,%xmm3
.byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,98,235,0,0 // andps 0xeb62(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,84,29,133,235,0,0 // andps 0xeb85(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,92,195 // subps %xmm3,%xmm0
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,89,206 // mulps %xmm6,%xmm1
@@ -44629,13 +44664,13 @@ _sk_scale_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 240af <_sk_scale_u8_sse2+0x55>
+ .byte 117,61 // jne 2414c <_sk_scale_u8_sse2+0x55>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,53,235,0,0 // pand 0xeb35(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,88,235,0,0 // pand 0xeb58(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,121,236,0,0 // mulps 0xec79(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,156,236,0,0 // mulps 0xec9c(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
@@ -44646,12 +44681,12 @@ _sk_scale_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,61 // je 240f9 <_sk_scale_u8_sse2+0x9f>
+ .byte 116,61 // je 24196 <_sk_scale_u8_sse2+0x9f>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 240de <_sk_scale_u8_sse2+0x84>
+ .byte 116,23 // je 2417b <_sk_scale_u8_sse2+0x84>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,181 // jne 24082 <_sk_scale_u8_sse2+0x28>
+ .byte 117,181 // jne 2411f <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44660,10 +44695,10 @@ _sk_scale_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,137 // jmp 24082 <_sk_scale_u8_sse2+0x28>
+ .byte 235,137 // jmp 2411f <_sk_scale_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,122,255,255,255 // jmpq 24082 <_sk_scale_u8_sse2+0x28>
+ .byte 233,122,255,255,255 // jmpq 2411f <_sk_scale_u8_sse2+0x28>
HIDDEN _sk_scale_565_sse2
.globl _sk_scale_565_sse2
@@ -44677,20 +44712,20 @@ _sk_scale_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 241d4 <_sk_scale_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 24271 <_sk_scale_565_sse2+0xcc>
.byte 243,71,15,126,20,80 // movq (%r8,%r10,2),%xmm10
.byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,229,235,0,0 // movdqa 0xebe5(%rip),%xmm8 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,68,15,111,5,8,236,0,0 // movdqa 0xec08(%rip),%xmm8 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,69,15,219,194 // pand %xmm10,%xmm8
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,228,235,0,0 // mulps 0xebe4(%rip),%xmm8 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,68,15,111,13,235,235,0,0 // movdqa 0xebeb(%rip),%xmm9 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,89,5,7,236,0,0 // mulps 0xec07(%rip),%xmm8 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,68,15,111,13,14,236,0,0 // movdqa 0xec0e(%rip),%xmm9 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,69,15,219,202 // pand %xmm10,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,234,235,0,0 // mulps 0xebea(%rip),%xmm9 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,219,21,241,235,0,0 // pand 0xebf1(%rip),%xmm10 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,89,13,13,236,0,0 // mulps 0xec0d(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,219,21,20,236,0,0 // pand 0xec14(%rip),%xmm10 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,245,235,0,0 // mulps 0xebf5(%rip),%xmm10 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,21,24,236,0,0 // mulps 0xec18(%rip),%xmm10 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 68,15,40,219 // movaps %xmm3,%xmm11
.byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
.byte 69,15,40,225 // movaps %xmm9,%xmm12
@@ -44717,22 +44752,22 @@ _sk_scale_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 2421d <_sk_scale_565_sse2+0x115>
+ .byte 116,60 // je 242ba <_sk_scale_565_sse2+0x115>
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24207 <_sk_scale_565_sse2+0xff>
+ .byte 116,27 // je 242a4 <_sk_scale_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 24132 <_sk_scale_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 241cf <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
.byte 102,71,15,110,4,80 // movd (%r8,%r10,2),%xmm8
.byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
.byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,21,255,255,255 // jmpq 24132 <_sk_scale_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 241cf <_sk_scale_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,6,255,255,255 // jmpq 24132 <_sk_scale_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 241cf <_sk_scale_565_sse2+0x2a>
HIDDEN _sk_lerp_1_float_sse2
.globl _sk_lerp_1_float_sse2
@@ -44767,13 +44802,13 @@ _sk_lerp_u8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 242cd <_sk_lerp_u8_sse2+0x69>
+ .byte 117,81 // jne 2436a <_sk_lerp_u8_sse2+0x69>
.byte 102,71,15,110,4,16 // movd (%r8,%r10,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,43,233,0,0 // pand 0xe92b(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,78,233,0,0 // pand 0xe94e(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,111,234,0,0 // mulps 0xea6f(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,89,5,146,234,0,0 // mulps 0xea92(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
@@ -44791,12 +44826,12 @@ _sk_lerp_u8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,64 // je 2431a <_sk_lerp_u8_sse2+0xb6>
+ .byte 116,64 // je 243b7 <_sk_lerp_u8_sse2+0xb6>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 242fc <_sk_lerp_u8_sse2+0x98>
+ .byte 116,23 // je 24399 <_sk_lerp_u8_sse2+0x98>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,161 // jne 2428c <_sk_lerp_u8_sse2+0x28>
+ .byte 117,161 // jne 24329 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
@@ -44805,10 +44840,10 @@ _sk_lerp_u8_sse2:
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,114,255,255,255 // jmpq 2428c <_sk_lerp_u8_sse2+0x28>
+ .byte 233,114,255,255,255 // jmpq 24329 <_sk_lerp_u8_sse2+0x28>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,99,255,255,255 // jmpq 2428c <_sk_lerp_u8_sse2+0x28>
+ .byte 233,99,255,255,255 // jmpq 24329 <_sk_lerp_u8_sse2+0x28>
HIDDEN _sk_lerp_565_sse2
.globl _sk_lerp_565_sse2
@@ -44822,20 +44857,20 @@ _sk_lerp_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 243f5 <_sk_lerp_565_sse2+0xcc>
+ .byte 15,133,173,0,0,0 // jne 24492 <_sk_lerp_565_sse2+0xcc>
.byte 243,71,15,126,4,80 // movq (%r8,%r10,2),%xmm8
.byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,196,233,0,0 // movdqa 0xe9c4(%rip),%xmm9 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,68,15,111,13,231,233,0,0 // movdqa 0xe9e7(%rip),%xmm9 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,69,15,219,200 // pand %xmm8,%xmm9
.byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,195,233,0,0 // mulps 0xe9c3(%rip),%xmm9 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,68,15,111,21,202,233,0,0 // movdqa 0xe9ca(%rip),%xmm10 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 68,15,89,13,230,233,0,0 // mulps 0xe9e6(%rip),%xmm9 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,68,15,111,21,237,233,0,0 // movdqa 0xe9ed(%rip),%xmm10 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,69,15,219,208 // pand %xmm8,%xmm10
.byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,201,233,0,0 // mulps 0xe9c9(%rip),%xmm11 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,68,15,219,5,208,233,0,0 // pand 0xe9d0(%rip),%xmm8 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 68,15,89,29,236,233,0,0 // mulps 0xe9ec(%rip),%xmm11 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,68,15,219,5,243,233,0,0 // pand 0xe9f3(%rip),%xmm8 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,212,233,0,0 // mulps 0xe9d4(%rip),%xmm8 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 68,15,89,5,247,233,0,0 // mulps 0xe9f7(%rip),%xmm8 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 68,15,40,211 // movaps %xmm3,%xmm10
.byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
.byte 69,15,40,227 // movaps %xmm11,%xmm12
@@ -44864,22 +44899,22 @@ _sk_lerp_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,60 // je 2443e <_sk_lerp_565_sse2+0x115>
+ .byte 116,60 // je 244db <_sk_lerp_565_sse2+0x115>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,27 // je 24428 <_sk_lerp_565_sse2+0xff>
+ .byte 116,27 // je 244c5 <_sk_lerp_565_sse2+0xff>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,60,255,255,255 // jne 24353 <_sk_lerp_565_sse2+0x2a>
+ .byte 15,133,60,255,255,255 // jne 243f0 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
.byte 102,71,15,110,12,80 // movd (%r8,%r10,2),%xmm9
.byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,21,255,255,255 // jmpq 24353 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,21,255,255,255 // jmpq 243f0 <_sk_lerp_565_sse2+0x2a>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,6,255,255,255 // jmpq 24353 <_sk_lerp_565_sse2+0x2a>
+ .byte 233,6,255,255,255 // jmpq 243f0 <_sk_lerp_565_sse2+0x2a>
HIDDEN _sk_load_tables_sse2
.globl _sk_load_tables_sse2
@@ -44888,11 +44923,11 @@ _sk_load_tables_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 76,139,0 // mov (%rax),%r8
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 2457d <_sk_load_tables_sse2+0x130>
+ .byte 15,133,34,1,0,0 // jne 2461a <_sk_load_tables_sse2+0x130>
.byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
.byte 65,86 // push %r14
.byte 83 // push %rbx
- .byte 102,68,15,111,5,83,231,0,0 // movdqa 0xe753(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,111,5,118,231,0,0 // movdqa 0xe776(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -44948,7 +44983,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
.byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,154,231,0,0 // mulps 0xe79a(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,189,231,0,0 // mulps 0xe7bd(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
@@ -44956,18 +44991,18 @@ _sk_load_tables_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 245b7 <_sk_load_tables_sse2+0x16a>
+ .byte 116,45 // je 24654 <_sk_load_tables_sse2+0x16a>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 245ac <_sk_load_tables_sse2+0x15f>
+ .byte 116,23 // je 24649 <_sk_load_tables_sse2+0x15f>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 24461 <_sk_load_tables_sse2+0x14>
+ .byte 15,133,194,254,255,255 // jne 244fe <_sk_load_tables_sse2+0x14>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 24461 <_sk_load_tables_sse2+0x14>
+ .byte 233,170,254,255,255 // jmpq 244fe <_sk_load_tables_sse2+0x14>
.byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 24461 <_sk_load_tables_sse2+0x14>
+ .byte 233,159,254,255,255 // jmpq 244fe <_sk_load_tables_sse2+0x14>
HIDDEN _sk_load_tables_u16_be_sse2
.globl _sk_load_tables_u16_be_sse2
@@ -44977,7 +45012,7 @@ _sk_load_tables_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 24735 <_sk_load_tables_u16_be_sse2+0x173>
+ .byte 15,133,93,1,0,0 // jne 247d2 <_sk_load_tables_u16_be_sse2+0x173>
.byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
.byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
.byte 65,86 // push %r14
@@ -44988,7 +45023,7 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,116,231,0,0 // movdqa 0xe774(%rip),%xmm2 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 102,15,111,21,151,231,0,0 // movdqa 0xe797(%rip),%xmm2 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
.byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
@@ -45049,23 +45084,23 @@ _sk_load_tables_u16_be_sse2:
.byte 102,65,15,235,217 // por %xmm9,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,114,230,0,0 // mulps 0xe672(%rip),%xmm3 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 15,89,29,149,230,0,0 // mulps 0xe695(%rip),%xmm3 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
.byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2474e <_sk_load_tables_u16_be_sse2+0x18c>
+ .byte 117,13 // jne 247eb <_sk_load_tables_u16_be_sse2+0x18c>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 245e5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,151,254,255,255 // jmpq 24682 <_sk_load_tables_u16_be_sse2+0x23>
.byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 245e5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 15,130,130,254,255,255 // jb 24682 <_sk_load_tables_u16_be_sse2+0x23>
.byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 245e5 <_sk_load_tables_u16_be_sse2+0x23>
+ .byte 233,118,254,255,255 // jmpq 24682 <_sk_load_tables_u16_be_sse2+0x23>
HIDDEN _sk_load_tables_rgb_u16_be_sse2
.globl _sk_load_tables_rgb_u16_be_sse2
@@ -45075,7 +45110,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 248d2 <_sk_load_tables_rgb_u16_be_sse2+0x163>
+ .byte 15,133,81,1,0,0 // jne 2496f <_sk_load_tables_rgb_u16_be_sse2+0x163>
.byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
.byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
.byte 102,15,115,217,4 // psrldq $0x4,%xmm1
@@ -45090,7 +45125,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,182,229,0,0 // movdqa 0xe5b6(%rip),%xmm8 # 32d80 <_sk_srcover_rgba_8888_sse2_lowp+0xd04>
+ .byte 102,68,15,111,5,217,229,0,0 // movdqa 0xe5d9(%rip),%xmm8 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xd00>
.byte 102,65,15,219,192 // pand %xmm8,%xmm0
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
@@ -45145,7 +45180,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 65,15,20,216 // unpcklps %xmm8,%xmm3
.byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,67,226,0,0 // movaps 0xe243(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,102,226,0,0 // movaps 0xe266(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 91 // pop %rbx
.byte 65,94 // pop %r14
.byte 255,224 // jmpq *%rax
@@ -45153,21 +45188,21 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 248f8 <_sk_load_tables_rgb_u16_be_sse2+0x189>
+ .byte 117,14 // jne 24995 <_sk_load_tables_rgb_u16_be_sse2+0x189>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,175,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 24929 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
+ .byte 114,24 // jb 249c6 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
.byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,126,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 247a7 <_sk_load_tables_rgb_u16_be_sse2+0x38>
+ .byte 233,117,254,255,255 // jmpq 24844 <_sk_load_tables_rgb_u16_be_sse2+0x38>
HIDDEN _sk_byte_tables_sse2
.globl _sk_byte_tables_sse2
@@ -45177,7 +45212,7 @@ _sk_byte_tables_sse2:
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,176,226,0,0 // movaps 0xe2b0(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,211,226,0,0 // movaps 0xe2d3(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
@@ -45205,7 +45240,7 @@ _sk_byte_tables_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,91,227,0,0 // movaps 0xe35b(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,21,126,227,0,0 // movaps 0xe37e(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45324,7 +45359,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,65,15,96,193 // punpcklbw %xmm9,%xmm0
.byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,21,155,225,0,0 // movaps 0xe19b(%rip),%xmm10 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,21,190,225,0,0 // movaps 0xe1be(%rip),%xmm10 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,194 // mulps %xmm10,%xmm0
.byte 65,15,89,200 // mulps %xmm8,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
@@ -45522,15 +45557,15 @@ _sk_parametric_r_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,103,223,0,0 // mulps 0xdf67(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,21,111,223,0,0 // andps 0xdf6f(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,21,167,220,0,0 // orps 0xdca7(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,111,223,0,0 // addps 0xdf6f(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,37,119,223,0,0 // movaps 0xdf77(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,13,138,223,0,0 // mulps 0xdf8a(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,21,146,223,0,0 // andps 0xdf92(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,21,202,220,0,0 // orps 0xdcca(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,13,146,223,0,0 // addps 0xdf92(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,154,223,0,0 // movaps 0xdf9a(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,119,223,0,0 // addps 0xdf77(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 68,15,40,37,127,223,0,0 // movaps 0xdf7f(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,21,154,223,0,0 // addps 0xdf9a(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,162,223,0,0 // movaps 0xdfa2(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45538,22 +45573,22 @@ _sk_parametric_r_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,105,220,0,0 // movaps 0xdc69(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,140,220,0,0 // movaps 0xdc8c(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,77,223,0,0 // addps 0xdf4d(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 68,15,40,37,85,223,0,0 // movaps 0xdf55(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,13,112,223,0,0 // addps 0xdf70(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,40,37,120,223,0,0 // movaps 0xdf78(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,85,223,0,0 // movaps 0xdf55(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,120,223,0,0 // movaps 0xdf78(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,89,223,0,0 // movaps 0xdf59(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,124,223,0,0 // movaps 0xdf7c(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,89,223,0,0 // mulps 0xdf59(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,89,45,124,223,0,0 // mulps 0xdf7c(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45589,15 +45624,15 @@ _sk_parametric_g_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,41,222,0,0 // mulps 0xde29(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,21,49,222,0,0 // andps 0xde31(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,21,105,219,0,0 // orps 0xdb69(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,49,222,0,0 // addps 0xde31(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,37,57,222,0,0 // movaps 0xde39(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,13,76,222,0,0 // mulps 0xde4c(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,21,84,222,0,0 // andps 0xde54(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,21,140,219,0,0 // orps 0xdb8c(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,13,84,222,0,0 // addps 0xde54(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,92,222,0,0 // movaps 0xde5c(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,57,222,0,0 // addps 0xde39(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 68,15,40,37,65,222,0,0 // movaps 0xde41(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,21,92,222,0,0 // addps 0xde5c(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,100,222,0,0 // movaps 0xde64(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45605,22 +45640,22 @@ _sk_parametric_g_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,43,219,0,0 // movaps 0xdb2b(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,78,219,0,0 // movaps 0xdb4e(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,15,222,0,0 // addps 0xde0f(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 68,15,40,37,23,222,0,0 // movaps 0xde17(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,13,50,222,0,0 // addps 0xde32(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,40,37,58,222,0,0 // movaps 0xde3a(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,23,222,0,0 // movaps 0xde17(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,58,222,0,0 // movaps 0xde3a(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,27,222,0,0 // movaps 0xde1b(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,62,222,0,0 // movaps 0xde3e(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,27,222,0,0 // mulps 0xde1b(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,89,45,62,222,0,0 // mulps 0xde3e(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45656,15 +45691,15 @@ _sk_parametric_b_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,235,220,0,0 // mulps 0xdceb(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,21,243,220,0,0 // andps 0xdcf3(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,21,43,218,0,0 // orps 0xda2b(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,243,220,0,0 // addps 0xdcf3(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,37,251,220,0,0 // movaps 0xdcfb(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,13,14,221,0,0 // mulps 0xdd0e(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,21,22,221,0,0 // andps 0xdd16(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,21,78,218,0,0 // orps 0xda4e(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,13,22,221,0,0 // addps 0xdd16(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,30,221,0,0 // movaps 0xdd1e(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,251,220,0,0 // addps 0xdcfb(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 68,15,40,37,3,221,0,0 // movaps 0xdd03(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,21,30,221,0,0 // addps 0xdd1e(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,38,221,0,0 // movaps 0xdd26(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45672,22 +45707,22 @@ _sk_parametric_b_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,237,217,0,0 // movaps 0xd9ed(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,16,218,0,0 // movaps 0xda10(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,209,220,0,0 // addps 0xdcd1(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 68,15,40,37,217,220,0,0 // movaps 0xdcd9(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,13,244,220,0,0 // addps 0xdcf4(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,40,37,252,220,0,0 // movaps 0xdcfc(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,217,220,0,0 // movaps 0xdcd9(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,252,220,0,0 // movaps 0xdcfc(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,221,220,0,0 // movaps 0xdcdd(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,0,221,0,0 // movaps 0xdd00(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,221,220,0,0 // mulps 0xdcdd(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,89,45,0,221,0,0 // mulps 0xdd00(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45723,15 +45758,15 @@ _sk_parametric_a_sse2:
.byte 69,15,88,209 // addps %xmm9,%xmm10
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,91,202 // cvtdq2ps %xmm10,%xmm9
- .byte 68,15,89,13,173,219,0,0 // mulps 0xdbad(%rip),%xmm9 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 68,15,84,21,181,219,0,0 // andps 0xdbb5(%rip),%xmm10 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,86,21,237,216,0,0 // orps 0xd8ed(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,88,13,181,219,0,0 // addps 0xdbb5(%rip),%xmm9 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
- .byte 68,15,40,37,189,219,0,0 // movaps 0xdbbd(%rip),%xmm12 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,89,13,208,219,0,0 // mulps 0xdbd0(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 68,15,84,21,216,219,0,0 // andps 0xdbd8(%rip),%xmm10 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,86,21,16,217,0,0 // orps 0xd910(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,88,13,216,219,0,0 // addps 0xdbd8(%rip),%xmm9 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
+ .byte 68,15,40,37,224,219,0,0 // movaps 0xdbe0(%rip),%xmm12 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 69,15,89,226 // mulps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,88,21,189,219,0,0 // addps 0xdbbd(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
- .byte 68,15,40,37,197,219,0,0 // movaps 0xdbc5(%rip),%xmm12 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,88,21,224,219,0,0 // addps 0xdbe0(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
+ .byte 68,15,40,37,232,219,0,0 // movaps 0xdbe8(%rip),%xmm12 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 69,15,94,226 // divps %xmm10,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
.byte 69,15,89,203 // mulps %xmm11,%xmm9
@@ -45739,22 +45774,22 @@ _sk_parametric_a_sse2:
.byte 69,15,91,226 // cvtdq2ps %xmm10,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 68,15,40,21,175,216,0,0 // movaps 0xd8af(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,210,216,0,0 // movaps 0xd8d2(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,84,234 // andps %xmm10,%xmm13
.byte 69,15,87,219 // xorps %xmm11,%xmm11
.byte 69,15,92,229 // subps %xmm13,%xmm12
.byte 69,15,40,233 // movaps %xmm9,%xmm13
.byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,13,147,219,0,0 // addps 0xdb93(%rip),%xmm9 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
- .byte 68,15,40,37,155,219,0,0 // movaps 0xdb9b(%rip),%xmm12 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 68,15,88,13,182,219,0,0 // addps 0xdbb6(%rip),%xmm9 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
+ .byte 68,15,40,37,190,219,0,0 // movaps 0xdbbe(%rip),%xmm12 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 69,15,89,229 // mulps %xmm13,%xmm12
.byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,40,37,155,219,0,0 // movaps 0xdb9b(%rip),%xmm12 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 68,15,40,37,190,219,0,0 // movaps 0xdbbe(%rip),%xmm12 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,159,219,0,0 // movaps 0xdb9f(%rip),%xmm13 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,45,194,219,0,0 // movaps 0xdbc2(%rip),%xmm13 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 69,15,94,236 // divps %xmm12,%xmm13
.byte 69,15,88,233 // addps %xmm9,%xmm13
- .byte 68,15,89,45,159,219,0,0 // mulps 0xdb9f(%rip),%xmm13 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 68,15,89,45,194,219,0,0 // mulps 0xdbc2(%rip),%xmm13 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 102,69,15,91,205 // cvtps2dq %xmm13,%xmm9
.byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
.byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
@@ -45779,19 +45814,19 @@ _sk_gamma_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,5,170,218,0,0 // mulps 0xdaaa(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,84,21,179,218,0,0 // andps 0xdab3(%rip),%xmm2 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 68,15,40,53,235,215,0,0 // movaps 0xd7eb(%rip),%xmm14 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,89,5,205,218,0,0 // mulps 0xdacd(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 15,84,21,214,218,0,0 // andps 0xdad6(%rip),%xmm2 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 68,15,40,53,14,216,0,0 // movaps 0xd80e(%rip),%xmm14 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,86,214 // orps %xmm14,%xmm2
- .byte 68,15,40,37,175,218,0,0 // movaps 0xdaaf(%rip),%xmm12 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xd54>
+ .byte 68,15,40,37,210,218,0,0 // movaps 0xdad2(%rip),%xmm12 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xd50>
.byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,29,179,218,0,0 // movaps 0xdab3(%rip),%xmm11 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xd64>
+ .byte 68,15,40,29,214,218,0,0 // movaps 0xdad6(%rip),%xmm11 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xd60>
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 65,15,89,227 // mulps %xmm11,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,40,21,177,218,0,0 // movaps 0xdab1(%rip),%xmm10 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xd74>
+ .byte 68,15,40,21,212,218,0,0 // movaps 0xdad4(%rip),%xmm10 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xd70>
.byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 68,15,40,45,181,218,0,0 // movaps 0xdab5(%rip),%xmm13 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xd84>
+ .byte 68,15,40,45,216,218,0,0 // movaps 0xdad8(%rip),%xmm13 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xd80>
.byte 65,15,40,229 // movaps %xmm13,%xmm4
.byte 15,94,226 // divps %xmm2,%xmm4
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -45803,27 +45838,27 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 68,15,40,13,149,215,0,0 // movaps 0xd795(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,13,184,215,0,0 // movaps 0xd7b8(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 65,15,84,225 // andps %xmm9,%xmm4
.byte 15,92,212 // subps %xmm4,%xmm2
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,53,129,218,0,0 // movaps 0xda81(%rip),%xmm6 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xd94>
+ .byte 15,40,53,164,218,0,0 // movaps 0xdaa4(%rip),%xmm6 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xd90>
.byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,61,151,218,0,0 // movaps 0xda97(%rip),%xmm7 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xdb4>
+ .byte 15,40,61,186,218,0,0 // movaps 0xdaba(%rip),%xmm7 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xdb0>
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,40,37,119,218,0,0 // movaps 0xda77(%rip),%xmm4 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xda4>
+ .byte 15,40,37,154,218,0,0 // movaps 0xda9a(%rip),%xmm4 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xda0>
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,92,194 // subps %xmm2,%xmm0
- .byte 68,15,40,61,137,218,0,0 // movaps 0xda89(%rip),%xmm15 # 32e40 <_sk_srcover_rgba_8888_sse2_lowp+0xdc4>
+ .byte 68,15,40,61,172,218,0,0 // movaps 0xdaac(%rip),%xmm15 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xdc0>
.byte 65,15,40,215 // movaps %xmm15,%xmm2
.byte 15,94,213 // divps %xmm5,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,5,229,217,0,0 // mulps 0xd9e5(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,84,13,238,217,0,0 // andps 0xd9ee(%rip),%xmm1 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
+ .byte 15,89,5,8,218,0,0 // mulps 0xda08(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 15,84,13,17,218,0,0 // andps 0xda11(%rip),%xmm1 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
.byte 65,15,86,206 // orps %xmm14,%xmm1
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
@@ -45853,9 +45888,9 @@ _sk_gamma_sse2:
.byte 15,94,206 // divps %xmm6,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,5,116,217,0,0 // mulps 0xd974(%rip),%xmm0 # 32db0 <_sk_srcover_rgba_8888_sse2_lowp+0xd34>
- .byte 15,84,29,125,217,0,0 // andps 0xd97d(%rip),%xmm3 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xd44>
- .byte 15,86,29,182,214,0,0 // orps 0xd6b6(%rip),%xmm3 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,89,5,151,217,0,0 // mulps 0xd997(%rip),%xmm0 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xd30>
+ .byte 15,84,29,160,217,0,0 // andps 0xd9a0(%rip),%xmm3 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xd40>
+ .byte 15,86,29,217,214,0,0 // orps 0xd6d9(%rip),%xmm3 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,88,196 // addps %xmm12,%xmm0
.byte 68,15,89,219 // mulps %xmm3,%xmm11
.byte 65,15,92,195 // subps %xmm11,%xmm0
@@ -45877,7 +45912,7 @@ _sk_gamma_sse2:
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 68,15,94,255 // divps %xmm7,%xmm15
.byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,5,179,217,0,0 // movaps 0xd9b3(%rip),%xmm0 # 32e50 <_sk_srcover_rgba_8888_sse2_lowp+0xdd4>
+ .byte 15,40,5,214,217,0,0 // movaps 0xd9d6(%rip),%xmm0 # 32f10 <_sk_srcover_rgba_8888_sse2_lowp+0xdd0>
.byte 15,89,208 // mulps %xmm0,%xmm2
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 68,15,89,248 // mulps %xmm0,%xmm15
@@ -45896,29 +45931,29 @@ HIDDEN _sk_lab_to_xyz_sse2
.globl _sk_lab_to_xyz_sse2
FUNCTION(_sk_lab_to_xyz_sse2)
_sk_lab_to_xyz_sse2:
- .byte 15,89,5,136,217,0,0 // mulps 0xd988(%rip),%xmm0 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xde4>
- .byte 68,15,40,5,16,215,0,0 // movaps 0xd710(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 15,89,5,171,217,0,0 // mulps 0xd9ab(%rip),%xmm0 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xde0>
+ .byte 68,15,40,5,51,215,0,0 // movaps 0xd733(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,132,217,0,0 // movaps 0xd984(%rip),%xmm9 # 32e70 <_sk_srcover_rgba_8888_sse2_lowp+0xdf4>
+ .byte 68,15,40,13,167,217,0,0 // movaps 0xd9a7(%rip),%xmm9 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xdf0>
.byte 65,15,88,201 // addps %xmm9,%xmm1
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,129,217,0,0 // addps 0xd981(%rip),%xmm0 # 32e80 <_sk_srcover_rgba_8888_sse2_lowp+0xe04>
- .byte 15,89,5,138,217,0,0 // mulps 0xd98a(%rip),%xmm0 # 32e90 <_sk_srcover_rgba_8888_sse2_lowp+0xe14>
- .byte 15,89,13,147,217,0,0 // mulps 0xd993(%rip),%xmm1 # 32ea0 <_sk_srcover_rgba_8888_sse2_lowp+0xe24>
+ .byte 15,88,5,164,217,0,0 // addps 0xd9a4(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xe00>
+ .byte 15,89,5,173,217,0,0 // mulps 0xd9ad(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xe10>
+ .byte 15,89,13,182,217,0,0 // mulps 0xd9b6(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xe20>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,153,217,0,0 // mulps 0xd999(%rip),%xmm2 # 32eb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe34>
+ .byte 15,89,21,188,217,0,0 // mulps 0xd9bc(%rip),%xmm2 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xe30>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 68,15,92,202 // subps %xmm2,%xmm9
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
.byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,142,217,0,0 // movaps 0xd98e(%rip),%xmm2 # 32ec0 <_sk_srcover_rgba_8888_sse2_lowp+0xe44>
+ .byte 15,40,21,177,217,0,0 // movaps 0xd9b1(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xe40>
.byte 68,15,40,194 // movaps %xmm2,%xmm8
.byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,141,217,0,0 // movaps 0xd98d(%rip),%xmm10 # 32ed0 <_sk_srcover_rgba_8888_sse2_lowp+0xe54>
+ .byte 68,15,40,21,176,217,0,0 // movaps 0xd9b0(%rip),%xmm10 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xe50>
.byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,145,217,0,0 // movaps 0xd991(%rip),%xmm11 # 32ee0 <_sk_srcover_rgba_8888_sse2_lowp+0xe64>
+ .byte 68,15,40,29,180,217,0,0 // movaps 0xd9b4(%rip),%xmm11 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xe60>
.byte 65,15,89,203 // mulps %xmm11,%xmm1
.byte 69,15,84,224 // andps %xmm8,%xmm12
.byte 68,15,85,193 // andnps %xmm1,%xmm8
@@ -45942,8 +45977,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,84,194 // andps %xmm2,%xmm0
.byte 65,15,85,209 // andnps %xmm9,%xmm2
.byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,65,217,0,0 // mulps 0xd941(%rip),%xmm8 # 32ef0 <_sk_srcover_rgba_8888_sse2_lowp+0xe74>
- .byte 15,89,21,74,217,0,0 // mulps 0xd94a(%rip),%xmm2 # 32f00 <_sk_srcover_rgba_8888_sse2_lowp+0xe84>
+ .byte 68,15,89,5,100,217,0,0 // mulps 0xd964(%rip),%xmm8 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xe70>
+ .byte 15,89,21,109,217,0,0 // mulps 0xd96d(%rip),%xmm2 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xe80>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -45959,13 +45994,13 @@ _sk_load_a8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 25604 <_sk_load_a8_sse2+0x46>
+ .byte 117,46 // jne 256a1 <_sk_load_a8_sse2+0x46>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,212,213,0,0 // pand 0xd5d4(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,247,213,0,0 // pand 0xd5f7(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,26,215,0,0 // mulps 0xd71a(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,61,215,0,0 // mulps 0xd73d(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,87,201 // xorpd %xmm1,%xmm1
@@ -45974,12 +46009,12 @@ _sk_load_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25647 <_sk_load_a8_sse2+0x89>
+ .byte 116,54 // je 256e4 <_sk_load_a8_sse2+0x89>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25630 <_sk_load_a8_sse2+0x72>
+ .byte 116,21 // je 256cd <_sk_load_a8_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 255e4 <_sk_load_a8_sse2+0x26>
+ .byte 117,195 // jne 25681 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -45988,10 +46023,10 @@ _sk_load_a8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,157 // jmp 255e4 <_sk_load_a8_sse2+0x26>
+ .byte 235,157 // jmp 25681 <_sk_load_a8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,146 // jmp 255e4 <_sk_load_a8_sse2+0x26>
+ .byte 235,146 // jmp 25681 <_sk_load_a8_sse2+0x26>
HIDDEN _sk_load_a8_dst_sse2
.globl _sk_load_a8_dst_sse2
@@ -46004,13 +46039,13 @@ _sk_load_a8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 25698 <_sk_load_a8_dst_sse2+0x46>
+ .byte 117,46 // jne 25735 <_sk_load_a8_dst_sse2+0x46>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,64,213,0,0 // pand 0xd540(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,99,213,0,0 // pand 0xd563(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,134,214,0,0 // mulps 0xd686(%rip),%xmm7 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,61,169,214,0,0 // mulps 0xd6a9(%rip),%xmm7 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 102,15,87,237 // xorpd %xmm5,%xmm5
@@ -46019,12 +46054,12 @@ _sk_load_a8_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 256db <_sk_load_a8_dst_sse2+0x89>
+ .byte 116,54 // je 25778 <_sk_load_a8_dst_sse2+0x89>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 256c4 <_sk_load_a8_dst_sse2+0x72>
+ .byte 116,21 // je 25761 <_sk_load_a8_dst_sse2+0x72>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,195 // jne 25678 <_sk_load_a8_dst_sse2+0x26>
+ .byte 117,195 // jne 25715 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46033,10 +46068,10 @@ _sk_load_a8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,157 // jmp 25678 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,157 // jmp 25715 <_sk_load_a8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,146 // jmp 25678 <_sk_load_a8_dst_sse2+0x26>
+ .byte 235,146 // jmp 25715 <_sk_load_a8_dst_sse2+0x26>
HIDDEN _sk_gather_a8_sse2
.globl _sk_gather_a8_sse2
@@ -46089,7 +46124,7 @@ _sk_gather_a8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,96,213,0,0 // mulps 0xd560(%rip),%xmm3 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,29,131,213,0,0 // mulps 0xd583(%rip),%xmm3 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
@@ -46106,7 +46141,7 @@ _sk_store_a8_sse2:
.byte 77,15,175,193 // imul %r9,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,23,212,0,0 // movaps 0xd417(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,58,212,0,0 // movaps 0xd43a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,89,195 // mulps %xmm3,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
.byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
@@ -46114,7 +46149,7 @@ _sk_store_a8_sse2:
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 2580a <_sk_store_a8_sse2+0x4c>
+ .byte 117,13 // jne 258a7 <_sk_store_a8_sse2+0x4c>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,137,4,16 // mov %eax,(%r8,%r10,1)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -46124,22 +46159,22 @@ _sk_store_a8_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25857 <_sk_store_a8_sse2+0x99>
+ .byte 116,54 // je 258f4 <_sk_store_a8_sse2+0x99>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,17 // je 25838 <_sk_store_a8_sse2+0x7a>
+ .byte 116,17 // je 258d5 <_sk_store_a8_sse2+0x7a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,217 // jne 25806 <_sk_store_a8_sse2+0x48>
+ .byte 117,217 // jne 258a3 <_sk_store_a8_sse2+0x48>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 67,136,68,16,2 // mov %al,0x2(%r8,%r10,1)
- .byte 102,68,15,219,5,127,211,0,0 // pand 0xd37f(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,68,15,219,5,162,211,0,0 // pand 0xd3a2(%rip),%xmm8 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,16 // mov %ax,(%r8,%r10,1)
- .byte 235,175 // jmp 25806 <_sk_store_a8_sse2+0x48>
+ .byte 235,175 // jmp 258a3 <_sk_store_a8_sse2+0x48>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 67,136,4,16 // mov %al,(%r8,%r10,1)
- .byte 235,164 // jmp 25806 <_sk_store_a8_sse2+0x48>
+ .byte 235,164 // jmp 258a3 <_sk_store_a8_sse2+0x48>
HIDDEN _sk_load_g8_sse2
.globl _sk_load_g8_sse2
@@ -46152,27 +46187,27 @@ _sk_load_g8_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 258ab <_sk_load_g8_sse2+0x49>
+ .byte 117,49 // jne 25948 <_sk_load_g8_sse2+0x49>
.byte 102,67,15,110,4,16 // movd (%r8,%r10,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,48,211,0,0 // pand 0xd330(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,5,83,211,0,0 // pand 0xd353(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,118,212,0,0 // mulps 0xd476(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,5,153,212,0,0 // mulps 0xd499(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,109,210,0,0 // movaps 0xd26d(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,144,210,0,0 // movaps 0xd290(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 258ee <_sk_load_g8_sse2+0x8c>
+ .byte 116,54 // je 2598b <_sk_load_g8_sse2+0x8c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 258d7 <_sk_load_g8_sse2+0x75>
+ .byte 116,21 // je 25974 <_sk_load_g8_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 25888 <_sk_load_g8_sse2+0x26>
+ .byte 117,192 // jne 25925 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
@@ -46181,10 +46216,10 @@ _sk_load_g8_sse2:
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,154 // jmp 25888 <_sk_load_g8_sse2+0x26>
+ .byte 235,154 // jmp 25925 <_sk_load_g8_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,143 // jmp 25888 <_sk_load_g8_sse2+0x26>
+ .byte 235,143 // jmp 25925 <_sk_load_g8_sse2+0x26>
HIDDEN _sk_load_g8_dst_sse2
.globl _sk_load_g8_dst_sse2
@@ -46197,27 +46232,27 @@ _sk_load_g8_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 25942 <_sk_load_g8_dst_sse2+0x49>
+ .byte 117,49 // jne 259df <_sk_load_g8_dst_sse2+0x49>
.byte 102,67,15,110,36,16 // movd (%r8,%r10,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,153,210,0,0 // pand 0xd299(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,219,37,188,210,0,0 // pand 0xd2bc(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,223,211,0,0 // mulps 0xd3df(%rip),%xmm4 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,37,2,212,0,0 // mulps 0xd402(%rip),%xmm4 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,214,209,0,0 // movaps 0xd1d6(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,249,209,0,0 // movaps 0xd1f9(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,54 // je 25985 <_sk_load_g8_dst_sse2+0x8c>
+ .byte 116,54 // je 25a22 <_sk_load_g8_dst_sse2+0x8c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 2596e <_sk_load_g8_dst_sse2+0x75>
+ .byte 116,21 // je 25a0b <_sk_load_g8_dst_sse2+0x75>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,192 // jne 2591f <_sk_load_g8_dst_sse2+0x26>
+ .byte 117,192 // jne 259bc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,68,16,2 // movzbl 0x2(%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
@@ -46226,10 +46261,10 @@ _sk_load_g8_dst_sse2:
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,154 // jmp 2591f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,154 // jmp 259bc <_sk_load_g8_dst_sse2+0x26>
.byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,143 // jmp 2591f <_sk_load_g8_dst_sse2+0x26>
+ .byte 235,143 // jmp 259bc <_sk_load_g8_dst_sse2+0x26>
HIDDEN _sk_gather_g8_sse2
.globl _sk_gather_g8_sse2
@@ -46282,9 +46317,9 @@ _sk_gather_g8_sse2:
.byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
.byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,182,210,0,0 // mulps 0xd2b6(%rip),%xmm0 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 15,89,5,217,210,0,0 // mulps 0xd2d9(%rip),%xmm0 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,173,208,0,0 // movaps 0xd0ad(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,208,208,0,0 // movaps 0xd0d0(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
@@ -46301,42 +46336,42 @@ _sk_load_565_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25ad9 <_sk_load_565_sse2+0x6e>
+ .byte 117,83 // jne 25b76 <_sk_load_565_sse2+0x6e>
.byte 243,67,15,126,20,80 // movq (%r8,%r10,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,136,210,0,0 // movdqa 0xd288(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,171,210,0,0 // movdqa 0xd2ab(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,138,210,0,0 // mulps 0xd28a(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,13,146,210,0,0 // movdqa 0xd292(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,5,173,210,0,0 // mulps 0xd2ad(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,13,181,210,0,0 // movdqa 0xd2b5(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,148,210,0,0 // mulps 0xd294(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,21,156,210,0,0 // pand 0xd29c(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,13,183,210,0,0 // mulps 0xd2b7(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,21,191,210,0,0 // pand 0xd2bf(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,162,210,0,0 // mulps 0xd2a2(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,21,197,210,0,0 // mulps 0xd2c5(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,57,208,0,0 // movaps 0xd039(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,92,208,0,0 // movaps 0xd05c(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25b19 <_sk_load_565_sse2+0xae>
+ .byte 116,51 // je 25bb6 <_sk_load_565_sse2+0xae>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25b05 <_sk_load_565_sse2+0x9a>
+ .byte 116,21 // je 25ba2 <_sk_load_565_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25a90 <_sk_load_565_sse2+0x25>
+ .byte 117,154 // jne 25b2d <_sk_load_565_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,119,255,255,255 // jmpq 25a90 <_sk_load_565_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25b2d <_sk_load_565_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,105,255,255,255 // jmpq 25a90 <_sk_load_565_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25b2d <_sk_load_565_sse2+0x25>
HIDDEN _sk_load_565_dst_sse2
.globl _sk_load_565_dst_sse2
@@ -46350,42 +46385,42 @@ _sk_load_565_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 25b95 <_sk_load_565_dst_sse2+0x6e>
+ .byte 117,83 // jne 25c32 <_sk_load_565_dst_sse2+0x6e>
.byte 243,67,15,126,52,80 // movq (%r8,%r10,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,204,209,0,0 // movdqa 0xd1cc(%rip),%xmm4 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,37,239,209,0,0 // movdqa 0xd1ef(%rip),%xmm4 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,206,209,0,0 // mulps 0xd1ce(%rip),%xmm4 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,45,214,209,0,0 // movdqa 0xd1d6(%rip),%xmm5 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,37,241,209,0,0 // mulps 0xd1f1(%rip),%xmm4 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,45,249,209,0,0 // movdqa 0xd1f9(%rip),%xmm5 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,216,209,0,0 // mulps 0xd1d8(%rip),%xmm5 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,53,224,209,0,0 // pand 0xd1e0(%rip),%xmm6 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,45,251,209,0,0 // mulps 0xd1fb(%rip),%xmm5 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,53,3,210,0,0 // pand 0xd203(%rip),%xmm6 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,230,209,0,0 // mulps 0xd1e6(%rip),%xmm6 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,53,9,210,0,0 // mulps 0xd209(%rip),%xmm6 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,125,207,0,0 // movaps 0xcf7d(%rip),%xmm7 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,61,160,207,0,0 // movaps 0xcfa0(%rip),%xmm7 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25bd5 <_sk_load_565_dst_sse2+0xae>
+ .byte 116,51 // je 25c72 <_sk_load_565_dst_sse2+0xae>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25bc1 <_sk_load_565_dst_sse2+0x9a>
+ .byte 116,21 // je 25c5e <_sk_load_565_dst_sse2+0x9a>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,154 // jne 25b4c <_sk_load_565_dst_sse2+0x25>
+ .byte 117,154 // jne 25be9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,119,255,255,255 // jmpq 25b4c <_sk_load_565_dst_sse2+0x25>
+ .byte 233,119,255,255,255 // jmpq 25be9 <_sk_load_565_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,105,255,255,255 // jmpq 25b4c <_sk_load_565_dst_sse2+0x25>
+ .byte 233,105,255,255,255 // jmpq 25be9 <_sk_load_565_dst_sse2+0x25>
HIDDEN _sk_gather_565_sse2
.globl _sk_gather_565_sse2
@@ -46434,19 +46469,19 @@ _sk_gather_565_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
.byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,123,208,0,0 // movdqa 0xd07b(%rip),%xmm0 # 32d20 <_sk_srcover_rgba_8888_sse2_lowp+0xca4>
+ .byte 102,15,111,5,158,208,0,0 // movdqa 0xd09e(%rip),%xmm0 # 32de0 <_sk_srcover_rgba_8888_sse2_lowp+0xca0>
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,125,208,0,0 // mulps 0xd07d(%rip),%xmm0 # 32d30 <_sk_srcover_rgba_8888_sse2_lowp+0xcb4>
- .byte 102,15,111,13,133,208,0,0 // movdqa 0xd085(%rip),%xmm1 # 32d40 <_sk_srcover_rgba_8888_sse2_lowp+0xcc4>
+ .byte 15,89,5,160,208,0,0 // mulps 0xd0a0(%rip),%xmm0 # 32df0 <_sk_srcover_rgba_8888_sse2_lowp+0xcb0>
+ .byte 102,15,111,13,168,208,0,0 // movdqa 0xd0a8(%rip),%xmm1 # 32e00 <_sk_srcover_rgba_8888_sse2_lowp+0xcc0>
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,135,208,0,0 // mulps 0xd087(%rip),%xmm1 # 32d50 <_sk_srcover_rgba_8888_sse2_lowp+0xcd4>
- .byte 102,15,219,21,143,208,0,0 // pand 0xd08f(%rip),%xmm2 # 32d60 <_sk_srcover_rgba_8888_sse2_lowp+0xce4>
+ .byte 15,89,13,170,208,0,0 // mulps 0xd0aa(%rip),%xmm1 # 32e10 <_sk_srcover_rgba_8888_sse2_lowp+0xcd0>
+ .byte 102,15,219,21,178,208,0,0 // pand 0xd0b2(%rip),%xmm2 # 32e20 <_sk_srcover_rgba_8888_sse2_lowp+0xce0>
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,149,208,0,0 // mulps 0xd095(%rip),%xmm2 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xcf4>
+ .byte 15,89,21,184,208,0,0 // mulps 0xd0b8(%rip),%xmm2 # 32e30 <_sk_srcover_rgba_8888_sse2_lowp+0xcf0>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,44,206,0,0 // movaps 0xce2c(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,79,206,0,0 // movaps 0xce4f(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
HIDDEN _sk_store_565_sse2
@@ -46460,12 +46495,12 @@ _sk_store_565_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,28,210,0,0 // movaps 0xd21c(%rip),%xmm8 # 32f20 <_sk_srcover_rgba_8888_sse2_lowp+0xea4>
+ .byte 68,15,40,5,63,210,0,0 // movaps 0xd23f(%rip),%xmm8 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xea0>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
.byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 68,15,40,21,17,210,0,0 // movaps 0xd211(%rip),%xmm10 # 32f30 <_sk_srcover_rgba_8888_sse2_lowp+0xeb4>
+ .byte 68,15,40,21,52,210,0,0 // movaps 0xd234(%rip),%xmm10 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xeb0>
.byte 68,15,89,209 // mulps %xmm1,%xmm10
.byte 102,69,15,91,210 // cvtps2dq %xmm10,%xmm10
.byte 102,65,15,114,242,5 // pslld $0x5,%xmm10
@@ -46477,7 +46512,7 @@ _sk_store_565_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 25d61 <_sk_store_565_sse2+0x7b>
+ .byte 117,10 // jne 25dfe <_sk_store_565_sse2+0x7b>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46485,19 +46520,19 @@ _sk_store_565_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 25d99 <_sk_store_565_sse2+0xb3>
+ .byte 116,38 // je 25e36 <_sk_store_565_sse2+0xb3>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 25d8b <_sk_store_565_sse2+0xa5>
+ .byte 116,18 // je 25e28 <_sk_store_565_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 25d5d <_sk_store_565_sse2+0x77>
+ .byte 117,222 // jne 25dfa <_sk_store_565_sse2+0x77>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 25d5d <_sk_store_565_sse2+0x77>
+ .byte 235,196 // jmp 25dfa <_sk_store_565_sse2+0x77>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 25d5d <_sk_store_565_sse2+0x77>
+ .byte 235,184 // jmp 25dfa <_sk_store_565_sse2+0x77>
HIDDEN _sk_load_4444_sse2
.globl _sk_load_4444_sse2
@@ -46511,45 +46546,45 @@ _sk_load_4444_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 25e22 <_sk_load_4444_sse2+0x7d>
+ .byte 117,98 // jne 25ebf <_sk_load_4444_sse2+0x7d>
.byte 243,67,15,126,28,80 // movq (%r8,%r10,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,110,209,0,0 // movdqa 0xd16e(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,5,145,209,0,0 // movdqa 0xd191(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,112,209,0,0 // mulps 0xd170(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,13,120,209,0,0 // movdqa 0xd178(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,5,147,209,0,0 // mulps 0xd193(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,13,155,209,0,0 // movdqa 0xd19b(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,122,209,0,0 // mulps 0xd17a(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,21,130,209,0,0 // movdqa 0xd182(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,13,157,209,0,0 // mulps 0xd19d(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,21,165,209,0,0 // movdqa 0xd1a5(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,132,209,0,0 // mulps 0xd184(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,29,140,209,0,0 // pand 0xd18c(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,167,209,0,0 // mulps 0xd1a7(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,29,175,209,0,0 // pand 0xd1af(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,146,209,0,0 // mulps 0xd192(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,29,181,209,0,0 // mulps 0xd1b5(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25e62 <_sk_load_4444_sse2+0xbd>
+ .byte 116,51 // je 25eff <_sk_load_4444_sse2+0xbd>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25e4e <_sk_load_4444_sse2+0xa9>
+ .byte 116,21 // je 25eeb <_sk_load_4444_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25dca <_sk_load_4444_sse2+0x25>
+ .byte 117,139 // jne 25e67 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,67,15,110,4,80 // movd (%r8,%r10,2),%xmm0
.byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,104,255,255,255 // jmpq 25dca <_sk_load_4444_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25e67 <_sk_load_4444_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,90,255,255,255 // jmpq 25dca <_sk_load_4444_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25e67 <_sk_load_4444_sse2+0x25>
HIDDEN _sk_load_4444_dst_sse2
.globl _sk_load_4444_dst_sse2
@@ -46563,45 +46598,45 @@ _sk_load_4444_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 25eed <_sk_load_4444_dst_sse2+0x7d>
+ .byte 117,98 // jne 25f8a <_sk_load_4444_dst_sse2+0x7d>
.byte 243,67,15,126,60,80 // movq (%r8,%r10,2),%xmm7
.byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,163,208,0,0 // movdqa 0xd0a3(%rip),%xmm4 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,37,198,208,0,0 // movdqa 0xd0c6(%rip),%xmm4 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,231 // pand %xmm7,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,165,208,0,0 // mulps 0xd0a5(%rip),%xmm4 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,45,173,208,0,0 // movdqa 0xd0ad(%rip),%xmm5 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,37,200,208,0,0 // mulps 0xd0c8(%rip),%xmm4 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,45,208,208,0,0 // movdqa 0xd0d0(%rip),%xmm5 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,239 // pand %xmm7,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,175,208,0,0 // mulps 0xd0af(%rip),%xmm5 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,53,183,208,0,0 // movdqa 0xd0b7(%rip),%xmm6 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,45,210,208,0,0 // mulps 0xd0d2(%rip),%xmm5 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,53,218,208,0,0 // movdqa 0xd0da(%rip),%xmm6 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,247 // pand %xmm7,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,185,208,0,0 // mulps 0xd0b9(%rip),%xmm6 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,61,193,208,0,0 // pand 0xd0c1(%rip),%xmm7 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,53,220,208,0,0 // mulps 0xd0dc(%rip),%xmm6 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,61,228,208,0,0 // pand 0xd0e4(%rip),%xmm7 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,199,208,0,0 // mulps 0xd0c7(%rip),%xmm7 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,61,234,208,0,0 // mulps 0xd0ea(%rip),%xmm7 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,51 // je 25f2d <_sk_load_4444_dst_sse2+0xbd>
+ .byte 116,51 // je 25fca <_sk_load_4444_dst_sse2+0xbd>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,21 // je 25f19 <_sk_load_4444_dst_sse2+0xa9>
+ .byte 116,21 // je 25fb6 <_sk_load_4444_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,139 // jne 25e95 <_sk_load_4444_dst_sse2+0x25>
+ .byte 117,139 // jne 25f32 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,68,80,4 // movzwl 0x4(%r8,%r10,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
.byte 102,67,15,110,36,80 // movd (%r8,%r10,2),%xmm4
.byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,104,255,255,255 // jmpq 25e95 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,104,255,255,255 // jmpq 25f32 <_sk_load_4444_dst_sse2+0x25>
.byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,90,255,255,255 // jmpq 25e95 <_sk_load_4444_dst_sse2+0x25>
+ .byte 233,90,255,255,255 // jmpq 25f32 <_sk_load_4444_dst_sse2+0x25>
HIDDEN _sk_gather_4444_sse2
.globl _sk_gather_4444_sse2
@@ -46650,21 +46685,21 @@ _sk_gather_4444_sse2:
.byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
.byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
.byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,67,207,0,0 // movdqa 0xcf43(%rip),%xmm0 # 32f40 <_sk_srcover_rgba_8888_sse2_lowp+0xec4>
+ .byte 102,15,111,5,102,207,0,0 // movdqa 0xcf66(%rip),%xmm0 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xec0>
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,69,207,0,0 // mulps 0xcf45(%rip),%xmm0 # 32f50 <_sk_srcover_rgba_8888_sse2_lowp+0xed4>
- .byte 102,15,111,13,77,207,0,0 // movdqa 0xcf4d(%rip),%xmm1 # 32f60 <_sk_srcover_rgba_8888_sse2_lowp+0xee4>
+ .byte 15,89,5,104,207,0,0 // mulps 0xcf68(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xed0>
+ .byte 102,15,111,13,112,207,0,0 // movdqa 0xcf70(%rip),%xmm1 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xee0>
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,79,207,0,0 // mulps 0xcf4f(%rip),%xmm1 # 32f70 <_sk_srcover_rgba_8888_sse2_lowp+0xef4>
- .byte 102,15,111,21,87,207,0,0 // movdqa 0xcf57(%rip),%xmm2 # 32f80 <_sk_srcover_rgba_8888_sse2_lowp+0xf04>
+ .byte 15,89,13,114,207,0,0 // mulps 0xcf72(%rip),%xmm1 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xef0>
+ .byte 102,15,111,21,122,207,0,0 // movdqa 0xcf7a(%rip),%xmm2 # 33040 <_sk_srcover_rgba_8888_sse2_lowp+0xf00>
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,89,207,0,0 // mulps 0xcf59(%rip),%xmm2 # 32f90 <_sk_srcover_rgba_8888_sse2_lowp+0xf14>
- .byte 102,15,219,29,97,207,0,0 // pand 0xcf61(%rip),%xmm3 # 32fa0 <_sk_srcover_rgba_8888_sse2_lowp+0xf24>
+ .byte 15,89,21,124,207,0,0 // mulps 0xcf7c(%rip),%xmm2 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xf10>
+ .byte 102,15,219,29,132,207,0,0 // pand 0xcf84(%rip),%xmm3 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xf20>
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,103,207,0,0 // mulps 0xcf67(%rip),%xmm3 # 32fb0 <_sk_srcover_rgba_8888_sse2_lowp+0xf34>
+ .byte 15,89,29,138,207,0,0 // mulps 0xcf8a(%rip),%xmm3 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xf30>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46679,7 +46714,7 @@ _sk_store_4444_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 76,99,210 // movslq %edx,%r10
- .byte 68,15,40,5,85,207,0,0 // movaps 0xcf55(%rip),%xmm8 # 32fc0 <_sk_srcover_rgba_8888_sse2_lowp+0xf44>
+ .byte 68,15,40,5,120,207,0,0 // movaps 0xcf78(%rip),%xmm8 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0xf40>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46701,7 +46736,7 @@ _sk_store_4444_sse2:
.byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
.byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 260dc <_sk_store_4444_sse2+0x8f>
+ .byte 117,10 // jne 26179 <_sk_store_4444_sse2+0x8f>
.byte 102,71,15,214,4,80 // movq %xmm8,(%r8,%r10,2)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -46709,19 +46744,19 @@ _sk_store_4444_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,38 // je 26114 <_sk_store_4444_sse2+0xc7>
+ .byte 116,38 // je 261b1 <_sk_store_4444_sse2+0xc7>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,18 // je 26106 <_sk_store_4444_sse2+0xb9>
+ .byte 116,18 // je 261a3 <_sk_store_4444_sse2+0xb9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,222 // jne 260d8 <_sk_store_4444_sse2+0x8b>
+ .byte 117,222 // jne 26175 <_sk_store_4444_sse2+0x8b>
.byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
.byte 102,67,137,68,80,4 // mov %ax,0x4(%r8,%r10,2)
.byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
.byte 102,71,15,126,4,80 // movd %xmm8,(%r8,%r10,2)
- .byte 235,196 // jmp 260d8 <_sk_store_4444_sse2+0x8b>
+ .byte 235,196 // jmp 26175 <_sk_store_4444_sse2+0x8b>
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,67,137,4,80 // mov %ax,(%r8,%r10,2)
- .byte 235,184 // jmp 260d8 <_sk_store_4444_sse2+0x8b>
+ .byte 235,184 // jmp 26175 <_sk_store_4444_sse2+0x8b>
HIDDEN _sk_load_8888_sse2
.globl _sk_load_8888_sse2
@@ -46735,13 +46770,13 @@ _sk_load_8888_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2619e <_sk_load_8888_sse2+0x7e>
+ .byte 117,98 // jne 2623b <_sk_load_8888_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,21,118,202,0,0 // movdqa 0xca76(%rip),%xmm2 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,21,153,202,0,0 // movdqa 0xca99(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,178,203,0,0 // movaps 0xcbb2(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,213,203,0,0 // movaps 0xcbd5(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46761,18 +46796,18 @@ _sk_load_8888_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 261d4 <_sk_load_8888_sse2+0xb4>
+ .byte 116,41 // je 26271 <_sk_load_8888_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 261c9 <_sk_load_8888_sse2+0xa9>
+ .byte 116,19 // je 26266 <_sk_load_8888_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26142 <_sk_load_8888_sse2+0x22>
+ .byte 117,134 // jne 261df <_sk_load_8888_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26142 <_sk_load_8888_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 261df <_sk_load_8888_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26142 <_sk_load_8888_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 261df <_sk_load_8888_sse2+0x22>
HIDDEN _sk_load_8888_dst_sse2
.globl _sk_load_8888_dst_sse2
@@ -46786,13 +46821,13 @@ _sk_load_8888_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2625d <_sk_load_8888_dst_sse2+0x7e>
+ .byte 117,98 // jne 262fa <_sk_load_8888_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,53,183,201,0,0 // movdqa 0xc9b7(%rip),%xmm6 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,53,218,201,0,0 // movdqa 0xc9da(%rip),%xmm6 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,243,202,0,0 // movaps 0xcaf3(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,22,203,0,0 // movaps 0xcb16(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,224 // mulps %xmm8,%xmm4
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -46812,18 +46847,18 @@ _sk_load_8888_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26293 <_sk_load_8888_dst_sse2+0xb4>
+ .byte 116,41 // je 26330 <_sk_load_8888_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26288 <_sk_load_8888_dst_sse2+0xa9>
+ .byte 116,19 // je 26325 <_sk_load_8888_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26201 <_sk_load_8888_dst_sse2+0x22>
+ .byte 117,134 // jne 2629e <_sk_load_8888_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26201 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2629e <_sk_load_8888_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26201 <_sk_load_8888_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2629e <_sk_load_8888_dst_sse2+0x22>
HIDDEN _sk_gather_8888_sse2
.globl _sk_gather_8888_sse2
@@ -46869,11 +46904,11 @@ _sk_gather_8888_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,106,200,0,0 // movdqa 0xc86a(%rip),%xmm2 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,21,141,200,0,0 // movdqa 0xc88d(%rip),%xmm2 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,166,201,0,0 // movaps 0xc9a6(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,201,201,0,0 // movaps 0xc9c9(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46902,7 +46937,7 @@ _sk_store_8888_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,39,200,0,0 // movaps 0xc827(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,74,200,0,0 // movaps 0xc84a(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -46921,24 +46956,24 @@ _sk_store_8888_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26429 <_sk_store_8888_sse2+0x7f>
+ .byte 117,10 // jne 264c6 <_sk_store_8888_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 26457 <_sk_store_8888_sse2+0xad>
+ .byte 116,33 // je 264f4 <_sk_store_8888_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2644f <_sk_store_8888_sse2+0xa5>
+ .byte 116,19 // je 264ec <_sk_store_8888_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 26425 <_sk_store_8888_sse2+0x7b>
+ .byte 117,227 // jne 264c2 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 26425 <_sk_store_8888_sse2+0x7b>
+ .byte 235,206 // jmp 264c2 <_sk_store_8888_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 26425 <_sk_store_8888_sse2+0x7b>
+ .byte 235,198 // jmp 264c2 <_sk_store_8888_sse2+0x7b>
HIDDEN _sk_load_bgra_sse2
.globl _sk_load_bgra_sse2
@@ -46952,13 +46987,13 @@ _sk_load_bgra_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 264dd <_sk_load_bgra_sse2+0x7e>
+ .byte 117,98 // jne 2657a <_sk_load_bgra_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,5,55,199,0,0 // movdqa 0xc737(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,90,199,0,0 // movdqa 0xc75a(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,115,200,0,0 // movaps 0xc873(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,150,200,0,0 // movaps 0xc896(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -46978,18 +47013,18 @@ _sk_load_bgra_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 26513 <_sk_load_bgra_sse2+0xb4>
+ .byte 116,41 // je 265b0 <_sk_load_bgra_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 26508 <_sk_load_bgra_sse2+0xa9>
+ .byte 116,19 // je 265a5 <_sk_load_bgra_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26481 <_sk_load_bgra_sse2+0x22>
+ .byte 117,134 // jne 2651e <_sk_load_bgra_sse2+0x22>
.byte 102,65,15,110,68,128,8 // movd 0x8(%r8,%rax,4),%xmm0
.byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26481 <_sk_load_bgra_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 2651e <_sk_load_bgra_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26481 <_sk_load_bgra_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 2651e <_sk_load_bgra_sse2+0x22>
HIDDEN _sk_load_bgra_dst_sse2
.globl _sk_load_bgra_dst_sse2
@@ -47003,13 +47038,13 @@ _sk_load_bgra_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 2659c <_sk_load_bgra_dst_sse2+0x7e>
+ .byte 117,98 // jne 26639 <_sk_load_bgra_dst_sse2+0x7e>
.byte 243,69,15,111,12,128 // movdqu (%r8,%rax,4),%xmm9
- .byte 102,15,111,37,120,198,0,0 // movdqa 0xc678(%rip),%xmm4 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,37,155,198,0,0 // movdqa 0xc69b(%rip),%xmm4 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,180,199,0,0 // movaps 0xc7b4(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,215,199,0,0 // movaps 0xc7d7(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,240 // mulps %xmm8,%xmm6
.byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
.byte 102,15,114,213,8 // psrld $0x8,%xmm5
@@ -47029,18 +47064,18 @@ _sk_load_bgra_dst_sse2:
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,41 // je 265d2 <_sk_load_bgra_dst_sse2+0xb4>
+ .byte 116,41 // je 2666f <_sk_load_bgra_dst_sse2+0xb4>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 265c7 <_sk_load_bgra_dst_sse2+0xa9>
+ .byte 116,19 // je 26664 <_sk_load_bgra_dst_sse2+0xa9>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,134 // jne 26540 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 117,134 // jne 265dd <_sk_load_bgra_dst_sse2+0x22>
.byte 102,65,15,110,100,128,8 // movd 0x8(%r8,%rax,4),%xmm4
.byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
.byte 102,69,15,18,12,128 // movlpd (%r8,%rax,4),%xmm9
- .byte 233,110,255,255,255 // jmpq 26540 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,110,255,255,255 // jmpq 265dd <_sk_load_bgra_dst_sse2+0x22>
.byte 102,69,15,110,12,128 // movd (%r8,%rax,4),%xmm9
- .byte 233,99,255,255,255 // jmpq 26540 <_sk_load_bgra_dst_sse2+0x22>
+ .byte 233,99,255,255,255 // jmpq 265dd <_sk_load_bgra_dst_sse2+0x22>
HIDDEN _sk_gather_bgra_sse2
.globl _sk_gather_bgra_sse2
@@ -47086,11 +47121,11 @@ _sk_gather_bgra_sse2:
.byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,43,197,0,0 // movdqa 0xc52b(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xb44>
+ .byte 102,15,111,5,78,197,0,0 // movdqa 0xc54e(%rip),%xmm0 # 32c80 <_sk_srcover_rgba_8888_sse2_lowp+0xb40>
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,103,198,0,0 // movaps 0xc667(%rip),%xmm8 # 32d10 <_sk_srcover_rgba_8888_sse2_lowp+0xc94>
+ .byte 68,15,40,5,138,198,0,0 // movaps 0xc68a(%rip),%xmm8 # 32dd0 <_sk_srcover_rgba_8888_sse2_lowp+0xc90>
.byte 65,15,89,208 // mulps %xmm8,%xmm2
.byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -47119,7 +47154,7 @@ _sk_store_bgra_sse2:
.byte 73,193,224,2 // shl $0x2,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
- .byte 68,15,40,5,232,196,0,0 // movaps 0xc4e8(%rip),%xmm8 # 32bf0 <_sk_srcover_rgba_8888_sse2_lowp+0xb74>
+ .byte 68,15,40,5,11,197,0,0 // movaps 0xc50b(%rip),%xmm8 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xb70>
.byte 68,15,40,202 // movaps %xmm2,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
@@ -47138,24 +47173,24 @@ _sk_store_bgra_sse2:
.byte 102,69,15,235,193 // por %xmm9,%xmm8
.byte 102,69,15,235,194 // por %xmm10,%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 26768 <_sk_store_bgra_sse2+0x7f>
+ .byte 117,10 // jne 26805 <_sk_store_bgra_sse2+0x7f>
.byte 243,69,15,127,4,128 // movdqu %xmm8,(%r8,%rax,4)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 65,137,249 // mov %edi,%r9d
.byte 65,128,225,3 // and $0x3,%r9b
.byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,33 // je 26796 <_sk_store_bgra_sse2+0xad>
+ .byte 116,33 // je 26833 <_sk_store_bgra_sse2+0xad>
.byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,19 // je 2678e <_sk_store_bgra_sse2+0xa5>
+ .byte 116,19 // je 2682b <_sk_store_bgra_sse2+0xa5>
.byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 117,227 // jne 26764 <_sk_store_bgra_sse2+0x7b>
+ .byte 117,227 // jne 26801 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
.byte 102,69,15,126,76,128,8 // movd %xmm9,0x8(%r8,%rax,4)
.byte 102,69,15,214,4,128 // movq %xmm8,(%r8,%rax,4)
- .byte 235,206 // jmp 26764 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,206 // jmp 26801 <_sk_store_bgra_sse2+0x7b>
.byte 102,69,15,126,4,128 // movd %xmm8,(%r8,%rax,4)
- .byte 235,198 // jmp 26764 <_sk_store_bgra_sse2+0x7b>
+ .byte 235,198 // jmp 26801 <_sk_store_bgra_sse2+0x7b>
HIDDEN _sk_load_f16_sse2
.globl _sk_load_f16_sse2
@@ -47169,7 +47204,7 @@ _sk_load_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 268ed <_sk_load_f16_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 2698a <_sk_load_f16_sse2+0x14f>
.byte 102,65,15,16,4,192 // movupd (%r8,%rax,8),%xmm0
.byte 243,65,15,111,76,192,16 // movdqu 0x10(%r8,%rax,8),%xmm1
.byte 102,68,15,40,192 // movapd %xmm0,%xmm8
@@ -47181,18 +47216,18 @@ _sk_load_f16_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,210,199,0,0 // movdqa 0xc7d2(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,13,245,199,0,0 // movdqa 0xc7f5(%rip),%xmm9 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,207,199,0,0 // movdqa 0xc7cf(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,29,242,199,0,0 // movdqa 0xc7f2(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,210,199,0,0 // movdqa 0xc7d2(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,29,245,199,0,0 // movdqa 0xc7f5(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,193,199,0,0 // movdqa 0xc7c1(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,37,228,199,0,0 // movdqa 0xc7e4(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
@@ -47231,16 +47266,16 @@ _sk_load_f16_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,192 // movsd (%r8,%rax,8),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26906 <_sk_load_f16_sse2+0x168>
+ .byte 117,13 // jne 269a3 <_sk_load_f16_sse2+0x168>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 267cb <_sk_load_f16_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 26868 <_sk_load_f16_sse2+0x2d>
.byte 102,65,15,22,68,192,8 // movhpd 0x8(%r8,%rax,8),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 267cb <_sk_load_f16_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 26868 <_sk_load_f16_sse2+0x2d>
.byte 243,65,15,126,76,192,16 // movq 0x10(%r8,%rax,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 267cb <_sk_load_f16_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 26868 <_sk_load_f16_sse2+0x2d>
HIDDEN _sk_load_f16_dst_sse2
.globl _sk_load_f16_dst_sse2
@@ -47254,7 +47289,7 @@ _sk_load_f16_dst_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 26a76 <_sk_load_f16_dst_sse2+0x14f>
+ .byte 15,133,47,1,0,0 // jne 26b13 <_sk_load_f16_dst_sse2+0x14f>
.byte 102,65,15,16,36,192 // movupd (%r8,%rax,8),%xmm4
.byte 243,65,15,111,108,192,16 // movdqu 0x10(%r8,%rax,8),%xmm5
.byte 102,68,15,40,196 // movapd %xmm4,%xmm8
@@ -47266,18 +47301,18 @@ _sk_load_f16_dst_sse2:
.byte 102,69,15,239,210 // pxor %xmm10,%xmm10
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,73,198,0,0 // movdqa 0xc649(%rip),%xmm9 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,13,108,198,0,0 // movdqa 0xc66c(%rip),%xmm9 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
.byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,70,198,0,0 // movdqa 0xc646(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,29,105,198,0,0 // movdqa 0xc669(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,73,198,0,0 // movdqa 0xc649(%rip),%xmm7 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,61,108,198,0,0 // movdqa 0xc66c(%rip),%xmm7 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
.byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
.byte 102,15,114,245,13 // pslld $0xd,%xmm5
.byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,56,198,0,0 // movdqa 0xc638(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,37,91,198,0,0 // movdqa 0xc65b(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,236 // paddd %xmm12,%xmm5
.byte 102,15,223,229 // pandn %xmm5,%xmm4
.byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
@@ -47316,16 +47351,16 @@ _sk_load_f16_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,36,192 // movsd (%r8,%rax,8),%xmm4
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26a8f <_sk_load_f16_dst_sse2+0x168>
+ .byte 117,13 // jne 26b2c <_sk_load_f16_dst_sse2+0x168>
.byte 243,15,126,228 // movq %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 26954 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,197,254,255,255 // jmpq 269f1 <_sk_load_f16_dst_sse2+0x2d>
.byte 102,65,15,22,100,192,8 // movhpd 0x8(%r8,%rax,8),%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 26954 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 15,130,176,254,255,255 // jb 269f1 <_sk_load_f16_dst_sse2+0x2d>
.byte 243,65,15,126,108,192,16 // movq 0x10(%r8,%rax,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 26954 <_sk_load_f16_dst_sse2+0x2d>
+ .byte 233,164,254,255,255 // jmpq 269f1 <_sk_load_f16_dst_sse2+0x2d>
HIDDEN _sk_gather_f16_sse2
.globl _sk_gather_f16_sse2
@@ -47379,18 +47414,18 @@ _sk_gather_f16_sse2:
.byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,71,196,0,0 // movdqa 0xc447(%rip),%xmm10 # 32fd0 <_sk_srcover_rgba_8888_sse2_lowp+0xf54>
+ .byte 102,68,15,111,21,106,196,0,0 // movdqa 0xc46a(%rip),%xmm10 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0xf50>
.byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
.byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,68,196,0,0 // movdqa 0xc444(%rip),%xmm11 # 32fe0 <_sk_srcover_rgba_8888_sse2_lowp+0xf64>
+ .byte 102,68,15,111,29,103,196,0,0 // movdqa 0xc467(%rip),%xmm11 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0xf60>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,71,196,0,0 // movdqa 0xc447(%rip),%xmm3 # 32ff0 <_sk_srcover_rgba_8888_sse2_lowp+0xf74>
+ .byte 102,15,111,29,106,196,0,0 // movdqa 0xc46a(%rip),%xmm3 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0xf70>
.byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,54,196,0,0 // movdqa 0xc436(%rip),%xmm12 # 33000 <_sk_srcover_rgba_8888_sse2_lowp+0xf84>
+ .byte 102,68,15,111,37,89,196,0,0 // movdqa 0xc459(%rip),%xmm12 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0xf80>
.byte 102,65,15,254,204 // paddd %xmm12,%xmm1
.byte 102,15,223,193 // pandn %xmm1,%xmm0
.byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
@@ -47433,19 +47468,19 @@ HIDDEN _sk_store_f16_sse2
FUNCTION(_sk_store_f16_sse2)
_sk_store_f16_sse2:
.byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,138,195,0,0 // movdqa 0xc38a(%rip),%xmm11 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 102,68,15,111,29,173,195,0,0 // movdqa 0xc3ad(%rip),%xmm11 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,135,195,0,0 // movdqa 0xc387(%rip),%xmm10 # 33020 <_sk_srcover_rgba_8888_sse2_lowp+0xfa4>
+ .byte 102,68,15,111,21,170,195,0,0 // movdqa 0xc3aa(%rip),%xmm10 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0xfa0>
.byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
.byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,133,195,0,0 // movdqa 0xc385(%rip),%xmm7 # 33030 <_sk_srcover_rgba_8888_sse2_lowp+0xfb4>
- .byte 102,68,15,111,37,44,197,0,0 // movdqa 0xc52c(%rip),%xmm12 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1164>
+ .byte 102,15,111,61,168,195,0,0 // movdqa 0xc3a8(%rip),%xmm7 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0xfb0>
+ .byte 102,68,15,111,37,79,197,0,0 // movdqa 0xc54f(%rip),%xmm12 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1160>
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
.byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
.byte 102,69,15,219,252 // pand %xmm12,%xmm15
.byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,222,191,0,0 // movdqa 0xbfde(%rip),%xmm13 # 32cb0 <_sk_srcover_rgba_8888_sse2_lowp+0xc34>
+ .byte 102,68,15,111,45,1,192,0,0 // movdqa 0xc001(%rip),%xmm13 # 32d70 <_sk_srcover_rgba_8888_sse2_lowp+0xc30>
.byte 102,69,15,254,253 // paddd %xmm13,%xmm15
.byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
.byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
@@ -47501,7 +47536,7 @@ _sk_store_f16_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 72,99,194 // movslq %edx,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 26e04 <_sk_store_f16_sse2+0x18c>
+ .byte 117,37 // jne 26ea1 <_sk_store_f16_sse2+0x18c>
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
.byte 243,65,15,127,60,192 // movdqu %xmm7,(%r8,%rax,8)
@@ -47514,13 +47549,13 @@ _sk_store_f16_sse2:
.byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
.byte 102,69,15,214,12,192 // movq %xmm9,(%r8,%rax,8)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 26dfb <_sk_store_f16_sse2+0x183>
+ .byte 116,225 // je 26e98 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,23,76,192,8 // movhpd %xmm9,0x8(%r8,%rax,8)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 26dfb <_sk_store_f16_sse2+0x183>
+ .byte 114,212 // jb 26e98 <_sk_store_f16_sse2+0x183>
.byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
.byte 102,69,15,214,68,192,16 // movq %xmm8,0x10(%r8,%rax,8)
- .byte 235,198 // jmp 26dfb <_sk_store_f16_sse2+0x183>
+ .byte 235,198 // jmp 26e98 <_sk_store_f16_sse2+0x183>
HIDDEN _sk_load_u16_be_sse2
.globl _sk_load_u16_be_sse2
@@ -47535,7 +47570,7 @@ _sk_load_u16_be_sse2:
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 26f1a <_sk_load_u16_be_sse2+0xe5>
+ .byte 15,133,190,0,0,0 // jne 26fb7 <_sk_load_u16_be_sse2+0xe5>
.byte 102,65,15,16,4,64 // movupd (%r8,%rax,2),%xmm0
.byte 243,65,15,111,76,64,16 // movdqu 0x10(%r8,%rax,2),%xmm1
.byte 102,15,40,208 // movapd %xmm0,%xmm2
@@ -47552,7 +47587,7 @@ _sk_load_u16_be_sse2:
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,243,190,0,0 // movaps 0xbef3(%rip),%xmm8 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,5,22,191,0,0 // movaps 0xbf16(%rip),%xmm8 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47580,16 +47615,16 @@ _sk_load_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 242,65,15,16,4,64 // movsd (%r8,%rax,2),%xmm0
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 26f33 <_sk_load_u16_be_sse2+0xfe>
+ .byte 117,13 // jne 26fd0 <_sk_load_u16_be_sse2+0xfe>
.byte 243,15,126,192 // movq %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 26e69 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,54,255,255,255 // jmpq 26f06 <_sk_load_u16_be_sse2+0x34>
.byte 102,65,15,22,68,64,8 // movhpd 0x8(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 26e69 <_sk_load_u16_be_sse2+0x34>
+ .byte 15,130,33,255,255,255 // jb 26f06 <_sk_load_u16_be_sse2+0x34>
.byte 243,65,15,126,76,64,16 // movq 0x10(%r8,%rax,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 26e69 <_sk_load_u16_be_sse2+0x34>
+ .byte 233,21,255,255,255 // jmpq 26f06 <_sk_load_u16_be_sse2+0x34>
HIDDEN _sk_load_rgb_u16_be_sse2
.globl _sk_load_rgb_u16_be_sse2
@@ -47606,7 +47641,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 72,141,4,64 // lea (%rax,%rax,2),%rax
.byte 72,193,248,32 // sar $0x20,%rax
.byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 2702e <_sk_load_rgb_u16_be_sse2+0xda>
+ .byte 15,133,175,0,0,0 // jne 270cb <_sk_load_rgb_u16_be_sse2+0xda>
.byte 243,65,15,111,20,64 // movdqu (%r8,%rax,2),%xmm2
.byte 243,65,15,111,92,64,8 // movdqu 0x8(%r8,%rax,2),%xmm3
.byte 102,15,115,219,4 // psrldq $0x4,%xmm3
@@ -47627,7 +47662,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,189,189,0,0 // movaps 0xbdbd(%rip),%xmm9 # 32da0 <_sk_srcover_rgba_8888_sse2_lowp+0xd24>
+ .byte 68,15,40,13,224,189,0,0 // movaps 0xbde0(%rip),%xmm9 # 32e60 <_sk_srcover_rgba_8888_sse2_lowp+0xd20>
.byte 65,15,89,193 // mulps %xmm9,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -47644,27 +47679,27 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 65,15,89,209 // mulps %xmm9,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,228,186,0,0 // movaps 0xbae4(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,7,187,0,0 // movaps 0xbb07(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,64 // movd (%r8,%rax,2),%xmm2
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,84,64,4,2 // pinsrw $0x2,0x4(%r8,%rax,2),%xmm2
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27053 <_sk_load_rgb_u16_be_sse2+0xff>
+ .byte 117,13 // jne 270f0 <_sk_load_rgb_u16_be_sse2+0xff>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,80,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,65,15,110,68,64,6 // movd 0x6(%r8,%rax,2),%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,68,64,10,2 // pinsrw $0x2,0xa(%r8,%rax,2),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 27084 <_sk_load_rgb_u16_be_sse2+0x130>
+ .byte 114,24 // jb 27121 <_sk_load_rgb_u16_be_sse2+0x130>
.byte 102,65,15,110,92,64,12 // movd 0xc(%r8,%rax,2),%xmm3
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,92,64,16,2 // pinsrw $0x2,0x10(%r8,%rax,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,31,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 26fa3 <_sk_load_rgb_u16_be_sse2+0x4f>
+ .byte 233,22,255,255,255 // jmpq 27040 <_sk_load_rgb_u16_be_sse2+0x4f>
HIDDEN _sk_store_u16_be_sse2
.globl _sk_store_u16_be_sse2
@@ -47678,7 +47713,7 @@ _sk_store_u16_be_sse2:
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 73,99,193 // movslq %r9d,%rax
- .byte 68,15,40,21,157,191,0,0 // movaps 0xbf9d(%rip),%xmm10 # 33050 <_sk_srcover_rgba_8888_sse2_lowp+0xfd4>
+ .byte 68,15,40,21,192,191,0,0 // movaps 0xbfc0(%rip),%xmm10 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0xfd0>
.byte 68,15,40,192 // movaps %xmm0,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
.byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
@@ -47723,7 +47758,7 @@ _sk_store_u16_be_sse2:
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,98,209 // punpckldq %xmm9,%xmm10
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 271ad <_sk_store_u16_be_sse2+0x120>
+ .byte 117,21 // jne 2724a <_sk_store_u16_be_sse2+0x120>
.byte 69,15,17,20,64 // movups %xmm10,(%r8,%rax,2)
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 243,69,15,127,68,64,16 // movdqu %xmm8,0x10(%r8,%rax,2)
@@ -47731,13 +47766,13 @@ _sk_store_u16_be_sse2:
.byte 255,224 // jmpq *%rax
.byte 102,69,15,214,20,64 // movq %xmm10,(%r8,%rax,2)
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 271a9 <_sk_store_u16_be_sse2+0x11c>
+ .byte 116,240 // je 27246 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,23,84,64,8 // movhpd %xmm10,0x8(%r8,%rax,2)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 271a9 <_sk_store_u16_be_sse2+0x11c>
+ .byte 114,227 // jb 27246 <_sk_store_u16_be_sse2+0x11c>
.byte 102,69,15,106,193 // punpckhdq %xmm9,%xmm8
.byte 102,69,15,214,68,64,16 // movq %xmm8,0x10(%r8,%rax,2)
- .byte 235,213 // jmp 271a9 <_sk_store_u16_be_sse2+0x11c>
+ .byte 235,213 // jmp 27246 <_sk_store_u16_be_sse2+0x11c>
HIDDEN _sk_load_f32_sse2
.globl _sk_load_f32_sse2
@@ -47753,7 +47788,7 @@ _sk_load_f32_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2723f <_sk_load_f32_sse2+0x6b>
+ .byte 117,66 // jne 272dc <_sk_load_f32_sse2+0x6b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47773,17 +47808,17 @@ _sk_load_f32_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 27251 <_sk_load_f32_sse2+0x7d>
+ .byte 117,8 // jne 272ee <_sk_load_f32_sse2+0x7d>
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 2720f <_sk_load_f32_sse2+0x3b>
+ .byte 235,190 // jmp 272ac <_sk_load_f32_sse2+0x3b>
.byte 65,15,16,68,128,16 // movups 0x10(%r8,%rax,4),%xmm0
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 27265 <_sk_load_f32_sse2+0x91>
+ .byte 114,8 // jb 27302 <_sk_load_f32_sse2+0x91>
.byte 65,15,16,92,128,32 // movups 0x20(%r8,%rax,4),%xmm3
- .byte 235,170 // jmp 2720f <_sk_load_f32_sse2+0x3b>
+ .byte 235,170 // jmp 272ac <_sk_load_f32_sse2+0x3b>
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 2720f <_sk_load_f32_sse2+0x3b>
+ .byte 235,165 // jmp 272ac <_sk_load_f32_sse2+0x3b>
HIDDEN _sk_load_f32_dst_sse2
.globl _sk_load_f32_dst_sse2
@@ -47799,7 +47834,7 @@ _sk_load_f32_dst_sse2:
.byte 73,99,193 // movslq %r9d,%rax
.byte 69,15,16,4,128 // movups (%r8,%rax,4),%xmm8
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 272d5 <_sk_load_f32_dst_sse2+0x6b>
+ .byte 117,66 // jne 27372 <_sk_load_f32_dst_sse2+0x6b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
.byte 69,15,16,76,128,48 // movups 0x30(%r8,%rax,4),%xmm9
@@ -47819,17 +47854,17 @@ _sk_load_f32_dst_sse2:
.byte 255,224 // jmpq *%rax
.byte 69,15,87,201 // xorps %xmm9,%xmm9
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 272e7 <_sk_load_f32_dst_sse2+0x7d>
+ .byte 117,8 // jne 27384 <_sk_load_f32_dst_sse2+0x7d>
.byte 15,87,255 // xorps %xmm7,%xmm7
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,190 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
.byte 65,15,16,100,128,16 // movups 0x10(%r8,%rax,4),%xmm4
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 272fb <_sk_load_f32_dst_sse2+0x91>
+ .byte 114,8 // jb 27398 <_sk_load_f32_dst_sse2+0x91>
.byte 65,15,16,124,128,32 // movups 0x20(%r8,%rax,4),%xmm7
- .byte 235,170 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,170 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
.byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 272a5 <_sk_load_f32_dst_sse2+0x3b>
+ .byte 235,165 // jmp 27342 <_sk_load_f32_dst_sse2+0x3b>
HIDDEN _sk_store_f32_sse2
.globl _sk_store_f32_sse2
@@ -47858,7 +47893,7 @@ _sk_store_f32_sse2:
.byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
.byte 102,69,15,17,36,128 // movupd %xmm12,(%r8,%rax,4)
.byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 2737d <_sk_store_f32_sse2+0x7d>
+ .byte 117,29 // jne 2741a <_sk_store_f32_sse2+0x7d>
.byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
@@ -47866,12 +47901,12 @@ _sk_store_f32_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 27379 <_sk_store_f32_sse2+0x79>
+ .byte 116,246 // je 27416 <_sk_store_f32_sse2+0x79>
.byte 69,15,17,68,128,16 // movups %xmm8,0x10(%r8,%rax,4)
.byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 27379 <_sk_store_f32_sse2+0x79>
+ .byte 114,234 // jb 27416 <_sk_store_f32_sse2+0x79>
.byte 102,69,15,17,76,128,32 // movupd %xmm9,0x20(%r8,%rax,4)
- .byte 235,225 // jmp 27379 <_sk_store_f32_sse2+0x79>
+ .byte 235,225 // jmp 27416 <_sk_store_f32_sse2+0x79>
HIDDEN _sk_repeat_x_sse2
.globl _sk_repeat_x_sse2
@@ -47885,7 +47920,7 @@ _sk_repeat_x_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,76,183,0,0 // andps 0xb74c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,111,183,0,0 // andps 0xb76f(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47905,7 +47940,7 @@ _sk_repeat_y_sse2:
.byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,11,183,0,0 // andps 0xb70b(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,46,183,0,0 // andps 0xb72e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 69,15,89,194 // mulps %xmm10,%xmm8
@@ -47925,13 +47960,13 @@ _sk_mirror_x_sse2:
.byte 65,15,92,194 // subps %xmm10,%xmm0
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,189,180,0,0 // mulss 0xb4bd(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,13,224,180,0,0 // mulss 0xb4e0(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,200 // mulps %xmm0,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,170,182,0,0 // andps 0xb6aa(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,205,182,0,0 // andps 0xb6cd(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -47954,13 +47989,13 @@ _sk_mirror_y_sse2:
.byte 65,15,92,202 // subps %xmm10,%xmm1
.byte 243,69,15,88,192 // addss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,81,180,0,0 // mulss 0xb451(%rip),%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,13,116,180,0,0 // mulss 0xb474(%rip),%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,89,201 // mulps %xmm1,%xmm9
.byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
.byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
.byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,62,182,0,0 // andps 0xb63e(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,84,13,97,182,0,0 // andps 0xb661(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,87,228 // xorps %xmm12,%xmm12
.byte 69,15,92,217 // subps %xmm9,%xmm11
.byte 69,15,89,216 // mulps %xmm8,%xmm11
@@ -47977,7 +48012,7 @@ FUNCTION(_sk_clamp_x_1_sse2)
_sk_clamp_x_1_sse2:
.byte 69,15,87,192 // xorps %xmm8,%xmm8
.byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,14,182,0,0 // minps 0xb60e(%rip),%xmm8 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,93,5,49,182,0,0 // minps 0xb631(%rip),%xmm8 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
@@ -47987,35 +48022,45 @@ HIDDEN _sk_repeat_x_1_sse2
FUNCTION(_sk_repeat_x_1_sse2)
_sk_repeat_x_1_sse2:
.byte 243,68,15,91,192 // cvttps2dq %xmm0,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,84,13,236,181,0,0 // andps 0xb5ec(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
+ .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
+ .byte 68,15,40,208 // movaps %xmm0,%xmm10
+ .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
+ .byte 68,15,40,29,15,182,0,0 // movaps 0xb60f(%rip),%xmm11 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 69,15,84,211 // andps %xmm11,%xmm10
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,92,202 // subps %xmm10,%xmm9
+ .byte 65,15,92,193 // subps %xmm9,%xmm0
+ .byte 68,15,95,192 // maxps %xmm0,%xmm8
+ .byte 69,15,93,195 // minps %xmm11,%xmm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_mirror_x_1_sse2
.globl _sk_mirror_x_1_sse2
FUNCTION(_sk_mirror_x_1_sse2)
_sk_mirror_x_1_sse2:
- .byte 68,15,40,5,56,182,0,0 // movaps 0xb638(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xaf4>
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,188,181,0,0 // movaps 0xb5bc(%rip),%xmm9 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,178,181,0,0 // andps 0xb5b2(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,92,209 // subps %xmm9,%xmm10
- .byte 69,15,88,210 // addps %xmm10,%xmm10
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,92,216 // subps %xmm0,%xmm11
- .byte 65,15,84,195 // andps %xmm11,%xmm0
+ .byte 68,15,40,13,71,182,0,0 // movaps 0xb647(%rip),%xmm9 # 32c30 <_sk_srcover_rgba_8888_sse2_lowp+0xaf0>
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
+ .byte 68,15,40,21,203,181,0,0 // movaps 0xb5cb(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
+ .byte 68,15,89,208 // mulps %xmm0,%xmm10
+ .byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
+ .byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
+ .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
+ .byte 68,15,40,37,193,181,0,0 // movaps 0xb5c1(%rip),%xmm12 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
+ .byte 69,15,84,212 // andps %xmm12,%xmm10
+ .byte 69,15,87,192 // xorps %xmm8,%xmm8
+ .byte 69,15,92,218 // subps %xmm10,%xmm11
+ .byte 69,15,88,219 // addps %xmm11,%xmm11
+ .byte 65,15,92,195 // subps %xmm11,%xmm0
+ .byte 65,15,88,193 // addps %xmm9,%xmm0
+ .byte 69,15,87,201 // xorps %xmm9,%xmm9
+ .byte 68,15,92,200 // subps %xmm0,%xmm9
+ .byte 68,15,84,200 // andps %xmm0,%xmm9
+ .byte 69,15,95,193 // maxps %xmm9,%xmm8
+ .byte 69,15,93,196 // minps %xmm12,%xmm8
.byte 72,173 // lods %ds:(%rsi),%rax
+ .byte 65,15,40,192 // movaps %xmm8,%xmm0
.byte 255,224 // jmpq *%rax
HIDDEN _sk_luminance_to_alpha_sse2
@@ -48023,10 +48068,10 @@ HIDDEN _sk_luminance_to_alpha_sse2
FUNCTION(_sk_luminance_to_alpha_sse2)
_sk_luminance_to_alpha_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,216,186,0,0 // mulps 0xbad8(%rip),%xmm0 # 33060 <_sk_srcover_rgba_8888_sse2_lowp+0xfe4>
- .byte 15,89,13,225,186,0,0 // mulps 0xbae1(%rip),%xmm1 # 33070 <_sk_srcover_rgba_8888_sse2_lowp+0xff4>
+ .byte 15,89,5,211,186,0,0 // mulps 0xbad3(%rip),%xmm0 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0xfe0>
+ .byte 15,89,13,220,186,0,0 // mulps 0xbadc(%rip),%xmm1 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0xff0>
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,231,186,0,0 // mulps 0xbae7(%rip),%xmm3 # 33080 <_sk_srcover_rgba_8888_sse2_lowp+0x1004>
+ .byte 15,89,29,226,186,0,0 // mulps 0xbae2(%rip),%xmm3 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x1000>
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -48338,9 +48383,9 @@ _sk_evenly_spaced_gradient_sse2:
.byte 72,139,24 // mov (%rax),%rbx
.byte 76,139,112,8 // mov 0x8(%rax),%r14
.byte 72,255,203 // dec %rbx
- .byte 120,7 // js 27a39 <_sk_evenly_spaced_gradient_sse2+0x18>
+ .byte 120,7 // js 27afe <_sk_evenly_spaced_gradient_sse2+0x18>
.byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 27a4e <_sk_evenly_spaced_gradient_sse2+0x2d>
+ .byte 235,21 // jmp 27b13 <_sk_evenly_spaced_gradient_sse2+0x2d>
.byte 73,137,216 // mov %rbx,%r8
.byte 73,209,232 // shr %r8
.byte 131,227,1 // and $0x1,%ebx
@@ -48438,15 +48483,15 @@ HIDDEN _sk_gauss_a_to_rgba_sse2
.globl _sk_gauss_a_to_rgba_sse2
FUNCTION(_sk_gauss_a_to_rgba_sse2)
_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,175,180,0,0 // movaps 0xb4af(%rip),%xmm0 # 33090 <_sk_srcover_rgba_8888_sse2_lowp+0x1014>
+ .byte 15,40,5,170,180,0,0 // movaps 0xb4aa(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x1010>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,181,180,0,0 // addps 0xb4b5(%rip),%xmm0 # 330a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1024>
+ .byte 15,88,5,176,180,0,0 // addps 0xb4b0(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x1020>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,187,180,0,0 // addps 0xb4bb(%rip),%xmm0 # 330b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1034>
+ .byte 15,88,5,182,180,0,0 // addps 0xb4b6(%rip),%xmm0 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x1030>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,193,180,0,0 // addps 0xb4c1(%rip),%xmm0 # 330c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1044>
+ .byte 15,88,5,188,180,0,0 // addps 0xb4bc(%rip),%xmm0 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1040>
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,199,180,0,0 // addps 0xb4c7(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1054>
+ .byte 15,88,5,194,180,0,0 // addps 0xb4c2(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1050>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
@@ -48461,7 +48506,7 @@ _sk_gradient_sse2:
.byte 76,139,0 // mov (%rax),%r8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 27c4e <_sk_gradient_sse2+0x38>
+ .byte 114,41 // jb 27d13 <_sk_gradient_sse2+0x38>
.byte 76,139,72,72 // mov 0x48(%rax),%r9
.byte 73,255,200 // dec %r8
.byte 73,131,193,4 // add $0x4,%r9
@@ -48472,7 +48517,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 73,131,193,4 // add $0x4,%r9
.byte 73,255,200 // dec %r8
- .byte 117,230 // jne 27c34 <_sk_gradient_sse2+0x1e>
+ .byte 117,230 // jne 27cf9 <_sk_gradient_sse2+0x1e>
.byte 65,86 // push %r14
.byte 83 // push %rbx
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
@@ -48612,29 +48657,29 @@ _sk_xy_to_unit_angle_sse2:
.byte 69,15,94,220 // divps %xmm12,%xmm11
.byte 69,15,40,227 // movaps %xmm11,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,87,178,0,0 // movaps 0xb257(%rip),%xmm13 # 330e0 <_sk_srcover_rgba_8888_sse2_lowp+0x1064>
+ .byte 68,15,40,45,82,178,0,0 // movaps 0xb252(%rip),%xmm13 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1060>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,91,178,0,0 // addps 0xb25b(%rip),%xmm13 # 330f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1074>
+ .byte 68,15,88,45,86,178,0,0 // addps 0xb256(%rip),%xmm13 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1070>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,95,178,0,0 // addps 0xb25f(%rip),%xmm13 # 33100 <_sk_srcover_rgba_8888_sse2_lowp+0x1084>
+ .byte 68,15,88,45,90,178,0,0 // addps 0xb25a(%rip),%xmm13 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1080>
.byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,99,178,0,0 // addps 0xb263(%rip),%xmm13 # 33110 <_sk_srcover_rgba_8888_sse2_lowp+0x1094>
+ .byte 68,15,88,45,94,178,0,0 // addps 0xb25e(%rip),%xmm13 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1090>
.byte 69,15,89,235 // mulps %xmm11,%xmm13
.byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,98,178,0,0 // movaps 0xb262(%rip),%xmm10 # 33120 <_sk_srcover_rgba_8888_sse2_lowp+0x10a4>
+ .byte 68,15,40,21,93,178,0,0 // movaps 0xb25d(%rip),%xmm10 # 331e0 <_sk_srcover_rgba_8888_sse2_lowp+0x10a0>
.byte 69,15,92,213 // subps %xmm13,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,205 // andnps %xmm13,%xmm9
.byte 69,15,86,202 // orps %xmm10,%xmm9
.byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,37,172,0,0 // movaps 0xac25(%rip),%xmm10 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,21,32,172,0,0 // movaps 0xac20(%rip),%xmm10 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,92,209 // subps %xmm9,%xmm10
.byte 69,15,84,208 // andps %xmm8,%xmm10
.byte 69,15,85,193 // andnps %xmm9,%xmm8
.byte 69,15,86,194 // orps %xmm10,%xmm8
.byte 68,15,40,201 // movaps %xmm1,%xmm9
.byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,20,172,0,0 // movaps 0xac14(%rip),%xmm10 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,21,15,172,0,0 // movaps 0xac0f(%rip),%xmm10 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,208 // subps %xmm8,%xmm10
.byte 69,15,84,209 // andps %xmm9,%xmm10
.byte 69,15,85,200 // andnps %xmm8,%xmm9
@@ -48669,7 +48714,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,203,177,0,0 // mulps 0xb1cb(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,198,177,0,0 // mulps 0xb1c6(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48677,7 +48722,7 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,182,177,0,0 // mulps 0xb1b6(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,21,177,177,0,0 // mulps 0xb1b1(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48686,8 +48731,8 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,94,176,0,0 // xorps 0xb05e(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
- .byte 68,15,89,5,70,171,0,0 // mulps 0xab46(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,89,176,0,0 // xorps 0xb059(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,89,5,65,171,0,0 // mulps 0xab41(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48708,7 +48753,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,203 // mulss %xmm11,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,45,177,0,0 // mulps 0xb12d(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,40,177,0,0 // mulps 0xb128(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,225 // movaps %xmm1,%xmm12
.byte 69,15,89,228 // mulps %xmm12,%xmm12
@@ -48716,7 +48761,7 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 243,69,15,89,219 // mulss %xmm11,%xmm11
.byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
.byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 68,15,89,21,24,177,0,0 // mulps 0xb118(%rip),%xmm10 # 33140 <_sk_srcover_rgba_8888_sse2_lowp+0x10c4>
+ .byte 68,15,89,21,19,177,0,0 // mulps 0xb113(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x10c0>
.byte 69,15,89,212 // mulps %xmm12,%xmm10
.byte 65,15,40,193 // movaps %xmm9,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
@@ -48725,8 +48770,8 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,40,194 // movaps %xmm10,%xmm0
.byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,87,13,192,175,0,0 // xorps 0xafc0(%rip),%xmm9 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
- .byte 68,15,89,5,168,170,0,0 // mulps 0xaaa8(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,87,13,187,175,0,0 // xorps 0xafbb(%rip),%xmm9 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
+ .byte 68,15,89,5,163,170,0,0 // mulps 0xaaa3(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 65,15,89,192 // mulps %xmm8,%xmm0
.byte 69,15,92,202 // subps %xmm10,%xmm9
.byte 69,15,89,200 // mulps %xmm8,%xmm9
@@ -48744,7 +48789,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,200 // mulss %xmm8,%xmm9
.byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
.byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,13,160,176,0,0 // mulps 0xb0a0(%rip),%xmm9 # 33130 <_sk_srcover_rgba_8888_sse2_lowp+0x10b4>
+ .byte 68,15,89,13,155,176,0,0 // mulps 0xb09b(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x10b0>
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 68,15,40,209 // movaps %xmm1,%xmm10
.byte 69,15,89,210 // mulps %xmm10,%xmm10
@@ -48752,7 +48797,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,69,15,89,192 // mulss %xmm8,%xmm8
.byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
.byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,87,5,92,175,0,0 // xorps 0xaf5c(%rip),%xmm0 # 33010 <_sk_srcover_rgba_8888_sse2_lowp+0xf94>
+ .byte 15,87,5,87,175,0,0 // xorps 0xaf57(%rip),%xmm0 # 330d0 <_sk_srcover_rgba_8888_sse2_lowp+0xf90>
.byte 65,15,94,193 // divps %xmm9,%xmm0
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48798,7 +48843,7 @@ HIDDEN _sk_save_xy_sse2
FUNCTION(_sk_save_xy_sse2)
_sk_save_xy_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,211,169,0,0 // movaps 0xa9d3(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,206,169,0,0 // movaps 0xa9ce(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,17,0 // movups %xmm0,(%rax)
.byte 68,15,40,200 // movaps %xmm0,%xmm9
.byte 69,15,88,200 // addps %xmm8,%xmm9
@@ -48806,7 +48851,7 @@ _sk_save_xy_sse2:
.byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
.byte 69,15,40,217 // movaps %xmm9,%xmm11
.byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,190,169,0,0 // movaps 0xa9be(%rip),%xmm12 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 68,15,40,37,185,169,0,0 // movaps 0xa9b9(%rip),%xmm12 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,84,220 // andps %xmm12,%xmm11
.byte 69,15,92,211 // subps %xmm11,%xmm10
.byte 69,15,92,202 // subps %xmm10,%xmm9
@@ -48853,8 +48898,8 @@ _sk_bilinear_nx_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,103,175,0,0 // addps 0xaf67(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,31,169,0,0 // movaps 0xa91f(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,98,175,0,0 // addps 0xaf62(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,26,169,0,0 // movaps 0xa91a(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48867,7 +48912,7 @@ _sk_bilinear_px_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,238,168,0,0 // addps 0xa8ee(%rip),%xmm0 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,5,233,168,0,0 // addps 0xa8e9(%rip),%xmm0 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48879,8 +48924,8 @@ _sk_bilinear_ny_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,32,175,0,0 // addps 0xaf20(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,216,168,0,0 // movaps 0xa8d8(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,27,175,0,0 // addps 0xaf1b(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,211,168,0,0 // movaps 0xa8d3(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48893,7 +48938,7 @@ _sk_bilinear_py_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,166,168,0,0 // addps 0xa8a6(%rip),%xmm1 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 15,88,13,161,168,0,0 // addps 0xa8a1(%rip),%xmm1 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48905,13 +48950,13 @@ _sk_bicubic_n3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,233,174,0,0 // addps 0xaee9(%rip),%xmm0 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,145,168,0,0 // movaps 0xa891(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,228,174,0,0 // addps 0xaee4(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,40,13,140,168,0,0 // movaps 0xa88c(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,221,174,0,0 // mulps 0xaedd(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,13,101,170,0,0 // addps 0xaa65(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,13,216,174,0,0 // mulps 0xaed8(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,13,96,170,0,0 // addps 0xaa60(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48924,16 +48969,16 @@ _sk_bicubic_n1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,148,174,0,0 // addps 0xae94(%rip),%xmm0 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,76,168,0,0 // movaps 0xa84c(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,5,143,174,0,0 // addps 0xae8f(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,71,168,0,0 // movaps 0xa847(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,176,174,0,0 // movaps 0xaeb0(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,5,171,174,0,0 // movaps 0xaeab(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,180,174,0,0 // addps 0xaeb4(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,175,174,0,0 // addps 0xaeaf(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,24,168,0,0 // addps 0xa818(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,19,168,0,0 // addps 0xa813(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,172,174,0,0 // addps 0xaeac(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,167,174,0,0 // addps 0xaea7(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48943,17 +48988,17 @@ HIDDEN _sk_bicubic_p1x_sse2
FUNCTION(_sk_bicubic_p1x_sse2)
_sk_bicubic_p1x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,246,167,0,0 // movaps 0xa7f6(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,241,167,0,0 // movaps 0xa7f1(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,72,64 // movups 0x40(%rax),%xmm9
.byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,98,174,0,0 // movaps 0xae62(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,21,93,174,0,0 // movaps 0xae5d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,102,174,0,0 // addps 0xae66(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,21,97,174,0,0 // addps 0xae61(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,98,174,0,0 // addps 0xae62(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,93,174,0,0 // addps 0xae5d(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,144,128,0,0,0 // movups %xmm10,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -48965,11 +49010,11 @@ _sk_bicubic_p3x_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,0 // movups (%rax),%xmm0
.byte 68,15,16,64,64 // movups 0x40(%rax),%xmm8
- .byte 15,88,5,53,174,0,0 // addps 0xae35(%rip),%xmm0 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,88,5,48,174,0,0 // addps 0xae30(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,5,174,0,0 // mulps 0xae05(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,5,141,169,0,0 // addps 0xa98d(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,5,0,174,0,0 // mulps 0xae00(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,5,136,169,0,0 // addps 0xa988(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,128,0,0,0 // movups %xmm8,0x80(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -48982,13 +49027,13 @@ _sk_bicubic_n3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,203,173,0,0 // addps 0xadcb(%rip),%xmm1 # 33160 <_sk_srcover_rgba_8888_sse2_lowp+0x10e4>
- .byte 68,15,40,13,115,167,0,0 // movaps 0xa773(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,198,173,0,0 // addps 0xadc6(%rip),%xmm1 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x10e0>
+ .byte 68,15,40,13,110,167,0,0 // movaps 0xa76e(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
.byte 69,15,40,193 // movaps %xmm9,%xmm8
.byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,191,173,0,0 // mulps 0xadbf(%rip),%xmm9 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,13,71,169,0,0 // addps 0xa947(%rip),%xmm9 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,13,186,173,0,0 // mulps 0xadba(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,13,66,169,0,0 // addps 0xa942(%rip),%xmm9 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,200 // mulps %xmm8,%xmm9
.byte 68,15,17,136,160,0,0,0 // movups %xmm9,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49001,16 +49046,16 @@ _sk_bicubic_n1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,117,173,0,0 // addps 0xad75(%rip),%xmm1 # 33150 <_sk_srcover_rgba_8888_sse2_lowp+0x10d4>
- .byte 68,15,40,13,45,167,0,0 // movaps 0xa72d(%rip),%xmm9 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,88,13,112,173,0,0 // addps 0xad70(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x10d0>
+ .byte 68,15,40,13,40,167,0,0 // movaps 0xa728(%rip),%xmm9 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,145,173,0,0 // movaps 0xad91(%rip),%xmm8 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,5,140,173,0,0 // movaps 0xad8c(%rip),%xmm8 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,149,173,0,0 // addps 0xad95(%rip),%xmm8 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,5,144,173,0,0 // addps 0xad90(%rip),%xmm8 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,249,166,0,0 // addps 0xa6f9(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,88,5,244,166,0,0 // addps 0xa6f4(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,141,173,0,0 // addps 0xad8d(%rip),%xmm8 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,5,136,173,0,0 // addps 0xad88(%rip),%xmm8 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49020,17 +49065,17 @@ HIDDEN _sk_bicubic_p1y_sse2
FUNCTION(_sk_bicubic_p1y_sse2)
_sk_bicubic_p1y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,215,166,0,0 // movaps 0xa6d7(%rip),%xmm8 # 32b00 <_sk_srcover_rgba_8888_sse2_lowp+0xa84>
+ .byte 68,15,40,5,210,166,0,0 // movaps 0xa6d2(%rip),%xmm8 # 32bc0 <_sk_srcover_rgba_8888_sse2_lowp+0xa80>
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,72,96 // movups 0x60(%rax),%xmm9
.byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,66,173,0,0 // movaps 0xad42(%rip),%xmm10 # 33180 <_sk_srcover_rgba_8888_sse2_lowp+0x1104>
+ .byte 68,15,40,21,61,173,0,0 // movaps 0xad3d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x1100>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,70,173,0,0 // addps 0xad46(%rip),%xmm10 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 68,15,88,21,65,173,0,0 // addps 0xad41(%rip),%xmm10 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,89,209 // mulps %xmm9,%xmm10
.byte 69,15,88,208 // addps %xmm8,%xmm10
.byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,66,173,0,0 // addps 0xad42(%rip),%xmm10 # 331a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1124>
+ .byte 68,15,88,21,61,173,0,0 // addps 0xad3d(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x1120>
.byte 68,15,17,144,160,0,0,0 // movups %xmm10,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -49042,11 +49087,11 @@ _sk_bicubic_p3y_sse2:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,16,72,32 // movups 0x20(%rax),%xmm1
.byte 68,15,16,64,96 // movups 0x60(%rax),%xmm8
- .byte 15,88,13,20,173,0,0 // addps 0xad14(%rip),%xmm1 # 33190 <_sk_srcover_rgba_8888_sse2_lowp+0x1114>
+ .byte 15,88,13,15,173,0,0 // addps 0xad0f(%rip),%xmm1 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x1110>
.byte 69,15,40,200 // movaps %xmm8,%xmm9
.byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,228,172,0,0 // mulps 0xace4(%rip),%xmm8 # 33170 <_sk_srcover_rgba_8888_sse2_lowp+0x10f4>
- .byte 68,15,88,5,108,168,0,0 // addps 0xa86c(%rip),%xmm8 # 32d00 <_sk_srcover_rgba_8888_sse2_lowp+0xc84>
+ .byte 68,15,89,5,223,172,0,0 // mulps 0xacdf(%rip),%xmm8 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x10f0>
+ .byte 68,15,88,5,103,168,0,0 // addps 0xa867(%rip),%xmm8 # 32dc0 <_sk_srcover_rgba_8888_sse2_lowp+0xc80>
.byte 69,15,89,193 // mulps %xmm9,%xmm8
.byte 68,15,17,128,160,0,0,0 // movups %xmm8,0xa0(%rax)
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -49191,7 +49236,7 @@ _sk_clut_3D_sse2:
.byte 102,65,15,254,205 // paddd %xmm13,%xmm1
.byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
.byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,43,171,0,0 // movdqa 0xab2b(%rip),%xmm8 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,68,15,111,5,38,171,0,0 // movdqa 0xab26(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
@@ -49230,7 +49275,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,242,163,0,0 // movdqa 0xa3f2(%rip),%xmm12 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,37,237,163,0,0 // movdqa 0xa3ed(%rip),%xmm12 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,196 // paddd %xmm12,%xmm0
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49246,7 +49291,7 @@ _sk_clut_3D_sse2:
.byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
.byte 15,20,224 // unpcklps %xmm0,%xmm4
.byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,23,170,0,0 // movaps 0xaa17(%rip),%xmm4 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 15,40,37,18,170,0,0 // movaps 0xaa12(%rip),%xmm4 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
.byte 68,15,88,220 // addps %xmm4,%xmm11
.byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
.byte 68,15,40,223 // movaps %xmm7,%xmm11
@@ -49282,7 +49327,7 @@ _sk_clut_3D_sse2:
.byte 15,20,249 // unpcklps %xmm1,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,140,169,0,0 // psubd 0xa98c(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,135,169,0,0 // psubd 0xa987(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49372,7 +49417,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,233 // unpcklps %xmm1,%xmm5
.byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,100,161,0,0 // movdqa 0xa164(%rip),%xmm13 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,45,95,161,0,0 // movdqa 0xa15f(%rip),%xmm13 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,197 // paddd %xmm13,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
@@ -49469,7 +49514,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,65,15,254,202 // paddd %xmm10,%xmm1
.byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,39,166,0,0 // movdqa 0xa627(%rip),%xmm3 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,29,34,166,0,0 // movdqa 0xa622(%rip),%xmm3 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,203 // pmuludq %xmm3,%xmm1
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -49507,7 +49552,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,236 // unpcklps %xmm4,%xmm5
.byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,247,158,0,0 // movdqa 0x9ef7(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,111,5,242,158,0,0 // movdqa 0x9ef2(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
@@ -49588,7 +49633,7 @@ _sk_clut_3D_sse2:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,65,15,254,212 // paddd %xmm12,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,4,164,0,0 // movdqa 0xa404(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,13,255,163,0,0 // movdqa 0xa3ff(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -49610,7 +49655,7 @@ _sk_clut_3D_sse2:
.byte 68,15,20,209 // unpcklps %xmm1,%xmm10
.byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,169,163,0,0 // psubd 0xa3a9(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,164,163,0,0 // psubd 0xa3a4(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49625,7 +49670,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,212,156,0,0 // paddd 0x9cd4(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,207,156,0,0 // paddd 0x9ccf(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49662,7 +49707,7 @@ _sk_clut_3D_sse2:
.byte 15,20,199 // unpcklps %xmm7,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,179,162,0,0 // psubd 0xa2b3(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,174,162,0,0 // psubd 0xa2ae(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
.byte 102,73,15,126,248 // movq %xmm7,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49677,7 +49722,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
.byte 15,20,247 // unpcklps %xmm7,%xmm6
.byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,222,155,0,0 // paddd 0x9bde(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,21,217,155,0,0 // paddd 0x9bd9(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -49823,7 +49868,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,210 // paddd %xmm10,%xmm2
.byte 102,15,111,220 // movdqa %xmm4,%xmm3
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,246,159,0,0 // movdqa 0x9ff6(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,241,159,0,0 // movdqa 0x9ff1(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -49862,7 +49907,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,192,152,0,0 // paddd 0x98c0(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,187,152,0,0 // paddd 0x98bb(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,73,15,126,193 // movq %xmm0,%r9
@@ -49877,7 +49922,7 @@ _sk_clut_4D_sse2:
.byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
.byte 15,20,244 // unpcklps %xmm4,%xmm6
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,234,158,0,0 // movaps 0x9eea(%rip),%xmm6 # 331b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1134>
+ .byte 15,40,53,229,158,0,0 // movaps 0x9ee5(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x1130>
.byte 68,15,88,198 // addps %xmm6,%xmm8
.byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
.byte 68,15,88,254 // addps %xmm6,%xmm15
@@ -49895,7 +49940,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,254,215 // paddd %xmm15,%xmm2
.byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,160,158,0,0 // movdqa 0x9ea0(%rip),%xmm1 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,13,155,158,0,0 // movdqa 0x9e9b(%rip),%xmm1 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -49916,7 +49961,7 @@ _sk_clut_4D_sse2:
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,75,158,0,0 // psubd 0x9e4b(%rip),%xmm0 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,5,70,158,0,0 // psubd 0x9e46(%rip),%xmm0 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -49931,7 +49976,7 @@ _sk_clut_4D_sse2:
.byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
.byte 68,15,20,216 // unpcklps %xmm0,%xmm11
.byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,115,151,0,0 // paddd 0x9773(%rip),%xmm1 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,13,110,151,0,0 // paddd 0x976e(%rip),%xmm1 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
.byte 102,73,15,126,192 // movq %xmm0,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -49969,7 +50014,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
.byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
.byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,74,157,0,0 // movdqa 0x9d4a(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,69,157,0,0 // movdqa 0x9d45(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
@@ -50007,7 +50052,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
.byte 15,20,253 // unpcklps %xmm5,%xmm7
.byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,22,150,0,0 // movdqa 0x9616(%rip),%xmm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,5,17,150,0,0 // movdqa 0x9611(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,224 // paddd %xmm8,%xmm4
.byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
.byte 102,73,15,126,232 // movq %xmm5,%r8
@@ -50153,7 +50198,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,226 // unpcklps %xmm2,%xmm4
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,112,147,0,0 // movdqa 0x9370(%rip),%xmm15 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,61,107,147,0,0 // movdqa 0x936b(%rip),%xmm15 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,207 // paddd %xmm15,%xmm1
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
@@ -50236,7 +50281,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
.byte 102,65,15,254,216 // paddd %xmm8,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,127,152,0,0 // movdqa 0x987f(%rip),%xmm5 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,45,122,152,0,0 // movdqa 0x987a(%rip),%xmm5 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,221 // pmuludq %xmm5,%xmm3
.byte 102,15,244,213 // pmuludq %xmm5,%xmm2
.byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
@@ -50257,7 +50302,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,198 // unpcklps %xmm6,%xmm8
.byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,40,152,0,0 // psubd 0x9828(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,45,35,152,0,0 // psubd 0x9823(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50289,7 +50334,7 @@ _sk_clut_4D_sse2:
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
.byte 102,69,15,254,205 // paddd %xmm13,%xmm9
.byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,134,151,0,0 // movdqa 0x9786(%rip),%xmm3 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,29,129,151,0,0 // movdqa 0x9781(%rip),%xmm3 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
.byte 102,15,244,235 // pmuludq %xmm3,%xmm5
.byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
@@ -50310,7 +50355,7 @@ _sk_clut_4D_sse2:
.byte 69,15,20,233 // unpcklps %xmm9,%xmm13
.byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
.byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,38,151,0,0 // psubd 0x9726(%rip),%xmm5 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,45,33,151,0,0 // psubd 0x9721(%rip),%xmm5 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
.byte 102,72,15,126,232 // movq %xmm5,%rax
@@ -50325,7 +50370,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,80,144,0,0 // movdqa 0x9050(%rip),%xmm9 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,13,75,144,0,0 // movdqa 0x904b(%rip),%xmm9 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,69,15,254,249 // paddd %xmm9,%xmm15
.byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50387,7 +50432,7 @@ _sk_clut_4D_sse2:
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,193,149,0,0 // movdqa 0x95c1(%rip),%xmm2 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,21,188,149,0,0 // movdqa 0x95bc(%rip),%xmm2 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
@@ -50580,7 +50625,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,238 // unpcklps %xmm6,%xmm13
.byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,93,146,0,0 // psubd 0x925d(%rip),%xmm2 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,21,88,146,0,0 // psubd 0x9258(%rip),%xmm2 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50640,7 +50685,7 @@ _sk_clut_4D_sse2:
.byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
.byte 102,65,15,254,198 // paddd %xmm14,%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,60,145,0,0 // movdqa 0x913c(%rip),%xmm8 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,68,15,111,5,55,145,0,0 // movdqa 0x9137(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
.byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
.byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
@@ -50678,7 +50723,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,10,138,0,0 // movdqa 0x8a0a(%rip),%xmm8 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,68,15,111,5,5,138,0,0 // movdqa 0x8a05(%rip),%xmm8 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,65,15,254,208 // paddd %xmm8,%xmm2
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
.byte 102,73,15,126,216 // movq %xmm3,%r8
@@ -50761,7 +50806,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,22,143,0,0 // movdqa 0x8f16(%rip),%xmm4 # 331c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1144>
+ .byte 102,15,111,37,17,143,0,0 // movdqa 0x8f11(%rip),%xmm4 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1140>
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
@@ -50782,7 +50827,7 @@ _sk_clut_4D_sse2:
.byte 68,15,20,193 // unpcklps %xmm1,%xmm8
.byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,191,142,0,0 // psubd 0x8ebf(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,186,142,0,0 // psubd 0x8eba(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
.byte 102,73,15,126,208 // movq %xmm2,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50797,7 +50842,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
.byte 15,20,209 // unpcklps %xmm1,%xmm2
.byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,232,135,0,0 // paddd 0x87e8(%rip),%xmm0 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,5,227,135,0,0 // paddd 0x87e3(%rip),%xmm0 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,73,15,126,200 // movq %xmm1,%r8
.byte 102,72,15,126,192 // movq %xmm0,%rax
@@ -50835,7 +50880,7 @@ _sk_clut_4D_sse2:
.byte 15,20,198 // unpcklps %xmm6,%xmm0
.byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,199,141,0,0 // psubd 0x8dc7(%rip),%xmm1 # 331d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1154>
+ .byte 102,15,250,13,194,141,0,0 // psubd 0x8dc2(%rip),%xmm1 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1150>
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
.byte 102,73,15,126,240 // movq %xmm6,%r8
.byte 102,72,15,126,200 // movq %xmm1,%rax
@@ -50850,7 +50895,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
.byte 15,20,230 // unpcklps %xmm6,%xmm4
.byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,242,134,0,0 // paddd 0x86f2(%rip),%xmm2 # 32b40 <_sk_srcover_rgba_8888_sse2_lowp+0xac4>
+ .byte 102,15,254,21,237,134,0,0 // paddd 0x86ed(%rip),%xmm2 # 32c00 <_sk_srcover_rgba_8888_sse2_lowp+0xac0>
.byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
.byte 102,73,15,126,224 // movq %xmm4,%r8
.byte 102,72,15,126,208 // movq %xmm2,%rax
@@ -50909,7 +50954,7 @@ _sk_clut_4D_sse2:
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 65,15,88,215 // addps %xmm15,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,222,133,0,0 // movaps 0x85de(%rip),%xmm3 # 32b10 <_sk_srcover_rgba_8888_sse2_lowp+0xa94>
+ .byte 15,40,29,217,133,0,0 // movaps 0x85d9(%rip),%xmm3 # 32bd0 <_sk_srcover_rgba_8888_sse2_lowp+0xa90>
.byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
.byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
.byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
@@ -50918,7 +50963,6 @@ _sk_clut_4D_sse2:
.byte 91 // pop %rbx
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 144 // nop
HIDDEN _sk_start_pipeline_hsw_lowp
.globl _sk_start_pipeline_hsw_lowp
@@ -50941,13 +50985,13 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2a622 <_sk_start_pipeline_hsw_lowp+0xca>
+ .byte 15,131,151,0,0,0 // jae 2a6e6 <_sk_start_pipeline_hsw_lowp+0xca>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,16 // lea 0x10(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2a5e4 <_sk_start_pipeline_hsw_lowp+0x8c>
+ .byte 119,67 // ja 2a6a8 <_sk_start_pipeline_hsw_lowp+0x8c>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
@@ -50966,10 +51010,10 @@ _sk_start_pipeline_hsw_lowp:
.byte 73,131,196,32 // add $0x20,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2a5a5 <_sk_start_pipeline_hsw_lowp+0x4d>
+ .byte 118,193 // jbe 2a669 <_sk_start_pipeline_hsw_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2a615 <_sk_start_pipeline_hsw_lowp+0xbd>
+ .byte 116,41 // je 2a6d9 <_sk_start_pipeline_hsw_lowp+0xbd>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -50983,7 +51027,7 @@ _sk_start_pipeline_hsw_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2a597 <_sk_start_pipeline_hsw_lowp+0x3f>
+ .byte 15,133,117,255,255,255 // jne 2a65b <_sk_start_pipeline_hsw_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -51017,7 +51061,7 @@ HIDDEN _sk_black_color_hsw_lowp
FUNCTION(_sk_black_color_hsw_lowp)
_sk_black_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,130,129,0,0 // vpbroadcastw 0x8182(%rip),%ymm3 # 327e0 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
+ .byte 196,226,125,121,29,126,129,0,0 // vpbroadcastw 0x817e(%rip),%ymm3 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x760>
.byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
.byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
.byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
@@ -51028,7 +51072,7 @@ HIDDEN _sk_white_color_hsw_lowp
FUNCTION(_sk_white_color_hsw_lowp)
_sk_white_color_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,107,129,0,0 // vpbroadcastw 0x816b(%rip),%ymm0 # 327e2 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
+ .byte 196,226,125,121,5,103,129,0,0 // vpbroadcastw 0x8167(%rip),%ymm0 # 328a2 <_sk_srcover_rgba_8888_sse2_lowp+0x762>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
@@ -51039,8 +51083,8 @@ HIDDEN _sk_set_rgb_hsw_lowp
FUNCTION(_sk_set_rgb_hsw_lowp)
_sk_set_rgb_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,117,130,0,0 // vmovss 0x8275(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
- .byte 197,250,16,21,157,130,0,0 // vmovss 0x829d(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 197,122,16,5,113,130,0,0 // vmovss 0x8271(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 197,250,16,21,153,130,0,0 // vmovss 0x8299(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 197,250,16,0 // vmovss (%rax),%xmm0
.byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
.byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
@@ -51063,7 +51107,7 @@ HIDDEN _sk_premul_hsw_lowp
FUNCTION(_sk_premul_hsw_lowp)
_sk_premul_hsw_lowp:
.byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,250,128,0,0 // vpbroadcastw 0x80fa(%rip),%ymm8 # 327e4 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
+ .byte 196,98,125,121,5,246,128,0,0 // vpbroadcastw 0x80f6(%rip),%ymm8 # 328a4 <_sk_srcover_rgba_8888_sse2_lowp+0x764>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
@@ -51111,7 +51155,7 @@ HIDDEN _sk_invert_hsw_lowp
.globl _sk_invert_hsw_lowp
FUNCTION(_sk_invert_hsw_lowp)
_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,145,128,0,0 // vpbroadcastw 0x8091(%rip),%ymm8 # 327e6 <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
+ .byte 196,98,125,121,5,141,128,0,0 // vpbroadcastw 0x808d(%rip),%ymm8 # 328a6 <_sk_srcover_rgba_8888_sse2_lowp+0x766>
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
.byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
@@ -51135,7 +51179,7 @@ HIDDEN _sk_srcatop_hsw_lowp
FUNCTION(_sk_srcatop_hsw_lowp)
_sk_srcatop_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,94,128,0,0 // vpbroadcastw 0x805e(%rip),%ymm8 # 327e8 <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
+ .byte 196,98,125,121,5,90,128,0,0 // vpbroadcastw 0x805a(%rip),%ymm8 # 328a8 <_sk_srcover_rgba_8888_sse2_lowp+0x768>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51162,7 +51206,7 @@ HIDDEN _sk_dstatop_hsw_lowp
FUNCTION(_sk_dstatop_hsw_lowp)
_sk_dstatop_hsw_lowp:
.byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,254,127,0,0 // vpbroadcastw 0x7ffe(%rip),%ymm9 # 327ea <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
+ .byte 196,98,125,121,13,250,127,0,0 // vpbroadcastw 0x7ffa(%rip),%ymm9 # 328aa <_sk_srcover_rgba_8888_sse2_lowp+0x76a>
.byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
.byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
.byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
@@ -51189,7 +51233,7 @@ HIDDEN _sk_srcin_hsw_lowp
FUNCTION(_sk_srcin_hsw_lowp)
_sk_srcin_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,155,127,0,0 // vpbroadcastw 0x7f9b(%rip),%ymm8 # 327ec <_sk_srcover_rgba_8888_sse2_lowp+0x770>
+ .byte 196,98,125,121,5,151,127,0,0 // vpbroadcastw 0x7f97(%rip),%ymm8 # 328ac <_sk_srcover_rgba_8888_sse2_lowp+0x76c>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
@@ -51209,7 +51253,7 @@ HIDDEN _sk_dstin_hsw_lowp
FUNCTION(_sk_dstin_hsw_lowp)
_sk_dstin_hsw_lowp:
.byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,88,127,0,0 // vpbroadcastw 0x7f58(%rip),%ymm8 # 327ee <_sk_srcover_rgba_8888_sse2_lowp+0x772>
+ .byte 196,98,125,121,5,84,127,0,0 // vpbroadcastw 0x7f54(%rip),%ymm8 # 328ae <_sk_srcover_rgba_8888_sse2_lowp+0x76e>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
@@ -51228,7 +51272,7 @@ HIDDEN _sk_srcout_hsw_lowp
.globl _sk_srcout_hsw_lowp
FUNCTION(_sk_srcout_hsw_lowp)
_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,25,127,0,0 // vpbroadcastw 0x7f19(%rip),%ymm8 # 327f0 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
+ .byte 196,98,125,121,5,21,127,0,0 // vpbroadcastw 0x7f15(%rip),%ymm8 # 328b0 <_sk_srcover_rgba_8888_sse2_lowp+0x770>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51249,7 +51293,7 @@ HIDDEN _sk_dstout_hsw_lowp
.globl _sk_dstout_hsw_lowp
FUNCTION(_sk_dstout_hsw_lowp)
_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,210,126,0,0 // vpbroadcastw 0x7ed2(%rip),%ymm8 # 327f2 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
+ .byte 196,98,125,121,5,206,126,0,0 // vpbroadcastw 0x7ece(%rip),%ymm8 # 328b2 <_sk_srcover_rgba_8888_sse2_lowp+0x772>
.byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
.byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51270,7 +51314,7 @@ HIDDEN _sk_srcover_hsw_lowp
.globl _sk_srcover_hsw_lowp
FUNCTION(_sk_srcover_hsw_lowp)
_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,139,126,0,0 // vpbroadcastw 0x7e8b(%rip),%ymm8 # 327f4 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
+ .byte 196,98,125,121,5,135,126,0,0 // vpbroadcastw 0x7e87(%rip),%ymm8 # 328b4 <_sk_srcover_rgba_8888_sse2_lowp+0x774>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
@@ -51295,7 +51339,7 @@ HIDDEN _sk_dstover_hsw_lowp
.globl _sk_dstover_hsw_lowp
FUNCTION(_sk_dstover_hsw_lowp)
_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,48,126,0,0 // vpbroadcastw 0x7e30(%rip),%ymm8 # 327f6 <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
+ .byte 196,98,125,121,5,44,126,0,0 // vpbroadcastw 0x7e2c(%rip),%ymm8 # 328b6 <_sk_srcover_rgba_8888_sse2_lowp+0x776>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
@@ -51321,7 +51365,7 @@ HIDDEN _sk_modulate_hsw_lowp
FUNCTION(_sk_modulate_hsw_lowp)
_sk_modulate_hsw_lowp:
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,213,125,0,0 // vpbroadcastw 0x7dd5(%rip),%ymm8 # 327f8 <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
+ .byte 196,98,125,121,5,209,125,0,0 // vpbroadcastw 0x7dd1(%rip),%ymm8 # 328b8 <_sk_srcover_rgba_8888_sse2_lowp+0x778>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
@@ -51340,7 +51384,7 @@ HIDDEN _sk_multiply_hsw_lowp
.globl _sk_multiply_hsw_lowp
FUNCTION(_sk_multiply_hsw_lowp)
_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,150,125,0,0 // vpbroadcastw 0x7d96(%rip),%ymm8 # 327fa <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
+ .byte 196,98,125,121,5,146,125,0,0 // vpbroadcastw 0x7d92(%rip),%ymm8 # 328ba <_sk_srcover_rgba_8888_sse2_lowp+0x77a>
.byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
.byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
.byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
@@ -51376,7 +51420,7 @@ HIDDEN _sk_plus__hsw_lowp
FUNCTION(_sk_plus__hsw_lowp)
_sk_plus__hsw_lowp:
.byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,12,125,0,0 // vpbroadcastw 0x7d0c(%rip),%ymm8 # 327fc <_sk_srcover_rgba_8888_sse2_lowp+0x780>
+ .byte 196,98,125,121,5,8,125,0,0 // vpbroadcastw 0x7d08(%rip),%ymm8 # 328bc <_sk_srcover_rgba_8888_sse2_lowp+0x77c>
.byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
.byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
.byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
@@ -51393,7 +51437,7 @@ FUNCTION(_sk_screen_hsw_lowp)
_sk_screen_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,217,124,0,0 // vpbroadcastw 0x7cd9(%rip),%ymm9 # 327fe <_sk_srcover_rgba_8888_sse2_lowp+0x782>
+ .byte 196,98,125,121,13,213,124,0,0 // vpbroadcastw 0x7cd5(%rip),%ymm9 # 328be <_sk_srcover_rgba_8888_sse2_lowp+0x77e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51419,7 +51463,7 @@ HIDDEN _sk_xor__hsw_lowp
.globl _sk_xor__hsw_lowp
FUNCTION(_sk_xor__hsw_lowp)
_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,126,124,0,0 // vpbroadcastw 0x7c7e(%rip),%ymm8 # 32800 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
+ .byte 196,98,125,121,5,122,124,0,0 // vpbroadcastw 0x7c7a(%rip),%ymm8 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x780>
.byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
.byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
.byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
@@ -51453,7 +51497,7 @@ _sk_darken_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,2,124,0,0 // vpbroadcastw 0x7c02(%rip),%ymm9 # 32802 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
+ .byte 196,98,125,121,13,254,123,0,0 // vpbroadcastw 0x7bfe(%rip),%ymm9 # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x782>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51487,7 +51531,7 @@ _sk_lighten_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,131,123,0,0 // vpbroadcastw 0x7b83(%rip),%ymm9 # 32804 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
+ .byte 196,98,125,121,13,127,123,0,0 // vpbroadcastw 0x7b7f(%rip),%ymm9 # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x784>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
@@ -51521,10 +51565,10 @@ _sk_difference_hsw_lowp:
.byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
.byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
.byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,4,123,0,0 // vpbroadcastw 0x7b04(%rip),%ymm9 # 32806 <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
+ .byte 196,98,125,121,13,0,123,0,0 // vpbroadcastw 0x7b00(%rip),%ymm9 # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x786>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,243,122,0,0 // vpbroadcastw 0x7af3(%rip),%ymm10 # 32808 <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
+ .byte 196,98,125,121,21,239,122,0,0 // vpbroadcastw 0x7aef(%rip),%ymm10 # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x788>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51557,10 +51601,10 @@ FUNCTION(_sk_exclusion_hsw_lowp)
_sk_exclusion_hsw_lowp:
.byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
.byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,120,122,0,0 // vpbroadcastw 0x7a78(%rip),%ymm9 # 3280a <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
+ .byte 196,98,125,121,13,116,122,0,0 // vpbroadcastw 0x7a74(%rip),%ymm9 # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x78a>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,103,122,0,0 // vpbroadcastw 0x7a67(%rip),%ymm10 # 3280c <_sk_srcover_rgba_8888_sse2_lowp+0x790>
+ .byte 196,98,125,121,21,99,122,0,0 // vpbroadcastw 0x7a63(%rip),%ymm10 # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x78c>
.byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
.byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
.byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
@@ -51588,7 +51632,7 @@ HIDDEN _sk_hardlight_hsw_lowp
FUNCTION(_sk_hardlight_hsw_lowp)
_sk_hardlight_hsw_lowp:
.byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,4,122,0,0 // vpbroadcastw 0x7a04(%rip),%ymm9 # 32810 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
+ .byte 196,98,125,121,13,0,122,0,0 // vpbroadcastw 0x7a00(%rip),%ymm9 # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x790>
.byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
.byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
.byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
@@ -51616,7 +51660,7 @@ _sk_hardlight_hsw_lowp:
.byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
.byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
.byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,123,121,0,0 // vpbroadcastw 0x797b(%rip),%ymm14 # 3280e <_sk_srcover_rgba_8888_sse2_lowp+0x792>
+ .byte 196,98,125,121,53,119,121,0,0 // vpbroadcastw 0x7977(%rip),%ymm14 # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x78e>
.byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
.byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
.byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
@@ -51653,7 +51697,7 @@ HIDDEN _sk_overlay_hsw_lowp
FUNCTION(_sk_overlay_hsw_lowp)
_sk_overlay_hsw_lowp:
.byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,240,120,0,0 // vpbroadcastw 0x78f0(%rip),%ymm9 # 32814 <_sk_srcover_rgba_8888_sse2_lowp+0x798>
+ .byte 196,98,125,121,13,236,120,0,0 // vpbroadcastw 0x78ec(%rip),%ymm9 # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x794>
.byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
.byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
.byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
@@ -51677,7 +51721,7 @@ _sk_overlay_hsw_lowp:
.byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
.byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
.byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,120,120,0,0 // vpbroadcastw 0x7878(%rip),%ymm13 # 32812 <_sk_srcover_rgba_8888_sse2_lowp+0x796>
+ .byte 196,98,125,121,45,116,120,0,0 // vpbroadcastw 0x7874(%rip),%ymm13 # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x792>
.byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
.byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
.byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
@@ -51729,10 +51773,10 @@ _sk_load_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b090 <_sk_load_8888_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b154 <_sk_load_8888_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b208 <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 76,141,13,161,1,0,0 // lea 0x1a1(%rip),%r9 # 2b2cc <_sk_load_8888_hsw_lowp+0x1ca>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51742,10 +51786,10 @@ _sk_load_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -51754,7 +51798,7 @@ _sk_load_8888_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51770,7 +51814,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b27b <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51780,7 +51824,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b1b7 <_sk_load_8888_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b27b <_sk_load_8888_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -51800,7 +51844,7 @@ _sk_load_8888_hsw_lowp:
.byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
.byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
.byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,64,118,0,0 // vmovdqa 0x7640(%rip),%ymm8 # 32820 <_sk_srcover_rgba_8888_sse2_lowp+0x7a4>
+ .byte 197,125,111,5,60,118,0,0 // vmovdqa 0x763c(%rip),%ymm8 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x7a0>
.byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
@@ -51811,7 +51855,7 @@ _sk_load_8888_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 121,254 // jns 2b208 <_sk_load_8888_hsw_lowp+0x1ca>
+ .byte 121,254 // jns 2b2cc <_sk_load_8888_hsw_lowp+0x1ca>
.byte 255 // (bad)
.byte 255,176,254,255,255,154 // pushq -0x65000002(%rax)
.byte 254 // (bad)
@@ -51836,7 +51880,7 @@ _sk_load_8888_hsw_lowp:
.byte 255 // (bad)
.byte 59,255 // cmp %edi,%edi
.byte 255 // (bad)
- .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b234 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
+ .byte 255,37,255,255,255,156 // jmpq *-0x63000001(%rip) # ffffffff9d02b2f8 <_sk_srcover_rgba_8888_sse2_lowp+0xffffffff9cff91b8>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,136,255,255,255,116 // decl 0x74ffffff(%rax)
@@ -51859,10 +51903,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b296 <_sk_load_8888_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b35a <_sk_load_8888_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b4d4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51872,10 +51916,10 @@ _sk_load_8888_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -51884,7 +51928,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51900,7 +51944,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51910,7 +51954,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2b3bd <_sk_load_8888_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b481 <_sk_load_8888_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -51930,7 +51974,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,90,116,0,0 // vmovdqa 0x745a(%rip),%ymm8 # 32840 <_sk_srcover_rgba_8888_sse2_lowp+0x7c4>
+ .byte 197,125,111,5,86,116,0,0 // vmovdqa 0x7456(%rip),%ymm8 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x7c0>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
@@ -51941,7 +51985,7 @@ _sk_load_8888_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b410 <_sk_load_8888_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b4d4 <_sk_load_8888_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52002,20 +52046,20 @@ _sk_store_8888_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2b4cd <_sk_store_8888_hsw_lowp+0x81>
+ .byte 119,30 // ja 2b591 <_sk_store_8888_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b57c <_sk_store_8888_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2b640 <_sk_store_8888_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2b578 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2b63c <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52023,12 +52067,12 @@ _sk_store_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2b578 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2b63c <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2b578 <_sk_store_8888_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2b63c <_sk_store_8888_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52085,10 +52129,10 @@ _sk_load_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b60a <_sk_load_bgra_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b6ce <_sk_load_bgra_hsw_lowp+0x52>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b848 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52098,10 +52142,10 @@ _sk_load_bgra_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
.byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
@@ -52110,7 +52154,7 @@ _sk_load_bgra_hsw_lowp:
.byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
.byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
.byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52126,7 +52170,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
.byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
.byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2b731 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
.byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52136,7 +52180,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
.byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2b731 <_sk_load_bgra_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b7f5 <_sk_load_bgra_hsw_lowp+0x179>
.byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
.byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
.byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
@@ -52156,7 +52200,7 @@ _sk_load_bgra_hsw_lowp:
.byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
.byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
.byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,6,113,0,0 // vmovdqa 0x7106(%rip),%ymm8 # 32860 <_sk_srcover_rgba_8888_sse2_lowp+0x7e4>
+ .byte 197,125,111,5,2,113,0,0 // vmovdqa 0x7102(%rip),%ymm8 # 32920 <_sk_srcover_rgba_8888_sse2_lowp+0x7e0>
.byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
.byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
.byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
@@ -52167,7 +52211,7 @@ _sk_load_bgra_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b784 <_sk_load_bgra_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2b848 <_sk_load_bgra_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52214,10 +52258,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2b812 <_sk_load_bgra_dst_hsw_lowp+0x52>
+ .byte 119,55 // ja 2b8d6 <_sk_load_bgra_dst_hsw_lowp+0x52>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2ba50 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52227,10 +52271,10 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,39,1,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
.byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,21,1,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -52239,7 +52283,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,229,0,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52255,7 +52299,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 233,138,0,0,0 // jmpq 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52265,7 +52309,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2b939 <_sk_load_bgra_dst_hsw_lowp+0x179>
+ .byte 235,81 // jmp 2b9fd <_sk_load_bgra_dst_hsw_lowp+0x179>
.byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -52285,7 +52329,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
.byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
.byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,30,111,0,0 // vmovdqa 0x6f1e(%rip),%ymm8 # 32880 <_sk_srcover_rgba_8888_sse2_lowp+0x804>
+ .byte 197,125,111,5,26,111,0,0 // vmovdqa 0x6f1a(%rip),%ymm8 # 32940 <_sk_srcover_rgba_8888_sse2_lowp+0x800>
.byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
@@ -52296,7 +52340,7 @@ _sk_load_bgra_dst_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2b98c <_sk_load_bgra_dst_hsw_lowp+0x1cc>
+ .byte 119,254 // ja 2ba50 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
.byte 255 // (bad)
.byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
.byte 254 // (bad)
@@ -52357,20 +52401,20 @@ _sk_store_bgra_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2ba49 <_sk_store_bgra_hsw_lowp+0x81>
+ .byte 119,30 // ja 2bb0d <_sk_store_bgra_hsw_lowp+0x81>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2baf8 <_sk_store_bgra_hsw_lowp+0x130>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2bbbc <_sk_store_bgra_hsw_lowp+0x130>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,171,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
.byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,153,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 233,134,0,0,0 // jmpq 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52378,12 +52422,12 @@ _sk_store_bgra_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
.byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,85 // jmp 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
.byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
.byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
.byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2baf4 <_sk_store_bgra_hsw_lowp+0x12c>
+ .byte 235,54 // jmp 2bbb8 <_sk_store_bgra_hsw_lowp+0x12c>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -52440,24 +52484,24 @@ _sk_load_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2bb73 <_sk_load_565_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2bc37 <_sk_load_565_hsw_lowp+0x3f>
.byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bce0 <_sk_load_565_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bda4 <_sk_load_565_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
.byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
.byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
@@ -52467,7 +52511,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
.byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
.byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2bc7b <_sk_load_565_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2bd3f <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52479,7 +52523,7 @@ _sk_load_565_hsw_lowp:
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
.byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
.byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2bc7b <_sk_load_565_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2bd3f <_sk_load_565_hsw_lowp+0x147>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
.byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
@@ -52493,13 +52537,13 @@ _sk_load_565_hsw_lowp:
.byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
.byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
.byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,28,108,0,0 // vpbroadcastw 0x6c1c(%rip),%ymm1 # 328a0 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
+ .byte 196,226,125,121,13,24,108,0,0 // vpbroadcastw 0x6c18(%rip),%ymm1 # 32960 <_sk_srcover_rgba_8888_sse2_lowp+0x820>
.byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
.byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
.byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,7,108,0,0 // vpbroadcastw 0x6c07(%rip),%ymm3 # 328a2 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
+ .byte 196,226,125,121,29,3,108,0,0 // vpbroadcastw 0x6c03(%rip),%ymm3 # 32962 <_sk_srcover_rgba_8888_sse2_lowp+0x822>
.byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,252,107,0,0 // vpbroadcastw 0x6bfc(%rip),%ymm3 # 328a4 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
+ .byte 196,226,125,121,29,248,107,0,0 // vpbroadcastw 0x6bf8(%rip),%ymm3 # 32964 <_sk_srcover_rgba_8888_sse2_lowp+0x824>
.byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
.byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
.byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
@@ -52510,7 +52554,7 @@ _sk_load_565_hsw_lowp:
.byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
.byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,202,107,0,0 // vpbroadcastw 0x6bca(%rip),%ymm3 # 328a6 <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
+ .byte 196,226,125,121,29,198,107,0,0 // vpbroadcastw 0x6bc6(%rip),%ymm3 # 32966 <_sk_srcover_rgba_8888_sse2_lowp+0x826>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52565,24 +52609,24 @@ _sk_load_565_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2bd5b <_sk_load_565_dst_hsw_lowp+0x3f>
+ .byte 119,37 // ja 2be1f <_sk_load_565_dst_hsw_lowp+0x3f>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bec8 <_sk_load_565_dst_hsw_lowp+0x1ac>
+ .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 2bf8c <_sk_load_565_dst_hsw_lowp+0x1ac>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,8,1,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,253,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
.byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,218,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
@@ -52592,7 +52636,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
.byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
.byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 233,155,0,0,0 // jmpq 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52604,7 +52648,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
.byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
.byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 2be63 <_sk_load_565_dst_hsw_lowp+0x147>
+ .byte 235,83 // jmp 2bf27 <_sk_load_565_dst_hsw_lowp+0x147>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
.byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
@@ -52618,13 +52662,13 @@ _sk_load_565_dst_hsw_lowp:
.byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
.byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
.byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,60,106,0,0 // vpbroadcastw 0x6a3c(%rip),%ymm5 # 328a8 <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
+ .byte 196,226,125,121,45,56,106,0,0 // vpbroadcastw 0x6a38(%rip),%ymm5 # 32968 <_sk_srcover_rgba_8888_sse2_lowp+0x828>
.byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
.byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
.byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,39,106,0,0 // vpbroadcastw 0x6a27(%rip),%ymm7 # 328aa <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
+ .byte 196,226,125,121,61,35,106,0,0 // vpbroadcastw 0x6a23(%rip),%ymm7 # 3296a <_sk_srcover_rgba_8888_sse2_lowp+0x82a>
.byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,28,106,0,0 // vpbroadcastw 0x6a1c(%rip),%ymm7 # 328ac <_sk_srcover_rgba_8888_sse2_lowp+0x830>
+ .byte 196,226,125,121,61,24,106,0,0 // vpbroadcastw 0x6a18(%rip),%ymm7 # 3296c <_sk_srcover_rgba_8888_sse2_lowp+0x82c>
.byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
.byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
.byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
@@ -52635,7 +52679,7 @@ _sk_load_565_dst_hsw_lowp:
.byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
.byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,234,105,0,0 // vpbroadcastw 0x69ea(%rip),%ymm7 # 328ae <_sk_srcover_rgba_8888_sse2_lowp+0x832>
+ .byte 196,226,125,121,61,230,105,0,0 // vpbroadcastw 0x69e6(%rip),%ymm7 # 3296e <_sk_srcover_rgba_8888_sse2_lowp+0x82e>
.byte 255,224 // jmpq *%rax
.byte 102,144 // xchg %ax,%ax
.byte 133,254 // test %edi,%esi
@@ -52686,10 +52730,10 @@ _sk_store_565_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 77,1,192 // add %r8,%r8
.byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,147,105,0,0 // vpbroadcastw 0x6993(%rip),%ymm8 # 328b0 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
+ .byte 196,98,125,121,5,143,105,0,0 // vpbroadcastw 0x698f(%rip),%ymm8 # 32970 <_sk_srcover_rgba_8888_sse2_lowp+0x830>
.byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
.byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,130,105,0,0 // vpbroadcastw 0x6982(%rip),%ymm9 # 328b2 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
+ .byte 196,98,125,121,13,126,105,0,0 // vpbroadcastw 0x697e(%rip),%ymm9 # 32972 <_sk_srcover_rgba_8888_sse2_lowp+0x832>
.byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -52699,31 +52743,31 @@ _sk_store_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 2bf72 <_sk_store_565_hsw_lowp+0x6e>
+ .byte 119,31 // ja 2c036 <_sk_store_565_hsw_lowp+0x6e>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c020 <_sk_store_565_hsw_lowp+0x11c>
+ .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2c0e4 <_sk_store_565_hsw_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,167,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
.byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,156,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 2c019 <_sk_store_565_hsw_lowp+0x115>
+ .byte 233,137,0,0,0 // jmpq 2c0dd <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
.byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 2c019 <_sk_store_565_hsw_lowp+0x115>
+ .byte 235,105 // jmp 2c0dd <_sk_store_565_hsw_lowp+0x115>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 2c013 <_sk_store_565_hsw_lowp+0x10f>
+ .byte 235,55 // jmp 2c0d7 <_sk_store_565_hsw_lowp+0x10f>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -52746,7 +52790,7 @@ _sk_store_565_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 120,255 // js 2c035 <_sk_store_565_hsw_lowp+0x131>
+ .byte 120,255 // js 2c0f9 <_sk_store_565_hsw_lowp+0x131>
.byte 255 // (bad)
.byte 255,112,255 // pushq -0x1(%rax)
.byte 255 // (bad)
@@ -52782,38 +52826,38 @@ _sk_load_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c098 <_sk_load_a8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c15c <_sk_load_a8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c15c <_sk_load_a8_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c220 <_sk_load_a8_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c147 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c20b <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c147 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c20b <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c147 <_sk_load_a8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c20b <_sk_load_a8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -52873,38 +52917,38 @@ _sk_load_a8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c1d4 <_sk_load_a8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c298 <_sk_load_a8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c298 <_sk_load_a8_dst_hsw_lowp+0x100>
+ .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 2c35c <_sk_load_a8_dst_hsw_lowp+0x100>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c283 <_sk_load_a8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c347 <_sk_load_a8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -52961,7 +53005,7 @@ _sk_store_a8_hsw_lowp:
.byte 76,15,175,193 // imul %rcx,%r8
.byte 76,3,0 // add (%rax),%r8
.byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,1,111,0,0 // vmovdqa 0x6f01(%rip),%xmm9 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 197,121,111,13,253,110,0,0 // vmovdqa 0x6efd(%rip),%xmm9 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
.byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
.byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
.byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
@@ -52969,28 +53013,28 @@ _sk_store_a8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 2c324 <_sk_store_a8_hsw_lowp+0x50>
+ .byte 119,28 // ja 2c3e8 <_sk_store_a8_hsw_lowp+0x50>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c3a4 <_sk_store_a8_hsw_lowp+0xd0>
+ .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 2c468 <_sk_store_a8_hsw_lowp+0xd0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,121 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,113 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
.byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,96 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
.byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
.byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
.byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 2c39d <_sk_store_a8_hsw_lowp+0xc9>
+ .byte 235,64 // jmp 2c461 <_sk_store_a8_hsw_lowp+0xc9>
.byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
.byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
.byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 2c397 <_sk_store_a8_hsw_lowp+0xc3>
+ .byte 235,32 // jmp 2c45b <_sk_store_a8_hsw_lowp+0xc3>
.byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
.byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
.byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
@@ -52999,7 +53043,7 @@ _sk_store_a8_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 2c3a5 <_sk_store_a8_hsw_lowp+0xd1>
+ .byte 119,255 // ja 2c469 <_sk_store_a8_hsw_lowp+0xd1>
.byte 255 // (bad)
.byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
.byte 255 // (bad)
@@ -53046,38 +53090,38 @@ _sk_load_g8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c41c <_sk_load_g8_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c4e0 <_sk_load_g8_hsw_lowp+0x3c>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c4e8 <_sk_load_g8_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c5ac <_sk_load_g8_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
.byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,200 // vmovd %eax,%xmm1
.byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c58f <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
.byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c58f <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
.byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 2c4cb <_sk_load_g8_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c58f <_sk_load_g8_hsw_lowp+0xeb>
.byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
.byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
.byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
@@ -53087,7 +53131,7 @@ _sk_load_g8_hsw_lowp:
.byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
.byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,217,99,0,0 // vpbroadcastw 0x63d9(%rip),%ymm3 # 328b4 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
+ .byte 196,226,125,121,29,213,99,0,0 // vpbroadcastw 0x63d5(%rip),%ymm3 # 32974 <_sk_srcover_rgba_8888_sse2_lowp+0x834>
.byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
.byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
.byte 255,224 // jmpq *%rax
@@ -53101,7 +53145,7 @@ _sk_load_g8_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c4f5 <_sk_load_g8_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c5b9 <_sk_load_g8_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53139,38 +53183,38 @@ _sk_load_g8_dst_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2c560 <_sk_load_g8_dst_hsw_lowp+0x3c>
+ .byte 119,37 // ja 2c624 <_sk_load_g8_dst_hsw_lowp+0x3c>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c62c <_sk_load_g8_dst_hsw_lowp+0x108>
+ .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 2c6f0 <_sk_load_g8_dst_hsw_lowp+0x108>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,175,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,164,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,249,110,232 // vmovd %eax,%xmm5
.byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 233,132,0,0,0 // jmpq 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
.byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,90 // jmp 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
.byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 2c60f <_sk_load_g8_dst_hsw_lowp+0xeb>
+ .byte 235,48 // jmp 2c6d3 <_sk_load_g8_dst_hsw_lowp+0xeb>
.byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
.byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
.byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
@@ -53180,7 +53224,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
.byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,151,98,0,0 // vpbroadcastw 0x6297(%rip),%ymm7 # 328b6 <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
+ .byte 196,226,125,121,61,147,98,0,0 // vpbroadcastw 0x6293(%rip),%ymm7 # 32976 <_sk_srcover_rgba_8888_sse2_lowp+0x836>
.byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
.byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
.byte 255,224 // jmpq *%rax
@@ -53194,7 +53238,7 @@ _sk_load_g8_dst_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2c639 <_sk_load_g8_dst_hsw_lowp+0x115>
+ .byte 123,255 // jnp 2c6fd <_sk_load_g8_dst_hsw_lowp+0x115>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -53224,12 +53268,12 @@ HIDDEN _sk_luminance_to_alpha_hsw_lowp
.globl _sk_luminance_to_alpha_hsw_lowp
FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,71,98,0,0 // vpbroadcastw 0x6247(%rip),%ymm3 # 328b8 <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
+ .byte 196,226,125,121,29,67,98,0,0 // vpbroadcastw 0x6243(%rip),%ymm3 # 32978 <_sk_srcover_rgba_8888_sse2_lowp+0x838>
.byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,60,98,0,0 // vpbroadcastw 0x623c(%rip),%ymm3 # 328ba <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
+ .byte 196,226,125,121,29,56,98,0,0 // vpbroadcastw 0x6238(%rip),%ymm3 # 3297a <_sk_srcover_rgba_8888_sse2_lowp+0x83a>
.byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
.byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,45,98,0,0 // vpbroadcastw 0x622d(%rip),%ymm1 # 328bc <_sk_srcover_rgba_8888_sse2_lowp+0x840>
+ .byte 196,226,125,121,13,41,98,0,0 // vpbroadcastw 0x6229(%rip),%ymm1 # 3297c <_sk_srcover_rgba_8888_sse2_lowp+0x83c>
.byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
.byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
.byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
@@ -53245,13 +53289,13 @@ FUNCTION(_sk_scale_1_float_hsw_lowp)
_sk_scale_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,122,98,0,0 // vmovss 0x627a(%rip),%xmm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,57,169,13,65,98,0,0 // vfmadd213ss 0x6241(%rip),%xmm8,%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,122,16,13,118,98,0,0 // vmovss 0x6276(%rip),%xmm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,57,169,13,61,98,0,0 // vfmadd213ss 0x623d(%rip),%xmm8,%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,224,97,0,0 // vpbroadcastw 0x61e0(%rip),%ymm9 # 328be <_sk_srcover_rgba_8888_sse2_lowp+0x842>
+ .byte 196,98,125,121,13,220,97,0,0 // vpbroadcastw 0x61dc(%rip),%ymm9 # 3297e <_sk_srcover_rgba_8888_sse2_lowp+0x83e>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53272,12 +53316,12 @@ FUNCTION(_sk_lerp_1_float_hsw_lowp)
_sk_lerp_1_float_hsw_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,16,98,0,0 // vmovss 0x6210(%rip),%xmm9 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 196,98,57,169,13,215,97,0,0 // vfmadd213ss 0x61d7(%rip),%xmm8,%xmm9 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 197,122,16,13,12,98,0,0 // vmovss 0x620c(%rip),%xmm9 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 196,98,57,169,13,211,97,0,0 // vfmadd213ss 0x61d3(%rip),%xmm8,%xmm9 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
.byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,124,97,0,0 // vpbroadcastw 0x617c(%rip),%ymm9 # 328c0 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
+ .byte 196,98,125,121,13,120,97,0,0 // vpbroadcastw 0x6178(%rip),%ymm9 # 32980 <_sk_srcover_rgba_8888_sse2_lowp+0x840>
.byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53314,38 +53358,38 @@ _sk_scale_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2c7e2 <_sk_scale_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2c8a6 <_sk_scale_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2c8e0 <_sk_scale_u8_hsw_lowp+0x13b>
+ .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 2c9a4 <_sk_scale_u8_hsw_lowp+0x13b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2c895 <_sk_scale_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2c959 <_sk_scale_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53355,7 +53399,7 @@ _sk_scale_u8_hsw_lowp:
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,27,96,0,0 // vpbroadcastw 0x601b(%rip),%ymm9 # 328c2 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
+ .byte 196,98,125,121,13,23,96,0,0 // vpbroadcastw 0x6017(%rip),%ymm9 # 32982 <_sk_srcover_rgba_8888_sse2_lowp+0x842>
.byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
@@ -53376,7 +53420,7 @@ _sk_scale_u8_hsw_lowp:
.byte 255,26 // lcall *(%rdx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02c8ec <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
+ .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c02c9b0 <_sk_srcover_rgba_8888_sse2_lowp+0x4bffa870>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,67,255 // incl -0x1(%rbx)
@@ -53415,38 +53459,38 @@ _sk_lerp_u8_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2c959 <_sk_lerp_u8_hsw_lowp+0x3d>
+ .byte 119,38 // ja 2ca1d <_sk_lerp_u8_hsw_lowp+0x3d>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2ca7c <_sk_lerp_u8_hsw_lowp+0x160>
+ .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 2cb40 <_sk_lerp_u8_hsw_lowp+0x160>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,179,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,168,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
.byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
.byte 197,121,110,200 // vmovd %eax,%xmm9
.byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 233,135,0,0,0 // jmpq 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
.byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,92 // jmp 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
.byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 2ca0c <_sk_lerp_u8_hsw_lowp+0xf0>
+ .byte 235,49 // jmp 2cad0 <_sk_lerp_u8_hsw_lowp+0xf0>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
.byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
@@ -53455,7 +53499,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
.byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
.byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,170,94,0,0 // vpbroadcastw 0x5eaa(%rip),%ymm9 # 328c4 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
+ .byte 196,98,125,121,13,166,94,0,0 // vpbroadcastw 0x5ea6(%rip),%ymm9 # 32984 <_sk_srcover_rgba_8888_sse2_lowp+0x844>
.byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
.byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53487,7 +53531,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2702ca87 <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
+ .byte 232,254,255,255,38 // callq 2702cb4b <_sk_srcover_rgba_8888_sse2_lowp+0x26ffaa0b>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,30 // lcall *(%rsi)
@@ -53508,7 +53552,7 @@ _sk_lerp_u8_hsw_lowp:
.byte 255,52,255 // pushq (%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2caa9 <_sk_lerp_u8_hsw_lowp+0x18d>
+ .byte 124,255 // jl 2cb6d <_sk_lerp_u8_hsw_lowp+0x18d>
.byte 255 // (bad)
.byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
@@ -53529,24 +53573,24 @@ _sk_scale_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2caf8 <_sk_scale_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2cbbc <_sk_scale_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2cce0 <_sk_scale_565_hsw_lowp+0x228>
+ .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 2cda4 <_sk_scale_565_hsw_lowp+0x228>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53556,7 +53600,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53568,7 +53612,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2cc04 <_sk_scale_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2ccc8 <_sk_scale_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53582,13 +53626,13 @@ _sk_scale_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,185,92,0,0 // vpbroadcastw 0x5cb9(%rip),%ymm9 # 328c6 <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
+ .byte 196,98,125,121,13,181,92,0,0 // vpbroadcastw 0x5cb5(%rip),%ymm9 # 32986 <_sk_srcover_rgba_8888_sse2_lowp+0x846>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,161,92,0,0 // vpbroadcastw 0x5ca1(%rip),%ymm11 # 328c8 <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
+ .byte 196,98,125,121,29,157,92,0,0 // vpbroadcastw 0x5c9d(%rip),%ymm11 # 32988 <_sk_srcover_rgba_8888_sse2_lowp+0x848>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,149,92,0,0 // vpbroadcastw 0x5c95(%rip),%ymm11 # 328ca <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
+ .byte 196,98,125,121,29,145,92,0,0 // vpbroadcastw 0x5c91(%rip),%ymm11 # 3298a <_sk_srcover_rgba_8888_sse2_lowp+0x84a>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53598,7 +53642,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,92,92,0,0 // vpbroadcastw 0x5c5c(%rip),%ymm11 # 328cc <_sk_srcover_rgba_8888_sse2_lowp+0x850>
+ .byte 196,98,125,121,29,88,92,0,0 // vpbroadcastw 0x5c58(%rip),%ymm11 # 3298c <_sk_srcover_rgba_8888_sse2_lowp+0x84c>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53608,7 +53652,7 @@ _sk_scale_565_hsw_lowp:
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,40,92,0,0 // vpbroadcastw 0x5c28(%rip),%ymm8 # 328ce <_sk_srcover_rgba_8888_sse2_lowp+0x852>
+ .byte 196,98,125,121,5,36,92,0,0 // vpbroadcastw 0x5c24(%rip),%ymm8 # 3298e <_sk_srcover_rgba_8888_sse2_lowp+0x84e>
.byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
.byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
.byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
@@ -53672,24 +53716,24 @@ _sk_lerp_565_hsw_lowp:
.byte 36,15 // and $0xf,%al
.byte 254,200 // dec %al
.byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 2cd5c <_sk_lerp_565_hsw_lowp+0x40>
+ .byte 119,38 // ja 2ce20 <_sk_lerp_565_hsw_lowp+0x40>
.byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2cf78 <_sk_lerp_565_hsw_lowp+0x25c>
+ .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 2d03c <_sk_lerp_565_hsw_lowp+0x25c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,12,1,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,1,1,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
.byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,221,0,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
@@ -53699,7 +53743,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
.byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
.byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 233,157,0,0,0 // jmpq 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53711,7 +53755,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
.byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
.byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 2ce68 <_sk_lerp_565_hsw_lowp+0x14c>
+ .byte 235,84 // jmp 2cf2c <_sk_lerp_565_hsw_lowp+0x14c>
.byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
.byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
.byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
@@ -53725,13 +53769,13 @@ _sk_lerp_565_hsw_lowp:
.byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
.byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
.byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,95,90,0,0 // vpbroadcastw 0x5a5f(%rip),%ymm9 # 328d0 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
+ .byte 196,98,125,121,13,91,90,0,0 // vpbroadcastw 0x5a5b(%rip),%ymm9 # 32990 <_sk_srcover_rgba_8888_sse2_lowp+0x850>
.byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
.byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
.byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,71,90,0,0 // vpbroadcastw 0x5a47(%rip),%ymm11 # 328d2 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
+ .byte 196,98,125,121,29,67,90,0,0 // vpbroadcastw 0x5a43(%rip),%ymm11 # 32992 <_sk_srcover_rgba_8888_sse2_lowp+0x852>
.byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,59,90,0,0 // vpbroadcastw 0x5a3b(%rip),%ymm11 # 328d4 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
+ .byte 196,98,125,121,29,55,90,0,0 // vpbroadcastw 0x5a37(%rip),%ymm11 # 32994 <_sk_srcover_rgba_8888_sse2_lowp+0x854>
.byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
.byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
.byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
@@ -53741,7 +53785,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
.byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
.byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,2,90,0,0 // vpbroadcastw 0x5a02(%rip),%ymm11 # 328d6 <_sk_srcover_rgba_8888_sse2_lowp+0x85a>
+ .byte 196,98,125,121,29,254,89,0,0 // vpbroadcastw 0x59fe(%rip),%ymm11 # 32996 <_sk_srcover_rgba_8888_sse2_lowp+0x856>
.byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
.byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
.byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
@@ -53750,7 +53794,7 @@ _sk_lerp_565_hsw_lowp:
.byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
.byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
.byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,210,89,0,0 // vpbroadcastw 0x59d2(%rip),%ymm12 # 328d8 <_sk_srcover_rgba_8888_sse2_lowp+0x85c>
+ .byte 196,98,125,121,37,206,89,0,0 // vpbroadcastw 0x59ce(%rip),%ymm12 # 32998 <_sk_srcover_rgba_8888_sse2_lowp+0x858>
.byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
.byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
.byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
@@ -53831,9 +53875,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,194 // movzbl %r10b,%r8d
.byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 2d010 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
+ .byte 119,51 // ja 2d0d4 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d2d4 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
+ .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 2d398 <_sk_srcover_rgba_8888_hsw_lowp+0x320>
.byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53843,10 +53887,10 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,224 // jmpq *%rax
.byte 196,193,121,110,41 // vmovd (%r9),%xmm5
.byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,22,1,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
.byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,6,1,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
@@ -53855,7 +53899,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
.byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
.byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,216,0,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53871,7 +53915,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
.byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
.byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 233,129,0,0,0 // jmpq 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
.byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53881,7 +53925,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
.byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
.byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 2d126 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
+ .byte 235,76 // jmp 2d1ea <_sk_srcover_rgba_8888_hsw_lowp+0x172>
.byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
.byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
.byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
@@ -53901,9 +53945,9 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
.byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
.byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,145,87,0,0 // vmovdqa 0x5791(%rip),%ymm8 # 328e0 <_sk_srcover_rgba_8888_sse2_lowp+0x864>
+ .byte 197,125,111,5,141,87,0,0 // vmovdqa 0x578d(%rip),%ymm8 # 329a0 <_sk_srcover_rgba_8888_sse2_lowp+0x860>
.byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,163,87,0,0 // vpbroadcastw 0x57a3(%rip),%ymm9 # 32900 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
+ .byte 196,98,125,121,13,159,87,0,0 // vpbroadcastw 0x579f(%rip),%ymm9 # 329c0 <_sk_srcover_rgba_8888_sse2_lowp+0x880>
.byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
.byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
.byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
@@ -53942,19 +53986,19 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
.byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
.byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 2d237 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d310 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
+ .byte 119,26 // ja 2d2fb <_sk_srcover_rgba_8888_hsw_lowp+0x283>
+ .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 2d3d4 <_sk_srcover_rgba_8888_hsw_lowp+0x35c>
.byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,151,0,0,0 // jmpq 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
.byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 233,135,0,0,0 // jmpq 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
.byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,121 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
@@ -53962,12 +54006,12 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
.byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
.byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,76 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
.byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
.byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
.byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 2d2ce <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
+ .byte 235,49 // jmp 2d392 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
.byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
.byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
@@ -54015,7 +54059,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255,6 // incl (%rsi)
.byte 254 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d314 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
+ .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f02d3d8 <_sk_srcover_rgba_8888_sse2_lowp+0x3effb298>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,55 // pushq (%rdi)
@@ -54033,7 +54077,7 @@ _sk_srcover_rgba_8888_hsw_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 121,255 // jns 2d335 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
+ .byte 121,255 // jns 2d3f9 <_sk_srcover_rgba_8888_hsw_lowp+0x381>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -54066,13 +54110,13 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2d402 <_sk_start_pipeline_sse41_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2d4c6 <_sk_start_pipeline_sse41_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2d3d0 <_sk_start_pipeline_sse41_lowp+0x84>
+ .byte 119,59 // ja 2d494 <_sk_start_pipeline_sse41_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -54091,10 +54135,10 @@ _sk_start_pipeline_sse41_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2d399 <_sk_start_pipeline_sse41_lowp+0x4d>
+ .byte 118,201 // jbe 2d45d <_sk_start_pipeline_sse41_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2d3f9 <_sk_start_pipeline_sse41_lowp+0xad>
+ .byte 116,33 // je 2d4bd <_sk_start_pipeline_sse41_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54108,7 +54152,7 @@ _sk_start_pipeline_sse41_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2d38b <_sk_start_pipeline_sse41_lowp+0x3f>
+ .byte 117,137 // jne 2d44f <_sk_start_pipeline_sse41_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -54151,7 +54195,7 @@ HIDDEN _sk_black_color_sse41_lowp
FUNCTION(_sk_black_color_sse41_lowp)
_sk_black_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,59,86,0,0 // movaps 0x563b(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,55,86,0,0 // movaps 0x5637(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -54162,7 +54206,7 @@ HIDDEN _sk_white_color_sse41_lowp
FUNCTION(_sk_white_color_sse41_lowp)
_sk_white_color_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,39,86,0,0 // movaps 0x5627(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,5,35,86,0,0 // movaps 0x5623(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -54173,10 +54217,10 @@ HIDDEN _sk_set_rgb_sse41_lowp
FUNCTION(_sk_set_rgb_sse41_lowp)
_sk_set_rgb_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,166,84,0,0 // movss 0x54a6(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,15,16,21,162,84,0,0 // movss 0x54a2(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,101,84,0,0 // movss 0x5465(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,16,5,97,84,0,0 // movss 0x5461(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -54203,7 +54247,7 @@ HIDDEN _sk_premul_sse41_lowp
FUNCTION(_sk_premul_sse41_lowp)
_sk_premul_sse41_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,153,85,0,0 // movdqa 0x5599(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,149,85,0,0 // movdqa 0x5595(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -54251,7 +54295,7 @@ HIDDEN _sk_invert_sse41_lowp
.globl _sk_invert_sse41_lowp
FUNCTION(_sk_invert_sse41_lowp)
_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,55,85,0,0 // movdqa 0x5537(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,51,85,0,0 // movdqa 0x5533(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54283,7 +54327,7 @@ FUNCTION(_sk_srcatop_sse41_lowp)
_sk_srcatop_sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,219,84,0,0 // movdqa 0x54db(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,29,215,84,0,0 // movdqa 0x54d7(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -54315,7 +54359,7 @@ FUNCTION(_sk_dstatop_sse41_lowp)
_sk_dstatop_sse41_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,91,84,0,0 // movdqa 0x545b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,87,84,0,0 // movdqa 0x5457(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -54344,7 +54388,7 @@ HIDDEN _sk_srcin_sse41_lowp
FUNCTION(_sk_srcin_sse41_lowp)
_sk_srcin_sse41_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,230,83,0,0 // movdqa 0x53e6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,226,83,0,0 // movdqa 0x53e2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -54365,7 +54409,7 @@ FUNCTION(_sk_dstin_sse41_lowp)
_sk_dstin_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,157,83,0,0 // movdqa 0x539d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,153,83,0,0 // movdqa 0x5399(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54386,7 +54430,7 @@ HIDDEN _sk_srcout_sse41_lowp
.globl _sk_srcout_sse41_lowp
FUNCTION(_sk_srcout_sse41_lowp)
_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,84,83,0,0 // movdqa 0x5354(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,80,83,0,0 // movdqa 0x5350(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54409,7 +54453,7 @@ HIDDEN _sk_dstout_sse41_lowp
FUNCTION(_sk_dstout_sse41_lowp)
_sk_dstout_sse41_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,253,82,0,0 // movdqa 0x52fd(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,249,82,0,0 // movdqa 0x52f9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -54434,7 +54478,7 @@ HIDDEN _sk_srcover_sse41_lowp
.globl _sk_srcover_sse41_lowp
FUNCTION(_sk_srcover_sse41_lowp)
_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,163,82,0,0 // movdqa 0x52a3(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,159,82,0,0 // movdqa 0x529f(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54463,7 +54507,7 @@ HIDDEN _sk_dstover_sse41_lowp
.globl _sk_dstover_sse41_lowp
FUNCTION(_sk_dstover_sse41_lowp)
_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,41,82,0,0 // movdqa 0x5229(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,37,82,0,0 // movdqa 0x5225(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -54490,7 +54534,7 @@ HIDDEN _sk_modulate_sse41_lowp
FUNCTION(_sk_modulate_sse41_lowp)
_sk_modulate_sse41_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,194,81,0,0 // movdqa 0x51c2(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,190,81,0,0 // movdqa 0x51be(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -54509,7 +54553,7 @@ HIDDEN _sk_multiply_sse41_lowp
.globl _sk_multiply_sse41_lowp
FUNCTION(_sk_multiply_sse41_lowp)
_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,129,81,0,0 // movdqa 0x5181(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,125,81,0,0 // movdqa 0x517d(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -54552,7 +54596,7 @@ HIDDEN _sk_plus__sse41_lowp
FUNCTION(_sk_plus__sse41_lowp)
_sk_plus__sse41_lowp:
.byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,198,80,0,0 // movdqa 0x50c6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,194,80,0,0 // movdqa 0x50c2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
@@ -54572,7 +54616,7 @@ _sk_screen_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,128,80,0,0 // movdqa 0x5080(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,124,80,0,0 // movdqa 0x507c(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54604,7 +54648,7 @@ HIDDEN _sk_xor__sse41_lowp
FUNCTION(_sk_xor__sse41_lowp)
_sk_xor__sse41_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,254,79,0,0 // movdqa 0x4ffe(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,250,79,0,0 // movdqa 0x4ffa(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -54647,7 +54691,7 @@ _sk_darken_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,69,79,0,0 // movdqa 0x4f45(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,65,79,0,0 // movdqa 0x4f41(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54691,7 +54735,7 @@ _sk_lighten_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,136,78,0,0 // movdqa 0x4e88(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,132,78,0,0 // movdqa 0x4e84(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -54735,10 +54779,10 @@ _sk_difference_sse41_lowp:
.byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,203,77,0,0 // movdqa 0x4dcb(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,199,77,0,0 // movdqa 0x4dc7(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,24,85,0,0 // movdqa 0x5518(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,21,20,85,0,0 // movdqa 0x5514(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
@@ -54780,10 +54824,10 @@ _sk_exclusion_sse41_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,7,77,0,0 // movdqa 0x4d07(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,3,77,0,0 // movdqa 0x4d03(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,84,84,0,0 // movdqa 0x5454(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,21,80,84,0,0 // movdqa 0x5450(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -54819,14 +54863,14 @@ _sk_hardlight_sse41_lowp:
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,98,76,0,0 // movdqa 0x4c62(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,94,76,0,0 // movdqa 0x4c5e(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
.byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
.byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
.byte 102,69,15,249,248 // psubw %xmm8,%xmm15
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,171,83,0,0 // movdqa 0x53ab(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,13,167,83,0,0 // movdqa 0x53a7(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,239,241 // pxor %xmm9,%xmm14
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -54873,7 +54917,7 @@ _sk_hardlight_sse41_lowp:
.byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,83,75,0,0 // movdqa 0x4b53(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,79,75,0,0 // movdqa 0x4b4f(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -54912,7 +54956,7 @@ FUNCTION(_sk_overlay_sse41_lowp)
_sk_overlay_sse41_lowp:
.byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,182,74,0,0 // movdqa 0x4ab6(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,178,74,0,0 // movdqa 0x4ab2(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,249,220 // psubw %xmm12,%xmm11
.byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
@@ -54924,7 +54968,7 @@ _sk_overlay_sse41_lowp:
.byte 102,68,15,249,252 // psubw %xmm4,%xmm15
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,231,81,0,0 // movdqa 0x51e7(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,13,227,81,0,0 // movdqa 0x51e3(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
.byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
@@ -54970,7 +55014,7 @@ _sk_overlay_sse41_lowp:
.byte 102,15,253,210 // paddw %xmm2,%xmm2
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,153,73,0,0 // movdqa 0x4999(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,149,73,0,0 // movdqa 0x4995(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -55013,49 +55057,49 @@ _sk_load_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e1c9 <_sk_load_8888_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e28d <_sk_load_8888_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e2a0 <_sk_load_8888_sse41_lowp+0x11b>
+ .byte 76,141,13,241,0,0,0 // lea 0xf1(%rip),%r9 # 2e364 <_sk_load_8888_sse41_lowp+0x11b>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
.byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 2e222 <_sk_load_8888_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e2e6 <_sk_load_8888_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,246,79,0,0 // movdqa 0x4ff6(%rip),%xmm0 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,5,242,79,0,0 // movdqa 0x4ff2(%rip),%xmm0 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,86,72,0,0 // movdqa 0x4856(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,82,72,0,0 // movdqa 0x4852(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,207,79,0,0 // movdqa 0x4fcf(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,21,203,79,0,0 // movdqa 0x4fcb(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,188,79,0,0 // movdqa 0x4fbc(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,184,79,0,0 // movdqa 0x4fb8(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
.byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
@@ -55071,7 +55115,7 @@ _sk_load_8888_sse41_lowp:
.byte 56,255 // cmp %bh,%bh
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2e2ad <_sk_load_8888_sse41_lowp+0x128>
+ .byte 124,255 // jl 2e371 <_sk_load_8888_sse41_lowp+0x128>
.byte 255 // (bad)
.byte 255,115,255 // pushq -0x1(%rbx)
.byte 255 // (bad)
@@ -55094,49 +55138,49 @@ _sk_load_8888_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e300 <_sk_load_8888_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e3c4 <_sk_load_8888_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e3d8 <_sk_load_8888_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e49c <_sk_load_8888_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2e359 <_sk_load_8888_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e41d <_sk_load_8888_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,191,78,0,0 // movdqa 0x4ebf(%rip),%xmm4 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,37,187,78,0,0 // movdqa 0x4ebb(%rip),%xmm4 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,31,71,0,0 // movdqa 0x471f(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,27,71,0,0 // movdqa 0x471b(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,152,78,0,0 // movdqa 0x4e98(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,21,148,78,0,0 // movdqa 0x4e94(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,133,78,0,0 // movdqa 0x4e85(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,129,78,0,0 // movdqa 0x4e81(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
.byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -55152,7 +55196,7 @@ _sk_load_8888_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e3e5 <_sk_load_8888_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e4a9 <_sk_load_8888_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55189,20 +55233,20 @@ _sk_store_8888_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e47a <_sk_store_8888_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e53e <_sk_store_8888_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e4c0 <_sk_store_8888_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e584 <_sk_store_8888_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e4b9 <_sk_store_8888_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e57d <_sk_store_8888_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55246,49 +55290,49 @@ _sk_load_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e520 <_sk_load_bgra_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e5e4 <_sk_load_bgra_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e5f8 <_sk_load_bgra_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e6bc <_sk_load_bgra_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
.byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 2e579 <_sk_load_bgra_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e63d <_sk_load_bgra_sse41_lowp+0x9d>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,159,76,0,0 // movdqa 0x4c9f(%rip),%xmm2 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,21,155,76,0,0 // movdqa 0x4c9b(%rip),%xmm2 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
.byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,255,68,0,0 // movdqa 0x44ff(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,251,68,0,0 // movdqa 0x44fb(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,120,76,0,0 // movdqa 0x4c78(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,21,116,76,0,0 // movdqa 0x4c74(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,101,76,0,0 // movdqa 0x4c65(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,97,76,0,0 // movdqa 0x4c61(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
.byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
@@ -55304,7 +55348,7 @@ _sk_load_bgra_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e605 <_sk_load_bgra_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e6c9 <_sk_load_bgra_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55326,49 +55370,49 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 2e658 <_sk_load_bgra_dst_sse41_lowp+0x44>
+ .byte 119,41 // ja 2e71c <_sk_load_bgra_dst_sse41_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e730 <_sk_load_bgra_dst_sse41_lowp+0x11c>
+ .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 2e7f4 <_sk_load_bgra_dst_sse41_lowp+0x11c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,89 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,74 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
.byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
.byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 2e6b1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
+ .byte 235,37 // jmp 2e775 <_sk_load_bgra_dst_sse41_lowp+0x9d>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,103,75,0,0 // movdqa 0x4b67(%rip),%xmm6 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,53,99,75,0,0 // movdqa 0x4b63(%rip),%xmm6 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,199,67,0,0 // movdqa 0x43c7(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,195,67,0,0 // movdqa 0x43c3(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,64,75,0,0 // movdqa 0x4b40(%rip),%xmm10 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,21,60,75,0,0 // movdqa 0x4b3c(%rip),%xmm10 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
.byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
.byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
.byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,45,75,0,0 // movdqa 0x4b2d(%rip),%xmm10 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,21,41,75,0,0 // movdqa 0x4b29(%rip),%xmm10 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
.byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
.byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
.byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
@@ -55384,7 +55428,7 @@ _sk_load_bgra_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 2e73d <_sk_load_bgra_dst_sse41_lowp+0x129>
+ .byte 123,255 // jnp 2e801 <_sk_load_bgra_dst_sse41_lowp+0x129>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55421,20 +55465,20 @@ _sk_store_bgra_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 2e7d2 <_sk_store_bgra_sse41_lowp+0x86>
+ .byte 119,27 // ja 2e896 <_sk_store_bgra_sse41_lowp+0x86>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e818 <_sk_store_bgra_sse41_lowp+0xcc>
+ .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 2e8dc <_sk_store_bgra_sse41_lowp+0xcc>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,63 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
.byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,48 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 2e811 <_sk_store_bgra_sse41_lowp+0xc5>
+ .byte 235,31 // jmp 2e8d5 <_sk_store_bgra_sse41_lowp+0xc5>
.byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
.byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
.byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
@@ -55478,23 +55522,23 @@ _sk_load_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2e870 <_sk_load_565_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2e934 <_sk_load_565_sse41_lowp+0x3c>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2e920 <_sk_load_565_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2e9e4 <_sk_load_565_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
.byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 2e8ba <_sk_load_565_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2e97e <_sk_load_565_sse41_lowp+0x86>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
.byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
@@ -55503,11 +55547,11 @@ _sk_load_565_sse41_lowp:
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,133,73,0,0 // pand 0x4985(%rip),%xmm3 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,29,129,73,0,0 // pand 0x4981(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,132,73,0,0 // pand 0x4984(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,15,111,21,140,73,0,0 // movdqa 0x498c(%rip),%xmm2 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,15,219,13,128,73,0,0 // pand 0x4980(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,15,111,21,136,73,0,0 // movdqa 0x4988(%rip),%xmm2 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -55520,7 +55564,7 @@ _sk_load_565_sse41_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,130,65,0,0 // movaps 0x4182(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,126,65,0,0 // movaps 0x417e(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55531,7 +55575,7 @@ _sk_load_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2e935 <_sk_load_565_sse41_lowp+0x101>
+ .byte 126,255 // jle 2e9f9 <_sk_load_565_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55550,23 +55594,23 @@ _sk_load_565_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2e978 <_sk_load_565_dst_sse41_lowp+0x3c>
+ .byte 119,34 // ja 2ea3c <_sk_load_565_dst_sse41_lowp+0x3c>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2ea28 <_sk_load_565_dst_sse41_lowp+0xec>
+ .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 2eaec <_sk_load_565_dst_sse41_lowp+0xec>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,74 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,66 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
.byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 2e9c2 <_sk_load_565_dst_sse41_lowp+0x86>
+ .byte 235,40 // jmp 2ea86 <_sk_load_565_dst_sse41_lowp+0x86>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
.byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
@@ -55575,11 +55619,11 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,125,72,0,0 // pand 0x487d(%rip),%xmm7 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,61,121,72,0,0 // pand 0x4879(%rip),%xmm7 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,124,72,0,0 // pand 0x487c(%rip),%xmm5 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,15,111,53,132,72,0,0 // movdqa 0x4884(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,15,219,45,120,72,0,0 // pand 0x4878(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,15,111,53,128,72,0,0 // movdqa 0x4880(%rip),%xmm6 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -55592,7 +55636,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,122,64,0,0 // movaps 0x407a(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,118,64,0,0 // movaps 0x4076(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 255,224 // jmpq *%rax
.byte 69,255 // rex.RB (bad)
.byte 255 // (bad)
@@ -55603,7 +55647,7 @@ _sk_load_565_dst_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 126,255 // jle 2ea3d <_sk_load_565_dst_sse41_lowp+0x101>
+ .byte 126,255 // jle 2eb01 <_sk_load_565_dst_sse41_lowp+0x101>
.byte 255 // (bad)
.byte 255,114,255 // pushq -0x1(%rdx)
.byte 255 // (bad)
@@ -55620,10 +55664,10 @@ _sk_store_565_sse41_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,24,72,0,0 // pand 0x4818(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,5,20,72,0,0 // pand 0x4814(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,20,72,0,0 // pand 0x4814(%rip),%xmm9 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 102,68,15,219,13,16,72,0,0 // pand 0x4810(%rip),%xmm9 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -55632,19 +55676,19 @@ _sk_store_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2eab8 <_sk_store_565_sse41_lowp+0x74>
+ .byte 119,29 // ja 2eb7c <_sk_store_565_sse41_lowp+0x74>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2eaf8 <_sk_store_565_sse41_lowp+0xb4>
+ .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 2ebbc <_sk_store_565_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,58 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,50 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 2eaf2 <_sk_store_565_sse41_lowp+0xae>
+ .byte 235,33 // jmp 2ebb6 <_sk_store_565_sse41_lowp+0xae>
.byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
.byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
@@ -55664,7 +55708,7 @@ _sk_store_565_sse41_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 235,255 // jmp 2eb09 <_sk_store_565_sse41_lowp+0xc5>
+ .byte 235,255 // jmp 2ebcd <_sk_store_565_sse41_lowp+0xc5>
.byte 255 // (bad)
.byte 255,226 // jmpq *%rdx
.byte 255 // (bad)
@@ -55686,18 +55730,18 @@ _sk_load_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2eb4d <_sk_load_a8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ec11 <_sk_load_a8_sse41_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ebc8 <_sk_load_a8_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ec8c <_sk_load_a8_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -55705,7 +55749,7 @@ _sk_load_a8_sse41_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 2ebb1 <_sk_load_a8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ec75 <_sk_load_a8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -55716,13 +55760,13 @@ _sk_load_a8_sse41_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
.byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,231,62,0,0 // pand 0x3ee7(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,29,227,62,0,0 // pand 0x3ee3(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ebc9 <_sk_load_a8_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ec8d <_sk_load_a8_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55753,18 +55797,18 @@ _sk_load_a8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ec1d <_sk_load_a8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ece1 <_sk_load_a8_dst_sse41_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ec98 <_sk_load_a8_dst_sse41_lowp+0xb4>
+ .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 2ed5c <_sk_load_a8_dst_sse41_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -55772,7 +55816,7 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 2ec81 <_sk_load_a8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2ed45 <_sk_load_a8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -55783,13 +55827,13 @@ _sk_load_a8_dst_sse41_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
.byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,23,62,0,0 // pand 0x3e17(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,61,19,62,0,0 // pand 0x3e13(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 2ec99 <_sk_load_a8_dst_sse41_lowp+0xb5>
+ .byte 122,255 // jp 2ed5d <_sk_load_a8_dst_sse41_lowp+0xb5>
.byte 255 // (bad)
.byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
.byte 255 // (bad)
@@ -55820,28 +55864,28 @@ _sk_store_a8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 2ece8 <_sk_store_a8_sse41_lowp+0x34>
+ .byte 119,29 // ja 2edac <_sk_store_a8_sse41_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ed58 <_sk_store_a8_sse41_lowp+0xa4>
+ .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 2ee1c <_sk_store_a8_sse41_lowp+0xa4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,105 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,249,68,0,0 // pshufb 0x44f9(%rip),%xmm8 # 331f0 <_sk_srcover_rgba_8888_sse2_lowp+0x1174>
+ .byte 102,68,15,56,0,5,245,68,0,0 // pshufb 0x44f5(%rip),%xmm8 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1170>
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,82 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,153,61,0,0 // pshufb 0x3d99(%rip),%xmm8 # 32ab0 <_sk_srcover_rgba_8888_sse2_lowp+0xa34>
+ .byte 102,68,15,56,0,5,149,61,0,0 // pshufb 0x3d95(%rip),%xmm8 # 32b70 <_sk_srcover_rgba_8888_sse2_lowp+0xa30>
.byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 2ed51 <_sk_store_a8_sse41_lowp+0x9d>
+ .byte 235,48 // jmp 2ee15 <_sk_store_a8_sse41_lowp+0x9d>
.byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
.byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,117,61,0,0 // pshufb 0x3d75(%rip),%xmm8 # 32ac0 <_sk_srcover_rgba_8888_sse2_lowp+0xa44>
+ .byte 102,68,15,56,0,5,113,61,0,0 // pshufb 0x3d71(%rip),%xmm8 # 32b80 <_sk_srcover_rgba_8888_sse2_lowp+0xa40>
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
@@ -55877,18 +55921,18 @@ _sk_load_g8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2edad <_sk_load_g8_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ee71 <_sk_load_g8_sse41_lowp+0x39>
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2ee2c <_sk_load_g8_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2eef0 <_sk_load_g8_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
.byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
@@ -55896,7 +55940,7 @@ _sk_load_g8_sse41_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 2ee11 <_sk_load_g8_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2eed5 <_sk_load_g8_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
@@ -55907,13 +55951,13 @@ _sk_load_g8_sse41_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
.byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,135,60,0,0 // pand 0x3c87(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,5,131,60,0,0 // pand 0x3c83(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,126,60,0,0 // movaps 0x3c7e(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,122,60,0,0 // movaps 0x3c7a(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2ee2d <_sk_load_g8_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2eef1 <_sk_load_g8_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -55942,18 +55986,18 @@ _sk_load_g8_dst_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 2ee81 <_sk_load_g8_dst_sse41_lowp+0x39>
+ .byte 119,34 // ja 2ef45 <_sk_load_g8_dst_sse41_lowp+0x39>
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2ef00 <_sk_load_g8_dst_sse41_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 2efc4 <_sk_load_g8_dst_sse41_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,100 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,91 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
@@ -55961,7 +56005,7 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 2eee5 <_sk_load_g8_dst_sse41_lowp+0x9d>
+ .byte 235,54 // jmp 2efa9 <_sk_load_g8_dst_sse41_lowp+0x9d>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,237 // pxor %xmm5,%xmm5
.byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
@@ -55972,13 +56016,13 @@ _sk_load_g8_dst_sse41_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
.byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,179,59,0,0 // pand 0x3bb3(%rip),%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,37,175,59,0,0 // pand 0x3baf(%rip),%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,170,59,0,0 // movaps 0x3baa(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,166,59,0,0 // movaps 0x3ba6(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 2ef01 <_sk_load_g8_dst_sse41_lowp+0xb9>
+ .byte 118,255 // jbe 2efc5 <_sk_load_g8_dst_sse41_lowp+0xb9>
.byte 255 // (bad)
.byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
.byte 255 // (bad)
@@ -56000,10 +56044,10 @@ HIDDEN _sk_luminance_to_alpha_sse41_lowp
FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
_sk_luminance_to_alpha_sse41_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,120,67,0,0 // pmullw 0x4378(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
- .byte 102,15,213,13,128,67,0,0 // pmullw 0x4380(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
+ .byte 102,15,213,5,116,67,0,0 // pmullw 0x4374(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
+ .byte 102,15,213,13,124,67,0,0 // pmullw 0x437c(%rip),%xmm1 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,132,67,0,0 // pmullw 0x4384(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,29,128,67,0,0 // pmullw 0x4380(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -56018,14 +56062,14 @@ FUNCTION(_sk_scale_1_float_sse41_lowp)
_sk_scale_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,207,57,0,0 // mulss 0x39cf(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 243,68,15,88,5,150,57,0,0 // addss 0x3996(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,5,203,57,0,0 // mulss 0x39cb(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,68,15,88,5,146,57,0,0 // addss 0x3992(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,14,59,0,0 // movdqa 0x3b0e(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,10,59,0,0 // movdqa 0x3b0a(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56046,13 +56090,13 @@ FUNCTION(_sk_lerp_1_float_sse41_lowp)
_sk_lerp_1_float_sse41_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,87,57,0,0 // mulss 0x3957(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 243,68,15,88,5,30,57,0,0 // addss 0x391e(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,5,83,57,0,0 // mulss 0x3953(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,68,15,88,5,26,57,0,0 // addss 0x391a(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,155,58,0,0 // movdqa 0x3a9b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,151,58,0,0 // movdqa 0x3a97(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56092,18 +56136,18 @@ _sk_scale_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f0bc <_sk_scale_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f180 <_sk_scale_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f184 <_sk_scale_u8_sse41_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 2f248 <_sk_scale_u8_sse41_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56111,7 +56155,7 @@ _sk_scale_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f12b <_sk_scale_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f1ef <_sk_scale_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56122,9 +56166,9 @@ _sk_scale_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,108,57,0,0 // pand 0x396c(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,104,57,0,0 // pand 0x3968(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,94,57,0,0 // movdqa 0x395e(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,90,57,0,0 // movdqa 0x395a(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -56149,7 +56193,7 @@ _sk_scale_u8_sse41_lowp:
.byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 124,255 // jl 2f199 <_sk_scale_u8_sse41_lowp+0x118>
+ .byte 124,255 // jl 2f25d <_sk_scale_u8_sse41_lowp+0x118>
.byte 255 // (bad)
.byte 255,107,255 // ljmp *-0x1(%rbx)
.byte 255 // (bad)
@@ -56167,18 +56211,18 @@ _sk_lerp_u8_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 2f1db <_sk_lerp_u8_sse41_lowp+0x3b>
+ .byte 119,36 // ja 2f29f <_sk_lerp_u8_sse41_lowp+0x3b>
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 2f3a8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,111 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,102 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
@@ -56186,7 +56230,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 2f24a <_sk_lerp_u8_sse41_lowp+0xaa>
+ .byte 235,60 // jmp 2f30e <_sk_lerp_u8_sse41_lowp+0xaa>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,201 // pxor %xmm9,%xmm9
.byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
@@ -56197,8 +56241,8 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
.byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
.byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,77,56,0,0 // pand 0x384d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 102,68,15,111,21,68,56,0,0 // movdqa 0x3844(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,73,56,0,0 // pand 0x3849(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,64,56,0,0 // movdqa 0x3840(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -56228,7 +56272,7 @@ _sk_lerp_u8_sse41_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 235,254 // jmp 2f2e4 <_sk_lerp_u8_sse41_lowp+0x144>
+ .byte 235,254 // jmp 2f3a8 <_sk_lerp_u8_sse41_lowp+0x144>
.byte 255 // (bad)
.byte 255,17 // callq *(%rcx)
.byte 255 // (bad)
@@ -56262,23 +56306,23 @@ _sk_scale_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f342 <_sk_scale_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f406 <_sk_scale_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f49c <_sk_scale_565_sse41_lowp+0x19c>
+ .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 2f560 <_sk_scale_565_sse41_lowp+0x19c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f38e <_sk_scale_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f452 <_sk_scale_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56287,11 +56331,11 @@ _sk_scale_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,176,62,0,0 // pand 0x3eb0(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,5,172,62,0,0 // pand 0x3eac(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,172,62,0,0 // pand 0x3eac(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,68,15,111,29,179,62,0,0 // movdqa 0x3eb3(%rip),%xmm11 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,68,15,219,21,168,62,0,0 // pand 0x3ea8(%rip),%xmm10 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,68,15,111,29,175,62,0,0 // movdqa 0x3eaf(%rip),%xmm11 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56303,7 +56347,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,17,62,0,0 // movdqa 0x3e11(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,111,5,13,62,0,0 // movdqa 0x3e0d(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56316,7 +56360,7 @@ _sk_scale_565_sse41_lowp:
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
.byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,89,54,0,0 // movdqa 0x3659(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,5,85,54,0,0 // movdqa 0x3655(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
.byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
@@ -56370,23 +56414,23 @@ _sk_lerp_565_sse41_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 2f4fa <_sk_lerp_565_sse41_lowp+0x42>
+ .byte 119,35 // ja 2f5be <_sk_lerp_565_sse41_lowp+0x42>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f6a0 <_sk_lerp_565_sse41_lowp+0x1e8>
+ .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 2f764 <_sk_lerp_565_sse41_lowp+0x1e8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,76 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,68 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
.byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 2f546 <_sk_lerp_565_sse41_lowp+0x8e>
+ .byte 235,41 // jmp 2f60a <_sk_lerp_565_sse41_lowp+0x8e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -56395,11 +56439,11 @@ _sk_lerp_565_sse41_lowp:
.byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,248,60,0,0 // pand 0x3cf8(%rip),%xmm0 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,5,244,60,0,0 // pand 0x3cf4(%rip),%xmm0 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,244,60,0,0 // pand 0x3cf4(%rip),%xmm10 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,68,15,111,29,251,60,0,0 // movdqa 0x3cfb(%rip),%xmm11 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,68,15,219,21,240,60,0,0 // pand 0x3cf0(%rip),%xmm10 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,68,15,111,29,247,60,0,0 // movdqa 0x3cf7(%rip),%xmm11 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,69,15,219,217 // pand %xmm9,%xmm11
.byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
.byte 102,68,15,235,200 // por %xmm0,%xmm9
@@ -56411,7 +56455,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,15,113,240,3 // psllw $0x3,%xmm0
.byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
.byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,89,60,0,0 // movdqa 0x3c59(%rip),%xmm0 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,111,5,85,60,0,0 // movdqa 0x3c55(%rip),%xmm0 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
.byte 102,68,15,239,224 // pxor %xmm0,%xmm12
.byte 102,15,239,199 // pxor %xmm7,%xmm0
@@ -56423,7 +56467,7 @@ _sk_lerp_565_sse41_lowp:
.byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
.byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
.byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,165,52,0,0 // movdqa 0x34a5(%rip),%xmm13 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,45,161,52,0,0 // movdqa 0x34a1(%rip),%xmm13 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
.byte 102,65,15,239,197 // pxor %xmm13,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -56487,48 +56531,48 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 2f707 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
+ .byte 119,38 // ja 2f7cb <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2f904 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
+ .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 2f9c8 <_sk_srcover_rgba_8888_sse41_lowp+0x248>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,89 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,74 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
.byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 2f760 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
+ .byte 235,37 // jmp 2f824 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
.byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
.byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,184,58,0,0 // movdqa 0x3ab8(%rip),%xmm4 # 33220 <_sk_srcover_rgba_8888_sse2_lowp+0x11a4>
+ .byte 102,15,111,37,180,58,0,0 // movdqa 0x3ab4(%rip),%xmm4 # 332e0 <_sk_srcover_rgba_8888_sse2_lowp+0x11a0>
.byte 102,15,111,238 // movdqa %xmm6,%xmm5
.byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
.byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
.byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
.byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,24,51,0,0 // movdqa 0x3318(%rip),%xmm12 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,37,20,51,0,0 // movdqa 0x3314(%rip),%xmm12 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,145,58,0,0 // movdqa 0x3a91(%rip),%xmm9 # 33230 <_sk_srcover_rgba_8888_sse2_lowp+0x11b4>
+ .byte 102,68,15,111,13,141,58,0,0 // movdqa 0x3a8d(%rip),%xmm9 # 332f0 <_sk_srcover_rgba_8888_sse2_lowp+0x11b0>
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
.byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
.byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,126,58,0,0 // movdqa 0x3a7e(%rip),%xmm9 # 33240 <_sk_srcover_rgba_8888_sse2_lowp+0x11c4>
+ .byte 102,68,15,111,13,122,58,0,0 // movdqa 0x3a7a(%rip),%xmm9 # 33300 <_sk_srcover_rgba_8888_sse2_lowp+0x11c0>
.byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
.byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
.byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
@@ -56570,19 +56614,19 @@ _sk_srcover_rgba_8888_sse41_lowp:
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 102,65,15,235,196 // por %xmm12,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 2f8aa <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2f920 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
+ .byte 119,24 // ja 2f96e <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
+ .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 2f9e4 <_sk_srcover_rgba_8888_sse41_lowp+0x264>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,63 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
.byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,48 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
.byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 2f8e9 <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
+ .byte 235,31 // jmp 2f9ad <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
.byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
.byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
.byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
@@ -56647,13 +56691,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,137,246 // mov %rsi,%r14
.byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
.byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 2f9f2 <_sk_start_pipeline_sse2_lowp+0xb6>
+ .byte 15,131,131,0,0,0 // jae 2fab6 <_sk_start_pipeline_sse2_lowp+0xb6>
.byte 72,139,69,208 // mov -0x30(%rbp),%rax
.byte 72,141,64,8 // lea 0x8(%rax),%rax
.byte 72,137,69,200 // mov %rax,-0x38(%rbp)
.byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
.byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 2f9c0 <_sk_start_pipeline_sse2_lowp+0x84>
+ .byte 119,59 // ja 2fa84 <_sk_start_pipeline_sse2_lowp+0x84>
.byte 76,139,101,208 // mov -0x30(%rbp),%r12
.byte 49,255 // xor %edi,%edi
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -56672,10 +56716,10 @@ _sk_start_pipeline_sse2_lowp:
.byte 73,131,196,16 // add $0x10,%r12
.byte 77,57,252 // cmp %r15,%r12
.byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2f989 <_sk_start_pipeline_sse2_lowp+0x4d>
+ .byte 118,201 // jbe 2fa4d <_sk_start_pipeline_sse2_lowp+0x4d>
.byte 76,137,255 // mov %r15,%rdi
.byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 2f9e9 <_sk_start_pipeline_sse2_lowp+0xad>
+ .byte 116,33 // je 2faad <_sk_start_pipeline_sse2_lowp+0xad>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56689,7 +56733,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 65,255,213 // callq *%r13
.byte 72,255,195 // inc %rbx
.byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2f97b <_sk_start_pipeline_sse2_lowp+0x3f>
+ .byte 117,137 // jne 2fa3f <_sk_start_pipeline_sse2_lowp+0x3f>
.byte 72,131,196,24 // add $0x18,%rsp
.byte 91 // pop %rbx
.byte 65,92 // pop %r12
@@ -56732,7 +56776,7 @@ HIDDEN _sk_black_color_sse2_lowp
FUNCTION(_sk_black_color_sse2_lowp)
_sk_black_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,75,48,0,0 // movaps 0x304b(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,71,48,0,0 // movaps 0x3047(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -56743,7 +56787,7 @@ HIDDEN _sk_white_color_sse2_lowp
FUNCTION(_sk_white_color_sse2_lowp)
_sk_white_color_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,55,48,0,0 // movaps 0x3037(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,5,51,48,0,0 // movaps 0x3033(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -56754,10 +56798,10 @@ HIDDEN _sk_set_rgb_sse2_lowp
FUNCTION(_sk_set_rgb_sse2_lowp)
_sk_set_rgb_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,182,46,0,0 // movss 0x2eb6(%rip),%xmm2 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
+ .byte 243,15,16,21,178,46,0,0 // movss 0x2eb2(%rip),%xmm2 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
.byte 243,15,16,0 // movss (%rax),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,117,46,0,0 // movss 0x2e75(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,16,5,113,46,0,0 // movss 0x2e71(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,88,192 // addss %xmm8,%xmm0
.byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
.byte 102,65,15,110,192 // movd %r8d,%xmm0
@@ -56784,7 +56828,7 @@ HIDDEN _sk_premul_sse2_lowp
FUNCTION(_sk_premul_sse2_lowp)
_sk_premul_sse2_lowp:
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,169,47,0,0 // movdqa 0x2fa9(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,165,47,0,0 // movdqa 0x2fa5(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -56832,7 +56876,7 @@ HIDDEN _sk_invert_sse2_lowp
.globl _sk_invert_sse2_lowp
FUNCTION(_sk_invert_sse2_lowp)
_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,71,47,0,0 // movdqa 0x2f47(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,67,47,0,0 // movdqa 0x2f43(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,200 // psubw %xmm0,%xmm9
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -56864,7 +56908,7 @@ FUNCTION(_sk_srcatop_sse2_lowp)
_sk_srcatop_sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,235,46,0,0 // movdqa 0x2eeb(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,29,231,46,0,0 // movdqa 0x2ee7(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
.byte 102,69,15,249,200 // psubw %xmm8,%xmm9
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
@@ -56896,7 +56940,7 @@ FUNCTION(_sk_dstatop_sse2_lowp)
_sk_dstatop_sse2_lowp:
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
.byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,107,46,0,0 // movdqa 0x2e6b(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,103,46,0,0 // movdqa 0x2e67(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,253,193 // paddw %xmm9,%xmm8
.byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
@@ -56925,7 +56969,7 @@ HIDDEN _sk_srcin_sse2_lowp
FUNCTION(_sk_srcin_sse2_lowp)
_sk_srcin_sse2_lowp:
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,246,45,0,0 // movdqa 0x2df6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,242,45,0,0 // movdqa 0x2df2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,207 // pmullw %xmm7,%xmm1
@@ -56946,7 +56990,7 @@ FUNCTION(_sk_dstin_sse2_lowp)
_sk_dstin_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,173,45,0,0 // movdqa 0x2dad(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,169,45,0,0 // movdqa 0x2da9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -56967,7 +57011,7 @@ HIDDEN _sk_srcout_sse2_lowp
.globl _sk_srcout_sse2_lowp
FUNCTION(_sk_srcout_sse2_lowp)
_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,100,45,0,0 // movdqa 0x2d64(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,96,45,0,0 // movdqa 0x2d60(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -56990,7 +57034,7 @@ HIDDEN _sk_dstout_sse2_lowp
FUNCTION(_sk_dstout_sse2_lowp)
_sk_dstout_sse2_lowp:
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,13,45,0,0 // movdqa 0x2d0d(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,9,45,0,0 // movdqa 0x2d09(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -57015,7 +57059,7 @@ HIDDEN _sk_srcover_sse2_lowp
.globl _sk_srcover_sse2_lowp
FUNCTION(_sk_srcover_sse2_lowp)
_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,179,44,0,0 // movdqa 0x2cb3(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,175,44,0,0 // movdqa 0x2caf(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57044,7 +57088,7 @@ HIDDEN _sk_dstover_sse2_lowp
.globl _sk_dstover_sse2_lowp
FUNCTION(_sk_dstover_sse2_lowp)
_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,57,44,0,0 // movdqa 0x2c39(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,53,44,0,0 // movdqa 0x2c35(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,68,15,249,207 // psubw %xmm7,%xmm9
.byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
@@ -57071,7 +57115,7 @@ HIDDEN _sk_modulate_sse2_lowp
FUNCTION(_sk_modulate_sse2_lowp)
_sk_modulate_sse2_lowp:
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,210,43,0,0 // movdqa 0x2bd2(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,206,43,0,0 // movdqa 0x2bce(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,192 // paddw %xmm8,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
@@ -57090,7 +57134,7 @@ HIDDEN _sk_multiply_sse2_lowp
.globl _sk_multiply_sse2_lowp
FUNCTION(_sk_multiply_sse2_lowp)
_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,145,43,0,0 // movdqa 0x2b91(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,141,43,0,0 // movdqa 0x2b8d(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
.byte 102,68,15,249,195 // psubw %xmm3,%xmm8
.byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
@@ -57135,12 +57179,12 @@ _sk_plus__sse2_lowp:
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,253,50,0,0 // movdqa 0x32fd(%rip),%xmm10 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1254>
+ .byte 102,68,15,111,21,249,50,0,0 // movdqa 0x32f9(%rip),%xmm10 # 33390 <_sk_srcover_rgba_8888_sse2_lowp+0x1250>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
.byte 102,69,15,239,228 // pxor %xmm12,%xmm12
.byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,177,42,0,0 // movdqa 0x2ab1(%rip),%xmm11 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,29,173,42,0,0 // movdqa 0x2aad(%rip),%xmm11 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 102,65,15,223,195 // pandn %xmm11,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
@@ -57179,7 +57223,7 @@ _sk_screen_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,17,42,0,0 // movdqa 0x2a11(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,13,42,0,0 // movdqa 0x2a0d(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57211,7 +57255,7 @@ HIDDEN _sk_xor__sse2_lowp
FUNCTION(_sk_xor__sse2_lowp)
_sk_xor__sse2_lowp:
.byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,143,41,0,0 // movdqa 0x298f(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,139,41,0,0 // movdqa 0x298b(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
.byte 102,68,15,249,215 // psubw %xmm7,%xmm10
.byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
@@ -57253,7 +57297,7 @@ _sk_darken_sse2_lowp:
.byte 102,65,15,253,194 // paddw %xmm10,%xmm0
.byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
.byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,74,48,0,0 // movdqa 0x304a(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,13,70,48,0,0 // movdqa 0x3046(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
@@ -57262,7 +57306,7 @@ _sk_darken_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,169,40,0,0 // movdqa 0x28a9(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,165,40,0,0 // movdqa 0x28a5(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57318,7 +57362,7 @@ _sk_lighten_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,33,47,0,0 // movdqa 0x2f21(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,13,29,47,0,0 // movdqa 0x2f1d(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57327,7 +57371,7 @@ _sk_lighten_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,128,39,0,0 // movdqa 0x2780(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,124,39,0,0 // movdqa 0x277c(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -57383,7 +57427,7 @@ _sk_difference_sse2_lowp:
.byte 102,65,15,253,196 // paddw %xmm12,%xmm0
.byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
.byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,248,45,0,0 // movdqa 0x2df8(%rip),%xmm9 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,13,244,45,0,0 // movdqa 0x2df4(%rip),%xmm9 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
.byte 102,69,15,239,217 // pxor %xmm9,%xmm11
.byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
@@ -57392,10 +57436,10 @@ _sk_difference_sse2_lowp:
.byte 102,68,15,219,225 // pand %xmm1,%xmm12
.byte 102,65,15,223,202 // pandn %xmm10,%xmm1
.byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,87,38,0,0 // movdqa 0x2657(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,21,83,38,0,0 // movdqa 0x2653(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,202 // paddw %xmm10,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,164,45,0,0 // movdqa 0x2da4(%rip),%xmm11 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,29,160,45,0,0 // movdqa 0x2da0(%rip),%xmm11 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
.byte 102,65,15,219,203 // pand %xmm11,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
@@ -57450,10 +57494,10 @@ _sk_exclusion_sse2_lowp:
.byte 102,15,111,196 // movdqa %xmm4,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,84,37,0,0 // movdqa 0x2554(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,80,37,0,0 // movdqa 0x2550(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,201 // paddw %xmm9,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,161,44,0,0 // movdqa 0x2ca1(%rip),%xmm10 # 33200 <_sk_srcover_rgba_8888_sse2_lowp+0x1184>
+ .byte 102,68,15,111,21,157,44,0,0 // movdqa 0x2c9d(%rip),%xmm10 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1180>
.byte 102,65,15,219,202 // pand %xmm10,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
@@ -57489,7 +57533,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,176,36,0,0 // movdqa 0x24b0(%rip),%xmm2 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,21,172,36,0,0 // movdqa 0x24ac(%rip),%xmm2 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
.byte 102,68,15,249,231 // psubw %xmm7,%xmm12
.byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
@@ -57502,7 +57546,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
.byte 102,69,15,249,241 // psubw %xmm9,%xmm14
.byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,220,43,0,0 // movdqa 0x2bdc(%rip),%xmm2 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,111,21,216,43,0,0 // movdqa 0x2bd8(%rip),%xmm2 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,15,111,199 // movdqa %xmm7,%xmm0
.byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
.byte 102,15,111,231 // movdqa %xmm7,%xmm4
@@ -57521,7 +57565,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,232 // pand %xmm0,%xmm13
.byte 102,65,15,223,193 // pandn %xmm9,%xmm0
.byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,15,36,0,0 // paddw 0x240f(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,253,5,11,36,0,0 // paddw 0x240b(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,199 // paddw %xmm15,%xmm0
.byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
@@ -57544,7 +57588,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,65,15,219,249 // pand %xmm9,%xmm7
.byte 102,68,15,223,201 // pandn %xmm1,%xmm9
.byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,154,35,0,0 // paddw 0x239a(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,253,13,150,35,0,0 // paddw 0x2396(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,253,205 // paddw %xmm13,%xmm9
.byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
.byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
@@ -57566,7 +57610,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,65,15,223,208 // pandn %xmm8,%xmm2
.byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,42,35,0,0 // movdqa 0x232a(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,38,35,0,0 // movdqa 0x2326(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
.byte 102,65,15,253,215 // paddw %xmm15,%xmm2
.byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
@@ -57594,7 +57638,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
.byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
.byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,187,34,0,0 // movdqa 0x22bb(%rip),%xmm6 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,53,183,34,0,0 // movdqa 0x22b7(%rip),%xmm6 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,69,15,249,222 // psubw %xmm14,%xmm11
.byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
@@ -57616,7 +57660,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,253,201 // paddw %xmm1,%xmm1
.byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
.byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,191,41,0,0 // movdqa 0x29bf(%rip),%xmm1 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,111,13,187,41,0,0 // movdqa 0x29bb(%rip),%xmm1 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
.byte 102,68,15,239,233 // pxor %xmm1,%xmm13
.byte 102,15,239,249 // pxor %xmm1,%xmm7
@@ -57643,7 +57687,7 @@ _sk_overlay_sse2_lowp:
.byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,62,41,0,0 // movdqa 0x293e(%rip),%xmm7 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,15,111,61,58,41,0,0 // movdqa 0x293a(%rip),%xmm7 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,15,239,231 // pxor %xmm7,%xmm4
.byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
.byte 102,69,15,253,192 // paddw %xmm8,%xmm8
@@ -57703,27 +57747,27 @@ _sk_load_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 309e8 <_sk_load_8888_sse2_lowp+0x44>
+ .byte 119,41 // ja 30aac <_sk_load_8888_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30ae4 <_sk_load_8888_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30ba8 <_sk_load_8888_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30a4e <_sk_load_8888_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30b12 <_sk_load_8888_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -57740,7 +57784,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,40,32,0,0 // movdqa 0x2028(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,36,32,0,0 // movdqa 0x2024(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,65,15,219,193 // pand %xmm9,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -57793,27 +57837,27 @@ _sk_load_8888_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30b44 <_sk_load_8888_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30c08 <_sk_load_8888_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30c40 <_sk_load_8888_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30d04 <_sk_load_8888_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 30baa <_sk_load_8888_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30c6e <_sk_load_8888_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -57830,7 +57874,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,204,30,0,0 // movdqa 0x1ecc(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,200,30,0,0 // movdqa 0x1ec8(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,225 // pand %xmm9,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -57898,21 +57942,21 @@ _sk_store_8888_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 30cdf <_sk_store_8888_sse2_lowp+0x83>
+ .byte 119,27 // ja 30da3 <_sk_store_8888_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30d30 <_sk_store_8888_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 30df4 <_sk_store_8888_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,75 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,60 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 30d2a <_sk_store_8888_sse2_lowp+0xce>
+ .byte 235,39 // jmp 30dee <_sk_store_8888_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -57957,27 +58001,27 @@ _sk_load_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30d90 <_sk_load_bgra_sse2_lowp+0x44>
+ .byte 119,41 // ja 30e54 <_sk_load_bgra_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30e8c <_sk_load_bgra_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30f50 <_sk_load_bgra_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,216 // movapd %xmm8,%xmm3
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 30df6 <_sk_load_bgra_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 30eba <_sk_load_bgra_sse2_lowp+0xaa>
.byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
.byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
.byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
@@ -57994,7 +58038,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,128,28,0,0 // movdqa 0x1c80(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,124,28,0,0 // movdqa 0x1c7c(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,65,15,219,209 // pand %xmm9,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -58047,27 +58091,27 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 30eec <_sk_load_bgra_dst_sse2_lowp+0x44>
+ .byte 119,41 // ja 30fb0 <_sk_load_bgra_dst_sse2_lowp+0x44>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 30fe8 <_sk_load_bgra_dst_sse2_lowp+0x140>
+ .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 310ac <_sk_load_bgra_dst_sse2_lowp+0x140>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,102 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,87 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 30f52 <_sk_load_bgra_dst_sse2_lowp+0xaa>
+ .byte 235,52 // jmp 31016 <_sk_load_bgra_dst_sse2_lowp+0xaa>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -58084,7 +58128,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,36,27,0,0 // movdqa 0x1b24(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,32,27,0,0 // movdqa 0x1b20(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,65,15,219,241 // pand %xmm9,%xmm6
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -58152,21 +58196,21 @@ _sk_store_bgra_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 31087 <_sk_store_bgra_sse2_lowp+0x83>
+ .byte 119,27 // ja 3114b <_sk_store_bgra_sse2_lowp+0x83>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 310d8 <_sk_store_bgra_sse2_lowp+0xd4>
+ .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 3119c <_sk_store_bgra_sse2_lowp+0xd4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,75 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
.byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
.byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,60 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
.byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
.byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 310d2 <_sk_store_bgra_sse2_lowp+0xce>
+ .byte 235,39 // jmp 31196 <_sk_store_bgra_sse2_lowp+0xce>
.byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
.byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
.byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
@@ -58211,23 +58255,23 @@ _sk_load_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31130 <_sk_load_565_sse2_lowp+0x3c>
+ .byte 119,34 // ja 311f4 <_sk_load_565_sse2_lowp+0x3c>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 311d8 <_sk_load_565_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 3129c <_sk_load_565_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
.byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
.byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 31172 <_sk_load_565_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31236 <_sk_load_565_sse2_lowp+0x7e>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
.byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
@@ -58235,11 +58279,11 @@ _sk_load_565_sse2_lowp:
.byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,205,32,0,0 // pand 0x20cd(%rip),%xmm3 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,29,201,32,0,0 // pand 0x20c9(%rip),%xmm3 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,204,32,0,0 // pand 0x20cc(%rip),%xmm1 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,15,111,21,212,32,0,0 // movdqa 0x20d4(%rip),%xmm2 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,15,219,13,200,32,0,0 // pand 0x20c8(%rip),%xmm1 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,15,111,21,208,32,0,0 // movdqa 0x20d0(%rip),%xmm2 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,195 // por %xmm3,%xmm0
@@ -58252,7 +58296,7 @@ _sk_load_565_sse2_lowp:
.byte 102,15,113,210,2 // psrlw $0x2,%xmm2
.byte 102,15,235,211 // por %xmm3,%xmm2
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,202,24,0,0 // movaps 0x18ca(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,198,24,0,0 // movaps 0x18c6(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58278,23 +58322,23 @@ _sk_load_565_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31230 <_sk_load_565_dst_sse2_lowp+0x3c>
+ .byte 119,34 // ja 312f4 <_sk_load_565_dst_sse2_lowp+0x3c>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 312d8 <_sk_load_565_dst_sse2_lowp+0xe4>
+ .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 3139c <_sk_load_565_dst_sse2_lowp+0xe4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,66 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,58 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
.byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 31272 <_sk_load_565_dst_sse2_lowp+0x7e>
+ .byte 235,34 // jmp 31336 <_sk_load_565_dst_sse2_lowp+0x7e>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
.byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
@@ -58302,11 +58346,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,205,31,0,0 // pand 0x1fcd(%rip),%xmm7 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,15,219,61,201,31,0,0 // pand 0x1fc9(%rip),%xmm7 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,204,31,0,0 // pand 0x1fcc(%rip),%xmm5 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,15,111,53,212,31,0,0 // movdqa 0x1fd4(%rip),%xmm6 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,15,219,45,200,31,0,0 // pand 0x1fc8(%rip),%xmm5 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,15,111,53,208,31,0,0 // movdqa 0x1fd0(%rip),%xmm6 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,15,219,244 // pand %xmm4,%xmm6
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,231 // por %xmm7,%xmm4
@@ -58319,7 +58363,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,214,2 // psrlw $0x2,%xmm6
.byte 102,15,235,247 // por %xmm7,%xmm6
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,202,23,0,0 // movaps 0x17ca(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,198,23,0,0 // movaps 0x17c6(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 255,224 // jmpq *%rax
.byte 77,255 // rex.WRB (bad)
.byte 255 // (bad)
@@ -58343,10 +58387,10 @@ _sk_store_565_sse2_lowp:
.byte 76,3,0 // add (%rax),%r8
.byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
.byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,104,31,0,0 // pand 0x1f68(%rip),%xmm8 # 33280 <_sk_srcover_rgba_8888_sse2_lowp+0x1204>
+ .byte 102,68,15,219,5,100,31,0,0 // pand 0x1f64(%rip),%xmm8 # 33340 <_sk_srcover_rgba_8888_sse2_lowp+0x1200>
.byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
.byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,100,31,0,0 // pand 0x1f64(%rip),%xmm9 # 33290 <_sk_srcover_rgba_8888_sse2_lowp+0x1214>
+ .byte 102,68,15,219,13,96,31,0,0 // pand 0x1f60(%rip),%xmm9 # 33350 <_sk_srcover_rgba_8888_sse2_lowp+0x1210>
.byte 102,69,15,235,200 // por %xmm8,%xmm9
.byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
.byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
@@ -58355,21 +58399,21 @@ _sk_store_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 3136a <_sk_store_565_sse2_lowp+0x76>
+ .byte 119,31 // ja 3142e <_sk_store_565_sse2_lowp+0x76>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 313b4 <_sk_store_565_sse2_lowp+0xc0>
+ .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 31478 <_sk_store_565_sse2_lowp+0xc0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,70 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
.byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,62 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
.byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
.byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 313b0 <_sk_store_565_sse2_lowp+0xbc>
+ .byte 235,42 // jmp 31474 <_sk_store_565_sse2_lowp+0xbc>
.byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
.byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
.byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
@@ -58413,19 +58457,19 @@ _sk_load_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31409 <_sk_load_a8_sse2_lowp+0x39>
+ .byte 119,34 // ja 314cd <_sk_load_a8_sse2_lowp+0x39>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31480 <_sk_load_a8_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31544 <_sk_load_a8_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
.byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
@@ -58433,7 +58477,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3146a <_sk_load_a8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3152e <_sk_load_a8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
@@ -58444,14 +58488,14 @@ _sk_load_a8_sse2_lowp:
.byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,46,22,0,0 // pand 0x162e(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,29,42,22,0,0 // pand 0x162a(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 31481 <_sk_load_a8_sse2_lowp+0xb1>
+ .byte 126,255 // jle 31545 <_sk_load_a8_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58481,19 +58525,19 @@ _sk_load_a8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 314d5 <_sk_load_a8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 31599 <_sk_load_a8_dst_sse2_lowp+0x39>
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3154c <_sk_load_a8_dst_sse2_lowp+0xb0>
+ .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 31610 <_sk_load_a8_dst_sse2_lowp+0xb0>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
.byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
@@ -58501,7 +58545,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,224 // movd %eax,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 31536 <_sk_load_a8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 315fa <_sk_load_a8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
@@ -58512,14 +58556,14 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,98,21,0,0 // pand 0x1562(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,61,94,21,0,0 // pand 0x155e(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,87,246 // xorps %xmm6,%xmm6
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 126,255 // jle 3154d <_sk_load_a8_dst_sse2_lowp+0xb1>
+ .byte 126,255 // jle 31611 <_sk_load_a8_dst_sse2_lowp+0xb1>
.byte 255 // (bad)
.byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58549,42 +58593,42 @@ _sk_store_a8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3159c <_sk_store_a8_sse2_lowp+0x34>
+ .byte 119,29 // ja 31660 <_sk_store_a8_sse2_lowp+0x34>
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3161c <_sk_store_a8_sse2_lowp+0xb4>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 316e0 <_sk_store_a8_sse2_lowp+0xb4>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,251,20,0,0 // movdqa 0x14fb(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 235,123 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 102,68,15,111,5,247,20,0,0 // movdqa 0x14f7(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,96 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
.byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,214,20,0,0 // movdqa 0x14d6(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,210,20,0,0 // movdqa 0x14d2(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,68,15,126,192 // movd %xmm8,%eax
.byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 31617 <_sk_store_a8_sse2_lowp+0xaf>
+ .byte 235,55 // jmp 316db <_sk_store_a8_sse2_lowp+0xaf>
.byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
.byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
.byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
.byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
.byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
.byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,153,20,0,0 // movdqa 0x1499(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,149,20,0,0 // movdqa 0x1495(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,68,15,219,195 // pand %xmm3,%xmm8
.byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
.byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 255,224 // jmpq *%rax
.byte 144 // nop
- .byte 118,255 // jbe 3161d <_sk_store_a8_sse2_lowp+0xb5>
+ .byte 118,255 // jbe 316e1 <_sk_store_a8_sse2_lowp+0xb5>
.byte 255 // (bad)
.byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
.byte 255 // (bad)
@@ -58615,19 +58659,19 @@ _sk_load_g8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31671 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 119,34 // ja 31735 <_sk_load_g8_sse2_lowp+0x39>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 316f0 <_sk_load_g8_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317b4 <_sk_load_g8_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
.byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
@@ -58635,7 +58679,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,200 // movd %eax,%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 316d2 <_sk_load_g8_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 31796 <_sk_load_g8_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
@@ -58646,14 +58690,14 @@ _sk_load_g8_sse2_lowp:
.byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
.byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
.byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,198,19,0,0 // pand 0x13c6(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,5,194,19,0,0 // pand 0x13c2(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,189,19,0,0 // movaps 0x13bd(%rip),%xmm3 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,29,185,19,0,0 // movaps 0x13b9(%rip),%xmm3 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 316f1 <_sk_load_g8_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 317b5 <_sk_load_g8_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58681,19 +58725,19 @@ _sk_load_g8_dst_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31745 <_sk_load_g8_dst_sse2_lowp+0x39>
+ .byte 119,34 // ja 31809 <_sk_load_g8_dst_sse2_lowp+0x39>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 317c4 <_sk_load_g8_dst_sse2_lowp+0xb8>
+ .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 31888 <_sk_load_g8_dst_sse2_lowp+0xb8>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,97 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,85 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
@@ -58701,7 +58745,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,232 // movd %eax,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 317a6 <_sk_load_g8_dst_sse2_lowp+0x9a>
+ .byte 235,51 // jmp 3186a <_sk_load_g8_dst_sse2_lowp+0x9a>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
@@ -58712,14 +58756,14 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,242,18,0,0 // pand 0x12f2(%rip),%xmm4 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,219,37,238,18,0,0 // pand 0x12ee(%rip),%xmm4 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,233,18,0,0 // movaps 0x12e9(%rip),%xmm7 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 15,40,61,229,18,0,0 // movaps 0x12e5(%rip),%xmm7 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 317c5 <_sk_load_g8_dst_sse2_lowp+0xb9>
+ .byte 118,255 // jbe 31889 <_sk_load_g8_dst_sse2_lowp+0xb9>
.byte 255 // (bad)
.byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
.byte 255 // (bad)
@@ -58740,10 +58784,10 @@ HIDDEN _sk_luminance_to_alpha_sse2_lowp
FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
_sk_luminance_to_alpha_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,180,26,0,0 // pmullw 0x1ab4(%rip),%xmm0 # 332a0 <_sk_srcover_rgba_8888_sse2_lowp+0x1224>
- .byte 102,15,213,13,188,26,0,0 // pmullw 0x1abc(%rip),%xmm1 # 332b0 <_sk_srcover_rgba_8888_sse2_lowp+0x1234>
+ .byte 102,15,213,5,176,26,0,0 // pmullw 0x1ab0(%rip),%xmm0 # 33360 <_sk_srcover_rgba_8888_sse2_lowp+0x1220>
+ .byte 102,15,213,13,184,26,0,0 // pmullw 0x1ab8(%rip),%xmm1 # 33370 <_sk_srcover_rgba_8888_sse2_lowp+0x1230>
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,192,26,0,0 // pmullw 0x1ac0(%rip),%xmm3 # 332c0 <_sk_srcover_rgba_8888_sse2_lowp+0x1244>
+ .byte 102,15,213,29,188,26,0,0 // pmullw 0x1abc(%rip),%xmm3 # 33380 <_sk_srcover_rgba_8888_sse2_lowp+0x1240>
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 72,173 // lods %ds:(%rsi),%rax
@@ -58758,14 +58802,14 @@ FUNCTION(_sk_scale_1_float_sse2_lowp)
_sk_scale_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,11,17,0,0 // mulss 0x110b(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 243,68,15,88,5,210,16,0,0 // addss 0x10d2(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,5,7,17,0,0 // mulss 0x1107(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,68,15,88,5,206,16,0,0 // addss 0x10ce(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,74,18,0,0 // movdqa 0x124a(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,70,18,0,0 // movdqa 0x1246(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58786,13 +58830,13 @@ FUNCTION(_sk_lerp_1_float_sse2_lowp)
_sk_lerp_1_float_sse2_lowp:
.byte 72,173 // lods %ds:(%rsi),%rax
.byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,147,16,0,0 // mulss 0x1093(%rip),%xmm8 # 32934 <_sk_srcover_rgba_8888_sse2_lowp+0x8b8>
- .byte 243,68,15,88,5,90,16,0,0 // addss 0x105a(%rip),%xmm8 # 32904 <_sk_srcover_rgba_8888_sse2_lowp+0x888>
+ .byte 243,68,15,89,5,143,16,0,0 // mulss 0x108f(%rip),%xmm8 # 329f4 <_sk_srcover_rgba_8888_sse2_lowp+0x8b4>
+ .byte 243,68,15,88,5,86,16,0,0 // addss 0x1056(%rip),%xmm8 # 329c4 <_sk_srcover_rgba_8888_sse2_lowp+0x884>
.byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
.byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
.byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,215,17,0,0 // movdqa 0x11d7(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,211,17,0,0 // movdqa 0x11d3(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58832,19 +58876,19 @@ _sk_scale_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31980 <_sk_scale_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31a44 <_sk_scale_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31a48 <_sk_scale_u8_sse2_lowp+0x103>
+ .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 31b0c <_sk_scale_u8_sse2_lowp+0x103>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58852,7 +58896,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 319ed <_sk_scale_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31ab1 <_sk_scale_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58863,9 +58907,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,170,16,0,0 // pand 0x10aa(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,166,16,0,0 // pand 0x10a6(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,156,16,0,0 // movdqa 0x109c(%rip),%xmm9 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,13,152,16,0,0 // movdqa 0x1098(%rip),%xmm9 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,253,193 // paddw %xmm9,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
@@ -58891,7 +58935,7 @@ _sk_scale_u8_sse2_lowp:
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 125,255 // jge 31a5d <_sk_scale_u8_sse2_lowp+0x118>
+ .byte 125,255 // jge 31b21 <_sk_scale_u8_sse2_lowp+0x118>
.byte 255 // (bad)
.byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
.byte 255 // .byte 0xff
@@ -58908,19 +58952,19 @@ _sk_lerp_u8_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 31a9f <_sk_lerp_u8_sse2_lowp+0x3b>
+ .byte 119,36 // ja 31b63 <_sk_lerp_u8_sse2_lowp+0x3b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 31c6c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
.byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,109 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
.byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,96 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
@@ -58928,7 +58972,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,68,15,110,200 // movd %eax,%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 31b0c <_sk_lerp_u8_sse2_lowp+0xa8>
+ .byte 235,57 // jmp 31bd0 <_sk_lerp_u8_sse2_lowp+0xa8>
.byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
.byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
@@ -58939,8 +58983,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
.byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
.byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,139,15,0,0 // pand 0xf8b(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
- .byte 102,68,15,111,21,130,15,0,0 // movdqa 0xf82(%rip),%xmm10 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,219,5,135,15,0,0 // pand 0xf87(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
+ .byte 102,68,15,111,21,126,15,0,0 // movdqa 0xf7e(%rip),%xmm10 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
.byte 102,69,15,239,202 // pxor %xmm10,%xmm9
.byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
@@ -58970,9 +59014,9 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
.byte 255,224 // jmpq *%rax
.byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 31ba8 <_sk_lerp_u8_sse2_lowp+0x144>
+ .byte 235,254 // jmp 31c6c <_sk_lerp_u8_sse2_lowp+0x144>
.byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031bb0 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
+ .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 5031c74 <_sk_srcover_rgba_8888_sse2_lowp+0x4fffb34>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
@@ -59002,23 +59046,23 @@ _sk_scale_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31c0f <_sk_scale_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31cd3 <_sk_scale_565_sse2_lowp+0x4b>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31de0 <_sk_scale_565_sse2_lowp+0x21c>
+ .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 31ea4 <_sk_scale_565_sse2_lowp+0x21c>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
.byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 31c52 <_sk_scale_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31d16 <_sk_scale_565_sse2_lowp+0x8e>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
.byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
@@ -59026,11 +59070,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
.byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,234,21,0,0 // pand 0x15ea(%rip),%xmm11 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,219,29,230,21,0,0 // pand 0x15e6(%rip),%xmm11 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,230,21,0,0 // pand 0x15e6(%rip),%xmm9 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,68,15,111,21,237,21,0,0 // movdqa 0x15ed(%rip),%xmm10 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,68,15,219,13,226,21,0,0 // pand 0x15e2(%rip),%xmm9 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,68,15,111,21,233,21,0,0 // movdqa 0x15e9(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,68,15,219,214 // pand %xmm6,%xmm10
.byte 102,15,113,214,13 // psrlw $0xd,%xmm6
.byte 102,65,15,235,243 // por %xmm11,%xmm6
@@ -59042,7 +59086,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,73,21,0,0 // movdqa 0x1549(%rip),%xmm12 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,37,69,21,0,0 // movdqa 0x1545(%rip),%xmm12 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59083,7 +59127,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
.byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
.byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,11,13,0,0 // movdqa 0xd0b(%rip),%xmm0 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,15,111,5,7,13,0,0 // movdqa 0xd07(%rip),%xmm0 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,253,240 // paddw %xmm0,%xmm6
.byte 102,68,15,253,200 // paddw %xmm0,%xmm9
.byte 102,68,15,253,208 // paddw %xmm0,%xmm10
@@ -59130,23 +59174,23 @@ _sk_lerp_565_sse2_lowp:
.byte 36,7 // and $0x7,%al
.byte 254,200 // dec %al
.byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 31e47 <_sk_lerp_565_sse2_lowp+0x4b>
+ .byte 119,34 // ja 31f0b <_sk_lerp_565_sse2_lowp+0x4b>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32060 <_sk_lerp_565_sse2_lowp+0x264>
+ .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 32124 <_sk_lerp_565_sse2_lowp+0x264>
.byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
.byte 76,1,200 // add %r9,%rax
.byte 255,224 // jmpq *%rax
.byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
.byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,67 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,59 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
.byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
.byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 31e8a <_sk_lerp_565_sse2_lowp+0x8e>
+ .byte 235,34 // jmp 31f4e <_sk_lerp_565_sse2_lowp+0x8e>
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
.byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
@@ -59154,11 +59198,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
.byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
.byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,178,19,0,0 // pand 0x13b2(%rip),%xmm11 # 33250 <_sk_srcover_rgba_8888_sse2_lowp+0x11d4>
+ .byte 102,68,15,219,29,174,19,0,0 // pand 0x13ae(%rip),%xmm11 # 33310 <_sk_srcover_rgba_8888_sse2_lowp+0x11d0>
.byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
.byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,174,19,0,0 // pand 0x13ae(%rip),%xmm9 # 33260 <_sk_srcover_rgba_8888_sse2_lowp+0x11e4>
- .byte 102,68,15,111,21,181,19,0,0 // movdqa 0x13b5(%rip),%xmm10 # 33270 <_sk_srcover_rgba_8888_sse2_lowp+0x11f4>
+ .byte 102,68,15,219,13,170,19,0,0 // pand 0x13aa(%rip),%xmm9 # 33320 <_sk_srcover_rgba_8888_sse2_lowp+0x11e0>
+ .byte 102,68,15,111,21,177,19,0,0 // movdqa 0x13b1(%rip),%xmm10 # 33330 <_sk_srcover_rgba_8888_sse2_lowp+0x11f0>
.byte 102,68,15,219,210 // pand %xmm2,%xmm10
.byte 102,15,113,210,13 // psrlw $0xd,%xmm2
.byte 102,65,15,235,211 // por %xmm11,%xmm2
@@ -59170,7 +59214,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
.byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
.byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,17,19,0,0 // movdqa 0x1311(%rip),%xmm12 # 33210 <_sk_srcover_rgba_8888_sse2_lowp+0x1194>
+ .byte 102,68,15,111,37,13,19,0,0 // movdqa 0x130d(%rip),%xmm12 # 332d0 <_sk_srcover_rgba_8888_sse2_lowp+0x1190>
.byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
.byte 102,69,15,239,236 // pxor %xmm12,%xmm13
.byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
@@ -59209,7 +59253,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,69,15,235,222 // por %xmm14,%xmm11
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,221,10,0,0 // movdqa 0xadd(%rip),%xmm8 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,5,217,10,0,0 // movdqa 0xad9(%rip),%xmm8 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,65,15,239,192 // pxor %xmm8,%xmm0
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
.byte 102,65,15,253,208 // paddw %xmm8,%xmm2
@@ -59278,26 +59322,26 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 65,254,202 // dec %r10b
.byte 69,15,182,202 // movzbl %r10b,%r9d
.byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 320c7 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
+ .byte 119,38 // ja 3218b <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 322f0 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
+ .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 323b4 <_sk_srcover_rgba_8888_sse2_lowp+0x274>
.byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
.byte 76,1,216 // add %r11,%rax
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 255,224 // jmpq *%rax
.byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
.byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,102 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
.byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,87 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
.byte 102,65,15,40,248 // movapd %xmm8,%xmm7
.byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3212d <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
+ .byte 235,52 // jmp 321f1 <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
.byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
.byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
.byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
@@ -59314,7 +59358,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,114,228,16 // psrad $0x10,%xmm4
.byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,73,9,0,0 // movdqa 0x949(%rip),%xmm12 # 32aa0 <_sk_srcover_rgba_8888_sse2_lowp+0xa24>
+ .byte 102,68,15,111,37,69,9,0,0 // movdqa 0x945(%rip),%xmm12 # 32b60 <_sk_srcover_rgba_8888_sse2_lowp+0xa20>
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,65,15,219,228 // pand %xmm12,%xmm4
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -59372,20 +59416,20 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
.byte 102,15,235,194 // por %xmm2,%xmm0
.byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3228f <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3230c <_sk_srcover_rgba_8888_sse2_lowp+0x290>
+ .byte 119,24 // ja 32353 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
+ .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 323d0 <_sk_srcover_rgba_8888_sse2_lowp+0x290>
.byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
.byte 76,1,208 // add %r10,%rax
.byte 255,224 // jmpq *%rax
.byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,73 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
.byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,58 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
.byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
.byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 322d8 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
+ .byte 235,37 // jmp 3239c <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
.byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
@@ -59418,7 +59462,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 254 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 123,255 // jnp 3230d <_sk_srcover_rgba_8888_sse2_lowp+0x291>
+ .byte 123,255 // jnp 323d1 <_sk_srcover_rgba_8888_sse2_lowp+0x291>
.byte 255 // (bad)
.byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
.byte 255 // (bad)
@@ -59513,16 +59557,16 @@ BALIGN32
.byte 0,1 // add %al,(%rcx)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0323e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00036c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0324a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000368>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120323f0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000374>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120324b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000370>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0323f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00037c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000378>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032400 <_sk_srcover_rgba_8888_sse2_lowp+0x3000384>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000380>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59565,16 +59609,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032448 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003cc>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032508 <_sk_srcover_rgba_8888_sse2_lowp+0xa0003c8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032450 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032510 <_sk_srcover_rgba_8888_sse2_lowp+0x120003d0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032458 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003dc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032518 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0003d8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032460 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032520 <_sk_srcover_rgba_8888_sse2_lowp+0x30003e0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59617,16 +59661,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0324a8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00042c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032568 <_sk_srcover_rgba_8888_sse2_lowp+0xa000428>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120324b0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000434>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032570 <_sk_srcover_rgba_8888_sse2_lowp+0x12000430>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0324b8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00043c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032578 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000438>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30324c0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000444>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032580 <_sk_srcover_rgba_8888_sse2_lowp+0x3000440>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59669,16 +59713,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032508 <_sk_srcover_rgba_8888_sse2_lowp+0xa00048c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000488>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032510 <_sk_srcover_rgba_8888_sse2_lowp+0x12000494>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000490>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032518 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00049c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000498>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032520 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x30004a0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59721,16 +59765,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032568 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004ec>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032628 <_sk_srcover_rgba_8888_sse2_lowp+0xa0004e8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032570 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032630 <_sk_srcover_rgba_8888_sse2_lowp+0x120004f0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032578 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004fc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032638 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0004f8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032580 <_sk_srcover_rgba_8888_sse2_lowp+0x3000504>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032640 <_sk_srcover_rgba_8888_sse2_lowp+0x3000500>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59773,16 +59817,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0325c8 <_sk_srcover_rgba_8888_sse2_lowp+0xa00054c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032688 <_sk_srcover_rgba_8888_sse2_lowp+0xa000548>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120325d0 <_sk_srcover_rgba_8888_sse2_lowp+0x12000554>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032690 <_sk_srcover_rgba_8888_sse2_lowp+0x12000550>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0325d8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00055c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032698 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000558>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30325e0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000564>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000560>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59825,16 +59869,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032628 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005ac>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a0326e8 <_sk_srcover_rgba_8888_sse2_lowp+0xa0005a8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032630 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b4>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 120326f0 <_sk_srcover_rgba_8888_sse2_lowp+0x120005b0>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032638 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005bc>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a0326f8 <_sk_srcover_rgba_8888_sse2_lowp+0x1a0005b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032640 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c4>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032700 <_sk_srcover_rgba_8888_sse2_lowp+0x30005c0>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -59877,16 +59921,16 @@ BALIGN32
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032688 <_sk_srcover_rgba_8888_sse2_lowp+0xa00060c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032748 <_sk_srcover_rgba_8888_sse2_lowp+0xa000608>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032690 <_sk_srcover_rgba_8888_sse2_lowp+0x12000614>
+ .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 12032750 <_sk_srcover_rgba_8888_sse2_lowp+0x12000610>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032698 <_sk_srcover_rgba_8888_sse2_lowp+0x1a00061c>
+ .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a032758 <_sk_srcover_rgba_8888_sse2_lowp+0x1a000618>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 30326a0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000624>
+ .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 3032760 <_sk_srcover_rgba_8888_sse2_lowp+0x3000620>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60157,7 +60201,7 @@ BALIGN32
.byte 0,255 // add %bh,%bh
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
- .byte 224,255 // loopne 328b3 <.const+0x573>
+ .byte 224,255 // loopne 32973 <.const+0x573>
.byte 255,0 // incl (%rax)
.byte 255,0 // incl (%rax)
.byte 54,0,183,0,19,0,255 // add %dh,%ss:-0xffed00(%rdi)
@@ -60210,14 +60254,14 @@ BALIGN4
.byte 252 // cld
.byte 190,0,0,128,191 // mov $0xbf800000,%esi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32968 <.literal4+0x64>
+ .byte 224,64 // loopne 32a28 <.literal4+0x64>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
.byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 32971 <.literal4+0x6d>
+ .byte 71,225,61 // rex.RXB loope 32a31 <.literal4+0x6d>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3297b <.literal4+0x77>
+ .byte 127,67 // jg 32a3b <.literal4+0x77>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,92,143,50,63 // sbbl $0x3f,0x328f5c3d(%rsi)
.byte 10,215 // or %bh,%dl
@@ -60252,7 +60296,7 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32991 <.literal4+0x8d>
+ .byte 224,7 // loopne 32a51 <.literal4+0x8d>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -60263,8 +60307,8 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 0,52,255 // add %dh,(%rdi,%rdi,8)
.byte 255 // (bad)
- .byte 127,0 // jg 329a4 <.literal4+0xa0>
- .byte 119,115 // ja 32a19 <.literal4+0x115>
+ .byte 127,0 // jg 32a64 <.literal4+0xa0>
+ .byte 119,115 // ja 32ad9 <.literal4+0x115>
.byte 248 // clc
.byte 194,117,191 // retq $0xbf75
.byte 191,63,249,68,180 // mov $0xb444f93f,%edi
@@ -60287,12 +60331,12 @@ BALIGN4
.byte 190,80,128,3,62 // mov $0x3e038050,%esi
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32a2f <.literal4+0x12b>
+ .byte 118,63 // jbe 32aef <.literal4+0x12b>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 0,0 // add %al,(%rax)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 32a3e <.literal4+0x13a>
+ .byte 124,66 // jl 32afe <.literal4+0x13a>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
@@ -60302,9 +60346,9 @@ BALIGN4
.byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
.byte 0,0 // add %al,(%rax)
.byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 32a61 <.literal4+0x15d>
+ .byte 112,65 // jo 32b21 <.literal4+0x15d>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 32a6b <.literal4+0x167>
+ .byte 127,71 // jg 32b2b <.literal4+0x167>
.byte 89 // pop %rcx
.byte 23 // (bad)
.byte 55 // (bad)
@@ -60332,14 +60376,14 @@ BALIGN4
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 32a8a <.literal4+0x186>
+ .byte 114,28 // jb 32b4a <.literal4+0x186>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
.byte 149 // xchg %eax,%ebp
.byte 191,0,0,192,63 // mov $0x3fc00000,%edi
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 32abf <_sk_srcover_rgba_8888_sse2_lowp+0xa43>
+ .byte 127,63 // jg 32b7f <_sk_srcover_rgba_8888_sse2_lowp+0xa3f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 109 // insl (%dx),%es:(%rdi)
@@ -60354,7 +60398,7 @@ BALIGN4
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32a99 <.literal4+0x195>
+ .byte 127,0 // jg 32b59 <.literal4+0x195>
.byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
.byte 255 // .byte 0xff
@@ -60457,11 +60501,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32bc8 <.literal16+0x128>
+ .byte 224,64 // loopne 32c88 <.literal16+0x128>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32bcc <.literal16+0x12c>
+ .byte 224,64 // loopne 32c8c <.literal16+0x12c>
.byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 32bd0 <.literal16+0x130>
+ .byte 224,64 // loopne 32c90 <.literal16+0x130>
.byte 154 // (bad)
.byte 153 // cltd
.byte 153 // cltd
@@ -60481,13 +60525,13 @@ BALIGN16
.byte 10,23 // or (%rdi),%dl
.byte 63 // (bad)
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32bf1 <.literal16+0x151>
+ .byte 71,225,61 // rex.RXB loope 32cb1 <.literal16+0x151>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32bf5 <.literal16+0x155>
+ .byte 71,225,61 // rex.RXB loope 32cb5 <.literal16+0x155>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32bf9 <.literal16+0x159>
+ .byte 71,225,61 // rex.RXB loope 32cb9 <.literal16+0x159>
.byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 32bfd <.literal16+0x15d>
+ .byte 71,225,61 // rex.RXB loope 32cbd <.literal16+0x15d>
.byte 255,0 // incl (%rax)
.byte 0,0 // add %al,(%rax)
.byte 255,0 // incl (%rax)
@@ -60498,10 +60542,10 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 1,255 // add %edi,%edi
.byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032bd8 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b5c>
+ .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a032c98 <_sk_srcover_rgba_8888_sse2_lowp+0xa000b58>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032be0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b64>
+ .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 3032ca0 <_sk_srcover_rgba_8888_sse2_lowp+0x3000b60>
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255,6 // incl (%rsi)
@@ -60516,11 +60560,11 @@ BALIGN16
.byte 255,0 // incl (%rax)
.byte 0,127,67 // add %bh,0x43(%rdi)
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32c3b <.literal16+0x19b>
+ .byte 127,67 // jg 32cfb <.literal16+0x19b>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32c3f <.literal16+0x19f>
+ .byte 127,67 // jg 32cff <.literal16+0x19f>
.byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 32c43 <.literal16+0x1a3>
+ .byte 127,67 // jg 32d03 <.literal16+0x1a3>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
.byte 145 // xchg %eax,%ecx
@@ -60671,13 +60715,13 @@ BALIGN16
.byte 132,55 // test %dh,(%rdi)
.byte 8,33 // or %ah,(%rcx)
.byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 32d49 <.literal16+0x2a9>
+ .byte 224,7 // loopne 32e09 <.literal16+0x2a9>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32d4d <.literal16+0x2ad>
+ .byte 224,7 // loopne 32e0d <.literal16+0x2ad>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32d51 <.literal16+0x2b1>
+ .byte 224,7 // loopne 32e11 <.literal16+0x2b1>
.byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 32d55 <.literal16+0x2b5>
+ .byte 224,7 // loopne 32e15 <.literal16+0x2b5>
.byte 0,0 // add %al,(%rax)
.byte 33,8 // and %ecx,(%rax)
.byte 2,58 // add (%rdx),%bh
@@ -60731,17 +60775,17 @@ BALIGN16
.byte 0,0 // add %al,(%rax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg 32dc4 <.literal16+0x324>
+ .byte 127,0 // jg 32e84 <.literal16+0x324>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32dc8 <.literal16+0x328>
+ .byte 127,0 // jg 32e88 <.literal16+0x328>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32dcc <.literal16+0x32c>
+ .byte 127,0 // jg 32e8c <.literal16+0x32c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 32dd0 <.literal16+0x330>
- .byte 119,115 // ja 32e45 <.literal16+0x3a5>
+ .byte 127,0 // jg 32e90 <.literal16+0x330>
+ .byte 119,115 // ja 32f05 <.literal16+0x3a5>
.byte 248 // clc
.byte 194,119,115 // retq $0x7377
.byte 248 // clc
@@ -60752,7 +60796,7 @@ BALIGN16
.byte 194,117,191 // retq $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
- .byte 117,191 // jne 32da9 <.literal16+0x309>
+ .byte 117,191 // jne 32e69 <.literal16+0x309>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // (bad)
.byte 249 // stc
@@ -60764,7 +60808,7 @@ BALIGN16
.byte 249 // stc
.byte 68,180,62 // rex.R mov $0x3e,%spl
.byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a66dea <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d6e>
+ .byte 233,220,63,163,233 // jmpq ffffffffe9a66eaa <_sk_srcover_rgba_8888_sse2_lowp+0xffffffffe9a34d6a>
.byte 220,63 // fdivrl (%rdi)
.byte 81 // push %rcx
.byte 140,242 // mov %?,%edx
@@ -60854,16 +60898,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%rbx)
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32f33 <.literal16+0x493>
+ .byte 118,63 // jbe 32ff3 <.literal16+0x493>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32f37 <.literal16+0x497>
+ .byte 118,63 // jbe 32ff7 <.literal16+0x497>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32f3b <.literal16+0x49b>
+ .byte 118,63 // jbe 32ffb <.literal16+0x49b>
.byte 31 // (bad)
.byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 32f3f <.literal16+0x49f>
+ .byte 118,63 // jbe 32fff <.literal16+0x49f>
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
.byte 246,64,83,63 // testb $0x3f,0x53(%rax)
@@ -60884,13 +60928,13 @@ BALIGN16
.byte 65,0,0 // add %al,(%r8)
.byte 248 // clc
.byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 32f76 <.literal16+0x4d6>
+ .byte 124,66 // jl 33036 <.literal16+0x4d6>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 32f7a <.literal16+0x4da>
+ .byte 124,66 // jl 3303a <.literal16+0x4da>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 32f7e <.literal16+0x4de>
+ .byte 124,66 // jl 3303e <.literal16+0x4de>
.byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 32f82 <.literal16+0x4e2>
+ .byte 124,66 // jl 33042 <.literal16+0x4e2>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%rax)
.byte 0,240 // add %dh,%al
@@ -60936,25 +60980,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33005 <.literal16+0x565>
+ .byte 112,65 // jo 330c5 <.literal16+0x565>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33009 <.literal16+0x569>
+ .byte 112,65 // jo 330c9 <.literal16+0x569>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3300d <.literal16+0x56d>
+ .byte 112,65 // jo 330cd <.literal16+0x56d>
.byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 33011 <.literal16+0x571>
+ .byte 112,65 // jo 330d1 <.literal16+0x571>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 32fe3 <.literal16+0x543>
+ .byte 127,0 // jg 330a3 <.literal16+0x543>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 32fe7 <.literal16+0x547>
+ .byte 127,0 // jg 330a7 <.literal16+0x547>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 32feb <.literal16+0x54b>
+ .byte 127,0 // jg 330ab <.literal16+0x54b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 32fef <.literal16+0x54f>
+ .byte 127,0 // jg 330af <.literal16+0x54f>
.byte 0,0 // add %al,(%rax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
@@ -60980,13 +61024,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 33028 <.literal16+0x588>
+ .byte 127,255 // jg 330e8 <.literal16+0x588>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg 3302c <.literal16+0x58c>
+ .byte 127,255 // jg 330ec <.literal16+0x58c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg 33031 <.literal16+0x591>
+ .byte 127,0 // jg 330f1 <.literal16+0x591>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
.byte 56,0 // cmp %al,(%rax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
@@ -61000,13 +61044,13 @@ BALIGN16
.byte 64,254 // rex (bad)
.byte 255,0 // incl (%rax)
.byte 255 // (bad)
- .byte 127,71 // jg 3309b <.literal16+0x5fb>
+ .byte 127,71 // jg 3315b <.literal16+0x5fb>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3309f <.literal16+0x5ff>
+ .byte 127,71 // jg 3315f <.literal16+0x5ff>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 330a3 <.literal16+0x603>
+ .byte 127,71 // jg 33163 <.literal16+0x603>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 330a7 <.literal16+0x607>
+ .byte 127,71 // jg 33167 <.literal16+0x607>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -61036,10 +61080,10 @@ BALIGN16
.byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
.byte 152 // cwtl
.byte 221,147,61,45,16,17 // fstl 0x11102d3d(%rbx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc341aa <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0212e>
+ .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3426a <_sk_srcover_rgba_8888_sse2_lowp+0x2dc0212a>
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 330dc <.literal16+0x63c>
+ .byte 120,57 // js 3319c <.literal16+0x63c>
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
.byte 64,18,120,57 // adc 0x39(%rax),%dil
@@ -61104,13 +61148,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3318e <.literal16+0x6ee>
+ .byte 114,28 // jb 3324e <.literal16+0x6ee>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33192 <.literal16+0x6f2>
+ .byte 62,114,28 // jb,pt 33252 <.literal16+0x6f2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 33196 <.literal16+0x6f6>
+ .byte 62,114,28 // jb,pt 33256 <.literal16+0x6f6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3319a <.literal16+0x6fa>
+ .byte 62,114,28 // jb,pt 3325a <.literal16+0x6fa>
.byte 199 // (bad)
.byte 62,85 // ds push %rbp
.byte 85 // push %rbp
@@ -61129,15 +61173,15 @@ BALIGN16
.byte 0,192 // add %al,%al
.byte 63 // (bad)
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66bfe5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f69>
+ .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d66c0a5 <_sk_srcover_rgba_8888_sse2_lowp+0x3d639f65>
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 331f3 <.literal16+0x753>
- .byte 114,249 // jb 331af <.literal16+0x70f>
- .byte 127,63 // jg 331f7 <.literal16+0x757>
- .byte 114,249 // jb 331b3 <.literal16+0x713>
- .byte 127,63 // jg 331fb <.literal16+0x75b>
- .byte 114,249 // jb 331b7 <.literal16+0x717>
- .byte 127,63 // jg 331ff <.literal16+0x75f>
+ .byte 127,63 // jg 332b3 <.literal16+0x753>
+ .byte 114,249 // jb 3326f <.literal16+0x70f>
+ .byte 127,63 // jg 332b7 <.literal16+0x757>
+ .byte 114,249 // jb 33273 <.literal16+0x713>
+ .byte 127,63 // jg 332bb <.literal16+0x75b>
+ .byte 114,249 // jb 33277 <.literal16+0x717>
+ .byte 127,63 // jg 332bf <.literal16+0x75f>
.byte 3,0 // add (%rax),%eax
.byte 0,0 // add %al,(%rax)
.byte 3,0 // add (%rax),%eax
@@ -61247,14 +61291,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 33291 <.literal16+0x7f1>
- .byte 224,255 // loopne 33293 <.literal16+0x7f3>
- .byte 224,255 // loopne 33295 <.literal16+0x7f5>
- .byte 224,255 // loopne 33297 <.literal16+0x7f7>
- .byte 224,255 // loopne 33299 <.literal16+0x7f9>
- .byte 224,255 // loopne 3329b <.literal16+0x7fb>
- .byte 224,255 // loopne 3329d <.literal16+0x7fd>
- .byte 224,255 // loopne 3329f <.literal16+0x7ff>
+ .byte 224,255 // loopne 33351 <.literal16+0x7f1>
+ .byte 224,255 // loopne 33353 <.literal16+0x7f3>
+ .byte 224,255 // loopne 33355 <.literal16+0x7f5>
+ .byte 224,255 // loopne 33357 <.literal16+0x7f7>
+ .byte 224,255 // loopne 33359 <.literal16+0x7f9>
+ .byte 224,255 // loopne 3335b <.literal16+0x7fb>
+ .byte 224,255 // loopne 3335d <.literal16+0x7fd>
+ .byte 224,255 // loopne 3335f <.literal16+0x7ff>
.byte 54,0,54 // add %dh,%ss:(%rsi)
.byte 0,54 // add %dh,(%rsi)
.byte 0,54 // add %dh,(%rsi)
@@ -61296,9 +61340,9 @@ BALIGN8
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%rax)
.byte 255 // (bad)
- .byte 127,0 // jg 332fb <.literal8+0x1b>
+ .byte 127,0 // jg 333bb <.literal8+0x1b>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 332ff <.literal8+0x1f>
+ .byte 127,0 // jg 333bf <.literal8+0x1f>
.byte 0,0 // add %al,(%rax)
.byte 128,0,0 // addb $0x0,(%rax)
.byte 0 // .byte 0x0
@@ -61404,11 +61448,11 @@ _sk_seed_shader_sse2:
.byte 102,15,110,2 // movd (%edx),%xmm0
.byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,88,128,215,203,0,0 // addps 0xcbd7(%eax),%xmm0
+ .byte 15,88,128,231,203,0,0 // addps 0xcbe7(%eax),%xmm0
.byte 102,15,110,74,4 // movd 0x4(%edx),%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,231,203,0,0 // addps 0xcbe7(%eax),%xmm1
+ .byte 15,88,136,247,203,0,0 // addps 0xcbf7(%eax),%xmm1
.byte 141,113,4 // lea 0x4(%ecx),%esi
.byte 15,87,210 // xorps %xmm2,%xmm2
.byte 15,41,82,64 // movaps %xmm2,0x40(%edx)
@@ -61416,7 +61460,7 @@ _sk_seed_shader_sse2:
.byte 15,41,82,32 // movaps %xmm2,0x20(%edx)
.byte 15,41,82,16 // movaps %xmm2,0x10(%edx)
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,247,203,0,0 // movaps 0xcbf7(%eax),%xmm2
+ .byte 15,40,144,7,204,0,0 // movaps 0xcc07(%eax),%xmm2
.byte 15,87,219 // xorps %xmm3,%xmm3
.byte 86 // push %esi
.byte 82 // push %edx
@@ -61443,15 +61487,15 @@ _sk_dither_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 102,15,110,32 // movd (%eax),%xmm4
.byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,146,203,0,0 // paddd 0xcb92(%ecx),%xmm4
+ .byte 102,15,254,161,162,203,0,0 // paddd 0xcba2(%ecx),%xmm4
.byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
.byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
.byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,162,203,0,0 // movdqa 0xcba2(%ecx),%xmm6
+ .byte 102,15,111,177,178,203,0,0 // movdqa 0xcbb2(%ecx),%xmm6
.byte 102,15,111,207 // movdqa %xmm7,%xmm1
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,194,203,0,0 // movdqa 0xcbc2(%ecx),%xmm0
+ .byte 102,15,111,129,210,203,0,0 // movdqa 0xcbd2(%ecx),%xmm0
.byte 102,15,111,239 // movdqa %xmm7,%xmm5
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,114,245,2 // pslld $0x2,%xmm5
@@ -61461,7 +61505,7 @@ _sk_dither_sse2:
.byte 102,15,219,196 // pand %xmm4,%xmm0
.byte 102,15,254,192 // paddd %xmm0,%xmm0
.byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,178,203,0,0 // movdqa 0xcbb2(%ecx),%xmm1
+ .byte 102,15,111,137,194,203,0,0 // movdqa 0xcbc2(%ecx),%xmm1
.byte 102,15,219,249 // pand %xmm1,%xmm7
.byte 102,15,219,225 // pand %xmm1,%xmm4
.byte 102,15,114,212,2 // psrld $0x2,%xmm4
@@ -61472,8 +61516,8 @@ _sk_dither_sse2:
.byte 102,15,114,215,1 // psrld $0x1,%xmm7
.byte 102,15,235,231 // por %xmm7,%xmm4
.byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,210,203,0,0 // mulps 0xcbd2(%ecx),%xmm0
- .byte 15,88,129,226,203,0,0 // addps 0xcbe2(%ecx),%xmm0
+ .byte 15,89,129,226,203,0,0 // mulps 0xcbe2(%ecx),%xmm0
+ .byte 15,88,129,242,203,0,0 // addps 0xcbf2(%ecx),%xmm0
.byte 243,15,16,14 // movss (%esi),%xmm1
.byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -61541,7 +61585,7 @@ _sk_black_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,70,202,0,0 // movaps 0xca46(%eax),%xmm3
+ .byte 15,40,152,86,202,0,0 // movaps 0xca56(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -61564,7 +61608,7 @@ _sk_white_color_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 141,81,4 // lea 0x4(%ecx),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,22,202,0,0 // movaps 0xca16(%eax),%xmm0
+ .byte 15,40,128,38,202,0,0 // movaps 0xca26(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -61654,7 +61698,7 @@ _sk_srcatop_sse2:
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,103,201,0,0 // movaps 0xc967(%edx),%xmm5
+ .byte 15,40,170,119,201,0,0 // movaps 0xc977(%edx),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
@@ -61693,7 +61737,7 @@ _sk_dstatop_sse2:
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
.byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,8,201,0,0 // movaps 0xc908(%edx),%xmm4
+ .byte 15,40,162,24,201,0,0 // movaps 0xc918(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,198 // addps %xmm6,%xmm0
@@ -61777,7 +61821,7 @@ _sk_srcout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,71,200,0,0 // movaps 0xc847(%eax),%xmm4
+ .byte 15,40,160,87,200,0,0 // movaps 0xc857(%eax),%xmm4
.byte 15,92,98,64 // subps 0x40(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
@@ -61803,7 +61847,7 @@ _sk_dstout_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,15,200,0,0 // movaps 0xc80f(%eax),%xmm4
+ .byte 15,40,160,31,200,0,0 // movaps 0xc81f(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
@@ -61833,7 +61877,7 @@ _sk_srcover_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,200,199,0,0 // movaps 0xc7c8(%eax),%xmm4
+ .byte 15,40,160,216,199,0,0 // movaps 0xc7d8(%eax),%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -61867,7 +61911,7 @@ _sk_dstover_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,120,199,0,0 // movaps 0xc778(%eax),%xmm4
+ .byte 15,40,160,136,199,0,0 // movaps 0xc788(%eax),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
@@ -61923,7 +61967,7 @@ _sk_multiply_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,249,198,0,0 // movaps 0xc6f9(%ecx),%xmm0
+ .byte 15,40,129,9,199,0,0 // movaps 0xc709(%ecx),%xmm0
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -61983,7 +62027,7 @@ _sk_plus__sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,83,198,0,0 // movaps 0xc653(%eax),%xmm4
+ .byte 15,40,160,99,198,0,0 // movaps 0xc663(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,88,74,32 // addps 0x20(%edx),%xmm1
.byte 15,93,204 // minps %xmm4,%xmm1
@@ -62055,7 +62099,7 @@ _sk_xor__sse2:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,165,197,0,0 // movaps 0xc5a5(%edx),%xmm3
+ .byte 15,40,154,181,197,0,0 // movaps 0xc5b5(%edx),%xmm3
.byte 15,40,243 // movaps %xmm3,%xmm6
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,89,198 // mulps %xmm6,%xmm0
@@ -62117,7 +62161,7 @@ _sk_darken_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,95,209 // maxps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,61,197,0,0 // movaps 0xc53d(%edx),%xmm1
+ .byte 15,40,138,77,197,0,0 // movaps 0xc54d(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62166,7 +62210,7 @@ _sk_lighten_sse2:
.byte 15,89,203 // mulps %xmm3,%xmm1
.byte 15,93,209 // minps %xmm1,%xmm2
.byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,189,196,0,0 // movaps 0xc4bd(%edx),%xmm1
+ .byte 15,40,138,205,196,0,0 // movaps 0xc4cd(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62219,7 +62263,7 @@ _sk_difference_sse2:
.byte 15,93,214 // minps %xmm6,%xmm2
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,58,196,0,0 // movaps 0xc43a(%edx),%xmm2
+ .byte 15,40,146,74,196,0,0 // movaps 0xc44a(%edx),%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 15,88,218 // addps %xmm2,%xmm3
@@ -62263,7 +62307,7 @@ _sk_exclusion_sse2:
.byte 15,89,202 // mulps %xmm2,%xmm1
.byte 15,88,201 // addps %xmm1,%xmm1
.byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,180,195,0,0 // movaps 0xc3b4(%edx),%xmm1
+ .byte 15,40,138,196,195,0,0 // movaps 0xc3c4(%edx),%xmm1
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
.byte 15,88,217 // addps %xmm1,%xmm3
@@ -62304,7 +62348,7 @@ _sk_colorburn_sse2:
.byte 15,93,198 // minps %xmm6,%xmm0
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,53,195,0,0 // movaps 0xc335(%ecx),%xmm6
+ .byte 15,40,177,69,195,0,0 // movaps 0xc345(%ecx),%xmm6
.byte 15,40,198 // movaps %xmm6,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
@@ -62421,7 +62465,7 @@ _sk_colordodge_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,172,193,0,0 // movaps 0xc1ac(%ecx),%xmm2
+ .byte 15,40,145,188,193,0,0 // movaps 0xc1bc(%ecx),%xmm2
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,250 // movaps %xmm2,%xmm7
@@ -62538,7 +62582,7 @@ _sk_hardlight_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,75,192,0,0 // movaps 0xc04b(%ecx),%xmm2
+ .byte 15,40,145,91,192,0,0 // movaps 0xc05b(%ecx),%xmm2
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,40,225 // movaps %xmm1,%xmm4
@@ -62648,7 +62692,7 @@ _sk_overlay_sse2:
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,0,191,0,0 // movaps 0xbf00(%ecx),%xmm4
+ .byte 15,40,161,16,191,0,0 // movaps 0xbf10(%ecx),%xmm4
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
@@ -62776,17 +62820,17 @@ _sk_softlight_sse2:
.byte 232,0,0,0,0 // call f50 <_sk_softlight_sse2+0x52>
.byte 89 // pop %ecx
.byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,224,189,0,0 // movaps 0xbde0(%ecx),%xmm1
+ .byte 15,40,137,240,189,0,0 // movaps 0xbdf0(%ecx),%xmm1
.byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
.byte 15,88,193 // addps %xmm1,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,112,189,0,0 // movaps 0xbd70(%ecx),%xmm7
+ .byte 15,40,185,128,189,0,0 // movaps 0xbd80(%ecx),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,82,242 // rsqrtps %xmm2,%xmm6
.byte 15,83,206 // rcpps %xmm6,%xmm1
.byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,240,189,0,0 // movaps 0xbdf0(%ecx),%xmm4
+ .byte 15,40,161,0,190,0,0 // movaps 0xbe00(%ecx),%xmm4
.byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 15,88,208 // addps %xmm0,%xmm2
@@ -62992,7 +63036,7 @@ _sk_hue_sse2:
.byte 15,40,226 // movaps %xmm2,%xmm4
.byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
.byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,175,186,0,0 // movaps 0xbaaf(%ecx),%xmm5
+ .byte 15,40,169,191,186,0,0 // movaps 0xbabf(%ecx),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
@@ -63025,17 +63069,17 @@ _sk_hue_sse2:
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,63,187,0,0 // movaps 0xbb3f(%ecx),%xmm3
+ .byte 15,40,153,79,187,0,0 // movaps 0xbb4f(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
.byte 15,40,206 // movaps %xmm6,%xmm1
.byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,79,187,0,0 // movaps 0xbb4f(%ecx),%xmm3
+ .byte 15,40,153,95,187,0,0 // movaps 0xbb5f(%ecx),%xmm3
.byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,89,251 // mulps %xmm3,%xmm7
.byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,175,186,0,0 // movaps 0xbaaf(%ecx),%xmm1
+ .byte 15,40,137,191,186,0,0 // movaps 0xbabf(%ecx),%xmm1
.byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
@@ -63045,7 +63089,7 @@ _sk_hue_sse2:
.byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
.byte 15,89,241 // mulps %xmm1,%xmm6
.byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,95,187,0,0 // movaps 0xbb5f(%ecx),%xmm5
+ .byte 15,40,169,111,187,0,0 // movaps 0xbb6f(%ecx),%xmm5
.byte 15,89,205 // mulps %xmm5,%xmm1
.byte 15,88,207 // addps %xmm7,%xmm1
.byte 15,94,212 // divps %xmm4,%xmm2
@@ -63238,17 +63282,17 @@ _sk_saturation_sse2:
.byte 15,89,253 // mulps %xmm5,%xmm7
.byte 232,0,0,0,0 // call 1565 <_sk_saturation_sse2+0xb0>
.byte 89 // pop %ecx
- .byte 15,40,153,235,183,0,0 // movaps 0xb7eb(%ecx),%xmm3
+ .byte 15,40,153,251,183,0,0 // movaps 0xb7fb(%ecx),%xmm3
.byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
.byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,251,183,0,0 // movaps 0xb7fb(%ecx),%xmm3
+ .byte 15,40,153,11,184,0,0 // movaps 0xb80b(%ecx),%xmm3
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,238 // movaps %xmm6,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,91,183,0,0 // movaps 0xb75b(%ecx),%xmm0
+ .byte 15,40,129,107,183,0,0 // movaps 0xb76b(%ecx),%xmm0
.byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
.byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
@@ -63260,7 +63304,7 @@ _sk_saturation_sse2:
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,11,184,0,0 // movaps 0xb80b(%ecx),%xmm0
+ .byte 15,40,129,27,184,0,0 // movaps 0xb81b(%ecx),%xmm0
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
@@ -63419,16 +63463,16 @@ _sk_color_sse2:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
.byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,144,181,0,0 // movaps 0xb590(%ecx),%xmm6
+ .byte 15,40,177,160,181,0,0 // movaps 0xb5a0(%ecx),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,160,181,0,0 // movaps 0xb5a0(%ecx),%xmm3
+ .byte 15,40,153,176,181,0,0 // movaps 0xb5b0(%ecx),%xmm3
.byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,243 // mulps %xmm3,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,0,181,0,0 // movaps 0xb500(%ecx),%xmm0
+ .byte 15,40,129,16,181,0,0 // movaps 0xb510(%ecx),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
.byte 15,89,208 // mulps %xmm0,%xmm2
@@ -63438,7 +63482,7 @@ _sk_color_sse2:
.byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
.byte 15,89,194 // mulps %xmm2,%xmm0
.byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,176,181,0,0 // movaps 0xb5b0(%ecx),%xmm1
+ .byte 15,40,137,192,181,0,0 // movaps 0xb5c0(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,214 // addps %xmm6,%xmm2
.byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
@@ -63597,18 +63641,18 @@ _sk_luminosity_sse2:
.byte 232,0,0,0,0 // call 1a23 <_sk_luminosity_sse2+0x11>
.byte 89 // pop %ecx
.byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,45,179,0,0 // movaps 0xb32d(%ecx),%xmm4
+ .byte 15,40,161,61,179,0,0 // movaps 0xb33d(%ecx),%xmm4
.byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,61,179,0,0 // movaps 0xb33d(%ecx),%xmm4
+ .byte 15,40,161,77,179,0,0 // movaps 0xb34d(%ecx),%xmm4
.byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
.byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,157,178,0,0 // movaps 0xb29d(%ecx),%xmm4
+ .byte 15,40,161,173,178,0,0 // movaps 0xb2ad(%ecx),%xmm4
.byte 15,40,252 // movaps %xmm4,%xmm7
.byte 15,92,250 // subps %xmm2,%xmm7
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -63618,7 +63662,7 @@ _sk_luminosity_sse2:
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
.byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,77,179,0,0 // movaps 0xb34d(%ecx),%xmm1
+ .byte 15,40,137,93,179,0,0 // movaps 0xb35d(%ecx),%xmm1
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,88,213 // addps %xmm5,%xmm2
.byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
@@ -63794,7 +63838,7 @@ _sk_srcover_rgba_8888_sse2:
.byte 139,49 // mov (%ecx),%esi
.byte 15,133,224,0,0,0 // jne 1d90 <_sk_srcover_rgba_8888_sse2+0x119>
.byte 243,15,111,20,178 // movdqu (%edx,%esi,4),%xmm2
- .byte 102,15,111,167,242,176,0,0 // movdqa 0xb0f2(%edi),%xmm4
+ .byte 102,15,111,167,2,177,0,0 // movdqa 0xb102(%edi),%xmm4
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 102,15,111,242 // movdqa %xmm2,%xmm6
@@ -63805,9 +63849,9 @@ _sk_srcover_rgba_8888_sse2:
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,175,50,176,0,0 // movaps 0xb032(%edi),%xmm5
+ .byte 15,40,175,66,176,0,0 // movaps 0xb042(%edi),%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,143,2,177,0,0 // movaps 0xb102(%edi),%xmm1
+ .byte 15,40,143,18,177,0,0 // movaps 0xb112(%edi),%xmm1
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
@@ -63921,7 +63965,7 @@ _sk_clamp_1_sse2:
.byte 232,0,0,0,0 // call 1e3a <_sk_clamp_1_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,134,174,0,0 // movaps 0xae86(%eax),%xmm4
+ .byte 15,40,160,150,174,0,0 // movaps 0xae96(%eax),%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
.byte 15,93,204 // minps %xmm4,%xmm1
.byte 15,93,212 // minps %xmm4,%xmm2
@@ -63945,7 +63989,7 @@ _sk_clamp_a_sse2:
.byte 232,0,0,0,0 // call 1e6d <_sk_clamp_a_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,83,174,0,0 // minps 0xae53(%eax),%xmm3
+ .byte 15,93,152,99,174,0,0 // minps 0xae63(%eax),%xmm3
.byte 15,93,195 // minps %xmm3,%xmm0
.byte 15,93,203 // minps %xmm3,%xmm1
.byte 15,93,211 // minps %xmm3,%xmm2
@@ -63970,7 +64014,7 @@ _sk_clamp_a_dst_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,85,8 // mov 0x8(%ebp),%edx
.byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,35,174,0,0 // minps 0xae23(%eax),%xmm4
+ .byte 15,93,160,51,174,0,0 // minps 0xae33(%eax),%xmm4
.byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
.byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
.byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
@@ -64044,7 +64088,7 @@ _sk_invert_sse2:
.byte 232,0,0,0,0 // call 1f48 <_sk_invert_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,120,173,0,0 // movaps 0xad78(%eax),%xmm4
+ .byte 15,40,160,136,173,0,0 // movaps 0xad88(%eax),%xmm4
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,92,232 // subps %xmm0,%xmm5
.byte 15,40,244 // movaps %xmm4,%xmm6
@@ -64167,7 +64211,7 @@ _sk_unpremul_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,168,122,172,0,0 // movaps 0xac7a(%eax),%xmm5
+ .byte 15,40,168,138,172,0,0 // movaps 0xac8a(%eax),%xmm5
.byte 15,94,235 // divps %xmm3,%xmm5
.byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
.byte 15,84,229 // andps %xmm5,%xmm4
@@ -64198,19 +64242,19 @@ _sk_from_srgb_sse2:
.byte 88 // pop %eax
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,192,172,0,0 // movaps 0xacc0(%eax),%xmm4
+ .byte 15,40,160,208,172,0,0 // movaps 0xacd0(%eax),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,32,173,0,0 // movaps 0xad20(%eax),%xmm6
+ .byte 15,40,176,48,173,0,0 // movaps 0xad30(%eax),%xmm6
.byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,16,173,0,0 // movaps 0xad10(%eax),%xmm6
+ .byte 15,40,176,32,173,0,0 // movaps 0xad20(%eax),%xmm6
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,48,173,0,0 // movaps 0xad30(%eax),%xmm7
+ .byte 15,40,184,64,173,0,0 // movaps 0xad40(%eax),%xmm7
.byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,64,173,0,0 // movaps 0xad40(%eax),%xmm7
+ .byte 15,40,184,80,173,0,0 // movaps 0xad50(%eax),%xmm7
.byte 15,194,215,1 // cmpltps %xmm7,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64270,18 +64314,18 @@ _sk_from_srgb_dst_sse2:
.byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
.byte 15,40,233 // movaps %xmm1,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,229,171,0,0 // movaps 0xabe5(%ecx),%xmm4
+ .byte 15,40,161,245,171,0,0 // movaps 0xabf5(%ecx),%xmm4
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,69,172,0,0 // movaps 0xac45(%ecx),%xmm6
+ .byte 15,40,177,85,172,0,0 // movaps 0xac55(%ecx),%xmm6
.byte 15,88,198 // addps %xmm6,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,53,172,0,0 // movaps 0xac35(%ecx),%xmm5
+ .byte 15,40,169,69,172,0,0 // movaps 0xac45(%ecx),%xmm5
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,85,172,0,0 // movaps 0xac55(%ecx),%xmm7
+ .byte 15,40,185,101,172,0,0 // movaps 0xac65(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,101,172,0,0 // movaps 0xac65(%ecx),%xmm3
+ .byte 15,40,153,117,172,0,0 // movaps 0xac75(%ecx),%xmm3
.byte 15,194,203,1 // cmpltps %xmm3,%xmm1
.byte 15,84,209 // andps %xmm1,%xmm2
.byte 15,85,200 // andnps %xmm0,%xmm1
@@ -64343,25 +64387,25 @@ _sk_to_srgb_sse2:
.byte 232,0,0,0,0 // call 2256 <_sk_to_srgb_sse2+0x18>
.byte 88 // pop %eax
.byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,154,171,0,0 // movaps 0xab9a(%eax),%xmm4
+ .byte 15,40,160,170,171,0,0 // movaps 0xabaa(%eax),%xmm4
.byte 15,40,235 // movaps %xmm3,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,170,171,0,0 // movaps 0xabaa(%eax),%xmm0
+ .byte 15,40,128,186,171,0,0 // movaps 0xabba(%eax),%xmm0
.byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,186,171,0,0 // movaps 0xabba(%eax),%xmm0
+ .byte 15,40,128,202,171,0,0 // movaps 0xabca(%eax),%xmm0
.byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,202,171,0,0 // movaps 0xabca(%eax),%xmm0
+ .byte 15,40,128,218,171,0,0 // movaps 0xabda(%eax),%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
.byte 15,88,216 // addps %xmm0,%xmm3
.byte 15,83,195 // rcpps %xmm3,%xmm0
.byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,138,171,0,0 // movaps 0xab8a(%eax),%xmm5
+ .byte 15,40,168,154,171,0,0 // movaps 0xab9a(%eax),%xmm5
.byte 15,40,202 // movaps %xmm2,%xmm1
.byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,218,171,0,0 // movaps 0xabda(%eax),%xmm3
+ .byte 15,40,152,234,171,0,0 // movaps 0xabea(%eax),%xmm3
.byte 15,194,211,1 // cmpltps %xmm3,%xmm2
.byte 15,84,202 // andps %xmm2,%xmm1
.byte 15,85,208 // andnps %xmm0,%xmm2
@@ -64432,14 +64476,14 @@ _sk_rgb_to_hsl_sse2:
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,115,169,0,0 // movaps 0xa973(%eax),%xmm1
+ .byte 15,40,136,131,169,0,0 // movaps 0xa983(%eax),%xmm1
.byte 15,94,200 // divps %xmm0,%xmm1
.byte 15,40,199 // movaps %xmm7,%xmm0
.byte 15,92,194 // subps %xmm2,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
.byte 15,40,239 // movaps %xmm7,%xmm5
.byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,243,170,0,0 // andps 0xaaf3(%eax),%xmm5
+ .byte 15,84,168,3,171,0,0 // andps 0xab03(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 15,40,195 // movaps %xmm3,%xmm0
.byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
@@ -64449,9 +64493,9 @@ _sk_rgb_to_hsl_sse2:
.byte 15,92,231 // subps %xmm7,%xmm4
.byte 15,89,209 // mulps %xmm1,%xmm2
.byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,3,171,0,0 // movaps 0xab03(%eax),%xmm1
+ .byte 15,40,136,19,171,0,0 // movaps 0xab13(%eax),%xmm1
.byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,19,171,0,0 // addps 0xab13(%eax),%xmm4
+ .byte 15,88,160,35,171,0,0 // addps 0xab23(%eax),%xmm4
.byte 15,84,214 // andps %xmm6,%xmm2
.byte 15,85,244 // andnps %xmm4,%xmm6
.byte 15,86,242 // orps %xmm2,%xmm6
@@ -64463,7 +64507,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
.byte 15,92,203 // subps %xmm3,%xmm1
.byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,99,169,0,0 // movaps 0xa963(%eax),%xmm5
+ .byte 15,40,168,115,169,0,0 // movaps 0xa973(%eax),%xmm5
.byte 15,92,202 // subps %xmm2,%xmm1
.byte 15,40,211 // movaps %xmm3,%xmm2
.byte 15,89,213 // mulps %xmm5,%xmm2
@@ -64473,7 +64517,7 @@ _sk_rgb_to_hsl_sse2:
.byte 15,86,233 // orps %xmm1,%xmm5
.byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
.byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,35,171,0,0 // mulps 0xab23(%eax),%xmm0
+ .byte 15,89,128,51,171,0,0 // mulps 0xab33(%eax),%xmm0
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,84,204 // andps %xmm4,%xmm1
.byte 139,69,12 // mov 0xc(%ebp),%eax
@@ -64498,7 +64542,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
.byte 232,0,0,0,0 // call 2448 <_sk_hsl_to_rgb_sse2+0x19>
.byte 88 // pop %eax
- .byte 15,40,160,104,168,0,0 // movaps 0xa868(%eax),%xmm4
+ .byte 15,40,160,120,168,0,0 // movaps 0xa878(%eax),%xmm4
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
.byte 15,194,218,2 // cmpleps %xmm2,%xmm3
@@ -64511,13 +64555,13 @@ _sk_hsl_to_rgb_sse2:
.byte 15,84,243 // andps %xmm3,%xmm6
.byte 15,85,217 // andnps %xmm1,%xmm3
.byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,56,170,0,0 // movaps 0xaa38(%eax),%xmm5
+ .byte 15,40,168,72,170,0,0 // movaps 0xaa48(%eax),%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
.byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,120,168,0,0 // movaps 0xa878(%eax),%xmm6
+ .byte 15,40,176,136,168,0,0 // movaps 0xa888(%eax),%xmm6
.byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,200 // subps %xmm0,%xmm1
@@ -64527,19 +64571,19 @@ _sk_hsl_to_rgb_sse2:
.byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
.byte 15,88,210 // addps %xmm2,%xmm2
.byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,72,170,0,0 // movaps 0xaa48(%eax),%xmm7
+ .byte 15,40,184,88,170,0,0 // movaps 0xaa58(%eax),%xmm7
.byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
.byte 15,194,253,2 // cmpleps %xmm5,%xmm7
.byte 15,92,218 // subps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,204 // movaps %xmm4,%xmm1
.byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,40,170,0,0 // movaps 0xaa28(%eax),%xmm4
+ .byte 15,40,160,56,170,0,0 // movaps 0xaa38(%eax),%xmm4
.byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
.byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,248,169,0,0 // movaps 0xa9f8(%eax),%xmm6
+ .byte 15,40,176,8,170,0,0 // movaps 0xaa08(%eax),%xmm6
.byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,24,170,0,0 // movaps 0xaa18(%eax),%xmm0
+ .byte 15,40,128,40,170,0,0 // movaps 0xaa28(%eax),%xmm0
.byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
@@ -64565,18 +64609,18 @@ _sk_hsl_to_rgb_sse2:
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,120,168,0,0 // andps 0xa878(%eax),%xmm1
+ .byte 15,84,136,136,168,0,0 // andps 0xa888(%eax),%xmm1
.byte 15,92,193 // subps %xmm1,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
.byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,72,170,0,0 // movaps 0xaa48(%eax),%xmm0
+ .byte 15,40,128,88,170,0,0 // movaps 0xaa58(%eax),%xmm0
.byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,104,168,0,0 // movaps 0xa868(%eax),%xmm3
+ .byte 15,40,152,120,168,0,0 // movaps 0xa878(%eax),%xmm3
.byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,40,170,0,0 // movaps 0xaa28(%eax),%xmm4
+ .byte 15,40,160,56,170,0,0 // movaps 0xaa38(%eax),%xmm4
.byte 15,194,225,2 // cmpleps %xmm1,%xmm4
.byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,24,170,0,0 // movaps 0xaa18(%eax),%xmm5
+ .byte 15,40,168,40,170,0,0 // movaps 0xaa28(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,89,239 // mulps %xmm7,%xmm5
.byte 15,88,234 // addps %xmm2,%xmm5
@@ -64596,7 +64640,7 @@ _sk_hsl_to_rgb_sse2:
.byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
.byte 15,85,252 // andnps %xmm4,%xmm7
.byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,88,170,0,0 // addps 0xaa58(%eax),%xmm3
+ .byte 15,88,152,104,170,0,0 // addps 0xaa68(%eax),%xmm3
.byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
.byte 15,40,203 // movaps %xmm3,%xmm1
@@ -64698,9 +64742,9 @@ _sk_scale_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,190,166,0,0 // pand 0xa6be(%edx),%xmm4
+ .byte 102,15,219,162,206,166,0,0 // pand 0xa6ce(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,238,167,0,0 // mulps 0xa7ee(%edx),%xmm4
+ .byte 15,89,162,254,167,0,0 // mulps 0xa7fe(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 15,89,212 // mulps %xmm4,%xmm2
@@ -64766,17 +64810,17 @@ _sk_scale_565_sse2:
.byte 15,133,157,0,0,0 // jne 283a <_sk_scale_565_sse2+0xd8>
.byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
.byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,68,167,0,0 // movdqa 0xa744(%edx),%xmm4
+ .byte 102,15,111,162,84,167,0,0 // movdqa 0xa754(%edx),%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
.byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,84,167,0,0 // mulps 0xa754(%edx),%xmm2
- .byte 102,15,111,170,100,167,0,0 // movdqa 0xa764(%edx),%xmm5
+ .byte 15,89,146,100,167,0,0 // mulps 0xa764(%edx),%xmm2
+ .byte 102,15,111,170,116,167,0,0 // movdqa 0xa774(%edx),%xmm5
.byte 102,15,219,238 // pand %xmm6,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,116,167,0,0 // mulps 0xa774(%edx),%xmm5
- .byte 102,15,219,178,132,167,0,0 // pand 0xa784(%edx),%xmm6
+ .byte 15,89,170,132,167,0,0 // mulps 0xa784(%edx),%xmm5
+ .byte 102,15,219,178,148,167,0,0 // pand 0xa794(%edx),%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,148,167,0,0 // mulps 0xa794(%edx),%xmm6
+ .byte 15,89,178,164,167,0,0 // mulps 0xa7a4(%edx),%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,93,254 // minps %xmm6,%xmm7
.byte 15,40,226 // movaps %xmm2,%xmm4
@@ -64890,9 +64934,9 @@ _sk_lerp_u8_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,150,164,0,0 // pand 0xa496(%edx),%xmm4
+ .byte 102,15,219,162,166,164,0,0 // pand 0xa4a6(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,198,165,0,0 // mulps 0xa5c6(%edx),%xmm4
+ .byte 15,89,162,214,165,0,0 // mulps 0xa5d6(%edx),%xmm4
.byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
.byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
.byte 15,92,197 // subps %xmm5,%xmm0
@@ -64970,17 +65014,17 @@ _sk_lerp_565_sse2:
.byte 15,133,211,0,0,0 // jne 2ac8 <_sk_lerp_565_sse2+0x113>
.byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
.byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,236,164,0,0 // movdqa 0xa4ec(%edx),%xmm4
+ .byte 102,15,111,162,252,164,0,0 // movdqa 0xa4fc(%edx),%xmm4
.byte 102,15,219,229 // pand %xmm5,%xmm4
.byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,252,164,0,0 // mulps 0xa4fc(%edx),%xmm1
- .byte 102,15,111,178,12,165,0,0 // movdqa 0xa50c(%edx),%xmm6
+ .byte 15,89,138,12,165,0,0 // mulps 0xa50c(%edx),%xmm1
+ .byte 102,15,111,178,28,165,0,0 // movdqa 0xa51c(%edx),%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,28,165,0,0 // mulps 0xa51c(%edx),%xmm6
- .byte 102,15,219,170,44,165,0,0 // pand 0xa52c(%edx),%xmm5
+ .byte 15,89,178,44,165,0,0 // mulps 0xa52c(%edx),%xmm6
+ .byte 102,15,219,170,60,165,0,0 // pand 0xa53c(%edx),%xmm5
.byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,60,165,0,0 // mulps 0xa53c(%edx),%xmm2
+ .byte 15,89,146,76,165,0,0 // mulps 0xa54c(%edx),%xmm2
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
.byte 15,40,254 // movaps %xmm6,%xmm7
@@ -65068,7 +65112,7 @@ _sk_load_tables_sse2:
.byte 139,30 // mov (%esi),%ebx
.byte 15,133,22,1,0,0 // jne 2c4c <_sk_load_tables_sse2+0x13c>
.byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,98,162,0,0 // movdqa 0xa262(%edx),%xmm2
+ .byte 102,15,111,146,114,162,0,0 // movdqa 0xa272(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -65124,7 +65168,7 @@ _sk_load_tables_sse2:
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
.byte 102,15,114,211,24 // psrld $0x18,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,146,163,0,0 // mulps 0xa392(%edx),%xmm3
+ .byte 15,89,154,162,163,0,0 // mulps 0xa3a2(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65199,7 +65243,7 @@ _sk_load_tables_u16_be_sse2:
.byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,145,162,0,0 // movdqa 0xa291(%edx),%xmm2
+ .byte 102,15,111,146,161,162,0,0 // movdqa 0xa2a1(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
@@ -65271,7 +65315,7 @@ _sk_load_tables_u16_be_sse2:
.byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
.byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,161,162,0,0 // mulps 0xa2a1(%edx),%xmm3
+ .byte 15,89,154,177,162,0,0 // mulps 0xa2b1(%edx),%xmm3
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 137,194 // mov %eax,%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -65344,7 +65388,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
.byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,106,160,0,0 // movdqa 0xa06a(%edx),%xmm2
+ .byte 102,15,111,146,122,160,0,0 // movdqa 0xa07a(%edx),%xmm2
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
@@ -65409,7 +65453,7 @@ _sk_load_tables_rgb_u16_be_sse2:
.byte 137,198 // mov %eax,%esi
.byte 141,70,8 // lea 0x8(%esi),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,10,158,0,0 // movaps 0x9e0a(%edx),%xmm3
+ .byte 15,40,154,26,158,0,0 // movaps 0x9e1a(%edx),%xmm3
.byte 80 // push %eax
.byte 81 // push %ecx
.byte 255,86,4 // call *0x4(%esi)
@@ -65452,7 +65496,7 @@ _sk_byte_tables_sse2:
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
- .byte 15,40,162,173,156,0,0 // movaps 0x9cad(%edx),%xmm4
+ .byte 15,40,162,189,156,0,0 // movaps 0x9cbd(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -65474,7 +65518,7 @@ _sk_byte_tables_sse2:
.byte 102,15,110,192 // movd %eax,%xmm0
.byte 139,65,4 // mov 0x4(%ecx),%eax
.byte 102,15,196,195,1 // pinsrw $0x1,%ebx,%xmm0
- .byte 15,40,170,205,157,0,0 // movaps 0x9dcd(%edx),%xmm5
+ .byte 15,40,170,221,157,0,0 // movaps 0x9ddd(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65604,7 +65648,7 @@ _sk_byte_tables_rgb_sse2:
.byte 102,15,110,199 // movd %edi,%xmm0
.byte 139,121,4 // mov 0x4(%ecx),%edi
.byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 15,40,170,209,155,0,0 // movaps 0x9bd1(%edx),%xmm5
+ .byte 15,40,170,225,155,0,0 // movaps 0x9be1(%edx),%xmm5
.byte 15,89,204 // mulps %xmm4,%xmm1
.byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -65860,15 +65904,15 @@ _sk_parametric_r_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,145,153,0,0 // mulps 0x9991(%edx),%xmm5
- .byte 15,84,178,161,153,0,0 // andps 0x99a1(%edx),%xmm6
- .byte 15,86,178,1,151,0,0 // orps 0x9701(%edx),%xmm6
- .byte 15,88,170,177,153,0,0 // addps 0x99b1(%edx),%xmm5
- .byte 15,40,186,193,153,0,0 // movaps 0x99c1(%edx),%xmm7
+ .byte 15,89,170,161,153,0,0 // mulps 0x99a1(%edx),%xmm5
+ .byte 15,84,178,177,153,0,0 // andps 0x99b1(%edx),%xmm6
+ .byte 15,86,178,17,151,0,0 // orps 0x9711(%edx),%xmm6
+ .byte 15,88,170,193,153,0,0 // addps 0x99c1(%edx),%xmm5
+ .byte 15,40,186,209,153,0,0 // movaps 0x99d1(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,209,153,0,0 // addps 0x99d1(%edx),%xmm6
- .byte 15,40,186,225,153,0,0 // movaps 0x99e1(%edx),%xmm7
+ .byte 15,88,178,225,153,0,0 // addps 0x99e1(%edx),%xmm6
+ .byte 15,40,186,241,153,0,0 // movaps 0x99f1(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -65878,21 +65922,21 @@ _sk_parametric_r_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,17,151,0,0 // movaps 0x9711(%edx),%xmm6
+ .byte 15,40,178,33,151,0,0 // movaps 0x9721(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,241,153,0,0 // addps 0x99f1(%edx),%xmm5
- .byte 15,40,186,1,154,0,0 // movaps 0x9a01(%edx),%xmm7
+ .byte 15,88,170,1,154,0,0 // addps 0x9a01(%edx),%xmm5
+ .byte 15,40,186,17,154,0,0 // movaps 0x9a11(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,17,154,0,0 // movaps 0x9a11(%edx),%xmm7
+ .byte 15,40,186,33,154,0,0 // movaps 0x9a21(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,33,154,0,0 // movaps 0x9a21(%edx),%xmm0
+ .byte 15,40,130,49,154,0,0 // movaps 0x9a31(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,49,154,0,0 // mulps 0x9a31(%edx),%xmm0
+ .byte 15,89,130,65,154,0,0 // mulps 0x9a41(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -65946,15 +65990,15 @@ _sk_parametric_g_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,90,152,0,0 // mulps 0x985a(%edx),%xmm5
- .byte 15,84,178,106,152,0,0 // andps 0x986a(%edx),%xmm6
- .byte 15,86,178,202,149,0,0 // orps 0x95ca(%edx),%xmm6
- .byte 15,88,170,122,152,0,0 // addps 0x987a(%edx),%xmm5
- .byte 15,40,186,138,152,0,0 // movaps 0x988a(%edx),%xmm7
+ .byte 15,89,170,106,152,0,0 // mulps 0x986a(%edx),%xmm5
+ .byte 15,84,178,122,152,0,0 // andps 0x987a(%edx),%xmm6
+ .byte 15,86,178,218,149,0,0 // orps 0x95da(%edx),%xmm6
+ .byte 15,88,170,138,152,0,0 // addps 0x988a(%edx),%xmm5
+ .byte 15,40,186,154,152,0,0 // movaps 0x989a(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,154,152,0,0 // addps 0x989a(%edx),%xmm6
- .byte 15,40,186,170,152,0,0 // movaps 0x98aa(%edx),%xmm7
+ .byte 15,88,178,170,152,0,0 // addps 0x98aa(%edx),%xmm6
+ .byte 15,40,186,186,152,0,0 // movaps 0x98ba(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -65964,21 +66008,21 @@ _sk_parametric_g_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,218,149,0,0 // movaps 0x95da(%edx),%xmm6
+ .byte 15,40,178,234,149,0,0 // movaps 0x95ea(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,186,152,0,0 // addps 0x98ba(%edx),%xmm5
- .byte 15,40,186,202,152,0,0 // movaps 0x98ca(%edx),%xmm7
+ .byte 15,88,170,202,152,0,0 // addps 0x98ca(%edx),%xmm5
+ .byte 15,40,186,218,152,0,0 // movaps 0x98da(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,218,152,0,0 // movaps 0x98da(%edx),%xmm7
+ .byte 15,40,186,234,152,0,0 // movaps 0x98ea(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,234,152,0,0 // movaps 0x98ea(%edx),%xmm0
+ .byte 15,40,130,250,152,0,0 // movaps 0x98fa(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,250,152,0,0 // mulps 0x98fa(%edx),%xmm0
+ .byte 15,89,130,10,153,0,0 // mulps 0x990a(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66031,15 +66075,15 @@ _sk_parametric_b_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,38,151,0,0 // mulps 0x9726(%edx),%xmm5
- .byte 15,84,178,54,151,0,0 // andps 0x9736(%edx),%xmm6
- .byte 15,86,178,150,148,0,0 // orps 0x9496(%edx),%xmm6
- .byte 15,88,170,70,151,0,0 // addps 0x9746(%edx),%xmm5
- .byte 15,40,186,86,151,0,0 // movaps 0x9756(%edx),%xmm7
+ .byte 15,89,170,54,151,0,0 // mulps 0x9736(%edx),%xmm5
+ .byte 15,84,178,70,151,0,0 // andps 0x9746(%edx),%xmm6
+ .byte 15,86,178,166,148,0,0 // orps 0x94a6(%edx),%xmm6
+ .byte 15,88,170,86,151,0,0 // addps 0x9756(%edx),%xmm5
+ .byte 15,40,186,102,151,0,0 // movaps 0x9766(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,102,151,0,0 // addps 0x9766(%edx),%xmm6
- .byte 15,40,186,118,151,0,0 // movaps 0x9776(%edx),%xmm7
+ .byte 15,88,178,118,151,0,0 // addps 0x9776(%edx),%xmm6
+ .byte 15,40,186,134,151,0,0 // movaps 0x9786(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66049,21 +66093,21 @@ _sk_parametric_b_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,166,148,0,0 // movaps 0x94a6(%edx),%xmm6
+ .byte 15,40,178,182,148,0,0 // movaps 0x94b6(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,134,151,0,0 // addps 0x9786(%edx),%xmm5
- .byte 15,40,186,150,151,0,0 // movaps 0x9796(%edx),%xmm7
+ .byte 15,88,170,150,151,0,0 // addps 0x9796(%edx),%xmm5
+ .byte 15,40,186,166,151,0,0 // movaps 0x97a6(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,166,151,0,0 // movaps 0x97a6(%edx),%xmm7
+ .byte 15,40,186,182,151,0,0 // movaps 0x97b6(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,182,151,0,0 // movaps 0x97b6(%edx),%xmm0
+ .byte 15,40,130,198,151,0,0 // movaps 0x97c6(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,198,151,0,0 // mulps 0x97c6(%edx),%xmm0
+ .byte 15,89,130,214,151,0,0 // mulps 0x97d6(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66116,15 +66160,15 @@ _sk_parametric_a_sse2:
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,245 // addps %xmm5,%xmm6
.byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,170,242,149,0,0 // mulps 0x95f2(%edx),%xmm5
- .byte 15,84,178,2,150,0,0 // andps 0x9602(%edx),%xmm6
- .byte 15,86,178,98,147,0,0 // orps 0x9362(%edx),%xmm6
- .byte 15,88,170,18,150,0,0 // addps 0x9612(%edx),%xmm5
- .byte 15,40,186,34,150,0,0 // movaps 0x9622(%edx),%xmm7
+ .byte 15,89,170,2,150,0,0 // mulps 0x9602(%edx),%xmm5
+ .byte 15,84,178,18,150,0,0 // andps 0x9612(%edx),%xmm6
+ .byte 15,86,178,114,147,0,0 // orps 0x9372(%edx),%xmm6
+ .byte 15,88,170,34,150,0,0 // addps 0x9622(%edx),%xmm5
+ .byte 15,40,186,50,150,0,0 // movaps 0x9632(%edx),%xmm7
.byte 15,89,254 // mulps %xmm6,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,88,178,50,150,0,0 // addps 0x9632(%edx),%xmm6
- .byte 15,40,186,66,150,0,0 // movaps 0x9642(%edx),%xmm7
+ .byte 15,88,178,66,150,0,0 // addps 0x9642(%edx),%xmm6
+ .byte 15,40,186,82,150,0,0 // movaps 0x9652(%edx),%xmm7
.byte 15,94,254 // divps %xmm6,%xmm7
.byte 243,15,16,49 // movss (%ecx),%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
@@ -66134,21 +66178,21 @@ _sk_parametric_a_sse2:
.byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 15,40,178,114,147,0,0 // movaps 0x9372(%edx),%xmm6
+ .byte 15,40,178,130,147,0,0 // movaps 0x9382(%edx),%xmm6
.byte 15,84,198 // andps %xmm6,%xmm0
.byte 15,92,248 // subps %xmm0,%xmm7
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,88,170,82,150,0,0 // addps 0x9652(%edx),%xmm5
- .byte 15,40,186,98,150,0,0 // movaps 0x9662(%edx),%xmm7
+ .byte 15,88,170,98,150,0,0 // addps 0x9662(%edx),%xmm5
+ .byte 15,40,186,114,150,0,0 // movaps 0x9672(%edx),%xmm7
.byte 15,89,248 // mulps %xmm0,%xmm7
.byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,186,114,150,0,0 // movaps 0x9672(%edx),%xmm7
+ .byte 15,40,186,130,150,0,0 // movaps 0x9682(%edx),%xmm7
.byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,40,130,130,150,0,0 // movaps 0x9682(%edx),%xmm0
+ .byte 15,40,130,146,150,0,0 // movaps 0x9692(%edx),%xmm0
.byte 15,94,199 // divps %xmm7,%xmm0
.byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,89,130,146,150,0,0 // mulps 0x9692(%edx),%xmm0
+ .byte 15,89,130,162,150,0,0 // mulps 0x96a2(%edx),%xmm0
.byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
.byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
@@ -66183,15 +66227,15 @@ _sk_gamma_sse2:
.byte 232,0,0,0,0 // call 3a7f <_sk_gamma_sse2+0x12>
.byte 88 // pop %eax
.byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 15,89,128,193,148,0,0 // mulps 0x94c1(%eax),%xmm0
- .byte 15,84,152,209,148,0,0 // andps 0x94d1(%eax),%xmm3
- .byte 15,86,152,49,146,0,0 // orps 0x9231(%eax),%xmm3
- .byte 15,88,128,225,148,0,0 // addps 0x94e1(%eax),%xmm0
+ .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
+ .byte 15,84,152,225,148,0,0 // andps 0x94e1(%eax),%xmm3
+ .byte 15,86,152,65,146,0,0 // orps 0x9241(%eax),%xmm3
+ .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
.byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,160,241,148,0,0 // mulps 0x94f1(%eax),%xmm4
+ .byte 15,89,160,1,149,0,0 // mulps 0x9501(%eax),%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,152,1,149,0,0 // addps 0x9501(%eax),%xmm3
- .byte 15,40,160,17,149,0,0 // movaps 0x9511(%eax),%xmm4
+ .byte 15,88,152,17,149,0,0 // addps 0x9511(%eax),%xmm3
+ .byte 15,40,160,33,149,0,0 // movaps 0x9521(%eax),%xmm4
.byte 15,94,227 // divps %xmm3,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
.byte 139,77,12 // mov 0xc(%ebp),%ecx
@@ -66204,30 +66248,30 @@ _sk_gamma_sse2:
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,194,227,1 // cmpltps %xmm3,%xmm4
- .byte 15,84,160,65,146,0,0 // andps 0x9241(%eax),%xmm4
+ .byte 15,84,160,81,146,0,0 // andps 0x9251(%eax),%xmm4
.byte 15,92,220 // subps %xmm4,%xmm3
.byte 15,40,224 // movaps %xmm0,%xmm4
.byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,88,128,33,149,0,0 // addps 0x9521(%eax),%xmm0
- .byte 15,40,176,65,149,0,0 // movaps 0x9541(%eax),%xmm6
+ .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
+ .byte 15,40,176,81,149,0,0 // movaps 0x9551(%eax),%xmm6
.byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,168,49,149,0,0 // movaps 0x9531(%eax),%xmm5
+ .byte 15,40,168,65,149,0,0 // movaps 0x9541(%eax),%xmm5
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,152,81,149,0,0 // movaps 0x9551(%eax),%xmm3
+ .byte 15,40,152,97,149,0,0 // movaps 0x9561(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,94,230 // divps %xmm6,%xmm4
.byte 15,88,224 // addps %xmm0,%xmm4
.byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,193,148,0,0 // mulps 0x94c1(%eax),%xmm0
- .byte 15,84,136,209,148,0,0 // andps 0x94d1(%eax),%xmm1
- .byte 15,86,136,49,146,0,0 // orps 0x9231(%eax),%xmm1
- .byte 15,88,128,225,148,0,0 // addps 0x94e1(%eax),%xmm0
+ .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
+ .byte 15,84,136,225,148,0,0 // andps 0x94e1(%eax),%xmm1
+ .byte 15,86,136,65,146,0,0 // orps 0x9241(%eax),%xmm1
+ .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,176,241,148,0,0 // mulps 0x94f1(%eax),%xmm6
+ .byte 15,89,176,1,149,0,0 // mulps 0x9501(%eax),%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,136,1,149,0,0 // addps 0x9501(%eax),%xmm1
- .byte 15,40,176,17,149,0,0 // movaps 0x9511(%eax),%xmm6
+ .byte 15,88,136,17,149,0,0 // addps 0x9511(%eax),%xmm1
+ .byte 15,40,176,33,149,0,0 // movaps 0x9521(%eax),%xmm6
.byte 15,94,241 // divps %xmm1,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
@@ -66235,12 +66279,12 @@ _sk_gamma_sse2:
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,241,1 // cmpltps %xmm1,%xmm6
- .byte 15,84,176,65,146,0,0 // andps 0x9241(%eax),%xmm6
+ .byte 15,84,176,81,146,0,0 // andps 0x9251(%eax),%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,88,128,33,149,0,0 // addps 0x9521(%eax),%xmm0
- .byte 15,40,184,65,149,0,0 // movaps 0x9541(%eax),%xmm7
+ .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
+ .byte 15,40,184,81,149,0,0 // movaps 0x9551(%eax),%xmm7
.byte 15,92,254 // subps %xmm6,%xmm7
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
@@ -66248,15 +66292,15 @@ _sk_gamma_sse2:
.byte 15,94,207 // divps %xmm7,%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,89,128,193,148,0,0 // mulps 0x94c1(%eax),%xmm0
- .byte 15,84,144,209,148,0,0 // andps 0x94d1(%eax),%xmm2
- .byte 15,86,144,49,146,0,0 // orps 0x9231(%eax),%xmm2
- .byte 15,88,128,225,148,0,0 // addps 0x94e1(%eax),%xmm0
- .byte 15,40,176,241,148,0,0 // movaps 0x94f1(%eax),%xmm6
+ .byte 15,89,128,209,148,0,0 // mulps 0x94d1(%eax),%xmm0
+ .byte 15,84,144,225,148,0,0 // andps 0x94e1(%eax),%xmm2
+ .byte 15,86,144,65,146,0,0 // orps 0x9241(%eax),%xmm2
+ .byte 15,88,128,241,148,0,0 // addps 0x94f1(%eax),%xmm0
+ .byte 15,40,176,1,149,0,0 // movaps 0x9501(%eax),%xmm6
.byte 15,89,242 // mulps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,144,1,149,0,0 // addps 0x9501(%eax),%xmm2
- .byte 15,40,176,17,149,0,0 // movaps 0x9511(%eax),%xmm6
+ .byte 15,88,144,17,149,0,0 // addps 0x9511(%eax),%xmm2
+ .byte 15,40,176,33,149,0,0 // movaps 0x9521(%eax),%xmm6
.byte 15,94,242 // divps %xmm2,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
@@ -66264,18 +66308,18 @@ _sk_gamma_sse2:
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,194,242,1 // cmpltps %xmm2,%xmm6
- .byte 15,84,176,65,146,0,0 // andps 0x9241(%eax),%xmm6
+ .byte 15,84,176,81,146,0,0 // andps 0x9251(%eax),%xmm6
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,88,128,33,149,0,0 // addps 0x9521(%eax),%xmm0
+ .byte 15,88,128,49,149,0,0 // addps 0x9531(%eax),%xmm0
.byte 15,89,238 // mulps %xmm6,%xmm5
.byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,144,65,149,0,0 // movaps 0x9541(%eax),%xmm2
+ .byte 15,40,144,81,149,0,0 // movaps 0x9551(%eax),%xmm2
.byte 15,92,214 // subps %xmm6,%xmm2
.byte 15,94,218 // divps %xmm2,%xmm3
.byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,128,97,149,0,0 // movaps 0x9561(%eax),%xmm0
+ .byte 15,40,128,113,149,0,0 // movaps 0x9571(%eax),%xmm0
.byte 15,89,224 // mulps %xmm0,%xmm4
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 15,89,216 // mulps %xmm0,%xmm3
@@ -66304,29 +66348,29 @@ _sk_lab_to_xyz_sse2:
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 232,0,0,0,0 // call 3c67 <_sk_lab_to_xyz_sse2+0x15>
.byte 88 // pop %eax
- .byte 15,89,144,137,147,0,0 // mulps 0x9389(%eax),%xmm2
- .byte 15,40,160,41,145,0,0 // movaps 0x9129(%eax),%xmm4
+ .byte 15,89,144,153,147,0,0 // mulps 0x9399(%eax),%xmm2
+ .byte 15,40,160,57,145,0,0 // movaps 0x9139(%eax),%xmm4
.byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,153,147,0,0 // movaps 0x9399(%eax),%xmm5
+ .byte 15,40,168,169,147,0,0 // movaps 0x93a9(%eax),%xmm5
.byte 15,88,205 // addps %xmm5,%xmm1
.byte 15,89,220 // mulps %xmm4,%xmm3
.byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,169,147,0,0 // addps 0x93a9(%eax),%xmm2
- .byte 15,89,144,185,147,0,0 // mulps 0x93b9(%eax),%xmm2
- .byte 15,89,136,201,147,0,0 // mulps 0x93c9(%eax),%xmm1
+ .byte 15,88,144,185,147,0,0 // addps 0x93b9(%eax),%xmm2
+ .byte 15,89,144,201,147,0,0 // mulps 0x93c9(%eax),%xmm2
+ .byte 15,89,136,217,147,0,0 // mulps 0x93d9(%eax),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,217,147,0,0 // mulps 0x93d9(%eax),%xmm3
+ .byte 15,89,152,233,147,0,0 // mulps 0x93e9(%eax),%xmm3
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,92,235 // subps %xmm3,%xmm5
.byte 15,40,193 // movaps %xmm1,%xmm0
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,233,147,0,0 // movaps 0x93e9(%eax),%xmm3
+ .byte 15,40,152,249,147,0,0 // movaps 0x93f9(%eax),%xmm3
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,249,147,0,0 // movaps 0x93f9(%eax),%xmm6
+ .byte 15,40,176,9,148,0,0 // movaps 0x9409(%eax),%xmm6
.byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,9,148,0,0 // movaps 0x9409(%eax),%xmm7
+ .byte 15,40,184,25,148,0,0 // movaps 0x9419(%eax),%xmm7
.byte 15,89,207 // mulps %xmm7,%xmm1
.byte 15,84,196 // andps %xmm4,%xmm0
.byte 15,85,225 // andnps %xmm1,%xmm4
@@ -66351,8 +66395,8 @@ _sk_lab_to_xyz_sse2:
.byte 15,85,221 // andnps %xmm5,%xmm3
.byte 15,86,216 // orps %xmm0,%xmm3
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,25,148,0,0 // mulps 0x9419(%eax),%xmm4
- .byte 15,89,152,41,148,0,0 // mulps 0x9429(%eax),%xmm3
+ .byte 15,89,160,41,148,0,0 // mulps 0x9429(%eax),%xmm4
+ .byte 15,89,152,57,148,0,0 // mulps 0x9439(%eax),%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -66390,9 +66434,9 @@ _sk_load_a8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,41,144,0,0 // pand 0x9029(%edx),%xmm0
+ .byte 102,15,219,130,57,144,0,0 // pand 0x9039(%edx),%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,89,145,0,0 // mulps 0x9159(%edx),%xmm3
+ .byte 15,89,154,105,145,0,0 // mulps 0x9169(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66457,9 +66501,9 @@ _sk_load_a8_dst_sse2:
.byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,85,143,0,0 // pand 0x8f55(%edx),%xmm4
+ .byte 102,15,219,162,101,143,0,0 // pand 0x8f65(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,133,144,0,0 // mulps 0x9085(%edx),%xmm4
+ .byte 15,89,162,149,144,0,0 // mulps 0x9095(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66550,7 +66594,7 @@ _sk_gather_a8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,88,143,0,0 // mulps 0x8f58(%ecx),%xmm3
+ .byte 15,89,153,104,143,0,0 // mulps 0x8f68(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 15,87,192 // xorps %xmm0,%xmm0
@@ -66584,7 +66628,7 @@ _sk_store_a8_sse2:
.byte 15,175,81,4 // imul 0x4(%ecx),%edx
.byte 3,23 // add (%edi),%edx
.byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,40,166,244,141,0,0 // movaps 0x8df4(%esi),%xmm4
+ .byte 15,40,166,4,142,0,0 // movaps 0x8e04(%esi),%xmm4
.byte 15,89,227 // mulps %xmm3,%xmm4
.byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
@@ -66619,7 +66663,7 @@ _sk_store_a8_sse2:
.byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
.byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
.byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,4,145,0,0 // pand 0x9104(%esi),%xmm4
+ .byte 102,15,219,166,20,145,0,0 // pand 0x9114(%esi),%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
@@ -66655,12 +66699,12 @@ _sk_load_g8_sse2:
.byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
.byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,50,141,0,0 // pand 0x8d32(%edx),%xmm0
+ .byte 102,15,219,130,66,141,0,0 // pand 0x8d42(%edx),%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,98,142,0,0 // mulps 0x8e62(%edx),%xmm0
+ .byte 15,89,130,114,142,0,0 // mulps 0x8e72(%edx),%xmm0
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,114,140,0,0 // movaps 0x8c72(%edx),%xmm3
+ .byte 15,40,154,130,140,0,0 // movaps 0x8c82(%edx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 86 // push %esi
@@ -66718,13 +66762,13 @@ _sk_load_g8_dst_sse2:
.byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,134,140,0,0 // pand 0x8c86(%edx),%xmm4
+ .byte 102,15,219,162,150,140,0,0 // pand 0x8c96(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,182,141,0,0 // mulps 0x8db6(%edx),%xmm4
+ .byte 15,89,162,198,141,0,0 // mulps 0x8dc6(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
.byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
.byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,198,139,0,0 // movaps 0x8bc6(%edx),%xmm4
+ .byte 15,40,162,214,139,0,0 // movaps 0x8bd6(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -66816,10 +66860,10 @@ _sk_gather_g8_sse2:
.byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
.byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,95,140,0,0 // mulps 0x8c5f(%ecx),%xmm0
+ .byte 15,89,129,111,140,0,0 // mulps 0x8c6f(%ecx),%xmm0
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,111,138,0,0 // movaps 0x8a6f(%ecx),%xmm3
+ .byte 15,40,153,127,138,0,0 // movaps 0x8a7f(%ecx),%xmm3
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 82 // push %edx
@@ -66856,20 +66900,20 @@ _sk_load_565_sse2:
.byte 117,97 // jne 431a <_sk_load_565_sse2+0x8c>
.byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,36,140,0,0 // movdqa 0x8c24(%edx),%xmm0
+ .byte 102,15,111,130,52,140,0,0 // movdqa 0x8c34(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,52,140,0,0 // mulps 0x8c34(%edx),%xmm0
- .byte 102,15,111,138,68,140,0,0 // movdqa 0x8c44(%edx),%xmm1
+ .byte 15,89,130,68,140,0,0 // mulps 0x8c44(%edx),%xmm0
+ .byte 102,15,111,138,84,140,0,0 // movdqa 0x8c54(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,84,140,0,0 // mulps 0x8c54(%edx),%xmm1
- .byte 102,15,219,146,100,140,0,0 // pand 0x8c64(%edx),%xmm2
+ .byte 15,89,138,100,140,0,0 // mulps 0x8c64(%edx),%xmm1
+ .byte 102,15,219,146,116,140,0,0 // pand 0x8c74(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,116,140,0,0 // mulps 0x8c74(%edx),%xmm2
+ .byte 15,89,146,132,140,0,0 // mulps 0x8c84(%edx),%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,36,138,0,0 // movaps 0x8a24(%edx),%xmm3
+ .byte 15,40,154,52,138,0,0 // movaps 0x8a34(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -66923,21 +66967,21 @@ _sk_load_565_dst_sse2:
.byte 117,113 // jne 43fa <_sk_load_565_dst_sse2+0x9c>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,84,139,0,0 // movdqa 0x8b54(%edx),%xmm5
+ .byte 102,15,111,170,100,139,0,0 // movdqa 0x8b64(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,100,139,0,0 // mulps 0x8b64(%edx),%xmm5
+ .byte 15,89,170,116,139,0,0 // mulps 0x8b74(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,116,139,0,0 // movdqa 0x8b74(%edx),%xmm5
+ .byte 102,15,111,170,132,139,0,0 // movdqa 0x8b84(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,132,139,0,0 // mulps 0x8b84(%edx),%xmm5
+ .byte 15,89,170,148,139,0,0 // mulps 0x8b94(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,148,139,0,0 // pand 0x8b94(%edx),%xmm4
+ .byte 102,15,219,162,164,139,0,0 // pand 0x8ba4(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,164,139,0,0 // mulps 0x8ba4(%edx),%xmm4
+ .byte 15,89,162,180,139,0,0 // mulps 0x8bb4(%edx),%xmm4
.byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,84,137,0,0 // movaps 0x8954(%edx),%xmm4
+ .byte 15,40,162,100,137,0,0 // movaps 0x8964(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67022,20 +67066,20 @@ _sk_gather_565_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
.byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,210,137,0,0 // movdqa 0x89d2(%edx),%xmm0
+ .byte 102,15,111,130,226,137,0,0 // movdqa 0x89e2(%edx),%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,226,137,0,0 // mulps 0x89e2(%edx),%xmm0
- .byte 102,15,111,138,242,137,0,0 // movdqa 0x89f2(%edx),%xmm1
+ .byte 15,89,130,242,137,0,0 // mulps 0x89f2(%edx),%xmm0
+ .byte 102,15,111,138,2,138,0,0 // movdqa 0x8a02(%edx),%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,2,138,0,0 // mulps 0x8a02(%edx),%xmm1
- .byte 102,15,219,146,18,138,0,0 // pand 0x8a12(%edx),%xmm2
+ .byte 15,89,138,18,138,0,0 // mulps 0x8a12(%edx),%xmm1
+ .byte 102,15,219,146,34,138,0,0 // pand 0x8a22(%edx),%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,34,138,0,0 // mulps 0x8a22(%edx),%xmm2
+ .byte 15,89,146,50,138,0,0 // mulps 0x8a32(%edx),%xmm2
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,210,135,0,0 // movaps 0x87d2(%edx),%xmm3
+ .byte 15,40,154,226,135,0,0 // movaps 0x87e2(%edx),%xmm3
.byte 81 // push %ecx
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,80,4 // call *0x4(%eax)
@@ -67063,8 +67107,8 @@ _sk_store_565_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,79,139,0,0 // movaps 0x8b4f(%edi),%xmm4
- .byte 15,40,175,95,139,0,0 // movaps 0x8b5f(%edi),%xmm5
+ .byte 15,40,167,95,139,0,0 // movaps 0x8b5f(%edi),%xmm4
+ .byte 15,40,175,111,139,0,0 // movaps 0x8b6f(%edi),%xmm5
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,240 // movaps %xmm0,%xmm6
.byte 15,89,244 // mulps %xmm4,%xmm6
@@ -67144,21 +67188,21 @@ _sk_load_4444_sse2:
.byte 117,112 // jne 46d0 <_sk_load_4444_sse2+0x9b>
.byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,141,138,0,0 // movdqa 0x8a8d(%edx),%xmm0
+ .byte 102,15,111,130,157,138,0,0 // movdqa 0x8a9d(%edx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,157,138,0,0 // mulps 0x8a9d(%edx),%xmm0
- .byte 102,15,111,138,173,138,0,0 // movdqa 0x8aad(%edx),%xmm1
+ .byte 15,89,130,173,138,0,0 // mulps 0x8aad(%edx),%xmm0
+ .byte 102,15,111,138,189,138,0,0 // movdqa 0x8abd(%edx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,189,138,0,0 // mulps 0x8abd(%edx),%xmm1
- .byte 102,15,111,146,205,138,0,0 // movdqa 0x8acd(%edx),%xmm2
+ .byte 15,89,138,205,138,0,0 // mulps 0x8acd(%edx),%xmm1
+ .byte 102,15,111,146,221,138,0,0 // movdqa 0x8add(%edx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,221,138,0,0 // mulps 0x8add(%edx),%xmm2
- .byte 102,15,219,154,237,138,0,0 // pand 0x8aed(%edx),%xmm3
+ .byte 15,89,146,237,138,0,0 // mulps 0x8aed(%edx),%xmm2
+ .byte 102,15,219,154,253,138,0,0 // pand 0x8afd(%edx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,253,138,0,0 // mulps 0x8afd(%edx),%xmm3
+ .byte 15,89,154,13,139,0,0 // mulps 0x8b0d(%edx),%xmm3
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
.byte 82 // push %edx
@@ -67214,24 +67258,24 @@ _sk_load_4444_dst_sse2:
.byte 15,133,128,0,0,0 // jne 47c3 <_sk_load_4444_dst_sse2+0xaf>
.byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
.byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,174,137,0,0 // movdqa 0x89ae(%edx),%xmm5
+ .byte 102,15,111,170,190,137,0,0 // movdqa 0x89be(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,190,137,0,0 // mulps 0x89be(%edx),%xmm5
+ .byte 15,89,170,206,137,0,0 // mulps 0x89ce(%edx),%xmm5
.byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,206,137,0,0 // movdqa 0x89ce(%edx),%xmm5
+ .byte 102,15,111,170,222,137,0,0 // movdqa 0x89de(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,222,137,0,0 // mulps 0x89de(%edx),%xmm5
+ .byte 15,89,170,238,137,0,0 // mulps 0x89ee(%edx),%xmm5
.byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,238,137,0,0 // movdqa 0x89ee(%edx),%xmm5
+ .byte 102,15,111,170,254,137,0,0 // movdqa 0x89fe(%edx),%xmm5
.byte 102,15,219,236 // pand %xmm4,%xmm5
.byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,254,137,0,0 // mulps 0x89fe(%edx),%xmm5
+ .byte 15,89,170,14,138,0,0 // mulps 0x8a0e(%edx),%xmm5
.byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,14,138,0,0 // pand 0x8a0e(%edx),%xmm4
+ .byte 102,15,219,162,30,138,0,0 // pand 0x8a1e(%edx),%xmm4
.byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,30,138,0,0 // mulps 0x8a1e(%edx),%xmm4
+ .byte 15,89,162,46,138,0,0 // mulps 0x8a2e(%edx),%xmm4
.byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
.byte 141,80,8 // lea 0x8(%eax),%edx
.byte 131,236,8 // sub $0x8,%esp
@@ -67316,21 +67360,21 @@ _sk_gather_4444_sse2:
.byte 89 // pop %ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,16,136,0,0 // movdqa 0x8810(%ecx),%xmm0
+ .byte 102,15,111,129,32,136,0,0 // movdqa 0x8820(%ecx),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,32,136,0,0 // mulps 0x8820(%ecx),%xmm0
- .byte 102,15,111,137,48,136,0,0 // movdqa 0x8830(%ecx),%xmm1
+ .byte 15,89,129,48,136,0,0 // mulps 0x8830(%ecx),%xmm0
+ .byte 102,15,111,137,64,136,0,0 // movdqa 0x8840(%ecx),%xmm1
.byte 102,15,219,203 // pand %xmm3,%xmm1
.byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,64,136,0,0 // mulps 0x8840(%ecx),%xmm1
- .byte 102,15,111,145,80,136,0,0 // movdqa 0x8850(%ecx),%xmm2
+ .byte 15,89,137,80,136,0,0 // mulps 0x8850(%ecx),%xmm1
+ .byte 102,15,111,145,96,136,0,0 // movdqa 0x8860(%ecx),%xmm2
.byte 102,15,219,211 // pand %xmm3,%xmm2
.byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,96,136,0,0 // mulps 0x8860(%ecx),%xmm2
- .byte 102,15,219,153,112,136,0,0 // pand 0x8870(%ecx),%xmm3
+ .byte 15,89,145,112,136,0,0 // mulps 0x8870(%ecx),%xmm2
+ .byte 102,15,219,153,128,136,0,0 // pand 0x8880(%ecx),%xmm3
.byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,128,136,0,0 // mulps 0x8880(%ecx),%xmm3
+ .byte 15,89,153,144,136,0,0 // mulps 0x8890(%ecx),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -67360,7 +67404,7 @@ _sk_store_4444_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,19,136,0,0 // movaps 0x8813(%edi),%xmm4
+ .byte 15,40,167,35,136,0,0 // movaps 0x8823(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67445,11 +67489,11 @@ _sk_load_8888_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 4ab2 <_sk_load_8888_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,82,131,0,0 // movdqa 0x8352(%edx),%xmm2
+ .byte 102,15,111,146,98,131,0,0 // movdqa 0x8362(%edx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,130,132,0,0 // movaps 0x8482(%edx),%xmm4
+ .byte 15,40,162,146,132,0,0 // movaps 0x8492(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67514,11 +67558,11 @@ _sk_load_8888_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 4b89 <_sk_load_8888_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,139,130,0,0 // movdqa 0x828b(%edx),%xmm5
+ .byte 102,15,111,170,155,130,0,0 // movdqa 0x829b(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,187,131,0,0 // movaps 0x83bb(%edx),%xmm7
+ .byte 15,40,186,203,131,0,0 // movaps 0x83cb(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67613,11 +67657,11 @@ _sk_gather_8888_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,24,129,0,0 // movdqa 0x8118(%ecx),%xmm2
+ .byte 102,15,111,145,40,129,0,0 // movdqa 0x8128(%ecx),%xmm2
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,219,194 // pand %xmm2,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,72,130,0,0 // movaps 0x8248(%ecx),%xmm4
+ .byte 15,40,161,88,130,0,0 // movaps 0x8258(%ecx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67661,7 +67705,7 @@ _sk_store_8888_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,173,128,0,0 // movaps 0x80ad(%edi),%xmm4
+ .byte 15,40,167,189,128,0,0 // movaps 0x80bd(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -67732,11 +67776,11 @@ _sk_load_bgra_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,102 // jne 4e1d <_sk_load_bgra_sse2+0x92>
.byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,231,127,0,0 // movdqa 0x7fe7(%edx),%xmm0
+ .byte 102,15,111,130,247,127,0,0 // movdqa 0x7ff7(%edx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,23,129,0,0 // movaps 0x8117(%edx),%xmm4
+ .byte 15,40,162,39,129,0,0 // movaps 0x8127(%edx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67801,11 +67845,11 @@ _sk_load_bgra_dst_sse2:
.byte 139,57 // mov (%ecx),%edi
.byte 117,118 // jne 4ef4 <_sk_load_bgra_dst_sse2+0xa2>
.byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,32,127,0,0 // movdqa 0x7f20(%edx),%xmm5
+ .byte 102,15,111,170,48,127,0,0 // movdqa 0x7f30(%edx),%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,80,128,0,0 // movaps 0x8050(%edx),%xmm7
+ .byte 15,40,186,96,128,0,0 // movaps 0x8060(%edx),%xmm7
.byte 15,89,247 // mulps %xmm7,%xmm6
.byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -67900,11 +67944,11 @@ _sk_gather_bgra_sse2:
.byte 102,15,98,194 // punpckldq %xmm2,%xmm0
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,173,125,0,0 // movdqa 0x7dad(%ecx),%xmm0
+ .byte 102,15,111,129,189,125,0,0 // movdqa 0x7dbd(%ecx),%xmm0
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,219,200 // pand %xmm0,%xmm1
.byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,221,126,0,0 // movaps 0x7edd(%ecx),%xmm4
+ .byte 15,40,161,237,126,0,0 // movaps 0x7eed(%ecx),%xmm4
.byte 15,89,212 // mulps %xmm4,%xmm2
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,114,209,8 // psrld $0x8,%xmm1
@@ -67948,7 +67992,7 @@ _sk_store_bgra_sse2:
.byte 193,226,2 // shl $0x2,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,167,66,125,0,0 // movaps 0x7d42(%edi),%xmm4
+ .byte 15,40,167,82,125,0,0 // movaps 0x7d52(%edi),%xmm4
.byte 139,89,8 // mov 0x8(%ecx),%ebx
.byte 15,40,234 // movaps %xmm2,%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
@@ -68047,11 +68091,11 @@ _sk_load_f16_sse2:
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,92,128,0,0 // movdqa 0x805c(%edx),%xmm5
+ .byte 102,15,111,170,108,128,0,0 // movdqa 0x806c(%edx),%xmm5
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,108,128,0,0 // pand 0x806c(%edx),%xmm1
- .byte 102,15,111,130,124,128,0,0 // movdqa 0x807c(%edx),%xmm0
+ .byte 102,15,219,138,124,128,0,0 // pand 0x807c(%edx),%xmm1
+ .byte 102,15,111,130,140,128,0,0 // movdqa 0x808c(%edx),%xmm0
.byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
@@ -68063,7 +68107,7 @@ _sk_load_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,108,128,0,0 // movdqa 0x806c(%edx),%xmm3
+ .byte 102,15,111,154,124,128,0,0 // movdqa 0x807c(%edx),%xmm3
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
@@ -68076,7 +68120,7 @@ _sk_load_f16_sse2:
.byte 102,15,219,253 // pand %xmm5,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,124,128,0,0 // movdqa 0x807c(%edx),%xmm2
+ .byte 102,15,111,146,140,128,0,0 // movdqa 0x808c(%edx),%xmm2
.byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -68091,7 +68135,7 @@ _sk_load_f16_sse2:
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,140,128,0,0 // movdqa 0x808c(%edx),%xmm3
+ .byte 102,15,111,154,156,128,0,0 // movdqa 0x809c(%edx),%xmm3
.byte 102,15,254,203 // paddd %xmm3,%xmm1
.byte 102,15,254,227 // paddd %xmm3,%xmm4
.byte 102,15,254,195 // paddd %xmm3,%xmm0
@@ -68180,18 +68224,18 @@ _sk_load_f16_dst_sse2:
.byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
.byte 102,15,239,210 // pxor %xmm2,%xmm2
.byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,63,126,0,0 // movdqa 0x7e3f(%edx),%xmm7
+ .byte 102,15,111,186,79,126,0,0 // movdqa 0x7e4f(%edx),%xmm7
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,79,126,0,0 // movdqa 0x7e4f(%edx),%xmm3
+ .byte 102,15,111,154,95,126,0,0 // movdqa 0x7e5f(%edx),%xmm3
.byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,95,126,0,0 // movdqa 0x7e5f(%edx),%xmm4
+ .byte 102,15,111,162,111,126,0,0 // movdqa 0x7e6f(%edx),%xmm4
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
.byte 102,15,114,241,13 // pslld $0xd,%xmm1
.byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,111,126,0,0 // movdqa 0x7e6f(%edx),%xmm2
+ .byte 102,15,111,146,127,126,0,0 // movdqa 0x7e7f(%edx),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,254,202 // paddd %xmm2,%xmm1
.byte 102,15,223,233 // pandn %xmm1,%xmm5
@@ -68337,11 +68381,11 @@ _sk_gather_f16_sse2:
.byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
.byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
.byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,163,123,0,0 // movdqa 0x7ba3(%ecx),%xmm6
+ .byte 102,15,111,177,179,123,0,0 // movdqa 0x7bb3(%ecx),%xmm6
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,179,123,0,0 // pand 0x7bb3(%ecx),%xmm1
- .byte 102,15,111,129,195,123,0,0 // movdqa 0x7bc3(%ecx),%xmm0
+ .byte 102,15,219,137,195,123,0,0 // pand 0x7bc3(%ecx),%xmm1
+ .byte 102,15,111,129,211,123,0,0 // movdqa 0x7bd3(%ecx),%xmm0
.byte 102,15,114,244,16 // pslld $0x10,%xmm4
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
@@ -68352,7 +68396,7 @@ _sk_gather_f16_sse2:
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,111,213 // movdqa %xmm5,%xmm2
.byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,179,123,0,0 // movdqa 0x7bb3(%ecx),%xmm3
+ .byte 102,15,111,153,195,123,0,0 // movdqa 0x7bc3(%ecx),%xmm3
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
@@ -68366,7 +68410,7 @@ _sk_gather_f16_sse2:
.byte 102,15,219,254 // pand %xmm6,%xmm7
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,195,123,0,0 // movdqa 0x7bc3(%ecx),%xmm2
+ .byte 102,15,111,145,211,123,0,0 // movdqa 0x7bd3(%ecx),%xmm2
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
.byte 102,15,114,240,13 // pslld $0xd,%xmm0
@@ -68375,12 +68419,12 @@ _sk_gather_f16_sse2:
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
.byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,179,123,0,0 // pand 0x7bb3(%ecx),%xmm7
+ .byte 102,15,219,185,195,123,0,0 // pand 0x7bc3(%ecx),%xmm7
.byte 102,15,114,246,16 // pslld $0x10,%xmm6
.byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
.byte 102,15,114,247,13 // pslld $0xd,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,211,123,0,0 // movdqa 0x7bd3(%ecx),%xmm4
+ .byte 102,15,111,161,227,123,0,0 // movdqa 0x7be3(%ecx),%xmm4
.byte 102,15,254,204 // paddd %xmm4,%xmm1
.byte 102,15,254,236 // paddd %xmm4,%xmm5
.byte 102,15,254,196 // paddd %xmm4,%xmm0
@@ -68419,22 +68463,22 @@ _sk_store_f16_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 232,0,0,0,0 // call 5781 <_sk_store_f16_sse2+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,152,31,122,0,0 // movdqa 0x7a1f(%eax),%xmm3
+ .byte 102,15,111,152,47,122,0,0 // movdqa 0x7a2f(%eax),%xmm3
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,79,122,0,0 // movdqa 0x7a4f(%eax),%xmm1
+ .byte 102,15,111,136,95,122,0,0 // movdqa 0x7a5f(%eax),%xmm1
.byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
.byte 102,15,111,240 // movdqa %xmm0,%xmm6
.byte 102,15,114,246,3 // pslld $0x3,%xmm6
.byte 102,15,219,241 // pand %xmm1,%xmm6
.byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,47,122,0,0 // movdqa 0x7a2f(%eax),%xmm7
+ .byte 102,15,111,184,63,122,0,0 // movdqa 0x7a3f(%eax),%xmm7
.byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
.byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,63,122,0,0 // movdqa 0x7a3f(%eax),%xmm5
+ .byte 102,15,111,168,79,122,0,0 // movdqa 0x7a4f(%eax),%xmm5
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,207,118,0,0 // movdqa 0x76cf(%eax),%xmm0
+ .byte 102,15,111,128,223,118,0,0 // movdqa 0x76df(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,254,240 // paddd %xmm0,%xmm6
.byte 102,15,114,230,16 // psrad $0x10,%xmm6
@@ -68568,7 +68612,7 @@ _sk_load_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,226,117,0,0 // movaps 0x75e2(%edx),%xmm4
+ .byte 15,40,162,242,117,0,0 // movaps 0x75f2(%edx),%xmm4
.byte 15,89,196 // mulps %xmm4,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68672,7 +68716,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
.byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,123,116,0,0 // movaps 0x747b(%edx),%xmm5
+ .byte 15,40,170,139,116,0,0 // movaps 0x748b(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
.byte 102,15,113,241,8 // psllw $0x8,%xmm1
@@ -68698,7 +68742,7 @@ _sk_load_rgb_u16_be_sse2:
.byte 15,89,213 // mulps %xmm5,%xmm2
.byte 141,112,8 // lea 0x8(%eax),%esi
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,11,114,0,0 // movaps 0x720b(%edx),%xmm3
+ .byte 15,40,154,27,114,0,0 // movaps 0x721b(%edx),%xmm3
.byte 86 // push %esi
.byte 81 // push %ecx
.byte 255,80,4 // call *0x4(%eax)
@@ -68745,7 +68789,7 @@ _sk_store_u16_be_sse2:
.byte 1,210 // add %edx,%edx
.byte 3,22 // add (%esi),%edx
.byte 139,49 // mov (%ecx),%esi
- .byte 15,40,183,215,117,0,0 // movaps 0x75d7(%edi),%xmm6
+ .byte 15,40,183,231,117,0,0 // movaps 0x75e7(%edi),%xmm6
.byte 139,121,8 // mov 0x8(%ecx),%edi
.byte 193,230,2 // shl $0x2,%esi
.byte 15,40,224 // movaps %xmm0,%xmm4
@@ -69025,7 +69069,7 @@ _sk_repeat_x_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,147,109,0,0 // andps 0x6d93(%eax),%xmm5
+ .byte 15,84,168,163,109,0,0 // andps 0x6da3(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69057,7 +69101,7 @@ _sk_repeat_y_sse2:
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,65,109,0,0 // andps 0x6d41(%eax),%xmm5
+ .byte 15,84,168,81,109,0,0 // andps 0x6d51(%eax),%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,89,230 // mulps %xmm6,%xmm4
@@ -69087,13 +69131,13 @@ _sk_mirror_x_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,127,116,0,0 // mulss 0x747f(%ecx),%xmm5
+ .byte 243,15,89,169,143,116,0,0 // mulss 0x748f(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,239,108,0,0 // andps 0x6cef(%ecx),%xmm5
+ .byte 15,84,169,255,108,0,0 // andps 0x6cff(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69128,13 +69172,13 @@ _sk_mirror_y_sse2:
.byte 15,40,244 // movaps %xmm4,%xmm6
.byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
.byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,11,116,0,0 // mulss 0x740b(%ecx),%xmm5
+ .byte 243,15,89,169,27,116,0,0 // mulss 0x741b(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,89,233 // mulps %xmm1,%xmm5
.byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
.byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
.byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,123,108,0,0 // andps 0x6c7b(%ecx),%xmm5
+ .byte 15,84,169,139,108,0,0 // andps 0x6c8b(%ecx),%xmm5
.byte 15,92,253 // subps %xmm5,%xmm7
.byte 243,15,88,228 // addss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
@@ -69165,7 +69209,7 @@ _sk_clamp_x_1_sse2:
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,7,108,0,0 // minps 0x6c07(%eax),%xmm4
+ .byte 15,93,160,23,108,0,0 // minps 0x6c17(%eax),%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,196 // movaps %xmm4,%xmm0
@@ -69187,14 +69231,19 @@ _sk_repeat_x_1_sse2:
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,84,168,215,107,0,0 // andps 0x6bd7(%eax),%xmm5
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
+ .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
+ .byte 15,40,240 // movaps %xmm0,%xmm6
+ .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
+ .byte 15,40,184,231,107,0,0 // movaps 0x6be7(%eax),%xmm7
+ .byte 15,84,247 // andps %xmm7,%xmm6
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,92,238 // subps %xmm6,%xmm5
+ .byte 15,92,197 // subps %xmm5,%xmm0
+ .byte 15,95,224 // maxps %xmm0,%xmm4
+ .byte 15,93,231 // minps %xmm7,%xmm4
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
+ .byte 15,40,196 // movaps %xmm4,%xmm0
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,17 // call *(%ecx)
@@ -69209,24 +69258,28 @@ _sk_mirror_x_1_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6124 <_sk_mirror_x_1_sse2+0xb>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,161,12,108,0,0 // movaps 0x6c0c(%ecx),%xmm4
+ .byte 232,0,0,0,0 // call 6133 <_sk_mirror_x_1_sse2+0xb>
+ .byte 88 // pop %eax
+ .byte 15,40,160,13,108,0,0 // movaps 0x6c0d(%eax),%xmm4
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,169,140,107,0,0 // movaps 0x6b8c(%ecx),%xmm5
+ .byte 15,40,168,141,107,0,0 // movaps 0x6b8d(%eax),%xmm5
.byte 15,89,232 // mulps %xmm0,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,169,156,107,0,0 // andps 0x6b9c(%ecx),%xmm5
- .byte 15,87,255 // xorps %xmm7,%xmm7
+ .byte 15,40,184,157,107,0,0 // movaps 0x6b9d(%eax),%xmm7
+ .byte 15,84,239 // andps %xmm7,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 15,88,246 // addps %xmm6,%xmm6
.byte 15,92,198 // subps %xmm6,%xmm0
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
+ .byte 15,87,228 // xorps %xmm4,%xmm4
+ .byte 15,92,224 // subps %xmm0,%xmm4
+ .byte 15,84,224 // andps %xmm0,%xmm4
+ .byte 15,87,192 // xorps %xmm0,%xmm0
+ .byte 15,95,196 // maxps %xmm4,%xmm0
+ .byte 15,93,199 // minps %xmm7,%xmm0
+ .byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 141,72,4 // lea 0x4(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
.byte 81 // push %ecx
@@ -69244,13 +69297,13 @@ _sk_luminance_to_alpha_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6182 <_sk_luminance_to_alpha_sse2+0xe>
+ .byte 232,0,0,0,0 // call 619d <_sk_luminance_to_alpha_sse2+0xe>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,110,112,0,0 // mulps 0x706e(%eax),%xmm0
- .byte 15,89,136,126,112,0,0 // mulps 0x707e(%eax),%xmm1
+ .byte 15,89,128,99,112,0,0 // mulps 0x7063(%eax),%xmm0
+ .byte 15,89,136,115,112,0,0 // mulps 0x7073(%eax),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,142,112,0,0 // mulps 0x708e(%eax),%xmm3
+ .byte 15,89,152,131,112,0,0 // mulps 0x7083(%eax),%xmm3
.byte 15,88,217 // addps %xmm1,%xmm3
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -69637,7 +69690,7 @@ _sk_evenly_spaced_gradient_sse2:
.byte 86 // push %esi
.byte 131,236,60 // sub $0x3c,%esp
.byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 6618 <_sk_evenly_spaced_gradient_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6633 <_sk_evenly_spaced_gradient_sse2+0x12>
.byte 90 // pop %edx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,8 // mov (%eax),%ecx
@@ -69646,12 +69699,12 @@ _sk_evenly_spaced_gradient_sse2:
.byte 78 // dec %esi
.byte 102,15,110,206 // movd %esi,%xmm1
.byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,8,108,0,0 // movdqa 0x6c08(%edx),%xmm2
+ .byte 102,15,111,146,253,107,0,0 // movdqa 0x6bfd(%edx),%xmm2
.byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,200,105,0,0 // por 0x69c8(%edx),%xmm2
+ .byte 102,15,235,146,189,105,0,0 // por 0x69bd(%edx),%xmm2
.byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,24,108,0,0 // por 0x6c18(%edx),%xmm1
- .byte 15,88,138,40,108,0,0 // addps 0x6c28(%edx),%xmm1
+ .byte 102,15,235,138,13,108,0,0 // por 0x6c0d(%edx),%xmm1
+ .byte 15,88,138,29,108,0,0 // addps 0x6c1d(%edx),%xmm1
.byte 15,88,202 // addps %xmm2,%xmm1
.byte 15,89,200 // mulps %xmm0,%xmm1
.byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
@@ -69757,18 +69810,18 @@ _sk_gauss_a_to_rgba_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 67d1 <_sk_gauss_a_to_rgba_sse2+0xb>
+ .byte 232,0,0,0,0 // call 67ec <_sk_gauss_a_to_rgba_sse2+0xb>
.byte 88 // pop %eax
.byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,127,106,0,0 // movaps 0x6a7f(%eax),%xmm0
+ .byte 15,40,128,116,106,0,0 // movaps 0x6a74(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,143,106,0,0 // addps 0x6a8f(%eax),%xmm0
+ .byte 15,88,128,132,106,0,0 // addps 0x6a84(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,159,106,0,0 // addps 0x6a9f(%eax),%xmm0
+ .byte 15,88,128,148,106,0,0 // addps 0x6a94(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,175,106,0,0 // addps 0x6aaf(%eax),%xmm0
+ .byte 15,88,128,164,106,0,0 // addps 0x6aa4(%eax),%xmm0
.byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,191,106,0,0 // addps 0x6abf(%eax),%xmm0
+ .byte 15,88,128,180,106,0,0 // addps 0x6ab4(%eax),%xmm0
.byte 141,65,4 // lea 0x4(%ecx),%eax
.byte 131,236,8 // sub $0x8,%esp
.byte 15,40,200 // movaps %xmm0,%xmm1
@@ -69796,7 +69849,7 @@ _sk_gradient_sse2:
.byte 139,10 // mov (%edx),%ecx
.byte 102,15,239,201 // pxor %xmm1,%xmm1
.byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 6858 <_sk_gradient_sse2+0x3a>
+ .byte 114,33 // jb 6873 <_sk_gradient_sse2+0x3a>
.byte 139,114,36 // mov 0x24(%edx),%esi
.byte 73 // dec %ecx
.byte 131,198,4 // add $0x4,%esi
@@ -69807,7 +69860,7 @@ _sk_gradient_sse2:
.byte 102,15,250,202 // psubd %xmm2,%xmm1
.byte 131,198,4 // add $0x4,%esi
.byte 73 // dec %ecx
- .byte 117,234 // jne 6842 <_sk_gradient_sse2+0x24>
+ .byte 117,234 // jne 685d <_sk_gradient_sse2+0x24>
.byte 102,15,126,206 // movd %xmm1,%esi
.byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
.byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
@@ -69960,7 +70013,7 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,40,218 // movaps %xmm2,%xmm3
.byte 15,40,209 // movaps %xmm1,%xmm2
.byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 6a60 <_sk_xy_to_unit_angle_sse2+0x18>
+ .byte 232,0,0,0,0 // call 6a7b <_sk_xy_to_unit_angle_sse2+0x18>
.byte 88 // pop %eax
.byte 15,87,237 // xorps %xmm5,%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
@@ -69975,30 +70028,30 @@ _sk_xy_to_unit_angle_sse2:
.byte 15,94,247 // divps %xmm7,%xmm6
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,64,104,0,0 // movaps 0x6840(%eax),%xmm0
+ .byte 15,40,128,53,104,0,0 // movaps 0x6835(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,80,104,0,0 // addps 0x6850(%eax),%xmm0
+ .byte 15,88,128,69,104,0,0 // addps 0x6845(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,96,104,0,0 // addps 0x6860(%eax),%xmm0
+ .byte 15,88,128,85,104,0,0 // addps 0x6855(%eax),%xmm0
.byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,112,104,0,0 // addps 0x6870(%eax),%xmm0
+ .byte 15,88,128,101,104,0,0 // addps 0x6865(%eax),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,128,104,0,0 // movaps 0x6880(%eax),%xmm6
+ .byte 15,40,176,117,104,0,0 // movaps 0x6875(%eax),%xmm6
.byte 15,92,240 // subps %xmm0,%xmm6
.byte 15,84,245 // andps %xmm5,%xmm6
.byte 15,85,232 // andnps %xmm0,%xmm5
.byte 15,87,228 // xorps %xmm4,%xmm4
.byte 15,86,238 // orps %xmm6,%xmm5
.byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,80,98,0,0 // movaps 0x6250(%eax),%xmm0
+ .byte 15,40,128,69,98,0,0 // movaps 0x6245(%eax),%xmm0
.byte 15,92,197 // subps %xmm5,%xmm0
.byte 15,84,193 // andps %xmm1,%xmm0
.byte 15,85,205 // andnps %xmm5,%xmm1
.byte 15,86,200 // orps %xmm0,%xmm1
.byte 15,40,194 // movaps %xmm2,%xmm0
.byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,96,98,0,0 // movaps 0x6260(%eax),%xmm5
+ .byte 15,40,168,85,98,0,0 // movaps 0x6255(%eax),%xmm5
.byte 15,92,233 // subps %xmm1,%xmm5
.byte 15,84,232 // andps %xmm0,%xmm5
.byte 15,85,193 // andnps %xmm1,%xmm0
@@ -70059,15 +70112,15 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6b7d <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6b98 <_sk_xy_to_2pt_conical_quadratic_max_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,115,103,0,0 // mulps 0x6773(%edx),%xmm4
- .byte 15,89,130,131,103,0,0 // mulps 0x6783(%edx),%xmm0
+ .byte 15,89,162,104,103,0,0 // mulps 0x6768(%edx),%xmm4
+ .byte 15,89,130,120,103,0,0 // mulps 0x6778(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70075,11 +70128,11 @@ _sk_xy_to_2pt_conical_quadratic_max_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,35,102,0,0 // xorps 0x6623(%edx),%xmm4
+ .byte 15,87,162,24,102,0,0 // xorps 0x6618(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,51,97,0,0 // mulps 0x6133(%edx),%xmm5
+ .byte 15,89,170,40,97,0,0 // mulps 0x6128(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,95,196 // maxps %xmm4,%xmm0
@@ -70110,15 +70163,15 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
.byte 15,88,240 // addps %xmm0,%xmm6
- .byte 232,0,0,0,0 // call 6c1b <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
+ .byte 232,0,0,0,0 // call 6c36 <_sk_xy_to_2pt_conical_quadratic_min_sse2+0x31>
.byte 90 // pop %edx
.byte 243,15,89,237 // mulss %xmm5,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,92,245 // subps %xmm5,%xmm6
.byte 243,15,16,65,32 // movss 0x20(%ecx),%xmm0
.byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,162,213,102,0,0 // mulps 0x66d5(%edx),%xmm4
- .byte 15,89,130,229,102,0,0 // mulps 0x66e5(%edx),%xmm0
+ .byte 15,89,162,202,102,0,0 // mulps 0x66ca(%edx),%xmm4
+ .byte 15,89,130,218,102,0,0 // mulps 0x66da(%edx),%xmm0
.byte 15,89,198 // mulps %xmm6,%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
@@ -70126,11 +70179,11 @@ _sk_xy_to_2pt_conical_quadratic_min_sse2:
.byte 15,81,237 // sqrtps %xmm5,%xmm5
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,162,133,101,0,0 // xorps 0x6585(%edx),%xmm4
+ .byte 15,87,162,122,101,0,0 // xorps 0x657a(%edx),%xmm4
.byte 15,92,229 // subps %xmm5,%xmm4
.byte 243,15,16,105,36 // movss 0x24(%ecx),%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,170,149,96,0,0 // mulps 0x6095(%edx),%xmm5
+ .byte 15,89,170,138,96,0,0 // mulps 0x608a(%edx),%xmm5
.byte 15,89,197 // mulps %xmm5,%xmm0
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,93,196 // minps %xmm4,%xmm0
@@ -70150,7 +70203,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 85 // push %ebp
.byte 137,229 // mov %esp,%ebp
.byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6c93 <_sk_xy_to_2pt_conical_linear_sse2+0xb>
+ .byte 232,0,0,0,0 // call 6cae <_sk_xy_to_2pt_conical_linear_sse2+0xb>
.byte 89 // pop %ecx
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
@@ -70159,7 +70212,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,236 // mulss %xmm4,%xmm5
.byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
.byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,169,93,102,0,0 // mulps 0x665d(%ecx),%xmm5
+ .byte 15,89,169,82,102,0,0 // mulps 0x6652(%ecx),%xmm5
.byte 15,89,192 // mulps %xmm0,%xmm0
.byte 15,40,241 // movaps %xmm1,%xmm6
.byte 15,89,246 // mulps %xmm6,%xmm6
@@ -70167,7 +70220,7 @@ _sk_xy_to_2pt_conical_linear_sse2:
.byte 243,15,89,228 // mulss %xmm4,%xmm4
.byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
.byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,87,129,13,101,0,0 // xorps 0x650d(%ecx),%xmm0
+ .byte 15,87,129,2,101,0,0 // xorps 0x6502(%ecx),%xmm0
.byte 15,94,197 // divps %xmm5,%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 131,236,8 // sub $0x8,%esp
@@ -70244,16 +70297,16 @@ _sk_save_xy_sse2:
.byte 131,236,24 // sub $0x18,%esp
.byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
.byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6d7c <_sk_save_xy_sse2+0x12>
+ .byte 232,0,0,0,0 // call 6d97 <_sk_save_xy_sse2+0x12>
.byte 88 // pop %eax
- .byte 15,40,160,52,95,0,0 // movaps 0x5f34(%eax),%xmm4
+ .byte 15,40,160,41,95,0,0 // movaps 0x5f29(%eax),%xmm4
.byte 15,40,232 // movaps %xmm0,%xmm5
.byte 15,88,236 // addps %xmm4,%xmm5
.byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
.byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
.byte 15,40,253 // movaps %xmm5,%xmm7
.byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,68,95,0,0 // movaps 0x5f44(%eax),%xmm2
+ .byte 15,40,144,57,95,0,0 // movaps 0x5f39(%eax),%xmm2
.byte 15,84,250 // andps %xmm2,%xmm7
.byte 15,92,247 // subps %xmm7,%xmm6
.byte 15,92,238 // subps %xmm6,%xmm5
@@ -70328,15 +70381,15 @@ _sk_bilinear_nx_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6e5e <_sk_bilinear_nx_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6e79 <_sk_bilinear_nx_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,178,100,0,0 // addps 0x64b2(%eax),%xmm0
- .byte 15,40,168,98,94,0,0 // movaps 0x5e62(%eax),%xmm5
+ .byte 15,88,128,167,100,0,0 // addps 0x64a7(%eax),%xmm0
+ .byte 15,40,168,87,94,0,0 // movaps 0x5e57(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70357,14 +70410,14 @@ _sk_bilinear_px_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6ea1 <_sk_bilinear_px_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ebc <_sk_bilinear_px_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,15,94,0,0 // addps 0x5e0f(%eax),%xmm0
+ .byte 15,88,128,4,94,0,0 // addps 0x5e04(%eax),%xmm0
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70384,15 +70437,15 @@ _sk_bilinear_ny_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6eda <_sk_bilinear_ny_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6ef5 <_sk_bilinear_ny_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,54,100,0,0 // addps 0x6436(%eax),%xmm1
- .byte 15,40,168,230,93,0,0 // movaps 0x5de6(%eax),%xmm5
+ .byte 15,88,136,43,100,0,0 // addps 0x642b(%eax),%xmm1
+ .byte 15,40,168,219,93,0,0 // movaps 0x5ddb(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70413,14 +70466,14 @@ _sk_bilinear_py_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f1e <_sk_bilinear_py_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f39 <_sk_bilinear_py_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,146,93,0,0 // addps 0x5d92(%eax),%xmm1
+ .byte 15,88,136,135,93,0,0 // addps 0x5d87(%eax),%xmm1
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70440,20 +70493,20 @@ _sk_bicubic_n3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6f58 <_sk_bicubic_n3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6f73 <_sk_bicubic_n3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,200,99,0,0 // addps 0x63c8(%eax),%xmm0
- .byte 15,40,168,104,93,0,0 // movaps 0x5d68(%eax),%xmm5
+ .byte 15,88,128,189,99,0,0 // addps 0x63bd(%eax),%xmm0
+ .byte 15,40,168,93,93,0,0 // movaps 0x5d5d(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,216,99,0,0 // mulps 0x63d8(%eax),%xmm5
- .byte 15,88,168,72,95,0,0 // addps 0x5f48(%eax),%xmm5
+ .byte 15,89,168,205,99,0,0 // mulps 0x63cd(%eax),%xmm5
+ .byte 15,88,168,61,95,0,0 // addps 0x5f3d(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,128,0,0,0 // movups %xmm5,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70474,23 +70527,23 @@ _sk_bicubic_n1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 6fb2 <_sk_bicubic_n1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 6fcd <_sk_bicubic_n1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,94,99,0,0 // addps 0x635e(%eax),%xmm0
- .byte 15,40,168,14,93,0,0 // movaps 0x5d0e(%eax),%xmm5
+ .byte 15,88,128,83,99,0,0 // addps 0x6353(%eax),%xmm0
+ .byte 15,40,168,3,93,0,0 // movaps 0x5d03(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,142,99,0,0 // movaps 0x638e(%eax),%xmm4
+ .byte 15,40,160,131,99,0,0 // movaps 0x6383(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,158,99,0,0 // addps 0x639e(%eax),%xmm4
+ .byte 15,88,160,147,99,0,0 // addps 0x6393(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,254,92,0,0 // addps 0x5cfe(%eax),%xmm4
+ .byte 15,88,160,243,92,0,0 // addps 0x5cf3(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,174,99,0,0 // addps 0x63ae(%eax),%xmm4
+ .byte 15,88,160,163,99,0,0 // addps 0x63a3(%eax),%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70510,22 +70563,22 @@ _sk_bicubic_p1x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 701a <_sk_bicubic_p1x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7035 <_sk_bicubic_p1x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,150,92,0,0 // movaps 0x5c96(%eax),%xmm4
+ .byte 15,40,160,139,92,0,0 // movaps 0x5c8b(%eax),%xmm4
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,110,64 // movups 0x40(%esi),%xmm5
.byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,38,99,0,0 // movaps 0x6326(%eax),%xmm6
+ .byte 15,40,176,27,99,0,0 // movaps 0x631b(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,54,99,0,0 // addps 0x6336(%eax),%xmm6
+ .byte 15,88,176,43,99,0,0 // addps 0x632b(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,70,99,0,0 // addps 0x6346(%eax),%xmm6
+ .byte 15,88,176,59,99,0,0 // addps 0x633b(%eax),%xmm6
.byte 15,17,182,128,0,0,0 // movups %xmm6,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70545,18 +70598,18 @@ _sk_bicubic_p3x_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7077 <_sk_bicubic_p3x_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7092 <_sk_bicubic_p3x_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,6 // movups (%esi),%xmm0
.byte 15,16,102,64 // movups 0x40(%esi),%xmm4
- .byte 15,88,128,217,98,0,0 // addps 0x62d9(%eax),%xmm0
+ .byte 15,88,128,206,98,0,0 // addps 0x62ce(%eax),%xmm0
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,185,98,0,0 // mulps 0x62b9(%eax),%xmm4
- .byte 15,88,160,41,94,0,0 // addps 0x5e29(%eax),%xmm4
+ .byte 15,89,160,174,98,0,0 // mulps 0x62ae(%eax),%xmm4
+ .byte 15,88,160,30,94,0,0 // addps 0x5e1e(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,128,0,0,0 // movups %xmm4,0x80(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70577,20 +70630,20 @@ _sk_bicubic_n3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 70c7 <_sk_bicubic_n3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 70e2 <_sk_bicubic_n3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,89,98,0,0 // addps 0x6259(%eax),%xmm1
- .byte 15,40,168,249,91,0,0 // movaps 0x5bf9(%eax),%xmm5
+ .byte 15,88,136,78,98,0,0 // addps 0x624e(%eax),%xmm1
+ .byte 15,40,168,238,91,0,0 // movaps 0x5bee(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
.byte 15,40,229 // movaps %xmm5,%xmm4
.byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,105,98,0,0 // mulps 0x6269(%eax),%xmm5
- .byte 15,88,168,217,93,0,0 // addps 0x5dd9(%eax),%xmm5
+ .byte 15,89,168,94,98,0,0 // mulps 0x625e(%eax),%xmm5
+ .byte 15,88,168,206,93,0,0 // addps 0x5dce(%eax),%xmm5
.byte 15,89,236 // mulps %xmm4,%xmm5
.byte 15,17,174,160,0,0,0 // movups %xmm5,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70611,23 +70664,23 @@ _sk_bicubic_n1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7122 <_sk_bicubic_n1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 713d <_sk_bicubic_n1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,238,97,0,0 // addps 0x61ee(%eax),%xmm1
- .byte 15,40,168,158,91,0,0 // movaps 0x5b9e(%eax),%xmm5
+ .byte 15,88,136,227,97,0,0 // addps 0x61e3(%eax),%xmm1
+ .byte 15,40,168,147,91,0,0 // movaps 0x5b93(%eax),%xmm5
.byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,30,98,0,0 // movaps 0x621e(%eax),%xmm4
+ .byte 15,40,160,19,98,0,0 // movaps 0x6213(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,46,98,0,0 // addps 0x622e(%eax),%xmm4
+ .byte 15,88,160,35,98,0,0 // addps 0x6223(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,142,91,0,0 // addps 0x5b8e(%eax),%xmm4
+ .byte 15,88,160,131,91,0,0 // addps 0x5b83(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,62,98,0,0 // addps 0x623e(%eax),%xmm4
+ .byte 15,88,160,51,98,0,0 // addps 0x6233(%eax),%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70647,22 +70700,22 @@ _sk_bicubic_p1y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 718b <_sk_bicubic_p1y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 71a6 <_sk_bicubic_p1y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,37,91,0,0 // movaps 0x5b25(%eax),%xmm4
+ .byte 15,40,160,26,91,0,0 // movaps 0x5b1a(%eax),%xmm4
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,110,96 // movups 0x60(%esi),%xmm5
.byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,181,97,0,0 // movaps 0x61b5(%eax),%xmm6
+ .byte 15,40,176,170,97,0,0 // movaps 0x61aa(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,197,97,0,0 // addps 0x61c5(%eax),%xmm6
+ .byte 15,88,176,186,97,0,0 // addps 0x61ba(%eax),%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
.byte 15,88,244 // addps %xmm4,%xmm6
.byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,213,97,0,0 // addps 0x61d5(%eax),%xmm6
+ .byte 15,88,176,202,97,0,0 // addps 0x61ca(%eax),%xmm6
.byte 15,17,182,160,0,0,0 // movups %xmm6,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
@@ -70682,18 +70735,18 @@ _sk_bicubic_p3y_sse2:
.byte 137,229 // mov %esp,%ebp
.byte 86 // push %esi
.byte 80 // push %eax
- .byte 232,0,0,0,0 // call 71e9 <_sk_bicubic_p3y_sse2+0xa>
+ .byte 232,0,0,0,0 // call 7204 <_sk_bicubic_p3y_sse2+0xa>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 139,50 // mov (%edx),%esi
.byte 15,16,78,32 // movups 0x20(%esi),%xmm1
.byte 15,16,102,96 // movups 0x60(%esi),%xmm4
- .byte 15,88,136,103,97,0,0 // addps 0x6167(%eax),%xmm1
+ .byte 15,88,136,92,97,0,0 // addps 0x615c(%eax),%xmm1
.byte 15,40,236 // movaps %xmm4,%xmm5
.byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,71,97,0,0 // mulps 0x6147(%eax),%xmm4
- .byte 15,88,160,183,92,0,0 // addps 0x5cb7(%eax),%xmm4
+ .byte 15,89,160,60,97,0,0 // mulps 0x613c(%eax),%xmm4
+ .byte 15,88,160,172,92,0,0 // addps 0x5cac(%eax),%xmm4
.byte 15,89,229 // mulps %xmm5,%xmm4
.byte 15,17,166,160,0,0,0 // movups %xmm4,0xa0(%esi)
.byte 141,66,8 // lea 0x8(%edx),%eax
@@ -70836,7 +70889,7 @@ _sk_clut_3D_sse2:
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
.byte 102,15,98,200 // punpckldq %xmm0,%xmm1
.byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 73cc <_sk_clut_3D_sse2+0xee>
+ .byte 232,0,0,0,0 // call 73e7 <_sk_clut_3D_sse2+0xee>
.byte 90 // pop %edx
.byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
.byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
@@ -70844,7 +70897,7 @@ _sk_clut_3D_sse2:
.byte 102,15,254,216 // paddd %xmm0,%xmm3
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,180,95,0,0 // movdqa 0x5fb4(%edx),%xmm4
+ .byte 102,15,111,162,169,95,0,0 // movdqa 0x5fa9(%edx),%xmm4
.byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
@@ -70884,7 +70937,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,248 // unpcklps %xmm0,%xmm7
.byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,52,89,0,0 // movdqa 0x5934(%edx),%xmm0
+ .byte 102,15,111,130,41,89,0,0 // movdqa 0x5929(%edx),%xmm0
.byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
.byte 102,15,254,200 // paddd %xmm0,%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
@@ -70901,7 +70954,7 @@ _sk_clut_3D_sse2:
.byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
.byte 15,20,240 // unpcklps %xmm0,%xmm6
.byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,164,95,0,0 // movaps 0x5fa4(%edx),%xmm0
+ .byte 15,40,130,153,95,0,0 // movaps 0x5f99(%edx),%xmm0
.byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
.byte 15,88,200 // addps %xmm0,%xmm1
.byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
@@ -71521,7 +71574,7 @@ _sk_clut_4D_sse2:
.byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
.byte 102,15,98,217 // punpckldq %xmm1,%xmm3
.byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 7f58 <_sk_clut_4D_sse2+0x165>
+ .byte 232,0,0,0,0 // call 7f73 <_sk_clut_4D_sse2+0x165>
.byte 89 // pop %ecx
.byte 15,40,197 // movaps %xmm5,%xmm0
.byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
@@ -71532,7 +71585,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,214 // paddd %xmm6,%xmm2
.byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,40,84,0,0 // movdqa 0x5428(%ecx),%xmm4
+ .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
.byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
.byte 102,15,244,220 // pmuludq %xmm4,%xmm3
.byte 102,15,244,204 // pmuludq %xmm4,%xmm1
@@ -71574,7 +71627,7 @@ _sk_clut_4D_sse2:
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
.byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,168,77,0,0 // paddd 0x4da8(%ecx),%xmm1
+ .byte 102,15,254,137,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm1
.byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
.byte 102,15,126,240 // movd %xmm6,%eax
.byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
@@ -71589,7 +71642,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
.byte 15,20,223 // unpcklps %xmm7,%xmm3
.byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,24,84,0,0 // movaps 0x5418(%ecx),%xmm7
+ .byte 15,40,185,13,84,0,0 // movaps 0x540d(%ecx),%xmm7
.byte 15,88,199 // addps %xmm7,%xmm0
.byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
.byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
@@ -71610,7 +71663,7 @@ _sk_clut_4D_sse2:
.byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
.byte 102,15,254,212 // paddd %xmm4,%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,40,84,0,0 // movdqa 0x5428(%ecx),%xmm4
+ .byte 102,15,111,161,29,84,0,0 // movdqa 0x541d(%ecx),%xmm4
.byte 102,15,244,212 // pmuludq %xmm4,%xmm2
.byte 102,15,244,196 // pmuludq %xmm4,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -71646,7 +71699,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,213 // unpcklps %xmm5,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,168,77,0,0 // paddd 0x4da8(%ecx),%xmm0
+ .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
.byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
.byte 102,15,126,232 // movd %xmm5,%eax
.byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
@@ -71730,7 +71783,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,245 // unpcklps %xmm5,%xmm6
.byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,168,77,0,0 // paddd 0x4da8(%ecx),%xmm1
+ .byte 102,15,254,137,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm1
.byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
@@ -71748,7 +71801,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,40,84,0,0 // movdqa 0x5428(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -71784,7 +71837,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,168,77,0,0 // paddd 0x4da8(%ecx),%xmm5
+ .byte 102,15,254,169,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm5
.byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
@@ -71844,7 +71897,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,40,84,0,0 // movdqa 0x5428(%ecx),%xmm3
+ .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,111,251 // movdqa %xmm3,%xmm7
@@ -71883,7 +71936,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
.byte 15,20,229 // unpcklps %xmm5,%xmm4
.byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,168,77,0,0 // paddd 0x4da8(%ecx),%xmm0
+ .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
.byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
@@ -71935,7 +71988,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,238 // unpcklps %xmm6,%xmm5
.byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,168,77,0,0 // movdqa 0x4da8(%ecx),%xmm1
+ .byte 102,15,111,137,157,77,0,0 // movdqa 0x4d9d(%ecx),%xmm1
.byte 102,15,254,249 // paddd %xmm1,%xmm7
.byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
@@ -71969,7 +72022,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,40,84,0,0 // movdqa 0x5428(%ecx),%xmm3
+ .byte 102,15,111,153,29,84,0,0 // movdqa 0x541d(%ecx),%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,211 // pmuludq %xmm3,%xmm2
.byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
@@ -72026,7 +72079,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,40,84,0,0 // movdqa 0x5428(%ecx),%xmm1
+ .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
@@ -72063,7 +72116,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,212 // unpcklps %xmm4,%xmm2
.byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,168,77,0,0 // paddd 0x4da8(%ecx),%xmm0
+ .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
.byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
@@ -72131,7 +72184,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,40,84,0,0 // movdqa 0x5428(%ecx),%xmm0
+ .byte 102,15,111,129,29,84,0,0 // movdqa 0x541d(%ecx),%xmm0
.byte 102,15,244,216 // pmuludq %xmm0,%xmm3
.byte 102,15,244,208 // pmuludq %xmm0,%xmm2
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -72170,7 +72223,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
.byte 15,20,235 // unpcklps %xmm3,%xmm5
.byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,168,77,0,0 // paddd 0x4da8(%ecx),%xmm2
+ .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72222,7 +72275,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,208 // unpcklps %xmm0,%xmm2
.byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,168,77,0,0 // movdqa 0x4da8(%ecx),%xmm1
+ .byte 102,15,111,137,157,77,0,0 // movdqa 0x4d9d(%ecx),%xmm1
.byte 102,15,254,217 // paddd %xmm1,%xmm3
.byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
@@ -72257,7 +72310,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,194 // movdqa %xmm2,%xmm0
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,40,84,0,0 // movdqa 0x5428(%ecx),%xmm5
+ .byte 102,15,111,169,29,84,0,0 // movdqa 0x541d(%ecx),%xmm5
.byte 102,15,111,221 // movdqa %xmm5,%xmm3
.byte 102,15,244,195 // pmuludq %xmm3,%xmm0
.byte 102,15,244,227 // pmuludq %xmm3,%xmm4
@@ -72313,7 +72366,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,202 // movdqa %xmm2,%xmm1
.byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
.byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,40,84,0,0 // movdqa 0x5428(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
@@ -72349,7 +72402,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
.byte 15,20,216 // unpcklps %xmm0,%xmm3
.byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,168,77,0,0 // paddd 0x4da8(%ecx),%xmm7
+ .byte 102,15,254,185,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm7
.byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
.byte 102,15,126,192 // movd %xmm0,%eax
.byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
@@ -72399,7 +72452,7 @@ _sk_clut_4D_sse2:
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
.byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,40,84,0,0 // movdqa 0x5428(%ecx),%xmm2
+ .byte 102,15,111,145,29,84,0,0 // movdqa 0x541d(%ecx),%xmm2
.byte 102,15,244,194 // pmuludq %xmm2,%xmm0
.byte 102,15,244,202 // pmuludq %xmm2,%xmm1
.byte 102,15,111,250 // movdqa %xmm2,%xmm7
@@ -72438,7 +72491,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,204 // unpcklps %xmm4,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,168,77,0,0 // paddd 0x4da8(%ecx),%xmm2
+ .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72492,7 +72545,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
.byte 15,20,252 // unpcklps %xmm4,%xmm7
.byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,168,77,0,0 // paddd 0x4da8(%ecx),%xmm3
+ .byte 102,15,254,153,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm3
.byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
.byte 102,15,126,224 // movd %xmm4,%eax
.byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
@@ -72525,7 +72578,7 @@ _sk_clut_4D_sse2:
.byte 102,15,254,208 // paddd %xmm0,%xmm2
.byte 102,15,111,216 // movdqa %xmm0,%xmm3
.byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,40,84,0,0 // movdqa 0x5428(%ecx),%xmm1
+ .byte 102,15,111,137,29,84,0,0 // movdqa 0x541d(%ecx),%xmm1
.byte 102,15,244,209 // pmuludq %xmm1,%xmm2
.byte 102,15,244,193 // pmuludq %xmm1,%xmm0
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
@@ -72565,7 +72618,7 @@ _sk_clut_4D_sse2:
.byte 15,20,225 // unpcklps %xmm1,%xmm4
.byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
.byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,168,77,0,0 // paddd 0x4da8(%ecx),%xmm0
+ .byte 102,15,254,129,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm0
.byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
.byte 102,15,126,200 // movd %xmm1,%eax
.byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
@@ -72619,7 +72672,7 @@ _sk_clut_4D_sse2:
.byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
.byte 15,20,206 // unpcklps %xmm6,%xmm1
.byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,168,77,0,0 // paddd 0x4da8(%ecx),%xmm2
+ .byte 102,15,254,145,157,77,0,0 // paddd 0x4d9d(%ecx),%xmm2
.byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
.byte 102,15,126,216 // movd %xmm3,%eax
.byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
@@ -72688,7 +72741,7 @@ _sk_clut_4D_sse2:
.byte 139,85,12 // mov 0xc(%ebp),%edx
.byte 141,66,8 // lea 0x8(%edx),%eax
.byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,104,77,0,0 // movaps 0x4d68(%ecx),%xmm3
+ .byte 15,40,153,93,77,0,0 // movaps 0x4d5d(%ecx),%xmm3
.byte 80 // push %eax
.byte 255,117,8 // pushl 0x8(%ebp)
.byte 255,82,4 // call *0x4(%edx)
@@ -72700,6 +72753,7 @@ _sk_clut_4D_sse2:
.byte 195 // ret
.byte 144 // nop
.byte 144 // nop
+ .byte 144 // nop
HIDDEN _sk_start_pipeline_sse2_lowp
.globl _sk_start_pipeline_sse2_lowp
@@ -72713,7 +72767,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,236,92 // sub $0x5c,%esp
.byte 139,125,12 // mov 0xc(%ebp),%edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae 947a <_sk_start_pipeline_sse2_lowp+0xd6>
+ .byte 15,131,193,0,0,0 // jae 9496 <_sk_start_pipeline_sse2_lowp+0xd6>
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,117,24 // mov 0x18(%ebp),%esi
@@ -72727,7 +72781,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 137,223 // mov %ebx,%edi
.byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja 942c <_sk_start_pipeline_sse2_lowp+0x88>
+ .byte 119,77 // ja 9448 <_sk_start_pipeline_sse2_lowp+0x88>
.byte 139,117,8 // mov 0x8(%ebp),%esi
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
@@ -72749,13 +72803,13 @@ _sk_start_pipeline_sse2_lowp:
.byte 131,198,16 // add $0x10,%esi
.byte 57,214 // cmp %edx,%esi
.byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe 93e2 <_sk_start_pipeline_sse2_lowp+0x3e>
+ .byte 118,182 // jbe 93fe <_sk_start_pipeline_sse2_lowp+0x3e>
.byte 137,209 // mov %edx,%ecx
.byte 41,193 // sub %eax,%ecx
.byte 137,222 // mov %ebx,%esi
.byte 137,251 // mov %edi,%ebx
.byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je 9470 <_sk_start_pipeline_sse2_lowp+0xcc>
+ .byte 116,55 // je 948c <_sk_start_pipeline_sse2_lowp+0xcc>
.byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
.byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
.byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
@@ -72773,7 +72827,7 @@ _sk_start_pipeline_sse2_lowp:
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 71 // inc %edi
.byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne 93d0 <_sk_start_pipeline_sse2_lowp+0x2c>
+ .byte 15,133,86,255,255,255 // jne 93ec <_sk_start_pipeline_sse2_lowp+0x2c>
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
.byte 95 // pop %edi
@@ -72845,7 +72899,7 @@ _sk_black_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9529 <_sk_black_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 9545 <_sk_black_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72864,7 +72918,7 @@ _sk_black_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,103,62,0,0 // movaps 0x3e67(%eax),%xmm3
+ .byte 15,40,152,91,62,0,0 // movaps 0x3e5b(%eax),%xmm3
.byte 15,87,192 // xorps %xmm0,%xmm0
.byte 15,87,201 // xorps %xmm1,%xmm1
.byte 15,87,210 // xorps %xmm2,%xmm2
@@ -72886,7 +72940,7 @@ _sk_white_color_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call 9594 <_sk_white_color_sse2_lowp+0xe>
+ .byte 232,0,0,0,0 // call 95b0 <_sk_white_color_sse2_lowp+0xe>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -72905,7 +72959,7 @@ _sk_white_color_sse2_lowp:
.byte 137,84,36,8 // mov %edx,0x8(%esp)
.byte 137,92,36,4 // mov %ebx,0x4(%esp)
.byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,252,61,0,0 // movaps 0x3dfc(%eax),%xmm0
+ .byte 15,40,128,240,61,0,0 // movaps 0x3df0(%eax),%xmm0
.byte 15,40,200 // movaps %xmm0,%xmm1
.byte 15,40,208 // movaps %xmm0,%xmm2
.byte 15,40,216 // movaps %xmm0,%xmm3
@@ -72926,16 +72980,16 @@ _sk_set_rgb_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 95fe <_sk_set_rgb_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 961a <_sk_set_rgb_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,86,62,0,0 // movss 0x3e56(%esi),%xmm2
+ .byte 243,15,16,150,74,62,0,0 // movss 0x3e4a(%esi),%xmm2
.byte 243,15,16,7 // movss (%edi),%xmm0
.byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,82,62,0,0 // movss 0x3e52(%esi),%xmm1
+ .byte 243,15,16,142,70,62,0,0 // movss 0x3e46(%esi),%xmm1
.byte 243,15,88,193 // addss %xmm1,%xmm0
.byte 243,15,44,240 // cvttss2si %xmm0,%esi
.byte 102,15,110,198 // movd %esi,%xmm0
@@ -72984,7 +73038,7 @@ _sk_premul_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 96c2 <_sk_premul_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 96de <_sk_premul_sse2_lowp+0xd>
.byte 90 // pop %edx
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -72993,7 +73047,7 @@ _sk_premul_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,206,60,0,0 // movdqa 0x3cce(%edx),%xmm7
+ .byte 102,15,111,186,194,60,0,0 // movdqa 0x3cc2(%edx),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73127,12 +73181,12 @@ _sk_invert_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 983c <_sk_invert_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9858 <_sk_invert_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,84,59,0,0 // movdqa 0x3b54(%eax),%xmm4
+ .byte 102,15,111,160,72,59,0,0 // movdqa 0x3b48(%eax),%xmm4
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,249,232 // psubw %xmm0,%xmm5
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
@@ -73214,11 +73268,11 @@ _sk_srcatop_sse2_lowp:
.byte 102,15,111,234 // movdqa %xmm2,%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 9934 <_sk_srcatop_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9950 <_sk_srcatop_sse2_lowp+0x19>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,92,58,0,0 // movdqa 0x3a5c(%eax),%xmm0
+ .byte 102,15,111,128,80,58,0,0 // movdqa 0x3a50(%eax),%xmm0
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
.byte 102,15,253,208 // paddw %xmm0,%xmm2
@@ -73276,12 +73330,12 @@ _sk_dstatop_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9a08 <_sk_dstatop_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9a24 <_sk_dstatop_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,136,57,0,0 // movdqa 0x3988(%eax),%xmm7
+ .byte 102,15,111,184,124,57,0,0 // movdqa 0x397c(%eax),%xmm7
.byte 102,15,253,247 // paddw %xmm7,%xmm6
.byte 102,15,213,227 // pmullw %xmm3,%xmm4
.byte 102,15,253,231 // paddw %xmm7,%xmm4
@@ -73334,7 +73388,7 @@ _sk_srcin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9ac9 <_sk_srcin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9ae5 <_sk_srcin_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
@@ -73343,7 +73397,7 @@ _sk_srcin_sse2_lowp:
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,199,56,0,0 // movdqa 0x38c7(%esi),%xmm7
+ .byte 102,15,111,190,187,56,0,0 // movdqa 0x38bb(%esi),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73382,14 +73436,14 @@ _sk_dstin_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9b60 <_sk_dstin_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9b7c <_sk_dstin_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,48,56,0,0 // movdqa 0x3830(%eax),%xmm7
+ .byte 102,15,111,184,36,56,0,0 // movdqa 0x3824(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,111,205 // movdqa %xmm5,%xmm1
.byte 102,15,213,203 // pmullw %xmm3,%xmm1
@@ -73433,14 +73487,14 @@ _sk_srcout_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9c08 <_sk_srcout_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9c24 <_sk_srcout_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,77,16 // mov 0x10(%ebp),%ecx
.byte 139,85,20 // mov 0x14(%ebp),%edx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,136,55,0,0 // movdqa 0x3788(%esi),%xmm6
+ .byte 102,15,111,182,124,55,0,0 // movdqa 0x377c(%esi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73484,11 +73538,11 @@ _sk_dstout_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call 9cab <_sk_dstout_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call 9cc7 <_sk_dstout_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,229,54,0,0 // movdqa 0x36e5(%eax),%xmm7
+ .byte 102,15,111,184,217,54,0,0 // movdqa 0x36d9(%eax),%xmm7
.byte 102,15,111,223 // movdqa %xmm7,%xmm3
.byte 102,15,249,216 // psubw %xmm0,%xmm3
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
@@ -73540,9 +73594,9 @@ _sk_srcover_sse2_lowp:
.byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 9d67 <_sk_srcover_sse2_lowp+0x19>
+ .byte 232,0,0,0,0 // call 9d83 <_sk_srcover_sse2_lowp+0x19>
.byte 88 // pop %eax
- .byte 102,15,111,136,41,54,0,0 // movdqa 0x3629(%eax),%xmm1
+ .byte 102,15,111,136,29,54,0,0 // movdqa 0x361d(%eax),%xmm1
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,249,195 // psubw %xmm3,%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
@@ -73601,7 +73655,7 @@ _sk_dstover_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9e37 <_sk_dstover_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9e53 <_sk_dstover_sse2_lowp+0xd>
.byte 95 // pop %edi
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -73609,7 +73663,7 @@ _sk_dstover_sse2_lowp:
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
.byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,89,53,0,0 // movdqa 0x3559(%edi),%xmm6
+ .byte 102,15,111,183,77,53,0,0 // movdqa 0x354d(%edi),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,253 // psubw %xmm5,%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73655,12 +73709,12 @@ _sk_modulate_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9eec <_sk_modulate_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9f08 <_sk_modulate_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,164,52,0,0 // movdqa 0x34a4(%eax),%xmm7
+ .byte 102,15,111,184,152,52,0,0 // movdqa 0x3498(%eax),%xmm7
.byte 102,15,253,199 // paddw %xmm7,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,253,207 // paddw %xmm7,%xmm1
@@ -73703,10 +73757,10 @@ _sk_multiply_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call 9f88 <_sk_multiply_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call 9fa4 <_sk_multiply_sse2_lowp+0xd>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,8,52,0,0 // movdqa 0x3408(%eax),%xmm4
+ .byte 102,15,111,160,252,51,0,0 // movdqa 0x33fc(%eax),%xmm4
.byte 102,15,111,245 // movdqa %xmm5,%xmm6
.byte 102,15,253,244 // paddw %xmm4,%xmm6
.byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
@@ -73776,17 +73830,17 @@ _sk_plus__sse2_lowp:
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a089 <_sk_plus__sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a0a5 <_sk_plus__sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,23,51,0,0 // movdqa 0x3317(%eax),%xmm5
+ .byte 102,15,111,168,11,51,0,0 // movdqa 0x330b(%eax),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,217,197 // psubusw %xmm5,%xmm0
.byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
.byte 102,15,239,255 // pxor %xmm7,%xmm7
.byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
.byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,7,51,0,0 // movdqa 0x3307(%eax),%xmm6
+ .byte 102,15,111,176,251,50,0,0 // movdqa 0x32fb(%eax),%xmm6
.byte 102,15,223,198 // pandn %xmm6,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
@@ -73847,14 +73901,14 @@ _sk_screen_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a181 <_sk_screen_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a19d <_sk_screen_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
.byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,15,50,0,0 // movdqa 0x320f(%eax),%xmm6
+ .byte 102,15,111,176,3,50,0,0 // movdqa 0x3203(%eax),%xmm6
.byte 102,15,253,206 // paddw %xmm6,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
@@ -73912,9 +73966,9 @@ _sk_xor__sse2_lowp:
.byte 86 // push %esi
.byte 131,236,96 // sub $0x60,%esp
.byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call a261 <_sk_xor__sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call a27d <_sk_xor__sse2_lowp+0x12>
.byte 88 // pop %eax
- .byte 102,15,111,176,47,49,0,0 // movdqa 0x312f(%eax),%xmm6
+ .byte 102,15,111,176,35,49,0,0 // movdqa 0x3123(%eax),%xmm6
.byte 102,15,111,254 // movdqa %xmm6,%xmm7
.byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
@@ -73981,7 +74035,7 @@ _sk_darken_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a356 <_sk_darken_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a372 <_sk_darken_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -73992,7 +74046,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,90,48,0,0 // movdqa 0x305a(%eax),%xmm7
+ .byte 102,15,111,184,78,48,0,0 // movdqa 0x304e(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74001,7 +74055,7 @@ _sk_darken_sse2_lowp:
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,223,233 // pandn %xmm1,%xmm5
.byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,58,48,0,0 // movdqa 0x303a(%eax),%xmm0
+ .byte 102,15,111,128,46,48,0,0 // movdqa 0x302e(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,8 // psrlw $0x8,%xmm5
@@ -74092,7 +74146,7 @@ _sk_lighten_sse2_lowp:
.byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a4ff <_sk_lighten_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a51b <_sk_lighten_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
@@ -74101,7 +74155,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,177,46,0,0 // movdqa 0x2eb1(%eax),%xmm7
+ .byte 102,15,111,184,165,46,0,0 // movdqa 0x2ea5(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74110,7 +74164,7 @@ _sk_lighten_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,145,46,0,0 // movdqa 0x2e91(%eax),%xmm0
+ .byte 102,15,111,128,133,46,0,0 // movdqa 0x2e85(%eax),%xmm0
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
@@ -74200,7 +74254,7 @@ _sk_difference_sse2_lowp:
.byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a69d <_sk_difference_sse2_lowp+0x25>
+ .byte 232,0,0,0,0 // call a6b9 <_sk_difference_sse2_lowp+0x25>
.byte 88 // pop %eax
.byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
@@ -74211,7 +74265,7 @@ _sk_difference_sse2_lowp:
.byte 102,15,111,222 // movdqa %xmm6,%xmm3
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,19,45,0,0 // movdqa 0x2d13(%eax),%xmm7
+ .byte 102,15,111,184,7,45,0,0 // movdqa 0x2d07(%eax),%xmm7
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,239,247 // pxor %xmm7,%xmm6
.byte 102,15,111,232 // movdqa %xmm0,%xmm5
@@ -74220,11 +74274,11 @@ _sk_difference_sse2_lowp:
.byte 102,15,219,205 // pand %xmm5,%xmm1
.byte 102,15,223,232 // pandn %xmm0,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,243,44,0,0 // movdqa 0x2cf3(%eax),%xmm0
+ .byte 102,15,111,128,231,44,0,0 // movdqa 0x2ce7(%eax),%xmm0
.byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
.byte 102,15,253,232 // paddw %xmm0,%xmm5
.byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,35,45,0,0 // movdqa 0x2d23(%eax),%xmm0
+ .byte 102,15,111,128,23,45,0,0 // movdqa 0x2d17(%eax),%xmm0
.byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
.byte 102,15,219,232 // pand %xmm0,%xmm5
.byte 102,15,249,213 // psubw %xmm5,%xmm2
@@ -74313,16 +74367,16 @@ _sk_exclusion_sse2_lowp:
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,225 // movdqa %xmm1,%xmm4
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call a851 <_sk_exclusion_sse2_lowp+0x15>
+ .byte 232,0,0,0,0 // call a86d <_sk_exclusion_sse2_lowp+0x15>
.byte 88 // pop %eax
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 102,15,111,197 // movdqa %xmm5,%xmm0
.byte 102,15,253,193 // paddw %xmm1,%xmm0
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,63,43,0,0 // movdqa 0x2b3f(%eax),%xmm7
+ .byte 102,15,111,184,51,43,0,0 // movdqa 0x2b33(%eax),%xmm7
.byte 102,15,253,207 // paddw %xmm7,%xmm1
.byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,111,43,0,0 // movdqa 0x2b6f(%eax),%xmm6
+ .byte 102,15,111,176,99,43,0,0 // movdqa 0x2b63(%eax),%xmm6
.byte 102,15,219,206 // pand %xmm6,%xmm1
.byte 102,15,249,193 // psubw %xmm1,%xmm0
.byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
@@ -74383,9 +74437,9 @@ _sk_hardlight_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 102,15,111,233 // movdqa %xmm1,%xmm5
.byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call a94b <_sk_hardlight_sse2_lowp+0x1c>
+ .byte 232,0,0,0,0 // call a967 <_sk_hardlight_sse2_lowp+0x1c>
.byte 88 // pop %eax
- .byte 102,15,111,184,69,42,0,0 // movdqa 0x2a45(%eax),%xmm7
+ .byte 102,15,111,184,57,42,0,0 // movdqa 0x2a39(%eax),%xmm7
.byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
@@ -74412,7 +74466,7 @@ _sk_hardlight_sse2_lowp:
.byte 102,15,111,214 // movdqa %xmm6,%xmm2
.byte 102,15,249,209 // psubw %xmm1,%xmm2
.byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,101,42,0,0 // movdqa 0x2a65(%eax),%xmm0
+ .byte 102,15,111,128,89,42,0,0 // movdqa 0x2a59(%eax),%xmm0
.byte 102,15,239,216 // pxor %xmm0,%xmm3
.byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
.byte 102,15,111,204 // movdqa %xmm4,%xmm1
@@ -74519,10 +74573,10 @@ _sk_overlay_sse2_lowp:
.byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
.byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ab6d <_sk_overlay_sse2_lowp+0x1f>
+ .byte 232,0,0,0,0 // call ab89 <_sk_overlay_sse2_lowp+0x1f>
.byte 88 // pop %eax
.byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,35,40,0,0 // movdqa 0x2823(%eax),%xmm7
+ .byte 102,15,111,184,23,40,0,0 // movdqa 0x2817(%eax),%xmm7
.byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
.byte 102,15,111,215 // movdqa %xmm7,%xmm2
.byte 102,15,249,208 // psubw %xmm0,%xmm2
@@ -74549,7 +74603,7 @@ _sk_overlay_sse2_lowp:
.byte 102,15,249,234 // psubw %xmm2,%xmm5
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,67,40,0,0 // movdqa 0x2843(%eax),%xmm2
+ .byte 102,15,111,144,55,40,0,0 // movdqa 0x2837(%eax),%xmm2
.byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
.byte 102,15,239,226 // pxor %xmm2,%xmm4
.byte 102,15,239,194 // pxor %xmm2,%xmm0
@@ -74679,10 +74733,10 @@ _sk_load_8888_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call addc <_sk_load_8888_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call adf8 <_sk_load_8888_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja ae02 <_sk_load_8888_sse2_lowp+0x56>
+ .byte 119,32 // ja ae1e <_sk_load_8888_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -74691,14 +74745,14 @@ _sk_load_8888_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp ae4b <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,73 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp ae4b <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,61 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp ae4b <_sk_load_8888_sse2_lowp+0x9f>
+ .byte 235,43 // jmp ae67 <_sk_load_8888_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -74715,7 +74769,7 @@ _sk_load_8888_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,180,37,0,0 // movdqa 0x25b4(%edi),%xmm5
+ .byte 102,15,111,175,168,37,0,0 // movdqa 0x25a8(%edi),%xmm5
.byte 102,15,111,193 // movdqa %xmm1,%xmm0
.byte 102,15,219,197 // pand %xmm5,%xmm0
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -74795,10 +74849,10 @@ _sk_load_8888_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call af69 <_sk_load_8888_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call af85 <_sk_load_8888_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja af8f <_sk_load_8888_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja afab <_sk_load_8888_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -74807,14 +74861,14 @@ _sk_load_8888_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp afd8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp afd8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp afd8 <_sk_load_8888_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp aff4 <_sk_load_8888_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -74831,7 +74885,7 @@ _sk_load_8888_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,39,36,0,0 // movdqa 0x2427(%edi),%xmm2
+ .byte 102,15,111,151,27,36,0,0 // movdqa 0x241b(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -74925,19 +74979,19 @@ _sk_store_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b134 <_sk_store_8888_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b150 <_sk_store_8888_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b151 <_sk_store_8888_sse2_lowp+0x91>
+ .byte 119,19 // ja b16d <_sk_store_8888_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b1ae <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,93 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b1ae <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,80 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -74945,7 +74999,7 @@ _sk_store_8888_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b1ae <_sk_store_8888_sse2_lowp+0xee>
+ .byte 235,48 // jmp b1ca <_sk_store_8888_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -74982,7 +75036,7 @@ _sk_store_8888_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b1fa <_sk_store_8888_sse2_lowp+0x13a>
+ .byte 117,0 // jne b216 <_sk_store_8888_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75014,10 +75068,10 @@ _sk_load_bgra_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b238 <_sk_load_bgra_sse2_lowp+0x30>
+ .byte 232,0,0,0,0 // call b254 <_sk_load_bgra_sse2_lowp+0x30>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b25e <_sk_load_bgra_sse2_lowp+0x56>
+ .byte 119,32 // ja b27a <_sk_load_bgra_sse2_lowp+0x56>
.byte 102,15,239,246 // pxor %xmm6,%xmm6
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
@@ -75026,14 +75080,14 @@ _sk_load_bgra_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
.byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp b2a7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,73 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
.byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp b2a7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,61 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp b2a7 <_sk_load_bgra_sse2_lowp+0x9f>
+ .byte 235,43 // jmp b2c3 <_sk_load_bgra_sse2_lowp+0x9f>
.byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
@@ -75050,7 +75104,7 @@ _sk_load_bgra_sse2_lowp:
.byte 102,15,114,240,16 // pslld $0x10,%xmm0
.byte 102,15,114,224,16 // psrad $0x10,%xmm0
.byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,88,33,0,0 // movdqa 0x2158(%edi),%xmm5
+ .byte 102,15,111,175,76,33,0,0 // movdqa 0x214c(%edi),%xmm5
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,219,213 // pand %xmm5,%xmm2
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
@@ -75130,10 +75184,10 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b3c5 <_sk_load_bgra_dst_sse2_lowp+0x3d>
+ .byte 232,0,0,0,0 // call b3e1 <_sk_load_bgra_dst_sse2_lowp+0x3d>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja b3eb <_sk_load_bgra_dst_sse2_lowp+0x63>
+ .byte 119,32 // ja b407 <_sk_load_bgra_dst_sse2_lowp+0x63>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
@@ -75142,14 +75196,14 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp b434 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,73 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
.byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp b434 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,61 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
.byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
.byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp b434 <_sk_load_bgra_dst_sse2_lowp+0xac>
+ .byte 235,43 // jmp b450 <_sk_load_bgra_dst_sse2_lowp+0xac>
.byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
.byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
.byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
@@ -75166,7 +75220,7 @@ _sk_load_bgra_dst_sse2_lowp:
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
.byte 102,15,114,226,16 // psrad $0x10,%xmm2
.byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,203,31,0,0 // movdqa 0x1fcb(%edi),%xmm2
+ .byte 102,15,111,151,191,31,0,0 // movdqa 0x1fbf(%edi),%xmm2
.byte 102,15,111,206 // movdqa %xmm6,%xmm1
.byte 102,15,219,202 // pand %xmm2,%xmm1
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
@@ -75260,19 +75314,19 @@ _sk_store_bgra_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call b590 <_sk_store_bgra_sse2_lowp+0x74>
+ .byte 232,0,0,0,0 // call b5ac <_sk_store_bgra_sse2_lowp+0x74>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja b5ad <_sk_store_bgra_sse2_lowp+0x91>
+ .byte 119,19 // ja b5c9 <_sk_store_bgra_sse2_lowp+0x91>
.byte 15,182,219 // movzbl %bl,%ebx
.byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp b60a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,93 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
.byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
.byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp b60a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,80 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 15,40,227 // movaps %xmm3,%xmm4
.byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
@@ -75280,7 +75334,7 @@ _sk_store_bgra_sse2_lowp:
.byte 15,40,220 // movaps %xmm4,%xmm3
.byte 102,15,111,230 // movdqa %xmm6,%xmm4
.byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp b60a <_sk_store_bgra_sse2_lowp+0xee>
+ .byte 235,48 // jmp b626 <_sk_store_bgra_sse2_lowp+0xee>
.byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
.byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
.byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
@@ -75317,7 +75371,7 @@ _sk_store_bgra_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 42,0 // sub (%eax),%al
.byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne b656 <_sk_store_bgra_sse2_lowp+0x13a>
+ .byte 117,0 // jne b672 <_sk_store_bgra_sse2_lowp+0x13a>
.byte 0,0 // add %al,(%eax)
.byte 111 // outsl %ds:(%esi),(%dx)
.byte 0,0 // add %al,(%eax)
@@ -75352,10 +75406,10 @@ _sk_load_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b69f <_sk_load_565_sse2_lowp+0x3b>
+ .byte 232,0,0,0,0 // call b6bb <_sk_load_565_sse2_lowp+0x3b>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja b6c1 <_sk_load_565_sse2_lowp+0x5d>
+ .byte 119,28 // ja b6dd <_sk_load_565_sse2_lowp+0x5d>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,245,0,0,0 // mov 0xf5(%esi,%ecx,4),%ecx
@@ -75363,14 +75417,14 @@ _sk_load_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp b6fc <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,59 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
.byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp b6fc <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,52 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
.byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
.byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp b6fc <_sk_load_565_sse2_lowp+0x98>
+ .byte 235,30 // jmp b718 <_sk_load_565_sse2_lowp+0x98>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
.byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
@@ -75378,11 +75432,11 @@ _sk_load_565_sse2_lowp:
.byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
.byte 102,15,111,248 // movdqa %xmm0,%xmm7
.byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,49,29,0,0 // pand 0x1d31(%esi),%xmm7
+ .byte 102,15,219,190,37,29,0,0 // pand 0x1d25(%esi),%xmm7
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,65,29,0,0 // pand 0x1d41(%esi),%xmm1
- .byte 102,15,111,150,81,29,0,0 // movdqa 0x1d51(%esi),%xmm2
+ .byte 102,15,219,142,53,29,0,0 // pand 0x1d35(%esi),%xmm1
+ .byte 102,15,111,150,69,29,0,0 // movdqa 0x1d45(%esi),%xmm2
.byte 102,15,219,208 // pand %xmm0,%xmm2
.byte 102,15,113,208,13 // psrlw $0xd,%xmm0
.byte 102,15,235,199 // por %xmm7,%xmm0
@@ -75404,7 +75458,7 @@ _sk_load_565_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,241,28,0,0 // movaps 0x1cf1(%esi),%xmm3
+ .byte 15,40,158,229,28,0,0 // movaps 0x1ce5(%esi),%xmm3
.byte 255,80,4 // call *0x4(%eax)
.byte 131,196,92 // add $0x5c,%esp
.byte 94 // pop %esi
@@ -75450,10 +75504,10 @@ _sk_load_565_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call b7db <_sk_load_565_dst_sse2_lowp+0x2b>
+ .byte 232,0,0,0,0 // call b7f7 <_sk_load_565_dst_sse2_lowp+0x2b>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja b7fd <_sk_load_565_dst_sse2_lowp+0x4d>
+ .byte 119,28 // ja b819 <_sk_load_565_dst_sse2_lowp+0x4d>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
@@ -75461,14 +75515,14 @@ _sk_load_565_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp b838 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,59 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp b838 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,52 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
.byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp b838 <_sk_load_565_dst_sse2_lowp+0x88>
+ .byte 235,30 // jmp b854 <_sk_load_565_dst_sse2_lowp+0x88>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
.byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
@@ -75476,11 +75530,11 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
.byte 102,15,111,244 // movdqa %xmm4,%xmm6
.byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,245,27,0,0 // pand 0x1bf5(%edi),%xmm6
+ .byte 102,15,219,183,233,27,0,0 // pand 0x1be9(%edi),%xmm6
.byte 102,15,111,236 // movdqa %xmm4,%xmm5
.byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,5,28,0,0 // pand 0x1c05(%edi),%xmm5
- .byte 102,15,111,191,21,28,0,0 // movdqa 0x1c15(%edi),%xmm7
+ .byte 102,15,219,175,249,27,0,0 // pand 0x1bf9(%edi),%xmm5
+ .byte 102,15,111,191,9,28,0,0 // movdqa 0x1c09(%edi),%xmm7
.byte 102,15,219,252 // pand %xmm4,%xmm7
.byte 102,15,113,212,13 // psrlw $0xd,%xmm4
.byte 102,15,235,230 // por %xmm6,%xmm4
@@ -75493,7 +75547,7 @@ _sk_load_565_dst_sse2_lowp:
.byte 102,15,113,215,2 // psrlw $0x2,%xmm7
.byte 102,15,235,254 // por %xmm6,%xmm7
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,181,27,0,0 // movaps 0x1bb5(%edi),%xmm6
+ .byte 15,40,183,169,27,0,0 // movaps 0x1ba9(%edi),%xmm6
.byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
.byte 139,125,20 // mov 0x14(%ebp),%edi
.byte 137,124,36,12 // mov %edi,0xc(%esp)
@@ -75538,15 +75592,15 @@ _sk_store_565_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,92 // sub $0x5c,%esp
.byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call b902 <_sk_store_565_sse2_lowp+0x12>
+ .byte 232,0,0,0,0 // call b91e <_sk_store_565_sse2_lowp+0x12>
.byte 95 // pop %edi
.byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,254,26,0,0 // pand 0x1afe(%edi),%xmm2
+ .byte 102,15,219,151,242,26,0,0 // pand 0x1af2(%edi),%xmm2
.byte 102,15,111,241 // movdqa %xmm1,%xmm6
.byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,14,27,0,0 // pand 0x1b0e(%edi),%xmm6
+ .byte 102,15,219,183,2,27,0,0 // pand 0x1b02(%edi),%xmm6
.byte 102,15,235,242 // por %xmm2,%xmm6
.byte 102,15,111,212 // movdqa %xmm4,%xmm2
.byte 102,15,113,210,3 // psrlw $0x3,%xmm2
@@ -75565,19 +75619,19 @@ _sk_store_565_sse2_lowp:
.byte 128,249,6 // cmp $0x6,%cl
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja b97a <_sk_store_565_sse2_lowp+0x8a>
+ .byte 119,22 // ja b996 <_sk_store_565_sse2_lowp+0x8a>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
.byte 255,231 // jmp *%edi
.byte 102,15,126,209 // movd %xmm2,%ecx
.byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp b9b5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,59 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
.byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp b9b5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,52 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
.byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
.byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp b9b5 <_sk_store_565_sse2_lowp+0xc5>
+ .byte 235,35 // jmp b9d1 <_sk_store_565_sse2_lowp+0xc5>
.byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
.byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
.byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
@@ -75639,10 +75693,10 @@ _sk_load_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call ba4a <_sk_load_a8_sse2_lowp+0x3a>
+ .byte 232,0,0,0,0 // call ba66 <_sk_load_a8_sse2_lowp+0x3a>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja ba6c <_sk_load_a8_sse2_lowp+0x5c>
+ .byte 119,28 // ja ba88 <_sk_load_a8_sse2_lowp+0x5c>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
@@ -75650,10 +75704,10 @@ _sk_load_a8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp bac6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,90 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp bac6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,79 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -75661,7 +75715,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp bac6 <_sk_load_a8_sse2_lowp+0xb6>
+ .byte 235,47 // jmp bae2 <_sk_load_a8_sse2_lowp+0xb6>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -75672,7 +75726,7 @@ _sk_load_a8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,70,25,0,0 // pand 0x1946(%edi),%xmm3
+ .byte 102,15,219,159,58,25,0,0 // pand 0x193a(%edi),%xmm3
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
@@ -75727,10 +75781,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bb55 <_sk_load_a8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bb71 <_sk_load_a8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja bb77 <_sk_load_a8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja bb93 <_sk_load_a8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -75738,10 +75792,10 @@ _sk_load_a8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bbd1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bbd1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -75749,7 +75803,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bbd1 <_sk_load_a8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bbed <_sk_load_a8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -75760,7 +75814,7 @@ _sk_load_a8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,59,24,0,0 // pand 0x183b(%edi),%xmm4
+ .byte 102,15,219,167,47,24,0,0 // pand 0x182f(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
.byte 102,15,239,228 // pxor %xmm4,%xmm4
@@ -75817,32 +75871,32 @@ _sk_store_a8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bc6d <_sk_store_a8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bc89 <_sk_store_a8_sse2_lowp+0x39>
.byte 91 // pop %ebx
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja bc8d <_sk_store_a8_sse2_lowp+0x59>
+ .byte 119,26 // ja bca9 <_sk_store_a8_sse2_lowp+0x59>
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
.byte 1,217 // add %ebx,%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,217 // movd %xmm3,%ecx
.byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp bd15 <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,35,23,0,0 // movdqa 0x1723(%ebx),%xmm4
+ .byte 233,136,0,0,0 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp bd15 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,109 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
.byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,35,23,0,0 // movdqa 0x1723(%ebx),%xmm4
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,225 // movd %xmm4,%ecx
.byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
.byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp bd15 <_sk_store_a8_sse2_lowp+0xe1>
+ .byte 235,70 // jmp bd31 <_sk_store_a8_sse2_lowp+0xe1>
.byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
.byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
.byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
@@ -75852,7 +75906,7 @@ _sk_store_a8_sse2_lowp:
.byte 15,40,254 // movaps %xmm6,%xmm7
.byte 15,40,245 // movaps %xmm5,%xmm6
.byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,35,23,0,0 // movdqa 0x1723(%ebx),%xmm4
+ .byte 102,15,111,163,23,23,0,0 // movdqa 0x1717(%ebx),%xmm4
.byte 102,15,219,227 // pand %xmm3,%xmm4
.byte 102,15,103,228 // packuswb %xmm4,%xmm4
.byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
@@ -75886,7 +75940,7 @@ _sk_store_a8_sse2_lowp:
.byte 0,0 // add %al,(%eax)
.byte 0,125,0 // add %bh,0x0(%ebp)
.byte 0,0 // add %al,(%eax)
- .byte 116,0 // je bd5e <_sk_store_a8_sse2_lowp+0x12a>
+ .byte 116,0 // je bd7a <_sk_store_a8_sse2_lowp+0x12a>
.byte 0,0 // add %al,(%eax)
.byte 107,0,0 // imul $0x0,(%eax),%eax
.byte 0,98,0 // add %ah,0x0(%edx)
@@ -75916,10 +75970,10 @@ _sk_load_g8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bda1 <_sk_load_g8_sse2_lowp+0x39>
+ .byte 232,0,0,0,0 // call bdbd <_sk_load_g8_sse2_lowp+0x39>
.byte 94 // pop %esi
.byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja bdc3 <_sk_load_g8_sse2_lowp+0x5b>
+ .byte 119,28 // ja bddf <_sk_load_g8_sse2_lowp+0x5b>
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,142,199,0,0,0 // mov 0xc7(%esi,%ecx,4),%ecx
@@ -75927,10 +75981,10 @@ _sk_load_g8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
.byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp be1d <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,90 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
.byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
.byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp be1d <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,79 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
@@ -75938,7 +75992,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp be1d <_sk_load_g8_sse2_lowp+0xb5>
+ .byte 235,47 // jmp be39 <_sk_load_g8_sse2_lowp+0xb5>
.byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
.byte 102,15,239,192 // pxor %xmm0,%xmm0
.byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
@@ -75949,7 +76003,7 @@ _sk_load_g8_sse2_lowp:
.byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,239,21,0,0 // pand 0x15ef(%esi),%xmm0
+ .byte 102,15,219,134,227,21,0,0 // pand 0x15e3(%esi),%xmm0
.byte 141,72,8 // lea 0x8(%eax),%ecx
.byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
.byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
@@ -75960,7 +76014,7 @@ _sk_load_g8_sse2_lowp:
.byte 137,124,36,8 // mov %edi,0x8(%esp)
.byte 137,76,36,4 // mov %ecx,0x4(%esp)
.byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,239,21,0,0 // movaps 0x15ef(%esi),%xmm3
+ .byte 15,40,158,227,21,0,0 // movaps 0x15e3(%esi),%xmm3
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,111,208 // movdqa %xmm0,%xmm2
.byte 255,80,4 // call *0x4(%eax)
@@ -76003,10 +76057,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call bead <_sk_load_g8_dst_sse2_lowp+0x29>
+ .byte 232,0,0,0,0 // call bec9 <_sk_load_g8_dst_sse2_lowp+0x29>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja becf <_sk_load_g8_dst_sse2_lowp+0x4b>
+ .byte 119,28 // ja beeb <_sk_load_g8_dst_sse2_lowp+0x4b>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
@@ -76014,10 +76068,10 @@ _sk_load_g8_dst_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp bf29 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,90 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp bf29 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,79 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76025,7 +76079,7 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp bf29 <_sk_load_g8_dst_sse2_lowp+0xa5>
+ .byte 235,47 // jmp bf45 <_sk_load_g8_dst_sse2_lowp+0xa5>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76036,9 +76090,9 @@ _sk_load_g8_dst_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,227,20,0,0 // pand 0x14e3(%edi),%xmm4
+ .byte 102,15,219,167,215,20,0,0 // pand 0x14d7(%edi),%xmm4
.byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,227,20,0,0 // movaps 0x14e3(%edi),%xmm5
+ .byte 15,40,175,215,20,0,0 // movaps 0x14d7(%edi),%xmm5
.byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
.byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
.byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
@@ -76079,7 +76133,7 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call bf9d <_sk_luminance_to_alpha_sse2_lowp+0x11>
+ .byte 232,0,0,0,0 // call bfb9 <_sk_luminance_to_alpha_sse2_lowp+0x11>
.byte 88 // pop %eax
.byte 139,77,8 // mov 0x8(%ebp),%ecx
.byte 139,85,16 // mov 0x10(%ebp),%edx
@@ -76089,10 +76143,10 @@ _sk_luminance_to_alpha_sse2_lowp:
.byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
.byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
.byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,131,20,0,0 // pmullw 0x1483(%eax),%xmm0
- .byte 102,15,213,136,147,20,0,0 // pmullw 0x1493(%eax),%xmm1
+ .byte 102,15,213,128,119,20,0,0 // pmullw 0x1477(%eax),%xmm0
+ .byte 102,15,213,136,135,20,0,0 // pmullw 0x1487(%eax),%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,163,20,0,0 // pmullw 0x14a3(%eax),%xmm3
+ .byte 102,15,213,152,151,20,0,0 // pmullw 0x1497(%eax),%xmm3
.byte 102,15,253,217 // paddw %xmm1,%xmm3
.byte 102,15,113,211,8 // psrlw $0x8,%xmm3
.byte 141,71,4 // lea 0x4(%edi),%eax
@@ -76123,15 +76177,15 @@ _sk_scale_1_float_sse2_lowp:
.byte 87 // push %edi
.byte 86 // push %esi
.byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call c026 <_sk_scale_1_float_sse2_lowp+0xd>
+ .byte 232,0,0,0,0 // call c042 <_sk_scale_1_float_sse2_lowp+0xd>
.byte 94 // pop %esi
.byte 139,69,8 // mov 0x8(%ebp),%eax
.byte 139,85,16 // mov 0x10(%ebp),%edx
.byte 139,77,12 // mov 0xc(%ebp),%ecx
.byte 139,57 // mov (%ecx),%edi
.byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,46,20,0,0 // mulss 0x142e(%esi),%xmm4
- .byte 243,15,88,166,42,20,0,0 // addss 0x142a(%esi),%xmm4
+ .byte 243,15,89,166,34,20,0,0 // mulss 0x1422(%esi),%xmm4
+ .byte 243,15,88,166,30,20,0,0 // addss 0x141e(%esi),%xmm4
.byte 243,15,44,252 // cvttss2si %xmm4,%edi
.byte 102,15,110,239 // movd %edi,%xmm5
.byte 139,125,20 // mov 0x14(%ebp),%edi
@@ -76144,7 +76198,7 @@ _sk_scale_1_float_sse2_lowp:
.byte 102,15,213,205 // pmullw %xmm5,%xmm1
.byte 102,15,213,213 // pmullw %xmm5,%xmm2
.byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,106,19,0,0 // movdqa 0x136a(%esi),%xmm5
+ .byte 102,15,111,174,94,19,0,0 // movdqa 0x135e(%esi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,253,205 // paddw %xmm5,%xmm1
.byte 102,15,253,213 // paddw %xmm5,%xmm2
@@ -76183,19 +76237,19 @@ _sk_lerp_1_float_sse2_lowp:
.byte 102,15,111,218 // movdqa %xmm2,%xmm3
.byte 102,15,111,209 // movdqa %xmm1,%xmm2
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call c0f4 <_sk_lerp_1_float_sse2_lowp+0x1d>
+ .byte 232,0,0,0,0 // call c110 <_sk_lerp_1_float_sse2_lowp+0x1d>
.byte 89 // pop %ecx
.byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
.byte 139,69,12 // mov 0xc(%ebp),%eax
.byte 139,16 // mov (%eax),%edx
.byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,96,19,0,0 // mulss 0x1360(%ecx),%xmm6
- .byte 243,15,88,177,92,19,0,0 // addss 0x135c(%ecx),%xmm6
+ .byte 243,15,89,177,84,19,0,0 // mulss 0x1354(%ecx),%xmm6
+ .byte 243,15,88,177,80,19,0,0 // addss 0x1350(%ecx),%xmm6
.byte 243,15,44,214 // cvttss2si %xmm6,%edx
.byte 102,15,110,242 // movd %edx,%xmm6
.byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
.byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,156,18,0,0 // movdqa 0x129c(%ecx),%xmm0
+ .byte 102,15,111,129,144,18,0,0 // movdqa 0x1290(%ecx),%xmm0
.byte 102,15,213,206 // pmullw %xmm6,%xmm1
.byte 102,15,253,200 // paddw %xmm0,%xmm1
.byte 102,15,213,214 // pmullw %xmm6,%xmm2
@@ -76268,10 +76322,10 @@ _sk_scale_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c21d <_sk_scale_u8_sse2_lowp+0x31>
+ .byte 232,0,0,0,0 // call c239 <_sk_scale_u8_sse2_lowp+0x31>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c23f <_sk_scale_u8_sse2_lowp+0x53>
+ .byte 119,28 // ja c25b <_sk_scale_u8_sse2_lowp+0x53>
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,3,1,0,0 // mov 0x103(%edi,%ecx,4),%ecx
@@ -76279,10 +76333,10 @@ _sk_scale_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp c299 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,90 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp c299 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,79 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
@@ -76290,7 +76344,7 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,233 // movd %ecx,%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp c299 <_sk_scale_u8_sse2_lowp+0xad>
+ .byte 235,47 // jmp c2b5 <_sk_scale_u8_sse2_lowp+0xad>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,228 // pxor %xmm4,%xmm4
.byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
@@ -76301,9 +76355,9 @@ _sk_scale_u8_sse2_lowp:
.byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
.byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
.byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,115,17,0,0 // pand 0x1173(%edi),%xmm4
+ .byte 102,15,219,167,103,17,0,0 // pand 0x1167(%edi),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,115,17,0,0 // movdqa 0x1173(%edi),%xmm5
+ .byte 102,15,111,175,103,17,0,0 // movdqa 0x1167(%edi),%xmm5
.byte 102,15,253,197 // paddw %xmm5,%xmm0
.byte 102,15,113,208,8 // psrlw $0x8,%xmm0
.byte 102,15,213,204 // pmullw %xmm4,%xmm1
@@ -76370,10 +76424,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c36a <_sk_lerp_u8_sse2_lowp+0x2e>
+ .byte 232,0,0,0,0 // call c386 <_sk_lerp_u8_sse2_lowp+0x2e>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c38c <_sk_lerp_u8_sse2_lowp+0x50>
+ .byte 119,28 // ja c3a8 <_sk_lerp_u8_sse2_lowp+0x50>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
@@ -76381,10 +76435,10 @@ _sk_lerp_u8_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp c3e6 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,90 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
.byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp c3e6 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,79 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
@@ -76392,7 +76446,7 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,225 // movd %ecx,%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp c3e6 <_sk_lerp_u8_sse2_lowp+0xaa>
+ .byte 235,47 // jmp c402 <_sk_lerp_u8_sse2_lowp+0xaa>
.byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
@@ -76403,8 +76457,8 @@ _sk_lerp_u8_sse2_lowp:
.byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
.byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
.byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,38,16,0,0 // pand 0x1026(%edi),%xmm3
- .byte 102,15,111,183,38,16,0,0 // movdqa 0x1026(%edi),%xmm6
+ .byte 102,15,219,159,26,16,0,0 // pand 0x101a(%edi),%xmm3
+ .byte 102,15,111,183,26,16,0,0 // movdqa 0x101a(%edi),%xmm6
.byte 102,15,111,227 // movdqa %xmm3,%xmm4
.byte 102,15,239,230 // pxor %xmm6,%xmm4
.byte 102,15,111,252 // movdqa %xmm4,%xmm7
@@ -76493,10 +76547,10 @@ _sk_scale_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c513 <_sk_scale_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c52f <_sk_scale_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c535 <_sk_scale_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c551 <_sk_scale_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
@@ -76504,14 +76558,14 @@ _sk_scale_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c570 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c570 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c570 <_sk_scale_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c58c <_sk_scale_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76519,11 +76573,11 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,189,14,0,0 // pand 0xebd(%edi),%xmm1
+ .byte 102,15,219,143,177,14,0,0 // pand 0xeb1(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,205,14,0,0 // pand 0xecd(%edi),%xmm2
- .byte 102,15,111,135,221,14,0,0 // movdqa 0xedd(%edi),%xmm0
+ .byte 102,15,219,151,193,14,0,0 // pand 0xec1(%edi),%xmm2
+ .byte 102,15,111,135,209,14,0,0 // movdqa 0xed1(%edi),%xmm0
.byte 102,15,219,195 // pand %xmm3,%xmm0
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76536,7 +76590,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,113,208,2 // psrlw $0x2,%xmm0
.byte 102,15,235,193 // por %xmm1,%xmm0
.byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,157,14,0,0 // movdqa 0xe9d(%edi),%xmm4
+ .byte 102,15,111,167,145,14,0,0 // movdqa 0xe91(%edi),%xmm4
.byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
.byte 102,15,239,244 // pxor %xmm4,%xmm6
.byte 102,15,239,252 // pxor %xmm4,%xmm7
@@ -76579,7 +76633,7 @@ _sk_scale_565_sse2_lowp:
.byte 102,15,111,229 // movdqa %xmm5,%xmm4
.byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
.byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,125,14,0,0 // movdqa 0xe7d(%edi),%xmm0
+ .byte 102,15,111,135,113,14,0,0 // movdqa 0xe71(%edi),%xmm0
.byte 102,15,253,216 // paddw %xmm0,%xmm3
.byte 102,15,253,208 // paddw %xmm0,%xmm2
.byte 102,15,253,224 // paddw %xmm0,%xmm4
@@ -76656,10 +76710,10 @@ _sk_lerp_565_sse2_lowp:
.byte 128,225,7 // and $0x7,%cl
.byte 254,201 // dec %cl
.byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c76b <_sk_lerp_565_sse2_lowp+0x43>
+ .byte 232,0,0,0,0 // call c787 <_sk_lerp_565_sse2_lowp+0x43>
.byte 95 // pop %edi
.byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja c78d <_sk_lerp_565_sse2_lowp+0x65>
+ .byte 119,28 // ja c7a9 <_sk_lerp_565_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 15,182,201 // movzbl %cl,%ecx
.byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
@@ -76667,14 +76721,14 @@ _sk_lerp_565_sse2_lowp:
.byte 255,225 // jmp *%ecx
.byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
.byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp c7c8 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,59 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp c7c8 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,52 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
.byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
.byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp c7c8 <_sk_lerp_565_sse2_lowp+0xa0>
+ .byte 235,30 // jmp c7e4 <_sk_lerp_565_sse2_lowp+0xa0>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
.byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
@@ -76682,11 +76736,11 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
.byte 102,15,111,203 // movdqa %xmm3,%xmm1
.byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,101,12,0,0 // pand 0xc65(%edi),%xmm1
+ .byte 102,15,219,143,89,12,0,0 // pand 0xc59(%edi),%xmm1
.byte 102,15,111,211 // movdqa %xmm3,%xmm2
.byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,117,12,0,0 // pand 0xc75(%edi),%xmm2
- .byte 102,15,111,175,133,12,0,0 // movdqa 0xc85(%edi),%xmm5
+ .byte 102,15,219,151,105,12,0,0 // pand 0xc69(%edi),%xmm2
+ .byte 102,15,111,175,121,12,0,0 // movdqa 0xc79(%edi),%xmm5
.byte 102,15,219,235 // pand %xmm3,%xmm5
.byte 102,15,113,211,13 // psrlw $0xd,%xmm3
.byte 102,15,235,217 // por %xmm1,%xmm3
@@ -76699,7 +76753,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,113,213,2 // psrlw $0x2,%xmm5
.byte 102,15,235,233 // por %xmm1,%xmm5
.byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,69,12,0,0 // movdqa 0xc45(%edi),%xmm4
+ .byte 102,15,111,167,57,12,0,0 // movdqa 0xc39(%edi),%xmm4
.byte 102,15,111,198 // movdqa %xmm6,%xmm0
.byte 102,15,111,200 // movdqa %xmm0,%xmm1
.byte 102,15,239,204 // pxor %xmm4,%xmm1
@@ -76740,7 +76794,7 @@ _sk_lerp_565_sse2_lowp:
.byte 102,15,235,249 // por %xmm1,%xmm7
.byte 102,15,111,195 // movdqa %xmm3,%xmm0
.byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,37,12,0,0 // movdqa 0xc25(%edi),%xmm1
+ .byte 102,15,111,143,25,12,0,0 // movdqa 0xc19(%edi),%xmm1
.byte 102,15,239,193 // pxor %xmm1,%xmm0
.byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
.byte 102,15,213,196 // pmullw %xmm4,%xmm0
@@ -76836,11 +76890,11 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 128,227,7 // and $0x7,%bl
.byte 254,203 // dec %bl
.byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call ca0f <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
+ .byte 232,0,0,0,0 // call ca2b <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
.byte 89 // pop %ecx
.byte 139,117,16 // mov 0x10(%ebp),%esi
.byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja ca35 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
+ .byte 119,29 // ja ca51 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
.byte 102,15,239,219 // pxor %xmm3,%xmm3
.byte 139,132,145,77,2,0,0 // mov 0x24d(%ecx,%edx,4),%eax
.byte 1,200 // add %ecx,%eax
@@ -76848,14 +76902,14 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 255,224 // jmp *%eax
.byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
.byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp ca7e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,73 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
.byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp ca7e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,61 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
.byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
.byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp ca7e <_sk_srcover_rgba_8888_sse2_lowp+0xae>
+ .byte 235,43 // jmp ca9a <_sk_srcover_rgba_8888_sse2_lowp+0xae>
.byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
.byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
.byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
@@ -76881,7 +76935,7 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,114,243,16 // pslld $0x10,%xmm3
.byte 102,15,114,227,16 // psrad $0x10,%xmm3
.byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,129,9,0,0 // movdqa 0x981(%ecx),%xmm3
+ .byte 102,15,111,153,117,9,0,0 // movdqa 0x975(%ecx),%xmm3
.byte 102,15,114,208,16 // psrld $0x10,%xmm0
.byte 102,15,114,210,16 // psrld $0x10,%xmm2
.byte 102,15,114,242,16 // pslld $0x10,%xmm2
@@ -76933,18 +76987,18 @@ _sk_srcover_rgba_8888_sse2_lowp:
.byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
.byte 102,15,235,222 // por %xmm6,%xmm3
.byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja cbbf <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
+ .byte 119,16 // ja cbdb <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
.byte 3,140,145,105,2,0,0 // add 0x269(%ecx,%edx,4),%ecx
.byte 255,225 // jmp *%ecx
.byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp cbff <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,64 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
.byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp cbff <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,51 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
.byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
.byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp cbff <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
+ .byte 235,33 // jmp cc1b <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
.byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
.byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
.byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
@@ -77073,11 +77127,11 @@ BALIGN16
.byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
.byte 191,0,0,224,64 // mov $0x40e00000,%edi
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cd88 <.literal16+0xe8>
+ .byte 224,64 // loopne cd98 <.literal16+0xe8>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cd8c <.literal16+0xec>
+ .byte 224,64 // loopne cd9c <.literal16+0xec>
.byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne cd90 <.literal16+0xf0>
+ .byte 224,64 // loopne cda0 <.literal16+0xf0>
.byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
.byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
.byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
@@ -77088,16 +77142,16 @@ BALIGN16
.byte 63 // aas
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdb1 <.literal16+0x111>
+ .byte 225,61 // loope cdc1 <.literal16+0x111>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdb5 <.literal16+0x115>
+ .byte 225,61 // loope cdc5 <.literal16+0x115>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdb9 <.literal16+0x119>
+ .byte 225,61 // loope cdc9 <.literal16+0x119>
.byte 174 // scas %es:(%edi),%al
.byte 71 // inc %edi
- .byte 225,61 // loope cdbd <.literal16+0x11d>
+ .byte 225,61 // loope cdcd <.literal16+0x11d>
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 255,0 // incl (%eax)
@@ -77107,13 +77161,13 @@ BALIGN16
.byte 255,0 // incl (%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cdd7 <.literal16+0x137>
+ .byte 127,67 // jg cde7 <.literal16+0x137>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cddb <.literal16+0x13b>
+ .byte 127,67 // jg cdeb <.literal16+0x13b>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cddf <.literal16+0x13f>
+ .byte 127,67 // jg cdef <.literal16+0x13f>
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg cde3 <.literal16+0x143>
+ .byte 127,67 // jg cdf3 <.literal16+0x143>
.byte 145 // xchg %eax,%ecx
.byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi)
.byte 145 // xchg %eax,%ecx
@@ -77264,13 +77318,13 @@ BALIGN16
.byte 132,55 // test %dh,(%edi)
.byte 8,33 // or %ah,(%ecx)
.byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne cee9 <.literal16+0x249>
+ .byte 224,7 // loopne cef9 <.literal16+0x249>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne ceed <.literal16+0x24d>
+ .byte 224,7 // loopne cefd <.literal16+0x24d>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cef1 <.literal16+0x251>
+ .byte 224,7 // loopne cf01 <.literal16+0x251>
.byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne cef5 <.literal16+0x255>
+ .byte 224,7 // loopne cf05 <.literal16+0x255>
.byte 0,0 // add %al,(%eax)
.byte 33,8 // and %ecx,(%eax)
.byte 2,58 // add (%edx),%bh
@@ -77319,17 +77373,17 @@ BALIGN16
.byte 0,0 // add %al,(%eax)
.byte 52,255 // xor $0xff,%al
.byte 255 // (bad)
- .byte 127,0 // jg cf54 <.literal16+0x2b4>
+ .byte 127,0 // jg cf64 <.literal16+0x2b4>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf58 <.literal16+0x2b8>
+ .byte 127,0 // jg cf68 <.literal16+0x2b8>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf5c <.literal16+0x2bc>
+ .byte 127,0 // jg cf6c <.literal16+0x2bc>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg cf60 <.literal16+0x2c0>
- .byte 119,115 // ja cfd5 <.literal16+0x335>
+ .byte 127,0 // jg cf70 <.literal16+0x2c0>
+ .byte 119,115 // ja cfe5 <.literal16+0x335>
.byte 248 // clc
.byte 194,119,115 // ret $0x7377
.byte 248 // clc
@@ -77340,7 +77394,7 @@ BALIGN16
.byte 194,117,191 // ret $0xbf75
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
- .byte 117,191 // jne cf39 <.literal16+0x299>
+ .byte 117,191 // jne cf49 <.literal16+0x299>
.byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
.byte 63 // aas
.byte 249 // stc
@@ -77356,7 +77410,7 @@ BALIGN16
.byte 68 // inc %esp
.byte 180,62 // mov $0x3e,%ah
.byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a40f76 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a345a6>
+ .byte 233,220,63,163,233 // jmp e9a40f86 <_sk_srcover_rgba_8888_sse2_lowp+0xe9a3459a>
.byte 220,63 // fdivrl (%edi)
.byte 163,233,220,63,81 // mov %eax,0x513fdce9
.byte 140,242 // mov %?,%edx
@@ -77452,16 +77506,16 @@ BALIGN16
.byte 128,3,62 // addb $0x3e,(%ebx)
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0c3 <.literal16+0x423>
+ .byte 118,63 // jbe d0d3 <.literal16+0x423>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0c7 <.literal16+0x427>
+ .byte 118,63 // jbe d0d7 <.literal16+0x427>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0cb <.literal16+0x42b>
+ .byte 118,63 // jbe d0db <.literal16+0x42b>
.byte 31 // pop %ds
.byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe d0cf <.literal16+0x42f>
+ .byte 118,63 // jbe d0df <.literal16+0x42f>
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
.byte 246,64,83,63 // testb $0x3f,0x53(%eax)
@@ -77487,13 +77541,13 @@ BALIGN16
.byte 248 // clc
.byte 65 // inc %ecx
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d106 <.literal16+0x466>
+ .byte 124,66 // jl d116 <.literal16+0x466>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d10a <.literal16+0x46a>
+ .byte 124,66 // jl d11a <.literal16+0x46a>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d10e <.literal16+0x46e>
+ .byte 124,66 // jl d11e <.literal16+0x46e>
.byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl d112 <.literal16+0x472>
+ .byte 124,66 // jl d122 <.literal16+0x472>
.byte 0,240 // add %dh,%al
.byte 0,0 // add %al,(%eax)
.byte 0,240 // add %dh,%al
@@ -77539,25 +77593,25 @@ BALIGN16
.byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
.byte 61,137,136,136,61 // cmp $0x3d888889,%eax
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d195 <.literal16+0x4f5>
+ .byte 112,65 // jo d1a5 <.literal16+0x4f5>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d199 <.literal16+0x4f9>
+ .byte 112,65 // jo d1a9 <.literal16+0x4f9>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d19d <.literal16+0x4fd>
+ .byte 112,65 // jo d1ad <.literal16+0x4fd>
.byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo d1a1 <.literal16+0x501>
+ .byte 112,65 // jo d1b1 <.literal16+0x501>
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
.byte 0,0 // add %al,(%eax)
.byte 255 // (bad)
- .byte 127,0 // jg d173 <.literal16+0x4d3>
+ .byte 127,0 // jg d183 <.literal16+0x4d3>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d177 <.literal16+0x4d7>
+ .byte 127,0 // jg d187 <.literal16+0x4d7>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d17b <.literal16+0x4db>
+ .byte 127,0 // jg d18b <.literal16+0x4db>
.byte 0,255 // add %bh,%bh
- .byte 127,0 // jg d17f <.literal16+0x4df>
+ .byte 127,0 // jg d18f <.literal16+0x4df>
.byte 0,0 // add %al,(%eax)
.byte 4,0 // add $0x0,%al
.byte 0,0 // add %al,(%eax)
@@ -77583,13 +77637,13 @@ BALIGN16
.byte 255 // (bad)
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d1b8 <.literal16+0x518>
+ .byte 127,255 // jg d1c8 <.literal16+0x518>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,255 // jg d1bc <.literal16+0x51c>
+ .byte 127,255 // jg d1cc <.literal16+0x51c>
.byte 255 // (bad)
.byte 255 // (bad)
- .byte 127,0 // jg d1c1 <.literal16+0x521>
+ .byte 127,0 // jg d1d1 <.literal16+0x521>
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
.byte 56,0 // cmp %al,(%eax)
.byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
@@ -77603,13 +77657,13 @@ BALIGN16
.byte 0,255 // add %bh,%bh
.byte 255,0 // incl (%eax)
.byte 255 // (bad)
- .byte 127,71 // jg d22b <.literal16+0x58b>
+ .byte 127,71 // jg d23b <.literal16+0x58b>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d22f <.literal16+0x58f>
+ .byte 127,71 // jg d23f <.literal16+0x58f>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d233 <.literal16+0x593>
+ .byte 127,71 // jg d243 <.literal16+0x593>
.byte 0,255 // add %bh,%bh
- .byte 127,71 // jg d237 <.literal16+0x597>
+ .byte 127,71 // jg d247 <.literal16+0x597>
.byte 208 // (bad)
.byte 179,89 // mov $0x59,%bl
.byte 62,208 // ds (bad)
@@ -77662,7 +77716,7 @@ BALIGN16
.byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
.byte 17,192 // adc %eax,%eax
.byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js d29c <.literal16+0x5fc>
+ .byte 120,57 // js d2ac <.literal16+0x5fc>
.byte 64 // inc %eax
.byte 18,120,57 // adc 0x39(%eax),%bh
.byte 64 // inc %eax
@@ -77733,13 +77787,13 @@ BALIGN16
.byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
.byte 0,192 // add %al,%al
.byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb d34e <.literal16+0x6ae>
+ .byte 114,28 // jb d35e <.literal16+0x6ae>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d352 <.literal16+0x6b2>
+ .byte 62,114,28 // jb,pt d362 <.literal16+0x6b2>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d356 <.literal16+0x6b6>
+ .byte 62,114,28 // jb,pt d366 <.literal16+0x6b6>
.byte 199 // (bad)
- .byte 62,114,28 // jb,pt d35a <.literal16+0x6ba>
+ .byte 62,114,28 // jb,pt d36a <.literal16+0x6ba>
.byte 199 // (bad)
.byte 62,85 // ds push %ebp
.byte 85 // push %ebp
@@ -77760,13 +77814,13 @@ BALIGN16
.byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
.byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
.byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg d3b3 <.literal16+0x713>
- .byte 114,249 // jb d36f <.literal16+0x6cf>
- .byte 127,63 // jg d3b7 <.literal16+0x717>
- .byte 114,249 // jb d373 <.literal16+0x6d3>
- .byte 127,63 // jg d3bb <.literal16+0x71b>
- .byte 114,249 // jb d377 <.literal16+0x6d7>
- .byte 127,63 // jg d3bf <.literal16+0x71f>
+ .byte 127,63 // jg d3c3 <.literal16+0x713>
+ .byte 114,249 // jb d37f <.literal16+0x6cf>
+ .byte 127,63 // jg d3c7 <.literal16+0x717>
+ .byte 114,249 // jb d383 <.literal16+0x6d3>
+ .byte 127,63 // jg d3cb <.literal16+0x71b>
+ .byte 114,249 // jb d387 <.literal16+0x6d7>
+ .byte 127,63 // jg d3cf <.literal16+0x71f>
.byte 3,0 // add (%eax),%eax
.byte 0,0 // add %al,(%eax)
.byte 3,0 // add (%eax),%eax
@@ -77834,14 +77888,14 @@ BALIGN16
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
.byte 0,248 // add %bh,%al
- .byte 224,255 // loopne d411 <.literal16+0x771>
- .byte 224,255 // loopne d413 <.literal16+0x773>
- .byte 224,255 // loopne d415 <.literal16+0x775>
- .byte 224,255 // loopne d417 <.literal16+0x777>
- .byte 224,255 // loopne d419 <.literal16+0x779>
- .byte 224,255 // loopne d41b <.literal16+0x77b>
- .byte 224,255 // loopne d41d <.literal16+0x77d>
- .byte 224,255 // loopne d41f <.literal16+0x77f>
+ .byte 224,255 // loopne d421 <.literal16+0x771>
+ .byte 224,255 // loopne d423 <.literal16+0x773>
+ .byte 224,255 // loopne d425 <.literal16+0x775>
+ .byte 224,255 // loopne d427 <.literal16+0x777>
+ .byte 224,255 // loopne d429 <.literal16+0x779>
+ .byte 224,255 // loopne d42b <.literal16+0x77b>
+ .byte 224,255 // loopne d42d <.literal16+0x77d>
+ .byte 224,255 // loopne d42f <.literal16+0x77f>
.byte 54,0,54 // add %dh,%ss:(%esi)
.byte 0,54 // add %dh,(%esi)
.byte 0,54 // add %dh,(%esi)
@@ -77865,5 +77919,5 @@ BALIGN4
.byte 0,0 // add %al,(%eax)
.byte 0,63 // add %bh,(%edi)
.byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg d49b <_sk_srcover_rgba_8888_sse2_lowp+0xacb>
+ .byte 127,67 // jg d4ab <_sk_srcover_rgba_8888_sse2_lowp+0xabf>
#endif